WO2021049475A1 - 内視鏡制御装置、内視鏡制御方法及びプログラム - Google Patents

内視鏡制御装置、内視鏡制御方法及びプログラム Download PDF

Info

Publication number
WO2021049475A1
WO2021049475A1 PCT/JP2020/033888 JP2020033888W WO2021049475A1 WO 2021049475 A1 WO2021049475 A1 WO 2021049475A1 JP 2020033888 W JP2020033888 W JP 2020033888W WO 2021049475 A1 WO2021049475 A1 WO 2021049475A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
image
operation content
unit
learning
Prior art date
Application number
PCT/JP2020/033888
Other languages
English (en)
French (fr)
Inventor
博一 西村
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2021545540A priority Critical patent/JPWO2021049475A1/ja
Priority to CN202080063616.7A priority patent/CN114430668A/zh
Publication of WO2021049475A1 publication Critical patent/WO2021049475A1/ja
Priority to US17/690,462 priority patent/US20220192466A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/0016Holding or positioning arrangements using motor drive units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • A61B1/0055Constructional details of insertion parts, e.g. vertebral elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/009Flexible endoscopes with bending or curvature detection of the insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/015Control of fluid supply or evacuation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Definitions

  • the present invention relates to an endoscope control device, an endoscope control method and a program.
  • Japanese Patent No. 3645223 does not describe controlling the bending angle of the curved portion in consideration of the presence of structures in the subject such as folds and intestinal wall. Therefore, according to the technique disclosed in Japanese Patent No. 3645223, when a part of the imaged cavity is shielded by a fold located on the front side of the cavity, the endoscope is inserted. There may be a problem that the tip of the portion moves in the direction of contact with the fold without avoiding the fold. Further, according to the technique disclosed in Japanese Patent No. 3645223, when the lumen is hidden behind the intestinal wall, the tip of the insertion portion of the endoscope is on the side of the intestinal wall. The problem of moving in the direction of contact with the intestinal wall without wrapping around may occur. That is, according to the technique disclosed in Japanese Patent No. 3645223, there is a problem that the tip portion of the insertion portion cannot be properly operated.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide an endoscope control device, an endoscope control method, and a program capable of appropriately operating the tip portion of an insertion portion.
  • the endoscope control device includes an image acquisition unit that acquires an endoscope image taken by an endoscope inserted in a subject, and an image acquisition unit. Based on the endoscope image acquired in the above, the operation content determination unit that determines one or more operation contents from a plurality of predetermined operation contents, and the operation content determination unit determines the operation content of the endoscope. It has a control unit that controls the operation.
  • the operation content determination unit was generated by machine learning using a learning image, which is an endoscope image taken in the past, and a label indicating the operation content for the endoscope that captured the learning image as teacher data. By inputting the input data acquired from the endoscopic image acquired by the image acquisition unit into the one or more operation selection models, one or more operation contents are determined.
  • Another aspect of the present invention is a method of controlling the operation of an endoscope, in which an endoscope image taken by an endoscope inserted in a subject is acquired and an endoscope taken in the past is obtained.
  • the acquired endoscope is applied to one or more operation selection models generated by machine learning using a learning image which is a mirror image and a label indicating the operation contents for the endoscope in which the learning image is taken as teacher data.
  • a learning image which is a mirror image and a label indicating the operation contents for the endoscope in which the learning image is taken as teacher data.
  • (A) and (b) are diagrams showing an example of a learning image.
  • (A) and (b) are diagrams showing an example of a learning image.
  • (A) and (b) are diagrams showing an example of a learning image.
  • FIG. 1 shows the configuration of the endoscope system 1 of the embodiment.
  • the endoscope system 1 is provided in an endoscopy room and includes an endoscope control device 2, an endoscope 10, an input device 50, and a display device 60.
  • the endoscope control device 2 has a processing device 20, an insertion shape detection device 30, and an external force information acquisition device 40, and has a function of automatically operating the operation of the endoscope 10 inserted into the body of the subject.
  • the automatic operation of the endoscope 10 is carried out by a processing device 20 including one or more processors 22 and a storage medium 24.
  • the input device 50 is an input interface operated by the user, and is configured to output an instruction according to the user's operation to the processing device 20.
  • the input device 50 may include an operating device such as a mouse, keyboard, touch panel, or the like.
  • the display device 60 is a device that displays an endoscopic image or the like output from the processing device 20 on the screen, and may be a liquid crystal display or an organic EL display.
  • the endoscope 10 includes an imaging unit including a solid-state imaging element (for example, a CCD image sensor or a CMOS image sensor).
  • the solid-state image sensor converts the incident light into an electric signal and outputs it to the processing device 20.
  • the processing device 20 has an image processing unit that performs signal processing such as A / D conversion and noise removal on an image pickup signal photoelectrically converted by a solid-state image pickup device, and generates an endoscopic image.
  • the image processing unit may be provided on the endoscope 10 side, and the endoscope 10 may generate an endoscope image.
  • the processing device 20 causes the display device 60 to display the image captured by the endoscope 10 in real time.
  • the endoscope 10 includes an insertion unit 11 to be inserted into the subject, an operation unit 16 provided on the base end side of the insertion unit 11, and a universal cord 17 extending from the operation unit 16.
  • the endoscope 10 is detachably connected to the processing device 20 by a scope connector (not shown) provided at the end of the universal cord 17.
  • the elongated insertion portion 11 has a rigid tip portion 12, a bendable portion 13 formed to be bendable, and a flexible long flexible tube portion 14 directed from the tip end side to the base end side. Have in order. Inside the tip portion 12, the curved portion 13, and the flexible tube portion 14, a plurality of source coils 18 that generate a magnetic field according to the coil drive signal supplied from the processing device 20 are arranged along the longitudinal direction of the insertion portion 11. Are arranged at predetermined intervals.
  • the processing device 20 automatically operates the endoscope 10 to automatically control the operation of the endoscope 10 in the subject, but the user grips the operation unit 16 and holds the operation unit 16. It is also possible to manually operate the endoscope 10.
  • the basic operations of the endoscope 10 are as follows. -"Pushing operation” to move the insertion unit 11 forward -"Pulling operation” to retract the insertion unit 11 -"Angle operation” for bending the curved portion 13. -"Torsion operation” to rotate the insertion part 11 around the insertion axis -"Air supply operation” to eject gas to the front of the tip portion 12 -"Water supply operation” to eject liquid to the front of the tip portion 12 -"Suction operation” for sucking an object such as a tissue piece existing in the vicinity of the tip portion 12.
  • Search operation for searching the lumen by bending the curved portion 13 in a plurality of directions and directing the tip portion 12 in a plurality of directions.
  • the processing device 20 captures the endoscope image at the timing when the release switch is operated. Then, it is sent to an image server (not shown) for recording.
  • the release switch may be provided on the input device 50.
  • a light guide (not shown) for transmitting the illumination light supplied from the processing device 20 to illuminate the inside of the subject is provided.
  • the tip portion 12 is provided with an illumination window for emitting illumination light transmitted by a light guide to a subject, and an imaging unit for photographing the subject at a predetermined cycle and outputting an imaging signal.
  • the operation unit 16 includes an operation member for the user to operate the endoscope 10.
  • the operation unit 16 includes an angle knob for bending the curved portion 13 in at least four directions of up, down, left, and right intersecting the longitudinal axis of the insertion portion 11.
  • the operation unit 16 may include one or more release switches for the user to input a shooting instruction.
  • the processing device 20 is detachably connected to each configuration of the insertion shape detection device 30, the external force information acquisition device 40, the input device 50, and the display device 60.
  • the processing device 20 receives an instruction from the user input from the input device 50 and executes a process corresponding to the instruction. Further, the processing device 20 acquires an imaging signal periodically output from the endoscope 10 and displays the endoscope image on the display device 60.
  • the processing device 20 has a function of generating and outputting a control signal for controlling the operation of the endoscope 10. Specifically, the processing device 20 is configured to automatically operate the operation of the endoscope 10 based on the endoscope image generated based on the imaging signal output from the endoscope 10.
  • the insertion shape detection device 30 detects the magnetic fields generated by each of the plurality of source coils 18 provided in the insertion portion 11, and acquires the positions of the plurality of source coils 18 based on the strength of the detected magnetic fields. Has a function.
  • the insertion shape detection device 30 generates insert shape information indicating the positions of the acquired plurality of source coils 18, and outputs the insertion shape information to the processing device 20 and the external force information acquisition device 40.
  • the external force information acquisition device 40 includes data on the curvature (or radius of curvature) and the curvature angle of a plurality of predetermined positions of the insertion portion 11 in a state where no external force is applied, and any of the insertion portions 11 from any assumed direction. It stores data on the curvature (or radius of curvature) and the curvature angle of a plurality of predetermined positions acquired in a state where a predetermined external force is applied to the positions.
  • the external force information acquisition device 40 identifies the positions of the plurality of source coils 18 provided in the insertion portion 11 based on the insertion shape information output from the insertion shape detection device 30, and the respective positions of the plurality of source coils 18.
  • the external force information acquisition device 40 indicates the magnitude and direction of the external force at each position of the plurality of source coils 18 from the acquired curvature (or radius of curvature) and curvature angle and various data stored in advance. Information may be obtained.
  • the external force information acquisition device 40 outputs the acquired external force information to the processing device 20.
  • the method disclosed in Japanese Patent No. 5851204 is used as a method for calculating the external force at each position of the plurality of source coils 18 provided in the insertion portion 11 by the external force information acquisition device 40. It may be used, or the method disclosed in Japanese Patent No. 5897902 may be used. Further, electronic components such as a strain sensor, a pressure sensor, an acceleration sensor, a gyro sensor, and a wireless element are provided in the insertion portion 11, and the external force information acquisition device 40 is provided with a plurality of sources based on signals output from the electronic components. It may be configured to calculate the external force at each position of the coil 18.
  • the processing device 20 of the embodiment controls to automatically operate the operation of the insertion unit 11 of the endoscope 10.
  • a comparative technique for comparing with the control technique according to the embodiment will be described.
  • FIG. 2A shows an example of an endoscopic image.
  • the endoscopic image 70a is an image of an intestinal tract (rubber intestinal tract) formed of rubber taken with an endoscope.
  • the doctor looks at the endoscopic image 70a and confirms that the cavity is in the center of the image, he decides that the tip of the endoscope may be advanced and advances the tip of the endoscope forward. ..
  • FIG. 2B shows another example of an endoscopic image.
  • the endoscopic image 70b is also an image of the rubber intestinal tract.
  • the doctor looks at the endoscopic image 70b, confirms that the lumen exists at the upper part of the image, and determines that if the tip of the endoscope is advanced in this state, it will come into contact with the folds in front. Therefore, the doctor operates the angle knob so as to bend the curved portion 13 upward so that the cavity is photographed in the center of the image.
  • the state is similar to that of the endoscope image 70a shown in FIG. 2A. Therefore, the doctor decides that the tip of the endoscope may be advanced, and the inside is inside. Advance the tip of the endoscope forward.
  • the lumen is included in the front, the lumen is included in the upper part, the lumen is included in the lower part, there is an obstacle in front of the lumen, the lumen is not photographed, and so on. It is a predefined scene. (S5) The operation content is associated with each scene in advance, and the operation content is determined based on the scenes classified in S4.
  • the comparative technique processes the endoscopic image 70a shown in FIG. 2A.
  • the region division process is performed (S2) to identify the lumen region, the contour line of the folds, the mucosal surface region, etc. in the endoscopic image 70a (S2). S3).
  • the comparative technique recognizes the position and shape of the lumen, that there is no obstacle on the front side of the lumen, etc., and indicates that the endoscopic image 70a includes a scene in which the lumen is included in the front. Identify (S4).
  • the defined scene and the operation content of the endoscope are associated in advance, and the "pushing operation" of the endoscope is associated with the scene in which the lumen is included in the anterior direction. ing. Therefore, according to the comparative technique, the "pushing operation" of the endoscope is determined as the operation to be performed by analyzing the image of the endoscope image 70a (S5).
  • the comparison technique When processing the endoscopic image 70b shown in FIG. 2B, the comparison technique obtains the endoscopic image 70a (S1), performs a region division process (S2), and obtains the endoscopic image 70a.
  • the lumen region, the contour line of the fold, the mucosal surface region, and the like are specified (S3).
  • the comparative technique image-recognizes the position and shape of the lumen, the absence of obstacles on the front side of the lumen, etc., and identifies that the endoscopic image 70b includes a scene in which the lumen is "included above”. (S4).
  • the "upward angle operation" of the endoscope is associated with the scene in which the "cavity is included above”. Therefore, according to the comparative technique, by performing image analysis on the endoscope image 70b, an "upward angle operation" of the endoscope is determined as an operation to be performed (S5).
  • the endoscopic images 70a and 70b shown in FIGS. 2A and 2B are relatively easily processed by the comparative technique.
  • processing of another endoscopic image by the comparative technique will be described.
  • FIG. 3A shows another example of an endoscopic image.
  • the endoscopic image 70c is an image of the flexed portion of the large intestine of the subject.
  • the lumen is not clearly photographed in the endoscopic image 70c, but if you are a doctor, since the right side of the endoscopic image 70c is bright, you can wrap the tip of the endoscope from the left side and bend it. It is possible to find a route for the tip to enter the lumen. Therefore, when the endoscope image 70c is displayed, it is necessary to first perform an operation of turning the tip of the endoscope to the left.
  • the comparison technique determines "angle operation to the left” as an operation to be performed based on the endoscopic image 70c of FIG. 3 (a). it can.
  • FIG. 3B shows another example of an endoscopic image.
  • the endoscopic image 70d is an image of the lumen of the subject, and the lumen is taken at a position slightly lower right from the center.
  • the tip of the endoscope may come into contact with the mucosal surface of the folds existing on the lower right side of the image.
  • the doctor is to operate the endoscope in the upper left direction, then move it forward, and then perform the angle operation in the lower right direction, the tip of the endoscope and the folds will be operated. Avoid contact with the mucosal surface. Therefore, when the endoscope image 70d is displayed, it is necessary to first perform an operation of turning the tip of the endoscope in the upper left direction.
  • the automatic operation control technique of the endoscope 10 in the embodiment will be described.
  • the control technique of the embodiment there is an advantage that the scene identification process of S4 in the comparison technique is not required, and the work of associating the scene with the operation content is also unnecessary, and the construction of a complicated and highly difficult algorithm can be omitted.
  • FIG. 4 is a functional block diagram for explaining the configuration of the endoscope system 1 according to the embodiment.
  • the endoscope system 1 includes an endoscope 10, a processing device 20, an insertion shape detection device 30, an external force information acquisition device 40, an input device 50, and a display device 60.
  • the configuration shown in FIG. 4 can be realized by one or more processors 22, a memory, an auxiliary storage device, and other LSIs in terms of hardware, and can be realized by a program loaded in the memory in terms of software. Then, I draw a functional block realized by their cooperation. Therefore, it will be understood by those skilled in the art that these functional blocks can be realized in various ways by hardware only, software only, or a combination thereof.
  • a program for executing at least a part of the functions of the processing device 20 is stored in the storage medium 24, and the processor 22 loads the program from the storage medium 24 into the memory to realize each function of the processing device 20. You may.
  • the insertion shape detection device 30 includes a receiving antenna 310 and an insertion shape information acquisition unit 320.
  • the receiving antenna 310 includes a plurality of coils that three-dimensionally detect the magnetic fields generated by each of the plurality of source coils 18.
  • the receiving antenna 310 detects a magnetic field generated by each of the plurality of source coils 18, it outputs a magnetic field detection signal corresponding to the strength of the detected magnetic field to the insertion shape information acquisition unit 320.
  • the insertion shape information acquisition unit 320 acquires the respective positions of the plurality of source coils 18 based on the magnetic field detection signal output from the receiving antenna 310.
  • the insertion shape information acquisition unit 320 generates insertion shape information indicating the positions of the plurality of source coils 18 and outputs the insertion shape information to the operation control unit 260 and the external force information acquisition device 40.
  • the insertion shape information acquisition unit 320 has a plurality of three-dimensional coordinate values in a virtual spatial coordinate system in which a predetermined position (anus, etc.) of the subject is set as the origin or the reference point as the positions of the plurality of source coils 18. To get.
  • the insertion shape information acquisition unit 320 generates insert shape information including three-dimensional coordinate values of the plurality of source coils 18 and outputs the insertion shape information to the motion control unit 260 and the external force information acquisition device 40.
  • the external force information acquisition device 40 acquires the curvature (or radius of curvature) and the curvature angle at each position of the plurality of source coils 18 based on the insertion shape information output from the insertion shape detection device 30.
  • the external force information acquisition device 40 indicates the magnitude and direction of the external force at each position of the plurality of source coils 18 from the acquired curvature (or radius of curvature) and curvature angle and various data stored in advance. Information may be obtained.
  • the external force information acquisition device 40 outputs the acquired external force information to the operation control unit 260.
  • the endoscope 10 includes a source coil 18, an imaging unit 110, an advancing / retreating mechanism 141, a bending mechanism 142, an AWS mechanism 143, and a rotation mechanism 144.
  • the advancing / retreating mechanism 141, the bending mechanism 142, the AWS mechanism 143, and the rotation mechanism 144 constitute an operation mechanism in the endoscope 10.
  • the image pickup unit 110 includes an observation window into which the return light from the subject illuminated by the illumination light is incident, and a solid-state image sensor (for example, a CCD image sensor or a CMOS image sensor) that captures the return light and outputs an image pickup signal.
  • a solid-state image sensor for example, a CCD image sensor or a CMOS image sensor
  • the advancing / retreating mechanism 141 has a mechanism for realizing an operation of advancing and retreating the insertion portion 11.
  • the advancing / retreating mechanism 141 may include a pair of rollers arranged at positions facing each other with the insertion portion 11 interposed therebetween and a motor for rotating the pair of rollers.
  • the advancing / retreating mechanism 141 drives a motor in response to an advancing / retreating control signal output from the processing device 20 to rotate a pair of rollers to move the insertion unit 11 forward or retract the insertion unit 11. Select one of them.
  • the bending mechanism 142 has a mechanism for realizing an operation of bending the bending portion 13.
  • the bending mechanism 142 includes a plurality of bending pieces provided in the bending portion 13, a plurality of wires connected to the plurality of bending pieces, and a motor for pulling the plurality of wires. Good.
  • the bending mechanism 142 drives the motor in response to the bending control signal output from the processing device 20 to change the traction amount of the plurality of wires, so that the bending mechanism 142 intersects the longitudinal axis of the insertion portion 11 at least vertically and horizontally.
  • the curved portion 13 can be curved in any of the four directions.
  • the curved portion 13 of the embodiment may have a structure that is curved in any of eight directions intersecting the longitudinal axis of the insertion portion 11.
  • the AWS (Air feding, Water feding, and Action) mechanism 143 has a mechanism for realizing an air supply operation, a water supply operation, and a suction operation.
  • the AWS mechanism 143 opens two pipes, that is, an air supply water pipe and a suction pipe, which are provided inside the insertion unit 11, the operation unit 16, and the universal cord 17, and one of the two pipes. It may be configured to have a solenoid valve that closes the other while doing so.
  • the AWS mechanism 143 includes at least one of water and air supplied from the processing device 20 when the solenoid valve is operated so as to open the air supply / water pipe line in response to the AWS control signal output from the processing device 20.
  • the fluid is circulated through the air supply / water pipe, and the fluid is discharged from the discharge port formed at the tip portion 12.
  • the AWS mechanism 143 operates the solenoid valve so as to open the suction pipeline in response to the AWS control signal output from the processing device 20, the suction force generated in the processing device 20 acts on the suction pipeline. , An object existing near the suction port formed on the tip portion 12 is sucked by the suction force.
  • the rotation mechanism 144 has a mechanism for realizing the operation of rotating the insertion portion 11 with the insertion shaft of the insertion portion 11 as the rotation axis.
  • the rotation mechanism 144 may be configured to include a support member that rotatably supports the insertion portion 11 on the base end side of the flexible tube portion 14, and a motor for rotating the support member.
  • the rotation mechanism 144 drives the motor in response to the rotation control signal output from the processing device 20 to rotate the support member, thereby rotating the insertion portion 11 around the insertion shaft.
  • the insertion shaft of the insertion portion 11 may be the central axis in the longitudinal direction of the insertion portion 11.
  • the processing device 20 includes a light source unit 210, an image processing unit 220, a coil drive signal generation unit 230, a drive control unit 240, a display control unit 250, and an operation control unit 260.
  • the light source unit 210 generates illumination light for illuminating the inside of the subject and supplies the illumination light to the endoscope 10.
  • the light source unit 210 may have one or more LEDs or one or more lamps as a light source.
  • the light source unit 210 may change the amount of illumination light according to the operation control signal supplied from the operation control unit 260.
  • the image processing unit 220 has a signal processing circuit, performs predetermined processing on the imaging signal output from the endoscope 10, generates an endoscope image, and displays the generated endoscope image as a display control unit. Output to 250 and operation control unit 260.
  • the coil drive signal generation unit 230 generates a coil drive signal for driving the source coil 18.
  • the coil drive signal generation unit 230 has a drive circuit, generates a coil drive signal according to the operation control signal supplied from the operation control unit 260, and supplies the coil drive signal to the source coil 18.
  • the drive control unit 240 generates a control signal corresponding to the basic operation of the endoscope 10 based on the operation control signal supplied from the operation control unit 260, and drives the operation mechanism of the endoscope 10. Specifically, the drive control unit 240 controls at least one of an advance / retreat operation by the advance / retreat mechanism 141, a bending operation by the bending mechanism 142, an AWS operation by the AWS mechanism 143, and a rotation operation by the rotation mechanism 144.
  • the drive control unit 240 includes an advance / retreat control unit 241, a curvature control unit 242, an AWS control unit 243, and a rotation control unit 244.
  • the advance / retreat control unit 241 generates and outputs an advance / retreat control signal for controlling the operation of the advance / retreat mechanism 141 based on the operation control signal supplied from the operation control unit 260. Specifically, the advance / retreat control unit 241 generates and outputs an advance / retreat control signal for controlling the rotation of the motor provided in the advance / retreat mechanism 141 based on the operation control signal supplied from the operation control unit 260.
  • the curvature control unit 242 generates and outputs a curvature control signal for controlling the operation of the curvature mechanism 142 based on the operation control signal supplied from the operation control unit 260. Specifically, the curvature control unit 242 generates and outputs a curvature control signal for controlling the rotation of the motor provided in the curvature mechanism 142 based on the operation control signal supplied from the operation control unit 260.
  • the AWS control unit 243 supplies a fluid containing at least one of water and air to the endoscope 10 by controlling a pump or the like (not shown) based on an operation control signal supplied from the operation control unit 260. Or an operation for generating a suction force for sucking an object existing in the vicinity of the suction port of the tip portion 12 is selectively executed.
  • the AWS control unit 243 is configured to generate and output an AWS control signal for controlling the operation of the AWS mechanism 143. Specifically, the AWS control unit 243 generates and outputs an AWS control signal for controlling the operation state of the solenoid valve provided in the AWS mechanism 143 based on the operation control signal supplied from the operation control unit 260. ..
  • the rotation control unit 244 generates and outputs a rotation control signal for controlling the operation of the rotation mechanism 144 based on the operation control signal supplied from the operation control unit 260. Specifically, the rotation control unit 244 generates and outputs a rotation control signal for controlling the rotation of the motor provided in the rotation mechanism 144 based on the operation control signal supplied from the operation control unit 260.
  • the display control unit 250 generates a display image including the endoscopic image output from the image processing unit 220, and causes the display device 60 to display the generated display image.
  • the operation control unit 260 has a function of generating an operation control signal for causing the endoscope 10 to perform an operation according to an instruction or the like from the operation unit 16 and the input device 50, and outputting the operation control signal to the drive control unit 240. Further, the motion control unit 260 automatically controls the operation of the endoscope 10 based on the endoscope image generated by the image processing unit 220 when the automatic insertion mode of the endoscope 10 is set to ON.
  • Has the function of The operation control unit 260 includes an image acquisition unit 261, an operation content determination unit 262, an operation control unit 263, a drive determination unit 264, and an operation selection model 265.
  • the image acquisition unit 261 acquires an endoscope image taken by the endoscope 10 inserted in the subject from the image processing unit 220.
  • the image pickup unit 110 of the endoscope 10 supplies an image pickup signal to the image processing section 220 at a predetermined cycle (for example, 30 frames / second), and the image processing section 220 generates an endoscope image from the image pickup signal. It is supplied to the image acquisition unit 261. Therefore, the image acquisition unit 261 acquires an endoscopic image at a predetermined cycle.
  • the operation content determination unit 262 has a function of determining one or more operation contents from a plurality of predetermined operation contents based on the endoscopic image acquired by the image acquisition unit 261. In other words, the operation content determination unit 262 determines the operation content to be performed from now on from a plurality of options for endoscopic operation based on the endoscopic image captured in the subject.
  • the predetermined plurality of operation contents may be composed of at least one kind of operation, which is the above-mentioned basic operation, that is, a push operation, a pull operation, an angle operation, a twist operation, an air supply operation, a water supply operation, and a suction operation.
  • the operation content determination unit 262 determines the operation content of the endoscope 10 at each timing when the image acquisition unit 261 acquires the endoscope image, and the operation control unit 263 determines the operation content.
  • the corresponding operation control signal may be generated and supplied to the drive control unit 240.
  • the drive control unit 240 drives the operation mechanism of the endoscope 10 based on the operation control signal by the operation control unit 263, and at the timing when the drive is completed, the operation content determination unit 262 determines the operation content.
  • the operation content of the endoscope 10 may be determined using the endoscope image acquired by the image acquisition unit 261, and the operation control unit 263 may generate an operation control signal.
  • the drive determination unit 264 determines that the drive control unit 240 is driving and controlling the operation mechanism.
  • the drive determination unit 264 determines that the drive control is completed.
  • the drive determination unit 264 notifies the operation content determination unit 262 that a new operation content should be determined, and the operation content determination unit 262 uses the newly acquired endoscopic image for endoscopy.
  • the operation content of the mirror 10 is determined.
  • the operation content determination unit 262 may determine the operation content of the endoscope 10 based on the endoscope image acquired by the image acquisition unit 261 after or immediately before the completion of driving the operation mechanism. ..
  • the operation content determination unit 262 inputs the input data acquired from the endoscope image acquired by the image acquisition unit 261 into the operation selection model 265, so that the endoscope 10 that captures the endoscope image is captured. Determine the appropriate operation content for.
  • the operation selection model 265 was generated by machine learning using a learning image which is an endoscope image taken in the past and a label indicating the operation content for the endoscope which took the learning image as teacher data. It is a trained model.
  • the operation selection model 265 deepens each coupling coefficient (weight) in a CNN (Convolutional Neural Network) corresponding to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. It is generated by learning by a learning method such as learning.
  • CNN Convolutional Neural Network
  • Example 1 In generating the operation selection model 265, the learning image, which is an endoscopic image of the inside of the intestinal tract or the colon model taken with an endoscope in the past, and the operation content most suitable for the situation shown by the learning image are 5.
  • Machine learning is performed using teacher data including a label indicating which of the operation contents is included.
  • the five operation contents include an angle operation UPS for bending the curved portion 13 to direct the tip portion 12 upward, and an angle for bending the curved portion 13 to direct the tip portion 12 downward.
  • the operation DOS the angle operation LES for bending the curved portion 13 to turn the tip portion 12 to the left
  • the angle operation RIS for bending the curved portion 13 to turn the tip portion 12 to the right
  • the curved portion An angle maintaining operation AMS for fixing the bending angle of 13 and maintaining the orientation of the tip portion 12 in the current orientation is included.
  • the vertical direction of the tip portion 12 is set as a direction orthogonal to the insertion axis of the insertion portion 11, and is a direction corresponding to the vertical direction of the solid-state image sensor provided in the image pickup unit 110. Is set as. Further, in all the embodiments, the left-right direction of the tip portion 12 is set as a direction orthogonal to the insertion axis of the insertion portion 11, and a direction corresponding to the horizontal direction of the image sensor provided in the image pickup unit 110. Is set as.
  • the vertical direction of the tip portion 12 and the vertical direction of the endoscopic image output from the image processing unit 220 coincide with each other, and the left-right direction of the tip portion 12 and the left-right direction of the endoscopic image coincide with each other.
  • an expert looks at the learning image and subjectively selects one operation content most likely to be performed in the situation shown in the learning image from the above five operation contents. , The label of the selected operation content is given to the learning image.
  • the scholar may be a doctor.
  • an expert can perform an operation of pointing the tip of the endoscope upward. That is, it is determined that the angle operation UPS should be performed, and the endoscope image 70b is labeled with the angle operation UPS.
  • Teacher data is created by performing this labeling operation on a large number of past endoscopic images.
  • FIG. 5 shows an example of teacher data.
  • Each of the learning images shown in FIG. 5 is given an "angle operation UPS label" indicating an upward angle operation.
  • the learning image shown in FIG. 5 is an image in which it is determined that the curved portion 13 should be curved upward as an endoscope operation to be performed.
  • FIG. 6 shows another example of teacher data.
  • Each of the learning images shown in FIG. 6 is given an "angle operation RIS label" indicating an angle operation in the right direction.
  • the learning image shown in FIG. 6 is an image in which it is determined that the curved portion 13 should be curved to the right as an endoscope operation to be performed.
  • FIG. 7 shows another example of teacher data.
  • Each of the learning images shown in FIG. 7 is given an "angle operation DOS label" indicating a downward angle operation.
  • the learning image shown in FIG. 7 is an image in which it is determined that the curved portion 13 should be curved downward as an endoscope operation to be performed.
  • FIG. 8 shows another example of teacher data.
  • Each of the learning images shown in FIG. 8 is given an "angle operation LES label" indicating an angle operation in the left direction.
  • the learning image shown in FIG. 8 is an image in which it is determined that the curved portion 13 should be curved to the left as an endoscope operation to be performed.
  • the teacher data of the angle maintaining operation AMS for fixing the bending angle of the bending portion 13 and maintaining the orientation of the tip portion 12 in the current orientation is not shown, but for example, for learning shown in FIG. 13 shown later.
  • the image may be labeled with "angle maintenance operation AMS".
  • the operation selection model 265 of the first embodiment is generated by machine learning using at least the teacher data shown in FIGS. 5 to 8.
  • the operation content determination unit 262 attaches to one or more operation selection models 265 generated by machine learning using the learning image and the label indicating the operation content for the endoscope that captured the learning image as teacher data. By inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261, one or more operation contents are determined. Specifically, the operation content determination unit 262 acquires multidimensional data such as pixel values of each pixel included in the endoscopic image acquired by the image acquisition unit 261 and uses the multidimensional data as input data as an operation selection model. Input to the input layer of the 265 neural network. The operation selection model 265 outputs five likelihoods corresponding to each of the five operation contents that can be selected as the operation contents of the endoscope 10 from the output layer of the neural network. The operation content determination unit 262 can obtain the operation content corresponding to one of the five likelihoods included in the output data as the selection result of the operation content of the endoscope 10.
  • the operation content determination unit 262 inserts the direction of the tip portion 12 by inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261 into the operation selection model 265 and processing the operation content determination unit 262.
  • One operation selected from five operation contents including an operation for directing in four directions orthogonal to the insertion axis of 11 and an operation for maintaining the direction of the tip portion 12 in the current direction. It is configured to obtain selection results that indicate the content.
  • the operation control unit 263 has a function of controlling the operation of the endoscope 10 based on the operation content determined by the operation content determination unit 262.
  • the operation control unit 263 sets the amount of operation in the determined operation content based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40. You may.
  • the operation control unit 263 generates an operation control signal for performing operation control according to the operation content determined by the operation content determination unit 262 and the operation amount in the operation content, and outputs the operation control signal to the drive control unit 240.
  • Example 1 The operation of Example 1 will be described. In the following, a case where the control related to the insertion operation of the insertion portion 11 inserted from the anus into the intestinal tract of the large intestine is performed will be described as an example.
  • the user After connecting each part of the endoscope system 1 and turning on the power, the user inserts the tip portion 12 of the endoscope 10 into the anus of the subject.
  • the user operates the input device 50 to set the automatic insertion mode of the endoscope 10 to ON, whereby the processing device 20 executes the automatic operation function of the endoscope 10.
  • the light source unit 210 supplies illumination light to the endoscope 10, and the imaging unit 110 images the subject irradiated with the illumination light at a predetermined cycle and transmits the imaging signal to the processing device 20.
  • the image processing unit 220 generates an endoscopic image from the image pickup signal and supplies it to the display control unit 250 and the image acquisition unit 261.
  • the coil drive signal generation unit 230 supplies the coil drive signal to the plurality of source coils 18, the receiving antenna 310 detects the magnetic fields generated by each of the plurality of source coils 18, and the insertion shape information acquisition unit 320 causes the insertion shape information acquisition unit 320 to detect the magnetic fields.
  • the insertion shape information is supplied to the motion control unit 260 and the external force information acquisition device 40.
  • the external force information acquisition device 40 generates external force information at each position of the plurality of source coils 18 from the inserted shape information and supplies the external force information to the operation control unit 260.
  • the operation content determination unit 262 inputs the input data acquired from the endoscope image acquired by the image acquisition unit 261 into the operation selection model 265 and causes the operation selection model 265 to process the five operations related to the operation of the endoscope 10. Determine one operation content from the contents.
  • the operation control unit 263 generates an operation control signal for controlling the operation of the endoscope 10 based on the operation content determined by the operation content determination unit 262. At this time, the operation control unit 263 sets the operation amount in the determined operation content based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40. You may perform the processing for.
  • the operation control unit 263 generates an operation control signal for performing operation control according to the determined operation content and the set operation amount, and outputs the operation control signal to the drive control unit 240.
  • the operation control unit 263 operates in the operation content when the operation content determined by the operation content determination unit 262 is any one of the angle operation UPS, the angle operation DOS, the angle operation LES, and the angle operation RIS. As the amount, the bending angle CAS of the bending portion 13 is set. Then, the operation control unit 263 generates an operation control signal for executing the control of bending the bending unit 13 by the bending angle CAS, and outputs the operation control signal to the drive control unit 240. The operation control unit 263 generates an operation control signal for setting the rotation angle RAS of the insertion unit 11 and executing the control for rotating the insertion unit 11 by the rotation angle RAS in addition to the control for bending the bending unit 13. May be good.
  • the operation control unit 263 sets the movement amount MAS of the insertion unit 11 as the operation amount in the operation content. Then, the operation control unit 263 generates and drives an operation control signal that executes both the control of fixing the bending angle of the bending part 13 to the current bending angle and the control of advancing the insertion part 11 by the movement amount MAS. Output to the control unit 240.
  • the movement amount MAS is preferably set as a value within a range in which the insertion portion 11 inserted in the intestinal tract can be safely advanced.
  • the operation control unit 263 sets the operation amount based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40.
  • the operation amount may be set by reading the set value stored in advance in the storage medium 24.
  • the user When the user confirms that the observation is completed based on the endoscope image displayed on the display device 60, the user operates the input device 50 to set the automatic insertion mode of the endoscope 10 to off. As a result, the processing device 20 stops the execution of the automatic operation function of the endoscope 10.
  • the operation content determination unit 262 selects from a plurality of predetermined operation contents related to the operation of the endoscope 10 based on the endoscope image. You can select the same operation content as the operation content.
  • the operation control unit 263 can set the operation amount in the selected operation content and generate an operation control signal for controlling the operation of the endoscope 10. Therefore, according to the first embodiment, the operation content of the endoscope 10 can be easily determined by using the operation selection model 265 which is a learned model.
  • the operation content determination unit 262 may determine the operation content by using an operation selection model different from the operation selection model 265 that outputs the likelihood of each of the five operation contents.
  • This operation selection model may be a trained model configured to output the likelihood of each of the four operation contents of, for example, angle operation UPS, angle operation DOS, angle operation LES, and angle operation RIS.
  • the operation control unit 263 generates an operation control signal for controlling the bending unit 13 to be curved according to the operation content determined by the operation content determination unit 262, and outputs the operation control signal to the drive control unit 240. Good.
  • the operation control unit 263 moves the insertion unit 11 forward or backward based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40.
  • a control signal may be generated.
  • the operation selection model 265 of the second embodiment is a learning method such as deep learning for each coupling coefficient (weight) in a CNN corresponding to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. It is a trained model created by training in. In generating the operation selection model 265 of the second embodiment, it is most suitable for the learning image which is an endoscopic image of the inside of the intestinal tract or the colon model taken with an endoscope in the past and the situation shown by the learning image. Machine learning is performed using the teacher data including a label indicating which of the nine operation contents the operation content is.
  • the nine operation contents include, for example, an angle operation UPS, an angle operation DOS, an angle operation LES, an angle operation RIS, an angle maintenance operation AMS, and a curved portion 13 is curved so that the tip portion 12 is on the upper right.
  • the operation DLS and the angle operation DRS for bending the curved portion 13 and directing the tip portion 12 in the lower right direction are included.
  • the upper right direction of the tip portion 12 is set as a direction orthogonal to the insertion axis of the insertion portion 11, and the direction is located between the upper direction and the right direction of the tip portion 12. Is set as. Further, the upper left direction of the tip portion 12 is set as a direction orthogonal to the insertion axis of the insertion portion 11, and is set as a direction located between the upper direction and the left direction of the tip portion 12. Further, the lower left direction of the tip portion 12 is set as a direction orthogonal to the insertion axis of the insertion portion 11, and is set as a direction located between the lower direction and the left direction of the tip portion 12. Further, the lower right direction of the tip portion 12 is set as a direction orthogonal to the insertion axis of the insertion portion 11, and is set as a direction located between the lower direction and the right direction of the tip portion 12. ..
  • teacher data When creating the teacher data, an expert looks at the learning image and subjectively selects one operation content that can be performed most in the situation shown in the learning image from the above nine operation contents. , The label of the selected operation content is given to the learning image. Teacher data is created by performing this labeling operation on a large number of past endoscopic images.
  • FIG. 9 shows an example of teacher data.
  • Each of the learning images shown in FIG. 9 is given an "angle operation URS label" indicating an angle operation in the upper right direction.
  • the learning image shown in FIG. 9 is an image in which it is determined that the curved portion 13 should be curved in the upper right direction as an endoscope operation to be performed.
  • FIG. 10 shows another example of teacher data.
  • Each of the learning images shown in FIG. 10 is given an "angle operation DRS label" indicating an angle operation in the lower right direction.
  • the learning image shown in FIG. 10 is an image in which it is determined that the curved portion 13 should be curved in the lower right direction as an endoscope operation to be performed.
  • FIG. 11 shows another example of teacher data.
  • Each of the learning images shown in FIG. 11 is given an "angle operation DLS label" indicating an angle operation in the lower left direction.
  • the learning image shown in FIG. 11 is an image in which it is determined that the curved portion 13 should be curved in the lower left direction as an endoscope operation to be performed.
  • FIG. 12 shows another example of teacher data.
  • Each of the learning images shown in FIG. 12 is given an "angle operation ULS label" indicating an angle operation in the upper left direction.
  • the learning image shown in FIG. 12 is an image in which it is determined that the curved portion 13 should be curved in the upper left direction as an endoscope operation to be performed.
  • the operation selection model 265 of the second embodiment is generated by machine learning using at least the teacher data shown in FIGS. 5 to 12.
  • the operation content determination unit 262 attaches to one or more operation selection models 265 generated by machine learning using the learning image and the label indicating the operation content for the endoscope that captured the learning image as teacher data. By inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261, one or more operation contents are determined. Specifically, the operation content determination unit 262 acquires multidimensional data such as pixel values of each pixel included in the endoscopic image acquired by the image acquisition unit 261 and uses the multidimensional data as input data as an operation selection model. Input to the input layer of the 265 neural network. The operation selection model 265 of the second embodiment outputs nine likelihoods corresponding to each of the nine operation contents that can be selected as the operation contents of the endoscope 10 from the output layer of the neural network. The operation content determination unit 262 can obtain the operation content corresponding to one of the nine likelihoods included in the output data as the selection result of the operation content of the endoscope 10.
  • the operation content determination unit 262 inserts the direction of the tip portion 12 by inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261 into the operation selection model 265 and processing the operation content determination unit 262.
  • One operation selected from nine operation contents including an operation for orienting in eight directions orthogonal to the insertion axis of 11 and an operation for maintaining the orientation of the tip portion 12 in the current orientation. It is configured to obtain selection results that indicate the content.
  • the operation control unit 263 has a function of controlling the operation of the endoscope 10 based on the operation content determined by the operation content determination unit 262.
  • the operation control unit 263 sets the amount of operation in the determined operation content based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40. You may.
  • the operation control unit 263 generates an operation control signal for performing operation control according to the operation content determined by the operation content determination unit 262 and the operation amount in the operation content, and outputs the operation control signal to the drive control unit 240.
  • Example 2 The operation of Example 2 will be described.
  • the operation content determination unit 262 inputs the input data acquired from the endoscope image acquired by the image acquisition unit 261 into the operation selection model 265 of the second embodiment and causes the operation of the endoscope 10 to be processed.
  • One operation content is determined from the nine operation contents.
  • the operation control unit 263 generates an operation control signal for controlling the operation of the endoscope 10 based on the operation content determined by the operation content determination unit 262. At this time, the operation control unit 263 sets the operation amount in the determined operation content based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40. You may perform the processing for.
  • the operation control unit 263 generates an operation control signal for performing operation control according to the determined operation content and the set operation amount, and outputs the operation control signal to the drive control unit 240.
  • the operation content determined by the operation content determination unit 262 is the angle operation UPS, the angle operation DOS, the angle operation LES, the angle operation RIS, the angle operation URS, the angle operation ULS, the angle operation DLS, And, in the case of any of the angle operation DOS, the bending angle CBS of the bending portion 13 is set as the operation amount in the operation content.
  • the operation control unit 263 generates an operation control signal for executing the control of bending the bending unit 13 by the bending angle CBS, and outputs the operation control signal to the drive control unit 240.
  • the operation control unit 263 generates an operation control signal for setting the rotation angle RBS of the insertion unit 11 and executing the control for rotating the insertion unit 11 by the rotation angle RBS in addition to the control for bending the bending unit 13. May be good.
  • the operation control unit 263 sets the movement amount MBS of the insertion unit 11 as the operation amount in the operation content. Then, the operation control unit 263 generates and drives an operation control signal that executes both the control of fixing the bending angle of the bending part 13 to the current bending angle and the control of advancing the insertion part 11 by the movement amount MBS. Output to the control unit 240.
  • the movement amount MBS is preferably set as a value within a range in which the insertion portion 11 inserted in the intestinal tract can be safely advanced.
  • the operation control unit 263 sets the operation amount based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40.
  • the operation amount may be set by reading the set value stored in advance in the storage medium 24.
  • the operation content determination unit 262 selects from a plurality of predetermined operation contents related to the operation of the endoscope 10 based on the endoscope image. You can select the same operation content as the operation content.
  • the operation control unit 263 can set the operation amount in the selected operation content and generate an operation control signal for controlling the operation of the endoscope 10. Therefore, according to the second embodiment, the operation content of the endoscope 10 can be easily determined by using the operation selection model 265 which is a learned model.
  • the operation content determination unit 262 may determine the operation content by using an operation selection model different from the operation selection model 265 that outputs the likelihood of each of the nine operation contents.
  • This operation selection model has the likelihood of each of the eight operation contents of, for example, angle operation UPS, angle operation DOS, angle operation LES, angle operation RIS, angle operation URS, angle operation ULS, angle operation DLS, and angle operation DRS. It may be a trained model configured to output.
  • the operation control unit 263 generates an operation control signal for controlling the bending unit 13 to be curved according to the operation content determined by the operation content determination unit 262, and outputs the operation control signal to the drive control unit 240. Good.
  • the operation control unit 263 moves the insertion unit 11 forward or backward based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40.
  • a control signal may be generated.
  • the operation selection model 265 of the third embodiment is a learning method such as deep learning for each coupling coefficient (weight) in a CNN corresponding to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. It is a trained model created by training in. In generating the operation selection model 265 of the third embodiment, it is most suitable for the learning image which is an endoscopic image of the inside of the intestinal tract or the colon model taken with an endoscope in the past and the situation shown by the learning image. Machine learning is performed using the teacher data including a label indicating which of the 10 operation contents the operation content is.
  • the ten operation contents include angle operation UPS, angle operation DOS, angle operation LES, angle operation RIS, angle operation URS, angle operation ULS, angle operation DLS, and angle operation DRS.
  • a push operation PSS for advancing the tip portion 12 and a pull operation PLS for retracting the tip portion 12 are included.
  • teacher data At the time of creating the teacher data, an expert looks at the learning image and subjectively selects one operation content most likely to be performed in the situation shown in the learning image from the above 10 operation contents. , The label of the selected operation content is given to the learning image. Teacher data is created by performing this labeling operation on a large number of past endoscopic images.
  • FIG. 13 shows an example of teacher data.
  • Each of the learning images shown in FIG. 13 is given a "push operation PSS label" indicating a push operation.
  • the learning image shown in FIG. 13 is an image in which it is determined that the tip portion 12 should be advanced as an endoscope operation to be performed.
  • FIG. 14 shows another example of teacher data.
  • Each of the learning images shown in FIG. 14 is given a "pull operation PLS label" indicating a pull operation.
  • the learning image shown in FIG. 14 is an image in which it is determined that the tip portion 12 should be retracted as an endoscope operation to be performed.
  • Typical examples of situations where a pulling operation is required are a situation in which the tip 12 is excessively close to the mucosal surface of the large intestine, and a tip 12 commonly referred to as a "red ball” among endoscopists. Has come into contact with the mucosal surface.
  • the operation selection model 265 of the third embodiment is generated by machine learning using at least the teacher data shown in FIGS. 5 to 14.
  • the operation content determination unit 262 attaches to one or more operation selection models 265 generated by machine learning using the learning image and the label indicating the operation content for the endoscope that captured the learning image as teacher data. By inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261, one or more operation contents are determined. Specifically, the operation content determination unit 262 acquires multidimensional data such as pixel values of each pixel included in the endoscopic image acquired by the image acquisition unit 261 and uses the multidimensional data as input data as an operation selection model. Input to the input layer of the 265 neural network.
  • the operation selection model 265 of the third embodiment outputs 10 likelihoods corresponding to each of the 10 operation contents that can be selected as the operation contents of the endoscope 10 from the output layer of the neural network.
  • the operation content determination unit 262 can obtain the operation content corresponding to one of the 10 likelihoods included in the output data as the selection result of the operation content of the endoscope 10.
  • the operation content determination unit 262 inserts the direction of the tip portion 12 by inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261 into the operation selection model 265 and processing the operation content determination unit 262.
  • a selection indicating one operation content selected from 10 operation contents including an operation for directing in eight directions orthogonal to the insertion axis of 11 and an operation for moving the tip portion 12 forward or backward. It is configured to get results.
  • the operation control unit 263 has a function of controlling the operation of the endoscope 10 based on the operation content determined by the operation content determination unit 262.
  • the operation control unit 263 sets the amount of operation in the determined operation content based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40. You may.
  • the operation control unit 263 generates an operation control signal for performing operation control according to the operation content determined by the operation content determination unit 262 and the operation amount in the operation content, and outputs the operation control signal to the drive control unit 240.
  • Example 3 The operation of Example 3 will be described.
  • the operation content determination unit 262 inputs the input data acquired from the endoscope image acquired by the image acquisition unit 261 into the operation selection model 265 of the third embodiment and causes the operation of the endoscope 10 to be processed.
  • One operation content is determined from the ten operation contents.
  • the operation control unit 263 generates an operation control signal for controlling the operation of the endoscope 10 based on the operation content determined by the operation content determination unit 262. At this time, the operation control unit 263 sets the operation amount in the determined operation content based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40. You may perform the processing for.
  • the operation control unit 263 generates an operation control signal for performing operation control according to the determined operation content and the set operation amount, and outputs the operation control signal to the drive control unit 240.
  • the operation content determined by the operation content determination unit 262 is the angle operation UPS, the angle operation DOS, the angle operation LES, the angle operation RIS, the angle operation URS, the angle operation ULS, the angle operation DLS,
  • the bending angle CCS of the bending portion 13 is set as the operation amount in the operation content.
  • the operation control unit 263 generates an operation control signal for executing the control of bending the bending unit 13 by the bending angle CCS, and outputs the operation control signal to the drive control unit 240.
  • the operation control unit 263 generates an operation control signal for setting the rotation angle RCS of the insertion unit 11 and executing the control for rotating the insertion unit 11 by the rotation angle RCS in addition to the control for bending the bending unit 13. May be good.
  • the operation control unit 263 sets the movement amount MCS of the insertion unit 11 as the operation amount in the operation content. Then, the operation control unit 263 generates an operation control signal for executing the control to advance the insertion unit 11 by the movement amount MCS, and outputs the operation control signal to the drive control unit 240.
  • the movement amount MCS is preferably set as a value within a range in which the insertion portion 11 inserted in the intestinal tract can be safely advanced.
  • the operation control unit 263 sets the movement amount MDS of the insertion unit 11 as the operation amount in the operation content. Then, the operation control unit 263 generates an operation control signal for executing the control of retracting the insertion unit 11 by the movement amount MDS, and outputs the operation control signal to the drive control unit 240.
  • the movement amount MDS is preferably set as a value within a range in which the insertion portion 11 inserted in the intestinal tract can be safely retracted.
  • the operation control unit 263 sets the operation amount based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40.
  • the operation amount may be set by reading the set value stored in advance in the storage medium 24.
  • the operation content determination unit 262 selects from a plurality of predetermined operation contents related to the operation of the endoscope 10 based on the endoscope image. You can select the same operation content as the operation content.
  • the operation control unit 263 can set the operation amount in the selected operation content and generate an operation control signal for controlling the operation of the endoscope 10. Therefore, according to the third embodiment, the operation content of the endoscope 10 can be easily determined by using the operation selection model 265 which is a learned model.
  • the operation content determination unit 262 and the operation control unit 263 in the third embodiment for example, when a part of the tube in the field of view of the imaging unit 110 is shielded by a fold located on the front side of the tube. It is possible to realize an insertion operation in which the tip portion 12 is brought closer to the cavity while changing the position and orientation of the tip portion 12 so as not to come into contact with the folds. Further, according to the operation content determination unit 262 and the operation control unit 263, for example, when the lumen in the field of view of the imaging unit 110 is hidden behind the intestinal wall, the tip portion 12 is lateral to the intestinal wall. It is possible to realize an insertion operation in which the tip portion 12 is brought closer to the lumen after the wraparound.
  • the operation selection model 265 of the fourth embodiment is a learning method such as deep learning for each coupling coefficient (weight) in a CNN corresponding to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. It is a trained model created by training in. In generating the operation selection model 265 of the fourth embodiment, it is most suitable for the learning image which is an endoscopic image of the inside of the intestinal tract or the colon model taken with an endoscope in the past and the situation shown by the learning image. Machine learning is performed using the teacher data including a label indicating which of the 12 operation contents the operation content is.
  • the 12 operation contents include angle operation UPS, angle operation DOS, angle operation LES, angle operation RIS, angle operation URS, angle operation ULS, angle operation DLS, and angle operation DRS. It includes a push operation DOS, a pull operation PLS, an angle maintenance operation AMS, and a search operation SES for making the tip portion 12 search the lumen in a plurality of directions.
  • teacher data When creating the teacher data, an expert looks at the learning image and subjectively selects one operation content most likely to be performed in the situation shown in the learning image from the above 12 operation contents. , The label of the selected operation content is given to the learning image. Teacher data is created by performing this labeling operation on a large number of past endoscopic images.
  • FIG. 15 shows an example of teacher data.
  • Each of the learning images shown in FIG. 15 is given a "search operation SES label" indicating a search operation.
  • the learning image shown in FIG. 15 is an image in which it is determined that the curved portion 13 should be curved in a plurality of directions to take a picture in a plurality of directions as an endoscope operation to be performed.
  • the operation selection model 265 of the fourth embodiment is generated by machine learning using at least the teacher data shown in FIGS. 5 to 15.
  • the operation content determination unit 262 attaches to one or more operation selection models 265 generated by machine learning using the learning image and the label indicating the operation content for the endoscope that captured the learning image as teacher data. By inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261, one or more operation contents are determined. Specifically, the operation content determination unit 262 acquires multidimensional data such as pixel values of each pixel included in the endoscopic image acquired by the image acquisition unit 261 and uses the multidimensional data as input data as an operation selection model. Input to the input layer of the 265 neural network.
  • the operation selection model 265 of the fourth embodiment outputs 12 likelihoods corresponding to each of the 12 operation contents that can be selected as the operation contents of the endoscope 10 from the output layer of the neural network.
  • the operation content determination unit 262 can obtain the operation content corresponding to one of the highest likelihoods among the 12 likelihoods included in the output data as the selection result of the operation content of the endoscope 10.
  • the operation content determination unit 262 inserts the direction of the tip portion 12 by inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261 into the operation selection model 265 and processing the operation content determination unit 262.
  • the operation control unit 263 has a function of controlling the operation of the endoscope 10 based on the operation content determined by the operation content determination unit 262. At this time, the operation control unit 263 has an operation amount in the operation content determined based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40. May be set. The operation control unit 263 generates an operation control signal for performing operation control according to the operation content determined by the operation content determination unit 262 and the operation amount in the operation content, and outputs the operation control signal to the drive control unit 240.
  • Example 4 The operation of Example 4 will be described.
  • the operation content determination unit 262 inputs the input data acquired from the endoscope image acquired by the image acquisition unit 261 into the operation selection model 265 of the fourth embodiment and causes the operation of the endoscope 10 to be processed.
  • One operation content is determined from the 12 operation contents.
  • the operation control unit 263 generates an operation control signal for controlling the operation of the endoscope 10 based on the operation content determined by the operation content determination unit 262. At this time, the operation control unit 263 sets the operation amount in the determined operation content based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40. You may perform the processing for.
  • the operation control unit 263 generates an operation control signal for performing operation control according to the determined operation content and the set operation amount, and outputs the operation control signal to the drive control unit 240.
  • the operation content determined by the operation content determination unit 262 is the angle operation UPS, the angle operation DOS, the angle operation LES, the angle operation RIS, the angle operation URS, the angle operation ULS, the angle operation DLS,
  • the bending angle CDS of the bending portion 13 is set as the operation amount in the operation content.
  • the operation control unit 263 generates an operation control signal for executing the control of bending the bending unit 13 by the bending angle CDS, and outputs the operation control signal to the drive control unit 240.
  • the operation control unit 263 generates an operation control signal for setting the rotation angle RDS of the insertion unit 11 and executing the control for rotating the insertion unit 11 by the rotation angle RDS, in addition to the control for bending the bending unit 13. May be good.
  • the operation control unit 263 sets the movement amount MES of the insertion unit 11 as the operation amount in the operation content. Then, the operation control unit 263 generates an operation control signal for executing the control for advancing the insertion unit 11 by the movement amount MES, and outputs the operation control signal to the drive control unit 240.
  • the movement amount MES is preferably set as a value within a range in which the insertion portion 11 inserted in the intestinal tract can be safely advanced.
  • the operation control unit 263 sets the movement amount MFS of the insertion unit 11 as the operation amount in the operation content. Then, the operation control unit 263 generates an operation control signal for executing the control of retracting the insertion unit 11 by the movement amount MFS, and outputs the operation control signal to the drive control unit 240.
  • the movement amount MFS is preferably set as a value within a range in which the insertion portion 11 inserted in the intestinal tract can be safely retracted.
  • the operation control unit 263 generates an operation control signal for executing control to maintain the bending angle of the bending unit 13 at the current bending angle when the operation content determined by the operation content determining unit 262 is the angle maintenance operation AMS. Then, it is output to the drive control unit 240.
  • the operation control unit 263 sets the movement amount MGS of the insertion unit 11 as the operation amount in the operation content. Then, the operation control unit 263 generates an operation control signal that causes the insertion unit 11 to be retracted by the movement amount MGS and then controls the tip portion 12 to be directed in a plurality of directions, and outputs the operation control signal to the drive control unit 240. At this time, the operation control unit 263 may generate an operation control signal for executing control for directing the tip portion 12 in four or eight directions. In the process related to the search operation SES, the tip portion 12 is directed in a plurality of directions, and a process of finding a lumen from an endoscopic image taken in each direction is performed.
  • the operation control unit 263 sets the operation amount based on at least one of the insertion shape information output from the insertion shape detection device 30 and the external force information output from the external force information acquisition device 40.
  • the operation amount may be set by reading the set value stored in advance in the storage medium 24.
  • the operation content determination unit 262 is likely to select an operation from 12 operation contents related to the operation of the endoscope 10 based on the endoscope image. You can select the same operation content as the content. Further, according to the fourth embodiment, the operation control unit 263 can set the operation amount in the selected operation content and generate an operation control signal for controlling the operation of the endoscope 10. Therefore, according to the fourth embodiment, the operation content of the endoscope 10 can be easily determined by using the operation selection model 265 which is a learned model.
  • the teacher data may include a label indicating an angle operation and a label indicating a pushing operation.
  • the teacher data may further include a label indicating a twisting operation, which is an operation of twisting the insertion portion 11 around the insertion axis, specifically, a label indicating a left twisting operation and / or a label indicating a right twisting operation.
  • Example 5 In Examples 1 to 4, the operation selection model 265 was generated by machine learning using the teacher data including the endoscopic image and the label indicating the operation content. In the fifth embodiment, a label is set for the combination of the operation content and the operation amount in the operation content, and the operation selection model 265 is generated by machine learning.
  • the operation selection model 265 of the fifth embodiment is a learning method such as deep learning for each coupling coefficient (weight) in a CNN corresponding to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. It is a trained model created by training in. In generating the operation selection model 265 of the fifth embodiment, it is most suitable for the learning image which is an endoscopic image of the inside of the intestinal tract or the colon model taken with an endoscope in the past and the situation shown by the learning image. Machine learning is performed using the teacher data including a label indicating which of the 12 operation contents the operation content is.
  • the 12 operation contents include angle operation UPS, angle operation DOS, angle operation LES, angle operation RIS, angle operation URS, angle operation ULS, angle operation DLS, and angle operation DRS.
  • a push operation PSS_AL having a relatively large movement amount, a push operation PSS_AS having a relatively small movement amount, a pull operation PLS, and a search operation SES are included.
  • teacher data When creating the teacher data, an expert looks at the learning image and subjectively selects one operation content most likely to be performed in the situation shown in the learning image from the above 12 operation contents. , The label of the selected operation content is given to the learning image. Teacher data is created by performing this labeling operation on a large number of past endoscopic images.
  • FIG. 16A shows a learning image in which the large intestine bend is small
  • FIG. 16B shows a learning image in which the large intestine bend is large.
  • the expert determines that the tip portion 12 should be advanced as an endoscope operation to be performed.
  • the expert determines that the insertion portion 11 can be advanced by a relatively long distance with respect to the learning image shown in FIG. 16 (a).
  • the learning image shown in FIG. 16A is given a “pushing operation PSS_AL label” indicating a pushing operation with a moving amount of 5 cm
  • the learning image shown in FIG. 16B is given a moving amount.
  • a "push operation PSS_AS label” indicating a push operation with a value of 2 cm is given.
  • the learning image shown in FIG. 13 was given a “pushing operation PSS label” indicating the pushing operation, but in the fifth embodiment, the learning image shown in FIG. 13 was given a “pushing operation PSS label”. Either the "push operation PSS_AL label” or the "push operation PSS_AS label” is given.
  • the operation selection model 265 of the fifth embodiment is generated by machine learning using at least the teacher data shown in FIGS. 5 to 12 and 14 to 16.
  • the operation content determination unit 262 attaches to one or more operation selection models 265 generated by machine learning using the learning image and the label indicating the operation content for the endoscope that captured the learning image as teacher data. By inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261, one or more operation contents are determined. Specifically, the operation content determination unit 262 acquires multidimensional data such as pixel values of each pixel included in the endoscopic image acquired by the image acquisition unit 261 and uses the multidimensional data as input data as an operation selection model. Input to the input layer of the 265 neural network.
  • the operation selection model 265 of the fifth embodiment outputs 12 likelihoods corresponding to each of the 12 operation contents that can be selected as the operation contents of the endoscope 10 from the output layer of the neural network.
  • the operation content determination unit 262 can obtain the operation content corresponding to one of the highest likelihoods among the 12 likelihoods included in the output data as the selection result of the operation content of the endoscope 10.
  • Example 5 The operation of Example 5 will be described.
  • the operation content determination unit 262 inputs the input data acquired from the endoscope image acquired by the image acquisition unit 261 into the operation selection model 265 of the fifth embodiment and causes the operation of the endoscope 10 to be processed.
  • One operation content is determined from the 12 operation contents.
  • the operation control unit 263 generates an operation control signal for executing the control for advancing the insertion unit 11 by 5 cm when the operation content determined by the operation content determination unit 262 is the push operation PSS_AL, and the drive control unit 240 Output to.
  • the advance / retreat control unit 241 generates an advance / retreat control signal for advancing the insertion unit 11 by 5 cm, and drives the advance / retreat mechanism 141.
  • the operation control unit 263 generates an operation control signal for executing the control for advancing the insertion unit 11 by 2 cm when the operation content determined by the operation content determination unit 262 is the push operation PSS_AS, and the drive control unit 240 Output to.
  • the advance / retreat control unit 241 generates an advance / retreat control signal for advancing the insertion unit 11 by 2 cm, and drives the advance / retreat mechanism 141.
  • a label was set for the combination of the pushing operation of the insertion portion 11 and the movement amount due to the pushing operation, and used for machine learning as teacher data.
  • the push operation is divided into two classes regarding the amount of movement, it may be divided into three or more classes.
  • a label may be set for the combination of the angle operation and the rotation angle due to the angle operation, and the label may be used for machine learning as teacher data.
  • the operation selection model 265 is generated by using the teacher data in which the label is set for the combination of the operation content and the operation amount in the operation content.
  • Example 6 In general, it is desirable to complete colonoscopy in a short time from the viewpoint of burden on the patient. Therefore, it is desirable to perform a quick insertion operation without waste in a safe situation, but on the other hand, a careful operation may be required depending on the condition of the large intestine. Therefore, in the sixth embodiment, a label is set for the combination of the operation content and the operation speed in the operation content, and the operation selection model 265 is generated by machine learning.
  • the operation selection model 265 of the sixth embodiment is a learning method such as deep learning for each coupling coefficient (weight) in a CNN corresponding to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. It is a trained model created by training in. In generating the operation selection model 265 of the sixth embodiment, it is most suitable for the learning image which is an endoscopic image of the inside of the intestinal tract or the colon model taken with an endoscope in the past and the situation shown by the learning image. Machine learning is performed using the teacher data including a label indicating which of the 12 operation contents the operation content is.
  • the 12 operation contents include angle operation UPS, angle operation DOS, angle operation LES, angle operation RIS, angle operation URS, angle operation ULS, angle operation DLS, and angle operation DRS.
  • the push operation PSS_SH having a relatively high movement speed, the push operation PSS_SL having a relatively slow movement speed, the pull operation PLS, and the search operation SES are included.
  • teacher data When creating the teacher data, an expert looks at the learning image and subjectively selects one operation content most likely to be performed in the situation shown in the learning image from the above 12 operation contents. , The label of the selected operation content is given to the learning image. Teacher data is created by performing this labeling operation on a large number of past endoscopic images.
  • FIG. 17 (a) shows a learning image in which an abnormality has not occurred
  • FIG. 17 (b) shows a learning image in which an abnormality such as mucosal inflammation has occurred.
  • the expert determines that the tip portion 12 should be advanced as an endoscope operation to be performed.
  • the expert determines that the insertion portion 11 may be advanced at a relatively high speed with respect to the learning image shown in FIG. 17 (a).
  • the learning image shown in FIG. 17A is given a “pushing operation PSS_SH label” indicating a pushing operation at a moving speed of 5 cm / sec
  • the learning image shown in FIG. 17B is given a “pushing operation PSS_SH label”.
  • a "push operation PSS_SL label” indicating a push operation with a moving speed of 2 cm / sec is given.
  • the learning image shown in FIG. 13 was given a “pushing operation PSS label” indicating the pushing operation, but in the sixth embodiment, the learning image shown in FIG. 13 was given a “pushing operation PSS label”. Either the "push operation PSS_SH label” or the "push operation PSS_SL label” is given.
  • the operation selection model 265 of the sixth embodiment is generated by machine learning using at least the teacher data shown in FIGS. 5 to 12, 14, 15, and 17.
  • the operation content determination unit 262 attaches to one or more operation selection models 265 generated by machine learning using the learning image and the label indicating the operation content for the endoscope that captured the learning image as teacher data. By inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261, one or more operation contents are determined. Specifically, the operation content determination unit 262 acquires multidimensional data such as pixel values of each pixel included in the endoscopic image acquired by the image acquisition unit 261 and uses the multidimensional data as input data as an operation selection model. Input to the input layer of the 265 neural network.
  • the operation selection model 265 of the sixth embodiment outputs 12 likelihoods corresponding to each of the 12 operation contents that can be selected as the operation contents of the endoscope 10 from the output layer of the neural network.
  • the operation content determination unit 262 can obtain the operation content corresponding to one of the highest likelihoods among the 12 likelihoods included in the output data as the selection result of the operation content of the endoscope 10.
  • Example 6 The operation of Example 6 will be described.
  • the operation content determination unit 262 inputs the input data acquired from the endoscope image acquired by the image acquisition unit 261 into the operation selection model 265 of the sixth embodiment and causes the operation of the endoscope 10 to be processed.
  • One operation content is determined from the 12 operation contents.
  • the operation control unit 263 generates an operation control signal for executing control to advance the insertion unit 11 at a speed of 5 cm / sec when the operation content determined by the operation content determination unit 262 is the push operation PSS_SH. Output to the drive control unit 240.
  • the advance / retreat control unit 241 generates an advance / retreat control signal for advancing the insertion unit 11 at a speed of 5 cm / sec, and drives the advance / retreat mechanism 141.
  • the drive time may be set to a predetermined time (for example, 1 second) in advance.
  • the operation control unit 263 generates an operation control signal for executing control to advance the insertion unit 11 at a speed of 2 cm / sec when the operation content determined by the operation content determination unit 262 is the push operation PSS_SL. Output to the drive control unit 240.
  • the advance / retreat control unit 241 generates an advance / retreat control signal for advancing the insertion unit 11 at a speed of 2 cm / sec, and drives the advance / retreat mechanism 141.
  • the driving time may be set to a predetermined time in advance.
  • labels were set for the combination of the pushing operation of the insertion unit 11 and the operating speed due to the pushing operation, and used for machine learning as teacher data.
  • the pushing operation is divided into two classes regarding the operating speed, it may be divided into three or more classes.
  • a label may be set for the combination of the angle operation and the operation speed of the angle operation, and the label may be used for machine learning as teacher data.
  • the operation selection model 265 is generated by using the teacher data in which the label is set for the combination of the operation content and the operation speed in the operation content.
  • Example 7 In the automatic insertion control of the endoscope 10, when the tip portion 12 is advanced, the operation being performed is stopped or changed according to the resistance force (external force) from the intestinal tract applied to the tip portion 12. It is preferable to be done. When the external force acting on the tip portion 12 is large, the tip portion 12 may be pushing a structure such as a fold. Therefore, when the external force exceeds a predetermined control threshold value, the advance of the tip portion 12 is stopped and the tip portion 12 is stopped. The part 12 is retracted. As described above, the forward movement has a control threshold value for stopping or changing the forward movement.
  • an operation selection model 265 for realizing automatic insertion control in which the control threshold value of the resistance applied to the tip portion 12 is different depending on whether or not the tip portion 12 is narrowed is generated by machine learning.
  • the operation selection model 265 of the seventh embodiment is a learning method such as deep learning for each coupling coefficient (weight) in a CNN corresponding to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. It is a trained model created by training in. In generating the operation selection model 265 of the seventh embodiment, it is most suitable for the learning image which is an endoscopic image of the inside of the intestinal tract or the colon model taken with an endoscope in the past and the situation shown by the learning image. Machine learning is performed using the teacher data including a label indicating which of the 12 operation contents the operation content is.
  • the 12 operation contents include angle operation UPS, angle operation DOS, angle operation LES, angle operation RIS, angle operation URS, angle operation ULS, angle operation DLS, and angle operation DRS.
  • a push operation PSS_TS with a relatively small resistance as a control threshold for forward stop a push operation PSS_TL with a relatively large resistance as a control threshold for forward stop, a pull operation PLS, and a search operation SES. Is done.
  • teacher data When creating the teacher data, an expert looks at the learning image and subjectively selects one operation content most likely to be performed in the situation shown in the learning image from the above 12 operation contents. , The label of the selected operation content is given to the learning image. Teacher data is created by performing this labeling operation on a large number of past endoscopic images.
  • FIG. 18A shows a learning image of a lumen without stenosis
  • FIG. 18B shows a learning image of a lumen with stenosis.
  • the expert determines that the tip portion 12 should be advanced as an endoscope operation to be performed.
  • the expert determines that the insertion unit 11 may be forward-controlled using the normal control threshold value with respect to the learning image shown in FIG. 18A.
  • the learning image of FIG. 18B it is necessary to advance the insertion portion 11 while expanding the lumen with a slightly stronger forward force, and the control threshold value of forward stop in normal forward control is increased.
  • the learning image shown in FIG. 18A shows a "push operation PSS_TS" indicating a push operation in which the control threshold value is F1.
  • the label of the pressing operation PSS_TL indicating the pressing operation with the control threshold value of F2 (> F1) is attached to the learning image shown in FIG. 18 (b).
  • the learning image shown in FIG. 13 was given a “pushing operation PSS label” indicating the pushing operation, but in the seventh embodiment, the learning image shown in FIG. 13 was given a “pushing operation PSS label”. Either the "push operation PSS_TS label” or the "push operation PSS_TL label” is given.
  • the operation selection model 265 of the seventh embodiment is generated by machine learning using at least the teacher data shown in FIGS. 5 to 12, 14, 15, and 18.
  • the operation content determination unit 262 attaches to one or more operation selection models 265 generated by machine learning using the learning image and the label indicating the operation content for the endoscope that captured the learning image as teacher data. By inputting the input data acquired from the endoscopic image acquired by the image acquisition unit 261, one or more operation contents are determined. Specifically, the operation content determination unit 262 acquires multidimensional data such as pixel values of each pixel included in the endoscopic image acquired by the image acquisition unit 261 and uses the multidimensional data as input data as an operation selection model. Input to the input layer of the 265 neural network.
  • the operation selection model 265 of the seventh embodiment outputs 12 likelihoods corresponding to each of the 12 operation contents that can be selected as the operation contents of the endoscope 10 from the output layer of the neural network.
  • the operation content determination unit 262 can obtain the operation content corresponding to one of the highest likelihoods among the 12 likelihoods included in the output data as the selection result of the operation content of the endoscope 10.
  • Example 7 The operation of Example 7 will be described.
  • the operation content determination unit 262 inputs the input data acquired from the endoscope image acquired by the image acquisition unit 261 into the operation selection model 265 of the sixth embodiment and causes the operation of the endoscope 10 to be processed.
  • One operation content is determined from the 12 operation contents.
  • the operation control unit 263 generates an operation control signal for executing forward control when the operation content determined by the operation content determination unit 262 is the push operation PSS_TS, and outputs the operation control signal to the drive control unit 240.
  • the operation control unit 263 monitors the external force applied to the tip portion 12, and when the external force exceeds F1, outputs a stop instruction signal for forward control to the advance / retreat control unit 241.
  • the operation control unit 263 generates an operation control signal for executing forward control when the operation content determined by the operation content determination unit 262 is the push operation PSS_TL, and outputs the operation control signal to the drive control unit 240.
  • the operation control unit 263 monitors the external force applied to the tip portion 12, and when the external force exceeds F2, outputs a stop instruction signal for forward control to the advance / retreat control unit 241.
  • labels were set for the combination of the pushing operation of the insertion unit 11 and the control threshold value due to the pushing operation, and used for machine learning as teacher data.
  • the push operation is divided into two classes regarding the control threshold value, it may be divided into three or more classes. Further, not only the push operation but also the label may be set for the combination of the angle operation and the control threshold value in the angle operation and used for machine learning as teacher data.
  • a label is set for the combination of the operation content and the amount of movement in the operation content and used as teacher data
  • the operation content and the operation speed in the operation content are combined. It was explained that a label is set for the data and used as teacher data.
  • a label may be set for the combination of the operation content, the operation amount, and the operation speed, and the label may be used as the teacher data to generate the operation selection model 265.
  • a first operation selection model 265a for determining the operation content and a second operation selection model 265b for determining the operation amount (or operation speed) in the operation content determined using the first operation selection model 265a May be generated and used in combination with the first operation selection model 265a and the second operation selection model 265b.
  • the second operation selection model 265b may be generated by using the teacher data obtained by subdividing the teacher data group of each class used to generate the first operation selection model 265a.
  • CNN which is one of the most basic and stable methods in the recent Deep Neural Network
  • a more complicated network model may be used.
  • the labels for the basic operations of angle operation, push operation, pull operation, and search operation were set, but the labels were set for "twist operation”, “air supply operation”, “water supply operation”, and “suction operation”.
  • the teacher data may be generated and the operation selection model 265 may be generated by machine learning.
  • the operation content determination unit 262 includes a cavity deep direction detection unit that detects the deep direction of the cavity based on the endoscopic image acquired by the image acquisition unit 261 and the tip of the endoscope based on the endoscopic image. It may have an easy-to-progress direction determination unit that determines a direction in which the unit is easier to advance than other directions, and the operation content determination unit 262 determines the determination result in the easy-to-progress direction determination unit and the cavity. The operation content may be determined based on the detection result in the deep direction detection unit.
  • the easy-to-progress direction determination unit includes an obstacle presence / absence determination unit that determines whether or not there is an obstacle that hinders the progress when the vehicle advances in the deep-cavity direction detected by the deep-cavity direction detection unit.
  • the easy-to-progress direction determination unit determines a direction in which the tip of the endoscope is easier to advance than other directions based on the determination result in the obstacle presence / absence determination unit. May be good.
  • examples of obstacles include the mucous membrane of the lumen or folds. For example, if it is determined that the mucous membrane and the tip of the endoscope collide with each other when traveling in the deep direction of the lumen, it may be determined that an obstacle exists.
  • the tip of the endoscope is pasted by the endoscopic image in the direction without obstacles.
  • the direction in which the vehicle has traveled may be the direction in which the vehicle has traveled easily.
  • the operation content may be determined based on the angle formed by the direction determined by the easy-to-progress direction determination unit and the direction detected by the deep cavity direction detection unit.
  • the angle formed by the direction determined by the easy-to-progress direction determination unit and the direction detected by the deep-cavity direction detection unit is an angle X
  • the operation content determination unit 262 has a deep cavity shape recognition unit that recognizes the deep shape of the cavity based on the endoscopic image acquired by the image acquisition unit 261, and operates based on the recognized deep cavity shape. The content and its operating amount or operating speed may be determined. Further, the operation content determination unit 262 has an operation content change unit that changes the operation content when the endoscope receives a resistance force equal to or higher than a predetermined control threshold value, and the operation content change unit is the shape of the deep cavity. The control threshold value of the resistance force for which the operation content changing unit changes the operation may be changed based on the above.
  • the present invention can be used in the technical field of automatically operating an endoscope.
  • Rotation mechanism 210 ... Light source unit, 220 ... Image processing unit, 230 ... Coil drive signal generation unit, 240 ... Drive control unit, 241. ... Advance / retreat control unit, 242 ... Curve control unit, 243 ... AWS control unit, 244 ... Rotation control unit, 250 ... Display control unit, 260 ... Motion control unit, 261 ... Image acquisition unit, 262 ... Operation content determination unit, 263 ... Operation control unit, 264 ... Drive judgment unit, 265 ... Operation selection model, 310 ... Reception antenna, 320 ... Insert shape Information acquisition department.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Urology & Nephrology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

画像取得部261は、被検体内に挿入されている内視鏡が撮影した内視鏡画像を取得する。操作内容決定部262は、画像取得部261において取得した内視鏡画像に基づき、所定の複数の操作内容の中から1つ以上の操作内容を決定する。操作制御部263は、決定した操作内容に基づいて内視鏡の動作を制御する。操作内容決定部262は、過去に撮影された内視鏡画像である学習用画像と前記学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。

Description

内視鏡制御装置、内視鏡制御方法及びプログラム
 本発明は、内視鏡制御装置、内視鏡制御方法及びプログラムに関する。
 内視鏡観察では、可撓性を有する細長い挿入部を被検体内の深部に挿入する。近年、挿入部の操作を自動化する技術に関する検討が進められており、例えば日本国特許第3645223号公報には、上下左右に湾曲可能な湾曲部を挿入部に設けた電子内視鏡装置において、当該挿入部の先端部が撮像されている管腔の中心を向くように当該湾曲部の湾曲角度を制御する技術が開示されている。
 日本国特許第3645223号公報は、襞及び腸壁等のような、被検体内の構造物の存在を考慮して湾曲部の湾曲角度を制御することを記載しない。そのため日本国特許第3645223号公報に開示された技術によれば、撮像されている管腔の一部が当該管腔の手前側に位置する襞により遮蔽されている場合、当該内視鏡の挿入部の先端部が当該襞を回避することなく、当該襞に接触する方向へ移動する、という問題が生じうる。また日本国特許第3645223号公報に開示された技術によれば、管腔が腸壁の裏側に隠れた位置にある場合、当該内視鏡の挿入部の先端部が当該腸壁の側方に回り込むことなく、当該腸壁に接触する方向へ移動する、という問題が生じうる。つまり日本国特許第3645223号公報に開示された技術によれば、挿入部の先端部を適切に操作できない状況が発生する問題がある。
 本発明は、前述した事情に鑑みてなされたものであり、挿入部の先端部を適切に操作可能な内視鏡制御装置、内視鏡制御方法及びプログラムを提供することを目的としている。
 上記課題を解決するために、本発明のある態様の内視鏡制御装置は、被検体内に挿入されている内視鏡が撮影した内視鏡画像を取得する画像取得部と、画像取得部において取得した内視鏡画像に基づき、所定の複数の操作内容の中から1つ以上の操作内容を決定する操作内容決定部と、操作内容決定部において決定した操作内容に基づいて内視鏡の動作を制御する制御部と、を有する。操作内容決定部は、過去に撮影された内視鏡画像である学習用画像と学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデルに、画像取得部において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。
 本発明の別の態様は、内視鏡の動作を制御する方法であって、被検体内に挿入されている内視鏡が撮影した内視鏡画像を取得し、過去に撮影された内視鏡画像である学習用画像と学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデルに、取得した内視鏡画像から取得される入力データを入力することで内視鏡に対する1つ以上の操作内容を決定し、決定した操作内容に基づいて内視鏡の動作を制御する。
 なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
実施形態の内視鏡システムの構成を示す図である。 (a)および(b)は、内視鏡画像の例を示す図である。 (a)および(b)は、内視鏡画像の例を示す図である。 実施形態に係る内視鏡システムの機能ブロック図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 教師データの例を示す図である。 (a)および(b)は、学習用画像の例を示す図である。 (a)および(b)は、学習用画像の例を示す図である。 (a)および(b)は、学習用画像の例を示す図である。
 以下、本発明の実施形態について、図面を参照しつつ説明を行う。
 図1は、実施形態の内視鏡システム1の構成を示す。内視鏡システム1は内視鏡検査室に設けられ、内視鏡制御装置2、内視鏡10、入力装置50および表示装置60を備える。内視鏡制御装置2は、処理装置20、挿入形状検出装置30および外力情報取得装置40を有し、被検者の体内に挿入された内視鏡10の動作を自動操作する機能を有する。内視鏡10の自動操作は、1つ以上のプロセッサ22および記憶媒体24を備える処理装置20によって実施される。
 入力装置50は、ユーザにより操作される入力インターフェースであって、ユーザの操作に応じた指示を処理装置20へ出力するように構成されている。入力装置50は、たとえばマウス、キーボード、タッチパネル等のような操作装置を含んでよい。表示装置60は、処理装置20から出力される内視鏡画像等を画面表示する機器であり、液晶ディスプレイや有機ELディスプレイであってよい。
 内視鏡10は、固体撮像素子(たとえばCCDイメージセンサまたはCMOSイメージセンサ)を含む撮像部を備える。固体撮像素子は入射光を電気信号に変換して、処理装置20に出力する。処理装置20は、固体撮像素子により光電変換された撮像信号に対して、A/D変換、ノイズ除去などの信号処理を施す画像処理部を有し、内視鏡画像を生成する。なお画像処理部は内視鏡10側に設けられて、内視鏡10が内視鏡画像を生成してもよい。処理装置20は、内視鏡10により撮影される映像を表示装置60にリアルタイムで表示させる。
 内視鏡10は、被検体内に挿入される挿入部11と、挿入部11の基端側に設けられた操作部16と、操作部16から延設されたユニバーサルコード17とを備える。内視鏡10は、ユニバーサルコード17の端部に設けられたスコープコネクタ(不図示)により、処理装置20に対して着脱自在に接続される。
 細長形状の挿入部11は、硬質の先端部12と、湾曲自在に形成された湾曲部13と、可撓性を有する長尺な可撓管部14と、を先端側から基端側に向けて順に有する。先端部12、湾曲部13および可撓管部14の内部には、処理装置20から供給されるコイル駆動信号に応じた磁界を発生する複数のソースコイル18が、挿入部11の長手方向に沿って所定の間隔で配置されている。
 実施形態の内視鏡システム1では、処理装置20が内視鏡10を自動操作して、被検体内における内視鏡10の動作を自動制御するが、ユーザが操作部16を把持して、内視鏡10を手動で操作することも可能である。
 内視鏡10の基本操作には、以下のものがある。
・挿入部11を前進させるための“押し操作”
・挿入部11を後退させるための“引き操作”
・湾曲部13を湾曲させるための“アングル操作”
・挿入部11を挿入軸周りに回転させるための“捻り操作”
・先端部12の前方へ気体を噴出させるための“送気操作”
・先端部12の前方へ液体を噴出させるための“送水操作”
・先端部12の近傍に存在する組織片等の物体を吸引させるための“吸引操作”
・湾曲部13を複数の方向に湾曲させて先端部12を複数の方向に向け、管腔を探索するための“探索操作”
 内視鏡10が被検体内に挿入された状態で、医師等のユーザが内視鏡10のレリーズスイッチを操作すると、処理装置20は、レリーズスイッチを操作されたタイミングで内視鏡画像をキャプチャし、画像サーバ(不図示)に送信して記録させる。レリーズスイッチは入力装置50に設けられてもよい。内視鏡10の内部には、処理装置20から供給される照明光を伝送して、被検体内を照明するためのライトガイド(不図示)が設けられる。先端部12には、ライトガイドにより伝送される照明光を被写体へ出射するための照明窓と、被写体を所定の周期で撮影して撮像信号を出力する撮像部が設けられる。
 操作部16は、ユーザが内視鏡10を操作するための操作部材を備える。操作部16は、挿入部11の長手軸に対して交差する少なくとも上下左右の4方向に湾曲部13を湾曲させるためのアングルノブを含む。操作部16は、ユーザが撮影指示を入力するための1つ以上のレリーズスイッチを含んでよい。
 処理装置20は、挿入形状検出装置30、外力情報取得装置40、入力装置50および表示装置60の各構成に対して着脱自在に接続される。処理装置20は、入力装置50から入力されたユーザによる指示を受け付け、当該指示に対応する処理を実施する。また処理装置20は、内視鏡10から周期的に出力される撮像信号を取得して、内視鏡画像を表示装置60に表示させる。
 実施形態において処理装置20は、内視鏡10の動作を制御するための制御信号を生成して出力する機能を有する。具体的に処理装置20は、内視鏡10から出力される撮像信号に基づいて生成した内視鏡画像にもとづいて、内視鏡10の動作を自動操作するように構成されている。
 挿入形状検出装置30は、挿入部11に設けられた複数のソースコイル18のそれぞれが発生する磁界を検出し、当該検出した磁界の強度に基づいて複数のソースコイル18のそれぞれの位置を取得する機能をもつ。挿入形状検出装置30は、取得した複数のソースコイル18の位置を示す挿入形状情報を生成し、処理装置20および外力情報取得装置40に出力する。
 外力情報取得装置40は、外力が加えられていない状態における挿入部11の所定の複数の位置の曲率(または曲率半径)および湾曲角度のデータと、想定されるあらゆる方向から挿入部11の任意の位置に所定の外力を加えた状態で取得した当該所定の複数の位置の曲率(または曲率半径)および湾曲角度のデータとを格納している。外力情報取得装置40は、挿入形状検出装置30から出力される挿入形状情報に基づいて挿入部11に設けられた複数のソースコイル18の位置を特定し、当該複数のソースコイル18のそれぞれの位置における曲率(または曲率半径)および湾曲角度を取得する。外力情報取得装置40は、取得した曲率(または曲率半径)および湾曲角度と、予め格納している各種データとから、当該複数のソースコイル18のそれぞれの位置における外力の大きさ及び方向を示す外力情報を取得してよい。外力情報取得装置40は、取得した外力情報を処理装置20へ出力する。
 実施形態においては、外力情報取得装置40が挿入部11に設けられた複数のソースコイル18のそれぞれの位置における外力を算出するための手法として、日本国特許第5851204号公報に開示された手法が用いられてもよく、または日本国特許第5897092号公報に開示された手法が用いられてもよい。また歪センサ、圧力センサ、加速度センサ、ジャイロセンサ、及び、無線素子等の電子部品が挿入部11に設けられて、外力情報取得装置40が当該電子部品から出力される信号に基づいて複数のソースコイル18のそれぞれの位置における外力を算出するように構成されてもよい。
 実施形態の処理装置20は、内視鏡10の挿入部11の動作を自動操作する制御を実施する。以下においては、実施形態による自動操作制御技術について説明する前に、実施形態の制御技術と対比するための比較技術について説明する。
<比較技術の説明>
 まず医師による内視鏡の手動操作について検討する。医師は、内視鏡先端部を管腔方向に向けて進めていく際に、様々な判断にもとづいて内視鏡を操作する。具体的に医師は内視鏡画像を見て、たとえば、管腔の手前に存在する障害物を回避する、粘膜表面に内視鏡先端部を接触させない、腸管に負荷を与えない、より先の経路を想定して今回の経路を決める等のことを瞬時に判断して、内視鏡を操作している。
 図2(a)は、内視鏡画像の一例を示す。内視鏡画像70aは、ゴムで形成した腸管(ゴム腸管)を内視鏡で撮影した画像である。医師は、内視鏡画像70aを見て、管腔が画像中央に存在することを確認すると、内視鏡先端部を前進させてよいことを判断し、内視鏡先端部を前方に進行させる。
 図2(b)は、内視鏡画像の別の例を示す。内視鏡画像70bも同じく、ゴム腸管を撮影した画像である。医師は、内視鏡画像70bを見て、管腔が画像上部に存在することを確認し、この状態で内視鏡先端部を前進させると手前の襞に接触することを判断する。そこで医師は、湾曲部13を上方に湾曲させるようにアングルノブを操作して、管腔が画像中央で撮影されるようにする。管腔が画像中央で撮影されると、図2(a)に示す内視鏡画像70aと同様の状態になるため、医師は、内視鏡先端部を前進させてよいことを判断し、内視鏡先端部を前方に進行させる。
 以上の判断および操作は、医師であればこそ簡単に実施できるのであり、これを装置で実現しようとすると、複雑な手順が必要となる。以下、実施形態と対比するための比較技術として、医師と同等の手動操作を実現するための自動操作手法について説明する。比較技術は、以下のステップにより実施される。
(S1)対象となる内視鏡画像を取得する。
(S2)内視鏡画像に含まれる色調、エッジ、形状情報、その他の特徴量に基づく領域分割を実施する。
(S3)分割した各領域を管腔、襞、粘膜、残渣等の各種構造に分類する。
(S4)S3における分類結果に基づいて、内視鏡画像に含まれるシーンを特定する。このシーンは、たとえば管腔が前方に含まれる、管腔が上方に含まれる、管腔が下方に含まれる、管腔の手前に障害物が存在する、管腔が撮影されていない、など、予め定義されたシーンである。
(S5)各シーンに操作内容を予め対応付けておき、S4で分類されたシーンにもとづいて操作内容を決定する。
 一例として、比較技術が、図2(a)に示す内視鏡画像70aを処理する手順を説明する。比較技術は、内視鏡画像70aを取得すると(S1)、領域分割処理を実施して(S2)、内視鏡画像70aにおける管腔領域、襞の輪郭線、粘膜表面領域等を特定する(S3)。続いて比較技術は、管腔の位置、形状、管腔の手前側に障害物がないこと等を画像認識し、内視鏡画像70aが“管腔が前方に含まれる”シーンを含むことを特定する(S4)。比較技術においては、定義されたシーンと内視鏡の操作内容とが予め対応付けられており、“管腔が前方に含まれる”シーンには、内視鏡の“押し操作”が対応付けられている。そこで比較技術によれば、内視鏡画像70aを画像解析することで、これから行う操作として、内視鏡の“押し操作”が決定される(S5)。
 図2(b)に示す内視鏡画像70bを処理する場合、比較技術は、内視鏡画像70aを取得すると(S1)、領域分割処理を実施して(S2)、内視鏡画像70aにおける管腔領域、襞の輪郭線、粘膜表面領域等を特定する(S3)。比較技術は、管腔の位置、形状、管腔の手前側に障害物がないこと等を画像認識し、内視鏡画像70bが“管腔が上方に含まれる”シーンを含むことを特定する(S4)。“管腔が上方に含まれる”シーンには、内視鏡の“上方向へのアングル操作”が対応付けられている。そこで比較技術によれば、内視鏡画像70bを画像解析することで、これから行う操作として、内視鏡の“上方向へのアングル操作”が決定される(S5)。
 以上のように図2(a)(b)に示す内視鏡画像70a、70bは、比較技術により比較的容易に処理される。以下、比較技術による別の内視鏡画像の処理について説明する。
 図3(a)は、内視鏡画像の別の例を示す。内視鏡画像70cは、被検者の大腸の屈曲部を撮影した画像である。内視鏡画像70cには管腔がはっきりと撮影されていないが、医師であれば、内視鏡画像70cの右側が明るいことから、内視鏡先端部を左側から回り込ませて、屈曲部の管腔に先端部を進入させる経路を見つけることができる。そのため内視鏡画像70cが表示されている状態では、まず内視鏡先端部を左方向に向ける操作を行う必要がある。
 この操作の決定を比較技術によって実現しようとすると、予め“左側が暗く、右側が明るく、且つ屈曲により管腔が隠れている”シーンを定義しておき、さらに当該シーンに、内視鏡の“左方向へのアングル操作”を対応付けておく必要がある。これらの定義および対応付けを予め用意しておくことで、比較技術は、図3(a)の内視鏡画像70cをもとに、これから行う操作として、“左方向へのアングル操作”を決定できる。
 図3(b)は、内視鏡画像の別の例を示す。内視鏡画像70dは、被検者の管腔を撮影した画像であり、管腔が、中央から少し右下の位置に撮影されている。しかしながら内視鏡を右下方向にアングル操作すると、内視鏡先端部が画像右下側に存在する襞の粘膜面に接触する可能性がある。このとき医師であれば、内視鏡に対して、一旦、左上方向へのアングル操作を行って、それから前進させ、さらに右下方向へのアングル操作を行うことで、内視鏡先端部と襞粘膜面との接触を回避する。そのため内視鏡画像70dが表示されている状態では、まず内視鏡先端部を左上方向に向ける操作を行う必要がある。
 この操作の決定を比較技術によって実現しようとすると、予め“管腔が右下位置に存在しており、且つ内視鏡先端部が襞粘膜面と近い位置にある”シーンを定義しておき、さらに当該シーンに、内視鏡の“左上方向へのアングル操作”を対応付けておく必要がある。これらの定義および対応付けを予め用意しておくことで、比較技術は、図3(b)の内視鏡画像70dをもとに、これから行う操作として、“左上方向へのアングル操作”を決定できる。
 以上のように比較技術においては、特にS4のシーン特定処理の際に、状況に応じた適切なシーンを予め定義しておくことが容易でなく、またシーンの認識手法を含むアルゴリズムが非常に複雑で高難度となり、実装が容易でない。また定義した各シーンに操作内容を対応付けることも、実際には非常に高難度な作業となる。
 以上を前提として、実施形態における内視鏡10の自動操作制御技術について説明する。実施形態の制御技術によれば、比較技術におけるS4のシーン特定処理を不要とし、またシーンと操作内容とを対応付ける作業も不要であり、複雑で高難度なアルゴリズムの構築を省略できる利点がある。
 図4は、実施形態に係る内視鏡システム1の構成を説明するための機能ブロック図である。内視鏡システム1は、内視鏡10、処理装置20、挿入形状検出装置30、外力情報取得装置40、入力装置50および表示装置60を備える。
 図4に示す構成はハードウエア的には、1以上のプロセッサ22、メモリ、補助記憶装置、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。たとえば処理装置20の少なくとも一部の機能を実行させるためのプログラムが記憶媒体24に記憶されており、プロセッサ22が、記憶媒体24からプログラムをメモリにロードして、処理装置20の各機能を実現してもよい。
 挿入形状検出装置30は、受信アンテナ310および挿入形状情報取得部320を備える。受信アンテナ310は、複数のソースコイル18のそれぞれが発生する磁界を3次元的に検出する複数のコイルを有して構成されている。受信アンテナ310は、複数のソースコイル18のそれぞれが発生する磁界を検出すると、当該検出した磁界の強度に応じた磁界検出信号を挿入形状情報取得部320に出力する。
 挿入形状情報取得部320は、受信アンテナ310から出力される磁界検出信号に基づき、複数のソースコイル18のそれぞれの位置を取得する。挿入形状情報取得部320は、複数のソースコイル18のそれぞれの位置を示す挿入形状情報を生成し、動作制御部260および外力情報取得装置40に出力する。
 具体的に挿入形状情報取得部320は、複数のソースコイル18の位置として、被検体の所定の位置(肛門等)を原点または基準点とする仮想的な空間座標系における複数の3次元座標値を取得する。挿入形状情報取得部320は、複数のソースコイル18の3次元座標値を含む挿入形状情報を生成し、動作制御部260および外力情報取得装置40に出力する。
 外力情報取得装置40は、挿入形状検出装置30から出力される挿入形状情報に基づいて、当該複数のソースコイル18のそれぞれの位置における曲率(または曲率半径)および湾曲角度を取得する。外力情報取得装置40は、取得した曲率(または曲率半径)および湾曲角度と、予め格納している各種データとから、当該複数のソースコイル18のそれぞれの位置における外力の大きさ及び方向を示す外力情報を取得してよい。外力情報取得装置40は、取得した外力情報を動作制御部260へ出力する。
 内視鏡10は、ソースコイル18、撮像部110、進退機構141、湾曲機構142、AWS機構143および回転機構144を備える。進退機構141、湾曲機構142、AWS機構143および回転機構144は、内視鏡10における動作機構を構成する。
 撮像部110は、照明光により照明された被写体からの戻り光が入射される観察窓と、当該戻り光を撮影して撮像信号を出力する固体撮像素子(たとえばCCDイメージセンサまたはCMOSイメージセンサ)とを有する。
 進退機構141は、挿入部11を前進および後退させる動作を実現するための機構を有する。たとえば進退機構141は、挿入部11を挟んで対向する位置に配置された一対のローラと、当該一対のローラを回転させるモータとを有して構成されてよい。進退機構141は、処理装置20から出力される進退制御信号に応じてモータを駆動して、一対のローラを回転させることにより、挿入部11を前進させる動作および挿入部11を後退させる動作のいずれか一方を選択的に実行する。
 湾曲機構142は、湾曲部13を曲げる動作を実現するための機構を有する。たとえば湾曲機構142は、湾曲部13に設けられた複数の湾曲駒と、当該複数の湾曲駒に連結された複数のワイヤと、当該複数のワイヤを牽引するためモータとを有して構成されてよい。湾曲機構142は、処理装置20から出力される湾曲制御信号に応じてモータを駆動して、複数のワイヤの牽引量を変化させることにより、挿入部11の長手軸に対して交差する少なくとも上下左右の4方向のいずれかに湾曲部13を湾曲させることができる。なお実施形態の湾曲部13は、挿入部11の長手軸に対して交差する8方向のいずれかに湾曲する構造を有してよい。
 AWS(Air feeding, Water feeding, and Suction)機構143は、送気動作、送水動作および吸引動作を実現するための機構を有する。たとえばAWS機構143は、挿入部11、操作部16およびユニバーサルコード17の内部に設けられた送気送水管路および吸引管路の2つの管路と、当該2つの管路のうちの一方を開放しつつ他方を閉塞する動作を行う電磁弁とを有して構成されてよい。
 AWS機構143は、処理装置20から出力されるAWS制御信号に応じて送気送水管路を開放するように電磁弁を動作した場合、処理装置20から供給される水及び空気の少なくとも一方を含む流体を当該送気送水管路に流通させ、先端部12に形成された排出口から当該流体を排出させる。またAWS機構143は、処理装置20から出力されるAWS制御信号に応じて吸引管路を開放するように電磁弁を動作した場合、処理装置20において発生した吸引力を当該吸引管路に作用し、先端部12に形成された吸引口付近に存在する物体を当該吸引力により吸引する。
 回転機構144は、挿入部11の挿入軸を回転軸として、挿入部11を回転する動作を実現するための機構を有する。たとえば回転機構144は、可撓管部14の基端側において挿入部11を回転可能に支持する支持部材と、当該支持部材を回転させるためのモータとを有して構成されてよい。回転機構144は、処理装置20から出力される回転制御信号に応じてモータを駆動して、支持部材を回転させることにより、挿入部11を挿入軸周りに回転させる。なお実施形態において、挿入部11の挿入軸は、挿入部11の長手方向の中心軸であってよい。
 処理装置20は、光源部210、画像処理部220、コイル駆動信号生成部230、駆動制御部240、表示制御部250および動作制御部260を備える。
 光源部210は、被検体内を照明するための照明光を生成して、当該照明光を内視鏡10に供給する。光源部210は、1つ以上のLEDまたは1つ以上のランプを光源として有してよい。光源部210は、動作制御部260から供給される動作制御信号に応じて照明光の光量を変化させてよい。
 画像処理部220は信号処理回路を有し、内視鏡10から出力される撮像信号に対して所定の処理を施して内視鏡画像を生成し、当該生成した内視鏡画像を表示制御部250および動作制御部260へ出力する。
 コイル駆動信号生成部230は、ソースコイル18を駆動させるためのコイル駆動信号を生成する。コイル駆動信号生成部230はドライブ回路を有し、動作制御部260から供給される動作制御信号に応じてコイル駆動信号を生成して、ソースコイル18に供給する。
 駆動制御部240は、動作制御部260から供給される動作制御信号に基づき、内視鏡10の基本操作に対応する制御信号を生成して、内視鏡10における動作機構を駆動する。具体的に駆動制御部240は、進退機構141による進退動作、湾曲機構142による湾曲動作、AWS機構143によるAWS動作および回転機構144による回転動作のうちの少なくとも1つの動作を制御する。駆動制御部240は、進退制御部241、湾曲制御部242、AWS制御部243および回転制御部244を備える。
 進退制御部241は、動作制御部260から供給される動作制御信号に基づき、進退機構141の動作を制御するための進退制御信号を生成して出力する。具体的に進退制御部241は、動作制御部260から供給される動作制御信号に基づき、進退機構141に設けられたモータの回転を制御するための進退制御信号を生成して出力する。
 湾曲制御部242は、動作制御部260から供給される動作制御信号に基づき、湾曲機構142の動作を制御するための湾曲制御信号を生成して出力する。具体的に湾曲制御部242は、動作制御部260から供給される動作制御信号に基づき、湾曲機構142に設けられたモータの回転を制御するための湾曲制御信号を生成して出力する。
 AWS制御部243は、動作制御部260から供給される動作制御信号に基づいて、図示しないポンプ等を制御することにより、水及び空気のうちの少なくとも一方を含む流体を内視鏡10へ供給するための動作、及び、先端部12の吸引口の付近に存在する物体を吸引するための吸引力を発生させるための動作のうちのいずれか一方を選択的に実行する。
 またAWS制御部243は、AWS機構143の動作を制御するためのAWS制御信号を生成して出力するように構成されている。具体的にAWS制御部243は、動作制御部260から供給される動作制御信号に基づいて、AWS機構143に設けられた電磁弁の動作状態を制御するためのAWS制御信号を生成して出力する。
 回転制御部244は、動作制御部260から供給される動作制御信号に基づき、回転機構144の動作を制御するための回転制御信号を生成して出力する。具体的に回転制御部244は、動作制御部260から供給される動作制御信号に基づき、回転機構144に設けられたモータの回転を制御するための回転制御信号を生成して出力する。
 表示制御部250は、画像処理部220から出力される内視鏡画像を含む表示画像を生成し、当該生成した表示画像を表示装置60に表示させる。
 動作制御部260は、操作部16および入力装置50からの指示等に応じた動作を内視鏡10に行わせるための動作制御信号を生成して、駆動制御部240に出力する機能を有する。また動作制御部260は、内視鏡10の自動挿入モードがオンに設定されている場合に、画像処理部220で生成された内視鏡画像に基づいて、内視鏡10の動作を自動制御する機能を有する。動作制御部260は、画像取得部261、操作内容決定部262、操作制御部263、駆動判定部264および操作選択モデル265を備える。
 画像取得部261は、画像処理部220から、被検体内に挿入されている内視鏡10が撮影した内視鏡画像を取得する。内視鏡10の撮像部110は、所定の周期(たとえば30フレーム/秒)で撮像信号を画像処理部220に供給し、画像処理部220は、撮像信号から内視鏡画像を生成して、画像取得部261に供給する。したがって画像取得部261は、所定の周期で内視鏡画像を取得する。
 操作内容決定部262は、画像取得部261において取得した内視鏡画像に基づき、所定の複数の操作内容の中から1つ以上の操作内容を決定する機能を有する。換言すると、操作内容決定部262は、被検体内を撮像した内視鏡画像に基づき、内視鏡操作の複数の選択肢の中から、これから実施するべき操作内容を決定する。所定の複数の操作内容は、上記した基本操作である、押し操作、引き操作、アングル操作、捻り操作、送気操作、送水操作、吸引操作の少なくとも1種類の操作から構成されてよい。
 実施形態では、画像取得部261が内視鏡画像を取得するタイミング毎に、操作内容決定部262が、内視鏡10の操作内容を決定して、操作制御部263が、決定した操作内容に応じた動作制御信号を生成して、駆動制御部240に供給してよい。
 なお別のタイミング例として、駆動制御部240が、操作制御部263による動作制御信号にもとづいて内視鏡10の動作機構を駆動し、その駆動を終了したタイミングで、操作内容決定部262が、画像取得部261により取得された内視鏡画像を用いて内視鏡10の操作内容を決定し、操作制御部263が動作制御信号を生成してもよい。
 たとえば駆動制御部240が内視鏡10の動作機構を駆動制御しているとき、駆動判定部264は、駆動制御部240が動作機構を駆動制御中であることを判定する。駆動制御部240による駆動制御が終了すると、駆動判定部264は、駆動制御が終了したことを判定する。このとき駆動判定部264は、操作内容決定部262に新たな操作内容を決定するべきであることを通知し、操作内容決定部262は、新たに取得された内視鏡画像を用いて内視鏡10の操作内容を決定する。このように操作内容決定部262は、動作機構の駆動が完了した後または完了直前に画像取得部261で取得された内視鏡画像に基づいて、内視鏡10の操作内容を決定してよい。
 操作内容決定部262は、操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、当該内視鏡画像を撮影している内視鏡10に対して適切な操作内容を決定する。操作選択モデル265は、過去に撮影された内視鏡画像である学習用画像と、学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された学習済みモデルである。
 実施形態において、操作選択モデル265は、入力層と、1つ以上の畳み込み層と、出力層と、を含む多層のニューラルネットワークに相当するCNN(Convolutional Neural Network)における各結合係数(重み)をディープラーニング等の学習手法で学習させることにより生成される。
(実施例1)
 操作選択モデル265の生成にあたり、腸管またはコロンモデルの内部を過去に内視鏡で撮影した内視鏡画像である学習用画像と、当該学習用画像により示される状況に最も適した操作内容が5個の操作内容のうちのどれであるかを示すラベルと、を含む教師データを用いた機械学習が行われる。
 ここで5個の操作内容には、湾曲部13を湾曲させて先端部12を上方向に向けるためのアングル操作UPSと、湾曲部13を湾曲させて先端部12を下方向に向けるためのアングル操作DOSと、湾曲部13を湾曲させて先端部12を左方向に向けるためのアングル操作LESと、湾曲部13を湾曲させて先端部12を右方向に向けるためのアングル操作RISと、湾曲部13の湾曲角度を固定して先端部12の向きを現在の向きに維持させるためのアングル維持操作AMSと、が含まれる。
 全ての実施例において、先端部12の上下方向は、挿入部11の挿入軸に対して直交する方向として設定されているとともに、撮像部110に設けられた固体撮像素子の垂直方向に対応する方向として設定されている。また全ての実施例において、先端部12の左右方向は、挿入部11の挿入軸に対して直交する方向として設定されているとともに、撮像部110に設けられたイメージセンサの水平方向に対応する方向として設定されている。したがって実施例においては、先端部12の上下方向と画像処理部220から出力される内視鏡画像の上下方向とが一致し、先端部12の左右方向と当該内視鏡画像の左右方向とが一致する。
 教師データの作成時、識者が、学習用画像を見て、当該学習用画像に示される状況において最も行われうる一つの操作内容を、上記した5個の操作内容の中から主観的に選択し、選択した操作内容のラベルを、当該学習用画像に付与する。識者は、医師であってよい。たとえば図2(b)に示した内視鏡画像70bが学習用画像である場合、管腔が画像上部に存在していることから、識者は、内視鏡先端部を上方向に向ける操作、つまりアングル操作UPSをするべきであることを決定し、内視鏡画像70bに、アングル操作UPSのラベルを付与する。このラベル付与作業が多数の過去の内視鏡画像に対して実施されることで、教師データが作成される。
 以下、学習用画像およびラベルを含む教師データの例を示す。
 図5は、教師データの例を示す。図5に示す学習用画像には、いずれも上方向のアングル操作を示す「アングル操作UPSのラベル」が付与される。図5に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を上方向に湾曲させるべきことを判断された画像である。
 図6は、教師データの別の例を示す。図6に示す学習用画像には、いずれも右方向のアングル操作を示す「アングル操作RISのラベル」が付与されている。図6に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を右方向に湾曲させるべきことを判断された画像である。
 図7は、教師データの別の例を示す。図7に示す学習用画像には、いずれも下方向のアングル操作を示す「アングル操作DOSのラベル」が付与されている。図7に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を下方向に湾曲させるべきことを判断された画像である。
 図8は、教師データの別の例を示す。図8に示す学習用画像には、いずれも左方向のアングル操作を示す「アングル操作LESのラベル」が付与されている。図8に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を左方向に湾曲させるべきことを判断された画像である。
 湾曲部13の湾曲角度を固定して先端部12の向きを現在の向きに維持させるためのアングル維持操作AMSの教師データについては図示を省略するが、たとえば、後で示す図13に示す学習用画像に、「アングル維持操作AMS」のラベルを付与してもよい。
 実施例1の操作選択モデル265は、少なくとも図5~図8に示す教師データを用いて機械学習することにより生成される。
 操作内容決定部262は、学習用画像と、学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。具体的に操作内容決定部262は、画像取得部261において取得された内視鏡画像に含まれる各画素の画素値等の多次元データを取得し、当該多次元データを入力データとして操作選択モデル265のニューラルネットワークの入力層に入力する。操作選択モデル265は、内視鏡10の操作内容として選択され得る5個の操作内容のそれぞれに対応する5個の尤度を、ニューラルネットワークの出力層から出力する。操作内容決定部262は、出力データに含まれる5個の尤度の中で最も高い1つの尤度に対応する操作内容を、内視鏡10の操作内容の選択結果として得ることができる。
 実施例1において操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを操作選択モデル265に入力して処理させることにより、先端部12の向きを挿入部11の挿入軸に対して直交する4方向に向けるための操作と、先端部12の向きを現在の向きに維持させるための操作と、を含む5個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている。
 操作制御部263は、操作内容決定部262において決定した操作内容に基づいて、内視鏡10の動作を制御する機能を有する。操作制御部263は、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報のうちの少なくとも1つに基づき、決定された操作内容における動作量を設定してもよい。操作制御部263は、操作内容決定部262により決定された操作内容と、当該操作内容における動作量とに応じた動作制御を行うための動作制御信号を生成し、駆動制御部240に出力する。
 実施例1の作用について説明する。以下においては、肛門から大腸の腸管内に挿入された挿入部11の挿入操作に係る制御が行われる場合を例に挙げて説明する。
 ユーザは、内視鏡システム1の各部を接続して電源を投入した後、内視鏡10の先端部12を被検体の肛門に挿入する。このときユーザは、入力装置50を操作して内視鏡10の自動挿入モードをオンに設定し、これにより処理装置20は、内視鏡10の自動操作機能を実行する。
 光源部210は、内視鏡10に照明光を供給し、撮像部110は、当該照明光が照射された被写体を所定の周期で撮像して、撮像信号を処理装置20に送信する。画像処理部220は、撮像信号から内視鏡画像を生成して、表示制御部250および画像取得部261に供給する。
 このときコイル駆動信号生成部230はコイル駆動信号を複数のソースコイル18に供給し、受信アンテナ310は、複数のソースコイル18のそれぞれで発生した磁界を検出して、挿入形状情報取得部320が、挿入部11の挿入形状情報を生成する。挿入形状情報は、動作制御部260および外力情報取得装置40に供給される。外力情報取得装置40は、挿入形状情報から、複数のソースコイル18のそれぞれの位置における外力情報を生成して、動作制御部260に供給する。
 操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを操作選択モデル265に入力して処理させることにより、内視鏡10の操作に係る5個の操作内容の中から一の操作内容を決定する。
 操作制御部263は、操作内容決定部262において決定した操作内容に基づいて、内視鏡10の動作を制御する動作制御信号を生成する。このとき操作制御部263は、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づき、決定した操作内容における動作量を設定するための処理を行ってよい。操作制御部263は、決定した操作内容と、設定した動作量とに応じた動作制御を行うための動作制御信号を生成して駆動制御部240へ出力する。
 実施例1において操作制御部263は、操作内容決定部262により決定された操作内容がアングル操作UPS、アングル操作DOS、アングル操作LES及びアングル操作RISのいずれかである場合に、当該操作内容における動作量として、湾曲部13の湾曲角度CASを設定する。そして操作制御部263は、湾曲部13を湾曲角度CASだけ湾曲させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお操作制御部263は、湾曲部13を湾曲させる制御に加えて、挿入部11の回転角度RASを設定し、挿入部11を回転角度RASだけ回転させる制御を実行させる動作制御信号を生成してもよい。
 一方、操作制御部263は、操作内容決定部262により決定された操作内容がアングル維持操作AMSである場合に、当該操作内容における動作量として、挿入部11の移動量MASを設定する。そして操作制御部263は、湾曲部13の湾曲角度を現在の湾曲角度に固定させる制御と、挿入部11を移動量MASだけ前進させる制御とを併せて実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお移動量MASは、腸管内に挿入されている挿入部11を安全に前進させることが可能な範囲内の値として設定されることが好ましい。
 なお実施例1においては、操作制御部263が、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づいて動作量を設定するが、記憶媒体24に予め格納された設定値を読み込んで動作量を設定するものであってもよい。
 ユーザは、表示装置60に表示されている内視鏡画像に基づいて、観察が終了したことを確認すると、入力装置50を操作して内視鏡10の自動挿入モードをオフに設定する。これにより処理装置20は、内視鏡10の自動操作機能の実行を停止する。
 以上、実施例1によれば、操作内容決定部262が、内視鏡画像に基づいて、内視鏡10の操作に係る所定の複数の操作内容の中から、識者が選択する可能性の高い操作内容と同じ操作内容を選択できる。また実施例1によれば、操作制御部263が、選択された操作内容における動作量を設定して、内視鏡10を動作制御するための動作制御信号を生成できる。したがって実施例1によれば、学習済みモデルである操作選択モデル265を利用することで、内視鏡10の操作内容を簡易に決定できる。
 実施例1において操作内容決定部262は、5個の操作内容のそれぞれの尤度を出力する操作選択モデル265とは異なる操作選択モデルを利用して、操作内容を決定してもよい。この操作選択モデルは、たとえばアングル操作UPS、アングル操作DOS、アングル操作LESおよびアングル操作RISの4つの操作内容のそれぞれの尤度を出力するように構成された学習済みモデルであってよい。この場合、操作制御部263が、操作内容決定部262により決定された操作内容に応じて湾曲部13を湾曲させる制御を行うための動作制御信号を生成して、駆動制御部240へ出力してよい。
 このとき操作制御部263が、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づいて、挿入部11を前進または後退させる動作制御信号を生成してもよい。
 以下の実施例2~7では、操作選択モデル265のバリエーションについて説明するが、実施例1と重複する説明については適宜省略するものとする。
(実施例2)
 実施例2の操作選択モデル265は、入力層と、1つ以上の畳み込み層と、出力層と、を含む多層のニューラルネットワークに相当するCNNにおける各結合係数(重み)をディープラーニング等の学習手法で学習させることにより作成された学習済みモデルである。実施例2の操作選択モデル265の生成にあたり、腸管またはコロンモデルの内部を過去に内視鏡で撮影した内視鏡画像である学習用画像と、当該学習用画像により示される状況に最も適した操作内容が9個の操作内容のうちのどれであるかを示すラベルと、を含む教師データを用いた機械学習が行われる。
 ここで9個の操作内容には、例えば、アングル操作UPSと、アングル操作DOSと、アングル操作LESと、アングル操作RISと、アングル維持操作AMSと、湾曲部13を湾曲させて先端部12を右上方向に向けるためのアングル操作URSと、湾曲部13を湾曲させて先端部12を左上方向に向けるためのアングル操作ULSと、湾曲部13を湾曲させて先端部12を左下方向に向けるためのアングル操作DLSと、湾曲部13を湾曲させて先端部12を右下方向に向けるためのアングル操作DRSと、が含まれる。
 なお全ての実施例において、先端部12の右上方向が、挿入部11の挿入軸に対して直交する方向として設定されているとともに、先端部12の上方向と右方向との間に位置する方向として設定されている。また先端部12の左上方向が、挿入部11の挿入軸に対して直交方向として設定されているとともに、先端部12の上方向と左方向との間に位置する方向として設定されている。また先端部12の左下方向が、挿入部11の挿入軸に対して直交する方向として設定されているとともに、先端部12の下方向と左方向との間に位置する方向として設定されている。また先端部12の右下方向が、挿入部11の挿入軸に対して直交する方向として設定されているとともに、先端部12の下方向と右方向との間に位置する方向として設定されている。
 教師データの作成時、識者が、学習用画像を見て、当該学習用画像に示される状況において最も行われうる一つの操作内容を、上記した9個の操作内容の中から主観的に選択し、選択した操作内容のラベルを、当該学習用画像に付与する。このラベル付与作業が多数の過去の内視鏡画像に対して実施されることで、教師データが作成される。
 以下、学習用画像およびラベルを含む教師データの例を示す。
 図9は、教師データの例を示す。図9に示す学習用画像には、いずれも右上方向のアングル操作を示す「アングル操作URSのラベル」が付与される。図9に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を右上方向に湾曲させるべきことを判断された画像である。
 図10は、教師データの別の例を示す。図10に示す学習用画像には、いずれも右下方向のアングル操作を示す「アングル操作DRSのラベル」が付与されている。図10に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を右下方向に湾曲させるべきことを判断された画像である。
 図11は、教師データの別の例を示す。図11に示す学習用画像には、いずれも左下方向のアングル操作を示す「アングル操作DLSのラベル」が付与されている。図11に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を左下方向に湾曲させるべきことを判断された画像である。
 図12は、教師データの別の例を示す。図12に示す学習用画像には、いずれも左上方向のアングル操作を示す「アングル操作ULSのラベル」が付与されている。図12に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を左上方向に湾曲させるべきことを判断された画像である。
 実施例2の操作選択モデル265は、少なくとも図5~図12に示す教師データを用いて機械学習することにより生成される。
 操作内容決定部262は、学習用画像と、学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。具体的に操作内容決定部262は、画像取得部261において取得された内視鏡画像に含まれる各画素の画素値等の多次元データを取得し、当該多次元データを入力データとして操作選択モデル265のニューラルネットワークの入力層に入力する。実施例2の操作選択モデル265は、内視鏡10の操作内容として選択され得る9個の操作内容のそれぞれに対応する9個の尤度を、ニューラルネットワークの出力層から出力する。操作内容決定部262は、出力データに含まれる9個の尤度の中で最も高い1つの尤度に対応する操作内容を、内視鏡10の操作内容の選択結果として得ることができる。
 実施例2において操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを操作選択モデル265に入力して処理させることにより、先端部12の向きを挿入部11の挿入軸に対して直交する8方向に向けるための操作と、先端部12の向きを現在の向きに維持させるための操作と、を含む9個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている。
 操作制御部263は、操作内容決定部262において決定した操作内容に基づいて、内視鏡10の動作を制御する機能を有する。操作制御部263は、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報のうちの少なくとも1つに基づき、決定された操作内容における動作量を設定してもよい。操作制御部263は、操作内容決定部262により決定された操作内容と、当該操作内容における動作量とに応じた動作制御を行うための動作制御信号を生成し、駆動制御部240に出力する。
 実施例2の作用について説明する。
 操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを、実施例2の操作選択モデル265に入力して処理させることにより、内視鏡10の操作に係る9個の操作内容の中から一の操作内容を決定する。
 操作制御部263は、操作内容決定部262において決定した操作内容に基づいて、内視鏡10の動作を制御する動作制御信号を生成する。このとき操作制御部263は、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づき、決定した操作内容における動作量を設定するための処理を行ってよい。操作制御部263は、決定した操作内容と、設定した動作量とに応じた動作制御を行うための動作制御信号を生成して駆動制御部240へ出力する。
 実施例2において操作制御部263は、操作内容決定部262により決定された操作内容がアングル操作UPS、アングル操作DOS、アングル操作LES、アングル操作RIS、アングル操作URS、アングル操作ULS、アングル操作DLS、及び、アングル操作DRSのいずれかである場合に、当該操作内容における動作量として、湾曲部13の湾曲角度CBSを設定する。そして操作制御部263は、湾曲部13を湾曲角度CBSだけ湾曲させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお操作制御部263は、湾曲部13を湾曲させる制御に加えて、挿入部11の回転角度RBSを設定し、挿入部11を回転角度RBSだけ回転させる制御を実行させる動作制御信号を生成してもよい。
 一方、操作制御部263は、操作内容決定部262により決定された操作内容がアングル維持操作AMSである場合に、当該操作内容における動作量として、挿入部11の移動量MBSを設定する。そして操作制御部263は、湾曲部13の湾曲角度を現在の湾曲角度に固定させる制御と、挿入部11を移動量MBSだけ前進させる制御とを併せて実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお移動量MBSは、腸管内に挿入されている挿入部11を安全に前進させることが可能な範囲内の値として設定されることが好ましい。
 なお実施例2においては、操作制御部263が、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づいて動作量を設定するが、記憶媒体24に予め格納された設定値を読み込んで動作量を設定するものであってもよい。
 以上、実施例2によれば、操作内容決定部262が、内視鏡画像に基づいて、内視鏡10の操作に係る所定の複数の操作内容の中から、識者が選択する可能性の高い操作内容と同じ操作内容を選択できる。また実施例2によれば、操作制御部263が、選択された操作内容における動作量を設定して、内視鏡10を動作制御するための動作制御信号を生成できる。したがって実施例2によれば、学習済みモデルである操作選択モデル265を利用することで、内視鏡10の操作内容を簡易に決定できる。
 実施例2において操作内容決定部262は、9個の操作内容のそれぞれの尤度を出力する操作選択モデル265とは異なる操作選択モデルを利用して、操作内容を決定してもよい。この操作選択モデルは、たとえばアングル操作UPS、アングル操作DOS、アングル操作LES、アングル操作RIS、アングル操作URS、アングル操作ULS、アングル操作DLS、及び、アングル操作DRSの8つの操作内容のそれぞれの尤度を出力するように構成された学習済みモデルであってよい。この場合、操作制御部263が、操作内容決定部262により決定された操作内容に応じて湾曲部13を湾曲させる制御を行うための動作制御信号を生成して、駆動制御部240へ出力してよい。
 このとき操作制御部263が、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づいて、挿入部11を前進または後退させる動作制御信号を生成してもよい。
(実施例3)
 実施例3の操作選択モデル265は、入力層と、1つ以上の畳み込み層と、出力層と、を含む多層のニューラルネットワークに相当するCNNにおける各結合係数(重み)をディープラーニング等の学習手法で学習させることにより作成された学習済みモデルである。実施例3の操作選択モデル265の生成にあたり、腸管またはコロンモデルの内部を過去に内視鏡で撮影した内視鏡画像である学習用画像と、当該学習用画像により示される状況に最も適した操作内容が10個の操作内容のうちのどれであるかを示すラベルと、を含む教師データを用いた機械学習が行われる。
 ここで10個の操作内容には、アングル操作UPSと、アングル操作DOSと、アングル操作LESと、アングル操作RISと、アングル操作URSと、アングル操作ULSと、アングル操作DLSと、アングル操作DRSと、先端部12を前進させる押し操作PSSと、先端部12を後退させる引き操作PLSと、が含まれる。
 教師データの作成時、識者が、学習用画像を見て、当該学習用画像に示される状況において最も行われうる一つの操作内容を、上記した10個の操作内容の中から主観的に選択し、選択した操作内容のラベルを、当該学習用画像に付与する。このラベル付与作業が多数の過去の内視鏡画像に対して実施されることで、教師データが作成される。
 以下、学習用画像およびラベルを含む教師データの例を示す。
 図13は、教師データの例を示す。図13に示す学習用画像には、いずれも押し操作を示す「押し操作PSSのラベル」が付与される。図13に示す学習用画像は、これから行う内視鏡操作として、先端部12を前進させるべきことを判断された画像である。
 図14は、教師データの別の例を示す。図14に示す学習用画像には、いずれも引き操作を示す「引き操作PLSのラベル」が付与されている。図14に示す学習用画像は、これから行う内視鏡操作として、先端部12を後退させるべきことを判断された画像である。ここで引き操作が必要な状況の典型例としては、大腸の粘膜表面に先端部12が過剰に近接した状況や、また内視鏡医の間で俗に「赤玉」と称される先端部12が粘膜表面に接してしまった状況などがある。
 実施例3の操作選択モデル265は、少なくとも図5~図14に示す教師データを用いて機械学習することにより生成される。
 操作内容決定部262は、学習用画像と、学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。具体的に操作内容決定部262は、画像取得部261において取得された内視鏡画像に含まれる各画素の画素値等の多次元データを取得し、当該多次元データを入力データとして操作選択モデル265のニューラルネットワークの入力層に入力する。実施例3の操作選択モデル265は、内視鏡10の操作内容として選択され得る10個の操作内容のそれぞれに対応する10個の尤度を、ニューラルネットワークの出力層から出力する。操作内容決定部262は、出力データに含まれる10個の尤度の中で最も高い1つの尤度に対応する操作内容を、内視鏡10の操作内容の選択結果として得ることができる。
 実施例3において操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを操作選択モデル265に入力して処理させることにより、先端部12の向きを挿入部11の挿入軸に対して直交する8方向に向けるための操作と、先端部12を前進または後退させるための操作と、を含む10個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている。
 操作制御部263は、操作内容決定部262において決定した操作内容に基づいて、内視鏡10の動作を制御する機能を有する。操作制御部263は、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報のうちの少なくとも1つに基づき、決定された操作内容における動作量を設定してもよい。操作制御部263は、操作内容決定部262により決定された操作内容と、当該操作内容における動作量とに応じた動作制御を行うための動作制御信号を生成し、駆動制御部240に出力する。
 実施例3の作用について説明する。
 操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを、実施例3の操作選択モデル265に入力して処理させることにより、内視鏡10の操作に係る10個の操作内容の中から一の操作内容を決定する。
 操作制御部263は、操作内容決定部262において決定した操作内容に基づいて、内視鏡10の動作を制御する動作制御信号を生成する。このとき操作制御部263は、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づき、決定した操作内容における動作量を設定するための処理を行ってよい。操作制御部263は、決定した操作内容と、設定した動作量とに応じた動作制御を行うための動作制御信号を生成して駆動制御部240へ出力する。
 実施例3において操作制御部263は、操作内容決定部262により決定された操作内容がアングル操作UPS、アングル操作DOS、アングル操作LES、アングル操作RIS、アングル操作URS、アングル操作ULS、アングル操作DLS、及び、アングル操作DRSのいずれかである場合に、当該操作内容における動作量として、湾曲部13の湾曲角度CCSを設定する。そして操作制御部263は、湾曲部13を湾曲角度CCSだけ湾曲させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお操作制御部263は、湾曲部13を湾曲させる制御に加えて、挿入部11の回転角度RCSを設定し、挿入部11を回転角度RCSだけ回転させる制御を実行させる動作制御信号を生成してもよい。
 操作制御部263は、操作内容決定部262により決定された操作内容が押し操作PSSである場合に、当該操作内容における動作量として、挿入部11の移動量MCSを設定する。そして操作制御部263は、挿入部11を移動量MCSだけ前進させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお移動量MCSは、腸管内に挿入されている挿入部11を安全に前進させることが可能な範囲内の値として設定されることが好ましい。
 操作制御部263は、操作内容決定部262により決定された操作内容が引き操作PLSである場合に、当該操作内容における動作量として、挿入部11の移動量MDSを設定する。そして操作制御部263は、挿入部11を移動量MDSだけ後退させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお移動量MDSは、腸管内に挿入されている挿入部11を安全に後退させることが可能な範囲内の値として設定されることが好ましい。
 なお実施例3においては、操作制御部263が、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づいて動作量を設定するが、記憶媒体24に予め格納された設定値を読み込んで動作量を設定するものであってもよい。
 以上、実施例3によれば、操作内容決定部262が、内視鏡画像に基づいて、内視鏡10の操作に係る所定の複数の操作内容の中から、識者が選択する可能性の高い操作内容と同じ操作内容を選択できる。また実施例3によれば、操作制御部263が、選択された操作内容における動作量を設定して、内視鏡10を動作制御するための動作制御信号を生成できる。したがって実施例3によれば、学習済みモデルである操作選択モデル265を利用することで、内視鏡10の操作内容を簡易に決定できる。
 実施例3における操作内容決定部262および操作制御部263によれば、例えば、撮像部110の視野内の管腔の一部が当該管腔の手前側に位置する襞により遮蔽されている場合に、当該襞に接触しないように先端部12の位置及び向きを変化させつつ先端部12を当該管腔に接近させるような挿入操作を実現できる。また操作内容決定部262および操作制御部263によれば、例えば、撮像部110の視野内の管腔が腸壁の裏側に隠れた位置にある場合に、当該腸壁の側方に先端部12を回り込ませた後で先端部12を当該管腔に接近させるような挿入操作を実現できる。
(実施例4)
 実施例4の操作選択モデル265は、入力層と、1つ以上の畳み込み層と、出力層と、を含む多層のニューラルネットワークに相当するCNNにおける各結合係数(重み)をディープラーニング等の学習手法で学習させることにより作成された学習済みモデルである。実施例4の操作選択モデル265の生成にあたり、腸管またはコロンモデルの内部を過去に内視鏡で撮影した内視鏡画像である学習用画像と、当該学習用画像により示される状況に最も適した操作内容が12個の操作内容のうちのどれであるかを示すラベルと、を含む教師データを用いた機械学習が行われる。
 ここで12個の操作内容には、アングル操作UPSと、アングル操作DOSと、アングル操作LESと、アングル操作RISと、アングル操作URSと、アングル操作ULSと、アングル操作DLSと、アングル操作DRSと、押し操作PSSと、引き操作PLSと、アングル維持操作AMSと、先端部12を複数方向に向けて管腔を探索させるための探索操作SESと、が含まれる。
 教師データの作成時、識者が、学習用画像を見て、当該学習用画像に示される状況において最も行われうる一つの操作内容を、上記した12個の操作内容の中から主観的に選択し、選択した操作内容のラベルを、当該学習用画像に付与する。このラベル付与作業が多数の過去の内視鏡画像に対して実施されることで、教師データが作成される。
 以下、学習用画像およびラベルを含む教師データの例を示す。
 図15は、教師データの例を示す。図15に示す学習用画像には、いずれも探索操作を示す「探索操作SESのラベル」が付与される。図15に示す学習用画像は、これから行う内視鏡操作として、湾曲部13を複数方向に湾曲させて複数方向を撮影させるべきことを判断された画像である。
 実施例4の操作選択モデル265は、少なくとも図5~図15に示す教師データを用いて機械学習することにより生成される。
 操作内容決定部262は、学習用画像と、学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。具体的に操作内容決定部262は、画像取得部261において取得された内視鏡画像に含まれる各画素の画素値等の多次元データを取得し、当該多次元データを入力データとして操作選択モデル265のニューラルネットワークの入力層に入力する。実施例4の操作選択モデル265は、内視鏡10の操作内容として選択され得る12個の操作内容のそれぞれに対応する12個の尤度を、ニューラルネットワークの出力層から出力する。操作内容決定部262は、出力データに含まれる12個の尤度の中で最も高い1つの尤度に対応する操作内容を、内視鏡10の操作内容の選択結果として得ることができる。
 実施例4において操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを操作選択モデル265に入力して処理させることにより、先端部12の向きを挿入部11の挿入軸に対して直交する8方向に向けるための操作と、先端部12を前進または後退させるための操作と、先端部12の向きを現在の向きに維持させるための操作と、先端部12の近傍の管腔を探索するための操作とを含む12個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている。
 操作制御部263は、操作内容決定部262において決定した操作内容に基づいて、内視鏡10の動作を制御する機能を有する。このとき操作制御部263は、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報のうちの少なくとも1つに基づき、決定された操作内容における動作量を設定してもよい。操作制御部263は、操作内容決定部262により決定された操作内容と、当該操作内容における動作量とに応じた動作制御を行うための動作制御信号を生成し、駆動制御部240に出力する。
 実施例4の作用について説明する。
 操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを、実施例4の操作選択モデル265に入力して処理させることにより、内視鏡10の操作に係る12個の操作内容の中から一の操作内容を決定する。
 操作制御部263は、操作内容決定部262において決定した操作内容に基づいて、内視鏡10の動作を制御する動作制御信号を生成する。このとき操作制御部263は、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づき、決定した操作内容における動作量を設定するための処理を行ってよい。操作制御部263は、決定した操作内容と、設定した動作量とに応じた動作制御を行うための動作制御信号を生成して駆動制御部240へ出力する。
 実施例4において操作制御部263は、操作内容決定部262により決定された操作内容がアングル操作UPS、アングル操作DOS、アングル操作LES、アングル操作RIS、アングル操作URS、アングル操作ULS、アングル操作DLS、及び、アングル操作DRSのいずれかである場合に、当該操作内容における動作量として、湾曲部13の湾曲角度CDSを設定する。そして操作制御部263は、湾曲部13を湾曲角度CDSだけ湾曲させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお操作制御部263は、湾曲部13を湾曲させる制御に加えて、挿入部11の回転角度RDSを設定し、挿入部11を回転角度RDSだけ回転させる制御を実行させる動作制御信号を生成してもよい。
 操作制御部263は、操作内容決定部262により決定された操作内容が押し操作PSSである場合に、当該操作内容における動作量として、挿入部11の移動量MESを設定する。そして操作制御部263は、挿入部11を移動量MESだけ前進させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお移動量MESは、腸管内に挿入されている挿入部11を安全に前進させることが可能な範囲内の値として設定されることが好ましい。
 操作制御部263は、操作内容決定部262により決定された操作内容が引き操作PLSである場合に、当該操作内容における動作量として、挿入部11の移動量MFSを設定する。そして操作制御部263は、挿入部11を移動量MFSだけ後退させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。なお移動量MFSは、腸管内に挿入されている挿入部11を安全に後退させることが可能な範囲内の値として設定されることが好ましい。
 操作制御部263は、操作内容決定部262により決定された操作内容がアングル維持操作AMSである場合に、湾曲部13の湾曲角度を現在の湾曲角度に維持する制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。
 操作制御部263は、操作内容決定部262により決定された操作内容が探索操作SESである場合に、当該操作内容における動作量として、挿入部11の移動量MGSを設定する。そして操作制御部263は、挿入部11を移動量MGSだけ後退させてから先端部12を複数の方向に向ける制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。このとき操作制御部263は、先端部12を4つ又は8つの方向に向ける制御を実行させる動作制御信号を生成してよい。探索操作SESに関する処理では、先端部12を複数方向に向け、それぞれの方向で撮影された内視鏡画像から管腔を見つける処理が実施される。
 なお実施例4においては、操作制御部263が、挿入形状検出装置30から出力される挿入形状情報と、外力情報取得装置40から出力される外力情報の少なくとも1つに基づいて動作量を設定するが、記憶媒体24に予め格納された設定値を読み込んで動作量を設定するものであってもよい。
 以上、実施例4によれば、操作内容決定部262が、内視鏡画像に基づいて、内視鏡10の操作に係る12個の操作内容の中から、識者が選択する可能性の高い操作内容と同じ操作内容を選択できる。また実施例4によれば、操作制御部263が、選択された操作内容における動作量を設定して、内視鏡10を動作制御するための動作制御信号を生成できる。したがって実施例4によれば、学習済みモデルである操作選択モデル265を利用することで、内視鏡10の操作内容を簡易に決定できる。
 なお実施例1~4では、教師データが、アングル操作を示すラベルや、押し操作を示すラベルを含んでよいことを説明した。教師データはさらに、挿入部11を挿入軸周りに捻る操作である捻り操作を示すラベル、具体的には左捻り操作を示すラベルおよび/または右捻り操作を示すラベルを含んでよい。
(実施例5)
 実施例1~4においては、内視鏡画像と、操作内容を示すラベルとを含む教師データを用いて、操作選択モデル265を機械学習により生成した。実施例5では、操作内容と、その操作内容における動作量の組み合わせに対してラベルを設定して、操作選択モデル265を機械学習により生成する。
 実施例5の操作選択モデル265は、入力層と、1つ以上の畳み込み層と、出力層と、を含む多層のニューラルネットワークに相当するCNNにおける各結合係数(重み)をディープラーニング等の学習手法で学習させることにより作成された学習済みモデルである。実施例5の操作選択モデル265の生成にあたり、腸管またはコロンモデルの内部を過去に内視鏡で撮影した内視鏡画像である学習用画像と、当該学習用画像により示される状況に最も適した操作内容が12個の操作内容のうちのどれであるかを示すラベルと、を含む教師データを用いた機械学習が行われる。
 ここで12個の操作内容には、アングル操作UPSと、アングル操作DOSと、アングル操作LESと、アングル操作RISと、アングル操作URSと、アングル操作ULSと、アングル操作DLSと、アングル操作DRSと、移動量が相対的に大きい押し操作PSS_ALと、移動量が相対的に小さい押し操作PSS_ASと、引き操作PLSと、探索操作SESと、が含まれる。
 教師データの作成時、識者が、学習用画像を見て、当該学習用画像に示される状況において最も行われうる一つの操作内容を、上記した12個の操作内容の中から主観的に選択し、選択した操作内容のラベルを、当該学習用画像に付与する。このラベル付与作業が多数の過去の内視鏡画像に対して実施されることで、教師データが作成される。
 以下、学習用画像およびラベルを含む教師データの例を示す。
 図16(a)は、大腸の曲がりが小さい状態を撮影した学習用画像を示し、図16(b)は、大腸の曲がりが大きい状態を撮影した学習用画像を示す。図16(a)(b)のいずれの学習用画像に対しても、識者は、これから行う内視鏡操作として、先端部12を前進させるべきことを判断する。
 このとき識者は、図16(a)の学習用画像に対して、挿入部11を比較的長い距離前進できると判断する。一方で、図16(b)の学習用画像に対しては、挿入部11を長い距離前進させることができず、比較的短い距離だけ前進させることを判断する。そこで図16(a)に示す学習用画像には、移動量を5cmとする押し操作を示す「押し操作PSS_ALのラベル」が付与され、図16(b)に示す学習用画像には、移動量を2cmとする押し操作を示す「押し操作PSS_ASのラベル」が付与される。
 実施例3において、図13に示す学習用画像には、いずれも押し操作を示す「押し操作PSSのラベル」が付与されていたが、実施例5では、図13に示す学習用画像に、「押し操作PSS_ALのラベル」または「押し操作PSS_ASのラベル」のいずれかが付与される。
 実施例5の操作選択モデル265は、少なくとも図5~図12,図14~図16に示す教師データを用いて機械学習することにより生成される。
 操作内容決定部262は、学習用画像と、学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。具体的に操作内容決定部262は、画像取得部261において取得された内視鏡画像に含まれる各画素の画素値等の多次元データを取得し、当該多次元データを入力データとして操作選択モデル265のニューラルネットワークの入力層に入力する。実施例5の操作選択モデル265は、内視鏡10の操作内容として選択され得る12個の操作内容のそれぞれに対応する12個の尤度を、ニューラルネットワークの出力層から出力する。操作内容決定部262は、出力データに含まれる12個の尤度の中で最も高い1つの尤度に対応する操作内容を、内視鏡10の操作内容の選択結果として得ることができる。
 実施例5の作用について説明する。
 操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを、実施例5の操作選択モデル265に入力して処理させることにより、内視鏡10の操作に係る12個の操作内容の中から一の操作内容を決定する。
 操作制御部263は、操作内容決定部262により決定された操作内容が押し操作PSS_ALである場合に、挿入部11を5cmだけ前進させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。これにより進退制御部241は、挿入部11を5cm前進させるための進退制御信号を生成して、進退機構141を駆動する。
 操作制御部263は、操作内容決定部262により決定された操作内容が押し操作PSS_ASである場合に、挿入部11を2cmだけ前進させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。これにより進退制御部241は、挿入部11を2cm前進させるための進退制御信号を生成して、進退機構141を駆動する。
 以上のように実施例5では、挿入部11の押し操作と、当該押し操作による移動量の組み合わせに対してラベルを設定し、教師データとして機械学習に利用した。なお動作量に関して押し操作を2つのクラスに分けたが、3つ以上のクラスに分けてもよい。
 また押し操作だけでなく、アングル操作と、当該アングル操作による回転角度の組み合わせに対してラベルを設定し、教師データとして機械学習に利用してもよい。このように実施例5では、操作内容と、当該操作内容における動作量との組み合わせにラベルを設定した教師データを用いて、操作選択モデル265を生成する。これにより操作選択モデル265を利用することで、内視鏡10の操作内容および動作量を簡易に決定できる。
(実施例6)
 一般的に大腸内視鏡検査は、短時間で終わらせることが患者への負担の観点から望ましい。そのため安全な状況下では無駄なく迅速な挿入操作を実行することが望ましいが、一方で、大腸の状態によっては慎重な操作が必要となる。そこで実施例6では、操作内容と、その操作内容における動作速度の組み合わせに対してラベルを設定して、操作選択モデル265を機械学習により生成する。
 実施例6の操作選択モデル265は、入力層と、1つ以上の畳み込み層と、出力層と、を含む多層のニューラルネットワークに相当するCNNにおける各結合係数(重み)をディープラーニング等の学習手法で学習させることにより作成された学習済みモデルである。実施例6の操作選択モデル265の生成にあたり、腸管またはコロンモデルの内部を過去に内視鏡で撮影した内視鏡画像である学習用画像と、当該学習用画像により示される状況に最も適した操作内容が12個の操作内容のうちのどれであるかを示すラベルと、を含む教師データを用いた機械学習が行われる。
 ここで12個の操作内容には、アングル操作UPSと、アングル操作DOSと、アングル操作LESと、アングル操作RISと、アングル操作URSと、アングル操作ULSと、アングル操作DLSと、アングル操作DRSと、移動速度が相対的に速い押し操作PSS_SHと、移動速度が相対的に遅い押し操作PSS_SLと、引き操作PLSと、探索操作SESと、が含まれる。
 教師データの作成時、識者が、学習用画像を見て、当該学習用画像に示される状況において最も行われうる一つの操作内容を、上記した12個の操作内容の中から主観的に選択し、選択した操作内容のラベルを、当該学習用画像に付与する。このラベル付与作業が多数の過去の内視鏡画像に対して実施されることで、教師データが作成される。
 以下、学習用画像およびラベルを含む教師データの例を示す。
 図17(a)は、異常が生じていない部位を撮影した学習用画像を示し、図17(b)は、粘膜炎症などの異常が生じている部位を撮影した学習用画像を示す。図17(a)(b)のいずれの学習用画像に対しても、識者は、これから行う内視鏡操作として、先端部12を前進させるべきことを判断する。
 このとき識者は、図17(a)の学習用画像に対して、挿入部11を比較的速い速度で前進させてよいと判断する。一方で、図17(b)の学習用画像に対しては、挿入部11を慎重に前進させることが必要であり、比較的遅い速度で前進させることを判断する。そこで図17(a)に示す学習用画像には、移動速度を5cm/秒とする押し操作を示す「押し操作PSS_SHのラベル」が付与され、図17(b)に示す学習用画像には、移動速度を2cm/秒とする押し操作を示す「押し操作PSS_SLのラベル」が付与される。
 実施例3において、図13に示す学習用画像には、いずれも押し操作を示す「押し操作PSSのラベル」が付与されていたが、実施例6では、図13に示す学習用画像に、「押し操作PSS_SHのラベル」または「押し操作PSS_SLのラベル」のいずれかが付与される。
 実施例6の操作選択モデル265は、少なくとも図5~図12,図14、図15、図17に示す教師データを用いて機械学習することにより生成される。
 操作内容決定部262は、学習用画像と、学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。具体的に操作内容決定部262は、画像取得部261において取得された内視鏡画像に含まれる各画素の画素値等の多次元データを取得し、当該多次元データを入力データとして操作選択モデル265のニューラルネットワークの入力層に入力する。実施例6の操作選択モデル265は、内視鏡10の操作内容として選択され得る12個の操作内容のそれぞれに対応する12個の尤度を、ニューラルネットワークの出力層から出力する。操作内容決定部262は、出力データに含まれる12個の尤度の中で最も高い1つの尤度に対応する操作内容を、内視鏡10の操作内容の選択結果として得ることができる。
 実施例6の作用について説明する。
 操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを、実施例6の操作選択モデル265に入力して処理させることにより、内視鏡10の操作に係る12個の操作内容の中から一の操作内容を決定する。
 操作制御部263は、操作内容決定部262により決定された操作内容が押し操作PSS_SHである場合に、挿入部11を5cm/秒の速度で前進させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。これにより進退制御部241は、挿入部11を5cm/秒の速度で前進させるための進退制御信号を生成して、進退機構141を駆動する。なお駆動時間については、予め所定時間(たとえば1秒)に定められていてよい。
 操作制御部263は、操作内容決定部262により決定された操作内容が押し操作PSS_SLである場合に、挿入部11を2cm/秒の速度で前進させる制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。これにより進退制御部241は、挿入部11を2cm/秒の速度で前進させるための進退制御信号を生成して、進退機構141を駆動する。なお駆動時間については、予め所定時間に定められていてよい。
 以上のように実施例6では、挿入部11の押し操作と、当該押し操作による動作速度の組み合わせに対してラベルを設定し、教師データとして機械学習に利用した。なお動作速度に関して押し操作を2つのクラスに分けたが、3つ以上のクラスに分けてもよい。
 また押し操作だけでなく、アングル操作と、当該アングル操作による動作速度の組み合わせに対してラベルを設定し、教師データとして機械学習に利用してもよい。このように実施例6では、操作内容と、当該操作内容における動作速度との組み合わせにラベルを設定した教師データを用いて、操作選択モデル265を生成する。これにより操作選択モデル265を利用することで、内視鏡10の操作内容および動作速度を簡易に決定できる。
(実施例7)
 内視鏡10の自動挿入制御においては、先端部12を前進させたときに、先端部12に加わる腸管からの抵抗力(外力)に応じて、実施中の動作を中止または変更するように制御されることが好ましい。先端部12に作用する外力が大きい場合、先端部12が襞などの構造物を押している可能性があるため、外力が所定の制御閾値を超えると、先端部12の前進を停止されて、先端部12が後退させられる。このように前進動作には、前進動作を中止または変更するための制御閾値が定められている。
 一方、腸狭窄が生じている場合は、腸管が狭くなっているため、先端部12に加わる抵抗力は高くなるが、内視鏡観察のためには、先端部12を前進させる必要がある。そこで実施例7では、狭窄しているか否かに応じて、先端部12に印加される抵抗力の制御閾値を異ならせる自動挿入制御を実現するための操作選択モデル265を機械学習により生成する。
 実施例7の操作選択モデル265は、入力層と、1つ以上の畳み込み層と、出力層と、を含む多層のニューラルネットワークに相当するCNNにおける各結合係数(重み)をディープラーニング等の学習手法で学習させることにより作成された学習済みモデルである。実施例7の操作選択モデル265の生成にあたり、腸管またはコロンモデルの内部を過去に内視鏡で撮影した内視鏡画像である学習用画像と、当該学習用画像により示される状況に最も適した操作内容が12個の操作内容のうちのどれであるかを示すラベルと、を含む教師データを用いた機械学習が行われる。
 ここで12個の操作内容には、アングル操作UPSと、アングル操作DOSと、アングル操作LESと、アングル操作RISと、アングル操作URSと、アングル操作ULSと、アングル操作DLSと、アングル操作DRSと、相対的に小さい抵抗力を前進停止の制御閾値とする押し操作PSS_TSと、相対的に大きい抵抗力を前進停止の制御閾値とする押し操作PSS_TLと、引き操作PLSと、探索操作SESと、が含まれる。
 教師データの作成時、識者が、学習用画像を見て、当該学習用画像に示される状況において最も行われうる一つの操作内容を、上記した12個の操作内容の中から主観的に選択し、選択した操作内容のラベルを、当該学習用画像に付与する。このラベル付与作業が多数の過去の内視鏡画像に対して実施されることで、教師データが作成される。
 以下、学習用画像およびラベルを含む教師データの例を示す。
 図18(a)は、狭窄が生じていない管腔を撮影した学習用画像を示し、図18(b)は、狭窄が生じている管腔を撮影した学習用画像を示す。図18(a)(b)のいずれの学習用画像に対しても、識者は、これから行う内視鏡操作として、先端部12を前進させるべきことを判断する。
 このとき識者は、図18(a)の学習用画像に対して、挿入部11を通常の制御閾値を用いて前進制御してよいと判断する。一方で、図18(b)の学習用画像に対しては、挿入部11をやや強めの前進力で管腔を広げながら前進させる必要があり、通常の前進制御における前進停止の制御閾値を高くすることを判断する。そこで先端部12が受ける抵抗力Fが制御閾値を超えると前進を停止する前進制御において、図18(a)に示す学習用画像には、制御閾値をF1とする押し操作を示す「押し操作PSS_TSのラベル」が付与され、図18(b)に示す学習用画像には、制御閾値をF2(>F1)とする押し操作を示す「押し操作PSS_TLのラベル」が付与される。
 実施例3において、図13に示す学習用画像には、いずれも押し操作を示す「押し操作PSSのラベル」が付与されていたが、実施例7では、図13に示す学習用画像に、「押し操作PSS_TSのラベル」または「押し操作PSS_TLのラベル」のいずれかが付与される。
 実施例7の操作選択モデル265は、少なくとも図5~図12,図14、図15、図18に示す教師データを用いて機械学習することにより生成される。
 操作内容決定部262は、学習用画像と、学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデル265に、画像取得部261において取得した内視鏡画像から取得される入力データを入力することで、1つ以上の操作内容を決定する。具体的に操作内容決定部262は、画像取得部261において取得された内視鏡画像に含まれる各画素の画素値等の多次元データを取得し、当該多次元データを入力データとして操作選択モデル265のニューラルネットワークの入力層に入力する。実施例7の操作選択モデル265は、内視鏡10の操作内容として選択され得る12個の操作内容のそれぞれに対応する12個の尤度を、ニューラルネットワークの出力層から出力する。操作内容決定部262は、出力データに含まれる12個の尤度の中で最も高い1つの尤度に対応する操作内容を、内視鏡10の操作内容の選択結果として得ることができる。
 実施例7の作用について説明する。
 操作内容決定部262は、画像取得部261において取得した内視鏡画像から取得される入力データを、実施例6の操作選択モデル265に入力して処理させることにより、内視鏡10の操作に係る12個の操作内容の中から一の操作内容を決定する。
 操作制御部263は、操作内容決定部262により決定された操作内容が押し操作PSS_TSである場合に、前進制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。操作制御部263は、先端部12にかかる外力を監視し、外力がF1を超えると、進退制御部241に前進制御の停止指示信号を出力する。
 操作制御部263は、操作内容決定部262により決定された操作内容が押し操作PSS_TLである場合に、前進制御を実行させる動作制御信号を生成して、駆動制御部240へ出力する。操作制御部263は、先端部12にかかる外力を監視し、外力がF2を超えると、進退制御部241に前進制御の停止指示信号を出力する。
 以上のように実施例7では、挿入部11の押し操作と、当該押し操作による制御閾値の組み合わせに対してラベルを設定し、教師データとして機械学習に利用した。なお制御閾値に関して押し操作を2つのクラスに分けたが、3つ以上のクラスに分けてもよい。また押し操作だけでなく、アングル操作と、当該アングル操作における制御閾値の組み合わせに対してラベルを設定し、教師データとして機械学習に利用してもよい。
 以上、本発明を実施形態および複数の実施例をもとに説明した。これらの実施形態および実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。実施例1~7で説明した操作選択モデル265は、それぞれ組み合わせて使用することも可能である。
 たとえば実施例5では、操作内容と、その操作内容における動作量の組み合わせに対してラベルを設定して教師データとして使用すること、実施例6では、操作内容と、その操作内容における操作速度の組み合わせに対してラベルを設定して教師データとして使用することを説明した。変形例では、操作内容と動作量と動作速度の組み合わせに対してラベルを設定して、教師データとして使用し、操作選択モデル265を生成してもよい。
 また操作内容を決定するための第1操作選択モデル265aと、第1操作選択モデル265aを用いて決定された操作内容における動作量(または動作速度)を決定するための第2操作選択モデル265bとを生成して、第1操作選択モデル265aと第2操作選択モデル265bとを組み合わせて使用してもよい。この場合、第2操作選択モデル265bは、第1操作選択モデル265aを生成するために用いた各クラスの教師データ群を細分化した教師データを用いて生成されてよい。
 実施形態では、学習モデルとして近年のDeep Neural Network における最も基本的かつ安定した手法の一つであるCNNを説明したが、より複雑なネットワークモデルを用いてもよい。例えば内視鏡画像に加えて、数値化された内視鏡挿入形状情報を入力に用いたマルチモーダルなネットワークモデルを構築することも可能である。このようにすることで、内視鏡画像のみならず内視鏡の挿入状況を判定条件に加えた制御を実現することが可能となる。
 実施例では基本操作であるアングル操作、押し操作、引き操作、探索操作のラベルを設定したが、“捻り操作”、“送気操作”、“送水操作”、“吸引操作”にラベルを設定した教師データを生成して、操作選択モデル265を機械学習により生成してもよい。
 なお、操作内容決定部262は、画像取得部261において取得した内視鏡画像に基づき管腔の深部方向を検出する管腔深部方向検出部と、内視鏡画像に基づき、内視鏡の先端部の進行が他の方向よりも容易である方向を判断する進行容易方向判断部と、を有してもよく、操作内容決定部262は、前記進行容易方向判断部における判断結果と前記管腔深部方向検出部における検出結果に基づき、前記操作内容を決定してもよい。
 さらに進行容易方向判断部は、前記管腔深部方向検出部において検出された管腔深部方向に進行した場合において進行の障害となる障害物が存在するか否かを判断する障害有無判断部と、を有してもよく、前記進行容易方向判断部は、前記障害有無判断部における判断結果に基づいて、前記内視鏡の先端部の進行が他の方向よりも容易である方向を判断してもよい。この場合、障害物の例としては、管腔の粘膜またはヒダ等が該当する。例えば、管腔深部方向に進行した際に粘膜と内視鏡先端部が衝突すると判断される場合に障害物が存在すると判断してよい。
 なお障害物がない進行方向のうち、どの方向を他の方向よりも容易であると判断するかについては、障害物がない方向のうち、内視鏡画像により内視鏡の先端部が過去に進行してきた方向を進行容易方向としてもよい。
 また、前記進行容易方向判断部において判断された方向と前記管腔深部方向検出部において検出された方向とがなす角度に基づいて前記操作内容を決定してもよい。例えば、前記進行容易方向判断部において判断された方向と前記管腔深部方向検出部において検出された方向とがなす角度を角度Xとしたとき、進行方向の角度YをY=X/2としてその方向に進行してもよい。つまり前記進行容易方向判断部において判断された方向と前記管腔深部方向検出部において検出された方向の二等分線を構成する方向に進行してもよい。また、進行方向は、前記進行容易方向判断部において判断された方向と前記管腔深部方向検出部において検出された方向によるベクトルの合成ベクトルが示す方向であってもよい。また、管腔深部方向検出部における検出結果に基づく方向ベクトルAと、進行容易方向判断部における方向ベクトルBとの合成ベクトルCの方向に進行を行ってもよいし、さらには、方向ベクトルA、Bにそれぞれ重みづけa,bを行い、合成ベクトルC=1/2(a*A+b*B)の方向に進んでもよい。
 なお、操作内容決定部262は、画像取得部261において取得した内視鏡画像に基づき管腔の深部形状を認識する管腔深部形状認識部を有し、認識した管腔深部形状に基づいて操作内容およびその動作量または動作速度を決定してもよい。また操作内容決定部262は、内視鏡が所定の制御閾値以上の抵抗力を受けた際に操作内容を変更する操作内容変更部を有し、前記操作内容変更部は前記管腔深部の形状に基づき、前記操作内容変更部が操作を変更する前記抵抗力の制御閾値を変更してもよい。
 本発明は、内視鏡を自動操作する技術分野に利用できる。
1・・・内視鏡システム、2・・・内視鏡制御装置、10・・・内視鏡、11・・・挿入部、12・・・先端部、13・・・湾曲部、14・・・可撓管部、16・・・操作部、17・・・ユニバーサルコード、18・・・ソースコイル、20・・・処理装置、22・・・プロセッサ、24・・・記憶媒体、30・・・挿入形状検出装置、40・・・外力情報取得装置、50・・・入力装置、60・・・表示装置、110・・・撮像部、141・・・進退機構、142・・・湾曲機構、143・・・AWS機構、144・・・回転機構、210・・・光源部、220・・・画像処理部、230・・・コイル駆動信号生成部、240・・・駆動制御部、241・・・進退制御部、242・・・湾曲制御部、243・・・AWS制御部、244・・・回転制御部、250・・・表示制御部、260・・・動作制御部、261・・・画像取得部、262・・・操作内容決定部、263・・・操作制御部、264・・・駆動判定部、265・・・操作選択モデル、310・・・受信アンテナ、320・・・挿入形状情報取得部。

Claims (16)

  1.  被検体内に挿入されている内視鏡が撮影した内視鏡画像を取得する画像取得部と、
     前記画像取得部において取得した内視鏡画像に基づき、所定の複数の操作内容の中から1つ以上の操作内容を決定する操作内容決定部と、
     前記操作内容決定部において決定した操作内容に基づいて前記内視鏡の動作を制御する制御部と、を有し、
     前記操作内容決定部は、過去に撮影された内視鏡画像である学習用画像と前記学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデルに、前記画像取得部において取得した内視鏡画像から取得される入力データを入力することで、前記1つ以上の操作内容を決定する、
     ことを特徴とする内視鏡制御装置。
  2.  教師データは、前記学習用画像と、内視鏡の湾曲部を曲げる操作を示すラベルを含む、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  3.  教師データは、前記学習用画像と、内視鏡の先端部を前進させる操作を示すラベルまたは後退させる操作を示すラベルを含む、
     ことを特徴とする請求項2に記載の内視鏡制御装置。
  4.  教師データは、前記学習用画像と、内視鏡の先端部を複数方向に向けて管腔を探索させる操作を示すラベルを含む、
     ことを特徴とする請求項3に記載の内視鏡制御装置。
  5.  教師データは、前記学習用画像と、操作内容と当該操作内容における動作量の組み合わせを示すラベルを含む、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  6.  教師データは、前記学習用画像と、操作内容と当該操作内容における動作速度の組み合わせを示すラベルを含む、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  7.  教師データは、前記学習用画像と、操作内容と当該操作内容における制御閾値の組み合わせを示すラベルを含む、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  8.  前記操作内容決定部は、操作選択モデルに前記入力データを入力して処理を行うことにより、先端部の向きを挿入軸に対して直交する方向として設定された4方向に向けるための操作を含む4個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  9.  前記操作内容決定部は、操作選択モデルに前記入力データを入力して処理を行うことにより、先端部の向きを挿入軸に対して直交する方向として設定された4方向に向けるための操作と、前記先端部の向きを現在の向きに維持させるための操作と、を含む5個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  10.  前記操作内容決定部は、操作選択モデルに前記入力データを入力して処理を行うことにより、先端部の向きを挿入軸に対して直交する方向として設定された8方向に向けるための操作を含む8個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  11.  前記操作内容決定部は、操作選択モデルに前記入力データを入力して処理を行うことにより、先端部の向きを挿入軸に対して直交する方向として設定された8つの方向に向けるための操作と、前記先端部の向きを現在の向きに維持させるための操作と、を含む9個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  12.  前記操作内容決定部は、操作選択モデルに前記入力データを入力して処理を行うことにより、先端部の向きを挿入軸に対して直交する方向として設定された8つの方向に向けるための操作と、内視鏡挿入部を前進させるための操作と、前記内視鏡挿入部を後退させるための操作と、を含む10個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  13.  前記操作内容決定部は、操作選択モデルに前記入力データを入力して処理を行うことにより、先端部の向きを挿入軸に対して直交する方向として設定された8つの方向に向けるための操作と、内視鏡挿入部を前進させるための操作と、前記内視鏡挿入部を後退させるための操作と、前記先端部の向きを現在の向きに維持させるための操作と、前記被検体内における前記先端部の近傍の管腔を探索するための操作と、を含む12個の操作内容の中から選択した一の操作内容を示す選択結果を得るように構成されている、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  14.  前記操作内容決定部は、操作選択モデルに前記入力データを入力して処理を行うことにより、先端部の向きを挿入軸に対して直交する方向として設定された4つの方向に向けるための操作と、前記先端部の向きを現在の向きに維持させるための操作と、を含む5個の操作内容に対し、さらに、内視鏡挿入部を挿入軸周りに回転させるための操作、前記先端部の前方へ気体を噴出させるための操作、前記先端部の前方へ液体を噴出させるための操作、及び、前記先端部の近傍に存在する物体を吸引させるための操作のうちの少なくとも1つの操作内容を加えた各操作内容の中から一の操作内容を選択して選択結果を得るように構成されている、
     ことを特徴とする請求項1に記載の内視鏡制御装置。
  15.  内視鏡の動作を制御する方法であって、
     被検体内に挿入されている内視鏡が撮影した内視鏡画像を取得し、
     過去に撮影された内視鏡画像である学習用画像と前記学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデルに、前記取得した内視鏡画像から取得される入力データを入力することで、前記内視鏡に対する1つ以上の操作内容を決定し、
     決定した操作内容に基づいて前記内視鏡の動作を制御する、
     内視鏡制御方法。
  16.  コンピュータに、
     被検体内に挿入されている内視鏡が撮影した内視鏡画像を取得する機能と、
     過去に撮影された内視鏡画像である学習用画像と前記学習用画像を撮影した内視鏡に対する操作内容を示すラベルとを教師データとして用いた機械学習により生成された1つ以上の操作選択モデルに、前記取得した内視鏡画像から取得される入力データを入力することで、前記内視鏡に対する1つ以上の操作内容を決定する機能と、
     決定した操作内容に基づいて前記内視鏡の動作を制御する機能と、
     を実現させるためのプログラム。
PCT/JP2020/033888 2019-09-10 2020-09-08 内視鏡制御装置、内視鏡制御方法及びプログラム WO2021049475A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021545540A JPWO2021049475A1 (ja) 2019-09-10 2020-09-08
CN202080063616.7A CN114430668A (zh) 2019-09-10 2020-09-08 内窥镜控制装置、内窥镜控制方法及程序
US17/690,462 US20220192466A1 (en) 2019-09-10 2022-03-09 Endoscope control apparatus, endoscope control method, and storage medium storing a program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/035561 WO2021048925A1 (ja) 2019-09-10 2019-09-10 内視鏡制御装置、内視鏡制御装置の作動方法及びプログラム
JPPCT/JP2019/035561 2019-09-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/690,462 Continuation US20220192466A1 (en) 2019-09-10 2022-03-09 Endoscope control apparatus, endoscope control method, and storage medium storing a program

Publications (1)

Publication Number Publication Date
WO2021049475A1 true WO2021049475A1 (ja) 2021-03-18

Family

ID=74866157

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2019/035561 WO2021048925A1 (ja) 2019-09-10 2019-09-10 内視鏡制御装置、内視鏡制御装置の作動方法及びプログラム
PCT/JP2020/033888 WO2021049475A1 (ja) 2019-09-10 2020-09-08 内視鏡制御装置、内視鏡制御方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035561 WO2021048925A1 (ja) 2019-09-10 2019-09-10 内視鏡制御装置、内視鏡制御装置の作動方法及びプログラム

Country Status (4)

Country Link
US (1) US20220192466A1 (ja)
JP (1) JPWO2021049475A1 (ja)
CN (1) CN114430668A (ja)
WO (2) WO2021048925A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175855A1 (ja) * 2022-03-17 2023-09-21 オリンパスメディカルシステムズ株式会社 内視鏡制御システムおよび内視鏡制御方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7374224B2 (ja) * 2021-01-14 2023-11-06 コ,ジファン 内視鏡を用いた大腸検査ガイド装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03165732A (ja) * 1989-11-24 1991-07-17 Olympus Optical Co Ltd 内視鏡の暗部領域の検出方法
JP2007090098A (ja) * 2006-12-25 2007-04-12 Olympus Corp 内視鏡形状検出装置
WO2011040111A1 (ja) * 2009-09-30 2011-04-07 オリンパスメディカルシステムズ株式会社 内視鏡装置
WO2018235185A1 (ja) * 2017-06-21 2018-12-27 オリンパス株式会社 挿入支援装置、挿入支援方法、及び挿入支援装置を含む内視鏡装置
WO2019130390A1 (ja) * 2017-12-25 2019-07-04 オリンパス株式会社 推奨操作呈示システム、推奨操作呈示制御装置及び推奨操作呈示制御方法
WO2019155617A1 (ja) * 2018-02-09 2019-08-15 オリンパス株式会社 内視鏡システム、内視鏡制御装置、内視鏡システムの作動方法、及び内視鏡制御プログラムを記録した記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5094036B2 (ja) * 2006-04-17 2012-12-12 オリンパスメディカルシステムズ株式会社 内視鏡挿入方向検出装置
CN102123650B (zh) * 2009-01-29 2014-04-16 奥林巴斯医疗株式会社 内窥镜系统
EP3245930A4 (en) * 2015-01-15 2018-10-03 Olympus Corporation Over tube
JP6749020B2 (ja) * 2017-11-29 2020-09-02 水野 裕子 内視鏡ナビゲーション装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03165732A (ja) * 1989-11-24 1991-07-17 Olympus Optical Co Ltd 内視鏡の暗部領域の検出方法
JP2007090098A (ja) * 2006-12-25 2007-04-12 Olympus Corp 内視鏡形状検出装置
WO2011040111A1 (ja) * 2009-09-30 2011-04-07 オリンパスメディカルシステムズ株式会社 内視鏡装置
WO2018235185A1 (ja) * 2017-06-21 2018-12-27 オリンパス株式会社 挿入支援装置、挿入支援方法、及び挿入支援装置を含む内視鏡装置
WO2019130390A1 (ja) * 2017-12-25 2019-07-04 オリンパス株式会社 推奨操作呈示システム、推奨操作呈示制御装置及び推奨操作呈示制御方法
WO2019155617A1 (ja) * 2018-02-09 2019-08-15 オリンパス株式会社 内視鏡システム、内視鏡制御装置、内視鏡システムの作動方法、及び内視鏡制御プログラムを記録した記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175855A1 (ja) * 2022-03-17 2023-09-21 オリンパスメディカルシステムズ株式会社 内視鏡制御システムおよび内視鏡制御方法

Also Published As

Publication number Publication date
WO2021048925A1 (ja) 2021-03-18
US20220192466A1 (en) 2022-06-23
CN114430668A (zh) 2022-05-03
JPWO2021049475A1 (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
EP2215960B1 (en) Endoscope curve control apparatus
WO2021049475A1 (ja) 内視鏡制御装置、内視鏡制御方法及びプログラム
CN105899119B (zh) 内窥镜系统
WO2017149868A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP2425760B1 (en) Endoscope system
JP5085662B2 (ja) 内視鏡システム
CN103068297B (zh) 内窥镜系统
US20210022585A1 (en) Endoscope system, endoscope control device, operating method of endoscope system, and non-transitory computer-readable recording medium storing endoscope control program
US20110275896A1 (en) Endoscope apparatus and bending drive control method
JP7150997B2 (ja) 情報処理装置、内視鏡制御装置、情報処理装置の作動方法、内視鏡制御装置の作動方法及びプログラム
US20140155709A1 (en) Capsule medical device and medical system
US9824445B2 (en) Endoscope system
KR20220143817A (ko) 로봇 기관지경 검사용 시스템 및 방법
WO2021111879A1 (ja) 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
US20210405344A1 (en) Control apparatus, recording medium recording learned model, and movement support method
WO2021149112A1 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法及びプログラム
US20220218180A1 (en) Endoscope insertion control device, endoscope insertion control method, and non-transitory recording medium in which endoscope insertion control program is recorded
Jiang et al. Navigation strategy for robotic soft endoscope intervention
US11950868B2 (en) Systems and methods for self-alignment and adjustment of robotic endoscope
CN116096535A (zh) 医学成像装置、学习模型生成方法和学习模型生成程序
Li et al. Towards semi-autonomous manipulation of an electromagnetically actuated soft-tethered colonoscope based on visual servo control
WO2021181918A1 (ja) 内視鏡用プロセッサ、内視鏡、内視鏡システム、情報処理方法、プログラム及び学習モデルの生成方法
US20230410334A1 (en) Endoscopic image processing apparatus and endoscopic image processing method
WO2023175855A1 (ja) 内視鏡制御システムおよび内視鏡制御方法
CN1826076A (zh) 内窥镜

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20864041

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021545540

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20864041

Country of ref document: EP

Kind code of ref document: A1