WO2021111879A1 - 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ - Google Patents

学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ Download PDF

Info

Publication number
WO2021111879A1
WO2021111879A1 PCT/JP2020/042991 JP2020042991W WO2021111879A1 WO 2021111879 A1 WO2021111879 A1 WO 2021111879A1 JP 2020042991 W JP2020042991 W JP 2020042991W WO 2021111879 A1 WO2021111879 A1 WO 2021111879A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
procedure information
procedure
image
learning model
Prior art date
Application number
PCT/JP2020/042991
Other languages
English (en)
French (fr)
Inventor
智広 神戸
池谷 浩平
Original Assignee
Hoya株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya株式会社 filed Critical Hoya株式会社
Priority to JP2021562557A priority Critical patent/JP7245360B2/ja
Priority to US17/627,327 priority patent/US20220277461A1/en
Publication of WO2021111879A1 publication Critical patent/WO2021111879A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • This technology relates to learning model generation methods, programs, procedure support systems, information processing devices, information processing methods, and endoscope processors.
  • Patent Document 1 has a problem that sufficient data in the endoscopic procedure cannot be obtained, and there is a concern that appropriate support information for supporting the endoscopic procedure may not be presented. To.
  • the purpose of the present disclosure is to generate a learning model, a program, a procedure support system, an information processing device, an information processing method, and endoscopy that output appropriate information to support the procedure based on the procedure information in the procedure of the endoscope.
  • the purpose is to provide a processor for mirrors.
  • the method of generating a learning model in one aspect of the present disclosure includes an endoscope image taken by the endoscope at each stage of the operation of the endoscope by an endoscope operator who operates the endoscope, and the inside of the endoscope.
  • the procedure information related to the procedure of the endoscope operator is acquired and the endoscope image and procedure information are input based on the teacher data including the acquired endoscope image and procedure information and the procedure information in the next stage
  • the next stage Generate a learning model trained to output the procedure information of.
  • Embodiment 1 It is a schematic diagram of the learning model generation system in Embodiment 1. It is a block diagram which shows the configuration example of the learning model generation system. It is a figure which shows the content example of the information stored in the history DB. It is explanatory drawing explaining the structure of the learning model. It is explanatory drawing explaining the different structure of a learning model. It is a flowchart which shows an example of the processing procedure executed by an information processing apparatus. It is a schematic diagram of the learning model generation system in Embodiment 2. It is explanatory drawing explaining the structure of the learning model of Embodiment 2. It is a schematic diagram of the learning model generation system in Embodiment 3. It is explanatory drawing explaining the structure of the learning model of Embodiment 3.
  • FIG. 5 is a flowchart showing an example of a processing procedure executed by the endoscope processor of the eleventh embodiment. It is a flowchart which shows an example of the processing procedure executed by the endoscope processor of Embodiment 13.
  • FIG. 1 is a schematic diagram of the learning model generation system 110 according to the first embodiment.
  • the learning model generation system 110 includes an endoscope 1, an endoscope processor 2, a detection device 4, and an information processing device 5.
  • a display device 3 is connected to the endoscope processor 2.
  • the endoscope 1, the endoscope processor 2, and the display device 3 are connected to each other via a connector, and transmit and receive electric signals, video signals, and the like.
  • the endoscope processor 2 and the detection device 4 are each communicably connected to the information processing device 5 via a network N such as a LAN (Local Area Network).
  • a network N such as a LAN (Local Area Network).
  • the endoscope 1 is, for example, an endoscope for the upper gastrointestinal tract or a colonoscope.
  • the endoscope 1 includes an insertion tube 11 and a connector portion 14 connected to the insertion tube 11 via an operation unit 12 and a universal cord 13, and is connected to the endoscope processor 2 by the connector unit 14. used.
  • the insertion tube 11 is long and is a part to be inserted into a luminal organ such as the digestive tract of the subject.
  • an image sensor that receives reflected light from the subject through the observation window and performs photoelectric conversion is arranged.
  • the image sensor includes a CCD (Charge Coupled Device) image sensor, a CMD (Charge Modulation Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and the like.
  • the electric signal generated by the photoelectric conversion is subjected to signal processing such as A / D conversion and noise removal by a signal processing circuit (not shown), and is output to the endoscope processor 2.
  • a channel outlet connected to a channel inlet described later, a nozzle for ejecting and sucking washing water and air, and the like are provided.
  • a physical detection device such as a 3-axis acceleration sensor, a gyro sensor, a geomagnetic sensor or a magnetic coil sensor is mounted on the insertion tube 11, and when the endoscope 1 is inserted into the body of the subject, the physical detection device is used. The detection result of the above may be acquired.
  • the operation unit 12 is provided to be gripped by the endoscope operator to perform various procedures, and is provided with a release button, an angle knob for bending the tip of the endoscope, and the like.
  • the operation unit 12 receives input of operation instruction signals of peripheral devices such as air supply, water supply, and gas supply. Further, the operation unit 12 is provided with a channel inlet.
  • a forceps plug having an insertion port for inserting a treatment tool or the like is fixed at the channel entrance.
  • Treatment tools inserted through the insertion port include, for example, forceps, grippers, injection needles, biopsy needles, snares, clamps, scissors, scalpels, incision instruments, endoscopic staplers, tissue loops, clip appliers, suture delivery instruments. And so on.
  • the universal cord 13 is long, and the first end is connected to the operation unit 12 and the second end is connected to the connector unit 14.
  • a fiber bundle, a cable bundle, an air supply tube, a water supply tube, and the like extending from the insertion pipe 11 and the operation unit 12 are inserted into the universal cord 13.
  • One end of the fiber bundle or the like is arranged in a communication connector (not shown) of the connector portion 14 and is connected to the endoscope processor 2.
  • the endoscope processor 2 performs various image processing such as gamma correction, white balance correction, and shading correction on the image captured from the image sensor of the endoscope 1 to make the image easy for the user to see.
  • This is an information processing device that generates a mirror image and outputs it to the display device 3.
  • the display device 3 is a liquid crystal display, an organic EL (electroluminescence) display, or the like.
  • the display device 3 displays an image or the like output from the endoscope processor 2.
  • the detection device 4 is a detection device that detects 3D data of the operation of the endoscope operator of the endoscope 1, and is, for example, a 3D laser sensor.
  • the detection device 4 is connected to the information processing device 5 by wire or wirelessly.
  • the detection device 4 transmits the detected detection value to the information processing device 5.
  • the 3D laser sensor detects the distance and direction to the object with a predetermined resolution by, for example, a TOF (TimeOfFlight) method, and outputs 3D data indicating the three-dimensional position coordinates of each point on the object.
  • the 3D laser sensor is configured so that the angle of view indicating the detection range in the horizontal direction and the vertical direction and the direction of the center line connecting the center of the detection range and the 3D laser sensor can be changed.
  • the detection device 4 can maintain a high degree of analysis even when the position of the detection target changes.
  • the detection device 4 is set so that the angle of view is, for example, the moving range of both hands and arms that operate the endoscope 1 of the endoscope operator.
  • the detection device 4 may be set so that the angle of view is a range including the whole body of the endoscope operator.
  • the detection value transmitted from the detection device 4 to the information processing device 5 is 3D data representing the 3D coordinate value of each point included in the point cloud on the object detected by the detection device 4 at each time in the sensor coordinate system. It is a group.
  • the information processing device 5 calculates the coordinate values for each part of the endoscope operator from the acquired 3D data group.
  • a method for calculating the coordinate values of each part of the human body from the 3D data group for example, the method described in JP-A-2018-169720 may be used.
  • Each part of the endoscope operator is a part of the human body such as a joint that is a characteristic point for specifying the posture of the object to be detected.
  • each part is a right hand, a right wrist, a right elbow, a right shoulder, a left hand, a left wrist, a left elbow, a left shoulder, and the like.
  • Each site may include the head, the center of the shoulder, the spine, the right knee, the right ankle, the right foot, the left knee, the left ankle, the left foot, and the like.
  • a vector indicating the axial direction of each part and a quaternion indicating rotation can be used.
  • the detection device 4 is not limited to the 3D laser sensor.
  • the detection device 4 may be any device that detects the movement of the endoscope operator, and may be, for example, an image sensor or the like.
  • the detection device 4 may be a stereo camera including a plurality of image pickup elements.
  • the information processing device 5 is, for example, a server computer.
  • the information processing device 5 acquires information on the endoscopic procedure from the endoscope processor 2 and the detection device 4, and outputs procedure information that supports the procedure of the endoscope operator based on the acquired information. To generate.
  • the information processing device 5 is described as one server computer, but the functions or processes may be distributed among a plurality of server computers, or a plurality of virtually generated information processing devices 5 may be generated on one large computer. It may be one of the server computers (instances).
  • FIG. 2 is a block diagram showing a configuration example of the learning model generation system 110.
  • the endoscope processor 2 includes a control unit 21, a storage unit 22, an input / output I / F (Interface) 23, a light source 24, and a communication unit 25. Each configuration is connected by a bus.
  • the endoscope processor 2 is described as one information processing unit, but it may be distributed and processed by a plurality of units, or it may be configured by a virtual machine.
  • the control unit 21 includes arithmetic processing units such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), and a GPU (Graphics Processing Unit).
  • the control unit 21 executes processing using the built-in memory such as ROM (Read Only Memory) and RAM (Random Access Memory).
  • the control unit 21 reads and executes the program stored in the storage unit 22 to perform various information processing, control processing, and the like related to the endoscope processor 2.
  • the control unit 21 is described as a single processor in FIG. 2, it may be a multiprocessor.
  • the storage unit 22 includes, for example, a hard disk or a non-volatile memory such as an SSD (Solid State Drive).
  • the storage unit 22 stores the program and data referred to by the control unit 21.
  • the input / output I / F 23 is a communication interface for serial communication with an external device connected to the endoscope processor 2.
  • a display device 3 such as a display and an input device such as a keyboard are connected to the input / output I / F 23.
  • the control unit 21 outputs to the display device 3 the result of information processing performed based on the input signal generated in response to the external operation of the input device.
  • the light source 24 includes a light source that emits illumination light used for illuminating the observation target.
  • the light source 24 is, for example, a semiconductor light source such as a plurality of colors of LEDs (Light Emitting Diodes) having different wavelength ranges, a combination of a laser diode and a phosphor, a xenon lamp, or the like.
  • the lighting, extinguishing, and changing of the brightness of the light source 24 are controlled by the control unit 21.
  • the endoscope processor 2 is a light source integrated type, but the present invention is not limited to this.
  • the endoscope processor 2 may be a light source separation type that is separated from the light source device.
  • the communication unit 25 is a communication interface that realizes communication via the network N.
  • the control unit 21 can communicate with the information processing device 5 via the network N by the communication unit 25.
  • the communication interface included in the communication unit 25 may perform communication using, for example, a wireless communication module including an antenna for short-range wireless communication such as Bluetooth (registered trademark) and WiFi (registered trademark). Further, the communication unit 25 may be provided with a wired communication interface such as USB.
  • the information processing device 5 includes a control unit 51, a storage unit 52, a communication unit 53, and an input / output I / F 54.
  • the control unit 51 includes one or more CPUs, MPUs, GPUs, and other arithmetic processing devices.
  • the control unit 51 executes processing using the built-in memory such as ROM and RAM.
  • the control unit 51 reads and executes the program 5P stored in the storage unit 52 to perform various information processing, control processing, and the like related to the information processing device 5.
  • the storage unit 52 includes, for example, a hard disk or a non-volatile memory such as an SSD. In addition to storing the program 5P, the storage unit 52 stores other programs and data referred to by the control unit 51.
  • the program 5P stored in the storage unit 52 may store the program 5P read from the recording medium 5A that can be read by the information processing device 5. Further, the program 5P may be downloaded from an external computer (not shown) connected to a communication network (not shown) and stored in the storage unit 52.
  • the storage unit 52 stores the history DB (Data Base: database) 521 and the learning model 522.
  • the learning model 522 is a discriminator that identifies the procedure information that supports the endoscope procedure of the endoscope operator, and is a learning model generated by machine learning.
  • the storage unit 52 may be composed of a plurality of storage devices, or may be an external storage device connected to the information processing device 5.
  • the communication unit 53 is a communication interface that realizes communication via the network N.
  • the control unit 51 can communicate with the endoscope processor 2 and the detection device 4 via the network N by the communication unit 53.
  • the input / output I / F54 conforms to a communication standard such as USB or D-SUB, and is a communication interface for serial communication with an external device connected to the input / output I / F54.
  • An output device such as a display and an input device such as a keyboard are connected to the input / output I / F 64.
  • FIG. 3 is a diagram showing an example of the contents of the information stored in the history DB 521.
  • the information processing device 5 collects the procedure information related to the procedure of the endoscope operator who is skilled in the operation of the endoscope 1 and stores it in the history DB 521.
  • the history DB 521 stores the procedure information including the date and time, the endoscopic image, the detected value, and the operation data in association with the history ID that identifies the history information.
  • the date and time the date and time when the endoscopic procedure was performed is recorded.
  • data is recorded in units of 10 milliseconds as an example.
  • an endoscope image taken by the endoscope 1 is recorded.
  • the endoscopic image is a still image or a moving image composed of a still image of a plurality of frames.
  • the detected value is state data indicating the movements of both hands and arms of the endoscope operator.
  • the detected value corresponds to, for example, the coordinate value of each part of the endoscope operator calculated from the 3D data group or the 3D data group at each date and time detected by the detection device 4 and each part. It is attached and recorded.
  • the operation data is information on the operation data of the tip of the endoscope 1, and includes information on the amount of insertion of the endoscope 1 into the body, the bending direction of the tip of the endoscope 1, the amount of light of the light source 24, and the like. Good.
  • a detection value detected by a physical detection device such as a 3-axis accelerometer provided in the insertion tube 11 of the endoscope 1 is recorded.
  • the operation data of the bending button of the operation unit 12 obtained from the endoscope processor 2 is recorded.
  • control data of the brightness with respect to the light source 24 obtained from the endoscope processor 2 is recorded. Note that FIG. 3 is an example, and the stored contents of the history DB 521 are not limited.
  • FIG. 4 is an explanatory diagram illustrating the configuration of the learning model 522.
  • the learning model 522 is generated and trained by deep learning using a neural network.
  • the learning model 522 is, for example, a CNN (Convolution Neural Network).
  • the learning model 522 has an input layer for inputting endoscopic image data and procedure information, an output layer for outputting procedure information in the next stage for the procedure being performed, endoscopic image data, and an endoscopic image data. It is provided with an intermediate layer for extracting the feature amount of the procedure information.
  • the intermediate layer has a plurality of nodes for extracting the features of the endoscopic image data and the procedure information, and passes the image features extracted using various parameters to the output layer.
  • the intermediate layer may include a convolutional layer, a pooling layer, a fully connected layer and the like.
  • the learning model 522 has a plurality of output layers that output the set procedure information.
  • the input data input to the input layer of the learning model 522 is an endoscope image and procedure information taken by the endoscope 1 at a predetermined stage.
  • the endoscopic image is a still image or a moving image composed of a still image of a plurality of frames.
  • the procedure information may include detected values and operation data.
  • the detected value includes the 3D data group detected by the detection device 4, or the coordinate values for each part of the endoscope operator calculated from the 3D data group, such as both hands and arms of the endoscope operator.
  • State data includes operation data such as the insertion amount, the bending direction, and the light amount of the endoscope 1.
  • the endoscopic image data may be input to the input layer via a convolution layer and a convolution layer (not shown).
  • the output data output from the output layer of the learning model 522 is the next-stage procedure information for the procedure being performed at the predetermined stage. For example, when the input data is the endoscopic image and the procedure information at the time tn, the output data is the procedure information at the time tn + 1.
  • the learning model 522 has a plurality of output layers that output, for example, a detected value, an insertion amount, a bending direction, and a light amount as procedure information.
  • the output layer that outputs the detected values includes channels corresponding to the set detected values, and outputs the accuracy for each detected value as a score.
  • the information processing device 5 can use the detected value having the highest score or the detected value having a score equal to or higher than the threshold value as the output data of the output layer that outputs the detected value.
  • the output layer may have one output node that outputs the most accurate detection value instead of having a plurality of output channels that output the accuracy of each detection value.
  • output data of the insertion amount, the bending direction, and the light amount are output from each output layer of the insertion amount, the bending direction, and the light amount, respectively.
  • the learning model 522 outputs the procedure information of the next stage when the endoscopic image and the procedure information in the predetermined stage are input.
  • the learning model 522 has a configuration having a plurality of output layers, but the learning model 522 may have a configuration having one output layer.
  • the information processing device 5 may include a plurality of learning models 522 having output layers that output detected values, insertion amounts, bending directions, and light amounts, respectively.
  • input data corresponding to the output procedure information may be input to each learning model 522.
  • the input data input to the learning model 522 that outputs the detected value as the procedure information may be only the endoscopic image and the detected value, and the endoscopic image, the detected value, and the operation data are all input. May be good.
  • the procedure information that is input and output is not limited.
  • the procedure by operating the endoscope 1 includes, for example, inspection / observation of the digestive tract of the subject by the endoscope 1, a procedure by a treatment tool, and the like.
  • the procedure information may include these procedure content data.
  • the learning model 522 using the procedure content data as an input element is a next-stage procedure when the input procedure information includes the procedure content data indicating the insertion of an injection needle as a treatment tool.
  • the procedure information may include operation data of air supply / water supply to the endoscope 1, parameters for performing image processing on the endoscope image used by the endoscope processor 2, and the like.
  • the procedure information may include lesion data such as the presence / absence and contents of lesions according to the endoscopic image.
  • the procedure information output from the learning model 522 may include lesion data determined from the endoscopic image which is the input data.
  • the learning model 522 may include lesion data in the input procedure information and output procedure information such as procedure content and light intensity information associated with the lesion data.
  • the learning model 522 may generate an image of the next stage procedure information by using an algorithm such as U-Net.
  • FIG. 5 is an explanatory diagram illustrating different configurations of the learning model 522.
  • the learning model 522 includes an encoder unit and a decoder unit.
  • the encoder unit encodes the input data and extracts the feature amount, and the decoder unit decodes the extracted feature amount to generate an image.
  • the input data input to the input layer of the learning model 522 is the detection value which is the endoscopic image taken by the endoscope 1 and the state data of both hands and arms of the endoscope operator at a predetermined stage. ..
  • the output data output from the output layer of the learning model 522 is an image showing the states of both hands and arms of the next stage, which is generated based on the state data of both hands and arms of the next stage of the predetermined stage.
  • the image may be a 3D image based on three-dimensional position coordinates.
  • the learning model 522 is not limited to the above example, and when time-series data is acquired, for example, a recurrent neural network (RNN: Recurrent Neural Network) may be used.
  • the learning model 522 may use the RNN of Seq2Seq to predict a plurality of next-stage procedure information. Further, the learning model 522 may be a model trained by a neural network other than CNN or another algorithm.
  • the learning model generation system 110 configured as described above executes the machine learning process for generating the learning model.
  • FIG. 6 is a flowchart showing an example of a processing procedure executed by the information processing apparatus 5.
  • the control unit 51 of the information processing device 5 acquires an endoscope image and procedure information at each operation stage of the endoscope 1 of the endoscope operator (step S11).
  • the procedure information includes state data of both hands and arms of the endoscope operator at each operation stage, operation data of the insertion amount of the endoscope 1, bending direction, and light amount.
  • the control unit 51 acquires operation data such as an endoscope image, an insertion amount of the endoscope 1, a bending direction, and a light amount from the endoscope processor 2. Further, the control unit 51 acquires a detected value from the detection device 4.
  • the control unit 51 adds the endoscopic image and the procedure information in each of the acquired operation stages (for example, the stage at time tn) to the procedure in the next stage (for example, the stage at time tn + 1) of each operation stage recorded in the history DB 521.
  • Generate teacher data labeled with information step S12).
  • the history DB 521 records a large amount of information at each operation stage of the endoscopy performed by a skilled endoscope operator in the past.
  • the control unit 51 uses these large amounts of data to generate teacher data in which the endoscopic image and the procedure information in each of the acquired operation stages are associated with the procedure information in the next stage.
  • the control unit 51 uses the generated teacher data to generate a learning model 522 that outputs the procedure information in the next stage when the endoscopic image and the procedure information are input (step S13). Specifically, the control unit 51 inputs the endoscopic image and the procedure information at a predetermined stage to the input layer of the neural network. The control unit 21 acquires the predicted value of the procedure information in the next stage from the output layer. The control unit 51 compares the predicted value of the procedure information with the procedure information which is the correct answer value, and optimizes the model parameters used for the arithmetic processing in the intermediate layer so that the predicted value output from the output layer approaches the correct answer value. To do.
  • the learning model 522 can output the procedure information in the next stage when the endoscopic image data and the procedure information are input. is there.
  • the control unit 51 stores the generated learning model 522 in the storage unit 52, and ends a series of processes.
  • control unit 51 of the information processing apparatus 5 executes a series of processes
  • the above processing may be partially or wholly executed by the control unit 21 of the endoscope processor 2. That is, the endoscope processor 2 may substantially include the information processing device 5. Further, the learning model 522 may be generated by the information processing device 5 and trained by the endoscope processor 2.
  • the control unit 51 of the information processing device 5 and the control unit 21 of the endoscope processor 2 may cooperate with each other by performing interprocess communication, for example, to perform a series of processes.
  • the endoscopic image and the procedure information at the implementation stage are used by using the teacher data including the operation data of the endoscope operator who is skilled in the operation procedure of the endoscope 1.
  • a learning model 522 that outputs the next-stage procedure information according to the above is generated.
  • the learning model 522 makes it possible to output highly accurate procedure information according to each operation stage.
  • the learning model generation system 120 further includes a photographing device 6 for photographing the inside of the endoscope room in which the procedure of the endoscope 1 is performed, and the learning model 522 using the indoor image photographed by the photographing device 6 is provided. Will be generated.
  • FIG. 7 is a schematic diagram of the learning model generation system 120 according to the second embodiment.
  • the second embodiment will be described as different from the first embodiment. Since the configurations other than the configurations described later are the same as those in the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.
  • the photographing device 6 is a photographing device having a photographing function such as a camera, which is installed in the endoscope room including the endoscope operator who operates the endoscope 1 and the subject by the endoscope 1.
  • the photographing device 6 is communication-connected to the information processing device 5 via the network N by wire or wirelessly.
  • the photographing device 6 transmits the photographed indoor image to the information processing device 5.
  • the indoor image captured by the imaging device 6 includes the endoscope operator in the endoscope room, the subject, an assistant such as a nurse who assists the endoscope operator, and a treatment tool in the endoscope room. Images showing various states in the endoscope room, such as a mounting table, are included.
  • FIG. 8 is an explanatory diagram illustrating the configuration of the learning model 522 of the second embodiment.
  • the learning model 522 is trained to output the next-stage procedure information when the endoscopic image, the procedure information, and the indoor image are input.
  • the input data input to the input layer of the learning model 522 is an endoscope image, a procedure information, and an indoor image taken by the endoscope 1 at a predetermined stage.
  • the procedure information may include at least one of operation data such as a detection value of the detection device 4, an insertion amount of the endoscope 1, a bending direction, and a light amount.
  • the indoor image data includes information such as relative position information of the endoscope operator and the subject, the orientation of the subject's body, and the state of preparation of the treatment tool. In this case, the image data of the endoscopic image and the indoor image may be input to the input layer via a convolution layer and a convolution layer (not shown).
  • the output data output from the output layer of the learning model 522 is the next-stage procedure information for the procedure being performed at the predetermined stage.
  • the procedure information includes state data of both hands and arms of the endoscope operator.
  • the procedure information includes information on the next stage treatment tool (for example, snare preparation, electric knife preparation, etc.), and information on the positional relationship between the endoscope operator and the subject in the next stage (for example, one step before the right foot and one step left on both feet). Etc.) etc. may be included.
  • the information processing device 5 generates teacher data in which the endoscopic image, the procedure information, and the room image in each operation stage are labeled with the procedure information in the next stage of each operation stage, and uses the generated teacher data to internally.
  • a learning model 522 that outputs the procedure information in the next stage when the spectroscopic image, the procedure information, and the indoor image are input is generated.
  • the learning model 522 can output the procedure information more according to the implementation content by using the indoor image acquired by the photographing device 6. Since the procedure information is output according to the indoor situation, it is possible to support not only the endoscope operator but also other assistants.
  • the learning model generation system 130 further includes a line-of-sight detection device 7 that detects the line-of-sight data of the endoscope operator, and a learning model 522 using the line-of-sight data detected by the line-of-sight detection device 7 is generated.
  • FIG. 9 is a schematic diagram of the learning model generation system 130 according to the third embodiment.
  • the third embodiment will be described as different from the first embodiment. Since the configurations other than the configurations described later are the same as those in the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.
  • the line-of-sight detection device 7 is a detection device having a line-of-sight detection sensor such as an image sensor.
  • the line-of-sight detection device 7 may be in the form of a wearable device such as an eyeglass type.
  • the line-of-sight detection device 7 detects the movement of the line of sight of the endoscope operator.
  • the line-of-sight detection device 7 is connected to the information processing device 5 via a network N by wire or wirelessly.
  • the line-of-sight detection device 7 transmits the detected line-of-sight data to the information processing device 5.
  • FIG. 10 is an explanatory diagram illustrating the configuration of the learning model 522 of the third embodiment.
  • the input data input to the input layer of the learning model 522 is the endoscope image taken by the endoscope 1 and the procedure information and the line-of-sight data acquired from the line-of-sight detection device 7 at a predetermined stage.
  • the procedure information may include at least one of operation data such as a detection value of the detection device 4, an insertion amount of the endoscope 1, a bending direction, and a light amount.
  • the learning model 522 includes, for example, a plurality of output layers that output procedure information and line-of-sight data, respectively.
  • the output data output from each output layer is the next-stage procedure information and line-of-sight data for the procedure being performed in each predetermined stage.
  • the information processing device 5 generates teacher data in which the procedure information and the line-of-sight data in the next stage of each operation stage are labeled with the endoscopic image, the procedure information, and the line-of-sight data in each operation stage, and uses the generated teacher data. Then, when the endoscopic image, the procedure information, and the line-of-sight data are input, a learning model 522 that outputs the procedure information and the line-of-sight data in the next stage is generated.
  • the learning model 522 can output as information that is easy to recognize by acquiring subtle movements such as line-of-sight data as data.
  • FIG. 11 is a block diagram showing a configuration example of the learning model generation system 140 of the fourth embodiment.
  • the fourth embodiment will be described as different from the first embodiment. Since the configurations other than the configurations described later are the same as those in the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.
  • a plurality of learning models 522 are stored in the storage unit 52.
  • the endoscope operator of the endoscope 1 is assumed to be an endoscope operator of various skill levels, from an endoscope operator who is inexperienced in the operation of the endoscope 1 to a skilled endoscope operator. To. In such a case, it is preferable to provide different procedure information according to the procedure level of the endoscope operator.
  • the learning model generation system 140 generates a plurality of learning models 522 according to the procedure level, and outputs the procedure information according to the procedure level of the endoscope operator.
  • the learning model 522 is generated for each different technique level, for example, beginner, intermediate, advanced, expert, etc., and each learning model 522 outputs only information according to the technique level. Is configured to be.
  • the learning model 522 for beginners outputs operation data including all state data, insertion amount, bending direction, and light amount
  • the learning model 522 for experts only outputs operation data including light amount as procedure information. It is output.
  • each learning model 522 may use only the information corresponding to the output data as an input element. That is, in the learning model 522 for experts that outputs the amount of light as the procedure information, the procedure information included in the input element may be only the amount of light, and other operation data and state data are not included in the input element.
  • the learning model generation system 140 outputs output data according to the procedure level by one learning model 522 by learning including the procedure level of the endoscope operator as an input element of the learning model 522. There may be.
  • the plurality of types of learning models 522 may be prepared based on elements other than the technique level.
  • the information processing device 5 may generate a plurality of types of learning models 522 according to the biological attribute information of the endoscope operator.
  • Each endoscope operator of endoscope 1 has various biological attribute information such as height, weight, gender, hand size, grip strength, dominant hand, visual acuity, and color vision characteristics.
  • the bending operation of the endoscope differs depending on the height of the endoscope operator, the size of the hand, and the like.
  • the appropriate amount of light and image quality setting differ depending on the visual acuity, color vision characteristics, and the like.
  • a plurality of types of learning models 522 are generated for each physique classification of different endoscope operators according to the physiques classified based on, for example, height, weight, gender, etc. of biological attribute information.
  • the learning model 522 corresponding to each physique category classified into “large”, “medium”, and “small” is configured to output procedure information according to the physiques of "large”, “medium”, and “small”, respectively.
  • the learning model generation system 140 includes the biological attribute information of the endoscope operator as an input element of the learning model 522, and outputs output data according to the biological attribute information by one learning model 522. It may be a thing.
  • the learning model 522 can output appropriate procedure information to each operator according to the procedure level of the endoscope operator, biological attribute information, and the like.
  • FIG. 12 is a block diagram showing a configuration example of the procedure support system 210 of the fifth embodiment.
  • the differences between the fifth embodiment and the first embodiment will be described. Since the other configurations other than the configurations described later are the same as those of the learning model generation system 110 of the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.
  • the procedure support system 210 of the fifth embodiment includes an endoscope 1, an endoscope processor 2, and a detection device 4.
  • a display device 3 is connected to the endoscope processor 2.
  • the endoscope processor 2 is connected to the detection device 4 by wire or wirelessly via a network N so as to be able to communicate with each other.
  • the endoscope processor 2 of the fifth embodiment stores the program 2P and the learning model 522 in the storage unit 22, and also stores other programs and data referred to by the control unit 21.
  • the program 2P stored in the storage unit 22 may store the program 2P read from the recording medium 2A that can be read by the endoscope processor 2. Further, the program 2P may be downloaded from an external computer (not shown) connected to a communication network (not shown) and stored in the storage unit 22.
  • the control unit 21 acquires the endoscope image and the procedure information of the endoscope operator by reading and executing the program 2P stored in the storage unit 22, and the acquired endoscope image and the endoscope. It functions as an endoscope processor 2 peculiar to the present disclosure, which outputs the next-stage procedure information according to the procedure information of the operator.
  • FIG. 13 is a flowchart showing an example of a processing procedure executed by the endoscope processor 2. For example, when the operation procedure of the endoscope 1 by the endoscope operator is started and the imaging of the endoscope 1 is started, the following processing is executed by the control unit 21 of the endoscope processor 2.
  • the control unit 21 acquires an image captured from the endoscope 1 and acquires an endoscope image obtained by subjecting the acquired image to a predetermined image process (step S21). Then, the control unit 21 acquires the procedure information (step S22).
  • the procedure information includes at least one of state data of both hands and arms of the endoscope operator and operation data such as insertion amount, bending direction and light amount of the endoscope 1.
  • the control unit 21 acquires the detection value detected by the detection device 4.
  • the control unit 21 calculates the coordinate values for each part of the endoscope operator from the 3D data group acquired from the detection device 4. Further, the control unit 21 acquires operation data such as the insertion amount, the bending direction, and the light amount of the endoscope 1.
  • the control unit 21 temporarily stores the acquired endoscopic image and procedure information in the storage unit 22.
  • the control unit 21 inputs the stored endoscopic image and procedure information into the learning model 522 (step S23).
  • the learning model 522 is the learning model 522 described in the first embodiment, and outputs the next-stage procedure information when the endoscopic image and the procedure information are input. Specifically, in the learning model 522, when the endoscopic image and the state data of both hands and arms of the endoscope operator are input, the state data of both hands and arms of the next stage, or the state thereof. Output the image generated based on the data.
  • the learning model 522 may output the operation data of the next stage when the operation data such as the endoscope image and the insertion amount, the bending direction and the light amount of the endoscope 1 are input.
  • the endoscope image input to the learning model 522 may be the captured image itself captured by the imaging element provided in the endoscope 1 and transmitted to the endoscope processor 2, or the captured image.
  • the endoscopic image may be an endoscopic image that has undergone predetermined image processing inside the endoscope processor 2.
  • the procedure information input to the learning model 522 includes at least one of the state data of both hands and arms of the endoscope operator and the operation data such as the insertion amount, bending direction and light amount of the endoscope 1. It has been.
  • the control unit 21 acquires the next-stage procedure information output from the learning model 522 (step S24).
  • the procedure information output from the learning model 522 includes at least state data of both hands and arms of the endoscope operator in the next stage and operation data such as the insertion amount, bending direction, and light amount of the endoscope 1. One is included.
  • the procedure information output from the learning model 522 may be an image based on the state data of both hands and arms of the endoscope operator.
  • the control unit 21 generates screen information for displaying the acquired procedure information in association with the endoscopic image.
  • the control unit 21 displays screen information including the generated procedure information via the display device 3 (step S25), and ends a series of processes.
  • the control unit 21 may perform a loop process to execute the process of step S21 again after executing the process of step S25.
  • a part of the processing executed by the endoscope processor 2 is performed by the information processing device 5 of the first embodiment or another external server which is communication-connected with the endoscope processor 2. May be good.
  • FIG. 14 is a diagram showing an example of a screen displayed on the display device 3.
  • the endoscopic image and the procedure information of the next stage are displayed on the screen.
  • the control unit 21 of the endoscope processor 2 refers to a table (not shown) that stores the display contents of the procedure information, and generates image information for displaying the procedure information of the next stage. ..
  • the control unit 21 displays the endoscopic image of the predetermined stage and the image information for displaying the generated next-stage procedure information in association with each other on the display device 3.
  • the next-stage procedure information for example, information on operations such as the insertion amount and bending direction of the endoscope 1 and information on the entire procedure such as air supply and water supply are displayed in parallel.
  • the amount of change in the insertion amount may be displayed as "+1 (insert 1 cm)", “-1 (remove 1 cm)", “0 (maintain the status quo)", or the like.
  • a screen including the image may be displayed.
  • the procedure information of a plurality of stages including the stages one after another is acquired from the learning model 522, the information of the plurality of stages may be displayed in parallel.
  • the control unit 21 acquires indoor images, line-of-sight data, etc., the control unit 21 may display a screen including these image data, etc.
  • control unit 21 may acquire biological information such as blood pressure and heartbeat of the subject from an external measuring device communicated with the endoscope processor 2 and display it on the screen together with the procedure information.
  • biological information such as blood pressure and heartbeat of the subject
  • the endoscope operator can obtain the information without moving the line of sight to a plurality of monitors, and prevents the information from being overlooked.
  • the control unit 21 may notify the technician of the procedure information by a warning sound, a synthetic voice, a blinking screen, or the like.
  • the output information includes procedure information that requires attention, such as when the amount of operation in the bending direction in the next stage is equal to or greater than a preset threshold value, the procedure is performed by a warning sound, synthetic voice, etc. via a speaker (not shown). It is preferable to notify the person.
  • the procedure information includes setting information for the endoscope processor 2, for example, instead of the output to the display device 3 or in addition to the output to the display device 3, the endoscope processor 2 A change instruction may be output to. For example, changes related to the settings of the endoscope processor 2 such as changing the brightness of the light source 24 and changing the image quality parameters can be automatically performed by the endoscope processor 2 to reduce the burden on the endoscope operator. it can.
  • the learning model 522 is used to provide procedure information according to the procedure content performed by the endoscope operator. Since the next-stage procedure information estimated based on the procedure data of a skilled endoscope operator is provided, it is possible to prevent an erroneous procedure from being performed, and even an endoscope operator who is inexperienced in the procedure can perform the procedure. It is possible to carry out the same procedure as a skilled endoscope operator.
  • the endoscope processor 2 uses the learning model 522 to attach the endoscope 1 to the endoscope 1 based on the information on the procedure at the implementation stage acquired at high speed and with high accuracy by the endoscope image and the detection value of the detection device 4. Outputs the next stage procedure information including the unique and delicate finger movements.
  • the procedure support system 220 is different from the fifth embodiment in that the procedure support system 220 further includes a photographing device 6 for photographing the inside of the endoscope room in which the endoscope 1 is operated.
  • the endoscope processor 2 provides the procedure information using the learning model 522 trained to output the next-stage procedure information when the endoscope image, the procedure information, and the room image are input.
  • FIG. 15 is a flowchart showing an example of a processing procedure executed by the endoscope processor 2 of the sixth embodiment. The same step numbers are assigned to the processes common to FIG. 13 of the fifth embodiment, and detailed description thereof will be omitted.
  • the control unit 21 acquires an endoscopic image (step S21) and acquires procedure information (step S22).
  • the procedure information may include at least one of operation data such as both hands and arms of the operator, insertion amount of the endoscope 1, bending direction, and light amount.
  • the control unit 21 acquires an indoor image from the photographing device 6 (step S31).
  • the control unit 21 temporarily stores the acquired endoscopic image, procedure information, and indoor image in the storage unit 22.
  • the control unit 21 inputs the stored endoscopic image, procedure information, and indoor image into the learning model 522 (step S32).
  • the learning model 522 is the learning model 522 described in the second embodiment, and outputs the next-stage procedure information when the endoscope image, the procedure information, and the indoor image are input.
  • the control unit 21 acquires the next-stage procedure information output from the learning model 522 (step S33).
  • the control unit 21 generates screen information for displaying the acquired procedure information in association with the endoscopic image.
  • the control unit 21 displays screen information including the generated procedure information via the display device 3 (step S25), and ends a series of processes.
  • the screen displayed on the display device 3 includes areas such as an endoscopic image, next-stage operation information, an indoor image, and biological information.
  • the operation information of the next stage includes, for example, state data of both hands and arms of the endoscope operator, motion information based on the positional relationship between the endoscope operator and the subject, information on the treatment tool, and the like.
  • the procedure support system 230 is different from the fifth embodiment in that the line-of-sight detection device 7 for detecting the line-of-sight data of the endoscope operator is further included.
  • the endoscope processor 2 provides the procedure information using the learning model 522 trained to output the next-stage procedure information and line-of-sight data when the endoscope image, procedure information, and line-of-sight data are input. To do.
  • FIG. 16 is a flowchart showing an example of a processing procedure executed by the endoscope processor 2 of the seventh embodiment. The same step numbers are assigned to the processes common to FIG. 13 of the fifth embodiment, and detailed description thereof will be omitted.
  • the control unit 21 acquires an endoscopic image (step S21) and acquires procedure information (step S22).
  • the procedure information may include at least one of operation data such as both hands and arms of the operator, insertion amount of the endoscope 1, bending direction, and light amount.
  • the control unit 21 acquires the line-of-sight data from the line-of-sight detection device 7 (step S41).
  • the control unit 21 temporarily stores the acquired endoscopic image, procedure information, and line-of-sight data in the storage unit 22.
  • the control unit 21 inputs the stored endoscopic image, procedure information, and line-of-sight data into the learning model 522 (step S42).
  • the learning model 522 is the learning model 522 described in the third embodiment, and when the endoscopic image, the procedure information, and the line-of-sight data are input, the next-stage procedure information and the line-of-sight data are output.
  • the control unit 21 acquires the next-stage procedure information and line-of-sight data output from the learning model 522 (step S43).
  • the control unit 21 generates screen information for displaying the acquired procedure information and line-of-sight data in association with the endoscopic image.
  • the control unit 21 displays the screen information including the generated procedure information and line-of-sight data via the display device 3 (step S25), and ends a series of processes.
  • the screen displayed on the display device 3 includes areas such as an endoscopic image, a line-of-sight image, next-stage operation information, and line-of-sight data.
  • the control unit 21 may output line-of-sight data by synthetic voice or the like via a speaker (not shown).
  • the control unit 21 turns on a part of the lens corresponding to the line-of-sight direction in the next stage to turn on the line-of-sight. Data may be output.
  • the eighth embodiment is different from the fifth embodiment in that the endoscope processor 2 of the procedure support system 240 stores a plurality of types of learning models 522 in the storage unit.
  • the endoscope processor 2 provides procedure information using a learning model 522 specified according to the endoscope operator.
  • FIG. 17 is a flowchart showing an example of a processing procedure executed by the endoscope processor 2 of the eighth embodiment.
  • the same step numbers are assigned to the processes common to FIG. 13 of the fifth embodiment, and detailed description thereof will be omitted.
  • the control unit 21 refers to, for example, a database (not shown) that acquires and stores endoscope operator information such as the procedure level and biological attribute information of the endoscope operator of the endoscope 1 in advance for endoscopy.
  • endoscope operator information such as the procedure level and biological attribute information of the endoscope operator of the endoscope 1 in advance for endoscopy.
  • the procedure level is specified (step S51).
  • the procedure level is determined based on, for example, the past operation contents of the endoscope 1 of the endoscope operator and recorded in a database.
  • the endoscope processor 2 may accept selection input of endoscope operator information from the endoscope operator by an input device such as a touch panel or a keyboard.
  • the operation of the endoscope 1 is started, and the control unit 21 acquires an endoscope image (step S21) and acquires procedure information (step S22).
  • the control unit 21 temporarily stores the acquired endoscopic image and procedure information in the storage unit 22.
  • the storage unit 22 of the endoscope processor 2 stores a plurality of learning models 522 according to the procedure level described in the fourth embodiment.
  • the control unit 21 refers to a database or the like recorded in advance by associating the procedure level with the identification information of each learning model 522, and selects the learning model 522 to be used based on the specified procedure level (step S52).
  • the control unit 21 inputs the stored endoscopic image and procedure information into the selected learning model 522 (step S23), and acquires the next-stage procedure information and the like output from the learning model 522 (step S24). From the learning model 522, only the procedure information corresponding to the procedure level of the endoscope operator is output.
  • the control unit 21 may input the specified procedure level as one of the input elements of the learning model 522, and output the procedure information according to the procedure level.
  • the control unit 21 generates screen information for displaying the acquired procedure information in association with the endoscopic image.
  • the control unit 21 displays screen information including the generated procedure information via the display device 3 (step S25), and ends a series of processes.
  • the endoscope processor 2 may use a plurality of types of learning models 522 that differ depending on the biological attribute information.
  • the control unit 21 acquires biological attribute information such as the height and weight of the endoscope operator instead of the procedure level of the endoscope operator, and the physique of the endoscope operator (endoscope operation). Person information) is specified.
  • the control unit 21 refers to a database or the like recorded in advance by associating the physique with the identification information of the learning model 522, and selects the learning model 522 to be used based on the physique of the specified endoscope operator. From the learning model 522, procedure information according to the physique of the endoscope operator is output.
  • Temporary levels may be specified by general-purpose settings based on information. For example, based on the number of years of experience of the endoscope operator, if the number of years of experience of the endoscope operator is less than one year, it is a beginner level, and if the number of years of experience is one year or more and less than five years, it is an intermediate level. The level should be applied universally.
  • the endoscope operator including the biological attribute information that most closely resembles the biological attribute information of the target endoscope operator is derived, and the derived endoscope is used.
  • the procedure level of the mirror operator may be applied as a temporary level.
  • a virtual procedure level may be derived by performing a procedure using a simulation device such as a large intestine model, and the derived virtual procedure level may be applied as a provisional level.
  • the procedure information is provided by using the learning model 522 adjusted to output only the information according to the procedure level or the biological attribute information of the endoscope operator specified by the endoscope processor 2. Is output. Since procedure information suitable for each endoscope operator is provided, even endoscope operators having various procedure levels or biological attributes should be provided with highly useful support information for each. Is possible.
  • FIG. 18 is a block diagram showing a configuration example of the procedure support system 250 of the ninth embodiment.
  • the ninth embodiment and the fifth embodiment will be described. Since the configurations other than the configurations described later are the same as those in the fifth embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.
  • the storage unit 22 of the endoscope processor 2 further stores the evaluation model 523.
  • the evaluation model 523 is an evaluation device that evaluates the procedure level of the endoscope operator, and is a learning model generated by machine learning.
  • FIG. 19 is an explanatory diagram illustrating the configuration of the evaluation model 523.
  • the evaluation model 523 is generated and trained by deep learning using a neural network.
  • the evaluation model 523 extracts an input layer for inputting endoscopic image data and procedure information, an output layer for outputting ability level, and feature quantities of endoscopic image data and procedure information. It has an intermediate layer.
  • the intermediate layer has a plurality of nodes for extracting the features of the endoscopic image data and the procedure information, and passes the image features extracted using various parameters to the output layer.
  • the intermediate layer may include a convolution layer, a pooling layer and the like.
  • the evaluation model 523 has an output layer including channels corresponding to the set procedure levels, and the output layer outputs the accuracy for each procedure level as a score.
  • the input data to the evaluation model 523 is the endoscope image and the procedure information taken by the endoscope 1.
  • the procedure information may include operation data such as a detection value indicating state data of both hands and arms of the endoscope operator, an insertion amount of the endoscope 1, a bending direction, and a light amount.
  • the input data may further include indoor images, line-of-sight data, and the like.
  • the image information may be input to the input layer via a convolution layer and a convolution layer (not shown).
  • the output data from the evaluation model 523 is the procedure level of the operator with respect to the endoscopic image data and the procedure information.
  • the procedure level is divided into, for example, beginner, intermediate, advanced and expert.
  • the model parameters are adjusted using the teacher database recorded by associating the endoscopic image and the procedure information with the procedure level in the endoscopic image and the procedure information.
  • the teacher data is constructed as a data set in which the procedure level is labeled for the endoscopic image and the procedure information. For example, in colonoscopy, the endoscopy operator who has a cecal arrival rate of 95% or more and a cecum arrival time of 5 minutes or less is considered to be an intermediate person or higher. Endoscope operators with a tumor detection rate of 30 percent or more at the time of initial examination are considered experts.
  • an endoscopic operator who performs resection with a single energization within a predetermined time is considered to have a high skill level.
  • the procedure level of the endoscope operator is considered to be high even when the movements of the arms, wrists, fingers, etc. during the procedure are not wasted.
  • the evaluation model 523 executes learning using the teacher data based on these findings.
  • the evaluation model 523 inputs endoscopic image data and procedure information as input data for learning.
  • the evaluation model 523 is learned to output the procedure level when the endoscopic image data and the procedure information are input, using the procedure level for each of the input data for learning as the teacher data. As the training progresses, the trained model parameters are obtained.
  • the evaluation model 523 can output the procedure level when the endoscopic image data and the procedure information are input by applying the trained model parameters to the defined neural network.
  • the evaluation model 523 is not limited to deep learning using a neural network, and may be a model learned by another algorithm, or an evaluation value may be derived by a specific mathematical formula.
  • FIG. 20 is a flowchart showing an example of a processing procedure executed by the endoscope processor 2. For example, when the operation procedure of the endoscope 1 by the endoscope operator is started and the imaging of the endoscope 1 is started, the control unit 21 of the endoscope processor 2 performs in parallel with the estimation processing of the procedure information. The following processing is executed.
  • the control unit 21 acquires an endoscopic image (step S61) and acquires procedure information (step S62).
  • the control unit 21 inputs the acquired endoscopic image and procedure information into the evaluation model 523 (step S63), and acquires the procedure level output from the evaluation model 523 (step S64).
  • the control unit 21 stores the acquired procedure level in association with the endoscope operator in a database or the like that stores the endoscope operator information (step S65), and ends a series of processes.
  • the control unit 21 identifies the learning model 522 to be used using the procedure levels evaluated above. Good. Further, the control unit 21 may output the procedure information according to the procedure level acquired in real time by using the learning model 522 and the evaluation model 523.
  • the control unit 21 executes the procedure level evaluation process and the procedure information estimation process in parallel.
  • the control unit 21 acquires the procedure level output from the evaluation model 523 in real time, and changes the selection of the learning model 522 to be used according to the acquired procedure level at any time.
  • the control unit 21 acquires the procedure information output from the selected learning model 522. In this way, the control unit 21 uses the learning model 522 according to the procedure level of the endoscope operator that changes during the procedure, so that the procedure level of the endoscope operator changes based on the content of the procedure.
  • the output procedure information is changed according to.
  • the learning model 522 and the evaluation model 523 provide the endoscope operator with the procedure information and evaluate the procedure level of the endoscope operator in parallel. Since the output content of the procedure information can be changed according to the procedure level evaluated in real time, it is possible to provide appropriate procedure information according to the implementation content.
  • the endoscope processor 2 uses the learning model 522 to estimate the next-stage procedure information according to the type of the endoscope 1.
  • the information processing device 5 generates a plurality of types of learning models 522 according to the type of the endoscope 1.
  • the endoscope processor 2 acquires a plurality of types of learning models 522 according to the type of the endoscope 1 and stores them in the storage unit 52.
  • Each learning model 522 has different input data and output data in the bending direction, for example, depending on the type of endoscope 1.
  • the operation unit 12 includes a vertical angle knob for bending the tip of the endoscope 1 in the vertical direction and a left and right angle knob for bending in the horizontal direction. Therefore, the bending direction includes operation data for four directions of up, down, left, and right.
  • the operation unit 12 includes only an up-down angle knob, and the bending direction includes two up-down directions. Therefore, when the type of the endoscope 1 is for bronchi or otolaryngology, the learning model 522 uses only the operation data for the upper and lower two directions as the bending direction as the input data, and only the operation data for the upper and lower two directions. Is preferable as the output data.
  • the operation data of the procedure information includes the entire rotation (twist) direction and the amount of rotation of the insertion tube 11 of the endoscope 1. May be good.
  • the control unit 21 of the endoscope processor 2 determines the type of the endoscope 1 from the connector shape of the endoscope 1 connected to the endoscope processor 2, the signal information obtained from the endoscope 1, and the like. Identify.
  • the control unit 21 may acquire the type of the endoscope 1 by, for example, acquiring an identification code of the endoscope 1 through a reading unit (not shown), accepting an input from an endoscope operator, or the like.
  • the control unit 21 refers to a database or the like recorded by associating the type of the endoscope 1 with the identification information of each learning model 522, and selects the learning model 522 to be used based on the specified type of the endoscope 1.
  • the control unit 21 inputs the endoscopic image and the procedure information into the selected learning model 522, and acquires the next-stage procedure information and the like output from the learning model 522.
  • the learning model 522 may include the type of endoscope 1 as an input element and output output data according to the type of endoscope 1.
  • the control unit 21 inputs the specified type of endoscope 1, the endoscope image, and the procedure information into the learning model 522, and acquires the next-stage procedure information and the like output from the learning model 522.
  • the endoscope processor 2 stores only one learning model 522 according to the type of the endoscope 1 to be connected in the storage unit 52 according to the type of the endoscope 1 to be connected to be determined in advance. It may be.
  • FIG. 21 is a diagram showing a screen example according to the eleventh embodiment.
  • the screen displayed on the display device 3 based on the image information includes an endoscopic image and a navigation image showing the procedure information of the next stage using a three-dimensional image.
  • an object showing the operation direction of the endoscope 1 (procedure information of the next stage) is superimposed and displayed on a three-dimensional image that virtually shows a luminal organ such as a bronchus of a subject. It is an image.
  • the three-dimensional image may include an overall image showing the entire lumen organ and a lumen image showing the lumen (observation site) of the lumen organ according to the position and viewpoint direction of the endoscope 1.
  • the lumen image corresponds to a virtual 3D endoscopic image.
  • the control unit 21 acquires a three-dimensional image of the luminal organ of the subject previously generated based on the tomographic image data by an ultrasonic diagnostic apparatus, an X-ray CT apparatus, or the like, and stores it in the storage unit 22.
  • the control unit 21 estimates the position of the tip of the endoscope 1 and the viewpoint direction at the time when the endoscope image is taken, based on the detection value of the physical detection device provided in the intubation tube 11.
  • the control unit 21 specifies a three-dimensional image according to the estimated position and viewpoint direction.
  • the control unit 21 generates a navigation image in which an object indicating the next stage procedure information is superimposed and displayed on the specified three-dimensional image.
  • a part of the procedure information such as information on the treatment tool may be displayed at a position away from the three-dimensional image by text data or the like.
  • the control unit 21 generates screen information in which the endoscope image is associated with the navigation image including the procedure information of the next stage, and outputs the generated screen information to the display device 3.
  • the endoscope processor 2 may change the screen information according to the skill level of the endoscope operator. For example, when the procedure level of the endoscope operator is specified as a beginner, the control unit 21 generates screen information including the above-mentioned navigation image. When the procedure level is specified as an expert, the control unit 21 may generate screen information that does not include a navigation image. When the procedure level is specified as an expert, the control unit 21 may display screen information including a navigation image when a predetermined condition is not satisfied. Not satisfying the predetermined conditions means, for example, that the operation direction (insertion direction) at the branch point is incorrect, the next-stage procedure information output from the learning model 522, and the actual operation data of the endoscope 1 in the next stage. May include things such as disagreement with.
  • FIG. 22 is a flowchart showing an example of a processing procedure executed by the endoscope processor 2 of the eleventh embodiment. The same step numbers are assigned to the processes common to FIG. 13 of the fifth embodiment, and detailed description thereof will be omitted.
  • the control unit 21 of the endoscope processor 2 refers to, for example, a database (not shown) that stores the endoscope operator information and acquires the procedure level of the endoscope operator, thereby performing the procedure level ( (Endoscope operator information) is specified (step S71).
  • the control unit 21 executes the processes of steps S21 to S24 shown in FIG. 13 and acquires the procedure information of the next stage by the learning model 522.
  • the control unit 21 determines whether or not a predetermined condition is satisfied (step S72). For example, the control unit 21 determines whether or not the operation of the endoscope 1 is correct. When it is determined that the operation is correct, that is, the condition is satisfied (S72: NO), the control unit 21 generates screen information for displaying the endoscopic image (step S73). The control unit 21 displays the screen information for displaying the generated endoscopic image via the display device 3 (step S74), and ends the process.
  • the control unit 21 estimates and estimates the position of the tip of the endoscope 1 and the viewpoint direction at the time of capturing the endoscope image.
  • a three-dimensional image corresponding to the position and the viewpoint direction is acquired (step S75).
  • the control unit 21 generates screen information for displaying the endoscopic image in association with the navigation image displayed by superimposing the procedure information of the next stage on the acquired three-dimensional image (step S76).
  • the control unit 21 displays the generated screen information via the display device 3 (step S77), and ends a series of processes.
  • the procedure information is displayed on the three-dimensional image, the procedure information can be easily recognized.
  • the procedure information according to the procedure level of the endoscope operator and the actual procedure is displayed, it is possible to more preferably support the procedure of the endoscope operator.
  • the endoscope processor 2 uses the learning model 522 to estimate the next-stage procedure information according to the type of the endoscope processor 2.
  • the information processing device 5 generates a plurality of types of learning models 522 according to the types of the endoscope processor 2.
  • the endoscope processor 2 acquires a learning model 522 corresponding to the type of the endoscope processor 2 corresponding to its own device, and stores it in the storage unit 52.
  • the learning model 522 when the endoscopic image and the procedure information including the light amount (light amount ratio) in the endoscope processor 2 and the parameters related to the image processing are input, the light amount (light amount ratio) in the next stage. And output procedure information including parameters related to image processing.
  • the endoscope processor 2 is, for example, a white light image by white light for normal light observation by combining a semiconductor light source that emits blue light contained in the light source 24 and a phosphor that emits yellow fluorescence. To generate.
  • the endoscope processor 2 also generates a special light image by illumination light for observing special light by combining a semiconductor light source that emits blue light and a semiconductor light source that emits purple light.
  • Special light observation is a technique for emphasizing and displaying, for example, blood vessels traveling in a deep part of a mucous membrane by using a narrow band illumination light.
  • the control unit 21 of the endoscope processor 2 controls the amount of light or the amount of light ratio of the light from the semiconductor light source or the phosphor and the parameters related to image processing to obtain an image that is easy for the endoscope operator to observe. Generate. Even when the same endoscope 1 is used, the spectrum distribution of the light emitted by the light source 24 differs depending on the type of endoscope processor 2 used, so that the endoscope displayed on the display device 3 is displayed. The color tone of the image is different. Therefore, by changing the light amount (light amount ratio) and the parameters related to the image processing according to the type of the endoscope processor 2, the visibility of the endoscope operator with respect to the generated endoscopic image is improved. , It can support the improvement of procedure accuracy.
  • the amount of light output from the learning model 522 is, for example, the amount of light related to white light for normal light observation when it is inserted from the start of the examination to a predetermined part such as the cecum, and the illumination for special light observation when it is removed from the predetermined part. It may be the amount of light related to light.
  • the learning model 522 may include information on the type of the endoscope processor 2 in an input element and output output data according to the type of the endoscope processor 2. That is, the learning model 522 includes the procedure information including the parameters related to the light amount and the image processing, the endoscopic image, and the parameters related to the light amount and the image processing in the next stage when the type of the endoscope processor 2 is input. It may output the procedure information.
  • the learning model 522 may also output procedure information including different light amounts and image processing parameters depending on the procedure level. For example, when the procedure level of the endoscope operator is expert, the learning model 522 outputs the procedure information including the amount of light and image processing parameters suitable for generating a white light image by white light for normal light observation. When the procedure level is a beginner, the learning model 522 outputs procedure information including a light amount and image processing parameters suitable for generating a special light image that highlights blood vessels and the like by illumination light for observing special light. When the procedure level is a beginner, it is preferable that the control unit 21 automatically controls the light source 24 and performs image processing based on the output light amount and image processing parameters. The learning model 522 can output the procedure information suitable for each procedure level by learning using the procedure information corresponding to the procedure level as the teacher data.
  • the learning model 522 may output procedure information including a light amount and image processing parameters suitable for generating an image close to an endoscopic image by a xenon lamp according to the procedure level.
  • the control unit 21 may store in the storage unit 22 a database (not shown) that stores the correspondence information between the output data of the learning model 522 and the light amount and the image processing parameter.
  • the control unit 21 may generate an image suitable for the endoscope operator by executing a conversion process based on the amount of light and image processing parameters read from the database.
  • the endoscopic image input to the learning model 522 and the endoscopic image displayed on the display device 3 may be different.
  • the control unit 21 executes processing based on the light intensity and image processing parameters of the next stage output from the learning model 522, and generates an endoscope image for display that is easy for the endoscope operator to see. ..
  • the control unit 21 executes processing based on an image processing parameter different from the light amount and the image processing parameter of the next stage output from the learning model 522, and is an input endoscope suitable for feature amount extraction by the learning model 522. Generate an image.
  • the control unit 21 displays the generated display endoscope image on the display device 3, inputs the input endoscope image to the learning model 522, and outputs the procedure information of the next stage.
  • the input endoscopic image may be an image in which processing based on the light intensity and image processing parameters of the next stage has not been executed. That is, the input endoscope image is not limited to the one to which new image processing is performed, and may be the image data itself captured from the image pickup element of the endoscope 1.
  • the procedure information corresponding to the endoscope processor 2 is output, the convenience of the endoscope operator can be improved and the procedure can be suitably supported.
  • FIG. 23 is a flowchart showing an example of a processing procedure executed by the endoscope processor 2 of the thirteenth embodiment. The same step numbers are assigned to the processes common to FIG. 13 of the fifth embodiment, and detailed description thereof will be omitted.
  • the control unit 21 of the endoscope processor 2 acquires an indoor image from the photographing device 6 (step S81).
  • the photographing device 6 may be provided with an audio input device such as a microphone, and may generate an image data and a moving image (indoor image) with audio in which the time axis of the audio data is aligned.
  • the control unit 21 executes the processes of steps S21 to S24 shown in FIG. 13 and acquires the procedure information of the next stage by the learning model 522.
  • the control unit 21 analyzes the audio data of the indoor image (step S82).
  • the control unit 21 identifies the corresponding procedure information based on the analysis result (step S83). Specifically, the control unit 21 identifies the output data that matches the analysis result by comparing the analysis result of the voice data with the output data (procedure information) of the learning model 522. For example, when the audio data contains the content instructing the preparation of a predetermined treatment tool and the output data of the learning model 522 contains the same treatment tool, the next stage treatment tool is already ready. Therefore, it is not necessary to display the procedure information regarding the treatment tool.
  • the control unit 21 is not limited to the one that acquires the analysis result by the analysis processing of the voice data, and may acquire the analysis result by the image analysis of the indoor image.
  • the control unit 21 generates output data other than the output data that matches the specified analysis result, that is, screen information for displaying the unsupported procedure information and the endoscopic image in association with each other.
  • the control unit 21 displays the generated screen information via the display device 3 (step S84), and ends a series of processes.
  • the control unit 21 changes the treatment tool such as " ⁇ is better". You may output screen information or synthetic voice that prompts you.
  • the name of the treatment tool is included in the voice data and the treatment tool in the voice data is different from the treatment tool output from the learning model 522, it is presumed that the instruction is incorrect. In this case, it is preferable to emphasize and present a new treatment tool to prevent omission of confirmation by the endoscope operator or assistant.
  • the endoscope 1 includes a time-of-flight (TOF) sensor, and the value detected by the TOF sensor is included in the procedure information.
  • the insertion tube 11 of the endoscope 1 is provided with a TOF sensor at its tip capable of detecting the distance to the object.
  • the light source 24 of the endoscope processor 2 includes a light source that emits infrared light to be detected by the TOF sensor.
  • the TOF sensor detects the time until the infrared light emitted from the light source 24 is reflected by the object and received. By using the TOF sensor, it is possible to acquire data on the distance from the tip of the insertion tube 11 to the object (internal part) and the shape of the object.
  • the TOF sensor outputs the detection result to the endoscope processor 2.
  • the learning model 522 of the 14th embodiment outputs the procedure information of the next stage when the procedure information including the detection value by the TOF sensor and the endoscopic image are input.
  • the input detection value may be the detection value itself by the TOF sensor, or may be data indicating the distance or shape of the object (lesion portion which is the observation site) obtained based on the detection value.
  • the learning model 522 can output more accurate operation data of the tip of the endoscope 1 based on the procedure information including the value detected by the TOF sensor.
  • Procedure support system 1 Endoscope 2 Endoscope processor 21 Control unit 22 Storage unit 2P program 3 Display device 4 Detection device 5 Information processing device 51 Control unit 52 Storage unit 5P program 522 Learning model 523 Evaluation model 6 Imaging device 7 Line-of-sight detector

Abstract

学習モデルの生成方法は、内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルを生成する。

Description

学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
 本技術は、学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサに関する。
 医療施設では、担当者の経験やスキルの違いから、手技内容に相違が出ないようにするため、担当者の能力に応じたサポートが行われている。担当者の能力に応じたサポートを実施するためには、担当者の手技内容、手技能力等を適切に把握し、これらの情報に基づいて、サポート内容を提示することが重要である。手技能力の決定方法として、特許文献1では、運動感知カメラから受け取ったユーザの運動のセンサデータを解析して手技が行われている間にユーザの能力データを取得し、取得した能力データを能力モデルと比較することによって能力計量を決定する方法が開示されている。
特表2015-519596号公報
 しかしながら、特許文献1に開示の方法においては、内視鏡の手技における十分なデータを取得できないという問題があり、内視鏡の手技を支援するための適切な支援情報が提示されないことが懸念される。
 本開示の目的は、内視鏡の手技における手技情報に基づいて、手技を支援する適切な情報を出力する学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサを提供することにある。
 本開示の一態様における学習モデルの生成方法は、内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルを生成する。
 本開示によれば、内視鏡の手技における手技情報に基づいて、手技を支援する適切な情報を出力することができる。
実施形態1における学習モデル生成システムの概要図である。 学習モデル生成システムの構成例を示すブロック図である。 履歴DBに記憶される情報の内容例を示す図である。 学習モデルの構成を説明する説明図である。 学習モデルの異なる構成を説明する説明図である。 情報処理装置で実行される処理手順の一例を示すフローチャートである。 実施形態2における学習モデル生成システムの概要図である。 実施形態2の学習モデルの構成を説明する説明図である。 実施形態3における学習モデル生成システムの概要図である。 実施形態3の学習モデルの構成を説明する説明図である。 実施形態4の学習モデル生成システムの構成例を示すブロック図である。 実施形態5の手技支援システムの構成例を示すブロック図である。 内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 表示装置で表示される画面例を示す図である。 実施形態6の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態7の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態8の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態9の手技支援システムの構成例を示すブロック図である。 評価モデルの構成を説明する説明図である。 内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態11における画面例を示す図である。 実施形態11の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態13の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。
 本発明をその実施の形態を示す図面を参照して具体的に説明する。
(実施形態1)
 図1は、実施形態1における学習モデル生成システム110の概要図である。学習モデル生成システム110は、内視鏡1、内視鏡用プロセッサ2、検出装置4及び情報処理装置5を含む。内視鏡用プロセッサ2には、表示装置3が接続されている。内視鏡1、内視鏡用プロセッサ2及び表示装置3は、コネクタを介して接続されており、電気信号、映像信号等の送受信を行う。内視鏡用プロセッサ2及び検出装置4は夫々情報処理装置5と、例えばLAN(Local Area Network)等のネットワークNを介して通信可能に接続されている。
 内視鏡1は、例えば上部消化管用の内視鏡または大腸内視鏡である。内視鏡1は、挿入管11と、該挿入管11に操作部12及びユニバーサルコード13を介して連結されたコネクタ部14とを備え、コネクタ部14により内視鏡用プロセッサ2に接続して使用される。
 挿入管11は長尺であり、被検者の消化管等の管腔臓器に挿入される部分である。挿入管11の先端には、観察窓を介して被写体からの反射光を受光して光電変換する撮像素子が配置される。撮像素子は、CCD(Charge Coupled Device)イメージセンサ、CMD(Charge Modulation Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等が備えられている。光電変換により生成された電気信号は、図示しない信号処理回路によりA/D変換、ノイズ除去などの信号処理が施され、内視鏡用プロセッサ2に出力される。挿入管11の先端には、後述のチャンネル入口と連結したチャンネル出口、洗浄水や空気を噴出、吸引するノズル等が設けられている。挿入管11には、3軸加速度センサ、ジャイロセンサ、地磁気センサ又は磁気コイルセンサ等の物理検出装置が実装され、内視鏡1が被検者の体内に挿入された際、これら物理検出装置からの検出結果を取得するものであってもよい。
 操作部12は、内視鏡操作者により把持されて各種の手技を行うために設けてあり、レリーズボタン、内視鏡の先端を曲げるためのアングルノブ等を備えている。操作部12は、例えば送気、送水、送ガス等の周辺機器の操作指示信号の入力を受け付ける。さらに操作部12は、チャンネル入口を備えている。チャンネル入口には、処置具等を挿入する挿入口を有する鉗子栓が固定されている。挿入口から挿入される処置具は、例えば、鉗子、把持具、注射針、生検針、スネア、クランプ、ハサミ、メス、切開器具、内視鏡ステープラ、組織ループ、クリップアプライヤ、縫合糸送達器具等である。
 ユニバーサルコード13は長尺であり、第一端が操作部12に、第二端がコネクタ部14にそれぞれ接続されている。ユニバーサルコード13には、挿入管11及び操作部12から延設されるファイバーバンドル、ケーブル束、送気チューブおよび送水チューブ等が挿通されている。ファイバーバンドル等の一端は、コネクタ部14の通信用コネクタ(図示せず)に配設され、内視鏡用プロセッサ2に接続される。
 内視鏡用プロセッサ2は、内視鏡1の撮像素子から取り込まれた画像に対してガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行なってユーザが目視しやすい状態にした内視鏡画像を生成して、表示装置3に出力する情報処理装置である。
 表示装置3は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等である。表示装置3は、内視鏡用プロセッサ2から出力された画像等を表示する。
 検出装置4は、内視鏡1の内視鏡操作者の動作の3Dデータを検出する検出装置であり、例えば3Dレーザセンサである。検出装置4は、有線又は無線により情報処理装置5と接続されている。検出装置4は、検出した検出値を情報処理装置5へ送信する。3Dレーザセンサは、例えば、TOF(Time Of Flight)方式により、対象物までの距離及び方向を所定の解像度で検出し、対象物上の各点の3次元位置座標を示す3Dデータを出力する。3Dレーザセンサは、水平方向及び垂直方向の検出範囲を示す画角、及び検出範囲の中心と3Dレーザセンサとを結ぶ中心線の向きが変更可能に構成されている。検出装置4は、例えば検出対象物の位置に基づいて画角及び向きを調整することにより、検出対象物の位置が変化した場合であっても高い解析度を維持することができる。検出装置4は、例えば内視鏡操作者の内視鏡1を操作する両手及び両腕の移動範囲を画角とするよう設定される。検出装置4は、内視鏡操作者の全身を含む範囲を画角とするよう設定されてもよい。
 検出装置4から情報処理装置5へ送信される検出値は、各時刻において検出装置4で検出される対象物上の点群に含まれる各点の3D座標値をセンサ座標系で表した3Dデータ群である。情報処理装置5は、取得した3Dデータ群から、内視鏡操作者の各部位についての座標値を算出する。3Dデータ群から人体の各部位の座標値を算出する方法は、例えば、特開2018-169720号公開公報に記載されている方法を用いてよい。
 内視鏡操作者の各部位とは、検出対象物の姿勢を特定するための特徴点となる関節などの人体の部位である。例えば、各部位は、右手、右手首、右肘、右肩、左手、左手首、左肘、左肩等である。各部位には、頭、肩の中心、背骨、右膝、右足首、右足、左膝、左足首、左足等が含まれてもよい。各部位の座標値としては、例えば各部位の軸方向を示すベクトル及び回転を表すクォータニオンを用いることができる。検出装置4を用いて、内視鏡操作者の各部位における3次元位置座標を検出することで、内視鏡操作者の手指の動作、手首の捻り等の内視鏡操作に関する詳細な動作を高精度に検出する。
 なお、検出装置4は、3Dレーザセンサに限定されるものではない。検出装置4は、内視鏡操作者の動作を検出するものであればよく、例えばイメージセンサ等であってよい。検出装置4は、複数の撮像素子からなるステレオカメラであってもよい。
 情報処理装置5は、例えばサーバコンピュータである。情報処理装置5は、内視鏡用プロセッサ2及び検出装置4から内視鏡の手技に関する情報を取得し、取得した情報に基づき内視鏡操作者の手技を支援する手技情報を出力する学習モデルを生成する。実施形態1において、情報処理装置5は1台のサーバコンピュータとして説明するが、複数のサーバコンピュータで機能又は処理を分散させてもよいし、1台の大型コンピュータに仮想的に生成される複数のサーバコンピュータ(インスタンス)の内の1つであってもよい。
 図2は、学習モデル生成システム110の構成例を示すブロック図である。内視鏡用プロセッサ2は、制御部21、記憶部22、入出力I/F(Interface )23、光源24及び通信部25を含む。各構成はバスで接続されている。本実施形態では、内視鏡用プロセッサ2は一台の情報処理装置であるものとして説明するが、複数台により分散して処理させてもよく、または仮想マシンにより構成されていてもよい。
 制御部21は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含む。制御部21は、内蔵するROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを用いて処理を実行する。制御部21は、記憶部22に記憶されたプログラムを読み出して実行することにより、内視鏡用プロセッサ2に係る種々の情報処理、制御処理等を行う。図2では制御部21を単一のプロセッサであるものとして説明するが、マルチプロセッサであってもよい。
 記憶部22は、例えばハードディスク又はSSD(Solid State Drive )等の不揮発性メモリを含む。記憶部22は、制御部21が参照するプログラム及びデータを記憶する。
 入出力I/F23は、内視鏡用プロセッサ2に接続された外部機器とシリアル通信するための通信インターフェースである。入出力I/F23には、例えばディスプレイ等の表示装置3、キーボード等の入力装置が接続されている。制御部21は、入力装置に対する外部からの操作に応じて発生した入力信号に基づき行った情報処理の結果を表示装置3に出力する。
 光源24は、観察対象の照明に用いる照明光を発する光源を備える。光源24は、例えば、波長域が異なる複数色のLED(Light Emitting Diode)等の半導体光源、レーザーダイオードと蛍光体の組み合わせ、又はキセノンランプ等である。光源24の点灯、消灯および明るさの変更は、制御部21により制御される。なお、本実施形態では、内視鏡用プロセッサ2が光源一体型であるが、これに限るものではない。例えば、内視鏡用プロセッサ2は、光源装置と分離する光源分離型であってもよい。
 通信部25は、ネットワークNを介した通信を実現する通信インターフェースである。制御部21は、通信部25によりネットワークNを介して情報処理装置5と通信接続が可能である。なお通信部25が備える通信インターフェースは、例えば、Bluetooth(登録商標)、WiFi(登録商標)等の近距離無線通信用のアンテナを含む無線通信モジュールを用いて通信を行ってもよい。また、通信部25は、USB等の有線の通信インターフェースを備えていてもよい。
 情報処理装置5は、制御部51、記憶部52、通信部53及び入出力I/F54を含む。制御部51は、一又は複数のCPU、MPU、GPU等の演算処理装置を含む。制御部51は、内蔵するROM及びRAM等のメモリを用いて処理を実行する。制御部51は、記憶部52に記憶されたプログラム5Pを読み出して実行することにより、情報処理装置5に係る種々の情報処理、制御処理等を行う。
 記憶部52は、例えばハードディスク又はSSD等の不揮発性メモリを含む。記憶部52は、プログラム5Pを記憶するほか、制御部51が参照する他のプログラム及びデータを記憶する。記憶部52に記憶されたプログラム5Pは、情報処理装置5が読み取り可能な記録媒体5Aから読み出されたプログラム5Pを記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラム5Pをダウンロードし、記憶部52に記憶させたものであってもよい。記憶部52は、履歴DB(Data Base :データベース)521及び学習モデル522を記憶する。学習モデル522は、内視鏡操作者の内視鏡の手技を支援する手技情報を識別する識別器であり、機械学習により生成された学習モデルである。なお記憶部52は、複数の記憶装置により構成されていてもよく、情報処理装置5に接続された外部記憶装置であってもよい。
 通信部53は、ネットワークNを介した通信を実現する通信インターフェースである。制御部51は、通信部53によりネットワークNを介して内視鏡用プロセッサ2及び検出装置4と通信接続が可能である。
 入出力I/F54は、例えば、USB又はD-SUB等の通信規格に準拠したものであり、入出力I/F54に接続された外部機器とシリアル通信するための通信インターフェースである。入出力I/F64には、例えばディスプレイ等の出力装置、キーボード等の入力装置が接続されている。
 図3は、履歴DB521に記憶される情報の内容例を示す図である。情報処理装置5は、内視鏡1の操作に熟練した内視鏡操作者の手技に関する手技情報を収集し、履歴DB521に記憶する。履歴DB521は、履歴情報を識別する履歴IDに対応付けて、日時、内視鏡画像、検出値及び操作データを含む手技情報等を記憶している。
 日時には、内視鏡手技が行なわれた日時が記録されている。図3では、一例として10ミリ秒単位でデータが記録される。内視鏡画像には、内視鏡1により撮影された内視鏡画像が記録されている。内視鏡画像は、静止画像又は複数のフレームの静止画像から構成される動画像である。検出値は、内視鏡操作者の両手及び両腕等の動作を示す状態データである。検出値には、例えば、検出装置4により検出された各日時の時点における、3Dデータ群、又は3Dデータ群から算出される内視鏡操作者の各部位についての座標値と各部位とが対応付けて記録されている。操作データは、内視鏡1の先端の操作データに関する情報であり、内視鏡1の体内への挿入量、内視鏡1の先端の湾曲方向、光源24の光量に関する情報等が含まれてよい。内視鏡1の体内への挿入量は、内視鏡1の挿入管11に設けられた3軸加速度センサ等の物理検出装置から検出された検出値が記録される。内視鏡1の湾曲方向は、内視鏡用プロセッサ2から得られる操作部12の湾曲ボタンの操作データが記録される。光源24の光量は、内視鏡用プロセッサ2から得られる光源24に対する輝度の制御データが記録される。なお図3は一例であって、履歴DB521の記憶内容は限定されるものではない。
 図4は、学習モデル522の構成を説明する説明図である。学習モデル522は、ニューラルネットワークを用いた深層学習によって、生成され、学習される。学習モデル522は、例えばCNN(Convolution Neural Network)である。図4に示す例では、学習モデル522は、内視鏡画像データ及び手技情報を入力する入力層と、実施中の手技に対する次段階における手技情報を出力する出力層と、内視鏡画像データ及び手技情報の特徴量を抽出する中間層とを備える。中間層は、内視鏡画像データ及び手技情報の特徴量を抽出する複数のノードを有し、各種パラメータを用いて抽出された画像特徴量を出力層に受け渡す。中間層は、畳み込み層、プーリング層及び全結合層等を含んでよい。学習モデル522は、設定されている手技情報を出力する複数の出力層を有する。
 学習モデル522の入力層へ入力される入力データは、所定段階における、内視鏡1により撮影された内視鏡画像及び手技情報である。内視鏡画像は、静止画像又は複数のフレームの静止画像から構成される動画像である。手技情報は検出値及び操作データを含んでよい。検出値は、検出装置4により検出された3Dデータ群、又は3Dデータ群から算出される内視鏡操作者の各部位についての座標値を含む、内視鏡操作者の両手及び両腕等の状態データである。操作データは、内視鏡1の挿入量、湾曲方向及び光量等の操作データを含む。なおこの場合において、内視鏡画像データは図示しない畳み込み層、コンボリューション層を介して入力層に入力されてよい。
 学習モデル522の出力層から出力される出力データは、所定段階において実施中の手技に対する次段階の手技情報である。例えば、入力データが時刻tnにおける内視鏡画像及び手技情報である場合、出力データは、時刻tn+1における手技情報である。学習モデル522は、手技情報として、例えば検出値、挿入量、湾曲方向及び光量を夫々出力する複数の出力層を有する。検出値を出力する出力層は、設定されている検出値に各々対応するチャネルを含み、各検出値に対する確度をスコアとして出力する。情報処理装置5は、スコアが最も高い検出値、あるいはスコアが閾値以上である検出値を、検出値を出力する出力層の出力データとすることができる。なお出力層は、それぞれの検出値の確度を出力する複数の出力チャネルを有する代わりに、最も確度の高い検出値を出力する1個の出力ノードを有してもよい。同様に、挿入量、湾曲方向及び光量の各出力層からは、挿入量、湾曲方向及び光量の出力データが夫々出力される。このように、学習モデル522は、所定段階における内視鏡画像及び手技情報が入力された場合に、次段階の手技情報を出力する。
 上記では、学習モデル522は複数の出力層を有する構成を説明したが、学習モデル522は一つの出力層を有する構成であってもよい。情報処理装置5は、検出値、挿入量、湾曲方向及び光量を夫々出力する出力層を有する学習モデル522を複数備えていてもよい。この場合において、各学習モデル522には、出力する手技情報に応じた入力データが入力されてよい。例えば、手技情報として検出値を出力する学習モデル522に入力される入力データは、内視鏡画像及び検出値のみであってもよく、内視鏡画像、検出値及び操作データが全て入力されてもよい。
 上記では、手技情報として内視鏡操作者の両手及び両腕の状態データである検出値と、挿入量、湾曲方向及び光量である操作データとが含まれる例を説明したが、学習モデル522に入力され、出力される手技情報は限定されるものではない。内視鏡1の操作による手技とは、例えば内視鏡1による被検者の消化管等の検査・観察、処置具による手技等が含まれる。手技情報には、これら手技内容データが含まれてよい。
 例えば病変の切除を含む手技において、手技内容データを入力要素とする学習モデル522は、入力される手技情報に処置具である注射針の挿入を示す手技内容データが含まれる場合、次段階の手技情報として生理食塩水の注入等の手技内容データを出力とする構成であってもよい。また、手技情報には、内視鏡1に対する送気・送水の操作データ、内視鏡用プロセッサ2の用いる内視鏡画像に画像処理を施す際のパラメータ等が含まれてもよい。また手技情報には、内視鏡画像に応じた病変の有無及び内容等の病変データが含まれてよい。例えば、学習モデル522から出力される手技情報には、入力データである内視鏡画像から判定された病変データが含まれてよい。また、学習モデル522は、入力される手技情報に病変データを含み、該病変データに対応付けられた手技内容、光量情報等の手技情報を出力してもよい。
 学習モデル522は、U-Net等のアルゴリズムを用いて、次段階の手技情報の画像を生成するものであってもよい。図5は、学習モデル522の異なる構成を説明する説明図である。学習モデル522は、エンコーダ部及びデコーダ部を備える。エンコーダ部は、入力データをエンコーディングして特徴量を抽出し、デコーダ部は、抽出された特徴量をデコーディングして画像生成を行う。学習モデル522の入力層へ入力される入力データは、所定段階における、内視鏡1により撮影された内視鏡画像及び内視鏡操作者の両手及び両腕の状態データである検出値である。学習モデル522の出力層から出力される出力データは、所定段階の次段階の両手及び両腕の状態データに基づき生成された、次段階の両手及び両腕の状態を示す画像である。画像は、3次元位置座標に基づく3D画像であってもよい。
 学習モデル522は、上記の例に限られず、時系列データを取得した場合には、例えばリカレントニューラルネットワーク(RNN:Recurrent Neural Network)を用いてもよい。学習モデル522は、Seq2SeqのRNNを用いて、複数の次段階の手技情報を予測してもよい。また学習モデル522は、CNN以外のニューラルネットワーク、他のアルゴリズムによって学習されたモデルであってもよい。
 上記のように構成される学習モデル生成システム110にて、学習モデルを生成する機械学習処理が実行される。図6は、情報処理装置5で実行される処理手順の一例を示すフローチャートである。
 情報処理装置5の制御部51は、内視鏡操作者の内視鏡1の各操作段階における内視鏡画像及び手技情報を取得する(ステップS11)。手技情報には、各操作段階における内視鏡操作者の両手及び両腕の状態データ、内視鏡1の挿入量、湾曲方向及び光量の操作データが含まれる。具体的には、制御部51は、内視鏡用プロセッサ2から、内視鏡画像、内視鏡1の挿入量、湾曲方向及び光量等の操作データを取得する。更に制御部51は、検出装置4から検出値を取得する。
 制御部51は、取得した各操作段階(例えば時刻tnの段階)における内視鏡画像及び手技情報に、履歴DB521に記録された各操作段階の次段階(例えば時刻tn+1の段階)における手技情報をラベル付けした教師データを生成する(ステップS12)。履歴DB521には、過去に実施された熟練内視鏡操作者による内視鏡検査の各操作段階における情報が大量に記録されている。制御部51は、これら大量のデータを用いて、取得した各操作段階における内視鏡画像及び手技情報夫々に対し次段階における手技情報を対応付けた教師データを生成する。
 制御部51は、生成した教師データを用いて、内視鏡画像及び手技情報を入力した場合に次段階における手技情報を出力する学習モデル522を生成する(ステップS13)。具体的には、制御部51は、所定段階における内視鏡画像及び手技情報をニューラルネットワークの入力層に入力する。制御部21は、次段階における手技情報の予測値を出力層から取得する。制御部51は、手技情報の予測値を、正解値である手技情報と比較し、出力層から出力される予測値が正解値に近づくよう、中間層での演算処理に用いるモデルパラメータを最適化する。最適化されたモデルパラメータを、定義されたニューラルネットワークに適用することによって、学習モデル522は、内視鏡画像データ及び手技情報が入力された場合に次段階における手技情報を出力することが可能である。制御部51は、生成した学習モデル522を記憶部52に格納し、一連の処理を終了する。
 上記では、一連の処理を情報処理装置5の制御部51が実行する例を説明したが、本実施形態はこれに限定されない。上記の処理は、一部又は全部が内視鏡用プロセッサ2の制御部21で実行されるものであってもよい。すなわち、内視鏡用プロセッサ2が、実質的に情報処理装置5を含むものであってもよい。また学習モデル522は、情報処理装置5により生成され、内視鏡用プロセッサ2で学習されたものであってもよい。情報処理装置5の制御部51と内視鏡用プロセッサ2の制御部21とは、例えばプロセス間通信を行うことにより協働して一連の処理を行うものであってもよい。
 本実施形態によれば、内視鏡1の操作手技に熟練した内視鏡操作者の操作データを含む教師データを用いて、内視鏡の手技において、実施段階の内視鏡画像及び手技情報に応じた次段階の手技情報を出力する学習モデル522が生成される。学習モデル522により、各操作段階に応じた精度のよい手技情報の出力が可能となる。
(実施形態2)
 実施形態2では、学習モデル生成システム120は、内視鏡1の手技を行う内視鏡室内を撮影する撮影装置6を更に含み、撮影装置6で撮影された室内画像を用いた学習モデル522が生成される。図7は、実施形態2における学習モデル生成システム120の概要図である。以下では、実施形態2について、実施形態1と異なる点を説明する。後述する構成を除く他の構成については実施形態1と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
 撮影装置6は、内視鏡1の操作を行う内視鏡操作者及び内視鏡1による被検者を含む内視鏡室内に設置される、カメラ等の撮影機能を有する撮影装置である。撮影装置6は、有線又は無線によりネットワークNを介して情報処理装置5と通信接続されている。撮影装置6は、撮影した室内画像を情報処理装置5へ送信する。撮影装置6により撮影される室内画像には、内視鏡室内の内視鏡操作者、被検者、内視鏡操作者を補助する看護師等の補助者、内視鏡室内の処置具の載置台等、内視鏡室内の各種の状態を示す画像が含まれる。
 図8は、実施形態2の学習モデル522の構成を説明する説明図である。学習モデル522は、内視鏡画像、手技情報及び室内画像が入力された場合に、次段階の手技情報を出力するよう学習される。学習モデル522の入力層へ入力される入力データは、所定段階における、内視鏡1により撮影された内視鏡画像、手技情報及び室内画像である。手技情報は、例えば検出装置4の検出値、内視鏡1の挿入量、湾曲方向及び光量等の操作データの少なくともいずれか一つを含んでよい。室内画像データには、内視鏡操作者及び被検者の相対位置情報、被検者の体の向き、処置具の準備状態等の情報が含まれている。なおこの場合において、内視鏡画像及び室内画像の画像データは図示しない畳み込み層、コンボリューション層を介して入力層に入力されてよい。
 学習モデル522の出力層から出力される出力データは、所定段階において実施中の手技に対する次段階の手技情報である。手技情報は、内視鏡操作者の両手及び両腕等の状態データを含む。手技情報は、次段階の処置具の情報(例えばスネア準備、電気メス準備等)、次段階の内視鏡操作者及び被検者の位置関係の情報(例えば右足1歩前、両足1歩左等)等を含んでよい。
 情報処理装置5は、各操作段階における内視鏡画像、手技情報及び室内画像に、各操作段階の次段階における手技情報をラベル付けした教師データを生成し、生成した教師データを用いて、内視鏡画像、手技情報及び室内画像を入力した場合に次段階における手技情報を出力する学習モデル522を生成する。
 本実施形態によれば、学習モデル522は、撮影装置6により取得された室内画像を用いて、より実施内容に応じた手技情報を出力することができる。室内の状況に応じた手技情報が出力されるため、内視鏡操作者のみならず他の補助者等も含めたサポートが可能となる。
(実施形態3)
 実施形態3では、学習モデル生成システム130は、内視鏡操作者の視線データを検出する視線検出装置7を更に含み、視線検出装置7で検出された視線データを用いた学習モデル522が生成される。図9は、実施形態3における学習モデル生成システム130の概要図である。以下では、実施形態3について、実施形態1と異なる点を説明する。後述する構成を除く他の構成については実施形態1と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
 視線検出装置7は、例えばイメージセンサ等の視線検出センサを有する検出装置である。視線検出装置7は、眼鏡型等のウェアラブルデバイスの態様であってもよい。視線検出装置7は、内視鏡操作者の視線の動きを検出する。視線検出装置7は、有線又は無線によりネットワークNを介して情報処理装置5と通信接続されている。視線検出装置7は、検出した視線データを情報処理装置5へ送信する。
 図10は、実施形態3の学習モデル522の構成を説明する説明図である。学習モデル522の入力層へ入力される入力データは、所定段階における、内視鏡1により撮影された内視鏡画像、手技情報及び視線検出装置7から取得した視線データである。手技情報は、例えば検出装置4の検出値、内視鏡1の挿入量、湾曲方向及び光量等の操作データの少なくともいずれか一つを含んでよい。
 学習モデル522は、例えば手技情報及び視線データを夫々出力する複数の出力層を備える。各出力層から出力される出力データは、夫々所定段階において実施中の手技に対する次段階の手技情報及び視線データである。
 情報処理装置5は、各操作段階における内視鏡画像、手技情報及び視線データに、各操作段階の次段階における手技情報及び視線データをラベル付けした教師データを生成し、生成した教師データを用いて、内視鏡画像、手技情報及び視線データを入力した場合に次段階における手技情報及び視線データを出力する学習モデル522を生成する。
 本実施形態によれば、学習モデル522は、視線データ等の微妙な動きをデータ化して取得することにより、認識し易い情報として出力することができる。
(実施形態4)
 実施形態4では、学習モデル生成システム140の情報処理装置5は、手技レベルに応じた複数種類の学習モデル522を生成する。図11は、実施形態4の学習モデル生成システム140の構成例を示すブロック図である。以下では、実施形態4について、実施形態1と異なる点を説明する。後述する構成を除く他の構成については実施形態1と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。実施形態4の情報処理装置5では、記憶部52に複数の学習モデル522が記憶されている。
 内視鏡1の内視鏡操作者には、内視鏡1の操作に未熟な内視鏡操作者から熟練した内視鏡操作者まで、各種の手技レベルの内視鏡操作者が想定される。このような場合においては、内視鏡操作者の手技レベルに応じて異なる手技情報が提供されることが好ましい。学習モデル生成システム140では、手技レベルに応じた学習モデル522を複数生成することで、内視鏡操作者の手技レベルに応じた手技情報の出力を行う。
 学習モデル522は、例えば手技レベル初級者、中級者、上級者、エキスパート等の、異なる手技レベル毎にそれぞれ生成されており、各学習モデル522からは、夫々手技レベルに応じた情報のみを出力データとするよう構成される。例えば、初心者用の学習モデル522からは、状態データ、挿入量、湾曲方向及び光量を全て含む操作データ等が出力され、エキスパート用の学習モデル522からは、光量を含む操作データのみが手技情報として出力される。この場合において、各学習モデル522は、出力データに応じた情報のみを入力要素としてよい。すなわち、手技情報として光量を出力とするエキスパート用の学習モデル522においては、入力要素に含まれる手技情報は光量のみでよく、他の操作データ及び状態データは入力要素に含まれないものであってよい。なお、学習モデル生成システム140は、学習モデル522の入力要素として内視鏡操作者の手技レベルを含んで学習することにより、1つの学習モデル522により手技レベルに応じた出力データを出力するものであってもよい。
 なお、複数種類の学習モデル522は、手技レベル以外の要素に基づき用意されていてもよい。例えば、情報処理装置5は、内視鏡操作者の生体属性情報に応じた複数種類の学習モデル522を生成してもよい。
 内視鏡1の内視鏡操作者は、夫々身長、体重、性別、手のサイズ、握力、利き手、視力、色覚特性等の様々な生体属性情報を有する。例えば、内視鏡操作者の身長、手のサイズ等により、内視鏡の湾曲操作は異なる。また、視力、色覚特性等により適切な光量、画質設定は異なる。このような場合においては、内視鏡操作者の生体属性情報に応じて異なる手技情報が提供されることが好ましい。学習モデル522は、例えば生体属性情報の身長、体重、性別等に基づき区分される体格に応じて、異なる内視鏡操作者の体格区分毎に複数種類が生成される。例えば「大」「中」「小」に区分される各体格区分に対応する学習モデル522からは、夫々「大」「中」「小」の体格に応じた手技情報が出力されるよう構成される。なお、学習モデル生成システム140は、学習モデル522の入力要素として内視鏡操作者の生体属性情報を含んで学習することにより、1つの学習モデル522により生体属性情報に応じた出力データを出力するものであってもよい。
 本実施形態によれば、学習モデル522は、内視鏡操作者の手技レベル、生体属性情報等に応じて、個々の操作者に適切な手技情報を出力することができる。
(実施形態5)
 実施形態5では、学習モデル生成システムで生成された学習モデル522を用いて、内視鏡用プロセッサ2が、内視鏡1の操作を行う内視鏡操作者へ手技情報を提供する手技支援システムを実現する。図12は、実施形態5の手技支援システム210の構成例を示すブロック図である。以下では、実施形態5について、実施形態1と異なる点を説明する。後述する構成を除く他の構成については実施形態1の学習モデル生成システム110と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
 実施形態5の手技支援システム210は、内視鏡1、内視鏡用プロセッサ2及び検出装置4を含む。内視鏡用プロセッサ2には、表示装置3が接続されている。内視鏡用プロセッサ2は、検出装置4と有線又は無線によりネットワークNを介して通信可能に接続されている。
 実施形態5の内視鏡用プロセッサ2は、記憶部22に、プログラム2P及び学習モデル522を記憶するほか、制御部21が参照する他のプログラム及びデータを記憶する。記憶部22に記憶されたプログラム2Pは、内視鏡用プロセッサ2が読み取り可能な記録媒体2Aから読み出されたプログラム2Pを記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラム2Pをダウンロードし、記憶部22に記憶させたものであってもよい。
 制御部21は、記憶部22に記憶されたプログラム2Pを読み出して実行することにより、内視鏡画像及び内視鏡操作者の手技情報等を取得し、取得した内視鏡画像及び内視鏡操作者の手技情報に応じた次段階の手技情報を出力する本開示特有の内視鏡用プロセッサ2として機能させる。
 図13は、内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。例えば内視鏡操作者による内視鏡1の操作手技が開始され内視鏡1の撮影が開始されると、内視鏡用プロセッサ2の制御部21で以下の処理が実行される。
 制御部21は、内視鏡1から撮像画像を取得し、取得した撮像画像に所定の画像処理を施した内視鏡画像を取得する(ステップS21)。ついで制御部21は、手技情報を取得する(ステップS22)。手技情報には、内視鏡操作者の両手及び両腕等の状態データと、内視鏡1の挿入量、湾曲方向及び光量等の操作データとの少なくともいずれか一方が含まれる。具体的には、制御部21は、検出装置4にて検出された検出値を取得する。制御部21は、検出装置4から取得した3Dデータ群から内視鏡操作者の各部位についての座標値を算出する。さらに制御部21は、内視鏡1の挿入量、湾曲方向及び光量等の操作データを取得する。制御部21は、取得した内視鏡画像及び手技情報を一時的に記憶部22に記憶する。
 制御部21は、記憶した内視鏡画像及び手技情報を学習モデル522に入力する(ステップS23)。学習モデル522は、実施形態1において説明した学習モデル522であり、内視鏡画像及び手技情報を入力した場合に、次段階の手技情報を出力する。具体的には、学習モデル522は、内視鏡画像及び内視鏡操作者の両手及び両腕等の状態データを入力した場合に、次段階の両手及び両腕等の状態データ、又は該状態データに基づき生成された画像を出力する。学習モデル522は、内視鏡画像及び内視鏡1の挿入量、湾曲方向及び光量等の操作データを入力した場合に、次段階の操作データを出力するものであってもよい。
 学習モデル522に入力される内視鏡画像は、内視鏡1に設けられた撮像素子により撮影されて、内視鏡用プロセッサ2に伝送された撮影画像そのものであってもよく、又は撮影画像に対して内視鏡用プロセッサ2内部で所定の画像処理を行なった内視鏡画像であってもよい。学習モデル522に入力される手技情報には、内視鏡操作者の両手及び両腕等の状態データと、内視鏡1の挿入量、湾曲方向及び光量等の操作データとの少なくとも一方が含まれている。
 制御部21は、学習モデル522から出力される次段階の手技情報を取得する(ステップS24)。学習モデル522から出力される手技情報には、次段階における内視鏡操作者の両手及び両腕等の状態データと、内視鏡1の挿入量、湾曲方向及び光量等の操作データとの少なくとも一方が含まれている。学習モデル522から出力される手技情報は、内視鏡操作者の両手及び両腕等の状態データに基づく画像であってもよい。
 制御部21は、取得した手技情報と内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した手技情報を含む画面情報を表示装置3を介して表示し(ステップS25)、一連の処理を終了する。なお制御部21は、ステップS25の処理を実行後、再度ステップS21の処理を実行すべくループ処理を行うものであってもよい。
 本実施形態において、内視鏡用プロセッサ2が実行する処理の一部を、内視鏡用プロセッサ2と通信接続された実施形態1の情報処理装置5又は他の外部サーバが行うものであってもよい。
 図14は、表示装置3で表示される画面例を示す図である。画面には、内視鏡画像及び次段階の手技情報が表示される。内視鏡用プロセッサ2の制御部21は、学習モデル522の出力情報に基づき、手技情報の表示内容を記憶した不図示のテーブルを参照し、次段階の手技情報を表示する画像情報を生成する。制御部21は、所定段階の内視鏡画像と、生成した次段階の手技情報を表示する画像情報とを対応付けて表示装置3に表示する。表示装置3には、次段階の手技情報として、例えば内視鏡1の挿入量、湾曲方向等の操作に関する情報と、その他の送気・送水等の手技全体に関する情報とが並列に表示される。挿入量の変化量は、「+1(1cm挿入する)」「-1(1cm抜去する)」「0(現状維持)」等で表示されてよい。学習モデル522から画像による手技情報が出力される場合には、該画像を含んだ画面が表示されてよい。学習モデル522から次々段階等を含む複数段階の手技情報を取得した場合には、複数段階の情報が並列して表示されてよい。
 制御部21は、室内画像、視線データ等を取得した場合には、これらの画像データ等を含む画面を表示してよい。更に、制御部21は、内視鏡用プロセッサ2と通信接続された外部測定装置から被検者の血圧、心拍等の生体情報を取得し、手技情報と共に画面に表示してよい。各種の情報を集約して表示装置3へ表示させることにより、内視鏡操作者が複数のモニタに視線を移動させることなく情報を得ることができ、情報の見逃しを防止する。
 制御部21は、画面情報の出力に加えて、警告音、合成音声、画面の点滅等により、手技情報を手技者に通知してもよい。例えば、次段階の湾曲方向の操作量が予め設定される閾値以上の場合等、注意を要する手技情報が出力情報に含まれる場合には、図示しないスピーカを介して警告音、合成音声等により手技者に通知することが好ましい。また、手技情報に、内視鏡用プロセッサ2に対する設定情報が含まれる場合においては、例えば表示装置3への出力に代えて、又は表示装置3への出力に加えて、内視鏡用プロセッサ2に変更指示が出力されてもよい。例えば光源24の輝度変更、画質パラメータ変更等の内視鏡用プロセッサ2の設定に関する変更は、内視鏡用プロセッサ2にて自動で行われることにより内視鏡操作者の負担を軽減することができる。
 本実施形態によれば、学習モデル522を用いて、内視鏡操作者の実施する手技内容に応じた手技情報が提供される。熟練内視鏡操作者の手技データに基づき推定された次段階の手技情報が提供されるため、誤った手技が実施されることを防止し、手技に未熟な内視鏡操作者であっても熟練内視鏡操作者と同様の手技内容を実施することが可能となる。内視鏡用プロセッサ2は、学習モデル522を用いて、内視鏡画像及び検出装置4の検出値等により高速且つ高精度に取得された実施段階の手技に関する情報に基づき、内視鏡1に特有の微妙な手指の動作を含む次段階の手技情報を出力する。
(実施形態6)
 実施形態6では、手技支援システム220は、内視鏡1の操作を行う内視鏡室内を撮影する撮影装置6を更に含む点で実施形態5と異なる。内視鏡用プロセッサ2は、内視鏡画像、手技情報及び室内画像が入力された場合に、次段階の手技情報を出力するよう学習された学習モデル522を用いて手技情報を提供する。
 図15は、実施形態6の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
 制御部21は、内視鏡画像を取得し(ステップS21)、手技情報を取得する(ステップS22)。手技情報には、操作者の両手及び両腕等の操作データ、内視鏡1の挿入量、湾曲方向及び光量等の操作データの少なくともいずれか一つが含まれてよい。ついで制御部21は、撮影装置6から室内画像を取得する(ステップS31)。制御部21は、取得した内視鏡画像、手技情報及び室内画像を一時的に記憶部22に記憶する。
 制御部21は、記憶した内視鏡画像、手技情報及び室内画像を学習モデル522に入力する(ステップS32)。学習モデル522は、実施形態2において説明した学習モデル522であり、内視鏡画像、手技情報及び室内画像を入力した場合に、次段階の手技情報を出力する。制御部21は、学習モデル522から出力される次段階の手技情報を取得する(ステップS33)。制御部21は、取得した手技情報と内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した手技情報を含む画面情報を表示装置3を介して表示し(ステップS25)、一連の処理を終了する。
 表示装置3に表示される画面には、内視鏡画像、次段階の操作情報、室内画像、生体情報等の領域が含まれている。次段階の操作情報には、例えば内視鏡操作者の両手及び両腕等の状態データ、内視鏡操作者及び被検者の位置関係に基づく動作情報、処置具の情報等が含まれる。
(実施形態7)
 実施形態7では、手技支援システム230は、内視鏡操作者の視線データを検出する視線検出装置7を更に含む点で実施形態5と異なる。内視鏡用プロセッサ2は、内視鏡画像、手技情報及び視線データが入力された場合に、次段階の手技情報及び視線データを出力するよう学習された学習モデル522を用いて手技情報を提供する。
 図16は、実施形態7の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
 制御部21は、内視鏡画像を取得し(ステップS21)、手技情報を取得する(ステップS22)。手技情報には、操作者の両手及び両腕等の操作データ、内視鏡1の挿入量、湾曲方向及び光量等の操作データの少なくともいずれか一つが含まれてよい。ついで制御部21は、視線検出装置7から視線データを取得する(ステップS41)。制御部21は、取得した内視鏡画像、手技情報及び視線データを一時的に記憶部22に記憶する。
 制御部21は、記憶した内視鏡画像、手技情報及び視線データを学習モデル522に入力する(ステップS42)。学習モデル522は、実施形態3において説明した学習モデル522であり、内視鏡画像、手技情報及び視線データを入力した場合に、次段階の手技情報及び視線データを出力する。制御部21は、学習モデル522から出力される次段階の手技情報及び視線データを取得する(ステップS43)。制御部21は、取得した手技情報及び視線データと内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した手技情報及び視線データを含む画面情報を表示装置3を介して表示し(ステップS25)、一連の処理を終了する。
 表示装置3に表示される画面には、内視鏡画像、視線画像、次段階の操作情報、視線データ等の領域が含まれている。なお、制御部21は、図示しないスピーカを介して合成音声等により視線データを出力してもよい。内視鏡操作者が眼鏡型のウェアラブルデバイスからなる視線検出装置7を着用している場合には、制御部21は、次段階の視線方向に対応するレンズの一部を点灯させる等により、視線データを出力してもよい。
(実施形態8)
 実施形態8では、手技支援システム240の内視鏡用プロセッサ2は、複数種類の学習モデル522を記憶部に記憶している点で実施形態5と異なる。内視鏡用プロセッサ2は、内視鏡操作者に応じて特定された学習モデル522を用いて手技情報を提供する。
 図17は、実施形態8の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
 制御部21は、例えば、内視鏡1の内視鏡操作者の手技レベル、生体属性情報等の内視鏡操作者情報を予め取得し記憶している不図示のデータベース等を参照し内視鏡操作者の手技レベルを取得することにより、手技レベル(内視鏡操作者情報)を特定する(ステップS51)。手技レベルは、例えば内視鏡操作者の過去の内視鏡1の操作内容に基づき判定されデータベースに記録されている。なお、内視鏡用プロセッサ2は、タッチパネル又はキーボード等の入力装置により、内視鏡操作者から内視鏡操作者情報の選択入力を受け付けるものであってもよい。
 内視鏡1の操作が開始され、制御部21は、内視鏡画像を取得し(ステップS21)、手技情報を取得する(ステップS22)。制御部21は、取得した内視鏡画像及び手技情報を一時的に記憶部22に記憶する。
 内視鏡用プロセッサ2の記憶部22は、実施形態4において説明した手技レベルに応じた複数の学習モデル522を記憶している。制御部21は、予め手技レベルと各学習モデル522の識別情報とを関連付けて記録したデータベース等を参照し、特定した手技レベルに基づき使用する学習モデル522を選択する(ステップS52)。制御部21は、記憶した内視鏡画像及び手技情報を、選択した学習モデル522に入力し(ステップS23)、学習モデル522から出力される次段階の手技情報等を取得する(ステップS24)。学習モデル522からは、内視鏡操作者の手技レベルに応じた手技情報のみが出力される。なお、制御部21は、特定した手技レベルを学習モデル522の入力要素の一つとして入力し、手技レベルに応じた手技情報を出力としてもよい。制御部21は、取得した手技情報と内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した手技情報を含む画面情報を表示装置3を介して表示し(ステップS25)、一連の処理を終了する。
 上記において、内視鏡用プロセッサ2は、生体属性情報に応じて異なる複数種類の学習モデル522を用いてもよい。制御部21は、ステップS51において、内視鏡操作者の手技レベルに代えて内視鏡操作者の身長、体重等の生体属性情報を取得し、内視鏡操作者の体格(内視鏡操作者情報)を特定する。制御部21は、ステップS52において、予め体格と学習モデル522の識別情報とを関連付けて記録したデータベース等を参照し、特定した内視鏡操作者の体格に基づき使用する学習モデル522を選択する。学習モデル522からは、内視鏡操作者の体格に応じた手技情報が出力される。
 なお、内視鏡操作者が初めて内視鏡1の手技を行う場合等、内視鏡操作者の手技レベルがデータベースに未登録である場合には、内視鏡操作者の手技レベル以外の属性情報に基づく汎用的設定により仮レベルが特定されてもよい。例えば、内視鏡操作者の経験年数に基づき、内視鏡操作者の経験年数が1年未満である場合には初級者レベル、経験年数が1年以上5年未満である場合には中級者レベルが汎用的に適用されるとよい。また、対象となる内視鏡操作者の生体属性情報に基づき、対象内視鏡操作者の生体属性情報に最も近似する生体属性情報が含まれる内視鏡操作者を導出し、導出した内視鏡操作者の手技レベルを仮レベルとして適用してもよい。更にまた、手技の開始前に、例えば大腸モデル等のシミュレーション装置を用いた手技を行うことにより仮想的な手技レベルを導出し、導出した仮想的な手技レベルを仮レベルとして適用してもよい。
 本実施形態によれば、内視鏡用プロセッサ2により特定された内視鏡操作者の手技レベル又は生体属性情報等に応じた情報のみを出力するよう調整された学習モデル522を用いて手技情報が出力される。個々の内視鏡操作者に適した手技情報が提供されるため、様々な手技レベル又は生体属性等を有する内視鏡操作者であっても、夫々に利用価値の高いサポート情報を提供することが可能となる。
(実施形態9)
 実施形態9では、手技支援システム250の内視鏡用プロセッサ2は、内視鏡操作者の手技レベルを評価する評価モデル523を用いて内視鏡操作者の手技レベルを評価する。図18は、実施形態9の手技支援システム250の構成例を示すブロック図である。以下では、実施形態9について、実施形態5と異なる点を説明する。後述する構成を除く他の構成については実施形態5と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
 内視鏡用プロセッサ2の記憶部22は、評価モデル523を更に記憶する。評価モデル523は、内視鏡操作者の手技レベルを評価する評価器であり、機械学習により生成された学習モデルである。
 図19は、評価モデル523の構成を説明する説明図である。評価モデル523は、ニューラルネットワークを用いた深層学習によって、生成され、学習される。図19に示す例では、評価モデル523は、内視鏡画像データ及び手技情報を入力する入力層と、能力レベルを出力する出力層と、内視鏡画像データ及び手技情報の特徴量を抽出する中間層とを備える。中間層は、内視鏡画像データ及び手技情報の特徴量を抽出する複数のノードを有し、各種パラメータを用いて抽出された画像特徴量を出力層に受け渡す。中間層は、畳み込み層、プーリング層等を含んでよい。評価モデル523は、設定されている手技レベルに各々対応するチャネルを含む出力層を有し、出力層は、各手技レベルに対する確度をスコアとして出力する。
 評価モデル523への入力データは、内視鏡1により撮影された内視鏡画像及び手技情報である。手技情報は、内視鏡操作者の両手及び両腕等の状態データを示す検出値、内視鏡1の挿入量、湾曲方向及び光量等の操作データを含んでよい。入力データには、さらに室内画像、視線データ等が含まれてもよい。なおこの場合において、画像情報は図示しない畳み込み層、コンボリューション層を介して入力層に入力されてよい。評価モデル523からの出力データは、内視鏡画像データ及び手技情報に対する手技者の手技レベルである。手技レベルは、例えば初級者、中級者、上級者及びエキスパートに区分される。
 評価モデル523は、内視鏡画像及び手技情報と、内視鏡画像及び手技情報における手技レベルとを関連付けて記録した教師データベースを使用して、モデルパラメータが調整されている。教師データは、内視鏡画像及び手技情報に対し手技レベルがラベル付けされたデータセットとして構築される。例えば、大腸内視鏡検査において、盲腸到達率が95パーセント以上、且つ盲腸到達時間が5分以内である内視鏡操作者は中級者以上であるとされている。初回検査時における腫瘍発見率が30パーセント以上である内視鏡操作者はエキスパートとされている。ポリペクトミー、又は他の内視鏡的粘膜切除術において、所定時間以内に1回の通電で切除を行う内視鏡操作者は手技レベルが高いとされている。また、手技時における腕、手首、手指等の動作に無駄がない場合にも、内視鏡操作者の手技レベルが高いとされる。評価モデル523は、これらの知見に沿った教師データを用いて学習を実行する。
 評価モデル523は、学習用の入力データとして、内視鏡画像データ及び手技情報を入力する。評価モデル523は、学習用の入力データ夫々に対する手技レベルを教師データとして、内視鏡画像データ及び手技情報が入力された場合に手技レベルを出力するように学習される。学習が進行すると、学習済みのモデルパラメータが得られる。評価モデル523は、学習済みのモデルパラメータを、定義されたニューラルネットワークに適用することによって、内視鏡画像データ及び手技情報が入力された場合に、手技レベルを出力することが可能である。
 なお、評価モデル523は、ニューラルネットワークを用いた深層学習に限られず、他のアルゴリズムによって学習されたモデルであってもよく、特定の数式によって評価値を導出するものであってもよい。
 図20は、内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。例えば内視鏡操作者による内視鏡1の操作手技が開始され内視鏡1の撮影が開始されると、手技情報の推定処理に並行して、内視鏡用プロセッサ2の制御部21で以下の処理が実行される。
 制御部21は、内視鏡画像を取得し(ステップS61)、手技情報を取得する(ステップS62)。制御部21は、取得した内視鏡画像及び手技情報を評価モデル523に入力し(ステップS63)、評価モデル523から出力される手技レベルを取得する(ステップS64)。制御部21は、内視鏡操作者情報を記憶するデータベース等に、取得した手技レベルを内視鏡操作者に対応付けて記憶し(ステップS65)、一連の処理を終了する。
 内視鏡用プロセッサ2が複数種類の手技レベルに応じた学習モデル522を記憶する場合においては、制御部21は、上記で評価した手技レベルを用いて、使用する学習モデル522の特定を行ってよい。さらに制御部21は、学習モデル522及び評価モデル523を用いて、リアルタイムで取得する手技レベルに応じた手技情報を出力してもよい。制御部21は、内視鏡1の操作実施時において、手技レベルの評価処理及び手技情報の推定処理を並行して実行する。制御部21は、評価モデル523から出力される手技レベルをリアルタイムで取得し、取得した手技レベルに応じて使用する学習モデル522の選択を随時変更する。制御部21は、選択した学習モデル522から出力される手技情報を取得する。このように、制御部21は、手技実施中に変化する内視鏡操作者の手技レベルに応じた学習モデル522を用いることにより、手技の実施内容に基づき変化する内視鏡操作者の手技レベルによって、出力する手技情報を変化させる。
 本実施形態によれば、学習モデル522及び評価モデル523により、内視鏡操作者への手技情報の提供と、内視鏡操作者の手技レベルの評価とが並行して行われる。手技情報の出力内容はリアルタイムで評価される手技レベルに応じて変更可能なため、実施内容に即した適切な手技情報を提供することができる。
(実施形態10)
 実施形態10では、内視鏡用プロセッサ2は、学習モデル522を用いて内視鏡1の種類に応じた次段階の手技情報を推定する。
 情報処理装置5は、内視鏡1の種類に応じた複数種類の学習モデル522を生成する。内視鏡用プロセッサ2は、内視鏡1の種類に応じた複数種類の学習モデル522を取得し、記憶部52に記憶している。各学習モデル522は、内視鏡1の種類に応じて、例えば湾曲方向の入力データ及び出力データが異なる。例えば上部消化管用の内視鏡又は大腸内視鏡の場合、操作部12は、内視鏡1の先端を上下方向に曲げるための上下アングルノブ及び左右方向に曲げるための左右アングルノブを備える。従って、湾曲方向には上下左右の4方向に対する操作データが含まれる。一方、気管支用又は耳鼻科用の内視鏡1の場合、操作部12は、上下アングルノブのみを備え、湾曲方向には上下の2方向が含まれる。従って、内視鏡1の種類が気管支用又は耳鼻科用である場合には、学習モデル522は、湾曲方向として上下の2方向に対する操作データのみを入力データとし、上下の2方向に対する操作データのみを出力データとする構成であることが好ましい。
 なお、アングルノブがジョイスティック等により構成される場合には、湾曲方向は操作角度を用いて示されるとよい。また、気管支用又は耳鼻科用の内視鏡1用の学習モデル522においては、手技情報の操作データに内視鏡1の挿入管11の全体の回転(ひねり)方向及び回転量が含まれてもよい。
 内視鏡用プロセッサ2の制御部21は、内視鏡用プロセッサ2に接続される内視鏡1のコネクタ形状、又は内視鏡1から得られる信号情報等から、内視鏡1の種類を特定する。制御部21は、例えば、図示しない読取部を介した内視鏡1の識別コードの取得、内視鏡操作者からの入力の受け付け等により内視鏡1の種類を取得してもよい。制御部21は、内視鏡1の種類と各学習モデル522の識別情報とを関連付けて記録したデータベース等を参照し、特定した内視鏡1の種類に基づき使用する学習モデル522を選択する。制御部21は、内視鏡画像及び手技情報を、選択した学習モデル522に入力し、学習モデル522から出力される次段階の手技情報等を取得する。
 なお、学習モデル522は、内視鏡1の種類を入力要素に含み、内視鏡1の種類に応じた出力データを出力とするものであってもよい。この場合、制御部21は、特定した内視鏡1の種類、内視鏡画像及び手技情報を学習モデル522に入力し、学習モデル522から出力される次段階の手技情報等を取得する。内視鏡用プロセッサ2は、予め決められる接続予定の内視鏡1の種類に応じて、接続予定の内視鏡1の種類に応じた1つの学習モデル522のみを記憶部52に記憶するものであってもよい。
 本実施形態によれば、内視鏡1の種類に応じた手技情報が出力されるため、より手技状態に即したサポート情報を提供することが可能となる。
(実施形態11)
 実施形態11では、3次元画像を用いて手技情報を示す画面情報を表示する。図21は、実施形態11における画面例を示す図である。
 図21に示す如く、画像情報に基づき表示装置3に表示される画面には、内視鏡画像と、次段階の手技情報を3次元画像を用いて示すナビゲーション画像とが含まれている。例えば、ナビゲーション画像は、被検者の気管支等の管腔臓器を仮想的に示す3次元画像上に、内視鏡1の操作方向(次段階の手技情報)を示すオブジェクトを重畳して表示する画像である。3次元画像は、管腔臓器の全体を示す全体画像と、内視鏡1の位置及び視点方向に応じた管腔臓器の内腔(観察部位)を示す内腔画像とを含んでよい。内腔画像は、仮想的な3D内視鏡画像に相当する。
 制御部21は、予め超音波診断装置又はX線CT装置等による断層像データに基づき生成された被検者の管腔臓器の3次元画像を取得し、記憶部22に記憶している。制御部21は、挿入管11に設けられた物理検出装置の検出値に基づき、内視鏡画像が撮像された時点における内視鏡1の先端の位置及び視点方向を推定する。制御部21は、推定した位置及び視点方向に応じた3次元画像を特定する。制御部21は、特定した3次元画像上に、次段階の手技情報を示すオブジェクトを重畳して表示するナビゲーション画像を生成する。例えば処置具に関する情報等といった手技情報の一部は、テキストデータ等により3次元画像とは離れた位置に表示されてよい。制御部21は、内視鏡画像と、次段階の手技情報を含むナビゲーション画像とを関連付けた画面情報を生成し、生成した画面情報を表示装置3へ出力する。
 上記において、内視鏡用プロセッサ2は、内視鏡操作者の手技レベルに応じて画面情報を変更してもよい。例えば、制御部21は、内視鏡操作者の手技レベルが初級者と特定された場合には、上述したナビゲーション画像を含む画面情報を生成する。制御部21は、手技レベルがエキスパートと特定された場合には、ナビゲーション画像を含まない画面情報を生成してよい。制御部21は、手技レベルがエキスパートと特定された場合において、所定条件を満たさないときにはナビゲーション画像を含む画面情報を表示してもよい。所定条件を満たさないとは、例えば、分岐箇所における操作方向(挿入方向)が誤っている、学習モデル522から出力された次段階の手技情報と、次段階における内視鏡1の実際の操作データとが一致しない等を含んでよい。
 図22は、実施形態11の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
 内視鏡用プロセッサ2の制御部21は、例えば、内視鏡操作者情報を記憶している不図示のデータベース等を参照し内視鏡操作者の手技レベルを取得することにより、手技レベル(内視鏡操作者情報)を特定する(ステップS71)。
 制御部21は、図13に示したステップS21からステップS24の処理を実行し、学習モデル522により次段階の手技情報を取得する。制御部21は、所定の条件を満たすか否かを判定する(ステップS72)。例えば、制御部21は、内視鏡1の操作が間違っていないか否かを判定する。操作が間違っていない、すなわち条件を満たすと判定した場合(S72:NO)、制御部21は、内視鏡画像を表示する画面情報を生成する(ステップS73)。制御部21は、生成した内視鏡画像を表示する画面情報を表示装置3を介して表示し(ステップS74)、処理を終了する。
 操作が間違っている、すなわち条件を満たさないと判定した場合(S72:YES)、制御部21は、内視鏡画像の撮像時点における内視鏡1の先端の位置及び視点方向を推定し、推定した位置及び視点方向に応じた3次元画像を取得する(ステップS75)。制御部21は、取得した3次元画像上に次段階の手技情報を重畳して表示するナビゲーション画像と、内視鏡画像とを対応付けて表示する画面情報を生成する(ステップS76)。制御部21は、生成した画面情報を表示装置3を介して表示し(ステップS77)、一連の処理を終了する。
 本実施形態によれば、3次元画像上に手技情報が表示されるため、容易に手技情報を認識することができる。また、内視鏡操作者の手技レベルや手技実態に応じた手技情報が表示されるため、より好適に内視鏡操作者の手技を支援することができる。
(実施形態12)
 実施形態12では、内視鏡用プロセッサ2は、学習モデル522を用いて内視鏡用プロセッサ2の種類に応じた次段階の手技情報を推定する。
 情報処理装置5は、内視鏡用プロセッサ2の種類に応じた複数種類の学習モデル522を生成する。内視鏡用プロセッサ2は、自装置に対応する内視鏡用プロセッサ2の種類に応じた学習モデル522を取得し、記憶部52に記憶している。例えば、学習モデル522は、内視鏡画像と、内視鏡用プロセッサ2における光量(光量比)及び画像処理に係るパラメータを含む手技情報とを入力した場合に、次段階における光量(光量比)及び画像処理に係るパラメータを含む手技情報を出力する。
 内視鏡用プロセッサ2は、例えば、光源24に含まれる青色の光を出射する半導体光源と、黄色の蛍光を出射する蛍光体とを組み合わせることで、通常光観察用の白色光による白色光画像を生成する。内視鏡用プロセッサ2はまた、青色の光を放射する半導体光源と紫色の光を放射する半導体光源とを組み合わせることで、特殊光観察用の照明光による特殊光画像を生成する。特殊光観察は、狭帯域の照明光を使用することにより、例えば粘膜の深部を走行する血管等を強調して表示する技術である。
 内視鏡用プロセッサ2の制御部21は、半導体光源や蛍光体からの光の光量又は光量比と、画像処理に係るパラメータとを制御することで、内視鏡操作者が観察しやすい画像を生成する。同一の内視鏡1を用いた場合であっても、使用される内視鏡用プロセッサ2の種類により光源24が出射する光のスペクトラム分布が異なるため、表示装置3に表示される内視鏡画像の色調が異なる。従って、内視鏡用プロセッサ2の種類に応じて、光量(光量比)、画像処理に係るパラメータを変化させることで、生成される内視鏡画像に対する内視鏡操作者の視認性を向上し、手技精度の向上を支援することができる。なお、学習モデル522の出力とする光量は、例えば、検査開始から盲腸等の所定部位まで挿入するときには通常光観察用の白色光に係る光量とし、所定部位から抜去するときには特殊光観察用の照明光に係る光量としてもよい。
 学習モデル522は、内視鏡用プロセッサ2の種類に関する情報を入力要素に含み、内視鏡用プロセッサ2の種類に応じた出力データを出力とするものであってもよい。すなわち、学習モデル522は、光量及び画像処理に係るパラメータを含む手技情報、内視鏡画像並びに内視鏡用プロセッサ2の種類を入力した場合に、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力するものであってよい。
 学習モデル522はまた、手技レベルに応じて異なる光量及び画像処理パラメータを含む手技情報を出力するものであってもよい。例えば、内視鏡操作者の手技レベルがエキスパートであるときには、学習モデル522は、通常光観察用の白色光による白色光画像の生成に適した光量及び画像処理パラメータを含む手技情報を出力する。手技レベルが初心者であるときには、学習モデル522は、特殊光観察用の照明光により血管等を強調表示する特殊光画像の生成に適した光量及び画像処理パラメータを含む手技情報を出力する。手技レベルが初心者である場合には、制御部21は、出力した光量及び画像処理パラメータに基づき、自動で光源24の制御及び画像処理を実行することが好ましい。学習モデル522は、手技レベルに応じた手技情報を教師データに用いて学習することにより、各手技レベルに適した手技情報を出力とすることができる。
 半導体光源を含む光源24を備える内視鏡用プロセッサ2を用いる場合において、内視鏡操作者が経験の長いエキスパートであるときには、従来のキセノンランプによる内視鏡画像の方が観察しやすい場合がある。学習モデル522は、手技レベルに応じて、キセノンランプによる内視鏡画像に近い画像の生成に適した光量及び画像処理パラメータを含む手技情報を出力するものであってもよい。なお制御部21は、学習モデル522の出力データと、光量及び画像処理パラメータとの対応情報を格納するデータベース(不図示)を記憶部22に記憶してもよい。制御部21は、当該データベースから読み出した光量及び画像処理パラメータに基づく変換処理を実行することにより、内視鏡操作者に適した画像を生成してもよい。
 上述の処理において、学習モデル522に入力する内視鏡画像と、表示装置3に表示される内視鏡画像とは異なるものであってよい。例えば、制御部21は、学習モデル522から出力される次段階の光量及び画像処理パラメータに基づく処理を実行し、内視鏡操作者が目視しやすい状態にした表示用内視鏡画像を生成する。また、制御部21は、学習モデル522から出力される次段階の光量及び画像処理パラメータとは異なる画像処理パラメータに基づく処理を実行し、学習モデル522による特徴量抽出に適した入力用内視鏡画像を生成する。制御部21は、生成した表示用内視鏡画像を表示装置3へ表示させると共に、入力用内視鏡画像を学習モデル522に入力し、次段階の手技情報を出力する。なお、入力用内視鏡画像は、次段階の光量及び画像処理パラメータに基づく処理が実行されていない画像であればよい。すなわち、入力用内視鏡画像は、新たな画像処理が施されるものに限定されず、内視鏡1の撮像素子から取り込まれた画像データそのものであってもよい。
 本実施形態によれば、内視鏡用プロセッサ2に応じた手技情報が出力されるため、内視鏡操作者の利便性を向上し、好適に手技を支援することができる。
(実施形態13)
 実施形態13では、手技状況に応じて手技情報の出力内容を変更する。図23は、実施形態13の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
 内視鏡用プロセッサ2の制御部21は、撮影装置6から室内画像を取得する(ステップS81)。撮影装置6は、マイクロフォン等の音声入力デバイスを備え、画像データ及び音声データの時間軸を合わせた音声付きの動画像(室内画像)を生成するものであってよい。制御部21は、図13に示したステップS21からステップS24の処理を実行し、学習モデル522により次段階の手技情報を取得する。
 制御部21は、室内画像の音声データを解析する(ステップS82)。制御部21は、解析結果に基づき、対応済みの手技情報を特定する(ステップS83)。具体的には、制御部21は、音声データの解析結果と学習モデル522の出力データ(手技情報)とを比較することにより、解析結果と一致する出力データを特定する。例えば、所定の処置具の準備を指示する内容が音声データに含まれていた場合において、学習モデル522の出力データに同一の処置具が含まれるときは、既に次段階の処置具の準備ができているため、処置具に関する手技情報の表示が不要である。なお、制御部21は、音声データの解析処理による解析結果を取得するものに限定されず、室内画像の画像解析による解析結果を取得してもよい。
 制御部21は、特定した解析結果と一致する出力データ以外の出力データ、すなわち未対応の手技情報と、内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した画面情報を表示装置3を介して表示し(ステップS84)、一連の処理を終了する。
 制御部21は、解析結果と出力データとが一致しない場合において、解析結果の音声データが誤っていると推定されるときは、「〇〇の方がよいですよ」等の、処置具の変更を促す画面情報や合成音声を出力してもよい。音声データに処置具の名称が含まれる場合において、音声データの処置具と、学習モデル522から出力される処置具とが異なる場合には、指示が誤っていると推定される。この場合においては、新たな処置具を強調して提示することで、内視鏡操作者又は補助者の確認漏れを防止することが好ましい。
 本実施形態によれば、学習モデル522を用いて内視鏡室内の状態に応じた情報を出力することで、より好適に手技を支援することができる。
(実施形態14)
 実施形態14では、内視鏡1は飛行時間型(TOF)センサを備え、TOFセンサによる検出値が手技情報に含まれる。実施形態14において、内視鏡1の挿入管11は、対象物までの距離を検出可能なTOFセンサを先端に備えている。内視鏡用プロセッサ2の光源24は、TOFセンサに検出させる赤外光を発する光源を備えている。TOFセンサは、光源24から発光される赤外光が対象物に反射して受光するまでの時間を検出する。TOFセンサを用いることにより、挿入管11の先端から対象物(体内部位)までの距離や、対象物の形状に関するデータを取得することができる。TOFセンサは、検出結果を内視鏡用プロセッサ2に出力する。
 実施形態14の学習モデル522は、TOFセンサによる検出値を含む手技情報と、内視鏡画像とを入力した場合に、次段階の手技情報を出力する。入力される検出値は、TOFセンサによる検出値そのものであってもよく、検出値に基づき得られる対象物(観察部位である病変部)の距離又は形状を示すデータであってもよい。本実施形態によれば、学習モデル522は、TOFセンサによる検出値を含む手技情報に基づき、より精度の高い内視鏡1の先端の操作データを出力することができる。
 今回開示した実施の形態は、全ての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、請求の範囲内での全ての変更及び請求の範囲と均等の範囲が含まれることが意図される。
 210 手技支援システム
 1 内視鏡
 2 内視鏡用プロセッサ
 21 制御部
 22 記憶部
 2P プログラム
 3 表示装置
 4 検出装置
 5 情報処理装置
 51 制御部
 52 記憶部
 5P プログラム
 522 学習モデル
 523 評価モデル
 6 撮影装置
 7 視線検出装置
 

Claims (28)

  1.  内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
     取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルを生成する
     学習モデルの生成方法。
  2.  3Dレーザセンサを用いて前記内視鏡操作者の両腕及び両手の状態データを示す手技情報を取得し、
     前記学習モデルに内視鏡画像と両腕及び両手の状態データを示す手技情報とを入力した場合に、次段階の両腕及び両手の状態データを示す手技情報を出力するよう学習された前記学習モデルを生成する
     請求項1に記載の学習モデルの生成方法。
  3.  前記内視鏡の先端の操作データを示す手技情報を取得し、
     前記学習モデルに内視鏡画像と内視鏡の先端の操作データを示す手技情報とを入力した場合に、次段階の内視鏡の先端の操作データを示す手技情報を出力するよう学習された前記学習モデルを生成する
     請求項1又は請求項2に記載の学習モデルの生成方法。
  4.  前記学習モデルに内視鏡画像と両腕及び両手の状態データを示す手技情報とを入力した場合に、次段階の両腕及び両手の状態データを示す手技情報に基づく画像を出力するよう学習された前記学習モデルを生成する
     請求項1から請求項3のいずれか1項に記載の学習モデルの生成方法。
  5.  前記内視鏡操作者を含む室内画像を撮影する撮影装置から室内画像を取得し、
     取得した内視鏡画像、手技情報及び室内画像と次段階における手技情報とを含む教師データに基づき、前記学習モデルに内視鏡画像、手技情報及び室内画像を入力した場合に、次段階の手技情報を出力するよう学習された前記学習モデルを生成する
     請求項1から請求項4のいずれか1項に記載の学習モデルの生成方法。
  6.  前記内視鏡操作者の視線データを取得し、
     取得した内視鏡画像、手技情報及び視線データと、次段階における手技情報及び視線データとを含む教師データに基づき、前記学習モデルに内視鏡画像、手技情報及び視線データを入力した場合に次段階の手技情報及び視線データを出力するよう学習された前記学習モデルを生成する
     請求項1から請求項5のいずれか1項に記載の学習モデルの生成方法。
  7.  前記内視鏡操作者の前記内視鏡の手技に対する手技レベルに応じて複数種類の前記学習モデルを生成する
     請求項1から請求項6のいずれか1項に記載の学習モデルの生成方法。
  8.  前記内視鏡操作者の体格に応じて複数種類の前記学習モデルを生成する
     請求項1から請求項7のいずれか1項に記載の学習モデルの生成方法。
  9.  前記内視鏡により撮影された内視鏡画像を取得する内視鏡用プロセッサにおける光量及び画像処理に係るパラメータを含む手技情報を取得し、
     前記学習モデルに内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力した場合に、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力するよう学習された前記学習モデルを生成する
     請求項1から請求項8のいずれか1項に記載の学習モデルの生成方法。
  10.  内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
     内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルに、取得した内視鏡画像及び手技情報を入力して、次段階の手技情報を出力する
     処理をコンピュータに実行させるためのプログラム。
  11.  3Dレーザセンサを用いて前記内視鏡操作者の両腕及び両手の状態データを示す手技情報を取得し、
     前記学習モデルに、取得した内視鏡画像と両腕及び両手の状態データを示す手技情報とを入力して、次段階の両腕及び両手の状態データを示す手技情報を出力する
     処理をコンピュータに実行させるための請求項10に記載のプログラム。
  12.  前記内視鏡の先端の操作データを示す手技情報を取得し、
     前記学習モデルに、取得した内視鏡画像と内視鏡の先端の操作データを示す手技情報とを入力して、次段階の内視鏡の先端の操作データを示す手技情報を出力する
     処理をコンピュータに実行させるための請求項10又は請求項11に記載のプログラム。
  13.  前記学習モデルは、内視鏡画像と両腕及び両手の状態データを示す手技情報とを入力した場合に、次段階の両腕及び両手の状態データを示す手技情報に基づく画像を出力するよう学習されており、
     前記内視鏡操作者の両腕及び両手の状態データを示す手技情報を取得し、
     前記学習モデルに、取得した内視鏡画像と両腕及び両手の状態データを示す手技情報とを入力して、次段階の両腕及び両手の状態データを示す手技情報に基づく画像を出力する
     処理をコンピュータに実行させるための請求項10から請求項12のいずれか1項に記載のプログラム。
  14.  前記内視鏡操作者を含む室内画像を撮影する撮影装置から室内画像を取得し、
     内視鏡画像、手技情報及び室内画像と次段階における手技情報とを含む教師データに基づき、内視鏡画像、手技情報及び室内画像を入力した場合に次段階の手技情報を出力するよう学習された前記学習モデルに、取得した内視鏡画像、手技情報及び室内画像を入力して、次段階の手技情報を出力する
     処理をコンピュータに実行させるための請求項10から請求項13のいずれか1項に記載のプログラム。
  15.  前記内視鏡操作者の視線データを取得し、
     内視鏡画像、手技情報及び視線データと、次段階における手技情報及び視線データとを含む教師データに基づき、内視鏡画像、手技情報及び視線データを入力した場合に次段階の手技情報及び視線データを出力するよう学習された前記学習モデルに、取得した内視鏡画像、手技情報及び視線データを入力し、次段階における手技情報及び視線データを出力する
     処理をコンピュータに実行させるための請求項10から請求項14のいずれか1項に記載のプログラム。
  16.  前記内視鏡操作者の前記内視鏡の手技に対する手技レベルを特定し、
     手技レベルに応じて用意された複数種類の前記学習モデルから、特定した前記内視鏡操作者の前記内視鏡の手技に対する手技レベルに対応する学習モデルを選択する
     処理をコンピュータに実行させるための請求項10から請求項15のいずれか1項に記載のプログラム。
  17.  前記手技情報の出力に並行して、前記内視鏡操作者の前記内視鏡の手技に対する手技レベルを特定する
     処理をコンピュータに実行させるための請求項10から請求項16のいずれか1項に記載のプログラム。
  18.  前記内視鏡操作者の体格を特定し、
     前記内視鏡操作者の体格に応じて用意された複数種類の前記学習モデルから、特定した前記内視鏡操作者の体格に対応する学習モデルを選択する
     処理をコンピュータに実行させるための請求項10から請求項17のいずれか1項に記載のプログラム。
  19.  前記内視鏡により撮影された内視鏡画像を取得する内視鏡用プロセッサにおける光量及び画像処理に係るパラメータを含む手技情報を取得し、
     前記学習モデルに、取得した内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力して、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力する
     処理をコンピュータに実行させるための請求項10から請求項18のいずれか1項に記載のプログラム。
  20.  前記内視鏡用プロセッサは半導体光源を備えており、
     前記次段階における光量及び画像処理に係るパラメータを含む手技情報に基づき、キセノンランプを光源に用いた場合の内視鏡画像に近似する内視鏡画像を生成する
     処理をコンピュータに実行させるための請求項19に記載のプログラム。
  21.  前記内視鏡操作者の前記内視鏡の手技に対する手技レベルを特定し、
     特定した前記手技レベルに応じて、第1の前記手技レベルである場合には前記学習モデルから出力される次段階の手技情報を表示し、
     第1の前記手技レベルよりも高い第2の前記手技レベルである場合において、所定の条件を満たすときは、前記学習モデルから出力される次段階の手技情報を表示せず、所定の条件を満たさないときは前記学習モデルから出力される次段階の手技情報を表示する
     処理をコンピュータに実行させるための請求項10から請求項20のいずれか1項に記載のプログラム。
  22.  前記内視鏡操作者を含む室内画像を撮影する撮影装置から室内画像を取得し、
     取得した室内画像に基づき、前記学習モデルから出力される次段階の手技情報のうち対応済みの手技情報を特定し、
     特定した前記対応済みの手技情報を除く前記学習モデルから出力される次段階の手技情報を表示する
     処理をコンピュータに実行させるための請求項10から請求項21のいずれか1項に記載のプログラム。
  23.  被検者の管腔臓器を示す3次元画像上に、次段階の手技情報を重畳して表示する画面情報を出力する
     処理をコンピュータに実行させるための請求項10から請求項22のいずれか1項に記載のプログラム。
  24.  内視鏡画像を撮影する内視鏡と、前記内視鏡を操作する内視鏡操作者の両腕及び両手の状態データを示す手技情報を取得する3Dレーザセンサと、内視鏡用プロセッサとを備え、
     前記内視鏡用プロセッサは、
     前記内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡画像及び前記手技情報を取得する取得部と、
     内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルと、
     前記取得部が取得した内視鏡画像及び手技情報を前記学習モデルに入力して、次段階の手技情報を出力する出力部と
     を備える手技支援システム。
  25.  内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得する取得部と、
     取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力する学習モデルを生成する生成部と
     を備える情報処理装置。
  26.  内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
     取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルを生成する
     処理をコンピュータに実行させるためのプログラム。
  27.  内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
     内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルに、取得した前記内視鏡画像及び前記手技情報を入力して、次段階の手技情報を出力する
     情報処理方法。
  28.  内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得する取得部と、
     内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルと、
     前記取得部が取得した内視鏡画像及び手技情報を前記学習モデルに入力して、次段階の手技情報を出力する出力部と
     を備える内視鏡用プロセッサ。
     
PCT/JP2020/042991 2019-12-05 2020-11-18 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ WO2021111879A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021562557A JP7245360B2 (ja) 2019-12-05 2020-11-18 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
US17/627,327 US20220277461A1 (en) 2019-12-05 2020-11-18 Method for generating learning model and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019220681 2019-12-05
JP2019-220681 2019-12-05

Publications (1)

Publication Number Publication Date
WO2021111879A1 true WO2021111879A1 (ja) 2021-06-10

Family

ID=76221911

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/042991 WO2021111879A1 (ja) 2019-12-05 2020-11-18 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ

Country Status (3)

Country Link
US (1) US20220277461A1 (ja)
JP (1) JP7245360B2 (ja)
WO (1) WO2021111879A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037413A1 (ja) * 2021-09-07 2023-03-16 オリンパス株式会社 データ取得システムおよびデータ取得方法
WO2023053333A1 (ja) * 2021-09-30 2023-04-06 オリンパスメディカルシステムズ株式会社 処理システム及び情報処理方法
WO2023119599A1 (ja) * 2021-12-23 2023-06-29 オリンパスメディカルシステムズ株式会社 医療支援システムおよび医療支援方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115359066B (zh) * 2022-10-24 2022-12-27 岱川医疗(深圳)有限责任公司 用于内窥镜的病灶检测方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027089A (ja) * 1996-07-11 1998-01-27 Fuji Xerox Co Ltd コンピュータ操作支援装置
JP2001000448A (ja) * 1999-06-21 2001-01-09 Hitachi Ltd 手術装置
JP2010108388A (ja) * 2008-10-31 2010-05-13 Konica Minolta Medical & Graphic Inc 情報処理装置
JP2017102755A (ja) * 2015-12-02 2017-06-08 池上通信機株式会社 機械学習支援装置
WO2018211674A1 (ja) * 2017-05-18 2018-11-22 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2018216283A1 (ja) * 2017-05-25 2018-11-29 オリンパス株式会社 集中制御装置及び機器操作方法
WO2019008726A1 (ja) * 2017-07-06 2019-01-10 オリンパス株式会社 管状挿入装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111512A1 (ja) * 2017-12-05 2019-06-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用情報処理装置、および情報処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027089A (ja) * 1996-07-11 1998-01-27 Fuji Xerox Co Ltd コンピュータ操作支援装置
JP2001000448A (ja) * 1999-06-21 2001-01-09 Hitachi Ltd 手術装置
JP2010108388A (ja) * 2008-10-31 2010-05-13 Konica Minolta Medical & Graphic Inc 情報処理装置
JP2017102755A (ja) * 2015-12-02 2017-06-08 池上通信機株式会社 機械学習支援装置
WO2018211674A1 (ja) * 2017-05-18 2018-11-22 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2018216283A1 (ja) * 2017-05-25 2018-11-29 オリンパス株式会社 集中制御装置及び機器操作方法
WO2019008726A1 (ja) * 2017-07-06 2019-01-10 オリンパス株式会社 管状挿入装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037413A1 (ja) * 2021-09-07 2023-03-16 オリンパス株式会社 データ取得システムおよびデータ取得方法
WO2023053333A1 (ja) * 2021-09-30 2023-04-06 オリンパスメディカルシステムズ株式会社 処理システム及び情報処理方法
WO2023119599A1 (ja) * 2021-12-23 2023-06-29 オリンパスメディカルシステムズ株式会社 医療支援システムおよび医療支援方法

Also Published As

Publication number Publication date
US20220277461A1 (en) 2022-09-01
JP7245360B2 (ja) 2023-03-23
JPWO2021111879A1 (ja) 2021-06-10

Similar Documents

Publication Publication Date Title
WO2021111879A1 (ja) 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
US20230190244A1 (en) Biopsy apparatus and system
JP7308936B2 (ja) インジケータシステム
JP5676058B1 (ja) 内視鏡システム及び内視鏡システムの作動方法
US9662042B2 (en) Endoscope system for presenting three-dimensional model image with insertion form image and image pickup image
JP5771757B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
CN108990412A (zh) 补偿生理噪声的用于腔网络导航的机器人系统
JP7323647B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法及びプログラム
CN105491936B (zh) 胶囊型内窥镜系统
JP2020156800A (ja) 医療用アームシステム、制御装置、及び制御方法
CN111067468B (zh) 用于控制内窥镜系统的方法、设备及存储介质
WO2020165978A1 (ja) 画像記録装置、画像記録方法および画像記録プログラム
US11871904B2 (en) Steerable endoscope system with augmented view
JPWO2015046152A1 (ja) 内視鏡システム
JPWO2019130868A1 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JPWO2014148184A1 (ja) 内視鏡システム
US20220218180A1 (en) Endoscope insertion control device, endoscope insertion control method, and non-transitory recording medium in which endoscope insertion control program is recorded
US20220096164A1 (en) Systems and methods for facilitating optimization of an imaging device viewpoint during an operating session of a computer-assisted operation system
US20220322917A1 (en) Endoscope processor, endoscope, and endoscope system
WO2022054498A1 (ja) 医療用アーム制御システム、医療用アーム装置、医療用アームの制御方法及びプログラム
EP4191565A1 (en) Endoscope image processing device
US20240057847A1 (en) Endoscope system, lumen structure calculation system, and method for creating lumen structure information
WO2023053333A1 (ja) 処理システム及び情報処理方法
JP2022029274A (ja) 情報処理装置、プログラム、学習モデル及び学習モデルの生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20895578

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021562557

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20895578

Country of ref document: EP

Kind code of ref document: A1