WO2021014584A1 - プログラム、情報処理方法及び情報処理装置 - Google Patents

プログラム、情報処理方法及び情報処理装置 Download PDF

Info

Publication number
WO2021014584A1
WO2021014584A1 PCT/JP2019/028894 JP2019028894W WO2021014584A1 WO 2021014584 A1 WO2021014584 A1 WO 2021014584A1 JP 2019028894 W JP2019028894 W JP 2019028894W WO 2021014584 A1 WO2021014584 A1 WO 2021014584A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
deterioration
image
amount
images
Prior art date
Application number
PCT/JP2019/028894
Other languages
English (en)
French (fr)
Inventor
伶 佐藤
Original Assignee
Hoya株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya株式会社 filed Critical Hoya株式会社
Priority to US17/298,275 priority Critical patent/US20220095889A1/en
Priority to JP2019569984A priority patent/JP6704095B1/ja
Priority to PCT/JP2019/028894 priority patent/WO2021014584A1/ja
Publication of WO2021014584A1 publication Critical patent/WO2021014584A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • This technology relates to programs, information processing methods and information processing devices.
  • Computer-aided diagnosis technology has been developed that automatically detects lesion sites using a learning model from medical images such as endoscopic images.
  • a method of generating a learning model by supervised machine learning using teacher data with a correct answer label is known.
  • a learning method that combines the first learning using images taken with a normal endoscope as teacher data and the second learning using images taken with a capsule endoscope as teacher data.
  • a learning model to be learned is disclosed (for example, Patent Document 1).
  • Patent Document 1 outputs information on lesions such as polyps and tumors as diagnostic support based on the input image, but outputs information on lesions at the present time when the image is taken. There is a problem that diagnostic support from the viewpoint of how the condition of the target affected area will change in the future is not considered.
  • the purpose is to provide a program that provides diagnostic support from the perspective of future changes in the target site of the subject.
  • the program according to one aspect of the present disclosure acquires a plurality of images taken by an endoscope with an endoscope after a predetermined period of time, and based on the acquired images, the future of an internal part included in the plurality of images. Let the computer perform the process of estimating the state of.
  • the information processing method acquires a plurality of images taken by an endoscope after a predetermined period of time, and based on the acquired plurality of images, a future internal part included in the plurality of images. Have the computer perform the process of estimating the state.
  • the information processing apparatus includes an acquisition unit that acquires a plurality of images taken by an endoscope after a predetermined period of time, and an internal part included in the plurality of images based on the acquired plurality of images. It is equipped with an estimation unit that estimates the future state of.
  • FIG. It is a schematic diagram which shows the outline of the diagnosis support system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the configuration example of the endoscope apparatus included in a diagnosis support system. It is a block diagram which shows the configuration example of the information processing apparatus included in the diagnosis support system. It is explanatory drawing which illustrates the data layout of the inspection result DB. It is explanatory drawing about the graph which shows the deterioration estimation line. It is a flowchart which shows an example of the processing procedure by the control part of an information processing apparatus. It is explanatory drawing about the generation processing of the peristalsis amount trained model which concerns on Embodiment 2. It is explanatory drawing about the generation processing of the deterioration amount trained model.
  • FIG. 1 is a schematic diagram showing an outline of the diagnosis support system S according to the first embodiment.
  • the diagnostic support system S includes an endoscope device 10 and an information processing device 6 communicatively connected to the endoscope device 10.
  • the endoscope device 10 transmits an image (captured image) captured by the imaging element of the endoscope to the endoscope processor 20, and the endoscope processor 20 performs gamma correction, white balance correction, shading correction, and the like. By performing various image processing, an endoscopic image that is easy for the operator to see is generated.
  • the endoscope device 10 may generate three-dimensional map data (three-dimensional texture-mapped data reflecting the inner diameter of the body cavity) based on the further generated endoscope image.
  • the endoscope device 10 outputs (transmits) these generated endoscope images and three-dimensional map data to the information processing device 6.
  • the information processing device 6 that has acquired the endoscope image and the three-dimensional map data transmitted from the endoscope device 10 performs various information processing based on the endoscope image or the three-dimensional map data, and is related to diagnostic support. Output information.
  • FIG. 2 is a block diagram showing a configuration example of the endoscope device 10 included in the diagnosis support system S.
  • FIG. 3 is a block diagram showing a configuration example of the information processing device 6 included in the diagnosis support system S.
  • the endoscope device 10 includes an endoscope processor 20, an endoscope 40, and a display device 50.
  • the display device 50 is, for example, a liquid crystal display device or an organic EL (Electro Luminescence) display device.
  • the display device 50 is installed on the upper stage of the storage shelf 16 with casters.
  • the endoscope processor 20 is housed in the middle stage of the storage shelf 16.
  • the storage shelf 16 is arranged in the vicinity of an endoscopy bed (not shown).
  • the storage shelf 16 has a pull-out shelf on which the keyboard 15 connected to the endoscope processor 20 is mounted.
  • the endoscope processor 20 has a substantially rectangular parallelepiped shape and is provided with a touch panel 25 on one surface.
  • a reading unit 28 is arranged at the bottom of the touch panel 25.
  • the reading unit 28 is a connection interface for reading and writing a portable recording medium such as a USB connector, an SD (Secure Digital) card slot, or a CD-ROM (Compact Disc Read Only Memory) drive.
  • the endoscope 40 has an insertion unit 44, an operation unit 43, a light guide flexible tube 49, and a scope connector 48.
  • the operation unit 43 is provided with a control button 431.
  • the insertion portion 44 is long and one end thereof is connected to the operation portion 43 via the folding portion 45.
  • the insertion portion 44 has a soft portion 441, a curved portion 442, and a tip portion 443 in this order from the operation portion 43 side.
  • the bending portion 442 bends in response to the operation of the bending knob 433.
  • Physical detection devices such as a 3-axis acceleration sensor, a gyro sensor, a geomagnetic sensor, or a magnetic coil sensor are mounted on the insertion unit 44, and when the endoscope 40 is inserted into the body of the subject, the physical detection devices are used. The detection result of the above may be acquired.
  • the light guide flexible tube 49 is long, and the first end is connected to the operation unit 43 and the second end is connected to the scope connector 48.
  • the light guide flexible tube 49 is flexible.
  • the scope connector 48 has a substantially rectangular parallelepiped shape.
  • the scope connector 48 is provided with an air supply water supply port 36 (see FIG. 2) for connecting an air supply water supply tube.
  • the endoscope device 10 includes an endoscope processor 20, an endoscope 40, and a display device 50.
  • the endoscope processor 20 includes a control unit 21, a main storage device 22, an auxiliary storage device 23, a communication unit 24, a display device I / F (Interface) 26, and an input device I /. It includes an F27, an endoscope connector 31, a light source 33, a pump 34, and a bus.
  • the endoscope connector 31 includes an electrical connector 311 and an optical connector 312.
  • the control unit 21 is an arithmetic control device that executes the program of the present embodiment.
  • One or more CPUs Central Processing Units
  • GPUs Graphics Processing Units
  • multi-core CPUs and the like are used for the control unit 21.
  • the control unit 21 is connected to each hardware unit constituting the endoscope processor 20 via a bus.
  • the main storage device 22 is, for example, a storage device such as a SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), or a flash memory.
  • the main storage device 22 temporarily stores information necessary in the middle of processing performed by the control unit 21 and a program being executed by the control unit 21.
  • the auxiliary storage device 23 is, for example, a storage device such as a SRAM, a flash memory, or a hard disk, and is a storage device having a larger capacity than the main storage device 22.
  • the acquired captured image, the generated endoscopic image, or the three-dimensional map data may be stored as intermediate data.
  • the communication unit 24 is a communication module or communication interface for communicating with an information processing device via a network by wire or wirelessly, and is, for example, a narrow-range wireless communication module such as wifi (registered trademark) or Bluetooth (registered trademark), or It is a wide area wireless communication module such as 4G and LTE.
  • the touch panel 25 includes a display unit such as a liquid crystal display panel and an input unit laminated on the display unit.
  • the display device I / F 26 is an interface that connects the endoscope processor 20 and the display device 50.
  • the input device I / F27 is an interface for connecting the endoscope processor 20 and an input device such as a keyboard 15.
  • the light source 33 is a high-intensity white light source such as a xenon lamp.
  • the light source 33 is connected to the bus via a driver (not shown).
  • the lighting, extinguishing, and changing of the brightness of the light source 33 are controlled by the control unit 21.
  • the illumination light emitted from the light source 33 is incident on the optical connector 312.
  • the optical connector 312 engages with the scope connector 48 to supply illumination light to the endoscope 40.
  • the pump 34 generates pressure for the air supply / water supply function of the endoscope 40.
  • the pump 34 is connected to the bus via a driver (not shown).
  • the on / off and pressure change of the pump 34 are controlled by the control unit 21.
  • the pump 34 is connected to the air supply water supply port 36 provided in the scope connector 48 via the water supply tank 35.
  • a fiber bundle, a cable bundle, an air supply tube, a water supply tube, and the like are inserted inside the scope connector 48, the light guide flexible tube 49, the operation unit 43, and the insertion unit 44.
  • the illumination light emitted from the light source 33 is radiated from the illumination window provided at the tip portion 443 via the optical connector 312 and the fiber bundle.
  • the range illuminated by the illumination light is photographed by an image sensor provided at the tip portion 443.
  • the captured image is transmitted from the image sensor to the endoscope processor 20 via the cable bundle and the electric connector 311.
  • the control unit 21 of the endoscope processor 20 functions as an image processing unit and a distance derivation unit by executing a program stored in the main storage device 22.
  • the image processing unit performs various image processing such as gamma correction, white balance correction, and shading correction on the image (photographed image) output from the endoscope, and outputs the image as an endoscopic image.
  • the distance derivation unit derives distance information from the image pickup element (the image pickup element provided at the tip portion 443) to the internal part (organ inner wall) based on the endoscopic image or the photographed image.
  • the distance information can be derived by using, for example, monocular distance image estimation, TOF (Time of Flight) method, pattern irradiation method, or the like.
  • TOF Time of Flight
  • the self-position of the image sensor may be estimated, and the distance between the image sensor and the target body part may be derived.
  • the distance information deriving unit is, for example, a 3-axis accelerometer, a gyro sensor, a geomagnetic sensor, a magnetic coil sensor, or a mouthpiece with an insertion amount detection function mounted on the insertion unit 44 of the endoscope 40.
  • the data from the physical detection system device such as the above may be processed in association with the captured image, or may be used in combination with the radiographic image.
  • the image processing unit further acquires the distance information derived by the distance information derivation unit, performs three-dimensional texture mapping reflecting the inner diameter of the body cavity based on the distance information and the converted image, and generates three-dimensional map data. To do.
  • the generated 3D map data includes the 3D coordinates of the internal part included in the captured image.
  • the image processing unit may paste the image texture by using conversion processing such as affine transformation and projective transformation.
  • the information processing device 6 includes a control unit 62, a communication unit 61, a storage unit 63, and an input / output I / F 64.
  • the control unit 62 has an arithmetic processing device having a timing function such as one or a plurality of CPUs (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), and is stored in the storage unit 63. By reading and executing the program P, various information processing, control processing, and the like related to the information processing unit 6 are performed.
  • the control unit 62 may be composed of a chip for a quantum computer, and the information processing device 6 may be a quantum computer.
  • the storage unit 63 includes a volatile storage area such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), and flash memory, and a non-volatile storage area such as EEPROM or hard disk.
  • the storage unit 63 stores the program P and the data to be referred to at the time of processing in advance.
  • the program P stored in the storage unit 63 may be a program P read from the recording medium 632 that can be read by the information processing apparatus 6. Further, the program P may be downloaded from an external computer (not shown) connected to a communication network (not shown) and stored in the storage unit 63.
  • an entity file (instance file of a neural network (NN)) constituting the peristaltic amount learned model 91, the deterioration amount learned model 92, and the corrected deterioration amount learned model 93, which will be described later, is stored. These entity files may be configured as one part of the program P.
  • the storage unit 63 stores the inspection result DB631 (DataBase) described later.
  • the communication unit 61 is a communication module or communication interface for communicating with the endoscope device 10 by wire or wirelessly, and is, for example, a narrow-range wireless communication module such as wifi (registered trademark) or Bluetooth (registered trademark), or 4G. , LTE and other wide area wireless communication modules.
  • a narrow-range wireless communication module such as wifi (registered trademark) or Bluetooth (registered trademark), or 4G. , LTE and other wide area wireless communication modules.
  • the input / output I / F64 conforms to a communication standard such as USB or DSUB, and is a communication interface for serial communication with an external device connected to the input / output I / F64.
  • a display unit 7 such as a display and an input unit 8 such as a keyboard are connected to the input / output I / F 64, and the control unit 62 provides information performed based on an execution command or event input from the input unit 8. The processing result is output to the display unit 7.
  • FIG. 4 is an explanatory diagram illustrating the data layout of the inspection result DB631.
  • the inspection result DB 631 is stored in the storage unit 63 of the information processing device 6, and is composed of database management software such as RDBMS (Relational DataBase Management System) mounted on the information processing device 6.
  • RDBMS Relational DataBase Management System
  • the test result DB631 includes, for example, a subject master table and an image table, and the subject master table and the image table are associated with each other by a subject ID, which is an item (metadata) included in both tables. It is set.
  • the subject master table includes, for example, subject ID, gender, date of birth, age, BMI (Body Mass Index) and nationality as management items (meta data).
  • ID information is stored in the item (field) of the subject ID in order to uniquely identify the subject who has undergone endoscopy.
  • the gender and date of birth items (fields) store the biological attributes of the subject ID's gender and date of birth, and the age item (field) is the current age calculated by the date of birth. Is stored.
  • the BMI and nationality store information on the BMI value and nationality of the subject ID.
  • the image table includes, for example, the subject ID, the examination date and time, the endoscopic image, the three-dimensional map data, and the amount of deterioration from the previous examination as management items (metadata).
  • the item (field) of the subject ID is for associating with the biological attribute of the subject managed in the subject master table, and the value of the ID of each subject is stored. ..
  • the item (field) of the examination date and time the date and time when the subject with the subject ID has undergone endoscopy is stored.
  • the endoscopic image of the subject ID is stored as object data.
  • the item (field) of the endoscopic image may store information indicating the storage location (file path) of the endoscopic image saved as a file.
  • the three-dimensional map data of the subject ID is stored as object data.
  • the item (field) of the three-dimensional map data may store information indicating the storage location (file path) of the three-dimensional map data saved as a file.
  • information on the amount of deterioration of a predetermined internal part based on the comparison between the current test and the previous test is stored.
  • the deterioration amount may be stored by storing the value of the deterioration amount in each of the plurality of internal parts in, for example, an array format.
  • the amount of deterioration for each pixel in the endoscopic image may be stored and stored in an array format on a pixel-by-pixel basis.
  • FIG. 5 is an explanatory diagram regarding a graph showing a deterioration estimation line.
  • the information processing device 6 estimates the future state of an internal part included in the plurality of images based on the plurality of images (time-series images) taken after a predetermined period of time acquired, and is shown in FIG.
  • the graph showing the deterioration estimation line is a graph showing the estimation result.
  • the horizontal axis of the graph showing the deterioration estimation line shows the time, and the vertical axis shows the current and past deterioration amounts and the future deterioration amount (expected deterioration value).
  • three deterioration amounts are plotted based on past and present inspections. Based on these past and present deterioration amounts, an approximate line indicating the deterioration amount (expected deterioration value) in the future is displayed as the expected deterioration amount.
  • the information processing device 6 is an image such as an endoscope image and distance information (or an endoscope image on which the distance information is superimposed) or three-dimensional map data output by the endoscope processor 20 (an image obtained by this inspection). And the image in the past inspection corresponding to the image (image by the past inspection) is acquired with reference to the inspection result DB631.
  • These current and past images are images related to the results of the same subject, and the information processing device 6 is a plurality of images (time-series images) taken after a predetermined period based on the current and past images. ) Will be acquired. It is desirable that there are a plurality of images obtained by the past inspection, but the number of images may be one.
  • the information processing device 6 extracts the feature amount based on the image obtained by this inspection.
  • the feature amount identifies a site in the body where a lesion is suspected now or in the future, and the amount of deterioration is derived using, for example, edge detection, pattern recognition, or a learned model such as a neural network described later. It may be something to do.
  • the information processing device 6 provides the position information or shape information (including size) of the internal part corresponding to the feature amount in the endoscopic image or the three-dimensional map data on which the distance information is superimposed. It may be stored in the storage unit 63. Alternatively, the information processing apparatus 6 has a frame number of an image in which the internal part corresponding to the feature amount is photographed and information (pixel number, coordinates in the image coordinate system) regarding the region of the internal part in the frame (still image) of the image. ) May be stored in the storage unit 63. Further, the information processing apparatus 6 may store in the storage unit 63 information (values of each pixel element) regarding the color of the internal portion corresponding to the extracted feature amount as the information regarding the extracted feature amount.
  • the information processing device 6 extracts a part (feature amount in the past image) corresponding to the feature amount (feature amount in the present image) extracted from the image obtained by the present inspection from each of the plurality of images obtained by the present inspection.
  • the information processing device 6 extracts the difference (difference information of the feature amount) due to each of the adjacent feature amounts in the time series in the extracted current and past feature amounts.
  • the information processing device 6 derives the amount of deterioration of the internal part specified by the feature amount based on the difference information of the extracted feature amount.
  • the information processing device 6 is based on the amount of change in the color (difference in the value of the pixel element), the position or the shape (including the size) of the internal part specified by the extracted feature amount in the difference information.
  • the amount of deterioration may be derived.
  • the information processing device 6 may derive the amount of deterioration by using a learned model such as a neural network described later.
  • inspection 3 is the amount of deterioration in this inspection, and is derived based on the difference information of the feature amount between this time and the previous time.
  • Inspection 2 is the amount of deterioration in the previous inspection, and is derived based on the difference information of the feature amount between the previous inspection and the previous inspection.
  • Inspection 1 is the amount of deterioration in the inspection two times before, and is derived based on the difference information of the feature amount between the two times before and three times before.
  • the information processing apparatus 6 generates a graph showing a deterioration estimation line shown in FIG. 5 based on a plurality of derived deterioration amounts by using, for example, a linear approximation method or a nonlinear approximation method, and outputs the graph to the display unit 7.
  • the information processing device 6 can derive (estimate) the amount of deterioration at an arbitrary time point in the future based on the deterioration estimation line.
  • the estimated amount of deterioration is information related to the future health condition of the subject, and can be used as support information for diagnosis by a doctor or the like.
  • FIG. 6 is a flowchart showing an example of a processing procedure by the control unit 62 of the information processing device 6.
  • the information processing device 6 starts processing the flowchart based on the input contents from the input unit 8 connected to the own device, for example.
  • the control unit 62 of the information processing device 6 acquires an endoscope image or the like output from the endoscope processor 20 (S11).
  • the control unit 62 acquires a captured image, an endoscope image (endoscope image on which distance information is superimposed), a three-dimensional map data, and a subject ID output from the endoscope processor 20. To do.
  • the control unit 62 of the information processing device 6 derives the feature amount from the acquired endoscopic image or the like (S12).
  • the control unit 62 of the information processing apparatus 6 refers to the inspection result DB631 based on the acquired subject ID, and acquires a past endoscopic image or the like (S13).
  • the control unit 62 of the information processing device 6 derives the difference information of the feature amount (S14).
  • the control unit 62 obtains the difference information of these feature amounts based on the acquired feature amount of the current endoscopic image and the feature amount of the past endoscopic image corresponding to the feature amount (current feature amount). Derived.
  • the control unit 62 of the information processing device 6 derives the current and past deterioration amounts based on the difference information (S15).
  • the control unit 62 derives the amount of deterioration based on the amount of change in the color, shape, etc. of the internal part specified by the feature amount included in the difference information.
  • the control unit 62 of the information processing device 6 derives a deterioration prediction line based on the current and past deterioration amounts (S16).
  • the control unit 62 derives a deterioration prediction line based on the current and past deterioration amounts, that is, a plurality of deterioration amounts arranged in a time series, for example, by using a method of linear approximation or non-linear approximation.
  • the control unit 62 of the information processing device 6 derives the expected deterioration value after the elapse of a predetermined period (S17). Based on the derived deterioration prediction line, the control unit 62 derives the deterioration prediction value at one or a plurality of time points after the lapse of a predetermined period from the present time (the time of this inspection).
  • FIG. 7 is an explanatory diagram relating to the generation process of the peristaltic amount trained model 91.
  • the information processing device 6 of the second embodiment is different from the first embodiment in that the correction process is performed by using a learned model such as the peristaltic amount learned model 91 in deriving the deterioration amount.
  • the information processing device 6 receives the endoscopic image and the distance information as input by learning based on the teacher data in which the endoscopic image and the distance information are used as problem data and the correction amount of the peristaltic amount is used as the response data. Build (generate) a neural network that outputs the correction amount of.
  • the neural network learned using the teacher data is expected to be used as a program P module that is a part of artificial intelligence software.
  • the peristaltic amount-learned model 91 is used in the information processing device 6 including the control unit 62 (CPU or the like) and the storage unit 63, and is thus used in the information processing device 6 having arithmetic processing capability.
  • a neural network system is constructed. That is, a calculation in which the control unit 62 of the information processing device 6 extracts the feature amount of the endoscopic image and the distance information input to the input layer according to the command from the peristaltic amount learned model 91 stored in the storage unit 63. Is performed, and the output layer operates to output the correction amount of the peristaltic amount.
  • the input layer has a plurality of neurons that receive input of pixel value and distance information of each pixel included in the endoscopic image, and passes the input pixel value and distance information to the intermediate layer.
  • the intermediate layer has a plurality of neurons for extracting image features of an endoscopic image, and passes the extracted image features and the active state of the neurons based on the input distance information to the output layer.
  • the peristaltic amount trained model is CNN
  • the intermediate layer is a pooling that maps (compresses) the pixel values convolved by the convolution layer with the convolution layer that convolves the pixel values of each pixel input from the input layer.
  • the output layer has one or more neurons that output information on the amount of correction of the amount of peristalsis in the internal part included in the endoscopic image, and the peristalsis is based on the amount of image features output from the intermediate layer. Outputs information about the amount of correction.
  • the output information regarding the correction amount of the peristaltic amount is used as information for correcting the vertical arrangement of the organ surface (internal part) in the three-dimensional map data, for example.
  • the data input to the peristaltic amount learned model 91 is described as an endoscopic image, but the present invention is not limited to this.
  • the data input to the peristaltic amount-learned model 91 may be a captured image captured by the image sensor. That is, the peristalsis amount-learned model 91 may output information regarding the correction amount of the peristalsis amount by inputting the captured image and the distance information.
  • the peristaltic amount trained model 91 is described as being a neural network (NN) such as CNN, but the peristaltic amount trained model 91 is not limited to the NN, and is not limited to the NN, but is an SVM (Support Vector Machine), a Bayesian network, and the like. It may be a trained model constructed by another learning algorithm such as a regression tree.
  • NN neural network
  • SVM Small Vector Machine
  • Bayesian network Bayesian network
  • the information processing device 6 compares the value output from the output layer with the information labeled for the teacher data (endoscopic image and distance information) (correction amount of peristaltic amount), that is, the correct answer value (answer data). Then, the parameters used for the arithmetic processing in the intermediate layer are optimized so that the output value from the output layer approaches the correct answer value.
  • the parameters include, for example, the weight between neurons (coupling coefficient), the coefficient of the activation function used in each neuron, and the like.
  • the method of optimizing the parameters is not particularly limited, but for example, the information processing apparatus 6 optimizes various parameters by using the backpropagation method.
  • the information processing device 6 performs the above processing on the endoscopic image and the distance information included in the teacher data, generates a peristaltic amount learned model 91, and stores the generated peristaltic amount learned model 91 in the storage unit 63. ..
  • Endoscopic images and distance information used as teacher data and information on the amount of perturbation that correlates with these information (answer data) are large amounts of data as a result of endoscopy performed at each medical institution.
  • answer data information on the amount of perturbation that correlates with these information
  • FIG. 8 is an explanatory diagram regarding the generation process of the deterioration amount trained model 92.
  • the information processing device 6 provides a neural network that inputs the difference information and the biometric information and outputs the deterioration amount by learning based on the teacher data that uses the difference information and the biometric information as problem data and the deterioration amount as the answer data.
  • the difference information is information derived by the difference information derivation unit 624 (see FIG. 10) described later, and is generated based on the three-dimensional map data generated based on the current endoscopic image and the past endoscopic image. It is derived based on the difference from the obtained 3D map data.
  • the biological information includes the age of the subject and is derived by referring to the test result DB631 based on the subject ID that identifies the subject. The derivation of this information will be described later.
  • the input layer has a plurality of neurons that receive input of difference information and biometric information, and passes the input difference information and biometric information to the intermediate layer.
  • the intermediate layer has a single-phase or multi-layer structure consisting of, for example, a single or a plurality of fully connected layers, and each of the plurality of neurons contained in the fully connected layer is activated or activated based on the input difference information and biological information values. Outputs information indicating deactivation.
  • the output layer has one or more neurons that output information on the amount of deterioration of internal parts contained in the endoscopic image, and is based on the information that indicates activation or deactivation of each neuron output from the intermediate layer. , Output the amount of deterioration.
  • the information processing device 6 optimizes the parameters used for the arithmetic processing in the intermediate layer of the deterioration amount trained model 92, similarly to the peristalsis amount trained model 91.
  • the deterioration amount trained model 92 is expected to be used as a program P module which is a part of artificial intelligence software like the peristaltic amount trained model 91. Further, the deterioration amount trained model 92 is not limited to the NN like the peristalsis amount trained model 91, and may be a trained model constructed by another learning algorithm such as SVM.
  • the endoscopic image and distance information that are the original data for deriving these data are each. It is stored in large quantities as data as a result of endoscopy performed at medical institutions. Therefore, by using these result data, it is possible to generate a large amount of teacher data for learning the deterioration amount trained model 92.
  • FIG. 9 is an explanatory diagram relating to the generation process of the corrected deterioration amount learned model 93.
  • the information processing device 6 inputs the deterioration prediction line by learning based on the teacher data in which the deterioration prediction line (value of the parameter of the deterioration prediction line) is used as the problem data and the correction amount of the deterioration prediction line is used as the answer data.
  • the deterioration line is information derived by the deterioration prediction line derivation unit 625 (see FIG. 10), which will be described later, and is derived based on the current and past deterioration amounts.
  • the input layer has a plurality of neurons that accept the input of the deterioration prediction line (the parameter value of the deterioration prediction line), and passes each of the input deterioration prediction line parameter values to the intermediate layer.
  • the intermediate layer has a single-phase or multi-layer structure consisting of, for example, a single or multiple fully connected layers, and each of the plurality of neurons contained in the fully connected layer is activated based on the input parameter values of the deterioration prediction line. Alternatively, information indicating deactivation is output.
  • the output layer has one or more neurons that output information about the correction amount of the deterioration prediction line, and outputs the correction amount based on the information indicating the activation or deactivation of each neuron output from the intermediate layer. ..
  • the information processing device 6 optimizes the parameters used for the arithmetic processing in the intermediate layer of the corrected deterioration amount learned model 93, similarly to the peristaltic amount learned model 91.
  • the corrected deterioration amount trained model 93 is expected to be used as a program P module which is a part of artificial intelligence software like the peristaltic amount trained model 91.
  • the corrected deterioration amount trained model 93 is not limited to the NN as in the peristaltic amount trained model 91, and may be a trained model constructed by another learning algorithm such as SVM.
  • the endoscopic image and distance information that are the original data for deriving these data are A large amount of data is stored as the result data of endoscopy performed at each medical institution. Therefore, by using these result data, it is possible to generate a large amount of teacher data for learning the corrected deterioration amount trained model 93.
  • FIG. 10 is a functional block diagram illustrating a functional unit included in the control unit 62 of the information processing device 6 or the like.
  • the control unit 21 of the endoscope processor 20 (endoscope device 10) functions as an image processing unit 211 and a distance information derivation unit 212 by executing the program P stored in the main storage device 22.
  • the control unit 62 of the information processing device 6 executes the acquisition unit 621, the peristalsis amount correction unit 622, the feature amount derivation unit 623, the difference information derivation unit 624, and the deterioration prediction. It functions as a line derivation unit 625 and a deterioration expected value derivation unit 626.
  • control unit 62 executes the program P stored in the storage unit 63, or reads the actual file constituting the trained model such as the perturbation amount trained model 91, so that the perturbation amount trained model 91, it functions as a deterioration amount trained model 92 and a correction deterioration amount trained model 93.
  • the distance information derivation unit 212 derives distance information from the image pickup element (the image pickup element provided at the tip portion 443) to the internal part (organ inner wall) based on the endoscopic image or the photographed image.
  • the image processing unit 211 performs various image processing such as gamma correction, white balance correction, and shading correction on the image (photographed image) output from the endoscope, and outputs the image as an endoscope image. Further, the distance information derived by the distance information derivation unit 212 is acquired, and three-dimensional texture mapping is performed based on the distance information and the converted image to generate three-dimensional map data. The image processing unit 211 outputs (transmits) the acquired or generated captured image, endoscopic image, distance information, and three-dimensional map data to the information processing device 6. The image processing unit 211 may superimpose the distance information on the endoscopic image or the captured image and output it to the information processing device 6. The image processing unit 211 further outputs the subject ID input from the keyboard 15 to the information processing device 6.
  • image processing unit 211 further outputs the subject ID input from the keyboard 15 to the information processing device 6.
  • the acquisition unit 621 acquires the endoscope image, captured image, distance information, three-dimensional map data, and subject ID output by the endoscope processor 20, and acquires the endoscope image and distance information (or distance).
  • the endoscopic image on which the information is superimposed) is output to the perturbation amount trained model 91, and the three-dimensional map data is output to the perturbation amount correction unit 622.
  • the acquisition unit 621 outputs the acquired subject ID to the difference information derivation unit 624.
  • the peristalsis learning model 91 inputs the endoscopic image and distance information output from the acquisition unit 621 to the input layer, and outputs the peristalsis correction amount output from the output layer to the peristalsis correction unit 622. ..
  • the peristalsis amount correction unit 622 corrects the three-dimensional map data output from the acquisition unit 621 based on the peristalsis amount correction amount output from the peristalsis amount learned model 91. Since the three-dimensional map data is corrected based on the correction amount of the peristaltic amount, the distance change noise due to the peristaltic motion can be canceled (excluded).
  • the peristaltic amount correction unit 622 outputs the corrected three-dimensional map data to the feature amount derivation unit 623 and the difference information derivation unit 624.
  • the feature amount derivation unit 623 derives, for example, a feature amount for identifying an internal part suspected of having a lesion from the surface shape, color information, etc. of the three-dimensional map data corrected by the peristalsis amount correction unit 622, and derives the feature amount.
  • the amount is output to the difference information derivation unit 624.
  • the feature quantity deriving unit 623 may derive a plurality of feature quantities from the three-dimensional map data.
  • the difference information derivation unit 624 refers to the inspection result DB631 based on the acquired subject ID, and acquires the three-dimensional map data which is the past (previous) inspection result of the subject ID. Based on the acquired feature unit, the difference information derivation unit 624 performs an overlay process using the three-dimensional map data acquired from the peristaltic amount correction unit 622 and the previous three-dimensional map data to obtain the surface of the organ (internal part). , Its shape, saturation on the color space, hue, and difference information including feature quantity difference values of lightness are derived. The difference information derivation unit 624 outputs the derived difference information and information on biological attributes such as the age of the subject specified by the subject ID to the deterioration amount learned model 92.
  • the deterioration amount learned model 92 inputs the difference information output from the difference information derivation unit 624 and information on biological attributes such as age specified by the subject ID into the input layer, and the deterioration output from the output layer.
  • the amount (deterioration amount in this inspection) is output to the deterioration prediction line derivation unit 625.
  • the deterioration prediction line derivation unit 625 refers to the inspection result DB631 based on the subject ID, and acquires a plurality of deterioration amounts in the past inspection of the subject.
  • the deterioration prediction line deriving unit 625 derives the deterioration prediction line based on the acquired current deterioration amount and a plurality of past deterioration amounts. For example, when the deterioration prediction line is derived by a straight line (linear approximation), the deterioration prediction line deriving unit 625 uses the least squares method based on the acquired current deterioration amount and a plurality of past deterioration amounts. Good.
  • the deterioration prediction line deriving unit 625 may derive the deterioration prediction line by using various methods such as a logarithmic approximation curve, a polynomial approximation curve, a power approximation curve, or an exponential approximation curve.
  • the deterioration prediction line derivation unit 625 outputs the derived deterioration prediction line (parameter of the deterioration prediction line) to the corrected deterioration amount learned model 93 and the deterioration prediction value derivation unit 626.
  • the correction deterioration amount trained model 93 inputs the deterioration prediction line (parameter of the deterioration prediction line) output from the deterioration prediction line derivation unit 625 to the input layer, and the correction amount output from the output layer is the deterioration prediction value derivation unit. Output to 626.
  • the derivation of the correction amount is not limited to the case of using the correction deterioration amount learned model 93, and is derived based on, for example, biological attributes such as the age of the subject, and physical condition information such as body temperature or heart rate at the time of examination. It may be a thing.
  • the correction coefficient determined based on these biological attributes and physical condition information is stored in the storage unit 63 in, for example, a table format, and the information processing device 6 (control unit 62) stores the inspection result DB 631 or the endoscope processor.
  • the correction coefficient is derived based on the biological attribute or physical condition information of the subject obtained from 20 mag. Then, the information processing apparatus 6 may correct the parameter of the deterioration prediction line based on the derived correction coefficient.
  • the deterioration prediction value derivation unit 626 corrects the deterioration prediction line output by the deterioration prediction line derivation unit 625 based on the correction amount output by the correction deterioration amount learned model 93.
  • the deterioration expected value derivation unit 626 derives one or a plurality of future deterioration amounts (deterioration amount expected value) after a lapse of a predetermined period from the present time based on the corrected deterioration expected line.
  • the deterioration expected value derivation unit 626 outputs information including the derived deterioration amount expected value to the display unit 7 of the display or the like.
  • the deterioration prediction value derivation unit 626 derives diagnostic support information such as an image that visualizes the deterioration prediction value based on the deterioration amount prediction value, warning information determined based on the deterioration prediction value, or improvement plan information, and outputs the diagnosis support information to the display unit 7. Then, these information may be displayed on the display unit 7.
  • each functional unit in the series of processing has been described separately for each functional unit by the control unit 21 of the endoscope processor 20 and each functional unit by the control unit 62 of the information processing device 6.
  • the division of these functional units is an example, and is not limited to this. Even if the control unit 21 of the endoscope processor 20 functions as all the functional units performed by the control unit 62 of the information processing device 6, including the trained model such as the peristaltic amount trained model 91. Good. That is, the endoscope processor 20 may substantially include the information processing device 6.
  • the control unit 21 of the endoscope processor 20 only outputs the captured image captured by the image pickup device, and the control unit 62 of the information processing device 6 functions as all the functional units that perform subsequent processing. It may be a thing.
  • the control unit 21 of the endoscope processor 20 and the control unit 62 of the information processing device 6 cooperate with each other to function as each functional unit in a series of processes by performing interprocess communication, for example. There may be.
  • FIG. 11 is an explanatory diagram relating to the three-dimensional map data generated based on the image of the internal part.
  • the control unit 21 of the endoscope processor 20 generates three-dimensional map data based on the photographed image or the endoscope image and the distance information from the image sensor to the inner wall of the organ.
  • the display screen including the generated three-dimensional map data is displayed on the display device of the endoscope device 10 or the display unit 7 of the information processing device 6.
  • 3D texture mapping reflecting the inner diameter of the body cavity is performed by superimposing the distance information and the feature amount extracted from the photographed image including the organ surface or the endoscopic image. Further, in the 3D map data, distance information including the distance (distance from the image sensor) or position (coordinates on the 3D map) of the surface of the organ specified based on the feature amount is displayed as an annotation. There may be.
  • FIG. 12 is an explanatory diagram regarding a graph showing a deterioration estimation line.
  • the deterioration prediction value derivation unit 626 corrects the deterioration estimation line derived by the deterioration prediction line derivation unit 625 based on the correction amount output from the correction deterioration amount learned model 93, and corrects the deterioration estimation line. Derived.
  • the horizontal axis of the graph showing the deterioration estimation line shows the time
  • the vertical axis shows the current and past deterioration amounts and the future deterioration amount (expected deterioration value).
  • three deterioration amounts are plotted based on past and present inspections. Based on these past and present deterioration amounts, an approximate line indicating the deterioration amount (expected deterioration value) in the future is displayed as the expected deterioration amount.
  • the estimated value of the deterioration prediction line changes based on the correction amount output from the corrected deterioration amount learned model 93.
  • the correction amount is derived based on information on biological attributes such as the age of the subject, and the correction deterioration amount learned model 93 also inputs information on these biological attributes to the input layer in the future. The accuracy of the amount of deterioration can be improved.
  • the deterioration expected value derivation unit 626 is based on the derived deterioration expected line (corrected deterioration expected line), and the deterioration amount (deterioration amount at one or a plurality of time points after a predetermined period has elapsed from the present time (the time of this inspection) The amount of deterioration at multiple time points in the future) can be derived.
  • FIG. 13 is a flowchart showing an example of a processing procedure by the control unit 62 of the information processing device 6.
  • FIG. 14 is a flowchart showing an example of a processing procedure for deriving diagnostic support information by the control unit 62 of the information processing device 6.
  • the information processing device 6 starts processing the flowchart based on the input contents from the input unit 8 connected to the own device, for example.
  • the flowchart in the present embodiment shows the endoscope processor 20 which is a prerequisite process for the information processing device 6 to acquire an endoscope image or the like from the endoscope device 10 (endoscope processor 20). Including the processing of.
  • the control unit 62 of the endoscope processor 20 acquires a captured image output from the image pickup device (S01).
  • the control unit 62 of the endoscope processor 20 acquires the subject ID input from the keyboard 15 (S02).
  • the control unit 62 of the endoscope processor 20 derives distance information from the image pickup device to the image pickup target surface (internal part) (S03). When deriving the distance information, the control unit 62 of the endoscope processor 20 further acquires the detection result data output from the physical detection device, and acquires the distance information based on the detection result data and the captured image. There may be. The control unit 62 of the endoscope processor 20 stores the captured image and the distance information in association with each other (S04).
  • the control unit 62 of the endoscope processor 20 processes the captured image and generates an endoscope image (S05).
  • the control unit 62 of the endoscope processor 20 performs various image processing such as affine transformation, projective transformation, gamma correction, white balance correction, and shading correction to improve the visibility of the operator. To generate.
  • the control unit 62 of the endoscope processor 20 generates three-dimensional map data (S06).
  • the control unit 62 of the endoscope processor 20 performs three-dimensional texture mapping that reflects the inner diameter of the body cavity. Even if the control unit 62 of the endoscope processor 20 performs three-dimensional texture mapping by superimposing distance information on a target internal part and a feature amount extracted from an endoscopic image including an organ surface. Good.
  • the control unit 62 of the endoscope processor 20 may interpolate using the detection data from the physical detection device described above when performing the three-dimensional texture mapping.
  • the control unit 62 of the endoscope processor 20 outputs the generated or acquired distance information, the endoscope image, the three-dimensional map data, and the subject ID, and transmits them to the information processing device 6 (S07).
  • the control unit 62 of the endoscope processor 20 may further output a captured image captured by the image pickup device and transmit it to the information processing device 6.
  • the control unit 62 of the endoscope processor 20 may superimpose the distance information on the endoscope image and transmit it to the information processing device 6.
  • the control unit 62 of the information processing device 6 acquires an endoscope image or the like output from the endoscope processor 20 (S100).
  • the control unit 62 acquires a captured image, an endoscope image (endoscope image on which distance information is superimposed), a three-dimensional map data, and a subject ID output from the endoscope processor 20.
  • the control unit 62 may store the acquired captured image, endoscopic image, three-dimensional map data, and subject ID in the inspection result DB631.
  • the control unit 62 of the information processing device 6 performs peristaltic motion correction processing on the three-dimensional map data (S101).
  • the control unit 62 inputs the endoscopic image (distance information and the endoscopic image) on which the distance information is superimposed to the peristalsis amount-learned model 91, and based on the correction amount output by the peristalsis amount-learned model 91, 3 Peristaltic motion correction processing such as correction of the vertical arrangement of the visceral wall surface is performed on the dimensional map data.
  • the control unit 62 of the information processing device 6 derives the feature amount from the corrected three-dimensional map data (S102).
  • the control unit 62 derives a feature amount from the surface shape, color information, and the like of the corrected three-dimensional map data.
  • the control unit 62 of the information processing device 6 refers to the inspection result DB631 based on the acquired subject ID, and acquires the past three-dimensional map data (S103).
  • the control unit 62 of the information processing apparatus 6 derives the difference information of the feature amount in the three-dimensional map data by superimposing the current and past three-dimensional map data (S104).
  • S104 current and past three-dimensional map data
  • the control unit 62 of the information processing device 6 derives the current and past deterioration amounts based on the difference information and the biological attributes (S105).
  • the control unit 62 inputs the derived difference information and the biological attributes acquired by searching the test result DB631 by the subject ID into the deterioration amount learned model 92, and the deterioration amount output by the deterioration amount learned model 92. (Current amount of deterioration) is acquired.
  • the control unit 62 searches the inspection result DB631 by the subject ID and acquires the past deterioration amount of the subject.
  • the control unit 62 derives the current and past deterioration amounts by acquiring from the deterioration amount learned model 92 and the inspection result DB631 in this way.
  • the control unit 62 of the information processing device 6 derives a deterioration prediction line based on the current and past deterioration amounts (S106).
  • the control unit 62 derives a deterioration prediction line by using a method of linear approximation or nonlinear approximation based on the current and past deterioration amounts, respectively.
  • the control unit 62 of the information processing device 6 performs correction processing for the expected deterioration line (S107).
  • the control unit 62 inputs the derived deterioration prediction line (parameter of the deterioration prediction line) into the corrected deterioration amount learned model 93, and acquires the correction amount of the deterioration prediction line output by the correction deterioration amount learned model 93.
  • the control unit 62 corrects the derived deterioration prediction line (parameter of the deterioration prediction line) based on the correction amount acquired from the model 93 for which the correction deterioration amount has been learned.
  • the correction coefficient determined based on the biological attribute and physical condition information of the subject is stored in the storage unit 63 in, for example, a table format (correction coefficient table), and the control unit 62 is stored in the storage unit 63.
  • the correction coefficient for correcting the deterioration expected line may be derived by referring to the correction coefficient table. That is, the control unit 62 derives the correction coefficient by referring to the correction coefficient table based on the biological attribute or physical condition information of the subject acquired from the inspection result DB631 or the endoscope processor 20 or the like, and obtains the correction coefficient. It may be used to perform correction processing of the deterioration prediction line (parameter of the deterioration prediction line).
  • the correction coefficient used for the deterioration prediction line may be variable for each time point in the future predicted by the deterioration prediction line according to the elapsed time from the present time. That is, the correction coefficient includes the elapsed time from the present time as a variable (time variable), and the value of the correction coefficient is changed according to the elapsed time from the present time, and the deterioration prediction line (parameter of the deterioration prediction line) is changed. ) May be corrected. For example, by setting the correction coefficient (k2) for a time point in the near future to a smaller value than the correction coefficient (k1) for a time point in the near future. As the elapsed time from the present time increases, the degree of influence of the correction coefficient may be reduced to narrow the fluctuation range of the error.
  • the control unit 62 of the information processing device 6 derives the expected deterioration value after the elapse of a predetermined period (S108). Based on the corrected deterioration prediction line, the control unit 62 derives the deterioration prediction value at one or a plurality of time points after the lapse of a predetermined period from the present time (the time of this inspection).
  • the control unit 62 of the information processing device 6 outputs diagnostic support information (notification information) based on the expected deterioration value (S109). Based on the predicted deterioration value, the control unit 62 derives, for example, an image that visualizes the predicted deterioration value, warning information determined based on the predicted deterioration value, or diagnostic support information such as improvement plan information as notification information, and the notification The information is output and displayed on the display unit 7.
  • the storage unit 63 stores, for example, a diagnosis support DB (not shown) in which warning information or improvement plan information is associated with the expected deterioration value and the biological attribute, and the control unit 62 stores the diagnosis. With reference to the support DB, warning information or improvement plan information determined based on the expected deterioration value is derived.
  • the diagnostic support information such as warning information or improvement plan information determined based on the predicted deterioration value may be derived by comparing the predicted deterioration predicted value with a predetermined deterioration threshold value. When the predicted deterioration predicted value is smaller than the deterioration threshold value, the control unit 62 may derive information indicating that there is no problem such as no finding as diagnostic support information. In performing the process of S109, the control unit 62 derives the diagnostic support information according to the process flow of the flowchart shown in FIG.
  • the control unit 62 of the information processing device 6 acquires the deterioration threshold value (S1091).
  • the deterioration threshold is stored in the storage unit 63 of the information processing device 6 in a table format, for example, in association with information on biological attributes such as the age and sex of the subject and a target internal part.
  • the deterioration threshold value may include a plurality of stages, that is, a plurality of deterioration threshold values based on the lesion stage. As an example, the severity of the lesion stage increases as the value of the deterioration threshold increases.
  • the control unit 62 acquires the deterioration threshold value by deriving the deterioration threshold value with reference to the storage unit 63, for example, based on the biological attributes such as the age and sex of the subject and the internal part to be the target of the deterioration amount. ..
  • the control unit 62 of the information processing device 6 determines whether or not the expected deterioration value is larger than the deterioration threshold value (S1092). As described above, when the deterioration threshold value includes a plurality of deterioration threshold values based on the lesion stage, the control unit 62 compares the deterioration threshold value (minimum deterioration threshold value) of the smallest value with the deterioration prediction value, and determines the deterioration prediction value. Determines whether or not is larger than the deterioration threshold (minimum deterioration threshold).
  • the control unit 62 of the information processing apparatus 6 acquires diagnostic support information according to the stage of the expected deterioration value (S1093).
  • the control unit 62 specifies a deterioration threshold value that most closely resembles the expected deterioration value among the plurality of deterioration threshold values based on the lesion stage.
  • Each of the plurality of deterioration thresholds is associated with each lesion stage, and the control unit 62 identifies the lesion stage corresponding to the expected deterioration value according to the stage of the deterioration threshold based on the specified deterioration threshold. Alternatively, the control unit 62 identifies the lesion stage corresponding to the predicted deterioration value based on the range in which the predicted deterioration value is located in the individual range determined by the plurality of deterioration threshold values based on the lesion stage. It may be.
  • the storage unit 63 of the information processing device 6 stores diagnostic support information according to each lesion stage.
  • the diagnostic support information when the lesion stage is mild is the improvement plan information that encourages regular exercise.
  • Diagnostic support information when the lesion stage is moderate is advisory information indicating that a detailed examination is required.
  • the diagnostic support information when the lesion stage is severe is warning information suggesting treatment by hospitalization or the like.
  • the control unit 62 of the information processing device 6 outputs the acquired diagnostic support information (S1094).
  • the control unit 62 outputs diagnostic support information such as improvement plan information, recommendation information, and warning information according to each lesion stage.
  • the control unit 62 of the information processing apparatus 6 When the expected deterioration value is not larger than the deterioration threshold value (minimum deterioration threshold value), that is, when the expected deterioration value is equal to or less than the deterioration threshold value (minimum deterioration threshold value) (S1092: NO), the control unit 62 of the information processing apparatus 6 has a problem. The fact that there is no such information (no findings) is output as diagnostic support information (S1095).
  • the control unit 62 of the information processing device 6 outputs insurance support information based on the expected deterioration value (S110).
  • the control unit 62 derives insurance support information such as an insurance grade or an estimated insurance premium based on the expected deterioration value, and displays it on the display unit 7.
  • the storage unit 63 stores, for example, an insurance support DB (not shown) in which an insurance grade or an estimated insurance premium is associated with the expected deterioration value and the biological attribute, and the control unit 62 stores the insurance. With reference to the support DB, the insurance grade or estimated insurance premium, etc., which is determined based on the expected deterioration value, is derived.
  • the derivation of the feature amount in the photographed internal part is performed by the three-dimensional map data, but the present invention is not limited to this.
  • the control unit 62 may derive a feature amount based on an endoscope image or a captured image acquired from the endoscope processor 20.
  • FIG. 15 is a flowchart showing an example of a processing procedure related to the generation process of the peristaltic amount learned model 91 by the control unit 62 of the information processing device 6.
  • the control unit 62 of the information processing device 6 acquires teacher data (S120).
  • the teacher data uses the endoscopic image and the distance information as problem data and the correction amount of the perturbation amount as the response data, and the correction amount of the perturbation amount is used for the endoscopic image and the distance information.
  • Labeled data The amount of peristaltic correction labeled in the endoscopic image and distance information is, for example, how the imaged part (internal part) in the endoscopic image is peristaltic from the periodicity of the distance change in the distance information.
  • the amount may be specified based on a judgment by a doctor or the like as to whether the peristaltic movement is a normal physiological reaction.
  • Endoscopic images and distance information which are the original data of such teacher data, are stored in large quantities as the result data of endoscopy performed at each medical institution, and by using these result data, the movement A large amount of teacher data for training the quantitatively trained model 91 can be generated.
  • the control unit 62 of the information processing device 6 generates the peristaltic amount learned model 91 (S121). Using the acquired teacher data, the control unit 62 constructs (generates) a peristaltic amount trained model 91 that inputs an endoscopic image and distance information and outputs a corrected amount of the peristaltic amount.
  • the peristaltic amount trained model 91 is a neural network
  • the parameters used for the arithmetic processing in the intermediate layer are optimized by using, for example, the backpropagation method.
  • the control unit 62 of the information processing device 6 acquires the teacher data corresponding to each of the trained models of the deterioration amount trained model 92 and the correction deterioration amount trained model 93, respectively, as in the perturbation amount trained model 91. Generate a trained model of.
  • the information processing apparatus 6 acquires a plurality of images taken by an endoscope after a predetermined period of time, and based on the acquired plurality of images and the like, a body portion included in the plurality of images. Estimate the future state. Therefore, in order to estimate the future state of the body part of the subject based on a plurality of images taken by the endoscope after a predetermined period and including the predetermined body part, the future of the subject part of the subject. It is possible to provide diagnostic support from the perspective of changes in the image.
  • the image acquired by the information processing apparatus 6 is not limited to the captured image captured by the imaging element, and is an endoscopic image obtained by subjecting the captured image to image processing, or distance information from the captured image and the imaging element. Includes 3D model data generated based on.
  • the information processing apparatus 6 estimates a plurality of states of the internal parts included in the acquired plurality of images for each predetermined elapsed period in the future. Therefore, the estimation can provide information on future lesion transitions in the body site as diagnostic support.
  • the information processing device 6 outputs notification information (diagnosis support information) based on the estimated future state of the internal part. Since the information processing device 6 outputs notification information (diagnosis support information) including the degree of alerting according to the stage of the lesion in the state, based on the estimated future state of the internal part, more efficient diagnosis is made. Information that contributes to support can be output.
  • the information processing apparatus 6 derives the difference data by each image included in the plurality of images, that is, the data regarding the amount of change between the images, and based on the difference data, determines the future state of the internal part. Since the estimation is performed, the accuracy of the estimation can be improved.
  • the information processing apparatus 6 generates three-dimensional map data based on the distance information and the image of the internal part, and estimates the future state of the internal part based on the three-dimensional map data.
  • the accuracy of estimation can be improved by using the numerical information in the distance information.
  • the information processing apparatus 6 derives information on the peristaltic movement of the internal part included in the image based on the acquired image, and based on the information on the peristaltic movement of the internal part, the three-dimensional map.
  • the noise component due to the peristaltic movement of the internal part can be removed, and the estimation accuracy can be improved. Since the information processing device 6 uses the peristaltic amount learned model 91 in performing the correction, the correction accuracy can be improved.
  • the information processing device 6 derives the amount of deterioration in the internal part based on the three-dimensional map data generated from each of the plurality of images.
  • the information processing apparatus 6 performs a superposition process of the three-dimensional map data obtained by this inspection and the three-dimensional map data obtained from the previous result (past inspection), and performs an internal part (organ surface).
  • Features amount difference value (difference information) in shape, saturation, etc. is derived. Since the information processing device 6 inputs this difference information into the deterioration amount learned model 92 to acquire the deterioration amount, the accuracy of the derived deterioration amount can be improved. Further, since the information processing device 6 estimates the future state of the internal part based on the deterioration prediction line generated by the derived deterioration amount, the estimation accuracy can be improved.
  • the information processing apparatus 6 corrects the derived deterioration amount based on the information on the biological attributes of the subject, so that the estimation accuracy can be improved.
  • the biological attribute includes information on the biological attribute such as age and gender in the subject, for example. Since the information processing device 6 uses the correction deterioration amount learned model 93 when performing the correction, the correction accuracy can be improved.
  • FIG. 16 is an explanatory diagram relating to the generation process of the difference-learned model 94 according to the third embodiment.
  • the information processing device 6 inputs a plurality of time-series difference information by learning based on teacher data in which a plurality of time-series difference information is used as problem data and the difference information at a plurality of time points in the future is used as response data. , Build (generate) a neural network that outputs difference information at multiple time points in the future.
  • the multiple difference information according to the time series is the time from the past to the present time (predetermined time point) in the predetermined internal part (internal part specified based on the feature amount extracted from the endoscopic image) of the same subject. It means multiple difference information by series.
  • the difference information at a plurality of time points in the future means the difference information at a plurality of time points in the future such as the runner-up point with respect to the present time point (predetermined time point) and the runner-up points after the runner-up point.
  • the difference information corresponds to a state derived from an endoscopic image (a state amount of a predetermined internal part).
  • the input layer has a single or a plurality of neurons that receive a plurality of difference information according to a time series, and passes each of the input difference information to the intermediate layer.
  • the middle layer contains an autoregressive layer containing multiple neurons.
  • the autoregressive layer is implemented as, for example, an RSTM (Long Short Term Memory) model, and a neural network including such an autoregressive layer is called an RNN (recurrent neural network).
  • the intermediate layer outputs the amount of change due to each of the plurality of difference information sequentially input in chronological order.
  • the output layer has one or more neurons for the difference information at a plurality of time points in the future, and outputs the difference information at a plurality of time points in the future based on the amount of change due to each of the plurality of difference information output from the intermediate layer. ..
  • Such learning for RNN is performed using, for example, a BPTT (Backpropagation Through Time / chronological backpropagation) algorithm.
  • the teacher data may be stored in an array format.
  • the teacher data is in an array format, for example, the value of each element of the sequence number 0 to 4 (t-4 to t) is used as the problem data, and the element of the sequence number 5 to 7 (t + 1 to t + 3) is used.
  • the value of may be used as the response data.
  • the time-series problem data (t-2, t-1, t) input from the input layer is sequentially passed to the LSTM (autoregressive layer), and the LSTM (autoregressive layer) outputs the output value to the output layer and , By outputting to its own layer, it is possible to process series information including temporal changes and orders.
  • FIG. 17 is a functional block diagram illustrating a functional unit included in the control unit 62 of the information processing device 6 or the like.
  • the control unit 62 functions as the difference information derivation unit 624 by executing the program P stored in the storage unit 63.
  • the control unit 62 functions as the difference-learned model 94 by executing the program P stored in the storage unit 63 or by reading the entity file constituting the difference-learned model 94.
  • the difference information derivation unit 624 performs a superposition process using the three-dimensional map data acquired from the peristaltic amount correction unit 622 and the previous three-dimensional map data in the same manner as in the second embodiment, and obtains the surface of the organ (internal part). Difference information (difference information of this inspection) including the feature amount difference values of the shape, saturation on the color space, hue, and lightness is derived.
  • the difference information derivation unit 624 refers to the inspection result DB631 based on the subject ID, acquires the three-dimensional map data in the past inspection of the subject, and based on the acquired three-dimensional map data in the past inspection. , Derived the difference information of the past inspection.
  • the difference information derivation unit 624 generates a plurality of difference information in time series from the past to the present (at the time of this inspection) based on the derived current and past difference information, and the difference trained model 94 and deterioration prediction. Output to the value derivation unit 626.
  • the difference-learned model 94 inputs a plurality of time-series difference information to the input layer, and outputs the difference information at a plurality of future time points output from the output layer to the deterioration prediction value derivation unit 626.
  • the deterioration expected value derivation unit 626 derives a plurality of deterioration amounts from the past to the future based on the acquired difference information of the present time and the past and the difference information at a plurality of time points in the future, and deteriorates based on the plurality of deterioration amounts. Derivation of the forecast line. In deriving the deterioration prediction line, the deterioration amount learned model 92 and the corrected deterioration amount learned model 93 may be used as in the second embodiment.
  • the deterioration prediction value derivation unit 626 derives the amount of deterioration at one or a plurality of time points after a predetermined period has elapsed from the present time (the time of this inspection) based on the deterioration prediction line derived in the same manner as in the second embodiment. .. Further, the deterioration expected value derivation unit 626 may derive and output diagnostic support information such as improvement plan information based on the derived future deterioration amount.
  • FIG. 18 is a flowchart showing an example of a processing procedure by the control unit 62 of the information processing device 6.
  • the information processing device 6 starts processing the flowchart based on the input contents from the input unit 8 connected to the own device, for example.
  • the control unit 62 of the information processing device 6 acquires an endoscopic image or the like (S200).
  • the control unit 62 acquires the endoscope image, the three-dimensional map data, and the subject ID from the endoscope device 10 as in the second embodiment.
  • the control unit 62 of the information processing device 6 acquires a past endoscopic image or the like (S201).
  • the control unit 62 refers to the inspection result DB631 based on the subject ID, and acquires the past endoscopic image and the three-dimensional map data of the subject.
  • the control unit 62 of the information processing device 6 acquires a plurality of difference information in time series based on current and past endoscopic images and the like (S202).
  • the control unit 62 superimposes each of the three-dimensional map data generated from the endoscopic image to perform the difference due to the adjacent three-dimensional map data in time series. Derive information.
  • the control unit 62 may derive the difference information based on the endoscopic image.
  • the control unit 62 of the information processing device 6 inputs a plurality of difference information in time series into the difference learning model 94, and acquires a plurality of future difference information (S203).
  • the control unit 62 of the information processing apparatus 6 derives a plurality of deterioration amounts in time series based on a plurality of difference states in the past, present, and future (S204).
  • the control unit 62 is based on a plurality of time-series difference information (difference information from the past to the present) derived in the process of S202 and a plurality of future difference information output by the difference-learned model 94, from the past to the future. Derivation of multiple deterioration amounts over time.
  • the control unit 62 of the information processing device 6 derives a deterioration prediction line (S205).
  • the control unit 62 derives a deterioration prediction line by using a method of linear approximation or curve approximation based on a plurality of deterioration amounts in time series from the past to the future.
  • the control unit 62 of the information processing device 6 derives the expected deterioration value after the elapse of a predetermined period (S206).
  • the control unit 62 derives one or a plurality of expected deterioration values after a predetermined period has elapsed in the future based on the expected deterioration line.
  • the control unit 62 of the information processing device 6 outputs diagnostic support information based on the expected deterioration value (S207).
  • the control unit 62 of the information processing device 6 outputs insurance support information based on the expected deterioration value (S208).
  • the control unit 62 outputs the diagnosis support information and the insurance support information based on the expected deterioration value as in the second embodiment.
  • the information processing apparatus 6 when the information processing apparatus 6 inputs difference data derived from three-dimensional map data generated based on a plurality of past images taken in time series by an endoscope, the information processing apparatus 6 will be used in the future. It is possible to efficiently generate a difference-learned model 94 that outputs a plurality of time-series difference data. Further, since the information processing device 6 efficiently derives the difference information in the future by using the difference-learned model 94 and derives the deterioration amount based on each of the derived difference information, the deterioration amount in the future The estimation accuracy of can be improved.
  • the state derived from the endoscopic image (state amount of a predetermined internal part) has been described based on the difference information, but the present invention is not limited to this.
  • the state derived from the endoscopic image (state amount of a predetermined internal part) may be due to the deterioration amount.
  • the information processing device 6 inputs a plurality of time-series deterioration amounts by learning based on teacher data in which a plurality of time-series deterioration amounts are used as problem data and the deterioration amounts at a plurality of time points in the future are used as response data.
  • a neural network (deterioration amount trained model) that outputs the deterioration amount at a plurality of time points in the future may be constructed (generated).
  • the information processing device 6 inputs the deterioration amount derived from the acquired plurality of endoscopic images into the deterioration amount trained model, acquires a plurality of time-series deterioration amounts in the future, and acquires a plurality of acquired future deterioration amounts.
  • the future state of the internal part included in the plurality of images may be estimated based on the amount of deterioration of the time series.
  • FIG. 19 is an explanatory diagram relating to the generation process of the endoscopic image-learned model 95 according to the fourth embodiment.
  • the information processing device 6 learns based on teacher data in which a plurality of endoscopic images in a time series are used as problem data and the endoscopic image of the next point of the last data in the time series is used as answer data.
  • a neural network is constructed (generated) in which a plurality of time-series endoscopic images are input and the endoscopic images of the next point are output.
  • the plurality of time-series endoscopic images which are teacher data, are a plurality of time-series endoscopic images in a predetermined body part for each subject, and each of the past examinations performed by a plurality of times. It is generated based on a plurality of endoscopic images taken in.
  • the next-point endoscopic image which is the answer data, is an endoscopic image at the next-point (next time) of the last data in the time series in the problem data.
  • the data (t + 1) Corresponds to.
  • the response data is not limited to a single data, and may include a plurality of data, that is, a plurality of endoscopic images serving as a next point (t + 1) and a next point (t + 2).
  • the input layer has a single or a plurality of neurons that accept a plurality of endoscopic images in chronological order, and passes the plurality of input endoscopic images to the intermediate layer.
  • the intermediate layer forms a multilayer structure in which a CNN and an RNN in which an autoregressive layer is provided after the convolutional layer and the pooling layer are connected.
  • the features of each endoscopic image input in time series are extracted by the convolution layer and the pooling layer.
  • the autoregressive layer outputs the amount of change in each of the extracted features.
  • the output layer has one or more neurons, and generates and outputs a next-point endoscopic image based on the amount of change in the feature amount of each endoscopic image output from the intermediate layer. Learning for a neural network having a connected structure with CNN and RNN is performed, for example, by combining an error backpropagation method (Backpropagation) and a BPTT (Backpropagation Through Time).
  • FIG. 20 is an explanatory diagram relating to the generation process of the lesion-learned model 96.
  • the information processing device 6 inputs the endoscopic image as input by learning based on the teacher data using the endoscopic image as the problem data and the presence / absence of the lesion and the stage of the symptom as the response data, and the presence / absence of the lesion and the symptom.
  • Endoscopic images include, for example, internal sites where lesions are suspected.
  • the presence or absence of a lesion and the stage of the symptom are information regarding the stage of the lesion and the symptom regarding an internal part included in the endoscopic image.
  • the input layer has a plurality of neurons that receive input of pixel values of the endoscopic image, and passes the input pixel values and distance information to the intermediate layer.
  • the intermediate layer has a plurality of neurons for extracting the image features of the endoscopic image, and the extracted image features are passed to the output layer.
  • the output layer has one or more neurons that output information on the presence or absence of lesions and the stage of symptoms, and outputs information on the presence or absence of lesions and the stage of symptoms based on the image features output from the intermediate layer. ..
  • the lesion-learned model 96 may be a CNN like the peristalsis-learned model 91.
  • FIG. 21 is a functional block diagram illustrating a functional unit included in the control unit 62 of the information processing device 6 or the like.
  • the control unit 62 functions as the acquisition unit 621 by executing the program P stored in the storage unit 63.
  • the control unit 62 learns the endoscopic image by executing the program P stored in the storage unit 63, or by reading out an entity file that constitutes a learned model such as the endoscopic image trained model 95. It functions as a completed model 95 and a lesion-learned model 96.
  • the acquisition unit 621 acquires the endoscope image and the subject ID output by the endoscope processor 20 as in the first embodiment.
  • the acquisition unit 621 refers to the examination result DB631 based on the subject ID, and acquires a plurality of endoscopic images obtained by the past examination of the subject.
  • the acquisition unit 621 extracts a feature amount from the surface shape, color information, etc. based on the endoscope image (endoscope image of this inspection) output by the endoscope processor 20, and corresponds to the feature amount. Identify endoscopic images that include internal parts (sites with suspected lesions).
  • the specified endoscopic image (specific endoscopic image) may be, for example, one frame (still image) or a moving image of several frames of the endoscopic image including the internal part.
  • the acquisition unit 621 is in the specific area in the past plurality of endoscopic images (endoscopic images obtained by the past multiple examinations).
  • the endoscopic image (past specific endoscopic image) corresponding to the endoscopic image is specified.
  • the acquisition unit 621 generates object array data in which a plurality of specific endoscopic images, which are time series from the past to the present time, are each element in the array, based on the present and past specific endoscopic images.
  • the acquisition unit 621 inputs a plurality of specific endoscopic images (object array data) which are generated time series into the endoscopic image trained model 95.
  • the endoscope image trained model 95 inputs a plurality of specific endoscope images, which are time series output from the acquisition unit 621, to the input layer, and the runner-up point (the last in the time series) output from the output layer.
  • a specific endoscopic image (next point of the specific endoscopic image located in) is generated and output to the lesion-learned model 96.
  • the specific endoscopic image output from the endoscopic image trained model 95 is presumed as a specific endoscopic image including an internal part (a part where a lesion is suspected) in the future.
  • the lesion-learned model 96 inputs the specific endoscopic image output from the endoscopic image-learned model 95 into the input layer, and provides lesion estimation information such as the presence or absence of lesions and the stage of symptoms output from the output layer. Output to the display unit 7.
  • FIG. 22 is a flowchart showing an example of a processing procedure by the control unit 62 of the information processing device 6.
  • the information processing device 6 starts processing the flowchart based on the input contents from the input unit 8 connected to the own device, for example.
  • the control unit 62 of the information processing device 6 acquires an endoscopic image or the like (S300).
  • the control unit 62 acquires the endoscope image and the subject ID from the endoscope device 10 as in the second embodiment.
  • the control unit 62 of the information processing device 6 acquires a past endoscopic image or the like (S301).
  • the control unit 62 refers to the inspection result DB631 based on the subject ID, and acquires the past endoscopic images of the subject.
  • the control unit 62 of the information processing device 6 extracts a plurality of current and past endoscopic images including the feature amount (S302).
  • the control unit 62 extracts a feature amount from surface shape or color information from a plurality of current and past endoscopic images, and an endoscopic image including an internal part (a part where a lesion is suspected) corresponding to the feature amount. (Specific endoscopic image) is specified.
  • the control unit 62 of the information processing device 6 inputs a plurality of current and past endoscopic images into the endoscopic image-learned model 95 and acquires future endoscopic images (S303).
  • the control unit 62 generates, for example, object array data consisting of a plurality of specific endoscopic images in chronological order from a plurality of identified current and past endoscopic images (specific endoscopic images), and the object array thereof.
  • the data is input to the endoscopic image trained model 95.
  • the control unit 62 acquires a future endoscopic image (specific endoscopic image) output by the endoscopic image-learned model 95.
  • the control unit 62 of the information processing device 6 inputs a future endoscopic image into the lesion-learned model 96 and acquires lesion estimation information (S304).
  • the control unit 62 inputs a future endoscopic image (specific endoscopic image) into the lesion-learned model 96, and acquires lesion estimation information such as the presence or absence of a lesion and the stage of symptoms output by the lesion-learned model 96. To do.
  • the control unit 62 of the information processing device 6 outputs lesion estimation information (S305).
  • the control unit 62 outputs the acquired lesion estimation information such as the presence / absence of a lesion and the stage of the symptom to the display unit 7 such as a display. Similar to the second embodiment, the control unit 62 derives diagnostic support information such as improvement proposals or insurance support information such as estimated insurance premiums based on the lesion estimation information, and outputs the information to the display unit 7. Good.
  • the information processing apparatus 6 has already learned the endoscopic image that outputs the future endoscopic image when the past endoscopic images taken by the endoscope in time series are input.
  • the model 95 can be generated efficiently. Further, the information processing apparatus 6 efficiently derives an endoscopic image in the future by using the endoscopic image trained model 95, and based on the derived future endoscopic image, the presence or absence of a lesion or the like is determined. Since the lesion estimation information is derived, the estimation accuracy of the lesion estimation information can be improved.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Endoscopes (AREA)

Abstract

プログラムは、コンピュータに、内視鏡により所定期間を経て撮影した複数の画像を取得し、取得した前記複数の画像に基づいて、前記複数の画像に含まれる体内部位の将来の状態を推定する処理をコンピュータに実行させる。

Description

プログラム、情報処理方法及び情報処理装置
 本技術は、プログラム、情報処理方法及び情報処理装置に関する。
 内視鏡画像等の医用画像から、学習モデルを使用して病変部位を自動的に検出するコンピュータ支援診断技術が開発されている。正解ラベルが付与された教師データを用いた教師あり機械学習により、学習モデルを生成する手法が知られている。
 通常の内視鏡で撮影された画像群を教師データに用いた第1の学習と、カプセル内視鏡で撮影された画像群を教師データに用いた第2の学習とを組み合わせる学習方法にて学習される学習モデルが、開示されている(例えば、特許文献1)。
国際公開第2017/175282号
 しかしながら、特許文献1に記載の学習モデルは、入力された画像に基づき、ポリープや腫瘍等の病変に関する情報を診断支援として出力するが、画像を撮影した現時点における病変に関する情報を出力するものであり、対象患部の状態が将来的にどのように変化するかに関する観点からの診断支援については、考慮されていないという問題点がある。
 一つの側面では、被検者の対象部位における将来的な変化に関する観点からの診断支援を行うプログラム等を提供することを目的とする。
 本開示の一態様におけるプログラムは、コンピュータに、内視鏡により所定期間を経て撮影した複数の画像を取得し、取得した前記複数の画像に基づいて、前記複数の画像に含まれる体内部位の将来の状態を推定する処理をコンピュータに実行させる。
 本開示の一態様における情報処理方法は、内視鏡により所定期間を経て撮影した複数の画像を取得し、取得した前記複数の画像に基づいて、前記複数の画像に含まれる体内部位の将来の状態を推定する処理をコンピュータに実行させる。
 本開示の一態様における情報処理装置は、内視鏡により所定期間を経て撮影した複数の画像を取得する取得部と、取得した前記複数の画像に基づいて、前記複数の画像に含まれる体内部位の将来の状態を推定する推定部とを備える。
 本開示によれば、被検者の対象部位における将来的な変化に関する観点からの診断支援を行うプログラム等を提供することができる。
実施形態1に係る診断支援システムの概要を示す模式図である。 診断支援システムに含まれる内視鏡装置の構成例を示すブロック図である。 診断支援システムに含まれる情報処理装置の構成例を示すブロック図である。 検査結果DBのデータレイアウトを例示する説明図である。 劣化推定線を示すグラフに関する説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 実施形態2に係る蠕動量学習済みモデルの生成処理に関する説明図である。 劣化量学習済みモデルの生成処理に関する説明図である。 補正劣化量学習済みモデルの生成処理に関する説明図である。 情報処理装置等の制御部に含まれる機能部を例示する機能ブロック図である。 体内部位を撮影した画像に基づき生成された3次元マップデータに関する説明図である。 劣化推定線を示すグラフに関する説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 情報処理装置の制御部による診断支援情報を導出する処理手順の一例を示すフローチャートである。 情報処理装置の制御部による蠕動量学習済みモデルの生成処理に関する処理手順の一例を示すフローチャートである。 実施形態3に係る差分学習済みモデルの生成処理に関する説明図である。 情報処理装置等の制御部に含まれる機能部を例示する機能ブロック図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 実施形態4に係る内視鏡画像学習済みモデルの生成処理に関する説明図である。 病変学習済みモデルの生成処理に関する説明図である。 情報処理装置等の制御部に含まれる機能部を例示する機能ブロック図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。
(実施形態1)
 以下、本発明をその実施の形態を示す図面に基づいて詳述する。図1は、実施形態1に係る診断支援システムSの概要を示す模式図である。
診断支援システムSは、内視鏡装置10及び、内視鏡装置10と通信可能に接続される情報処理装置6を含む。
 内視鏡装置10は、内視鏡の撮影素子によって撮影した画像(撮影画像)を内視鏡用プロセッサ20に伝送し、内視鏡用プロセッサ20によってガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行うことにより、操作者が目視し易い状態にした内視鏡画像を生成する。内視鏡装置10は、更に生成した内視鏡画像に基づき、3次元マップデータ(体腔内径を反映した3次元テクスチャマッピングされたデータ)を生成するものであってもよい。内視鏡装置10は、これら生成した内視鏡画像及び3次元マップデータを情報処理装置6に出力(送信)する。内視鏡装置10から送信された内視鏡画像及び3次元マップデータを取得した情報処理装置6は、これら内視鏡画像又は3次元マップデータに基づき、種々の情報処理を行い、診断支援に関する情報を出力する。
 図2は、診断支援システムSに含まれる内視鏡装置10の構成例を示すブロック図である。図3は、診断支援システムSに含まれる情報処理装置6の構成例を示すブロック図である。内視鏡装置10は、内視鏡用プロセッサ20と、内視鏡40と、表示装置50とを含む。表示装置50は、たとえば液晶表示装置、または、有機EL(Electro Luminescence)表示装置である。
 表示装置50はキャスター付きの収容棚16の上段に設置されている。内視鏡用プロセッサ20は、収容棚16の中段に収容されている。収容棚16は、図示を省略する内視鏡検査用ベッドの近傍に配置される。収容棚16は内視鏡用プロセッサ20に接続されたキーボード15を搭載する、引き出し式の棚を有する。
 内視鏡用プロセッサ20は、略直方体形状であり、一面にタッチパネル25を備える。タッチパネル25の下部に、読取部28が配置されている。読取部28は、たとえばUSBコネクタ、SD(Secure Digital)カードスロット、またはCD-ROM(Compact Disc Read Only Memory)ドライブ等の、可搬型記録媒体の読み書きを行なう接続用インターフェイスである。
 内視鏡40は、挿入部44、操作部43、ライトガイド可撓管49およびスコープコネクタ48を有する。操作部43には、制御ボタン431が設けられている。挿入部44は長尺であり、一端が折止部45を介して操作部43に接続されている。挿入部44は、操作部43側から順に軟性部441、湾曲部442および先端部443を有する。湾曲部442は、湾曲ノブ433の操作に応じて湾曲する。挿入部44には、3軸加速度センサ、ジャイロセンサ、地磁気センサ又は磁気コイルセンサ等の物理検出装置が実装され、内視鏡40が被検者の体内に挿入された際、これら物理検出装置からの検出結果を取得するものであってもよい。
 ライトガイド可撓管49は長尺であり、第一端が操作部43に、第二端がスコープコネクタ48にそれぞれ接続されている。ライトガイド可撓管49は、軟性である。スコープコネクタ48は略直方体形状である。スコープコネクタ48には、送気送水用のチューブを接続する送気送水口金36(図2参照)が設けられている。
 内視鏡装置10は、内視鏡用プロセッサ20と、内視鏡40と、表示装置50とを含む。内視鏡用プロセッサ20は、タッチパネル25および読取部28に加えて、制御部21、主記憶装置22、補助記憶装置23、通信部24、表示装置I/F(Interface)26、入力装置I/F27、内視鏡用コネクタ31、光源33、ポンプ34およびバスを備える。内視鏡用コネクタ31は、電気コネクタ311および光コネクタ312を含む。
 制御部21は、本実施の形態のプログラムを実行する演算制御装置である。制御部21には、一または複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)又はマルチコアCPU等が使用される。制御部21は、バスを介して内視鏡用プロセッサ20を構成するハードウェア各部と接続されている。
 主記憶装置22は、例えば、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、制御部21が行なう処理の途中で必要な情報および制御部21で実行中のプログラムが一時的に保存される。補助記憶装置23は、例えば、SRAM、フラッシュメモリまたはハードディスク等の記憶装置であり、主記憶装置22よりも大容量の記憶装置である。補助記憶装置23には、例えば、取得した撮影画像、生成した内視鏡画像又は3次元マップデータが、中間データとして保存されるものであってもよい。
 通信部24は、有線又は無線によりネットワークを介して情報処理装置と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、 Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE等の広域無線通信モジュールである。タッチパネル25は、液晶表示パネル等の表示部と、表示部に積層された入力部を含む。
 表示装置I/F26は、内視鏡用プロセッサ20と表示装置50とを接続するインターフェイスである。入力装置I/F27は、内視鏡用プロセッサ20とキーボード15等の入力装置とを接続するインターフェイスである。
 光源33は、たとえばキセノンランプ等の高輝度の白色光源である。光源33は、図示を省略するドライバを介してバスに接続されている。光源33の点灯、消灯および明るさの変更は、制御部21により制御される。光源33から照射した照明光は、光コネクタ312に入射する。光コネクタ312は、スコープコネクタ48と係合し、内視鏡40に照明光を供給する。
 ポンプ34は、内視鏡40の送気・送水機能用の圧力を発生させる。ポンプ34は、図示を省略するドライバを介してバスに接続されている。ポンプ34のオン、オフおよび圧力の変更は、制御部21により制御される。ポンプ34は、送水タンク35を介して、スコープコネクタ48に設けられた送気送水口金36に接続される。
 内視鏡用プロセッサ20に接続された内視鏡40の機能の概略を説明する。スコープコネクタ48、ライトガイド可撓管49、操作部43および挿入部44の内部に、ファイバーバンドル、ケーブル束、送気チューブおよび送水チューブ等が挿通されている。光源33から出射した照明光は、光コネクタ312およびファイバーバンドルを介して、先端部443に設けられた照明窓から放射される。照明光により照らされた範囲を、先端部443に設けられた撮像素子で撮影する。撮像素子からケーブル束および電気コネクタ311を介して内視鏡用プロセッサ20に撮影画像が伝送される。
 内視鏡用プロセッサ20の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部及び距離導出部として機能する。画像処理部は、内視鏡から出力された画像(撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、内視鏡画像として出力する。
 距離導出部は、内視鏡画像又は撮影画像に基づき、撮像素子(先端部443に設けられた撮像素子)から体内部位(臓器内壁)までの距離情報を導出する。距離情報の導出は、例えば、単眼距離画像推定、TOF(Time of Flight)方式、パターン照射方式等を用いて導出することができる。又は、3次元SLAM(Simultaneous localization and mapping)技術に基づいた処理ルーチンを実行し、撮像素子が撮影した体腔内孔における体内部位の画像に基づき、体腔内孔の臓器内壁を周辺環境とした環境地図の作成を行うと共に撮像素子の自己位置の推定を行い、当該撮像素子と対象となる体内部位との距離を導出するものであってもよい。距離情報を導出するにあたり、距離情報導出部は、例えば、内視鏡40に挿入部44に装着される3軸加速度センサ、ジャイロセンサ、地磁気センサ、磁気コイルセンサ、又は挿入量検出機能付きマウスピース等の物理検出系機器によるデータを撮影画像に関連付けて処理する、又は、放射線画像と併用するものであってもよい。
 画像処理部は、更に、距離情報導出部が導出した距離情報を取得し、当該距離情報及び、変換処理した画像に基づき、体腔内径を反映した3次元テクスチャマッピングを行い、3次元マップデータを生成する。生成された3次元マップデータは、撮影画像に含まれる体内部位の3次元座標を含む。画像処理部は、3次元マップデータを生成するにあたり、アフィン変換、射影変換等の変換処理を用いて、画像テクスチャの貼付けを行うものであってもよい。
 情報処理装置6は、制御部62、通信部61、記憶部63及び入出力I/F64を含む。制御部62は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の計時機能を備えた演算処理装置を有し、記憶部63に記憶されたプログラムPを読み出して実行することにより、情報処理装置6に係る種々の情報処理、制御処理等を行う。又は、制御部62は量子コンピュータ用チップで構成されており、情報処理装置6は量子コンピュータであってもよい。
 記憶部63は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の揮発性記憶領域及び、EEPROM又はハードディスク等の不揮発性記憶領域を含む。記憶部63には、プログラムP及び処理時に参照するデータがあらかじめ記憶してある。記憶部63に記憶されたプログラムPは、情報処理装置6が読み取り可能な記録媒体632から読み出されたプログラムPを記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラムPをダウンロードし、記憶部63に記憶させたものであってもよい。記憶部63には、後述する蠕動量学習済みモデル91、劣化量学習済みモデル92及び補正劣化量学習済みモデル93を構成する実体ファイル(ニューラルネットワーク(NN)のインスタンスファイル)が保存されている。これら実体ファイルは、プログラムPの一部位として構成されるものであってもよい。記憶部63には、後述する検査結果DB631(DataBase)が記憶されている。
 通信部61は、有線又は無線により、内視鏡装置10と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、 Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE等の広域無線通信モジュールである。
 入出力I/F64は、例えば、USB又はDSUB等の通信規格に準拠したものであり、入出力I/F64に接続された外部機器とシリアル通信するための通信インターフェイスである。入出力I/F64には、例えばディプレイ等の表示部7、キーボード等の入力部8が接続されており、制御部62は、入力部8から入力された実行コマンド又はイベントに基づき行った情報処理の結果を表示部7に出力する。
 図4は、検査結果DB631のデータレイアウトを例示する説明図である。検査結果DB631は、情報処理装置6の記憶部63に記憶されており、情報処理装置6に実装されているRDBMS(Relational DataBase Management System)等のデータベース管理ソフトウェアにより構成される。
 検査結果DB631は、例えば、被検者マスタテーブル及び画像テーブルを含み、被検者マスタテーブルと画像テーブルとは、両テーブルに共に含まれる項目(メタデータ)である被検者IDにより、関連付けが設定されている。
 被検者マスタテーブルは、管理項目(メタデータ)として、例えば、被検者ID、性別、生年月日、年齢、BMI(Body Mass Index)及び国籍を含む。被検者IDの項目(フィールド)には、内視鏡検査を受けた被検者を一意に特定するためにID情報が格納される。性別及び生年月日の項目(フィールド)には、当該被検者IDの性別及び生年月日の生体属性が格納され、年齢の項目(フィールド)には、生年月日により算出される現時点における年齢が格納される。同様にBMI及び国籍には、当該被検者IDのBMIの値及び国籍に関する情報が格納される。これら、性別、年齢、BMI及び国籍は、被検者の生体情報として、被検者マスタテーブルにより管理される。
 画像テーブルは、管理項目(メタデータ)として、例えば、被検者ID、検査日時、内視鏡画像、3次元マップデータ及び前回検査からの劣化量を含む。被検者IDの項目(フィールド)には、被検者マスタテーブルに管理される被検者の生体属性と関連付けをするためのものであり、当該被検者夫々のIDの値が格納される。検査日時の項目(フィールド)には、当該被検者IDの被検者が内視鏡検査を受けた日時が格納される。内視鏡画像の項目(フィールド)には、当該被検者IDの内視鏡画像がオブジェクトデータとして格納される。又は、内視鏡画像の項目(フィールド)には、ファイルとして保存されている当該内視鏡画像の保存場所(ファイルパス)を示す情報が格納されるものであってもよい。3次元マップデータの項目(フィールド)には、当該被検者IDの3次元マップデータがオブジェクトデータとして格納される。又は、3次元マップデータの項目(フィールド)には、ファイルとして保存されている当該3次元マップデータの保存場所(ファイルパス)を示す情報が格納されるものであってもよい。前回検査からの劣化量の項目(フィールド)には、今回の検査と前回の検査との比較に基づく、所定の体内部位の劣化量に関する情報が格納される。劣化量の格納は、複数の体内部位夫々における劣化量の値を、例えば配列形式で格納されるものであってもよい。又は、内視鏡画像におけるピクセル(画素)単位にて、これらピクセル毎の劣化量夫々を、配列形式で格納して保存するものであってもよい。
 図5は、劣化推定線を示すグラフに関する説明図である。情報処理装置6は、取得した所定期間を経て撮影された複数の画像(時系列の画像)に基づき、複数の画像に含まれる体内部位の将来の状態を推定するものであり、図5に示す劣化推定線を示すグラフは、当該推定結果をグラフ化して表示したものである。劣化推定線を示すグラフの横軸は、時間を示し、縦軸は、現在及び過去の劣化量と、将来の劣化量(劣化予想値)の値を示す。図に示すとおり、過去及び現在の検査に基づき、3個の劣化量がプロットされている。これら過去及び現在の劣化量に基づき、将来における劣化量(劣化予想値)を示す近似線が、劣化予想線として表示される。
 情報処理装置6は、内視鏡用プロセッサ20が出力した内視鏡画像及び距離情報(又は距離情報が重畳された内視鏡画像)又は3次元マップデータ等の画像(今回の検査による画像)を取得すると共に、当該画像に対応する過去の検査における画像(過去の検査による画像)を、検査結果DB631を参照して取得する。これら今回及び過去の画像は、同一の被検者の結果に係る画像であり、情報処理装置6は、今回及び過去の画像に基づき、所定期間を経て撮影された複数の画像(時系列の画像)を取得するものとなる。過去の検査による画像は、複数個であることが望ましいが、1個であってもよい。
 情報処理装置6は、今回の検査による画像に基づき、特徴量を抽出する。当該特徴量は、現在又は将来的に病変が疑われる体内部位を特定するものであり、例えば、エッジ検出、パターン認識、又は後述する後述するニューラルネットワーク等の学習済みモデルを用いて劣化量を導出するものであってもよい。
 情報処理装置6は、抽出した特徴量に関する情報として、距離情報が重畳された内視鏡画像又は3次元マップデータにおける当該特徴量に対応する体内部位の位置情報又は形状情報(大きさ含む)を記憶部63に記憶するものであってもよい。又は、情報処理装置6は、当該特徴量に対応する体内部位が撮影されている画像のフレーム番号及び当該画像のフレーム(静止画)における体内部位の領域に関する情報(ピクセル番号、画像座標系における座標)を記憶部63に記憶するものであってもよい。更に、情報処理装置6は、抽出した特徴量に関する情報として、当該特徴量に対応する体内部位の色彩に関する情報(各ピクセル要素の値)を記憶部63に記憶するものであってもよい。
 情報処理装置6は、複数の今回の検査による画像夫々から、今回の検査による画像から抽出した特徴量(今回の画像における特徴量)に対応する箇所(過去の画像における特徴量)を抽出する。情報処理装置6は、抽出した今回及び過去の特徴量において、時系列にて隣接する特徴量夫々による差分(特徴量の差分情報)を抽出する。
 情報処理装置6は、抽出した特徴量の差分情報に基づき、当該特徴量により特定される体内部位の劣化量を導出する。情報処理装置6は、抽出した特徴量の差分情報において、これら特徴量により特定される体内部位の色彩の変化(ピクセル要素の値の差異)、位置又は形状(大きさ含む)の変化量に基づき、劣化量を導出するものであってもよい。又は、情報処理装置6は、後述するニューラルネットワーク等の学習済みモデルを用いて劣化量を導出するものであってもよい。
 図5に示すとおり、検査3が今回の検査における劣化量であり、今回と前回との特徴量の差分情報に基づき導出される。検査2が前回の検査における劣化量であり、前回と前々回との特徴量の差分情報に基づき導出される。検査1が前々回の検査における劣化量であり、前々回と3回前との特徴量の差分情報に基づき導出される。情報処理装置6は、導出した複数の劣化量に基づき、例えば線形近似、非線形近似の手法を用いて図5に示す劣化推定線を示すグラフを生成し、表示部7に出力する。
 情報処理装置6は、当該劣化推定線に基づき、将来における任意に時点における劣化量を導出(推定)することができる。当該推定される劣化量は、被検者の将来における健康状態に関連する情報となるものであり、医師等による診断の支援情報として用いることができる。
 図6は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
 情報処理装置6の制御部62は、内視鏡用プロセッサ20から出力された内視鏡画像等を取得する(S11)。制御部62は、制御部62は、内視鏡用プロセッサ20から出力された撮影画像、内視鏡画像(距離情報が重畳され内視鏡画像)、3次元マップデータ及び被検者IDを取得する。
 情報処理装置6の制御部62は、取得した内視鏡画像等から特徴量を導出する(S12)。情報処理装置6の制御部62は、取得した被検者IDに基づき検査結果DB631を参照して、過去の内視鏡画像等を取得する(S13)。
 情報処理装置6の制御部62は、特徴量の差分情報を導出する(S14)。制御部62は、取得した今回の内視鏡画像による特徴量と、当該特徴量(今回の特徴量)に対応する過去の内視鏡画像における特徴量とに基づき、これら特徴量の差分情報を導出する。
 情報処理装置6の制御部62は、差分情報に基づき現在及び過去の劣化量を導出する(S15)。制御部62は、当該差分情報に含まれる特徴量により特定される体内部位の色彩、形状等の変化量に基づき、劣化量を導出する。
 情報処理装置6の制御部62は、現在及び過去の劣化量に基づき劣化予想線を導出する(S16)。制御部62は、現在及び過去の劣化量、すなわち時系列に並ぶ複数の劣化量に基づき、例えば線形近似又は非線形近似の手法を用いて劣化予想線を導出する。
 情報処理装置6の制御部62は、所定期間経過後の劣化予想値を導出する(S17)。制御部62は、導出した劣化予想線に基づき、現時点(今回の検査の時点)から、所定期間が経過した後の一つ又は複数の時点における劣化予想値を導出する。
(実施形態2)
 図7は、蠕動量学習済みモデル91の生成処理に関する説明図である。実施形態2の情報処理装置6は、劣化量を導出するにあたり、蠕動量学習済みモデル91等の学習済みモデルを用いて、補正処理を行う点で実施形態1と異なる。
 情報処理装置6は、内視鏡画像及び距離情報を問題データとし、蠕動量の補正量を回答データとする教師データに基づき学習することで、内視鏡画像及び距離情報を入力とし、蠕動量の補正量を出力とするニューラルネットワークを構築(生成)する。
 教師データを用いて学習されたニューラルネットワーク(蠕動量学習済みモデル91)は、人工知能ソフトウェアの一部であるプログラムPモジュールとして利用が想定される。蠕動量学習済みモデル91は、上述のごとく制御部62(CPU等)及び記憶部63を備える情報処理装置6にて用いられるものであり、このように演算処理能力を有する情報処理装置6にて実行されることにより、ニューラルネットワークシステムが構成される。すなわち、情報処理装置6の制御部62が、記憶部63に記憶された蠕動量学習済みモデル91からの指令に従って、入力層に入力された内視鏡画像及び距離情報の特徴量を抽出する演算を行い、出力層から蠕動量の補正量を出力するように動作する。
 入力層は、内視鏡画像に含まれる各画素の画素値及び距離情報の入力を受け付ける複数のニューロンを有し、入力された画素値及び距離情報を中間層に受け渡す。中間層は、内視鏡画像の画像特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量及び、入力された距離情報に基づくニューロンの活性状態を出力層に受け渡す。例えば蠕動量学習済みモデルがCNNである場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピング(圧縮)するプーリング層とが交互に連結された構成を有し、内視鏡画像の画素情報を圧縮しながら最終的に内視鏡画像の特徴量を抽出する。出力層は、当該内視鏡画像に含まれる体内部位における蠕動量の補正量に関する情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量等に基づいて、当該蠕動量の補正量に関する情報を出力する。出力された蠕動量の補正量に関する情報は、3次元マップデータにおける、例えば臓器表面(体内部位)の垂直方向の配置を補正する情報として用いられる。
 本実施形態では、蠕動量学習済みモデル91に入力されるデータは、内視鏡画像であるとして説明しているがこれに限定されない。蠕動量学習済みモデル91に入力されるデータは、撮像素子が撮像した撮影画像であってもよい。すなわち、蠕動量学習済みモデル91は、撮影画像及び距離情報が入力されることにより、蠕動量の補正量に関する情報を出力するものであってもよい。
 本実施形態では蠕動量学習済みモデル91がCNN等のニューラルネットワーク(NN)であるとして説明するが、蠕動量学習済みモデル91は、NNに限定されず、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木など、他の学習アルゴリズムで構築された学習済みモデルであってもよい。
 情報処理装置6は、出力層から出力された値を、教師データ(内視鏡画像及び距離情報)に対しラベル付けされた情報(蠕動量の補正量)、すなわち正解値(回答データ)と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えば情報処理装置6は、誤差逆伝播法を用いて各種パラメータの最適化を行う。情報処理装置6は、教師データに含まれる内視鏡画像及び距離情報について上記の処理を行い、蠕動量学習済みモデル91を生成し、生成した蠕動量学習済みモデル91を記憶部63に記憶する。
 教師データとして用いられる内視鏡画像及び距離情報(問題データ)と、これら情報に相関を有する蠕動量に関する情報(回答データ)は、各医療機関において行われた内視鏡検査の結果データとして大量に保存されており、これら結果データを用いることにより、蠕動量学習済みモデル91を学習するための教師データを大量に生成することができる。
 図8は、劣化量学習済みモデル92の生成処理に関する説明図である。情報処理装置6は、差分情報及び生体情報を問題データとし、劣化量を回答データとする教師データに基づき学習することで、差分情報及び生体情報を入力とし、劣化量を出力とするニューラルネットワークを構築(生成)する。差分情報は、後述する差分情報導出部624(図10参照)により導出される情報であり、現在の内視鏡画像に基づき生成された3次元マップデータと、過去の内視鏡画像に基づき生成された3次元マップデータとの差異に基づき導出される。生体情報は、被検者の年齢等を含み、当該被検者を特定する被検者IDに基づき、検査結果DB631を参照することにより導出される。これら情報の導出については、後述する。
 入力層は、差分情報及び生体情報の入力を受け付ける複数のニューロンを有し、入力された差分情報及び生体情報を中間層に受け渡す。中間層は、例えば単数又は複数の全結合層からなる単相又は多層構造をなし、全結合層に含まれる複数のニューロン夫々は、入力された差分情報及び生体情報の値に基づき、活性化又は非活性化を示す情報を出力する。出力層は、内視鏡画像に含まれる体内部位の劣化量に関する情報を出力する一又は複数のニューロンを有し、中間層から出力された各ニューロンの活性化又は非活性化を示す情報に基づき、劣化量を出力する。
 情報処理装置6は、蠕動量学習済みモデル91と同様に、劣化量学習済みモデル92の中間層での演算処理に用いるパラメータを最適化する。劣化量学習済みモデル92は、蠕動量学習済みモデル91と同様に人工知能ソフトウェアの一部であるプログラムPモジュールとして利用が想定される。また、劣化量学習済みモデル92は、蠕動量学習済みモデル91と同様にNNに限定されず、SVM等の他の学習アルゴリズムで構築された学習済みモデルであってもよい。教師データとして用いられる差分情報(問題データ)と、これら情報に相関を有する劣化量に関する情報(回答データ)に関し、これらデータを導出するための元データとなる内視鏡画像及び距離情報は、各医療機関において行われた内視鏡検査の結果データとして大量に保存されている。従って、これら結果データを用いることにより、劣化量学習済みモデル92を学習するための教師データを大量に生成することができる。
 図9は、補正劣化量学習済みモデル93の生成処理に関する説明図である。情報処理装置6は、劣化予想線(劣化予想線のパラメータの値)を問題データとし、劣化予想線の補正量を回答データとする教師データに基づき学習することで、劣化予想線を入力とし、劣化予想線の補正量を出力とするニューラルネットワークを構築(生成)する。劣化想線は、後述する劣化予想線導出部625(図10参照)により導出される情報であり、現在及び過去の劣化量に基づき導出される。
 入力層は、劣化予想線(劣化予想線のパラメータの値)の入力を受け付ける複数のニューロンを有し、入力された劣化予想線のパラメータの値夫々を中間層に受け渡す。中間層は、例えば単数又は複数の全結合層からなる単相又は多層構造をなし、全結合層に含まれる複数のニューロン夫々は、入力された劣化予想線のパラメータの値夫々に基づき、活性化又は非活性化を示す情報を出力する。出力層は、劣化予想線の補正量に関する情報を出力する一又は複数のニューロンを有し、中間層から出力された各ニューロンの活性化又は非活性化を示す情報に基づき、補正量を出力する。
 情報処理装置6は、蠕動量学習済みモデル91と同様に、補正劣化量学習済みモデル93の中間層での演算処理に用いるパラメータを最適化する。補正劣化量学習済みモデル93は、蠕動量学習済みモデル91と同様に人工知能ソフトウェアの一部であるプログラムPモジュールとして利用が想定される。また、補正劣化量学習済みモデル93は、蠕動量学習済みモデル91と同様にNNに限定されず、SVM等の他の学習アルゴリズムで構築された学習済みモデルであってもよい。教師データとして用いられる劣化予想線(劣化予想線のパラメータの値/問題データ)と、補正量(回答データ)に関し、これらデータを導出するための元データとなる内視鏡画像及び距離情報は、各医療機関において行われた内視鏡検査の結果データとして大量に保存されている。従って、これら結果データを用いることにより、補正劣化量学習済みモデル93を学習するための教師データを大量に生成することができる。
 図10は、情報処理装置6等の制御部62に含まれる機能部を例示する機能ブロック図である。内視鏡用プロセッサ20(内視鏡装置10)の制御部21は、主記憶装置22に記憶されているプログラムPを実行することにより、画像処理部211及び距離情報導出部212として機能する。情報処理装置6の制御部62は、記憶部63に記憶されているプログラムPを実行することにより、取得部621、蠕動量補正部622、特徴量導出部623、差分情報導出部624、劣化予想線導出部625及び劣化予想値導出部626として機能する。また、制御部62は、記憶部63に記憶されているプログラムPを実行することにより、又は蠕動量学習済みモデル91等の学習済みモデルを構成する実体ファイルを読み出すことにより、蠕動量学習済みモデル91、劣化量学習済みモデル92及び補正劣化量学習済みモデル93として機能する。
 距離情報導出部212は、内視鏡画像又は撮影画像に基づき、撮像素子(先端部443に設けられた撮像素子)から体内部位(臓器内壁)までの距離情報を導出する。
 画像処理部211は、内視鏡から出力された画像(撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、内視鏡画像として出力する。更に、距離情報導出部212が導出した距離情報を取得し、当該距離情報及び、変換処理した画像に基づき、3次元テクスチャマッピングを行い、3次元マップデータを生成する。画像処理部211は、取得又は生成した撮影画像、内視鏡画像、距離情報及び3次元マップデータを情報処理装置6に出力(送信)する。画像処理部211は、距離情報を内視鏡画像又は撮影画像に重畳させて、情報処理装置6に出力するものであってもよい。画像処理部211は、更にキーボード15から入力された被検者IDを情報処理装置6に出力する。
 取得部621は、内視鏡用プロセッサ20が出力した内視鏡画像、撮影画像、距離情報、3次元マップデータ及び被検者IDを取得し、取得した内視鏡画像及び距離情報(又は距離情報が重畳された内視鏡画像)を蠕動量学習済みモデル91に出力し、3次元マップデータを蠕動量補正部622に出力する。取得部621は、取得した被検者IDを差分情報導出部624に出力する。
 蠕動量学習済みモデル91は、取得部621から出力された内視鏡画像及び距離情報を入力層に入力し、出力層から出力された蠕動量の補正量を、蠕動量補正部622に出力する。
 蠕動量補正部622は、蠕動量学習済みモデル91から出力された蠕動量の補正量に基づいて、取得部621から出力された3次元マップデータを補正する。蠕動量の補正量に基づいて3次元マップデータを補正するため、蠕動運動による距離変化ノイズをキャンセルする(除く)ことができる。蠕動量補正部622は、補正した3次元マップデータを特徴量導出部623及び差分情報導出部624に出力する。
 特徴量導出部623は、蠕動量補正部622により補正された3次元マップデータの表面形状、色情報等から、例えば病変が疑われる体内部位を特定するための特徴量を導出し、導出した特徴量を差分情報導出部624に出力する。特徴量導出部623は、3次元マップデータから、複数個の特徴量を導出するものであってもよい。
 差分情報導出部624は、取得した被検者IDに基づき、検査結果DB631を参照し、当該被検者IDの過去(前回)の検査結果である3次元マップデータを取得する。差分情報導出部624は、取得した特徴部に基づき、蠕動量補正部622から取得した3次元マップデータと、前回の3次元マップデータとによる重ね合わせ処理を行い、臓器(体内部位)の表面について、その形状、色空間上の彩度、色相、明度の特徴量差分値を含む差分情報を導出する。差分情報導出部624は、導出した差分情報及び、被検者IDによって特定される当該被検者の年齢等の生体属性に関する情報を、劣化量学習済みモデル92に出力する。
 劣化量学習済みモデル92は、差分情報導出部624から出力された差分情報及び、被検者IDにより特定される年齢等の生体属性に関する情報を入力層に入力し、出力層から出力された劣化量(今回の検査における劣化量)を劣化予想線導出部625に出力する。
 劣化予想線導出部625は、被検者IDに基づき検査結果DB631を参照し、当該被検者の過去の検査における複数の劣化量を取得する。劣化予想線導出部625は、取得した今回の劣化量及び過去の複数の劣化量に基づき、劣化予想線を導出する。劣化予想線導出部625は、例えば、劣化予想線を直線(線形近似)にて導出する場合、取得した今回の劣化量及び過去の複数の劣化量に基づき最小二乗法を用いるものであってもよい。又は、劣化予想線導出部625は、対数近似曲線、多項式近似曲線、累乗近似曲線又は指数近似曲線等の種々方法を用いて、劣化予想線を導出するものであってもよい。劣化予想線導出部625は、導出した劣化予想線(劣化予想線のパラメータ)を補正劣化量学習済みモデル93及び劣化予想値導出部626に出力する。
 補正劣化量学習済みモデル93は、劣化予想線導出部625から出力された劣化予想線(劣化予想線のパラメータ)を入力層に入力し、出力層から出力された補正量を劣化予想値導出部626に出力する。当該補正量の導出は、補正劣化量学習済みモデル93を用いる場合に限定されず、例えば、被検者の年齢等の生体属性、検査時の体温又は心拍数等の体調情報に基づき導出されるものであってもよい。すなわち、これら生体属性及び体調情報に基づき決定される補正係数を、例えばテーブル形式で記憶部63に記憶しておき、情報処理装置6(制御部62)は、検査結果DB631又は内視鏡用プロセッサ20等から取得した被検者の生体属性又は体調情報に基づき、補正係数を導出する。そして、情報処理装置6は、導出した補正係数に基づき劣化予想線のパラメータを補正するものであってもよい。
 劣化予想値導出部626は、劣化予想線導出部625が出力した劣化予想線を、補正劣化量学習済みモデル93が出力した補正量に基づき補正する。劣化予想値導出部626は、補正した劣化予想線に基づき、現時点よりも所定期間経過後における将来の一つ又は複数個の劣化量(劣化量予想値)を導出する。劣化予想値導出部626は、導出した劣化量予想値を含む情報をディスプレイ等の表示部7に出力する。劣化予想値導出部626は、劣化量予想値に基づき、劣化予想値を可視化した画像、劣化予想値に基づき決定される警告情報又は改善案情報等の診断支援情報を導出し表示部7に出力して、これら情報を表示部7に表示されるものであってもよい。
 本実施形態において、一連の処理における各機能部を、内視鏡用プロセッサ20の制御部21による機能部夫々と、情報処理装置6の制御部62による機能部夫々とに分けて説明したが、これら機能部の分担は一例であり、これに限定されない。内視鏡用プロセッサ20の制御部21は、蠕動量学習済みモデル91等の学習済みモデルも含め、情報処理装置6の制御部62によって行われる全ての機能部として、機能するものであってもよい。すなわち、内視鏡用プロセッサ20が、実質的に情報処理装置6を含むものであってもよい。または、内視鏡用プロセッサ20の制御部21は、撮像素子が撮像した撮影画像を出力するのみであり、情報処理装置6の制御部62は、以降の処理を行う全ての機能部として機能するものであってもよい。または、内視鏡用プロセッサ20の制御部21と、情報処理装置6の制御部62とは、例えばプロセス間通信を行うことにより、協働して一連の処理における各機能部として機能するものであってもよい。
 図11は、体内部位を撮影した画像に基づき生成された3次元マップデータに関する説明図である。上述のとおり、内視鏡用プロセッサ20の制御部21は、撮影画像又は内視鏡画像及び、撮像素子から臓器内壁までの距離情報に基づき、3次元マップデータを生成する。生成された3次元マップデータを含む表示画面は、内視鏡装置10の表示装置又は、情報処理装置6の表示部7にて、表示される。
 3次元マップデータには、例えば体腔内径を反映した3次元テクスチャマッピングが、距離情報と、臓器表面を含む撮影画像又は内視鏡画像から抽出した特徴量との重ね合わせにより行われている。また、3次元マップデータには、特徴量に基づき特定される臓器の表面の距離(撮像素子からの距離)又は位置(3次元マップ上の座標)を含む距離情報が、アノテーション表示されるものであってもよい。
 図12は、劣化推定線を示すグラフに関する説明図である。上述のとおり、劣化予想値導出部626は、劣化予想線導出部625が導出した劣化推定線を、補正劣化量学習済みモデル93から出力された補正量に基づき補正し、補正した劣化推定線を導出する。
 劣化推定線を示すグラフの横軸は、時間を示し、縦軸は、現在及び過去の劣化量と、将来の劣化量(劣化予想値)の値を示す。図に示すとおり、過去及び現在の検査に基づき、3個の劣化量がプロットされている。これら過去及び現在の劣化量に基づき、将来における劣化量(劣化予想値)を示す近似線が、劣化予想線として表示される。
 上述のとおり、劣化予想線は、補正劣化量学習済みモデル93から出力される補正量に基づき、推定値が変化するものとなる。当該補正量は、例えば被検者の年齢等の生体属性に関する情報に基づき導出されるものであり、補正劣化量学習済みモデル93は、これら生体属性に関する情報についても入力層に入力するため、将来の劣化量の精度を向上させることができる。劣化予想値導出部626は、導出した劣化予想線(補正後の劣化予想線)に基づき、現時点(今回の検査の時点)から所定期間が経過した後の一つ又は複数の時点における劣化量(将来における複数時点の劣化量)を導出することができる。
 図13は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。図14は、情報処理装置6の制御部62による診断支援情報を導出する処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。本実施形態におけるフローチャートは、情報処理装置6が内視鏡装置10(内視鏡用プロセッサ20)から内視鏡画像等を取得するにあたり、これの前提的な処理となる内視鏡用プロセッサ20の処理を含む。
 内視鏡用プロセッサ20の制御部62は、撮像素子から出力された撮影画像を取得する(S01)。内視鏡用プロセッサ20の制御部62は、キーボード15から入力された被検者IDを取得する(S02)。
 内視鏡用プロセッサ20の制御部62は、撮像素子から撮像対象面(体内部位)までの距離情報を導出する(S03)。内視鏡用プロセッサ20の制御部62は、距離情報を導出するにあたり、更に物理検出機器から出力される検出結果データを取得し、当該検出結果データ及び撮影画像に基づき距離情報を取得するものであってもよい。内視鏡用プロセッサ20の制御部62は、撮影画像と距離情報を関連付けて記憶する(S04)。
 内視鏡用プロセッサ20の制御部62は、撮影画像を画像処理し、内視鏡画像を生成する(S05)。内視鏡用プロセッサ20の制御部62は、例えば、アフィン変換、射影変換、ガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、操作者の視認性を向上させた内視鏡画像を生成する。
 内視鏡用プロセッサ20の制御部62は、3次元マップデータを生成する(S06)。内視鏡用プロセッサ20の制御部62は、体腔内径を反映した3次元テクスチャマッピングを行う。内視鏡用プロセッサ20の制御部62は、対象となる体内部位に関する距離情報と臓器表面を含む内視鏡画像から抽出した特徴量の重ね合わせにより、3次元テクスチャマッピングを行うものであってもよい。内視鏡用プロセッサ20の制御部62は、3次元テクスチャマッピングを行うにあたり、上述した物理検出機器からの検出データを用いて、補間するものであってもよい。
 内視鏡用プロセッサ20の制御部62は、生成又は取得した距離情報、内視鏡画像、3次元マップデータ及び被検者IDを出力し、情報処理装置6に送信する(S07)。内視鏡用プロセッサ20の制御部62は、更に撮像素子が撮影した撮影画像を出力して、情報処理装置6に送信するものであってもよい。内視鏡用プロセッサ20の制御部62は、距離情報を内視鏡画像に重畳して、情報処理装置6に送信するものであってもよい。
 情報処理装置6の制御部62は、内視鏡用プロセッサ20から出力された内視鏡画像等を取得する(S100)。制御部62は、内視鏡用プロセッサ20から出力された撮影画像、内視鏡画像(距離情報が重畳された内視鏡画像)、3次元マップデータ及び被検者IDを取得する。制御部62は、取得した撮影画像、内視鏡画像、3次元マップデータ及び被検者IDを検査結果DB631に保存するものであってもよい。
 情報処理装置6の制御部62は、3次元マップデータに対し、蠕動運動の補正処理を行う(S101)。制御部62は、距離情報が重畳された内視鏡画像(距離情報及び内視鏡画像)を蠕動量学習済みモデル91に入力し、蠕動量学習済みモデル91が出力した補正量に基づき、3次元マップデータに対し、臓壁表面の垂直方向の配置を補正する等、蠕動運動の補正処理を行う。
 情報処理装置6の制御部62は、補正した3次元マップデータにより特徴量を導出する(S102)。制御部62は、補正した3次元マップデータの表面形状、色情報等から特徴量を導出する。3次元マップデータを用いることにより、体内部位の表面形状、色彩情報等を数値化して、特徴量を導出するための演算負荷を低減させ、効率的に特徴量を導出することができる。
 情報処理装置6の制御部62は、取得した被検者IDに基づき検査結果DB631を参照して、過去の3次元マップデータを取得する(S103)。情報処理装置6の制御部62は、現在及び過去の3次元マップデータの重ね合わせ処理を行うことにより、これら3次元マップデータにおける特徴量の差分情報を導出する(S104)。3次元マップデータを用いることにより、体内部位における特徴量に関する情報を数値化し、数値化した夫々の値により差分処理を行うため、効率的に差分情報を導出することができる。
 情報処理装置6の制御部62は、差分情報及び生体属性に基づき現在及び過去の劣化量を導出する(S105)。制御部62は、導出した差分情報及び、被検者IDにより検査結果DB631を検索して取得した生体属性を、劣化量学習済みモデル92に入力し、劣化量学習済みモデル92が出力した劣化量(現在の劣化量)を取得する。また、制御部62は、被検者IDにより検査結果DB631を検索して、当該被検者の過去の劣化量を取得する。制御部62は、このように劣化量学習済みモデル92及び検査結果DB631から取得することにより、現在及び過去の劣化量を導出する。
 情報処理装置6の制御部62は、現在及び過去の劣化量に基づき劣化予想線を導出する(S106)。制御部62は、現在及び過去の劣化量夫々に基づき、線形近似又は非線形近似の手法を用い、劣化予想線を導出する。
 情報処理装置6の制御部62は、劣化予想線の補正処理を行う(S107)。制御部62は、導出した劣化予想線(劣化予想線のパラメータ)を補正劣化量学習済みモデル93に入力し、補正劣化量学習済みモデル93が出力した劣化予想線の補正量を取得する。制御部62は、導出した劣化予想線(劣化予想線のパラメータ)に対し、補正劣化量学習済みモデル93から取得した補正量に基づき、劣化予想線の補正処理を行う。または、被検者の生体属性及び体調情報に基づき決定される補正係数が例えばテーブル形式(補正係数テーブル)で記憶部63に記憶されており、制御部62は、記憶部63に記憶されている補正係数テーブルを参照し、劣化予想線を補正するための補正係数を導出するものであってもよい。すなわち、制御部62は、検査結果DB631又は内視鏡用プロセッサ20等から取得した被検者の生体属性又は体調情報に基づき、補正係数テーブルを参照して補正係数を導出し、当該補正係数を用いて劣化予想線(劣化予想線のパラメータ)の補正処理を行うものであってもよい。劣化予想線(劣化予想線のパラメータ)に用いる補正係数は、劣化予想線によって予想される将来における各時点に対し、現時点からの経過時間に応じて可変するものであってもよい。すなわち、補正係数は、現時点からの経過時間を変数(時間変数)として含むものであり、現時点からの経過時間に応じて、当該補正係数の値を変更し、劣化予想線(劣化予想線のパラメータ)を補正するものであってもよい。例えば、現時点から近い将来における時点を対象とした場合の補正係数(k1)に対し、当該時点よりも更に時間が経過した時点を対象とした場合の補正係数(k2)を小さい値とすることにより、現時点からの経過時間が長くなるにつれて、補正係数による影響度を小さくして誤差の振れ幅を狭くするものであってもよい。
 情報処理装置6の制御部62は、所定期間経過後の劣化予想値を導出する(S108)。制御部62は、補正された劣化予想線に基づき、現時点(今回の検査の時点)から、所定期間が経過した後の一つ又は複数の時点における劣化予想値を導出する。
 情報処理装置6の制御部62は、劣化予想値に基づき診断支援情報(報知情報)を出力する(S109)。制御部62は、劣化予想値に基づき、例えば、劣化予想値を可視化した画像、劣化予想値に基づき決定される警告情報又は、改善案情報等の診断支援情報を報知情報として導出し、当該報知情報を出力して、表示部7に表示する。記憶部63には、例えば、劣化予想値及び生体属性に対し、警告情報又は改善案情報等が関連付けられている診断支援DB(図示せず)が記憶されており、制御部62は、当該診断支援DBを参照して、劣化予想値に基づき決定される警告情報又は改善案情報等を導出する。劣化予想値に基づき決定される警告情報又は改善案情報等の診断支援情報は、予測された劣化予想値と、予め決定された劣化閾値との比較により、導出するものであってもよい。制御部62は、予測された劣化予想値が劣化閾値よりも小さい場合、所見無し等の問題無い旨を示す情報を診断支援情報として導出するものであってもよい。制御部62は、S109の処理を行うにあたり、図14に示すフローチャートの処理の流れにより、診断支援情報を導出する。
 情報処理装置6の制御部62は、劣化閾値を取得する(S1091)。当該劣化閾値は、被検者の年齢、性別等の生体属性に関する情報及び、対象となる体内部位と関連付けて、例えばテーブル形式にて情報処理装置6の記憶部63に記憶されている。更に、劣化閾値は、複数の段階、すなわち病変ステージに基づいた複数個の劣化閾値を含むものであってもよい。一例として、劣化閾値の値が大きくなるにつれて、病変ステージの重度が大きくなる。制御部62は、例えば、被検者の年齢、性別等の生体属性及び劣化量の対象となる体内部位に基づき、記憶部63を参照して劣化閾値を導出することにより、劣化閾値を取得する。
 情報処理装置6の制御部62は、劣化予想値は劣化閾値よりも大きいか否かを判定する(S1092)。上述のとおり、劣化閾値が病変ステージに基づいた複数個の劣化閾値を含む場合、制御部62は、最も小さい値の劣化閾値(最小劣化閾値)と、劣化予想値とを比較し、劣化予想値は劣化閾値(最小劣化閾値)よりも大きいか否かを判定する。
 劣化予想値は劣化閾値(最小劣化閾値)よりも大きい場合(S1092:YES)、情報処理装置6の制御部62は、劣化予想値の段階に応じた診断支援情報を取得する(S1093)。劣化閾値が病変ステージに基づいた複数個の劣化閾値を含む場合、制御部62は、病変ステージに基づいた複数個の劣化閾値の内、劣化予想値に最も近似する劣化閾値を特定する。複数個の劣化閾値夫々は、病変ステージ夫々に対応付けられており、制御部62は、特定した劣化閾値に基づき、劣化閾値の段階に応じた劣化予想値に対応する病変ステージを特定する。または、制御部62は、病変ステージに基づいた複数個の劣化閾値により定まる個々の範囲において、劣化予想値がどの範囲に位置するかに基づき、当該劣化予想値に対応する病変ステージを特定するものであってもよい。
 情報処理装置6の記憶部63には、病変ステージ夫々に応じた診断支援情報が記憶されている。例えば、病変ステージが軽度の場合の診断支援情報は、定期的な運動を促す改善案情報である。病変ステージが中度の場合の診断支援情報は、精密検査を要することを示す勧告情報である。病変ステージが重度の場合の診断支援情報は、入院等による治療を示唆する警告情報である。
 情報処理装置6の制御部62は、取得した診断支援情報を出力する(S1094)。制御部62は、病変ステージ夫々に応じた改善案情報、勧告情報又は警告情報等の診断支援情報を出力する。
 劣化予想値が劣化閾値(最小劣化閾値)よりも大きくない場合、すなわち劣化予想値が劣化閾値(最小劣化閾値)以下である場合(S1092:NO)、情報処理装置6の制御部62は、問題無い旨(所見無し)を診断支援情報として出力する(S1095)。
 情報処理装置6の制御部62は、劣化予想値に基づき保険支援情報を出力する(S110)。制御部62は、劣化予想値に基づき、保険等級又は概算保険料等の保険支援情報を導出し、表示部7に表示する。記憶部63には、例えば、劣化予想値及び生体属性に対し、保険等級又は概算保険料等が関連付けられている保険支援DB(図示せず)が記憶されており、制御部62は、当該保険支援DBを参照して、劣化予想値に基づき決定される保険等級又は概算保険料等を導出する。
 本実施形態において、撮影された体内部位における特徴量の導出は、3次元マップデータにより行うものとしたが、これに限定されない。制御部62は、内視鏡用プロセッサ20から取得した内視鏡画像又は撮影画像に基づき、特徴量を導出するものであってもよい。
 図15は、情報処理装置6の制御部62による蠕動量学習済みモデル91の生成処理に関する処理手順の一例を示すフローチャートである。情報処理装置6の制御部62は、教師データを取得する(S120)。教師データは、上述のとおり、内視鏡画像及び距離情報を問題データとし蠕動量の補正量を回答データとするものであり、当該内視鏡画像及び距離情報に対し、蠕動量の補正量をラベル付けしたデータである。内視鏡画像及び距離情報にラベル付けされる蠕動量の補正量は、例えば距離情報における距離変化の周期性から内視鏡画像における撮像箇所(体内部位)がどのように蠕動運動しているか、当該蠕動運動が正常な生理反応であるかに関する医師等による判断に基づき特定される量であってもよい。このような教師データの元データとなる内視鏡画像及び距離情報は、各医療機関において行われた内視鏡検査の結果データとして大量に保存されており、これら結果データを用いることにより、蠕動量学習済みモデル91を学習するための教師データを大量に生成することができる。
 情報処理装置6の制御部62は、蠕動量学習済みモデル91を生成する(S121)。制御部62は、取得した教師データを用いて、内視鏡画像及び距離情報を入力とし、蠕動量の補正量を出力とする蠕動量学習済みモデル91を構築(生成)する。蠕動量学習済みモデル91がニューラルネットワークである場合、中間層での演算処理に用いるパラメータは、例えば誤差逆伝播法を用いることにより、最適化される。情報処理装置6の制御部62は、蠕動量学習済みモデル91と同様に、劣化量学習済みモデル92及び補正劣化量学習済みモデル93の夫々の学習済みモデルに対応した教師データを取得し、夫々の学習済みモデルを生成する。
 本実施形態によれば、情報処理装置6は、内視鏡により所定期間を経て撮影した複数の画像を取得し、取得した複数の画像等に基づいて、前記複数の画像に含まれる体内部位の将来の状態を推定する。従って、内視鏡により所定期間を経て撮影され、所定の体内部位が含まれる複数の画像に基づいて、被検者の体内部位の将来の状態を推定するため、被検者の対象部位における将来的な変化に関する観点からの診断支援を行うことができる。なお、情報処理装置6が取得する画像は、撮像素子により撮影された撮影画像に限定されず、当該撮影画像に画像処理を施した内視鏡画像又は、当該撮影画像及び撮像素子からの距離情報に基づき生成された3次元モデルデータを含む。
 本実施形態によれば、情報処理装置6は、取得した複数の画像に含まれる体内部位の将来における所定の経過期間毎の複数の状態を推定する。従って、当該推定により、当該体内部位における今後の病変の推移に関する情報を診断支援として提供することができる。
 本実施形態によれば、情報処理装置6は、推定した体内部位の将来の状態に基づき、報知情報(診断支援情報)を出力する。情報処理装置6は、推定した体内部位の将来の状態に基づき、例えば当該状態の病変のステージに応じた注意喚起の度合を含む報知情報(診断支援情報)を出力するため、より効率的な診断支援に寄与する情報を出力することができる。
 本実施形態によれば、情報処理装置6は、複数の画像に含まれる各画像による差分データ、すなわち各画像間における変化量に関するデータを導出し、当該差分データに基づき体内部位の将来の状態を推定するため、推定の精度を向上させることができる。
 本実施形態によれば、情報処理装置6は、体内部位の距離情報及び画像に基づき3次元マップデータを生成し、当該3次元マップデータに基づき、体内部位の将来の状態を推定するため、当該距離情報における数値情報を用いて推定の精度を向上させることができる。
 本実施形態によれば、情報処理装置6は、取得した画像に基づいて、当該画像に含まれる体内部位の蠕動運動に関する情報を導出し、当該体内部位の蠕動運動に関する情報に基づき、3次元マップデータにおける、例えば臓壁表面の垂直方向の配置を補正するため、体内部位の蠕動運動によるノイズ成分を除去し、推定の精度を向上させることができる。情報処理装置6は、当該補正を行うにあたり、蠕動量学習済みモデル91を用いるため、補正精度を向上させることができる。
 本実施形態によれば、情報処理装置6は、複数の画像夫々から生成した3次元マップデータに基づき、体内部位における劣化量を導出する。情報処理装置6は、当該劣化量を導出するにあたり、今回の検査による3次元マップデータと、前回の結果(過去の検査)による3次元マップデータとの重ね合わせ処理を行い、体内部位(臓器表面)の形状、彩度等における特徴量差分値(差分情報)を導出する。情報処理装置6は、この差分情報を劣化量学習済みモデル92に入力して劣化量を取得するため、導出する劣化量の精度を向上させることができる。また、情報処理装置6は、導出した劣化量により生成される劣化予測線に基づき、体内部位の将来の状態を推定するため、推定の精度を向上させることができる。
 本実施形態によれば、情報処理装置6は、被検者の生体属性に関する情報に基づき、導出した劣化量を補正するため、推定の精度を向上させることができる。生体属性は、例えば被検者における年齢、性別等の生体属性に関する情報を含む。情報処理装置6は、当該補正を行うにあたり、補正劣化量学習済みモデル93を用いるため、補正精度を向上させることができる。
(実施形態3)
 図16は、実施形態3に係る差分学習済みモデル94の生成処理に関する説明図である。情報処理装置6は、時系列による複数の差分情報を問題データとし、将来における複数の時点における差分情報を回答データとする教師データに基づき学習することで、時系列による複数の差分情報を入力とし、将来における複数の時点における差分情報を出力とするニューラルネットワークを構築(生成)する。
 時系列による複数の差分情報とは、同一の被検者の所定の体内部位(内視鏡画像から抽出された特徴量に基づき特定される体内部位)における過去から現時点(所定の時点)の時系列による複数の差分情報を意味する。将来における複数の時点における差分情報とは、現時点(所定の時点)に対する次点及び、当該次点以降の次々点等の将来における複数の時点における差分情報を意味する。当該差分情報は、内視鏡画像から導出した状態(所定の体内部位の状態量)に相当する。
 入力層は、時系列による複数の差分情報を受け付ける単数又は複数のニューロンを有し、入力された差分情報夫々を中間層に受け渡す。中間層は、複数のニューロンを含む自己回帰層を含む。自己回帰層は、例えばLSTM(Long Short Term Memory/長期短期記憶)モデルとして実装されるものであり、このような自己回帰層を含むニューラルネットワークは、RNN(再帰型ニューラルネットワーク)と称される。中間層は、時系列に沿って順次に入力された複数の差分情報夫々による変化量を出力する。出力層は、将来における複数の時点における差分情報を一又は複数のニューロンを有し、中間層から出力された複数の差分情報夫々による変化量に基づき、将来における複数の時点における差分情報を出力する。このようなRNNに対する学習は、例えばBPTT(Backpropagation Through Time/通時的逆伝播)アルゴリズムを用いて行われる。
 教師データは、配列形式で保存されているものであってもよい。教師データを配列形式とする場合、例えば、配列番号の0から4(t-4からt)までの要素夫々の値を問題データとし、配列番号の5から7(t+1からt+3)までの要素夫々の値を回答データとするものであってもよい。入力層から入力された時系列となる問題データ(t-2、t-1、t)はLSTM(自己回帰層)に順次に受け渡され、LSTM(自己回帰層)は出力値を出力層及び、自身の層に出力することにより、時間的な変化及び順序を含む系列情報を処理することができる。
 図17は、情報処理装置6等の制御部62に含まれる機能部を例示する機能ブロック図である。制御部62は、記憶部63に記憶されているプログラムPを実行することにより、差分情報導出部624として機能する。制御部62は、記憶部63に記憶されているプログラムPを実行することにより、又は差分学習済みモデル94を構成する実体ファイルを読み出すことにより、差分学習済みモデル94として機能する。
 差分情報導出部624は、実施形態2と同様に蠕動量補正部622から取得した3次元マップデータと、前回の3次元マップデータとによる重ね合わせ処理を行い、臓器(体内部位)の表面について、その形状、色空間上の彩度、色相、明度の特徴量差分値を含む差分情報(今回の検査の差分情報)を導出する。
 差分情報導出部624は、被検者IDに基づき、検査結果DB631を参照し、当該被検者の過去の検査における3次元マップデータを取得し、取得した過去の検査における3次元マップデータに基づき、過去の検査の差分情報を導出する。
 差分情報導出部624は、導出した今回及び過去の差分情報に基づき、過去から現在(今回の検査の時点)までの時系列による複数の差分情報を生成し、差分学習済みモデル94及び、劣化予想値導出部626に出力する。
 差分学習済みモデル94は、時系列による複数の差分情報を入力層に入力し、出力層から出力された将来における複数の時点における差分情報を、劣化予想値導出部626に出力する。
 劣化予想値導出部626は、取得した今回及び過去の差分情報及び、将来における複数の時点における差分情報に基づき、過去から将来における複数の劣化量を導出し、当該複数の劣化量に基づき、劣化予想線を導出する。劣化予想線導出を行うにあたり、実施形態2と同様に劣化量学習済みモデル92、補正劣化量学習済みモデル93を用いるものであってもよい。劣化予想値導出部626は、実施形態2と同様に導出した劣化予想線に基づき、現時点(今回の検査の時点)から所定期間が経過した後の一つ又は複数の時点における劣化量を導出する。また、劣化予想値導出部626は、導出した将来における劣化量に基づき、改善案情報等の診断支援情報を導出し出力するものであってもよい。
 図18は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
 情報処理装置6の制御部62は、内視鏡画像等を取得する(S200)。制御部62は、実施形態2と同様に内視鏡画像、3次元マップデータ及び被検者IDを内視鏡装置10から取得する。
 情報処理装置6の制御部62は、過去の内視鏡画像等を取得する(S201)。制御部62は、被検者IDに基づき検査結果DB631を参照し、当該被検者の過去の過去の内視鏡画像、3次元マップデータを取得する。
 情報処理装置6の制御部62は、現在及び過去の内視鏡画像等に基づき、時系列による複数の差分情報を取得する(S202)。制御部62は、時系列による複数の差分情報を取得するにあたり、内視鏡画像から生成された3次元マップデータ夫々を重ね合わせ処理することにより、時系列にて隣接する3次元マップデータによる差分情報を導出する。または、制御部62は、内視鏡画像に基づき差分情報を導出するものであってもよい。
 情報処理装置6の制御部62は、時系列による複数の差分情報を差分学習済みモデル94に入力し、将来の複数の差分情報を取得する(S203)。情報処理装置6の制御部62は、過去、現在及び将来における複数の差分状態に基づき、時系列による複数の劣化量を導出する(S204)。制御部62は、S202の処理で導出した時系列による複数の差分情報(過去から現在までの差分情報)及び、差分学習済みモデル94が出力した将来の複数の差分情報に基づき、過去から将来における時系列による複数の劣化量を導出する。
 情報処理装置6の制御部62は、劣化予想線を導出する(S205)。制御部62は、過去から将来における時系列による複数の劣化量に基づき、線形近似又は曲線近似の手法を用いて、劣化予想線を導出する。
 情報処理装置6の制御部62は、所定期間経過後の劣化予想値を導出する(S206)。制御部62は、劣化予想線に基づき、将来において所定期間経過した後の一つ又は複数の劣化予想値を導出する。
 情報処理装置6の制御部62は、劣化予想値に基づき診断支援情報を出力する(S207)。情報処理装置6の制御部62は、劣化予想値に基づき保険支援情報を出力する(S208)。制御部62は、実施形態2と同様に劣化予想値に基づき診断支援情報及び保険支援情報を出力する。
 本実施形態によれば、情報処理装置6は、内視鏡により時系列で撮影された過去の複数の画像に基づき生成された3次元マップデータから導出した差分データが入力された場合、将来における複数の時系列の差分データを出力する差分学習済みモデル94を効率的に生成することができる。また、情報処理装置6は、当該差分学習済みモデル94を用いることにより、効率的に将来における差分情報を導出し、これら導出した差分情報夫々に基づき劣化量夫々を導出するため、将来における劣化量の推定精度を向上させることができる。
 本実施形態において、内視鏡画像から導出した状態(所定の体内部位の状態量)として、差分情報に基づき説明したが、これに限定されない。内視鏡画像から導出した状態(所定の体内部位の状態量)は、劣化量によるものであってもよい。情報処理装置6は、時系列による複数の劣化量を問題データとし、将来における複数の時点における劣化量を回答データとする教師データに基づき学習することで、時系列による複数の劣化量を入力とし、将来における複数の時点における劣化量を出力とするニューラルネットワーク(劣化量学習済みモデル)を構築(生成)するものであってもよい。情報処理装置6は、当該劣化量学習済みモデルに、取得した複数の内視鏡画像から導出した劣化量を入力して、将来における複数の時系列の劣化量を取得し、取得した将来における複数の時系列の劣化量に基づき、複数の画像に含まれる体内部位の将来の状態を推定するものであってもよい。
(実施形態4)
 図19は、実施形態4に係る内視鏡画像学習済みモデル95の生成処理に関する説明図である。情報処理装置6は、時系列の複数個の内視鏡画像を問題データとし、時系列での最後のデータの次点の内視鏡画像を回答データとする教師データに基づき学習することで、時系列の複数個の内視鏡画像を入力とし、当該次点の内視鏡画像を出力とするニューラルネットワークを構築(生成)する。
 教師データである時系列の複数個の内視鏡画像は、各被検者毎の所定の体内部位における時系列の複数個の内視鏡画像であり、複数回によって行われた過去の検査夫々において撮影された複数の内視鏡画像に基づき生成される。回答データである次点の内視鏡画像は、問題データにおける時系列での最後のデータの次点(次時刻)における内視鏡画像であり、例えば図19においては、データ(t+1)に相当する。回答データは、単一のデータに限定されず、複数のデータ、すなわち次点(t+1)、次々点(t+2)となる複数の内視鏡画像を含むものであってもよい。
 入力層は、時系列による複数個の内視鏡画像を受け付ける単数又は複数のニューロンを有し、入力された複数個の内視鏡画像を中間層に受け渡す。中間層は、コンボリューション層及びプーリング層の以降に自己回帰層が設けられたCNNとRNNとが連結した多層構造を成す。コンボリューション層及びプーリング層により、時系列で入力された内視鏡画像夫々の特徴量が抽出される。自己回帰層は、抽出された特徴量夫々における変化量を出力する。出力層は、一又は複数のニューロンを有し、中間層から出力された内視鏡画像夫々の特徴量における変化量に基づき、次点の内視鏡画像を生成し出力する。CNN及びRNNとの連結構造をなすニューラルネットワークに対する学習は、例えば、誤差逆伝播法(Backpropagation)及びBPTT(Backpropagation Through Time)を組み合わせることにより行われる。
 図20は、病変学習済みモデル96の生成処理に関する説明図である。情報処理装置6は、内視鏡画像を問題データとし、病変の有無及び症状のステージを回答データとする教師データに基づき学習することで、内視鏡画像を入力とし、病変の有無及び症状のステージを出力とするニューラルネットワークを構築(生成)する。内視鏡画像には、例えば病変が疑われる体内部位が含まれる。病変の有無及び症状のステージは、内視鏡画像に含まれる体内部位に関する病変及び症状のステージに関する情報である。
 入力層は、内視鏡画像の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値及び距離情報を中間層に受け渡す。中間層は、内視鏡画像の画像特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量を出力層に受け渡す。出力層は、病変の有無及び症状のステージに関する情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて、病変の有無及び症状のステージに関する情報を出力する。病変学習済みモデル96は、蠕動量学習済みモデル91と同様にCNNであってもよい。
 図21は、情報処理装置6等の制御部62に含まれる機能部を例示する機能ブロック図である。制御部62は、記憶部63に記憶されているプログラムPを実行することにより、取得部621として機能する。制御部62は、記憶部63に記憶されているプログラムPを実行することにより、又は内視鏡画像学習済みモデル95等の学習済みモデルを構成する実体ファイルを読み出すことにより、内視鏡画像学習済みモデル95及び病変学習済みモデル96として機能する。
 取得部621は、実施形態1と同様に内視鏡用プロセッサ20が出力した内視鏡画像及び被検者IDを取得する。取得部621は、被検者IDに基づき検査結果DB631を参照し、当該被検者の過去の検査による複数の内視鏡画像を取得する。取得部621は、内視鏡用プロセッサ20が出力した内視鏡画像(今回の検査の内視鏡画像)に基づき、表面形状又は色情報等から特徴量を抽出し、当該特徴量に対応する体内部位(病変が疑われる部位)を含む内視鏡画像を特定する。特定する内視鏡画像(特定内視鏡画像)は、例えば、当該体内部位を含む内視鏡画像の1フレーム(静止画)又は、数フレームによる動画によるものであってもよい。取得部621は、今回の検査の内視鏡画像にて特定した特定内視鏡画像に基づき、過去の複数の内視鏡画像(過去の複数回の検査による内視鏡画像)における当該特定内視鏡画像に対応する内視鏡画像(過去の特定内視鏡画像)を特定する。取得部621は、今回及び過去の特定内視鏡画像に基づき、過去から今回までの時系列となる複数個の特定内視鏡画像夫々を、配列における各要素とするオブジェクト配列データを生成する。取得部621は、生成した時系列となる複数個の特定内視鏡画像(オブジェクト配列データ)を、内視鏡画像学習済みモデル95に入力する。
 内視鏡画像学習済みモデル95は、取得部621から出力された時系列となる複数個の特定内視鏡画像を入力層に入力し、出力層から出力された次点(時系列での最後に位置する特定内視鏡画像の次点)の特定内視鏡画像を生成し、病変学習済みモデル96に出力する。内視鏡画像学習済みモデル95から出力された特定内視鏡画像は、将来における体内部位(病変が疑われる部位)を含む特定内視鏡画像として、推定されるものである。
 病変学習済みモデル96は、内視鏡画像学習済みモデル95から出力された特定内視鏡画像を入力層に入力し、出力層から出力された病変の有無及び症状のステージ等の病変推定情報を表示部7に出力する。
 図22は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
 情報処理装置6の制御部62は、内視鏡画像等を取得する(S300)。制御部62は、実施形態2と同様に内視鏡画像及び被検者IDを内視鏡装置10から取得する。
 情報処理装置6の制御部62は、過去の内視鏡画像等を取得する(S301)。制御部62は、被検者IDに基づき検査結果DB631を参照し、当該被検者の過去の過去の内視鏡画像を取得する。
 情報処理装置6の制御部62は、特徴量を含む現在及び過去の複数の内視鏡画像を抽出する(S302)。制御部62は、現在及び過去の複数の内視鏡画像から面形状又は色情報等から特徴量を抽出し、当該特徴量に対応する体内部位(病変が疑われる部位)を含む内視鏡画像(特定内視鏡画像)を特定する。
 情報処理装置6の制御部62は、現在及び過去の複数の内視鏡画像を内視鏡画像学習済みモデル95に入力し、将来の内視鏡画像を取得する(S303)。制御部62は、特定した現在及び過去の複数の内視鏡画像(特定内視鏡画像)により、時系列による複数の特定内視鏡画像からなる、例えばオブジェクト配列データを生成し、当該オブジェクト配列データを内視鏡画像学習済みモデル95に入力する。そして、制御部62は、内視鏡画像学習済みモデル95が出力した将来の内視鏡画像(特定内視鏡画像)を取得する。
 情報処理装置6の制御部62は、将来の内視鏡画像を病変学習済みモデル96に入力し、病変推定情報を取得する(S304)。制御部62は、将来の内視鏡画像(特定内視鏡画像)を病変学習済みモデル96に入力し、病変学習済みモデル96が出力した病変の有無及び症状のステージ等の病変推定情報を取得する。
 情報処理装置6の制御部62は、病変推定情報を出力する(S305)。制御部62は、取得した病変の有無及び症状のステージ等の病変推定情報を、ディスプレイ等の表示部7に出力する。制御部62は、実施形態2と同様に病変推定情報に基づいて、改善提案等の診断支援情報、又は概算保険料等の保険支援情報を導出し、表示部7に出力するものであってもよい。
 本実施形態によれば、情報処理装置6は、内視鏡により時系列で撮影された過去の内視鏡画像が入力された場合、将来の内視鏡画像を出力する内視鏡画像学習済みモデル95を効率的に生成することができる。また、情報処理装置6は、内視鏡画像学習済みモデル95を用いることにより、効率的に将来における内視鏡画像を導出し、導出した将来の内視鏡画像に基づき、病変の有無等の病変推定情報を導出するため、当該病変推定情報の推定精度を向上させることができる。
 今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、請求の範囲内での全ての変更及び請求の範囲と均等の範囲が含まれることが意図される。
 S 診断支援システム
 10 内視鏡装置
 15 キーボード
 16 収容棚
 20 内視鏡用プロセッサ
 21 制御部
 211 画像処理部
 212 距離情報導出部
 22 主記憶装置
 23 補助記憶装置
 24 通信部
 25 タッチパネル
 26 表示装置I/F
 27 入力装置I/F
 28 読取部
 31 内視鏡用コネクタ
 311 電気コネクタ
 312 光コネクタ
 33 光源
 34 ポンプ
 35 送水タンク
 36 送気送水口金
 40 内視鏡
 43 操作部
 431 制御ボタン
 433 湾曲ノブ
 44 挿入部
 441 軟性部
 442 湾曲部
 443 先端部
 45 折止部
 48 スコープコネクタ
 49 ライトガイド可撓管
 50 表示装置
 6 情報処理装置
 61 通信部
 62 制御部
 621 取得部
 622 蠕動量補正部
 623 特徴量導出部
 624 差分情報導出部
 625 劣化予想線導出部
 626 劣化予想値導出部
 63 記憶部
 631 検査結果DB
 632 記録媒体
 P プログラム
 64 入出力I/F
 7 表示部
 8 入力部
 91 蠕動量学習済みモデル
 92 劣化量学習済みモデル
 93 補正劣化量学習済みモデル
 94 差分学習済みモデル
 95 内視鏡画像学習済みモデル
 96 病変学習済みモデル

Claims (14)

  1.  コンピュータに、
     内視鏡により所定期間を経て撮影した複数の画像を取得し、
     取得した前記複数の画像に基づいて、前記複数の画像に含まれる体内部位の将来の状態を推定する
     処理をコンピュータに実行させるプログラム。
  2.  取得した前記複数の画像に基づいて、前記複数の画像に含まれる体内部位の将来における所定の経過期間毎の複数の状態を推定する
     請求項1に記載のプログラム。
  3.  推定した前記体内部位の将来の状態に基づき、報知情報を出力する
     請求項1又は請求項2に記載のプログラム。
  4.  取得した前記複数の画像に含まれる各画像による差分データを導出し、
     導出した前記差分データに基づき、前記体内部位の将来の状態を推定する
     請求項1から請求項3のいずれか1項に記載のプログラム。
  5.  取得した前記複数の画像に基づいて、前記複数の画像夫々に含まれる体内部位の距離情報を導出し、
     導出した前記距離情報及び、前記体内部位の画像に基づき、マップデータを生成し、
     生成した前記マップデータに基づき、前記体内部位の将来の状態を推定する
     請求項1から請求項4のいずれか1項に記載のプログラム。
  6.  前記取得した画像に基づいて、該画像に含まれる体内部位の蠕動運動に関する情報を導出し、
     導出した前記蠕動運動に関する情報に基づき、前記マップデータを補正する
     請求項5に記載のプログラム。
  7.  生成した前記マップデータに基づき、前記体内部位における劣化量を導出し、
     導出した前記劣化量により生成される劣化予測線に基づき、前記体内部位の将来の状態を推定する
     請求項5又は請求項6に記載のプログラム。
  8.  前記体内部位の将来の状態の推定対象となる被検者の生体属性に関する情報を取得し、
     取得した前記被検者の生体属性に関する情報に基づき、前記劣化量を補正する
     請求項7に記載のプログラム。
  9.  前記内視鏡により時系列で撮影された過去の複数の画像から導出した状態が入力された場合、将来における複数の時系列の状態を出力するように学習済みの学習済みモデルに、取得した前記複数の画像から導出した状態を入力し、
     前記学習済みモデルから、前記将来における複数の時系列の状態を取得し、
     取得した前記将来における複数の時系列の状態に基づき、前記複数の画像に含まれる体内部位の将来の状態を推定する
     請求項1に記載のプログラム。
  10.  前記内視鏡により時系列で撮影された過去の複数の画像が入力された場合、将来における画像を出力するように学習済みの学習済みモデルに、取得した前記複数の画像を入力し、
     前記学習済みモデルから、前記将来における画像を取得し、
     取得した前記将来における画像に基づき、該画像に含まれる体内部位の将来の状態を推定する
     請求項1に記載のプログラム。
  11.  内視鏡により所定期間を経て撮影した複数の画像を取得し、
     取得した前記複数の画像に基づいて、前記複数の画像に含まれる体内部位の将来の状態を推定する
     処理をコンピュータに実行させる情報処理方法。
  12.  推定した前記体内部位の将来の状態に応じた改善案に関する情報を出力する
     請求項11に記載の情報処理方法。
  13.  推定した前記体内部位の将来の状態に基づいて、推定対象の被検者の保険料に関する情報を導出する
     請求項11又は請求項12に記載の情報処理方法。
  14.  内視鏡により所定期間を経て撮影した複数の画像を取得する取得部と、
     取得した前記複数の画像に基づいて、前記複数の画像に含まれる体内部位の将来の状態を推定する推定部と
     を備える情報処理装置。
     
PCT/JP2019/028894 2019-07-23 2019-07-23 プログラム、情報処理方法及び情報処理装置 WO2021014584A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/298,275 US20220095889A1 (en) 2019-07-23 2019-07-23 Program, information processing method, and information processing apparatus
JP2019569984A JP6704095B1 (ja) 2019-07-23 2019-07-23 プログラム、情報処理方法及び情報処理装置
PCT/JP2019/028894 WO2021014584A1 (ja) 2019-07-23 2019-07-23 プログラム、情報処理方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/028894 WO2021014584A1 (ja) 2019-07-23 2019-07-23 プログラム、情報処理方法及び情報処理装置

Publications (1)

Publication Number Publication Date
WO2021014584A1 true WO2021014584A1 (ja) 2021-01-28

Family

ID=70858270

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028894 WO2021014584A1 (ja) 2019-07-23 2019-07-23 プログラム、情報処理方法及び情報処理装置

Country Status (3)

Country Link
US (1) US20220095889A1 (ja)
JP (1) JP6704095B1 (ja)
WO (1) WO2021014584A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022202520A1 (ja) * 2021-03-26 2022-09-29 富士フイルム株式会社 医療情報処理装置、内視鏡システム、医療情報処理方法、及び医療情報処理プログラム
WO2022201933A1 (ja) * 2021-03-25 2022-09-29 ソニーグループ株式会社 生体内観察システム、観察システム、生体内観察方法及び生体内観察装置
WO2022230607A1 (ja) * 2021-04-26 2022-11-03 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204738A (ja) * 2000-01-26 2001-07-31 Olympus Optical Co Ltd 手術用ナビゲーションシステム
JP2004280807A (ja) * 2003-02-28 2004-10-07 Toshiba Corp サイバーホスピタルシステム
WO2005077253A1 (ja) * 2004-02-18 2005-08-25 Osaka University 内視鏡システム
JP2011092685A (ja) * 2009-09-30 2011-05-12 Fujifilm Corp 診断支援システム、診断支援プログラムおよび診断支援方法
JP2016071697A (ja) * 2014-09-30 2016-05-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム
JP2016529037A (ja) * 2013-08-27 2016-09-23 ハートフロー, インコーポレイテッド 冠動脈病変の部位、発症及び/又は変化を予測するためのシステム及び方法
JP2018022216A (ja) * 2016-08-01 2018-02-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204738A (ja) * 2000-01-26 2001-07-31 Olympus Optical Co Ltd 手術用ナビゲーションシステム
JP2004280807A (ja) * 2003-02-28 2004-10-07 Toshiba Corp サイバーホスピタルシステム
WO2005077253A1 (ja) * 2004-02-18 2005-08-25 Osaka University 内視鏡システム
JP2011092685A (ja) * 2009-09-30 2011-05-12 Fujifilm Corp 診断支援システム、診断支援プログラムおよび診断支援方法
JP2016529037A (ja) * 2013-08-27 2016-09-23 ハートフロー, インコーポレイテッド 冠動脈病変の部位、発症及び/又は変化を予測するためのシステム及び方法
JP2016071697A (ja) * 2014-09-30 2016-05-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム
JP2018022216A (ja) * 2016-08-01 2018-02-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201933A1 (ja) * 2021-03-25 2022-09-29 ソニーグループ株式会社 生体内観察システム、観察システム、生体内観察方法及び生体内観察装置
WO2022202520A1 (ja) * 2021-03-26 2022-09-29 富士フイルム株式会社 医療情報処理装置、内視鏡システム、医療情報処理方法、及び医療情報処理プログラム
WO2022230607A1 (ja) * 2021-04-26 2022-11-03 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法

Also Published As

Publication number Publication date
JP6704095B1 (ja) 2020-06-03
US20220095889A1 (en) 2022-03-31
JPWO2021014584A1 (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
KR101887194B1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
US10984905B2 (en) Artificial intelligence for physiological quantification in medical imaging
KR101879207B1 (ko) 약한 지도 학습 방식의 객체 인식 방법 및 장치
CN113544743B (zh) 内窥镜用处理器、程序、信息处理方法和信息处理装置
US9892361B2 (en) Method and system for cross-domain synthesis of medical images using contextual deep network
US8934722B2 (en) System and method for classification of image data items based on indirect user input
JP6704095B1 (ja) プログラム、情報処理方法及び情報処理装置
US20220351407A1 (en) Program, information processing method, and information processing device
JP7377769B2 (ja) プログラム、情報処理方法及び情報処理装置
WO2020195807A1 (ja) 内視鏡用プロセッサ、情報処理装置、プログラム、情報処理方法および学習モデルの生成方法
US20190125306A1 (en) Method of transmitting a medical image, and a medical imaging apparatus performing the method
CN114830107A (zh) 图像处理系统、图像处理装置、内窥镜系统、接口以及图像处理方法
US20220084194A1 (en) Computer program, processor for endoscope, and information processing method
JP7203000B2 (ja) プログラム、情報処理方法及び情報処理装置
US20220222840A1 (en) Control device, image processing method, and storage medium
US11734849B2 (en) Estimating patient biographic data parameters
EP3805835B1 (en) Optical imaging system and related apparatus, method and computer program
CN115700740A (zh) 医学图像处理方法、装置、计算机设备和存储介质
WO2022239518A1 (ja) プログラム、情報処理方法及び内視鏡システム
US20230180999A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system
EP4373079A1 (en) System, method, and computer program for an optical imaging system and corresponding optical imaging system
Yao Machine Learning and Image Processing for Clinical Outcome Prediction: Applications in Medical Data from Patients with Traumatic Brain Injury, Ulcerative Colitis, and Heart Failure
US20240087723A1 (en) Program, information processing method, and information processing device
WO2024024022A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019569984

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19938210

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19938210

Country of ref document: EP

Kind code of ref document: A1