WO2019088008A1 - 画像処理装置、画像処理方法、プログラム、及び内視鏡システム - Google Patents

画像処理装置、画像処理方法、プログラム、及び内視鏡システム Download PDF

Info

Publication number
WO2019088008A1
WO2019088008A1 PCT/JP2018/040051 JP2018040051W WO2019088008A1 WO 2019088008 A1 WO2019088008 A1 WO 2019088008A1 JP 2018040051 W JP2018040051 W JP 2018040051W WO 2019088008 A1 WO2019088008 A1 WO 2019088008A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
extraction
endoscopic image
area
feature
Prior art date
Application number
PCT/JP2018/040051
Other languages
English (en)
French (fr)
Inventor
加來 俊彦
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019550364A priority Critical patent/JP7148534B2/ja
Publication of WO2019088008A1 publication Critical patent/WO2019088008A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, a program, and an endoscope system, and more particularly to analysis of a virtual endoscopic image.
  • the endoscopic image is an image captured using an imaging device such as a CCD (Charge Coupled Device).
  • the endoscopic image is an image in which the color and texture of the inside of the tubular structure are clearly expressed.
  • an endoscopic image is a two-dimensional image representing the inside of a tubular structure. For this reason, it is difficult to grasp which position in the tubular structure the endoscopic image represents.
  • the virtual endoscopic image may be used as a navigation image to guide the endoscope to a target position in the tubular structure.
  • CT is an abbreviation of Computed Tomography.
  • MRI is an abbreviation of Magnetic Resonance Imaging.
  • the image of the tubular structure is extracted from the three-dimensional inspection image, and the correspondence between the image of the tubular structure and the actual endoscopic image which is an actual endoscopic image acquired by imaging using the endoscope is acquired.
  • a method has been proposed in which a virtual endoscopic image at the current position of the endoscope is generated from the three-dimensional inspection image of the tubular structure and displayed.
  • Patent Document 1 describes a medical support system which provides a more realistic image by forming a three-dimensional model of an organ in a virtual space, using an endoscopic image obtained from an endoscopic device as an input.
  • Patent Document 2 generates a virtual endoscopic image so that a composition representing the relative positional relationship between a color endoscope real image and a virtual endoscopic image matches, and the affected area can be easily seen in the endoscopic image.
  • An endoscopic system for displaying in an aspect is described.
  • Patent Document 3 describes a medical image observation apparatus that stores coordinate data of a specific part of medical image data in association with the medical image data.
  • the medical image observation device described in Patent Document 3 maintains the image quality of a finding portion that does not want to deteriorate the image quality, and reduces the amount of image data used for image display to improve the efficiency of image display.
  • Patent Document 4 describes an image processing method for detecting an object from a three-dimensional medical image.
  • the image processing method described in Patent Document 4 applies learning when detecting an object from a three-dimensional medical image.
  • virtual colonoscopy based on virtual colonoscopy images is good at detecting protrusions such as convex polyps, it is not good at detecting flat lesions and the like. In order to improve the performance of virtual colonoscopy, it is desirable to collect information on lesions for which virtual colonoscopy is not good.
  • the subject in the virtual large intestine endoscopy mentioned above is the same also about the virtual endoscopy which is applied to the observation site
  • Patent Document 1 to Patent Document 4 do not focus on the technical problem of collecting information on lesions that are not good for virtual endoscopy, and do not solve the above-mentioned technical problems.
  • the present invention has been made in view of such circumstances, and provides an image processing apparatus, an image processing method, a program, and an endoscope which enable efficient information collection of a lesion or the like which is not good at virtual endoscopy. It aims to provide a system.
  • the image processing apparatus captures an observation target of a subject using a first image input unit that inputs a virtual endoscopic image generated from a three-dimensional inspection image of the subject, and an endoscope.
  • a second image input unit for inputting a real endoscope image obtained by the user, a matching unit for correlating the virtual endoscope image and the real endoscope image, and a virtual endoscope image as a first condition
  • a first feature region extraction unit that extracts a first feature region that matches, and a second feature region extraction unit that extracts a second feature region that matches a second condition that corresponds to a first condition from the real endoscopic image ,
  • Information of a non-extraction area that is associated with the second feature area of the real endoscopic image and is not extracted as a first feature area from the virtual endoscopic image, and a second feature that is associated with the non-extraction area
  • An image processing apparatus comprising: a storage unit for storing at least one of region information; .
  • the information of the non-extraction area of the virtual endoscopic image associated with the second feature area of the real endoscopic image, and the information of the second feature area associated with the non-extraction area At least one is saved. This enables efficient collection of information on feature regions that are extracted from real endoscopic images but not extracted from virtual endoscopic images.
  • a three-dimensional inspection image a three-dimensional inspection image obtained by tomographic imaging of an object using a CT apparatus can be mentioned.
  • a virtual endoscope a virtual large intestine endoscope which uses a large intestine as a subject is mentioned.
  • the aspect provided with the 1st condition setting part which sets the 1st condition applied to extraction of the 1st feature field is preferred.
  • the aspect provided with the 2nd condition setting part which sets the 2nd condition applied to extraction of a 2nd feature area is preferable.
  • a moving image may be sequentially input as a real endoscopic image, or a moving image may be collectively input in a file format as a real endoscopic image.
  • the image processing apparatus includes an extraction result application unit that applies an extraction result obtained by extracting the first feature area from the virtual endoscopic image to the real endoscopic image. It is also good.
  • the second aspect whether or not the second feature area of the virtual endoscopic image is associated with the non-extraction area using the extraction result of the virtual endoscopic image given to the real endoscopic image And identification of whether or not the endoscope image is a real endoscope image including the second feature region associated with the non-target region of the real endoscope image.
  • information specifying a non-extraction area not extracted as the first feature area can be mentioned.
  • information for specifying a non-extraction area include information on the position of the non-extraction area and an image of the non-extraction area.
  • an extraction result of extracting the first feature area from the virtual endoscopic image and an extraction result of extracting the second feature area from the real endoscopic image It is good also as composition provided with a comparison part which compares with.
  • the third aspect it is possible to efficiently associate the first feature area of the virtual endoscopic image with the second feature area of the real endoscopic image based on the comparison using the comparison unit.
  • the comparison unit may be configured to compare corresponding positions of the virtual endoscopic image and the real endoscopic image.
  • the fourth aspect it is possible to compare the corresponding positions of the virtual endoscopic image and the real endoscopic image.
  • an area associated with the non-extraction area of the virtual endoscopic image for the second feature area of the real endoscopic image is good also as composition provided with the judgment result input part which inputs the judgment result which judged whether it was it.
  • the display portion displaying the extraction result of the virtual endoscopic image and the extraction result of the real endoscopic image is provided. It may be
  • the user can check the extraction result of the virtual endoscopic image and the extraction result of the real endoscopic image.
  • an extraction result input unit for inputting an extraction result obtained by extracting the second feature area from the real endoscopic image is provided. It is also good.
  • the seventh aspect it is possible to obtain the extraction result of the manual extraction of the user.
  • An eighth aspect is the image processing apparatus according to any one of the first aspect to the sixth aspect, wherein the second feature region extraction unit is configured to automatically extract the second feature region from the real endoscopic image. Good.
  • the second feature area extraction unit may extract a lesion as a second feature area from the real endoscopic image.
  • the ninth aspect it is possible to specify a non-extraction area of a virtual endoscopic image corresponding to a lesion.
  • a tenth aspect is the image processing device according to any one of the first aspect to the ninth aspect, wherein the storage unit corresponds to a three-dimensional coordinate value in a virtual endoscopic image of a non-extraction area and a non-extraction area At least one of real endoscope images including two characteristic regions may be stored.
  • the storage unit can store a real endoscopic image including the coordinate value of the virtual endoscopic image of the non-extraction region and the second feature region corresponding to the non-extraction region.
  • the storage unit may store the coordinate value of the representative position of the non-extraction area as the coordinate value specifying the non-extraction area.
  • the representative position of the non-extraction area the barycentric position of the non-extraction area may be mentioned.
  • the storage unit may store a plurality of coordinate values included in the non-extraction area as coordinate values specifying the non-extraction area.
  • Examples of the plurality of coordinate values included in the non-extraction area include a plurality of coordinate values specifying the edge of the non-extraction area.
  • the storage unit may associate and store coordinate values in the virtual endoscopic image of the non-extraction area and a real endoscopic image including the second feature area corresponding to the non-extraction area.
  • An eleventh aspect is the image processing apparatus according to any one of the first aspect to the tenth aspect, wherein the first feature region extraction unit may extract a lesion as a first feature region from the virtual endoscopic image. .
  • the eleventh aspect it is possible to efficiently collect information of a lesion not extracted from the virtual endoscopic image but extracted from the real endoscopic image.
  • lesions include lesions having two-dimensional features that can be viewed using color, texture, and the like.
  • the first feature region extraction unit is configured to compare the information of the second feature region stored in the storage unit with the non-extraction region.
  • the extraction rules for extracting the first feature area from the virtual endoscopic image may be updated using the correspondence relationship.
  • the extraction rule for extracting the first feature area can be updated using the information on the feature area not extracted from the virtual endoscopic image. This may improve the performance of virtual endoscopy.
  • the thirteenth aspect is the image processing apparatus according to any one of the first aspect to the twelfth aspect, wherein the first feature region extraction unit applies an extraction rule generated using machine learning to a virtual endoscope
  • the first feature area may be extracted from the image.
  • An image processing method comprises: a first image input step of inputting a virtual endoscopic image generated from a three-dimensional inspection image of a subject; and imaging an observation target of the subject using an endoscope.
  • a storing step of an image processing method comprising.
  • the same matters as the matters specified in the second to thirteenth aspects can be combined as appropriate.
  • the component carrying the processing or function specified in the image processing apparatus can be grasped as the component of the image processing method carrying the processing or function corresponding thereto.
  • the program according to the fifteenth aspect comprises, in a computer, a first image input function of inputting a virtual endoscopic image generated from a three-dimensional inspection image of a subject, and imaging an observation target of the subject using an endoscope
  • a second image input function for inputting a real endoscopic image obtained by the user a matching function for correlating a virtual endoscopic image generated from a virtual endoscopic image with the real endoscopic image, virtual endoscopy
  • Corresponds to information of a non-extraction area that is associated with the second feature area of the real endoscope image and is not extracted as a first feature area from the virtual endoscopic image, and a non-extraction area At least one of the information of the second feature area attached A program to realize the save function to save the people.
  • the same matters as the matters specified in the second to thirteenth aspects can be combined as appropriate.
  • the component carrying the processing or function specified in the image processing apparatus can be grasped as the component of the program carrying the processing or function corresponding thereto.
  • a fifteenth aspect is a system having at least one or more processors and at least one or more memories, the first image input for inputting a virtual endoscopic image generated from a three-dimensional inspection image of a subject Function, a second image input function for inputting a real endoscopic image obtained by imaging an observation target of a subject using an endoscope, a virtual endoscopic image generated from a virtual endoscopic image and a real endoscopic image From the real endoscopic image, the correlating function of correlating with the endoscopic image, the first characteristic area extracting function of extracting the first characteristic area that matches the first condition from the virtual endoscopic image, and the real endoscopic image A second feature area extraction function of extracting a second feature area that matches the corresponding second condition, and the second feature area of the real endoscope image, which are associated with each other as a first feature area from the virtual endoscopic image Information of non-extracted area not extracted, and non-extracted area It may be configured as a system for realizing a storage function of storing at least one of information of the second feature area associated
  • An endoscope system comprises an endoscope, a first image input unit for inputting a virtual endoscopic image generated from a three-dimensional inspection image of a subject, and a subject using an endoscope.
  • a second image input unit for inputting an actual endoscopic image obtained by imaging the observation target of the image, and a virtual endoscopic image generated from the virtual endoscopic image and the actual endoscopic image;
  • a matching unit a first feature region extracting unit for extracting a first feature region that matches the first condition from the virtual endoscopic image, and a second condition that matches the first condition from the real endoscopic image
  • a second feature area extraction unit for extracting a second feature area to be extracted, and a non-extraction area that is associated with the second feature area of the real endoscope image and is not extracted as a first feature area from the virtual endoscopic image And / or the information of the second feature area associated with the non-extraction area
  • a storage unit that exists is an endoscope system having a.
  • the same matters as the matters specified in the second to thirteenth aspects can be combined as appropriate.
  • the component carrying the processing or function specified in the image processing apparatus can be grasped as a component of the endoscope system carrying the processing or function corresponding thereto.
  • An endoscope system is an endoscope system including an endoscope, an image processing device, and a storage device, wherein the image processing device is a virtual image generated from a three-dimensional inspection image of a subject A first image input unit for inputting an endoscopic image, a second image input unit for inputting a real endoscopic image obtained by imaging an observation target of an object using the endoscope, and a virtual endoscope A matching unit that associates a virtual endoscopic image generated from a mirror image with a real endoscopic image, and a first feature region that extracts a first feature region that matches the first condition from the virtual endoscopic image And a second feature area extraction unit for extracting a second feature area that matches a second condition corresponding to the first condition from the real endoscope image, and the storage device is a real endoscope image.
  • an endoscope system having a storage for storing at least one of information of the second feature area associated with the non-extraction region.
  • the same matters as the matters specified in the second to thirteenth aspects can be combined as appropriate.
  • the component carrying the processing or function specified in the image processing apparatus can be grasped as a component of the endoscope system carrying the processing or function corresponding thereto.
  • the storage device may be communicably connected to the image processing apparatus via the network.
  • the eighteenth aspect it is possible to efficiently collect information on feature regions that are extracted from the real endoscopic image while not extracted from the virtual endoscopic image using the network-connected storage device.
  • At least information of the non-extraction area of the virtual endoscopic image associated with the second feature area of the real endoscopic image and the information of the second feature area associated with the non-extraction area Either one is saved. This enables efficient collection of information on feature regions that are extracted from real endoscopic images but not extracted from virtual endoscopic images.
  • FIG. 1 is a schematic view showing an entire configuration of an endoscope system.
  • FIG. 2 is a functional block diagram showing functions of the medical image processing apparatus.
  • FIG. 3 is a functional block diagram showing the function of the medical image analysis processing unit.
  • FIG. 4 is a schematic view of a CTC image.
  • FIG. 5 is a schematic view of an endoscopic image.
  • FIG. 6 is an explanatory view of the first feature area extraction.
  • FIG. 7 is an explanatory view of second feature area extraction.
  • FIG. 8 is an explanatory diagram of another example of the second feature area extraction.
  • FIG. 9 is a schematic view showing an example of the association of lesions.
  • FIG. 10 is a schematic view showing an example of corrugation correspondence.
  • FIG. 11 is a schematic view showing an example of the arrangement of the folds using the fold numbers.
  • FIG. 12 is an explanatory view of an example of comparison processing of a CTC image and an endoscopic image using a lesion.
  • FIG. 13 is a flowchart showing the procedure of the image processing method.
  • FIG. 1 is a schematic view showing an entire configuration of an endoscope system.
  • An endoscope system 9 shown in FIG. 1 includes an endoscope 10, a light source device 11, a processor 12, a display device 13, a medical image processing device 14, an operation device 15, and a monitor device 16. Prepare.
  • the endoscope system 9 is communicably connected to the image storage device 18 via the network 17.
  • the endoscope 10 is an electronic endoscope.
  • the endoscope 10 is a flexible endoscope.
  • the endoscope 10 includes an insertion unit 20, an operation unit 21, and a universal cord 22.
  • the insert 20 comprises a distal end and a proximal end.
  • the insertion unit 20 is inserted into the subject.
  • the operator holds the operation unit 21 to perform various operations.
  • the operation unit 21 is continuously provided on the proximal end side of the insertion unit 20.
  • the insertion part 20 is formed in a long and narrow shape as a whole.
  • the insertion portion 20 includes a flexible portion 25, a bending portion 26, and a tip portion 27.
  • the insertion portion 20 is configured by connecting the flexible portion 25, the bending portion 26, and the distal end portion 27 in series.
  • the flexible portion 25 has flexibility in order from the proximal side to the distal side of the insertion portion 20.
  • the bending portion 26 has a structure that can be bent when the operation portion 21 is operated.
  • the distal end portion 27 incorporates a photographing optical system and an imaging device 28 which are not shown.
  • the imaging device 28 is a CMOS imaging device or a CCD imaging device.
  • CMOS is an abbreviation of Complementary Metal Oxide Semiconductor, which is the English language for Complementary Metal Oxide Semiconductor.
  • CCD is an abbreviation of Charge Coupled Device, which is an English notation for charge coupled devices.
  • An observation window (not shown) is disposed on the distal end surface 27 a of the distal end portion 27.
  • the observation window is an opening formed in the distal end surface 27 a of the distal end portion 27.
  • a photographing optical system (not shown) is disposed behind the observation window. Image light of a region to be observed is incident on the imaging surface of the imaging element 28 through an observation window, a photographing optical system, and the like.
  • the imaging device 28 images the image light of the observed region incident on the imaging surface of the imaging device 28 and outputs an imaging signal.
  • imaging as used herein includes the meaning of converting image light into an electrical signal.
  • the operation unit 21 includes various operation members.
  • the various operating members are operated by the operator.
  • the operation unit 21 includes two types of bending operation knobs 29.
  • the bending operation knob 29 is used when bending the bending portion 26.
  • the operation unit 21 includes an air / water feed button 30 and a suction button 31.
  • the air / water supply button 30 is used at the time of air / water operation.
  • the suction button 31 is used at the time of suction operation.
  • the operation unit 21 includes a still image photographing instruction unit 32 and a treatment instrument introduction port 33.
  • the still image photographing instruction unit 32 is used when instructing the photographing of the still image 39 of the region to be observed.
  • the treatment instrument introduction port 33 is an opening for inserting the treatment instrument into the inside of the treatment instrument insertion path passing through the inside of the insertion portion 20. The treatment tool insertion path and the treatment tool are not shown.
  • the universal cord 22 is a connection cord that connects the endoscope 10 to the light source device 11.
  • the universal cord 22 includes the light guide 35 passing through the inside of the insertion portion 20, the signal cable 36, and a fluid tube (not shown).
  • an end of the universal cord 22 includes a connector 37 a connected to the light source device 11 and a connector 37 b branched from the connector 37 a and connected to the processor 12.
  • the connector 37 a When the connector 37 a is connected to the light source device 11, the light guide 35 and a fluid tube (not shown) are inserted into the light source device 11. Thereby, necessary illumination light, water, and gas are supplied from the light source device 11 to the endoscope 10 through the light guide 35 and the fluid tube (not shown).
  • illumination light is emitted from the illumination window (not shown) of the distal end surface 27 a of the distal end portion 27 toward the region to be observed.
  • gas or water is jetted from an air / water supply nozzle (not shown) of the distal end surface 27a of the distal end portion 27 toward an observation window (not shown) of the distal end surface 27a.
  • the signal cable 36 and the processor 12 are electrically connected.
  • an imaging signal of the region to be observed is output from the imaging element 28 of the endoscope 10 to the processor 12 through the signal cable 36, and a control signal is output from the processor 12 to the endoscope 10.
  • a flexible endoscope has been described as an example of the endoscope 10, but various types of electronic devices capable of capturing moving images of a region to be observed such as a rigid endoscope can be used as the endoscope 10
  • An endoscope may be used.
  • the light source device 11 supplies illumination light to the light guide 35 of the endoscope 10 via the connector 37a.
  • the illumination light may be white light or light of a specific wavelength band.
  • the illumination light may combine white light and light of a specific wavelength band.
  • the light source device 11 is configured to be able to appropriately select light of a wavelength band according to the purpose of observation as illumination light.
  • the white light may be light of a white wavelength band or light of a plurality of wavelength bands.
  • the specific wavelength band is a band narrower than the white wavelength band.
  • light of a specific wavelength band light of one type of wavelength band may be applied, or light of a plurality of wavelength bands may be applied.
  • the particular wavelength band may be called special light.
  • the processor 12 controls the operation of the endoscope 10 via the connector 37 b and the signal cable 36.
  • the processor 12 also acquires an imaging signal from the imaging element 28 of the endoscope 10 via the connector 37 b and the signal cable 36.
  • the processor 12 applies a specified frame rate to acquire an imaging signal output from the endoscope 10.
  • the processor 12 generates a moving image 38 of the region to be observed based on the imaging signal acquired from the endoscope 10. Furthermore, when the still image photographing instruction unit 32 is operated by the operation unit 21 of the endoscope 10, the processor 12 observes the object based on the imaging signal acquired from the imaging device 28 in parallel with the generation of the moving image 38. A still image 39 of the site is generated. The still image 39 may be generated at a high resolution with respect to the resolution of the moving image 38.
  • the processor 12 When generating the moving image 38 and the still image 39, the processor 12 performs image quality correction to which digital signal processing such as white balance adjustment and shading correction is applied.
  • the processor 12 may add incidental information defined by the DICOM (Digital Imaging and Communications in Medicine) standard to the moving image 38 and the still image 39.
  • DICOM Digital Imaging and Communications in Medicine
  • the moving image 38 and the still image 39 are in-vivo images of the inside of a subject, that is, the inside of a living body. Furthermore, when the moving image 38 and the still image 39 are images obtained by imaging using light of a specific wavelength band, both are special light images. Then, the processor 12 outputs the generated moving image 38 and still image 39 to each of the display device 13 and the medical image processing device 14. The processor 12 may output the moving image 38 and the still image 39 to the image storage device 18 via the network 17 in accordance with a communication protocol conforming to the DICOM standard.
  • the display device 13 is connected to the processor 12.
  • the display device 13 displays the moving image 38 and the still image 39 input from the processor 12.
  • a user such as a doctor performs an operation of advancing and retracting the insertion unit 20 while checking the moving image 38 displayed on the display device 13 and detects the still image photographing instruction unit 32 when a lesion etc. is detected in the observed region. It is possible to operate to perform still image shooting of a region to be observed.
  • the medical image processing apparatus 14 uses a computer.
  • a keyboard, a mouse or the like connectable to a computer is used.
  • the connection between the controller device 15 and the computer may be either a wired connection or a wireless connection.
  • the monitor device 16 uses various monitors connectable to a computer.
  • a diagnosis support apparatus such as a workstation and a server apparatus may be used.
  • the controller device 15 and the monitor device 16 are provided for each of a plurality of terminals connected to a work station or the like.
  • a medical care operation support apparatus that supports creation of a medical report or the like may be used.
  • the medical image processing apparatus 14 acquires a moving image 38 and stores the moving image 38.
  • the medical image processing apparatus 14 acquires a still image 39 and stores the still image 39.
  • the medical image processing apparatus 14 performs reproduction control of the moving image 38 and reproduction control of the still image 39.
  • the operating device 15 is used to input an operation instruction to the medical image processing apparatus 14.
  • the monitor device 16 displays the moving image 38 and the still image 39 under the control of the medical image processing apparatus 14.
  • the monitor device 16 functions as a display unit of various information in the medical image processing apparatus 14.
  • the monitor device 16 is an example of a display unit that displays the extraction result of the virtual endoscopic image.
  • the monitor device 16 is an example of a display unit that displays the extraction result of the real endoscope image.
  • the image storage device 18 connected to the medical image processing device 14 via the network 17 stores the CTC image 19.
  • the CTC image 19 is generated using a CTC image generator (not shown).
  • CTC is a shorthand notation showing CT colonography (colonography) showing a large intestine three-dimensional CT examination.
  • a CTC image generator (not shown) generates a CTC image from the three-dimensional inspection image.
  • the three-dimensional inspection image is generated from an imaging signal obtained by imaging a region to be inspected using a three-dimensional imaging device.
  • the three-dimensional imaging apparatus include a CT apparatus, an MRI apparatus, PET (Positron Emission Tomography), and an ultrasonic diagnostic apparatus.
  • the CTC image 19 is generated from a three-dimensional inspection image obtained by imaging the large intestine.
  • the endoscope system 9 may be communicably connected to the server device via the network 17.
  • the server apparatus can apply a computer that stores and manages various data.
  • the information stored in the image storage device 18 shown in FIG. 1 may be managed using a server device.
  • DICOM format, a protocol conforming to the DICOM standard, or the like can be applied to the storage format of the image data and the communication between the respective devices via the network 17.
  • FIG. 2 is a functional block diagram showing functions of the medical image processing apparatus.
  • the medical image processing apparatus 14 shown in FIG. 2 includes a computer (not shown).
  • the computer functions as an image acquisition unit 41, an information acquisition unit 42, a medical image analysis processing unit 43, and a display control unit 44 based on the execution of a program.
  • the medical image processing apparatus 14 includes a storage unit 47 that stores information used for various controls of the medical image processing apparatus 14.
  • the image acquisition unit 41 includes a CTC image acquisition unit 41a and an endoscope image acquisition unit 41b.
  • the CTC image acquisition unit 41a acquires a CTC image via an image input / output interface (not shown).
  • the endoscopic image acquisition unit 41b acquires an endoscopic image 37 via an image input / output interface (not shown).
  • the connection form of the image input / output interface may be wired or wireless.
  • the CTC image acquisition unit 41a and the endoscope image acquisition unit 41b will be described in detail below.
  • the CTC image acquisition unit 41a acquires the CTC image 19 stored in the image storage device 18 shown in FIG.
  • the CTC image 19 acquired using the CTC image acquisition unit 41 a shown in FIG. 2 is stored in the image storage unit 48.
  • the CTC image acquisition unit 41a can apply the same configuration as the endoscopic image acquisition unit 41b described later.
  • Reference numeral 19b represents a viewpoint image.
  • the viewpoint image 19 b is an image of the field of view at the viewpoint set in the CTC image 19. The viewpoint is shown in FIG. Details of the viewpoint image and the viewpoint will be described later.
  • the term image in the present embodiment includes the concept of data representing an image or the concept of a signal.
  • the CTC image is an example of a virtual endoscopic image.
  • the CTC image corresponds to a virtual colonoscopy image.
  • the CTC image acquisition unit 41a is an example of a first image input unit that inputs a virtual endoscopic image.
  • the endoscopic image acquisition unit 41 b acquires an endoscopic image 37 generated using the processor 12 illustrated in FIG. 1.
  • the endoscopic image 37 includes the moving image 38 and the still image 39 shown in FIG.
  • the endoscopic image 37 generated using the processor 12 shown in FIG. 1 is acquired, but the endoscopic image 37 stored in an external storage device may be acquired.
  • the endoscopic image acquisition unit 41b illustrated in FIG. 2 may acquire the endoscopic image 37 via various information storage media such as a memory card.
  • the endoscopic image acquiring unit 41b acquires the moving image 38 and the still image 39 from the processor 12 illustrated in FIG.
  • the medical image processing apparatus 14 stores the moving image 38 and the still image 39 acquired by using the endoscopic image acquisition unit 41 b in the image storage unit 48.
  • Reference numeral 38a represents a plurality of frame images constituting the moving image 38.
  • the medical image processing apparatus 14 does not need to store all of the moving image 38 of the endoscopic image 37 input from the processor 12 or the like in the image storage unit 48, and the still image photographing instruction unit 3 shown in FIG.
  • moving image 38 for one minute before and after that may be stored in image storage unit 48 shown in FIG.
  • the one minute before and after represents a period from one minute before photographing to one minute after photographing.
  • the endoscope image acquisition unit 41 b is an example of a second image input unit that inputs an actual endoscope image.
  • the endoscopic image 37 corresponds to a real endoscopic image.
  • the information acquisition unit 42 acquires information input from the outside via the operation device 15 or the like. For example, when the determination result determined by the user using the operation device 15 and the extraction result are input, the information acquisition unit 42 acquires the determination information of the user, the extraction information, and the like.
  • the information acquisition unit 42 is an example of a determination result input unit.
  • the information acquisition unit 42 is an example of an extraction result input unit.
  • the medical image analysis processing unit 43 collects information of lesions detected in the examination using the endoscopic image 37 and not detected in the examination using the CTC image 19. Details of the collection of lesion information will be described later. The details of the medical image analysis processing unit 43 will be described later.
  • the medical image analysis processing unit 43 performs an image analysis process using deep learning based on the deep learning algorithm 65.
  • the deep learning algorithm 65 is an algorithm including a known convolutional neural network method, an entire combined layer, and an output layer.
  • Deep learning is sometimes called deep learning.
  • a convolutional neural network is an iterative process of convolutional and pooling layers. Convolutional neural networks may be referred to as convolutional neural networks.
  • image analysis process using deep learning is a well-known technique, specific description is abbreviate
  • the display control unit 44 controls image display of the monitor device 16.
  • the display control unit 44 functions as a reproduction control unit 44a and an information display control unit 44b.
  • the reproduction control unit 44a performs reproduction control of the CTC image 19 acquired using the CTC image acquisition unit 41a and the endoscope image 37 acquired using the endoscopic image acquisition unit 41b.
  • the reproduction control unit 44a controls the monitor device 16 by executing a display control program.
  • the display control program is included in the program stored in the program storage unit 49.
  • the reproduction control unit 44a may switch between the two displays described above.
  • the reproduction control unit 44a may switch between the two displays described above.
  • the information display control unit 44 b performs display control of incidental information of the CTC image 19 and display control of incidental information of the endoscope image 37.
  • incidental information of the CTC image 19 coordinate values of respective regions constituting the CTC image 19 can be mentioned.
  • incidental information of the CTC image 19 is information representing a feature area. Details of the feature area will be described later.
  • incidental information of the endoscopic image 37 As an example of incidental information of the endoscopic image 37, the frame number of the frame image 38a which comprises the moving image 38, and the imaging time of the moving image 38 are mentioned. Examples of incidental information of the endoscopic image 37 include the imaging condition of the still image 39, the imaging time of the still image 39, and the thumbnail image of the still image 39.
  • the information display control unit 44 b performs display control of information necessary for various processes in the medical image analysis processing unit 43.
  • various processes in the medical image analysis processing unit 43 association processing between the CTC image 19 and the endoscope image 37, feature region extraction processing of the CTC image 19 and feature region extraction processing of the endoscope image 37 are cited.
  • comparison processing between the CTC image 19 and the endoscope image 37 comparison processing between the CTC image 19 and the endoscope image 37, addition processing of the extraction result of the CTC image 19 to the feature area of the endoscope image 37, CTC A storage process of a feature area of the endoscopic image 37 based on the extraction result of the image 19 can be mentioned. Details of various processes in the medical image analysis processing unit 43 listed here will be described later.
  • the storage unit 47 includes an image storage unit 48.
  • the image storage unit 48 stores the CTC image 19 acquired by the medical image processing apparatus 14 and the endoscopic image 37.
  • the medical image processing apparatus 14 illustrated the aspect provided with the memory
  • an image storage device 18 communicably connected via the network 17 shown in FIG. 1 may be mentioned.
  • the storage unit 47 includes a program storage unit 49.
  • the program stored using the program storage unit 49 includes an application program for causing the medical image processing apparatus 14 to execute reproduction control of the moving image 38.
  • the program stored using the program storage unit 49 includes a program for causing the medical image processing apparatus 14 to execute the processing of the medical image analysis processing unit 43.
  • the medical image processing apparatus 14 may be configured using a plurality of computers or the like.
  • a plurality of computers and the like may be communicably connected via a network.
  • the plurality of computers referred to here may be separated in terms of hardware, may be integrally configured in terms of hardware, and may be separated functionally.
  • the various processors are processors that can change the circuit configuration after manufacturing a central processing unit (CPU) or a field programmable gate array (FPGA) that is a general-purpose processor that executes software and functions as various control units. It includes a dedicated electric circuit or the like which is a processor having a circuit configuration specially designed to execute a specific process such as a programmable logic device (PLD) or an application specific integrated circuit (ASIC).
  • PLD programmable logic device
  • ASIC application specific integrated circuit
  • software here is synonymous with a program.
  • One processing unit may be configured by one of these various processors, or may be configured using two or more processors of the same type or different types. Examples of two or more processors include a plurality of FPGAs, or a combination of a CPU and an FPGA. Also, the plurality of control units may be configured by one processor. As an example in which a plurality of control units are configured by one processor, first, as represented by a computer such as a client device and a server device, one combination of one or more CPUs and software is used. There is a form which comprises a processor and this processor functions as a plurality of control units.
  • IC is an abbreviation of Integrated Circuit, which is the English notation of integrated circuits.
  • FIG. 3 is a functional block diagram showing the function of the medical image analysis processing unit.
  • An endoscope 10 in the following description is illustrated in FIG.
  • the CTC image 19, the viewpoint image 19b, the endoscope image 37, and the frame image 38a are illustrated in FIG.
  • the medical image analysis processing unit 43 shown in FIG. 3 includes a first feature region extraction unit 51, a first condition setting unit 52, a second feature region extraction unit 54, a second condition setting unit 56, and an association unit. And 57, a comparison unit 58, a comparison result assignment unit 60, a storage unit 61, and an extraction rule update unit 62.
  • the first feature region extraction unit 51 extracts, from the CTC image 19, a first feature region that is a feature region that meets the defined first condition.
  • Examples of the first feature area of the CTC image 19 include a lesion, a fold, a change point between colons, and a blood vessel.
  • the blood vessel includes a running pattern of the blood vessel.
  • the first condition setting unit 52 sets a first condition.
  • the first condition is an extraction condition applied to the extraction process using the first feature region extraction unit 51.
  • the first condition setting unit 52 can set information input using the controller device 15 shown in FIG. 2 as a first condition.
  • the illustration of the first feature area described above is grasped as an illustration of the first condition.
  • the second feature area extraction unit 54 extracts, from the endoscopic image 37 shown in FIG. 2, a second feature area that is a feature area that meets the prescribed second condition. Similar to the first feature area of the CTC image 19, examples of the second feature area of the endoscopic image 37 include a lesion, a fold, a change point between colons, and a blood vessel.
  • the second feature area extraction unit 54 may automatically extract a second feature area that matches the second condition from the endoscopic image 37.
  • the second feature region extraction unit 54 may obtain an extraction result in which the user manually extracts a second feature region that matches the second condition from the endoscopic image 37.
  • the user may input the extraction result manually extracted using the information acquisition unit 42 shown in FIG.
  • the second condition setting unit 56 sets a second condition corresponding to the first condition as the extraction condition of the second feature area of the endoscope image 37.
  • the second condition corresponding to the first condition includes the same second condition as the first condition. For example, when a lesion is set as the first condition, a lesion may be set as the second condition.
  • first condition and the second condition specific lesions such as polyps and inflammation may be set instead of the generic concept of lesions.
  • the first condition and the second condition may be a combination of a plurality of conditions.
  • the associating unit 57 associates the CTC image 19 and the endoscopic image 37 shown in FIG.
  • the correspondence between the first feature area of the CTC image 19 and the second feature area of the endoscopic image 37 can be mentioned.
  • the first feature area of the CTC image 19 corresponding to the detected lesion is associated with the second feature area of the endoscopic image 37. .
  • the correspondence between the CTC image 19 and the endoscopic image 37 includes the correspondence between the non-extraction area of the CTC image 19 and the second feature area of the endoscopic image 37.
  • Comparison section The comparison unit 58 compares the CTC image 19 with the endoscopic image 37. Then, among the second feature areas of the endoscopic image 37, the second feature area associated with the non-extraction area of the CTC image 19 is specified.
  • the comparison unit 58 determines whether the second feature area of the endoscopic image 37 is associated with the non-extraction area of the CTC image 19 or not.
  • the comparison unit 58 may execute automatic determination.
  • the comparison unit 58 may include a determination result input unit for inputting the determination result of the user.
  • the comparison result of the comparison unit 58 is stored using the storage unit 61. Details of the comparison result will be described later.
  • comparison result application unit 60 shown in FIG. 3 applies the comparison result of the comparison unit 58 to the endoscopic image 37.
  • a mode is also possible in which the comparing section 58 bears the function of the comparison result assigning section 60.
  • the endoscopic image 37 to which the comparison result of the comparison unit 58 is given is stored using the storage unit 61.
  • the comparison result of the comparison unit 58 can be grasped as the extraction result of the first feature region.
  • the comparison result assignment unit 60 is an example of an extraction result assignment unit.
  • the storage unit 61 stores the comparison result of the comparison unit 58.
  • the storage unit 61 may be shared with another storage unit.
  • the comparison result stored using the storage unit 61 is used to update the extraction rule applied to the first feature region extraction unit 51.
  • the update of the extraction rule is a concept including the change of the extraction rule.
  • save of the comparison result here is synonymous with memory
  • the extraction rule update unit 62 updates the extraction rule applied to the first feature region extraction unit 51 using the coordinate values of the non-extraction region associated with the second feature region of the endoscopic image 37.
  • the update of the extraction rule applied to the first feature region extraction unit 51 is performed using the deep learning algorithm 65.
  • the extraction rule after update is stored using an update rule storage unit (not shown).
  • the medical image analysis method described below is a lesion or the like detected in the endoscopy using the endoscopic image 37 shown in FIG. 2 and not detected in the virtual colonoscopy using the CTC image 19. Is an example of an image processing method for collecting information of
  • FIG. 4 is a schematic view of a CTC image.
  • the whole image 19a shown in FIG. 4 is one form of the CTC image 19 representing the whole of a large intestine which is a region to be observed.
  • the observation site has the same meaning as the subject and the observation target of the subject.
  • Entire image 19a is placed one or more viewpoints P on the path 19c that is set from the start point P 0, while changing the sequentially viewpoint P to the end point, not shown, inside of the lumen from the viewpoint P It is an image assuming that it saw.
  • the pass 19c may be generated by thinning the entire image 19a.
  • a known thinning method can be applied to the thinning processing. Although a plurality of viewpoints P are illustrated in FIG. 4, the arrangement and the number of the viewpoints P can be appropriately determined according to the inspection condition and the like.
  • a viewpoint image representing an image of a field of view at the designated viewpoint P can be displayed. Note that the viewpoint image at each viewpoint P is illustrated in FIG. 6 by reference numeral 19b 1, and reference numeral 19b 2.
  • a viewpoint image in which the imaging direction of the endoscope 10 is reflected may be generated.
  • a viewpoint image reflecting the imaging direction of the endoscope 10 may be generated for each of a plurality of imaging directions.
  • the entire image 19a shown in FIG. 4 and the viewpoint image not shown in FIG. 4 are included in the concept of the CTC image 19 shown in FIG.
  • the endoscope image 37 in which the entire image 19a is shown in FIG. 4 has three-dimensional coordinates (not shown) set.
  • three-dimensional coordinates set in the endoscopic image 37 three-dimensional coordinates having an arbitrary reference position of the endoscopic image 37 as an origin can be applied.
  • Three-dimensional coordinates can apply arbitrary three-dimensional coordinates, such as rectangular coordinates, polar coordinates, and cylindrical coordinates.
  • the moving start point of the endoscope 10 For example, to set the start point of view corresponding pointer 19d to the start point P 0 is the moving start point of the endoscope 10.
  • the insertion start position of the endoscope 10 shown in FIG. 4 is applicable to the start point P 0 of the endoscope 10.
  • the movement start position of the endoscope 10 (not shown) may be applied to the start point P 0 of the endoscope 10.
  • a position corresponding to the anus can be mentioned.
  • the movement start position of the endoscope 10 a position corresponding to the cecum can be mentioned.
  • the endoscope 10 can grasp the position in the inside of the observation site using a sensor (not shown). In addition, the endoscope 10 can derive the movement speed of the endoscope 10 and the movement vector representing the movement direction using a sensor (not shown).
  • the position of the endoscope 10 within the observation site and the movement vector of the endoscope 10 can be used to move the pointer 19 d in conjunction with the movement of the endoscope 10.
  • the position of the pointer 19d in the entire image 19a can be identified using coordinate values.
  • the CTC image 19 Since the CTC image 19 has three-dimensional information, virtual colonoscopy is strong in detecting convex shapes such as polyps. In addition, it is also strong in detecting polyps and the like hidden behind the folds. On the other hand, since the CTC image 19 does not have color information and texture information, virtual colonoscopy is not good at detecting flat lesions, differences in surface condition, and the like.
  • Endoscopic examination In endoscopic examination, a lesion or the like is detected using the endoscopic image 37. That is, in the endoscopy, the endoscope 10 is used to look at a moving image 38 generated in real time, and specify the position, shape, and the like of a lesion. The endoscopic examination may use a reproduced image of the endoscopic image 37.
  • FIG. 5 is a schematic view of an endoscopic image.
  • an optional frame image 38a constituting the moving image 38 is shown in FIG.
  • the frame image 38a shown in FIG. 5 is a two-dimensional image.
  • the frame image 38a has color information and texture information.
  • endoscopic examination is strong in detecting flat lesions, differences in surface condition, and the like. Endoscopy can detect lesions that could not be detected by virtual colonoscopy. Therefore, it is possible to generate information to interpolate a virtual colonoscopy using the examination result of the endoscopy.
  • the position of the endoscopic image 37 is specified using the frame image 38a.
  • the position of the endoscopic image 37 may be specified without using the frame image 38a.
  • FIG. 6 is an explanatory view of the first feature area extraction.
  • FIG. 6 illustrates a viewpoint image 19 b 1 and a viewpoint image 19 b 2 at an arbitrary viewpoint P in the CTC image 19.
  • the concept including the viewpoint image 19 b 1 and the viewpoint image 19 b 2 shown in FIG. 6 is the viewpoint image 19 b.
  • the first feature area 80 is extracted from the CTC image 19 shown in FIG. 6 using the first feature area extraction unit 51 shown in FIG.
  • the process of extracting the first feature area 80 from the CTC image 19 can apply a known feature area extraction technique. The same applies to second feature region extraction described later.
  • a convex polyp is extracted as the first feature region 80.
  • the CTC image 19 has an area where the first feature area is not extracted.
  • An area in which the first feature area is not extracted in the CTC image 19 is set as a non-extraction area.
  • Both the first feature area 80 of the CTC image 19 and the non-extraction area can specify coordinate values in three-dimensional coordinates set in the CTC image 19.
  • FIG. 7 is an explanatory view of second feature area extraction. 7, of the endoscopic image 37 illustrates the arbitrary frame image 38a 1. The extraction result of the second feature area can be handled as the result of the endoscopy.
  • the second feature area 70 is extracted from the endoscopic image 37 using the second feature area extraction unit 54 illustrated in FIG. 3.
  • Frame image 38a 1 shown in FIG. 6, polyps convex shape is extracted as a second feature region 70.
  • a convex polyp which is the second feature area 70 shown in FIG. 7 can be extracted from the CTC image 19.
  • FIG. 8 is an explanatory diagram of another example of the second feature area extraction.
  • an inflamed lesion is extracted as the second feature region 76.
  • the second feature region 76 of the frame image 38a 31 shown in FIG. 8 is a feature region that can be detected by endoscopy, and is an example of a feature region that is difficult to detect by virtual colonoscopy.
  • the information of the first feature area 80 shown in FIG. 6 and the information of the non-extraction area (not shown) are stored in the storage unit 61 shown in FIG. 2 as the extraction result of the first feature area. Further, the information of the second feature area 70 shown in FIG. 7 and the information of the second feature area 76 shown in FIG. 8 are shown in FIG. 2 as the extraction result of the second feature area or the endoscopic inspection result. It is stored in the storage unit 61.
  • FIG. 9 is a schematic view showing an example of the association of lesions.
  • the Figure 9 shows an example in which the second characteristic region 70 is a polyp of the convex shape in the frame image 38a 1 of the endoscope image 37 is detected.
  • viewpoint image 19b 1 shown in FIG. 9 is a viewpoint image 19b 1 shown in FIG.
  • Viewpoint image 19b 2 as shown in FIG. 9 is a viewpoint image 19b 2 shown in FIG.
  • the first feature area 80 shown in FIG. 9 is the first feature area 80 shown in FIG.
  • the frame image 38a 1 shown in FIG. 9 is a frame image 38a 1 shown in FIG.
  • the second feature area 70 shown in FIG. 9 is the second feature area 70 shown in FIG.
  • the association unit 57 illustrated in FIG. 3 searches the CTC image 19 for the first feature area 80 corresponding to the second feature area 70.
  • the first feature area 80 of the CTC image 19 corresponding to the second feature area 70 of the endoscopic image 37 is detected, the first feature area 80 of the CTC image 19 and the second feature area of the endoscopic image 37 Correspond with 70.
  • the concept of the correspondence between the CTC image 19 and the endoscopic image 37 includes the concept of forming a combination of the components of the CTC image 19 and the components of the endoscopic image 37.
  • the concept of the correspondence between the CTC image 19 and the endoscopic image 37 may include the concept of searching for and identifying the component of the CTC image 19 corresponding to the component of the endoscopic image 37. .
  • FIG. 10 is a schematic view showing an example of corrugation correspondence.
  • Viewpoint image 19b 11 are folds are extracted as the first feature area 82.
  • Figure 10 is a perspective image 19b 12 at the viewpoint P successive relative view point P of the viewpoint image 19b 11 and the viewpoint image 19b 13, is illustrated.
  • the associating unit 57 illustrated in FIG. 3 associates the first feature area 82 and the second feature area 72 illustrated in FIG.
  • FIG. 11 is a schematic view showing an example of the arrangement of the folds using the fold numbers.
  • the number of folds does not change. Therefore, it is possible to set the reference fold and to associate the CTC image 19 with the endoscopic image 37 using the fold number.
  • the frame image 38a 21 shown in FIG. 11 is extracted as a second feature area 74.
  • the viewpoint image 19 b 21 is extracted as a first feature region 84.
  • the viewpoint image 19 b 22 and the viewpoint image 19 b 23 shown in FIG. 11 are also extracted as the second feature region. Note that illustration of the viewpoint image 19b 22 and the second feature area of the viewpoint image 19b 23 is omitted.
  • N 1 attached to the viewpoint image 19b 21 is an integer representing a fold number. The same applies to n 2 attached to the viewpoint image 19 b 22 , n 3 attached to the viewpoint image 19 b 23 , and n 1 attached to the frame image 38 a 21 .
  • the associating unit 57 illustrated in FIG. 3 corresponds to the second feature region 74 illustrated in FIG.
  • the first feature area 84 is associated with it.
  • FIG. 12 is an explanatory diagram of an example of comparison processing of a CTC image using a lesion and an endoscopic image.
  • the comparison process is performed using the comparison unit 58 shown in FIG.
  • the CTC image 19 from which the first feature area such as the first feature area 80 is extracted, and the endoscopic image from which the second feature area such as the second feature area 70 and the second feature area 76 is extracted Compare with 37.
  • the comparison process compares corresponding positions of the CTC image 19 and the endoscopic image 37.
  • the second feature area 76 of the endoscopic image 37 not associated with the first feature area of the CTC image 19 is specified among the second feature areas of the endoscopic image 37.
  • the second feature area 76 of the endoscopic image 37 associated with the non-extraction area 86 of the CTC image 19 is identified.
  • the comparison result of the comparison process is stored in the storage unit 61 shown in FIG.
  • Frame image 38a 1 shown in FIG. 12 polyps convex shape is extracted as a second feature region 70.
  • the second feature region 70 of the frame image 38a 1 is, correspondence is the first feature area 80 of the viewpoint image 19b 1. Therefore, the frame image 38a 1 is outside the specific target.
  • an inflamed lesion is extracted as the second feature region 76.
  • the second feature area 76 of the frame image 38 a 31 is not associated with the first feature area 80 or the like of the CTC image 19.
  • the frame image 38a 31 is an identification target.
  • the coordinate values of the non-extraction region 86 of the CTC image 19 corresponding to the second feature region 76 of the frame image 38a 31 are identified.
  • Viewpoint image 19b 31 shown in FIG. 12 is a viewpoint image at the viewpoint P corresponding to the imaging position of the frame image 38a 31.
  • Position of the non-extraction region 86 of the viewpoint image 19b 31 corresponds to the position of the second feature region 76 of the frame image 38a 31.
  • Comparison result giving process The comparison result assignment process is performed using the comparison result assignment unit 60 shown in FIG.
  • the comparison result application process applies the comparison result of the comparison process to the frame image 38a from which the second feature area associated with the non-extraction area is extracted.
  • the frame image 38a 31 to second characteristic region 76 is extracted as shown in FIG. 12, as the comparison result of the comparison process, to impart a coordinate value of the non-extraction region 86 at the viewpoint image 19b 31.
  • the storage process is performed using the storage unit 61 shown in FIG.
  • the endoscopic image 37 to which the comparison result is given is stored.
  • the storage unit 61 stores the endoscopic image 37 to which the coordinate values of the non-extraction area 86 are added.
  • the information stored using the storage unit 61 is information of lesions not extracted from the CTC image 19 among lesions extracted from the endoscopic image 37. Therefore, among the lesions extracted from the endoscopic image 37, information can be collected on lesions not extracted from the CTC image 19.
  • the extraction rule update process is performed using the extraction rule update unit 62 shown in FIG. Specifically, the extraction rule update unit 62 executes the depth learning algorithm 65 on the information of the non-extraction area of the CTC image 19 corresponding to the lesion extracted from the endoscopic image 37, and Update the extraction rule that extracts the first feature area that matches the one condition.
  • the first feature area may be extracted at the position of the CTC image 19 corresponding to the non-extraction area in the case of using the extraction rule before update.
  • FIG. 13 is a flowchart showing the procedure of the image processing method.
  • a CTC image input step S10 is performed.
  • the CTC image 19 is input from the image storage device 18 shown in FIG. 1 via the network 17 and the CTC image acquisition unit 41a shown in FIG.
  • the CTC image 19 is stored using the image storage unit 48 shown in FIG.
  • the CTC image input process S10 is an example of a first image input process.
  • a first feature area extraction process S12 is performed.
  • the first feature region is extracted from the CTC image 19 using the first feature region extraction unit 51 shown in FIG.
  • An example of the first feature area is shown in FIG.
  • the endoscopic image 37 is input via the endoscopic image acquisition unit 41b shown in FIG.
  • a moving image 38 captured using the endoscope 10 shown in FIG. 1 is acquired in real time.
  • the moving image 38 is illustrated in FIG.
  • the moving image 38 is stored using the image storage unit 48.
  • the moving image 38 can be read as the endoscopic image 37.
  • the endoscope image input process S14 is an example of a second image input process.
  • the moving image 38 input in the endoscopic image input step S14 is displayed on the monitor device 16 shown in FIG. Further, the monitor device 16 displays the entire image 19a shown in FIG. 4 and causes the pointer corresponding to the position of the endoscope 10 to be displayed on the entire image 19a. Further, the pointer of the entire image 19 a moves on the path 19 c in conjunction with the endoscope 10.
  • a second feature area extraction process S16 is performed.
  • the second feature area is extracted from the moving image 38 shown in FIG. 2 using the second feature area extraction unit 54 shown in FIG.
  • An example of the second feature area is illustrated in FIG. 12 with reference numerals 70 and 76.
  • the second feature region extraction step S16 shown in FIG. 13 is performed by applying a prescribed sampling period in a period during which the moving image 38 is input.
  • the second feature region extraction step S16 corresponds to the lesion detection in the endoscopy.
  • the associating step S18 is performed each time the second feature region is extracted from the moving image 38.
  • the associating step S18 is extracted in the first feature region of the CTC image 19 extracted in the first feature region extracting step S12 and in the second feature region extracting step S16 using the associating unit 57 shown in FIG.
  • the association of the moving image 38 with the second feature area is performed.
  • the result of the association is stored in the image storage unit 48 shown in FIG.
  • the comparison step S20 is performed.
  • the CTC image 19 and the moving image 38 are compared, and a non-extraction region of the CTC image 19 associated with the second feature region of the moving image 38 is specified.
  • the CTC image 19 is searched for a non-extraction area which is to be originally extracted as the first feature area.
  • region specified in comparison process S20 is shown in FIG.
  • the coordinate values of the specified non-extraction area are specified.
  • the coordinate value of the representative position of the non-extraction area such as the barycentric position of the non-extraction area can be applied as the coordinate value of the non-extraction area.
  • the coordinate values of the non-extraction area may apply a plurality of coordinate values representing the edge of the non-extraction area.
  • the coordinate values of the non-extraction area specified in the comparison step S20 are stored in the storage unit 61 shown in FIG. 3 as a comparison result of the moving image 38 and the CTC image 19.
  • the process proceeds to the comparison result provision step S22.
  • the comparison result application process S22 the comparison result derived in the comparison process S20 is applied to the second feature area of the moving image 38 that corresponds to the non-extraction area of the CTC image 19.
  • the moving image 38 to which the comparison result is given is stored in the storage unit 61 shown in FIG.
  • the image processing method ends after the storage step S24.
  • the information stored in the storage unit 61 can be used to update the extraction rule applied when extracting the first feature region from the CTC image 19.
  • the second feature area of the endoscope image 37 is not associated with the first feature area of the CTC image 19 and is not extracted.
  • a second feature area 76 corresponding to 86 is identified.
  • the coordinate value of the non-extraction area 86 corresponding to the identified second feature area 76 is identified.
  • the extraction rule of the first feature area can be updated using the correspondence between the second feature area and the non-extraction area of the endoscopic image 37.
  • the medical image processing apparatus 14 illustrated in FIG. 2 may include a CTC image generation unit that generates a CTC image 19 from a three-dimensional inspection image such as a CT image.
  • the medical image processing apparatus 14 may acquire a three-dimensional inspection image via the CTC image acquisition unit 41a, and generate the CTC image 19 using the CTC image generation unit.
  • the viewpoint P shown in FIG. 4 is not limited to above the path 19c.
  • the viewpoint P can be set at an arbitrary position.
  • the viewing direction of the viewpoint image 19 b can be arbitrarily set corresponding to the imaging direction of the endoscope 10.
  • the viewpoint image 19 b may be a two-dimensional inspection image obtained by converting a three-dimensional inspection image of an arbitrary cross section of the entire image 19 a into a two-dimensional image.
  • First example Extraction of the first feature area may use a three-dimensional inspection image used to generate a CTC image.
  • the extraction of the first feature area may be interlocked with the extraction of the second feature area of the endoscopic image 37.
  • the position of the CTC image 19 corresponding to the frame image 38a of the endoscopic image 37 from which the second feature area is extracted is specified and specified.
  • the first feature area may be extracted at the position of the CTC image 19 that has been sent. If the first feature area is not extracted, the coordinate value of the position of the identified CTC image 19 may be stored in the storage unit 61 shown in FIG.
  • the relationship between the first feature region and the coordinate value of the first feature region, and the relationship between the non-extraction region and the coordinate values of the non-extraction region may be databased.
  • the above-described database may be used.
  • the database may be stored using the storage unit 61 shown in FIG. 3 or may be stored using a storage device external to the medical image processing apparatus 14.
  • the second condition of the second feature region extraction is not limited to the lesion. It may be a second condition that enables extraction of a second feature region that can improve the accuracy of virtual colonoscopy.
  • the extraction of the second feature area may be performed by reproducing the moving image 38.
  • the storage unit 61 illustrated in FIG. 3 may include, as the information of the non-extraction area corresponding to the second feature area of the endoscopic image 37, a first condition at the time of extracting the first feature area.
  • the user may specify a non-extraction area of the CTC image 19 corresponding to the second feature area of the endoscopic image 37.
  • the monitor device 16 shown in FIG. 1 displays the second feature area of the endoscopic image 37 and the non-extraction area of the CTC image 19.
  • the user Based on the second feature area of the endoscope image 37 displayed on the monitor device 16 and the non-extraction area of the CTC image 19, the user does not enter the CTC image 19 corresponding to the second feature area Identify the extraction area.
  • a specific information input unit for inputting user's specific information is provided, and a non-extraction area of the CTC image 19 corresponding to the second feature area can be specified based on the specific information input via the specific information input unit.
  • the information acquisition unit 42 shown in FIG. 2 can be used as the specific information input unit.
  • Second example The process of associating the first feature area of the CTC image 19 with the second feature area of the endoscopic image 37 may be omitted. That is, when the second feature area is extracted as a lesion from the endoscopic image 37, the CTC image 19 may be searched to specify a feature area similar to the second feature area.
  • a first feature area having a feature quantity evaluation value equal to or less than a prescribed threshold value from among the first feature areas of the CTC image 19 and the difference value with the feature quantity evaluation value of the second feature area of the endoscope image 37 May be identified.
  • the retrieval of the CTC image 19 may use the information on the position of the pointer 19d shown in FIG.
  • the storage unit 61 illustrated in FIG. 3 may apply a storage device communicably connected to the medical image processing apparatus 14 illustrated in FIG. 2 via a network.
  • the storage unit 61 illustrated in FIG. 3 may store the endoscopic image 37 associated with the non-extraction area 86 of the CTC image 19.
  • the endoscopic image 37 here indicates the frame image 38a 31 shown in FIG.
  • the storage unit 61 illustrated in FIG. 3 may store coordinate values of the non-extraction area 86 associated with the second feature area 76 of the endoscopic image 37.
  • a plurality of coordinate values may be stored as coordinate values of the non-extraction area 86.
  • the storage unit 61 stores at least one of the frame image 38 a 31 to which the coordinate values of the non-extraction area 86 have been added, the frame image 38 a 31 , and the coordinate values of the non-extraction area 86.
  • a first example of a particular wavelength band is the blue or green band in the visible range.
  • the wavelength band of the first example includes a wavelength band of 390 nanometers or more and 450 nanometers or less, or 530 nanometers or more and 550 nanometers or less, and the light of the first example is 390 nanometers or more and 450 nanometers or less, or It has a peak wavelength within the wavelength band of 530 nanometers or more and 550 nanometers or less.
  • a second example of a particular wavelength band is the red band in the visible range.
  • the wavelength band of the second example includes a wavelength band of 585 nanometers or more and 615 nanometers or less, or 610 nanometers or more and 730 nanometers or less, and the light of the second example is 585 nanometers or more and 615 nanometers or less, or It has a peak wavelength within the wavelength band of 610 nanometers or more and 730 nanometers or less.
  • the third example of the specific wavelength band includes wavelength bands in which the absorption coefficient is different between oxygenated hemoglobin and reduced hemoglobin, and the light of the third example has peak wavelengths in wavelength bands where the absorption coefficient is different between oxygenated hemoglobin and reduced hemoglobin.
  • the wavelength band of this third example includes wavelength bands of 400 ⁇ 10 nanometers, 440 ⁇ 10 nanometers, 470 ⁇ 10 nanometers, or 600 nanometers to 750 nanometers, and the light of the third example is It has a peak wavelength in a wavelength band of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm or more and 750 nm or less.
  • a fourth example of the specific wavelength band is a wavelength band of excitation light which is used to observe fluorescence emitted from a fluorescent substance in the living body and which excites the fluorescent substance.
  • it is a wavelength band of 390 nanometers or more and 470 nanometers or less.
  • observation of fluorescence may be called fluorescence observation.
  • the fifth example of the specific wavelength band is a wavelength band of infrared light.
  • the wavelength band of the fifth example includes a wavelength band of 790 nm or more and 820 nm or less, or 905 nm or more and 970 nm or less, and the light of the fifth example is 790 nm or more and 820 nm or less, Or has a peak wavelength in a wavelength band of 905 nm or more and 970 nm or less.
  • the processor 12 may generate a special light image having information of a specific wavelength band based on a normal light image obtained by imaging using white light. Note that the generation referred to here includes acquisition. In this case, the processor 12 functions as a special light image acquisition unit. Then, the processor 12 obtains a signal of a specific wavelength band by performing an operation based on the color information of red, green and blue or cyan, magenta and yellow contained in the normal light image.
  • red, green and blue may be represented as RGB (Red, Green, Blue).
  • cyan, magenta and yellow may be expressed as CMY (Cyan, Magenta, Yellow).
  • the processor 12 may generate a feature image such as a known oxygen saturation image based on at least one of the normal light image and the special light image.
  • An image processing apparatus can be configured using a part of the configuration of the endoscope system described above.
  • the medical image processing apparatus 14 shown in FIG. 2 can function as an image processing apparatus.
  • the image processing method described above can be configured as a program that implements functions corresponding to the respective steps in the image processing method using a computer.
  • a program that causes a computer to realize a CTC image input function, a first feature area extraction function, an endoscope image input function, a second feature area extraction function, an association function, a comparison function, and a storage function can be configured.
  • the CTC image input function corresponds to the first image input function.
  • the endoscope image input function corresponds to the second image input function.
  • Endoscope System 10 Endoscope 11 Light Source Device 12 Processor 13 Display Device 14 Medical Image Processing Device 15 Input Operation Unit 16 Display Device 17 Network 18 Image Storage Device 19 CTC Image 19a Whole Image 19b, 19b 1 , 19b 2 , 19b 3, 19b 11, 19b 12, 19b 13, 19b 21, 19b 22, 19b 23, 19b 31 viewpoint images 19c path 19d pointer 20 insertion portion 21 operating portion 22 universal cord 25 flexible portion 26 curved part 27 tip 28 imaging device 29 Curved operation knob 30 Air / water feed button 31 Suction button 32 Still image photographing instruction unit 33 Treatment instrument introduction port 35 Light guide 36 Signal cable 37 Endoscope image 37a, 37b Connector 38 Moving image 38a, 38a 1 , 38a 11 , 38a 21 , 38a 31 frame Image 39 Still image 41 Image acquisition unit 41a CTC image acquisition unit 41b Endoscope image acquisition unit 42 Information acquisition unit 43 Medical image analysis processing unit 44 Display control unit 44a Reproduction control unit 44b Information display control unit 47 Storage unit 48 Image storage unit 49 program storage unit 51 first feature region extraction unit 52 first

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)

Abstract

仮想内視鏡検査が苦手とする病変等の効率的な情報収集を可能とする画像処理装置、画像処理方法、プログラム、及び内視鏡システムを提供する。仮想内視鏡画像を入力する第1画像入力部、実内視鏡画像を入力する第2画像入力部、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部(57)、仮想内視鏡画像から第1特徴領域を抽出する第1特徴領域抽出部(51)、実想内視鏡画像から第2特徴領域を抽出する第2特徴領域抽出部(54)、第2特徴領域に対応付けされ、且つ第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存部(61)を備える。

Description

画像処理装置、画像処理方法、プログラム、及び内視鏡システム
 本発明は画像処理装置、画像処理方法、プログラム、及び内視鏡システムに係り、特に仮想内視鏡画像の解析に関する。
 近年、内視鏡を用いて患者の大腸等の管状構造物を観察又は処置を行う技術が注目されている。内視鏡画像はCCD(Charge Coupled Device)等の撮像素子を用いて撮影された画像である。そして、内視鏡画像は管状構造物内部の色、及び質感が鮮明に表現された画像である。一方、内視鏡画像は、管状構造物の内部を表す2次元画像である。このため、内視鏡画像が管状構造物内のどの位置を表しているものかを把握することが困難である。
 そこで、CT装置又はMRI装置等のモダリティを用いた断層撮影をして取得された3次元検査画像を用いて、実際に内視鏡を用いて撮影した画像と類似した仮想内視鏡画像を生成する手法が提案されている。
 仮想内視鏡画像は、内視鏡を管状構造物内の目標とする位置まで導くためのナビゲーション画像として用いられる場合がある。なお、CTはComputed Tomographyの省略語である。また、MRIはMagnetic Resonance Imagingの省略語である。
 このため、3次元検査画像から管状構造物の画像を抽出し、管状構造物の画像と内視鏡を用いて撮影を行い取得した実際の内視鏡画像である実内視鏡画像との対応付けを行い、内視鏡の現在位置における仮想内視鏡画像を管状構造物の3次元検査画像から生成して表示する手法が提案されている。
 特許文献1は、内視鏡装置より得られる内視鏡画像を入力として、仮想空間内に3次元の臓器のモデルを形成し、よりリアルな画像を提供する医療支援システムが記載されている。
 特許文献2は、カラー内視鏡実画像と仮想内視鏡画像との相対的な位置関係を表す構図が合致するように仮想内視鏡画像を生成し、内視鏡画像を患部が見え易い態様で表示させる内視鏡システムが記載されている。
 特許文献3は、医用画像データの特定部の座標データを当該医用画像データと関連付けて記憶する医用画像観察装置が記載されている。特許文献3に記載の医用画像観察装置は、画質を落したくない所見部の画質を保持し、且つ画像表示に使用する画像データ量を低減させて画像表示の効率を向上させている。
 特許文献4は、3次元医療用画像から対象物を検出する画像処理方法が記載されている。特許文献4に記載の画像処理方法は、3次元医療画像から対象物を検出する際に学習が適用されている。
特開平11-104072号公報 特開2006-61274号公報 特開2009-254690号公報 特開2011-177517号公報
 仮想大腸内視鏡画像に基づく仮想大腸内視鏡検査は、凸形状ポリープ等の突起の検出は得意であるが、平坦な病変などの検出が苦手である。仮想大腸内視鏡検査の性能の向上を図る上で、仮想大腸内視鏡検査が苦手とする病変の情報収集が望まれている。なお、上述した仮想大腸内視鏡検査における課題は、気管等の大腸以外の被観察部位に適用される仮想内視鏡検査についても同様である。
 特許文献1から特許文献4に記載の発明は、いずれも、仮想内視鏡検査が苦手とする病変の情報収集という技術課題に着目するものではなく、上述した技術課題を解決するものではない。
 本発明はこのような事情に鑑みてなされたもので、仮想内視鏡検査が苦手とする病変等の効率的な情報収集を可能とする画像処理装置、画像処理方法、プログラム、及び内視鏡システムを提供することを目的とする。
 上記目的を達成するために、次の発明態様を提供する。
 第1態様に係る画像処理装置は、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部と、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存部と、を備えた画像処理装置である。
 第1態様によれば、実内視鏡画像の第2特徴領域に対応付けられた仮想内視鏡画像の非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方が保存される。これにより、実内視鏡画像から抽出される一方、仮想内視鏡画像から抽出されない特徴領域の情報の効率的な収集が可能である。
 3次元検査画像の例として、CT装置を用いて被検体を断層撮影して得られた3次元検査画像が挙げられる。仮想内視鏡の一例として、大腸を被検体とする仮想大腸内視鏡が挙げられる。
 第1特徴領域の抽出に適用される第1条件を設定する第1条件設定部を備える態様が好ましい。また、第2特徴領域の抽出に適用される第2条件を設定する第2条件設定部を備える態様が好ましい。
 第2画像入力部は、実内視鏡画像として動画像が逐次入力されてもよいし、実内視鏡画像として動画像がファイル形式で一括して入力されてもよい。
 第2態様は、第1態様の画像処理装置において、実内視鏡画像に対して、仮想内視鏡画像から第1特徴領域を抽出した抽出結果を付与する抽出結果付与部を備えた構成としてもよい。
 第2態様によれば、実内視鏡画像に付与された仮想内視鏡画像の抽出結果を用いて、仮想内視鏡画像の第2特徴領域が非抽出領域に対応付けられているか否かの特定、及び実内視鏡画像の非対象領域に対応付けられた第2特徴領域を含む実内視鏡画像であるか否かの特定が可能である。
 仮想内視鏡画像から第1特徴領域を抽出した抽出結果の例として、第1特徴領域として抽出されていない非抽出領域を特定する情報が挙げられる。非抽出領域を特定する情報の例として、非抽出領域の位置の情報、及び非抽出領域の画像が挙げられる。
 第3態様は、第1態様又は第2態様の画像処理装置において、仮想内視鏡画像から第1特徴領域を抽出した抽出結果と、実内視鏡画像から第2特徴領域を抽出した抽出結果とを比較する比較部を備えた構成としてもよい。
 第3態様によれば、比較部を用いた比較に基づき、仮想内視鏡画像の第1特徴領域と、実内視鏡画像の第2特徴領域との効率的な対応付けが可能となる。
 第4態様は、第3態様の画像処理装置において、比較部は、仮想内視鏡画像と実内視鏡画像との対応する位置同士を比較する構成としてもよい。
 第4態様によれば、仮想内視鏡画像と実内視鏡画像との対応する位置における比較が可能である。
 第5態様は、第1態様から第4態様のいずれか一態様の画像処理装置において、実内視鏡画像の第2特徴領域について、仮想内視鏡画像の非抽出領域に対応付けされた領域であるか否かを判定した判定結果を入力する判定結果入力部を備えた構成としてもよい。
 第5態様によれば、ユーザの手動判定の判定結果の取得が可能である。
 第6態様は、第1態様から第5態様のいずれか一態様の画像処理装置において、仮想内視鏡画像の抽出結果、及び実内視鏡画像の抽出結果を表示する表示部を備えた構成としてもよい。
 第6態様によれば、ユーザが仮想内視鏡画像の抽出結果、及び実内視鏡画像の抽出結果を確認し得る。
 第7態様は、第1態様から第6態様のいずれか一態様の画像処理装置において、実内視鏡画像から第2特徴領域を抽出した抽出結果を入力する抽出結果入力部を備えた構成としてもよい。
 第7態様によれば、ユーザの手動抽出の抽出結果の取得が可能である。
 第8態様は、第1態様から第6態様のいずれか一態様の画像処理装置において、第2特徴領域抽出部は、実内視鏡画像から第2特徴領域を自動的に抽出する構成としてもよい。
 第8態様によれば、実内視鏡画像から第2特徴領域の自動抽出が可能である。
 第9態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、第2特徴領域抽出部は、実内視鏡画像から第2特徴領域として病変を抽出する構成としてもよい。
 第9態様によれば、病変に対応する仮想内視鏡画像の非抽出領域の特定が可能である。
 第10態様は、第1態様から第9態様のいずれか一態様の画像処理装置において、保存部は、非抽出領域の仮想内視鏡画像における3次元座標値、及び非抽出領域に対応する第2特徴領域を含む実内視鏡画像の少なくともいずれか一方を保存する構成としてもよい。
 第10態様によれば、保存部は、非抽出領域の仮想内視鏡画像における座標値、非抽出領域に対応する第2特徴領域を含む実内視鏡画像の保存が可能である。
 保存部は、非抽出領域を特定する座標値として、非抽出領域の代表位置の座標値を保存してもよい。非抽出領域の代表位置の例として、非抽出領域の重心位置が挙げられる。
 保存部は、非抽出領域を特定する座標値として、非抽出領域に含まれる複数の座標値を記憶してもよい。非抽出領域に含まれる複数の座標値の例として、非抽出領域の縁を特定する複数の座標値が挙げられる。
 保存部は、非抽出領域の仮想内視鏡画像における座標値と、非抽出領域に対応する第2特徴領域を含む実内視鏡画像とを関連付けして記憶してもよい。
 第11態様は、第1態様から第10態様のいずれか一態様の画像処理装置において、第1特徴領域抽出部は、仮想内視鏡画像から第1特徴領域として病変を抽出する構成としてもよい。
 第11態様によれば、仮想内視鏡画像から抽出されず、実内視鏡画像から抽出された病変の情報の効率的な収集が可能である。
 病変の例として、色、及びテクスチャ等を用いて視認され得る、二次元的な特徴を有する病変が挙げられる。
 第12態様は、第1態様から第11態様のいずれか一態様の画像処理装置において、第1特徴領域抽出部は、保存部に保存されている第2特徴領域の情報と非抽出領域との対応関係を用いて、仮想内視鏡画像から第1特徴領域を抽出する抽出規則を更新する構成としてもよい。
 第12態様によれば、仮想内視鏡画像から抽出されない特徴領域の情報を用いて、第1特徴領域を抽出する抽出規則の更新が可能となる。これにより、仮想内視鏡検査の性能が向上し得る。
 第13態様は、第1態様から第12態様のいずれか一態様の画像処理装置において、第1特徴領域抽出部は、機械学習を用いて生成された抽出規則を適用して、仮想内視鏡画像から第1特徴領域を抽出する構成としてもよい。
 第13態様によれば、機械学習を用いた効率的な仮想内視鏡検査の性能向上が可能となる。
 第14態様に係る画像処理方法は、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力工程と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力工程と、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け工程と、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出工程と、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出工程と、実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存工程と、を含む画像処理方法である。
 第14態様によれば、第1態様と同様の効果を得ることができる。
 第14態様において、第2態様から第13態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う画像処理方法の構成要素として把握することができる。
 第15態様に係るプログラムは、コンピュータに、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力機能、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け機能、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存機能を実現させるプログラムある。
 第15態様によれば、第1態様と同様の効果を得ることができる。
 第15態様において、第2態様から第13態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。
 第15態様は、少なくとも一つ以上のプロセッサと、少なくとも一つ以上のメモリとを有するシステムであって、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力機能、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け機能、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存機能を実現させるシステムとして構成し得る。
 第16態様に係る内視鏡システムは、内視鏡と、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部と、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存部と、を備えた内視鏡システムである。
 第16態様によれば、第1態様と同様の効果を得ることができる。
 第16態様において、第2態様から第13態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う内視鏡システムの構成要素として把握することができる。
 第17態様に係る内視鏡システムは、内視鏡、画像処理装置、及び保存装置を備えた内視鏡システムであって、画像処理装置は、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部と、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、を備え、保存装置は、実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存部を備えた内視鏡システムである。
 第17態様によれば、第1態様と同様の効果を得ることができる。
 第17態様において、第2態様から第13態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う内視鏡システムの構成要素として把握することができる。
 第18態様は、第17態様の内視鏡システムにおいて、保存装置は、ネットワークを介して画像処理装置と通信可能に接続される構成としてもよい。
 第18態様によれば、ネットワーク接続された保存装置を用いて、実内視鏡画像から抽出される一方、仮想内視鏡画像から抽出されない特徴領域の情報の効率的な収集が可能である。
 本発明によれば、実内視鏡画像の第2特徴領域に対応付けられた仮想内視鏡画像の非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方が保存される。これにより、実内視鏡画像から抽出される一方、仮想内視鏡画像から抽出されない特徴領域の情報の効率的な収集が可能である。
図1は内視鏡システムの全体構成を示す概略図である。 図2は医療画像処理装置の機能を示す機能ブロック図である。 図3は医療画像解析処理部の機能を示す機能ブロック図である。 図4はCTC画像の模式図である。 図5は内視鏡画像の模式図である。 図6は第1特徴領域抽出の説明図である。 図7は第2特徴領域抽出の説明図である。 図8は第2特徴領域抽出の他の例の説明図である。 図9は病変の対応付けの例を示す模式図である。 図10はひだの対応付けの例を示す模式図である。 図11はひだの番号を用いたひだの対応付けの例を示す模式図である。 図12は病変を用いたCTC画像と内視鏡画像との比較処理の一例の説明図ある。 図13は画像処理方法の手順を示すフローチャートである。
 以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明を省略する。
 [内視鏡システムの全体構成]
 図1は内視鏡システムの全体構成を示す概略図である。図1に示した内視鏡システム9は、内視鏡10と、光源装置11と、プロセッサ12と、表示装置13と、医療画像処理装置14と、操作装置15と、モニタ装置16と、を備える。内視鏡システム9は、ネットワーク17を介して画像記憶装置18と通信可能に接続される。
 内視鏡10は電子内視鏡である。また、内視鏡10は軟性内視鏡である。内視鏡10は挿入部20と、操作部21と、ユニバーサルコード22と、を備える。挿入部20は先端と基端とを備える。挿入部20は被検体内に挿入される。操作部21は術者が把持して各種操作を行う。操作部21は挿入部20の基端側に連設される。挿入部20は、全体が細径で長尺状に形成されている。
 挿入部20は、軟性部25と、湾曲部26と、先端部27と、を備える。挿入部20は、軟性部25と、湾曲部26と、先端部27とが連設されて構成される。軟性部25は、挿入部20の基端側から先端側に向けて順に可撓性を有する。湾曲部26は、操作部21が操作された場合に湾曲可能な構造を有する。先端部27は、図示しない撮影光学系及び撮像素子28等が内蔵される。
 撮像素子28は、CMOS型撮像素子又はCCD型撮像素子である。CMOSは、相補型金属酸化膜半導体を表す英語表記である、Complementary Metal Oxide Semiconductorの省略語である。CCDは、電荷結合素子を表す英語表記である、Charge Coupled Deviceの省略語である。
 先端部27の先端面27aは、図示しない観察窓が配置される。観察窓は、先端部27の先端面27aに形成された開口である。観察窓の後方には、図示しない撮影光学系が配置される。撮像素子28の撮像面は、観察窓、及び撮影光学系等を介して、被観察部位の像光が入射する。撮像素子28は、撮像素子28の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、像光を電気信号へ変換するという意味が含まれる。
 操作部21は、各種操作部材を備える。各種操作部材は術者により操作される。具体的には、操作部21は、2種類の湾曲操作ノブ29を備える。湾曲操作ノブ29は、湾曲部26の湾曲操作の際に用いられる。
 操作部21は、送気送水ボタン30と、吸引ボタン31と、を備える。送気送水ボタン30は、送気送水操作の際に用いられる。吸引ボタン31は、吸引操作の際に用いられる。
 操作部21は、静止画像撮影指示部32と、処置具導入口33と、を備える。静止画像撮影指示部32は、被観察部位の静止画像39の撮影指示を行う際に用いられる。処置具導入口33は、挿入部20の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路、及び処置具の図示は省略する。
 ユニバーサルコード22は、内視鏡10を光源装置11に接続する接続コードである。ユニバーサルコード22は、挿入部20の内部を挿通しているライトガイド35、信号ケーブル36、及び図示しない流体チューブを内包している。
 また、ユニバーサルコード22の端部は、光源装置11に接続されるコネクタ37aと、コネクタ37aから分岐され、且つプロセッサ12に接続されるコネクタ37bと、を備える。
 コネクタ37aを光源装置11に接続した場合、ライトガイド35及び図示しない流体チューブが光源装置11に挿入される。これにより、ライトガイド35及び図示しない流体チューブを介して、光源装置11から内視鏡10に対して必要な照明光と水と気体とが供給される。
 その結果、先端部27の先端面27aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン30の押下操作に応じて、先端部27の先端面27aの図示しない送気送水ノズルから先端面27aの図示しない観察窓に向けて気体又は水が噴射される。
 コネクタ37bをプロセッサ12に接続した場合、信号ケーブル36とプロセッサ12とが電気的に接続される。これにより、信号ケーブル36を介して、内視鏡10の撮像素子28からプロセッサ12へ被観察部位の撮像信号が出力され、且つプロセッサ12から内視鏡10へ制御信号が出力される。
 本実施形態では、内視鏡10として軟性内視鏡を例に挙げて説明を行ったが、内視鏡10として、硬性内視鏡等の被観察部位の動画撮影を可能な各種の電子内視鏡を用いてもよい。
 光源装置11は、コネクタ37aを介して、内視鏡10のライトガイド35へ照明光を供給する。照明光は、白色光、又は特定の波長帯域の光を適用可能である。照明光は、白色光、及び特定の波長帯域の光を組み合わせてもよい。光源装置11は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。
 白色光は、白色の波長帯域の光又は複数の波長帯域の光のいずれでもよい。特定の波長帯域は、白色の波長帯域よりも狭い帯域である。特定の波長帯域の光は、1種類の波長帯域の光を適用してもよいし、複数の波長帯域の光を適用してもよい。特定の波長帯域は、特殊光と呼ばれる場合がある。
 プロセッサ12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の動作を制御する。また、プロセッサ12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の撮像素子28から撮像信号を取得する。プロセッサ12は規定のフレームレートを適用して内視鏡10から出力された撮像信号を取得する。
 プロセッサ12は、内視鏡10から取得した撮像信号に基づき、被観察部位の動画像38を生成する。更に、プロセッサ12は、内視鏡10の操作部21にて静止画像撮影指示部32が操作された場合、動画像38の生成と並行して、撮像素子28から取得した撮像信号に基づき被観察部位の静止画像39を生成する。この静止画像39は、動画像38の解像度に対して高解像度に生成されていてもよい。
 動画像38及び静止画像39の生成の際に、プロセッサ12はホワイトバランス調整、及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。プロセッサ12はDICOM(Digital Imaging and Communications in Medicine)規格で規定された付帯情報を動画像38及び静止画像39へ付加してもよい。
 動画像38及び静止画像39は、被検体内、すなわち生体内を撮影した生体内画像である。更に、動画像38及び静止画像39が、特定の波長帯域の光を用いて撮像して得られた画像である場合、両者は特殊光画像である。そして、プロセッサ12は、生成した動画像38及び静止画像39を、表示装置13と医療画像処理装置14とのそれぞれに出力する。プロセッサ12は、DICOM規格に準拠した通信プロトコルに従って、ネットワーク17を介して動画像38及び静止画像39を画像記憶装置18へ出力してもよい。
 表示装置13は、プロセッサ12に接続されている。表示装置13は、プロセッサ12から入力された動画像38及び静止画像39を表示する。医師等のユーザは、表示装置13に表示される動画像38を確認しながら、挿入部20の進退操作等を行い、被観察部位に病変等を検出した場合には静止画像撮影指示部32を操作して被観察部位の静止画撮影を実行し得る。
 医療画像処理装置14は、コンピュータが用いられる。操作装置15はコンピュータに接続可能なキーボード及びマウス等が用いられる。操作装置15とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置16は、コンピュータに接続可能な各種モニタが用いられる。
 医療画像処理装置14として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、操作装置15及びモニタ装置16は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、医療画像処理装置14として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。
 医療画像処理装置14は、動画像38の取得、及び動画像38の記憶を行う。医療画像処理装置14は、静止画像39の取得、及び静止画像39の記憶を行う。医療画像処理装置14は、動画像38の再生制御、及び静止画像39の再生制御を行う。
 操作装置15は、医療画像処理装置14に対する操作指示の入力に用いられる。モニタ装置16は、医療画像処理装置14の制御の下、動画像38及び静止画像39の表示を行う。モニタ装置16は、医療画像処理装置14における各種情報の表示部として機能する。モニタ装置16は、仮想内視鏡画像の抽出結果を表示する表示部の一例である。モニタ装置16は、実内視鏡画像の抽出結果を表示する表示部の一例である。
 ネットワーク17を介して、医療画像処理装置14と接続される画像記憶装置18は、CTC画像19が記憶される。CTC画像19は図示しないCTC画像生成装置を用いて生成される。なお、CTCは大腸3次元CT検査を表すCTコロノグラフィ(colonography)を表す省略表記である。
 図示しないCTC画像生成装置は、3次元検査画像からCTC画像を生成する。3次元検査画像は、3次元画像撮像装置を用いて検査対象部位を撮像して得られた撮像信号から生成される。3次元画像撮像装置の例として、CT装置、MRI装置、PET(Positron Emission Tomography)、及び超音波診断装置等が挙げられる。本実施形態では、大腸を撮影して得られた3次元検査画像からCTC画像19が生成される例を示す。
 内視鏡システム9は、ネットワーク17を介してサーバ装置と通信可能に接続されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。図1に示した画像記憶装置18に記憶される情報は、サーバ装置を用いて管理されてもよい。なお、画像データの格納形式、及びネットワーク17を経由した各装置間の通信は、DICOM規格、及びDICOM規格に準拠したプロトコル等を適用可能である。
 [医療画像処理装置の機能]
 図2は医療画像処理装置の機能を示す機能ブロック図である。図2に示した医療画像処理装置14は、図示しないコンピュータを備える。コンピュータは、プログラムの実行に基づき、画像取得部41、情報取得部42、医療画像解析処理部43、及び表示制御部44として機能する。医療画像処理装置14は、医療画像処理装置14の各種制御に用いる情報を記憶する記憶部47を備える。
 〔画像取得部〕
 画像取得部41は、CTC画像取得部41a、及び内視鏡画像取得部41bを備える。CTC画像取得部41aは、図示しない画像入出力インターフェースを介して、CTC画像を取得する。内視鏡画像取得部41bは、図示しない画像入出力インターフェースを介して、内視鏡画像37を取得する。画像入出力インターフェースの接続形態は有線でもよいし、無線でもよい。以下に、CTC画像取得部41a、及び内視鏡画像取得部41bについて詳細に説明する。
 《CTC画像取得部》
 CTC画像取得部41aは、図1に示した画像記憶装置18に記憶されているCTC画像19を取得する。図2に示したCTC画像取得部41aを用いて取得したCTC画像19は、画像記憶部48に記憶される。CTC画像取得部41aは、後述する内視鏡画像取得部41bと同様の構成を適用可能である。符号19bは視点画像を表す。視点画像19bはCTC画像19に設定される視点における視野の画像である。視点は符号Pを付して図4に図示する。視点画像、及び視点の詳細は後述する。
 ここで、本実施形態における画像という用語は、画像を表すデータの概念、又は信号の概念が含まれる。CTC画像は仮想内視鏡画像の一例である。CTC画像は仮想大腸内視鏡画像に相当する。CTC画像取得部41aは仮想内視鏡画像を入力する第1画像入力部の一例である。
 《内視鏡画像取得部》
 内視鏡画像取得部41bは、図1に示したプロセッサ12を用いて生成された内視鏡画像37を取得する。内視鏡画像37は図2に示した動画像38及び静止画像39が含まれる。本実施形態では、図1に示したプロセッサ12を用いて生成された内視鏡画像37を取得したが、外部の記憶装置に記憶されている内視鏡画像37を取得してもよい。図2に示した内視鏡画像取得部41bは、メモリーカード等の各種情報記憶媒体を介して内視鏡画像37を取得してもよい。
 動画像38の撮影途中に静止画像39の撮影が行われた場合、内視鏡画像取得部41bは、図1に示したプロセッサ12から動画像38及び静止画像39を取得する。医療画像処理装置14は、内視鏡画像取得部41bを用いて取得した動画像38及び静止画像39を画像記憶部48に記憶する。符号38aは、動画像38を構成する複数のフレーム画像を表す。
 医療画像処理装置14は、プロセッサ12等から入力される内視鏡画像37の動画像38の全てを画像記憶部48に記憶させる必要はなく、図1に示した静止画像撮影指示部3
2の操作に応じて被観察部位の静止画撮影が行われた場合、その前後の1分間の動画像38を、図2に示した画像記憶部48に記憶させてもよい。前後の1分間は、撮影前1分間から撮影後1分間までの期間を表す。
 内視鏡画像取得部41bは、実内視鏡画像を入力する第2画像入力部の一例である。内視鏡画像37は実内視鏡画像に相当する。
 〔情報取得部〕
 情報取得部42は、操作装置15等を介して外部から入力された情報を取得する。例えば、操作装置15を用いてユーザが判定した判定結果、及び抽出結果等が入力された場合に、情報取得部42はユーザの判定情報、及び抽出情報等を取得する。
 情報取得部42は、判定結果入力部の一例である。また、情報取得部42は、抽出結果入力部の一例である。
 〔医療画像解析処理部〕
 医療画像解析処理部43は、内視鏡画像37を用いた検査において検出され、且つCTC画像19を用いた検査において検出されない病変の情報を収集する。病変の情報の収集の詳細は後述する。また、医療画像解析処理部43の詳細は後述する。
 〔深層学習アルゴリズム〕
 医療画像解析処理部43は、深層学習アルゴリズム65に基づき、深層学習を用いた画像解析処理を実施する。深層学習アルゴリズム65は、公知のコンボリューションニューラルネットワークの手法と、全結合層と、出力層とを含むアルゴリズムである。
 なお、深層学習はディープラーニングと呼ばれることがある。コンボリューションニューラルネットワークは、畳み込み層及びプーリング層の繰り返し処理である。コンボリューションニューラルネットワークは、畳み込みニューラルネットワークと呼ばれる場合がある。なお、深層学習を用いた画像解析処理は公知技術であるので、具体的な説明は省略する。深層学習は機械学習の一例である。
 〔表示制御部〕
 表示制御部44は、モニタ装置16の画像表示を制御する。表示制御部44は、再生制御部44a及び情報表示制御部44bとして機能する。
 《再生制御部》
 再生制御部44aは、CTC画像取得部41aを用いて取得したCTC画像19、及び内視鏡画像取得部41bを用いて取得した内視鏡画像37の再生制御を行う。再生制御部44aは、操作装置15を用いて画像を再生する操作がされた場合、表示制御プログラムを実行してモニタ装置16を制御する。表示制御プログラムはプログラム記憶部49に記憶されるプログラムに含まれる。
 CTC画像19、及び内視鏡画像37の表示制御例として、CTC画像19、又は内視鏡画像37のいずれか一方を全画面表示する例が挙げられる。CTC画像19、及び内視鏡画像37の他の表示制御例として、CTC画像19、及び内視鏡画像37を一画面内に並列表示する例が挙げられる。再生制御部44aは、上述した2つの表示を切り替えてもよい。
 内視鏡画像37の表示制御例として、動画像38、又は静止画像39のいずれか一方を全画面表示する形態が挙げられる。内視鏡画像37の他の表示例として、動画像38、及び静止画像39を1画面内に並列表示する形態が挙げられる。再生制御部44aは、上述した2つの表示を切り替えてもよい。
 《情報表示制御部》
 情報表示制御部44bは、CTC画像19の付帯情報の表示制御、及び内視鏡画像37の付帯情報の表示制御を行う。CTC画像19の付帯情報の一例として、CTC画像19を構成する各領域の座標値が挙げられる。CTC画像19の付帯情報の他の例として、特徴領域を表す情報が挙げられる。特徴領域の詳細後述する。
 内視鏡画像37の付帯情報の例として、動画像38を構成するフレーム画像38aのフレーム番号、及び動画像38の撮像時刻が挙げられる。内視鏡画像37の付帯情報の例として、静止画像39の撮像条件、静止画像39の撮像時刻、及び静止画像39のサムネイル画像が挙げられる。
 情報表示制御部44bは、医療画像解析処理部43における各種処理の際に必要な情報の表示制御を行う。医療画像解析処理部43における各種処理の例として、CTC画像19と内視鏡画像37との対応付け処理、CTC画像19の特徴領域抽出処理、及び内視鏡画像37の特徴領域抽出処理が挙げられる。
 医療画像解析処理部43における各種処理の他の例として、CTC画像19と内視鏡画像37との比較処理、内視鏡画像37の特徴領域へのCTC画像19の抽出結果の付与処理、CTC画像19の抽出結果に基づく内視鏡画像37の特徴領域の記憶処理等が挙げられる。ここに列挙した医療画像解析処理部43における各種処理の詳細は後述する。
 〔記憶部〕
 記憶部47は、画像記憶部48を備える。画像記憶部48は、医療画像処理装置14が取得したCTC画像19、及び内視鏡画像37を記憶する。図2には、医療画像処理装置14が記憶部47を備える態様を例示したが、医療画像処理装置14とネットワークを介して通信可能に接続される記憶装置等が記憶部47を備えてもよい。上述した記憶装置の例として、図1に示したネットワーク17を介して通信可能に接続される画像記憶装置18が挙げられる。
 記憶部47は、プログラム記憶部49を備える。プログラム記憶部49を用いて記憶されるプログラムは、動画像38の再生制御を医療画像処理装置14に実行させるためのアプリケーションプログラムが含まれる。また、プログラム記憶部49を用いて記憶されるプログラムは、医療画像解析処理部43の処理を医療画像処理装置14に実行させるためのプログラムが含まれる。
 医療画像処理装置14は、複数のコンピュータ等を用いて構成してもよい。複数のコンピュータ等は、ネットワークを介して通信可能に接続されてもよい。ここでいう複数のコンピュータは、ハードウェア的に分離していてもよいし、ハードウェア的に一体に構成され、且つ機能的に分離されていてもよい。
 〔各種制御部のハードウェア構成〕
 図2に示した医療画像処理装置14の各種制御を実行する制御部のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。図3に示す医療画像解析処理部43についても同様である。
 各種のプロセッサには、ソフトウェアを実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるPLD(Programmable Logic Device)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。なお、ここでいうソフトウェアはプログラムと同義である。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサを用いて構成されてもよい。2つ以上のプロセッサの例として、複数のFPGA、或いはCPUとFPGAとの組み合わせが挙げられる。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアント装置、及びサーバ装置等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組合せを用いて1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、SoC(System On Chip)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。なお、ICは集積回路の英語表記であるIntegrated Circuitの省略語である。
 〔医療画像解析処理部の詳細な説明〕
 図3は医療画像解析処理部の機能を示す機能ブロック図である。以下の説明における内視鏡10は図1に図示されている。また、CTC画像19、視点画像19b、内視鏡画像37、及びフレーム画像38aは図2に図示されている。
 図3に示した医療画像解析処理部43は、第1特徴領域抽出部51と、第1条件設定部52と、第2特徴領域抽出部54と、第2条件設定部56と、対応付け部57と、比較部58と、比較結果付与部60と、保存部61と、抽出規則更新部62と、を備える。
 《第1特徴領域抽出部》
 第1特徴領域抽出部51は、CTC画像19から、規定の第1条件に合致する特徴領域である第1特徴領域を抽出する。CTC画像19の第1特徴領域の例として、病変、ひだ、各結腸間の変化点、及び血管が挙げられる。なお、血管は血管の走行パターンが含まれる。
 《第1条件設定部》
 第1条件設定部52は第1条件を設定する。第1条件は、第1特徴領域抽出部51を用いた抽出処理に適用される抽出条件である。第1条件設定部52は、図2に示した操作装置15を用いて入力された情報を第1条件として設定し得る。上述した第1特徴領域の例示は、第1条件の例示として把握される。
 《第2特徴領域抽出部》
 第2特徴領域抽出部54は、図2に示した内視鏡画像37から、規定の第2条件に合致する特徴領域である第2特徴領域を抽出する。内視鏡画像37の第2特徴領域の例として、CTC画像19の第1特徴領域と同様に、病変、ひだ、各結腸間の変化点、及び血管が挙げられる。
 第2特徴領域抽出部54は、第2条件に合致する第2特徴領域を内視鏡画像37から自動的に抽出してもよい。第2特徴領域抽出部54は、第2条件に合致する第2特徴領域を、ユーザが内視鏡画像37から手動抽出した抽出結果を取得してもよい。ユーザは、図2に示した情報取得部42を用いて手動抽出した抽出結果を入力してもよい。
 《第2条件設定部》
 第2条件設定部56は、内視鏡画像37の第2特徴領域の抽出条件として、第1条件に対応する第2条件を設定する。第1条件に対応する第2条件には、第1条件と同一の第2条件が含まれる。例えば、第1条件として病変が設定された場合、第2条件として病変が設定され得る。
 第1条件、及び第2条件は、病変という包括概念に代わり、ポリープ、及び炎症等の具体的な病変が設定されてもよい。また、第1条件、及び第2条件は、複数の条件を組み合わせてもよい。
 第2条件として病変が設定され、且つ第2特徴領域として内視鏡画像37から病変を抽出する場合は、内視鏡検査における病変の検出に相当する。上述した第2特徴領域の例示は、第2条件の例示として把握される。
 《対応付け部》
 対応付け部57は、図2に示したCTC画像19と内視鏡画像37との対応付けを行う。CTC画像19と内視鏡画像37との対応付けの例として、CTC画像19の第1特徴領域と内視鏡画像37の第2特徴領域との対応付けが挙げられる。例えば、内視鏡画像37の第2特徴領域として病変が検出された場合、検出された病変に対応するCTC画像19の第1特徴領域を内視鏡画像37の第2特徴領域に対応付けする。
 CTC画像19と内視鏡画像37との対応付けは、CTC画像19の非抽出領域と内視鏡画像37の第2特徴領域との対応付けが含まれる。
 《比較部》
 比較部58は、CTC画像19と内視鏡画像37とを比較する。そして、内視鏡画像37の第2特徴領域のうち、CTC画像19の非抽出領域に対応付けされている第2特徴領域を特定する。
 換言すると、比較部58は、内視鏡画像37の第2特徴領域がCTC画像19の非抽出領域と対応付けされているか否かを判定する。比較部58は、自動判定を実行してもよい。比較部58は、ユーザの判定結果を入力する判定結果入力部を備えてもよい。比較部58の比較結果は、保存部61を用いて保存される。比較結果の詳細は後述する。
 《比較結果付与部》
 図3に示した比較結果付与部60は、比較部58の比較結果を内視鏡画像37に付与する。比較結果付与部60の機能を比較部58が担う態様も可能である。比較部58の比較結果が付与された内視鏡画像37は、保存部61を用いて保存される。
 比較部58の比較結果は、第1特徴領域の抽出結果として把握し得る。比較結果付与部60は抽出結果付与部の一例である。
 《保存部》
 保存部61は、比較部58の比較結果を保存する。保存部61は他の記憶部と兼用してもよい。保存部61を用いて記憶された比較結果は、第1特徴領域抽出部51に適用される抽出規則の更新に用いられる。なお、抽出規則の更新は抽出規則の変更を含む概念である。なお、ここでいう比較結果の保存は、比較結果の記憶と同義である。本明細書では、保存と記憶とを区別せずに同義として取り扱うこととする。
 《抽出規則更新部》
 抽出規則更新部62は、内視鏡画像37の第2特徴領域に対応付けされた非抽出領域の座標値を用いて第1特徴領域抽出部51に適用される抽出規則を更新する。第1特徴領域抽出部51に適用される抽出規則の更新は、深層学習アルゴリズム65を用いて実行される。更新後の抽出規則は、図示しない更新規則記憶部を用いて記憶される。
 [医療用画像解析方法の説明]
 次に、大腸検査における医療用画像解析方法について説明する。なお、大腸検査は例示であり、以下に説明する医療用画像解析方法は、気管支等の他の部位の検査に適用可能である。
 以下に説明する医療用画像解析方法は、図2に示した内視鏡画像37を用いた内視鏡検査において検出され、且つCTC画像19を用いた仮想大腸内視鏡検査において検出されない病変等の情報を収集する画像処理方法の一例である。
 〔CTC画像〕
 図4はCTC画像の模式図である。図4に示した全体画像19aは、被観察部位である大腸の全体を表すCTC画像19の一形態である。被観察部位は、被検体、及び被検体の観察対象と同義である。
 全体画像19aは、設定されたパス19cの上に1つ以上の視点Pを置き、スタート地点Pから、図示しないエンド地点まで順次に視点Pを変更しつつ、各視点Pから管腔の内部を見たことを想定した画像である。パス19cは、全体画像19aに対して細線化を施して生成し得る。細線化処理は公知の細線化手法を適用可能である。図4には、複数の視点Pを図示したが、視点Pの配置、及び数量は検査条件等に応じて、適宜決定し得る。
 全体画像19aの各視点Pを指定した場合、指定された視点Pにおける視野の画像を表す視点画像を表示可能である。なお、各視点Pにおける視点画像は符号19b、及び符号19bを付して図6に図示する。
 各視点Pにおいて、内視鏡10の撮像方向を反映させた視点画像を生成してもよい。内視鏡10の撮像方向を反映させた視点画像は、複数の撮像方向のそれぞれについて生成されてもよい。図4に示した全体画像19a、及び図4に図示しない視点画像は、図2に示したCTC画像19の概念に含まれる。
 全体画像19aを図4に示した内視鏡画像37は、図示しない3次元座標が設定される。内視鏡画像37に設定される3次元座標は、内視鏡画像37の任意の基準位置を原点とする3次元座標を適用可能である。3次元座標は、直交座標、極座標、及び円筒座標など、任意の3次元座標を適用可能である。
 〔仮想大腸内視鏡検査〕
 仮想大腸内視鏡検査は、CT装置を用いて大腸を撮像して大腸のCT画像を取得し、大腸のCT画像に画像処理を施して生成されたCTC画像19を用いて病変等を検出する。仮想大腸内視鏡検査は、内視鏡10の移動と連動して、内視鏡10に見立てたポインタ19dをパス19cに沿って移動させる。ポインタ19dの位置は、内視鏡10の移動条件から導出される。
 例えば、内視鏡10の移動始点であるスタート地点Pに対応するポインタ19dの開始視点を設定する。内視鏡10のスタート地点Pは、図4に示した内視鏡10の挿入開始位置を適用可能である。内視鏡10のスタート地点Pは、図示しない内視鏡10の移動開始位置を適用してもよい。内視鏡10の挿入開始位置の例として肛門に対応する位置が挙げられる。内視鏡10の移動開始位置の例として盲腸に対応する位置が挙げられる。
 内視鏡10は図示しないセンサを用いて被観察部位の内部における位置を把握することが可能である。また、内視鏡10は図示しないセンサを用いて内視鏡10の移動速度、及び移動方向を表す移動ベクトルの導出が可能である。
 内視鏡10の被観察部位の内部における位置、及び内視鏡10の移動ベクトルを用いて、内視鏡10の移動に連動した、ポインタ19dの移動が可能である。全体画像19aにおけるポインタ19dの位置は、座標値を用いて特定し得る。
 CTC画像19は3次元情報を有しているために、仮想大腸内視鏡検査はポリープ等の凸形状の検出に強い。また、ひだの裏に隠れているポリープ等の検出にも強い。一方、CTC画像19は色情報、及びテクスチャ情報を有していないために、仮想大腸内視鏡検査は平坦な病変、及び表面状態の違い等の検出が苦手である。
 〔内視鏡画像〕
 内視鏡検査は、内視鏡画像37を用いて病変等を検出する。すなわち、内視鏡検査は、内視鏡10を用いて、リアルタイムに生成される動画像38を見て、病変の位置、及び形状等を特定する。内視鏡検査は、内視鏡画像37の再生画像を用いてもよい。
 図5は内視鏡画像の模式図である。内視鏡画像37の一例として、動画像38を構成する任意のフレーム画像38aを図5に示す。図5に示したフレーム画像38aは2次元画像である。フレーム画像38aは色情報、及びテクスチャ情報を有している。
 内視鏡画像37は色情報、及びテクスチャ情報を有しているために、内視鏡検査は平坦な病変、及び表面状態の違い等の検出に強い。内視鏡検査は、仮想大腸内視鏡検査によって検出ができなかった病変の検出が可能である。したがって、内視鏡検査の検査結果を用いた仮想大腸内視鏡検査を補間する情報の生成が可能である。
 以下に、内視鏡検査の検査結果を用いた仮想大腸内視鏡検査を補間する情報の収集に用いられる医療用画像解析方法を構成する処理について説明する。本実施形態では、仮想大腸内視鏡検査が苦手とする病変の情報を収集する例を示す。
 本実施形態では、フレーム画像38aを用いて内視鏡画像37の位置を特定している。内視鏡画像37の位置はフレーム画像38aを用いずに特定してもよい。
 〔特徴領域抽出処理〕
 図6は第1特徴領域抽出の説明図である。図6には、CTC画像19のうち、任意の視点Pにおける視点画像19b、及び視点画像19bを図示する。図6に示した視点画像19b、及び視点画像19bを包括する概念が視点画像19bである。
 第1特徴領域抽出処理は、図3に示した第1特徴領域抽出部51を用いて、図6に示したCTC画像19から第1特徴領域80を抽出する。CTC画像19から第1特徴領域80を抽出する処理は、公知の特徴領域抽出技術を適用可能である。後述する第2特徴領域抽出も同様である。
 図6に示した視点画像19bは、第1特徴領域80として凸形状のポリープが抽出されている。一方、図6では図示を省略するが、CTC画像19は第1特徴領域が抽出されない領域がある。CTC画像19のうち、第1特徴領域が抽出されない領域を非抽出領域とする。
 CTC画像19の第1特徴領域80、及び図示しない非抽出領域はいずれも、CTC画像19に設定されている3次元座標における座標値の特定が可能である。
 図7は第2特徴領域抽出の説明図である。図7には、内視鏡画像37のうち、任意のフレーム画像38aを図示する。第2特徴領域の抽出結果は内視鏡検査の結果として取り扱うことが可能である。
 第2特徴領域抽出処理は、図3に示した第2特徴領域抽出部54を用いて内視鏡画像37から第2特徴領域70を抽出する。図6に示したフレーム画像38aは、第2特徴領域70として凸形状のポリープが抽出されている。図7に示した第2特徴領域70である凸形状のポリープは、CTC画像19から抽出可能である。
 図8は第2特徴領域抽出の他の例の説明図である。図8に示したフレーム画像38a31は、第2特徴領域76として炎症している病変が抽出されている。図8に示したフレーム画像38a31の第2特徴領域76は、内視鏡検査では検出可能な特徴領域である一方、仮想大腸内視鏡検査が検出を苦手とする特徴領域の一例である。
 図6に示した第1特徴領域80の情報、及び図示しない非抽出領域の情報は、第1特徴領域の抽出結果として、図2に示した保存部61に保存される。また、図7に示した第2特徴領域70の情報、及び図8に示した第2特徴領域76の情報は、第2特徴領域の抽出結果、又は内視鏡検査結果として、図2に示した保存部61に保存される。
 〔対応付け処理〕
 図9から図11を用いて対応付け処理について説明する。図9は病変の対応付けの例を示す模式図である。図9には内視鏡画像37のフレーム画像38aにおいて凸形状のポリープである第2特徴領域70が検出された場合の例を示す。
 なお、図9に示した視点画像19bは図6に示した視点画像19bである。図9に示した視点画像19bは図6に示した視点画像19bである。図9に示した第1特徴領域80は、図6に示した第1特徴領域80である。
 また、図9に示したフレーム画像38aは、図7に示したフレーム画像38aである。図9に示した第2特徴領域70は、図7に示した第2特徴領域70である。
 以下に、内視鏡10の移動に対応して、全体画像19aのパス19cに沿って、内視鏡10の位置を表すポインタ19dを移動させながら、内視鏡検査を行う場合について説明する。内視鏡10の位置は、内視鏡10が備えるセンサを用いて既知である。また、各視点Pにおける内視鏡10の向きは、図4に示したパス19cの各視点Pにおける接線方向とする。
 図3に示した対応付け部57は、内視鏡画像37から第2特徴領域70が抽出された場合に、第2特徴領域70に対応する第1特徴領域80をCTC画像19から検索する。内視鏡画像37の第2特徴領域70に対応するCTC画像19の第1特徴領域80が検出された場合、CTC画像19の第1特徴領域80と、内視鏡画像37の第2特徴領域70とを対応付ける。
 換言すると、CTC画像19と内視鏡画像37との対応付けという概念は、CTC画像19の構成要素と、内視鏡画像37の構成要素との組を構成するという概念が含まれる。CTC画像19と内視鏡画像37との対応付けという概念には、内視鏡画像37の構成要素に対応するCTC画像19の構成要素を検索して、特定するという概念が含まれてもよい。
 図10はひだの対応付けの例を示す模式図である。図10に示したフレーム画像38a11は、第2特徴領域72としてひだが抽出されている。視点画像19b11は、第1特徴領域82としてひだが抽出されている。図10には、視点画像19b11の視点Pに対して連続する視点Pにおける視点画像19b12、及び視点画像19b13が図示されている。図3に示した対応付け部57は、図10に示した第1特徴領域82と第2特徴領域72とを対応付ける。
 図11はひだの番号を用いたひだの対応付けの例を示す模式図である。CTC画像19、及び内視鏡画像37のいずれにおいても、ひだの数は変わらない。そこで、基準とするひだを定めて、ひだの番号を用いてCTC画像19と内視鏡画像37との対応付けが可能である。
 図11に示したフレーム画像38a21は、第2特徴領域74としてひだが抽出されている。視点画像19b21は、第1特徴領域84としてひだが抽出されている。図11に示した視点画像19b22、及び視点画像19b23もまた、第2特徴領域としてひだが抽出されている。なお、視点画像19b22、及び視点画像19b23の第2特徴領域の図示は省略する。
 視点画像19b21に付されたnはひだの番号を表す整数である。視点画像19b22に付されたn、視点画像19b23に付されたn、及びフレーム画像38a21に付されたnも同様である。
 フレーム画像38a21におけるひだの番号nと、視点画像19b21におけるひだの番号nとが一致する場合、図3に示した対応付け部57は、図11に示した第2特徴領域74と第1特徴領域84とを対応付けする。
 図示は省略するが、各結腸間の変換点、及び血管についても、図9から図11を用いて説明した例と同様に、対応付けが可能である。
 〔比較処理〕
 次に、図12を用いて比較処理について説明する。図12は病変を用いたCTC画像と内視鏡画像との比較処理の一例の説明図である。比較処理は、図3に示した比較部58を用いて実行される。
 比較処理は、第1特徴領域80等の第1特徴領域が抽出されたCTC画像19と、第2特徴領域70、及び第2特徴領域76等の第2特徴領域が抽出された内視鏡画像37とを比較する。比較処理は、CTC画像19と内視鏡画像37との対応する位置同士を比較する。
 具体的には、内視鏡画像37の第2特徴領域のうち、CTC画像19の第1特徴領域と対応付けされていない内視鏡画像37の第2特徴領域76を特定する。換言すると、CTC画像19の非抽出領域86と対応付けされている内視鏡画像37の第2特徴領域76を特定する。比較処理の比較結果は、図3に示した保存部61に保存される。
 図12に示したフレーム画像38aは、第2特徴領域70として凸形状のポリープが抽出されている。そして、フレーム画像38aの第2特徴領域70は、視点画像19bの第1特徴領域80に対応付けがされている。したがって、フレーム画像38aは特定対象外である。
 一方、図12に示したフレーム画像38a31は、第2特徴領域76として炎症している病変が抽出されている。しかし、フレーム画像38a31の第2特徴領域76は、CTC画像19の第1特徴領域80等と対応付けがされていない。
 仮想大腸内視鏡検査は、平坦な病変、及び表面状態の違い等の検出が苦手であるので、CTC画像19は、第2特徴領域76に対応する第1特徴領域が抽出されていない。したがって、フレーム画像38a31は特定対象である。
 フレーム画像38a31が特定された場合、フレーム画像38a31の第2特徴領域76に対応するCTC画像19の非抽出領域86の座標値が特定される。
 図12に示した視点画像19b31は、フレーム画像38a31の撮像位置に対応する視点Pにおける視点画像である。視点画像19b31の非抽出領域86の位置は、フレーム画像38a31の第2特徴領域76の位置に対応している。
 〔比較結果付与処理〕
 比較結果付与処理は、図3に示した比較結果付与部60を用いて実行される。比較結果付与処理は、非抽出領域に対応付けされた第2特徴領域が抽出されたフレーム画像38aに対して、比較処理の比較結果を付与する。
 例えば、図12に示した第2特徴領域76が抽出されたフレーム画像38a31に対して、比較処理の比較結果として、視点画像19b31における非抽出領域86の座標値を付与する。
 〔保存処理〕
 保存処理は、図3に示した保存部61を用いて実行される。保存処理は、比較結果が付与された内視鏡画像37が保存される。具体的には、保存部61は非抽出領域86の座標値が付与された内視鏡画像37を保存する。
 保存部61を用いて保存された情報は、内視鏡画像37から抽出された病変のうち、CTC画像19から抽出されない病変の情報である。したがって、内視鏡画像37から抽出された病変のうち、CTC画像19から抽出されない病変の情報収集が可能となる。
 〔抽出規則更新処理〕
 抽出規則更新処理は、図3に示した抽出規則更新部62を用いて実行される。具体的には、抽出規則更新部62は、内視鏡画像37から抽出された病変に対応するCTC画像19の非抽出領域の情報に対して深層学習アルゴリズム65を実行し、CTC画像19から第1条件に合致する第1特徴領域を抽出する抽出規則を更新する。
 更新後の抽出規則を用いた第1特徴領域の抽出処理では、更新前の抽出規則を用いた場合の非抽出領域に対応するCTC画像19の位置に第1特徴領域が抽出され得る。
 [画像処理方法の手順]
 図13は画像処理方法の手順を示すフローチャートである。画像処理方法が開始されると、まず、CTC画像入力工程S10が実行される。CTC画像入力工程S10は、図1に示した画像記憶装置18から、ネットワーク17、及び図2に示したCTC画像取得部41aを介してCTC画像19が入力される。CTC画像19は、図2に示した画像記憶部48を用いて記憶される。CTC画像入力工程S10は第1画像入力工程の一例である。
 図13に示したCTC画像入力工程S10においてCTC画像19が入力された後に、第1特徴領域抽出工程S12が実行される。第1特徴領域抽出工程S12では、図3に示した第1特徴領域抽出部51を用いて、CTC画像19から第1特徴領域が抽出される。第1特徴領域の一例は、符号80を付して図12に図示する。
 図13に示した内視鏡画像入力工程S14では、図2に示した内視鏡画像取得部41bを介して内視鏡画像37が入力される。図13に示した内視鏡画像入力工程S14では、図1に示した内視鏡10を用いて撮像された動画像38をリアルタイムで取得する。なお、動画像38は図2に図示する。動画像38は、画像記憶部48を用いて記憶される。以下の説明において、動画像38は内視鏡画像37と読み替えが可能である。内視鏡画像入力工程S14は第2画像入力工程の一例である。
 内視鏡画像入力工程S14において入力された動画像38は、図1に示したモニタ装置16に表示される。また、モニタ装置16は図4に示した全体画像19aを表示し、内視鏡10の位置に対応するポインタを全体画像19aに表示させる。また、全体画像19aのポインタは、内視鏡10と連動してパス19c上を移動する。
 内視鏡画像入力工程S14において動画像38が入力された場合、第2特徴領域抽出工程S16が実行される。第2特徴領域抽出工程S16では、図3に示した第2特徴領域抽出部54を用いて、図2に示した動画像38から第2特徴領域が抽出される。第2特徴領域の一例は、図12に符号70、及び符号76を付して図示する。
 図13に示した第2特徴領域抽出工程S16は、動画像38が入力される期間において、規定のサンプリング周期を適用して実行される。第2特徴領域抽出工程S16は、内視鏡検査における病変検出に相当する。
 第2特徴領域抽出工程S16において、動画像38から第2特徴領域がされるたびに、対応付け工程S18が実行される。対応付け工程S18は、図3に示した対応付け部57を用いて、第1特徴領域抽出工程S12において抽出されたCTC画像19の第1特徴領域と、第2特徴領域抽出工程S16において抽出された動画像38の第2特徴領域との対応付けが実行される。対応付けの結果は、図2に示した画像記憶部48に記憶される。
 図13に示した対応付け工程S18において、CTC画像19の第1特徴領域と動画像38の第2特徴領域との対応付けの結果が記憶された後に、比較工程S20が実行される。比較工程S20では、CTC画像19と動画像38が比較され、動画像38の第2特徴領域に対応付けされるCTC画像19の非抽出領域を特定する。
 すなわち、比較工程S20では、CTC画像19から、本来は第1特徴領域として抽出されるべき非抽出領域を検索する。比較工程S20において特定された非抽出領域の一例を、図12に符号86を付して図示する。
 また、図13に示した比較工程S20では、特定された非抽出領域の座標値を特定する。非抽出領域の座標値は、非抽出領域の重心位置等の、非抽出領域の代表位置の座標値を適用可能である。非抽出領域の座標値は、非抽出領域の縁を表す複数の座標値を適用してもよい。比較工程S20において特定された非抽出領域の座標値は、動画像38とCTC画像19との比較結果として、図3に示した保存部61に記憶される。
 比較工程S20において、動画像38とCTC画像19との比較結果が導出された後に、比較結果付与工程S22へ進む。比較結果付与工程S22では、動画像38の第2特徴領域のうち、CTC画像19の非抽出領域に対応するものに対して、比較工程S20において導出された比較結果が付与される。
 保存工程S24において、比較結果が付与された動画像38は、図3に示した保存部61に保存される。保存工程S24の後に画像処理方法は終了される。保存部61に保存された情報は、CTC画像19から第1特徴領域を抽出する際に適用される抽出規則の更新に用いることが可能である。
 [作用効果]
 〔1〕
 上記の如く構成された内視鏡システム9、及び画像処理方法によれば、内視鏡画像37の第2特徴領域のうち、CTC画像19の第1特徴領域に対応付けされず、非抽出領域86に対応する第2特徴領域76が特定される。非抽出領域86に対応する第2特徴領域76が特定された場合、特定された第2特徴領域76に対応する非抽出領域86の座標値が特定される。
 これにより、内視鏡画像37において特定される一方、CTC画像19において特定されない第1特徴領域の情報の効率的な収集が可能である。
 〔2〕
 内視鏡画像37において特定される一方、CTC画像19において特定されない第1特徴領域の情報を用いて、第1特徴領域の抽出規則の更新が可能である。
 〔3〕
 非抽出領域に対応する第2特徴領域が抽出された内視鏡画像37に対して、非抽出領域の座標値の情報を付加する。これにより、第2特徴領域が抽出された内視鏡画像37と非抽出領域の座標値との対応付けが可能である。
 また、内視鏡画像37の第2特徴領域と非抽出領域との対応関係を用いて、第1特徴領域の抽出規則の更新が可能である。
 [変形例]
 〔CTC画像の変形例〕
 《第1例》
 図2に示した医療画像処理装置14は、CT画像等の3次元検査画像からCTC画像19を生成するCTC画像生成部を備えてもよい。医療画像処理装置14は、CTC画像取得部41aを介して3次元検査画像を取得し、CTC画像生成部を用いてCTC画像19を生成してもよい。
 《第2例》
 図4に示した視点Pは、パス19cの上に限定されない。視点Pは任意の位置に設定可能である。視点画像19bの視野方向は、内視鏡10の撮像方向に対応して任意に設定し得る。
 《第3例》
 視点画像19bは、全体画像19aの任意の断面における3次元検査画像を2次元画像に変換した2次元検査画像としてもよい。
 〔第1特徴領域抽出の変形例〕
 《第1例》
 第1特徴領域の抽出は、CTC画像の生成に用いられる3次元検査画像を用いてもよい。
 《第2例》
 第1特徴領域の抽出は、内視鏡画像37の第2特徴領域の抽出と連動してもよい。例えば、内視鏡画像37から第2特徴領域が抽出された際に、第2特徴領域が抽出されている内視鏡画像37のフレーム画像38aに対応するCTC画像19の位置を特定し、特定されたCTC画像19の位置において第1特徴領域を抽出してもよい。第1特徴領域が抽出されない場合は、特定されたCTC画像19の位置の座標値を、図3に示した保存部61に保存してもよい。
 《第3例》
 第1特徴領域と第1特徴領域の座表値との関係、及び非抽出領域と非抽出領域の座標値との関係をデータベース化してもよい。第2特徴領域70に対応する第1特徴領域80、又は第2特徴領域76に対応する非抽出領域86を特定する際に、上述したデータベースを用いてもよい。データベースは、図3に示した保存部61を用いて記憶してもよいし、医療画像処理装置14の外部の記憶装置を用いて記憶してもよい。
 〔第2特徴領域抽出の変形例〕
 《第1例》
 第2特徴領域抽出の第2条件は病変に限定されない。仮想大腸内視鏡検査の精度を向上させることが可能な第2特徴領域の抽出を可能とする第2条件であればよい。
 《第2例》
 第2特徴領域の抽出は、動画像38を再生して実行してもよい。
 〔保存部を用いて保存される情報の変形例〕
 図3に示した保存部61は、内視鏡画像37の第2特徴領域に対応する非抽出領域の情報として、第1特徴領域を抽出した際の第1条件が含まれていてもよい。
 〔比較処理の変形例〕
 《第1例》
 比較処理において、ユーザが内視鏡画像37の第2特徴領域に対応するCTC画像19の非抽出領域を特定してもよい。例えば、図1に示したモニタ装置16に、内視鏡画像37の第2特徴領域とCTC画像19の非抽出領域とを表示させる。
 モニタ装置16に表示された内視鏡画像37の第2特徴領域、及びCTC画像19の非抽出領域に基づいて、ユーザが内視鏡画像37の第2特徴領域に対応するCTC画像19の非抽出領域を特定する。
 ユーザの特定情報を入力する特定情報入力部を備え、特定情報入力部を介して入力された特定情報に基づいて、第2特徴領域に対応するCTC画像19の非抽出領域の特定が可能である。特定情報入力部として、図2に示した情報取得部42を用いることが可能である。
 《第2例》
 CTC画像19の第1特徴領域と、内視鏡画像37の第2特徴領域との対応付け処理を省略してもよい。すなわち、内視鏡画像37から病変として第2特徴領域が抽出された場合に、CTC画像19を検索して第2特徴領域と類似する特徴領域を特定してもよい。
 例えば、CTC画像19の第1特徴領域の中から、内視鏡画像37の第2特徴領域の特徴量評価値との差分値が、規定の閾値以下の特徴量評価値を有する第1特徴領域を特定してもよい。CTC画像19の検索には、図4に示したポインタ19dの位置の情報を用いてもよい。
 〔保存部の変形例〕
 図3に示した保存部61は、図2に示した医療画像処理装置14とネットワークを介して通信可能に接続される保存装置を適用してもよい。
 〔保存部を用いて保存される情報の変形例〕
 《第1例》
 図3に示した保存部61は、CTC画像19の非抽出領域86と対応付けされた内視鏡画像37を保存してもよい。ここでいう内視鏡画像37は、図12に示したフレーム画像38a31を示す。
 《第2例》
 図3に示した保存部61は、内視鏡画像37の第2特徴領域76に対応付けされた非抽出領域86の座標値を保存してもよい。非抽出領域86の特定の際に複数の座標値が用いられる場合、非抽出領域86の座標値として、複数の座標値を保存してもよい。
 すなわち、保存部61は、非抽出領域86の座標値が付加されたフレーム画像38a31、フレーム画像38a31、及び非抽出領域86の座標値の少なくもといずれかを保存する。
 〔照明光の変形例〕
 特定の波長領域は、以下の変形例の適用が可能である。
 《第1例》
 特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、且つ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
 《第2例》
 特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、且つ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
 《第3例》
 特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、且つ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
 《第4例》
 特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ且つこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
 《第5例》
 特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、且つ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
 〔特殊光画像の生成例〕
 プロセッサ12は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ12は、特殊光画像取得部として機能する。そして、プロセッサ12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青、或いはシアン、マゼンタ、及びイエローの色情報に基づく演算を行うことで得る。
 なお、赤、緑、及び青は、RGB(Red,Green,Blue)と表されることがある。また、シアン、マゼンタ、及びイエローは、CMY(Cyan,Magenta,Yellow)と表されることがある。
 〔特徴量画像の生成例〕
 プロセッサ12は、通常光画像、及び特殊光画像の少なくともいずれか一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。
 [画像処理装置への適用例]
 上述した内視鏡システムの一部の構成を用いて、画像処理装置を構成し得る。例えば、図2に示した医療画像処理装置14は、画像処理装置として機能し得る。
 [コンピュータを画像処理装置として機能させるプログラムへの適用例]
 上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータに、CTC画像入力機能、第1特徴領域抽出機能、内視鏡画像入力機能、第2特徴領域抽出機能、対応付け機能、比較機能、及び保存機能を実現させるプログラムを構成し得る。
 CTC画像入力機能は第1画像入力機能に相当する。内視鏡画像入力機能は第2画像入力機能に相当する。
 上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。
 また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。
 [実施形態及び変形例等の組み合わせについて]
 上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
 以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
9 内視鏡システム
10 内視鏡
11 光源装置
12 プロセッサ
13 表示装置
14 医療画像処理装置
15 入力操作部
16 表示装置
17 ネットワーク
18 画像記憶装置
19 CTC画像
19a 全体画像
19b、19b、19b、19b、19b11、19b12、19b13、19b21、19b22、19b23、19b31 視点画像
19c パス
19d ポインタ
20 挿入部
21 操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画像撮影指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37 内視鏡画像
37a、37b コネクタ
38 動画像
38a、38a、38a11、38a21、38a31 フレーム画像
39 静止画像
41 画像取得部
41a CTC画像取得部
41b 内視鏡画像取得部
42 情報取得部
43 医療画像解析処理部
44 表示制御部
44a 再生制御部
44b 情報表示制御部
47 記憶部
48 画像記憶部
49 プログラム記憶部
51 第1特徴領域抽出部
52 第1条件設定部
54 第2特徴領域抽出部
56 第2条件設定部
57 対応付け部
58 比較部
60 比較結果付与部
61 保存部
62 抽出規則更新部
65 深層学習アルゴリズム
70、72、76 第2特徴領域
80、82、84、86 第1特徴領域
86 非抽出領域
P 視点
 スタート地点
、n、n ひだの番号
S10からS22 画像処理方法の各工程

Claims (18)

  1.  被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、
     内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、
     前記仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け部と、
     前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、
     前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、
     前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存部と、
     を備えた画像処理装置。
  2.  前記実内視鏡画像に対して、前記仮想内視鏡画像から前記第1特徴領域を抽出した抽出結果を付与する抽出結果付与部を備えた請求項1に記載の画像処理装置。
  3.  前記仮想内視鏡画像から前記第1特徴領域を抽出した抽出結果と、前記実内視鏡画像から前記第2特徴領域を抽出した抽出結果とを比較する比較部を備えた請求項1又は2に記載の画像処理装置。
  4.  前記比較部は、前記仮想内視鏡画像と前記実内視鏡画像との対応する位置同士を比較する請求項3に記載の画像処理装置。
  5.  前記実内視鏡画像の前記第2特徴領域について、前記仮想内視鏡画像の前記非抽出領域に対応付けされた領域であるか否かを判定した判定結果を入力する判定結果入力部を備えた請求項1から4のいずれか一項に記載の画像処理装置。
  6.  前記仮想内視鏡画像の抽出結果、及び前記実内視鏡画像の抽出結果を表示する表示部を備えた請求項1から5のいずれか一項に記載の画像処理装置。
  7.  前記実内視鏡画像から前記第2特徴領域を抽出した抽出結果を入力する抽出結果入力部を備えた請求項1から6のいずれか一項に記載の画像処理装置。
  8.  前記第2特徴領域抽出部は、前記実内視鏡画像から前記第2特徴領域を自動的に抽出する請求項1から6のいずれか一項に記載の画像処理装置。
  9.  前記第2特徴領域抽出部は、前記実内視鏡画像から前記第2特徴領域として病変を抽出する請求項1から8のいずれか一項に記載の画像処理装置。
  10.  前記保存部は、前記非抽出領域の前記仮想内視鏡画像における3次元座標値、及び前記非抽出領域に対応する前記第2特徴領域を含む前記実内視鏡画像の少なくともいずれか一方を保存する請求項1から9のいずれか一項に記載の画像処理装置。
  11.  前記第1特徴領域抽出部は、前記仮想内視鏡画像から前記第1特徴領域として病変を抽出する請求項1から10のいずれか一項に記載の画像処理装置。
  12.  前記第1特徴領域抽出部は、前記保存部に保存されている前記第2特徴領域の情報と前記非抽出領域との対応関係を用いて、前記仮想内視鏡画像から前記第1特徴領域を抽出する抽出規則を更新する請求項1から11のいずれか一項に記載の画像処理装置。
  13.  前記第1特徴領域抽出部は、機械学習を用いて生成された抽出規則を適用して、前記仮想内視鏡画像から前記第1特徴領域を抽出する請求項1から12のいずれか一項に記載の画像処理装置。
  14.  被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力工程と、
     内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力工程と、
     前記仮想内視鏡画像から生成される仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け工程と、
     前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出工程と、
     前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出工程と、
     前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存工程と、
     を含む画像処理方法。
  15.  コンピュータに、
     被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力機能、
     内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、
     前記仮想内視鏡画像から生成される仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け機能、
     前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、
     前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び
     前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存機能を実現させるプログラム。
  16.  内視鏡と、
     被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、
     前記内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、
     前記仮想内視鏡画像から生成される仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け部と、
     前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、
     前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、
     前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存部と、
     を備えた内視鏡システム。
  17.  内視鏡、画像処理装置、及び保存装置を備えた内視鏡システムであって、
     前記画像処理装置は、
     被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、
     前記内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、
     前記仮想内視鏡画像から生成される仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け部と、
     前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、
     前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、
     を備え、
     前記保存装置は、
     前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存部を備えた内視鏡システム。
  18.  前記保存装置は、ネットワークを介して前記画像処理装置と通信可能に接続される請求項17に記載の内視鏡システム。
PCT/JP2018/040051 2017-10-31 2018-10-29 画像処理装置、画像処理方法、プログラム、及び内視鏡システム WO2019088008A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019550364A JP7148534B2 (ja) 2017-10-31 2018-10-29 画像処理装置、プログラム、及び内視鏡システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017210249 2017-10-31
JP2017-210249 2017-10-31

Publications (1)

Publication Number Publication Date
WO2019088008A1 true WO2019088008A1 (ja) 2019-05-09

Family

ID=66331900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/040051 WO2019088008A1 (ja) 2017-10-31 2018-10-29 画像処理装置、画像処理方法、プログラム、及び内視鏡システム

Country Status (2)

Country Link
JP (1) JP7148534B2 (ja)
WO (1) WO2019088008A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199152A1 (ja) * 2020-03-30 2021-10-07 日本電気株式会社 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
DE102023114020A1 (de) 2022-05-31 2023-11-30 Fujifilm Corporation Informationsverarbeitungsvorrichtung, ultraschallendoskop, informationsverarbeitungsverfahren und programm

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089484A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
JP2006061274A (ja) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc プログラム、及び内視鏡システム
JP2011000173A (ja) * 2009-06-16 2011-01-06 Toshiba Corp 内視鏡検査支援システム
JP2012050606A (ja) * 2010-08-31 2012-03-15 Fujifilm Corp 内視鏡画像処理装置および方法、並びに、プログラム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008054763A (ja) * 2006-08-29 2008-03-13 Hitachi Medical Corp 医療画像診断装置
KR20130015146A (ko) * 2011-08-02 2013-02-13 삼성전자주식회사 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089484A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
JP2006061274A (ja) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc プログラム、及び内視鏡システム
JP2011000173A (ja) * 2009-06-16 2011-01-06 Toshiba Corp 内視鏡検査支援システム
JP2012050606A (ja) * 2010-08-31 2012-03-15 Fujifilm Corp 内視鏡画像処理装置および方法、並びに、プログラム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199152A1 (ja) * 2020-03-30 2021-10-07 日本電気株式会社 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
DE102023114020A1 (de) 2022-05-31 2023-11-30 Fujifilm Corporation Informationsverarbeitungsvorrichtung, ultraschallendoskop, informationsverarbeitungsverfahren und programm

Also Published As

Publication number Publication date
JP7148534B2 (ja) 2022-10-05
JPWO2019088008A1 (ja) 2020-11-12

Similar Documents

Publication Publication Date Title
US11734820B2 (en) Medical image processing device, medical image processing method, and medical image processing program
JP5675227B2 (ja) 内視鏡画像処理装置および作動方法、並びに、プログラム
JP7096445B2 (ja) 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
US11302092B2 (en) Inspection support device, endoscope device, inspection support method, and inspection support program
JP7270626B2 (ja) 医用画像処理装置、医用画像処理システム、医用画像処理装置の作動方法、プログラム、及び記憶媒体
JP7166430B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP7050817B2 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム
JP7308258B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法
JP6840263B2 (ja) 内視鏡システム及びプログラム
WO2019088008A1 (ja) 画像処理装置、画像処理方法、プログラム、及び内視鏡システム
JP7122328B2 (ja) 画像処理装置、プロセッサ装置、画像処理方法、及びプログラム
US20210366593A1 (en) Medical image processing apparatus and medical image processing method
US20200184644A1 (en) Medical image processing device and medical image processing method
US20210201080A1 (en) Learning data creation apparatus, method, program, and medical image recognition apparatus
US20230206445A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system
CN112867430B (zh) 医疗图像处理系统及学习方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18874316

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019550364

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18874316

Country of ref document: EP

Kind code of ref document: A1