WO2019130868A1 - 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム - Google Patents

画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
WO2019130868A1
WO2019130868A1 PCT/JP2018/042018 JP2018042018W WO2019130868A1 WO 2019130868 A1 WO2019130868 A1 WO 2019130868A1 JP 2018042018 W JP2018042018 W JP 2018042018W WO 2019130868 A1 WO2019130868 A1 WO 2019130868A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
endoscope
endoscopic image
real
information
Prior art date
Application number
PCT/JP2018/042018
Other languages
English (en)
French (fr)
Inventor
加來 俊彦
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019562831A priority Critical patent/JP7050817B2/ja
Publication of WO2019130868A1 publication Critical patent/WO2019130868A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to an image processing device, a processor device, an endoscope system, an image processing method, and a program, and more particularly to cooperation between a real endoscopic image and a virtual endoscopic image.
  • the endoscopic image is an image captured using an imaging device such as a CCD (Charge Coupled Device).
  • the endoscopic image is an image in which the color and texture of the inside of the tubular structure are clearly expressed.
  • an endoscopic image is a two-dimensional image representing the inside of a tubular structure. For this reason, it is difficult to grasp which position in the tubular structure the endoscopic image represents.
  • CT is an abbreviation of Computed Tomography.
  • MRI is an abbreviation of Magnetic Resonance Imaging.
  • the image of the tubular structure is extracted from the three-dimensional inspection image, and the correspondence between the image of the tubular structure and the actual endoscopic image which is an actual endoscopic image acquired by imaging using the endoscope is acquired.
  • a method has been proposed in which a virtual endoscopic image at the current position of the endoscope is generated from the three-dimensional inspection image of the tubular structure and displayed.
  • PTL 1 In the case of displaying an endoscopic image acquired using an endoscope and a medical image acquired using a medical image diagnostic apparatus, PTL 1 expresses the endoscopic image and the medical image, respectively.
  • a medical image processing apparatus is described which aligns and displays the position of the observation target.
  • the medical image processing apparatus described in the same document identifies the outline of the intestinal tract and the colon cord from endoscopic image data representing the inside of the large intestine, and identifies the intestinal tract area and the colon cord area from the CT image data representing the colon.
  • the medical image processing apparatus described in the same document matches the position of the colonic string based on the endoscopic image data with the position of the colonic string region based on the CT image, and further visualizes the shape of the intestinal tract area based on the CT image Match the shape of the outline based on the mirror image.
  • the medical image processing apparatus described in the same document displays, on the display unit, an intestinal tract image and an endoscopic image in which pixel values of corresponding positions in CT image data are allocated to each position of the intestinal tract region matched in shape. .
  • Patent Document 2 creates a developed image from volume data in which tomographic images captured using an X-ray CT apparatus are stacked, and the density of the convex region in the developed image, the curvature of the core line, and each point on the core line are orthogonal to each other.
  • a medical image processing apparatus has been described which identifies the region of the large intestine based on the cross-sectional shape.
  • Patent Document 3 describes a medical image observation support device that extracts a feature shape from two or more three-dimensional images of the large intestine of the same person with different postures, and associates the large intestine with two or more three-dimensional images. There is.
  • the invention described in Patent Document 3 applies a fold feature shape determined based on the position and volume of a fold of a large intestine as a feature shape, and a bend feature shape determined based on a bent state of a large intestine.
  • Patent Document 4 describes an image processing apparatus that extracts an R signal component from an endoscopic image and calculates three-dimensional shape information of an R image based on changes in light and dark information or luminance information.
  • the R image represents the R signal component of the endoscopic image.
  • Patent Document 5 describes an invention related to navigation of a flexible endoscope.
  • the invention described in Patent Document 5 is a database in which a virtual endoscopic image to be examined, information of a position of a virtual camera corresponding to the virtual endoscopic image, and information of a posture of an endoscope tip are stored. And compare the real endoscopic image to be examined with the virtual endoscopic image in the database. Then, a virtual endoscopic image having the highest similarity to the real endoscopic image is determined, and the position and posture of the virtual camera corresponding to this are obtained. From the position and posture of the virtual camera, it can be known in which position and at which direction the distal end portion of the endoscope is at present.
  • Patent Document 6 describes an endoscope apparatus that performs insertion navigation using a virtual image of a body cavity passage based on three-dimensional image data of a subject.
  • the endoscope apparatus described in Patent Document 6 compares the similarity between a virtual bronchoscope image and an endoscope image, and is an image in which both images show the same branch based on the comparison result. Determine if it is or not.
  • Patent Document 1 matches the position and shape of the intestinal tract in the rotational direction, it has not been described about aligning the intestinal tract tomographic image with the endoscopic image in the advancing direction of the endoscope. That is, Patent Document 1 does not describe accurate correspondence between a virtual endoscopic image and a real endoscopic image.
  • Patent Document 2 determines a region of the large intestine corresponding to each partial region of a developed image created using volume image data in which tomographic images captured using an X-ray CT apparatus are stacked. That is, there is no direct correspondence between the virtual endoscopic image and the real endoscopic image.
  • Patent Document 3 The invention described in Patent Document 3 is for associating respective characteristic portions with two or more three-dimensional images having different postures of the subject, and it is possible to directly connect a virtual endoscopic image and a real endoscopic image. It does not correspond.
  • Patent Document 4 calculates three-dimensional shape information from an endoscope image which is a two-dimensional image, and directly associates a virtual endoscope image with a real endoscope image. It is not a thing.
  • Patent Document 5 grasps the position and posture of the endoscope at the present time based on the virtual endoscope image having the highest similarity to the real endoscope image, but both are similar to the last The virtual endoscopic image and the real endoscopic image are not exactly associated.
  • Patent Document 6 uses the similarity between a virtual bronchoscope image and an endoscope image to determine whether or not both indicate the same bifurcation, but both Are similar and do not accurately associate virtual endoscopic images with real endoscopic images.
  • Patent Document 6 is an image in which the virtual bronchoscopic image and the endoscopic image show the same bifurcated portion. Also, false recognition may occur.
  • the present invention has been made in view of the above circumstances, and an image processing apparatus, processor apparatus, and endoscope apparatus that accurately associate a virtual endoscopic image with a real endoscopic image and enable preferable cooperation between the two.
  • An object of the present invention is to provide a mirror system, an image processing method, and a program.
  • the image processing apparatus includes a three-dimensional image input unit for inputting a three-dimensional image of a subject, and an actual endoscopic image obtained by imaging an observation target of the subject using an endoscope.
  • a viewpoint information acquisition unit that acquires viewpoint information including information on the position of the viewpoint at which a virtual endoscopic image having a feature point matching the feature point of the real endoscopic image is obtained, and information on the direction of the viewpoint based on
  • an image processing apparatus comprising:
  • viewpoint information including information on the position of the viewpoint at which a virtual endoscopic image having a feature point matching the feature point on the real endoscopic image is obtained and information on the direction of the viewpoint is acquired.
  • the term three-dimensional image may include not only the three-dimensional image itself but also the meaning of the data of the three-dimensional image representing the three-dimensional image.
  • a three-dimensional image there is a three-dimensional image obtained by tomographic imaging of a subject using a CT apparatus.
  • Volume data is an example of data of a three-dimensional image.
  • the three-dimensional image input unit may include both an aspect of acquiring a three-dimensional image and an aspect of acquiring data of a three-dimensional image representing the three-dimensional image.
  • the number of feature points may be one or more.
  • the coincidence of the feature points in the case of a plurality of feature points means the coincidence of all the feature points.
  • the feature point may apply a region including a plurality of pixels.
  • An image processing apparatus is an image processing apparatus comprising one or more processors and one or more memories, wherein the processor inputs a three-dimensional image of a subject and an endoscope.
  • a real endoscopic image obtained by imaging the observation target of the subject using the input is input, feature points are extracted from each of the three-dimensional image and the real endoscopic image, and the three-dimensional image and the real endoscopy Viewpoint information including information on the position of the viewpoint at which a virtual endoscopic image having a feature point matching the feature point on the real endoscopic image is obtained based on each feature point of the mirror image, and information on the direction of the viewpoint ,
  • the memory may be configured as an image processing device that stores the processing results of the processor.
  • a first virtual endoscopic image for generating a first virtual endoscopic image from a three-dimensional image based on viewpoint information acquired using the viewpoint information acquisition unit It may be configured to include a generation unit.
  • the second aspect it is possible to generate a first virtual endoscopic image in which the real endoscopic image and the feature point match.
  • the image processing apparatus further includes a second virtual endoscopic image generation unit configured to generate a second virtual endoscopic image from the three-dimensional image, and the feature point extraction unit The feature point of the second virtual endoscopic image may be extracted as the feature point of the three-dimensional image.
  • the third aspect it is possible to obtain viewpoint information based on the feature points of the second virtual endoscopic image and the feature points of the real endoscopic image.
  • a fourth aspect is the image processing apparatus according to the third aspect, further comprising a view direction information acquisition unit that acquires information on a view direction of the endoscope, and the second virtual endoscopic image generation unit is a view direction information acquisition unit.
  • the second virtual endoscopic image may be generated using the information on the direction of the field of vision of the endoscope acquired using the second virtual endoscopic image.
  • the fourth aspect it is possible to generate a second virtual endoscopic image in which the information of the viewing direction of the endoscope is reflected.
  • the viewing direction information acquisition unit may acquire the viewing direction from the movement support information of the endoscope.
  • the fifth aspect it is possible to obtain information on the viewing direction of the endoscope using the movement support information of the endoscope.
  • the viewing direction information acquisition unit may be configured to acquire the information of the viewing direction using the movement vector derived from the change of the real endoscopic image.
  • the sixth aspect it is possible to obtain information on the viewing direction of the endoscope using the movement vector derived from the change in the real endoscopic image.
  • a seventh aspect is the image processing apparatus according to any one of the third aspect to the sixth aspect, further including a position information acquisition unit that acquires information on the position of the endoscope, and the second virtual endoscopic image generation unit The second virtual endoscopic image may be generated using information on the position of the endoscope acquired using the position information acquisition unit.
  • the seventh aspect it is possible to generate a second virtual endoscopic image using positional information of the endoscope acquired using the positional information acquisition unit.
  • An eighth aspect is the image processing apparatus according to any one of the first aspect to the seventh aspect, wherein an image obtained by removing at least one of color information and texture information from a real endoscopic image, or a real endoscopic image
  • the real endoscope image correction unit may be configured to generate an image obtained by extracting asperity information from the image
  • the feature point extraction unit may be configured to extract the feature points from the image generated using the real endoscope image correction unit.
  • an image obtained by removing at least one of color information and texture information from an actual endoscopic image or an image obtained by extracting asperity information from an actual endoscopic image is generated.
  • the comparison of the feature points with the three-dimensional image which has the unevenness information and does not have the color information and the texture information becomes good.
  • An example of an image obtained by removing at least one of color information and texture information from an actual endoscopic image is an image obtained by removing the B signal component of the actual endoscopic image.
  • corrugated information from the real endoscopic image the image which extracted R signal component of the real endoscopic image is mentioned.
  • a ninth aspect is the image processing device according to any one of the first aspect to the eighth aspect, wherein the viewpoint information acquisition unit is configured to display one of the real endoscope images of two real endoscope images different in the position of the endoscope.
  • the viewpoint information acquisition unit is configured to display one of the real endoscope images of two real endoscope images different in the position of the endoscope.
  • the ninth aspect it is possible to derive the distance between the viewpoints of the three-dimensional images corresponding to both by using the movement vectors of the two real endoscope images different in the position of the endoscope.
  • a tenth aspect is the image processing apparatus according to any one of the first aspect to the ninth aspect, wherein the viewpoint information acquisition unit is configured to set two or more prescribed frames of the real endoscopic image in each frame of the real endoscopic image.
  • the configuration may be such that viewpoint information of a three-dimensional image corresponding to a real endoscopic image may be acquired for each number or when the endoscope performs a prescribed movement.
  • the tenth aspect it is possible to associate an endoscopic image with a virtual endoscopic image according to a prescribed number of frames or movement of the endoscope.
  • the viewpoint information acquisition unit newly acquires viewpoint information on the real endoscopic image for which viewpoint information has already been acquired.
  • the viewpoint information of the three-dimensional image corresponding to the real endoscopic image may be updated.
  • the eleventh aspect it is possible to use the latest viewpoint information. This makes it possible to associate the first virtual endoscopic image using the latest viewpoint information with the real endoscopic image.
  • a warning unit may be provided that warns when viewpoint information corresponding to a real endoscopic image is not acquired.
  • the operator can recognize non-acquisition of the viewpoint information.
  • the three-dimensional image input unit inputs a three-dimensional image of the large intestine
  • the feature point extraction unit At least one of a curve between the blood vessel and the transverse colon, a curve between the transverse colon and the descending colon, a curve between the descending colon and the sigmoid colon, a fold, a polyp, and a blood vessel It is good also as composition extracted as.
  • the thirteenth aspect based on the three-dimensional image of the large intestine, it becomes possible to identify a site having a characteristic shape of the large intestine such as the cecal entrance.
  • the viewpoint information acquisition unit may acquire viewpoint information of a three-dimensional image corresponding to a real endoscopic image based on the number of folds of the large intestine.
  • the fourteenth aspect it is possible to associate the real endoscopic image and the first virtual endoscopic image using the number of folds of the large intestine.
  • the feature point extraction unit may be configured to acquire information of feature points extracted in advance from the three-dimensional image.
  • At least one of the improvement of processing efficiency in extracting feature points from a real endoscopic image and the reduction of processing load can be performed.
  • the processor device is obtained by imaging using an endoscope control unit that controls the operation of the endoscope, an imaging control unit that controls imaging using the endoscope, and the endoscope. And an image processing unit for processing an endoscopic image, the image processing unit including a three-dimensional image input unit for inputting a three-dimensional image of a subject, and an endoscope.
  • An actual endoscope image input unit for inputting an actual endoscope image obtained by imaging an observation target of a sample, and a feature point extraction unit for extracting feature points from each of a three-dimensional image and an actual endoscope image And information of the position of the viewpoint at which a virtual endoscopic image having a feature point matching the feature point of the real endoscope image is obtained based on the feature points of the three-dimensional image and the real endoscope image, And a viewpoint information acquisition unit that acquires viewpoint information including information on the direction of the viewpoint It is.
  • the same matters as the matters specified in the second to fifteenth aspects can be appropriately combined.
  • the component carrying the processing or function specified in the image processing apparatus can be grasped as the component of the processor carrying the processing or function corresponding thereto.
  • the processor device is a processor device comprising one or more processors and one or more memories, wherein the processor controls the operation of the endoscope and performs imaging using the endoscope Control and process an endoscope image obtained by imaging using an endoscope, and in processing of an endoscope image, a processor inputs a three-dimensional image of a subject and uses the endoscope A real endoscope image obtained by imaging the observation target of the subject is input, feature points are extracted from each of the three-dimensional image and the real endoscope image, and the three-dimensional image and the real endoscope image Information of the position of the viewpoint at which a virtual endoscope image having a feature point matching the feature point of the real endoscope image is obtained, and viewpoint information including information of the direction of the viewpoint based on the respective feature points of And the memory is configured as a processor unit that stores processor processing results. It can be.
  • An endoscope system is an endoscope system including an endoscope apparatus including an endoscope, and an image processing apparatus, wherein the image processing apparatus is a three-dimensional image of a subject
  • the image processing apparatus is a three-dimensional image of a subject
  • a real endoscopic image input unit for inputting a real endoscopic image obtained by imaging an observation target of a subject using an endoscope; a three dimensional image;
  • the same matters as the matters specified in the second to fifteenth aspects can be appropriately combined.
  • the component carrying the processing or function specified in the image processing apparatus can be grasped as a component of the endoscope system carrying the processing or function corresponding thereto.
  • An endoscope system is an endoscope system provided with an endoscope apparatus provided with an endoscope, provided with one or more processors and one or more memories, wherein the processor is an endoscope system comprising: A real endoscopic image obtained by inputting a three-dimensional image of the subject and imaging an observation target of the subject using the endoscope; and inputting each of the three-dimensional image and the real endoscopic image Feature points are extracted from the viewpoint, and a virtual endoscopy image having feature points matching the feature points of the real endoscope image is obtained based on the feature points of the three-dimensional image and the real endoscope image.
  • the viewpoint information including the position information of and the direction information of the viewpoint is acquired, and the memory can be grasped as an endoscope system that stores the processing result of the processor.
  • An eighteenth aspect is the endoscope system according to the seventeenth aspect, wherein the display unit displays a virtual endoscopic image generated from the three-dimensional image, and 3 based on the viewpoint information acquired using the viewpoint information acquisition unit. And a first virtual endoscopic image generation unit that generates a first virtual endoscopic image from a two-dimensional image, and the display unit displays the new first virtual endoscopic image before displaying the first virtual endoscopic image. It may be configured to select either directly switching from the first virtual endoscopic image to a new first virtual endoscopic image, fast-forwarding, or using morphing.
  • the display from the previously generated first virtual endoscopic image to the new first virtual endoscopic image is performed. Switching is done smoothly.
  • the display unit synchronously displays the real endoscopic image and the first virtual endoscopic image corresponding to the real endoscopic image. It is also good.
  • the endoscopic image storage unit for storing a real endoscopic image is provided, and the endoscopic image storage unit is configured by adding viewpoint information.
  • An endoscope image may be stored.
  • the twentieth aspect it is possible to store a real endoscopic image to which viewpoint information is added.
  • the endoscopic image storage unit may store a first virtual endoscopic image corresponding to a real endoscopic image.
  • cooperation between the real endoscopic image and the first endoscopic image can be maintained.
  • An image processing method includes a three-dimensional image input step of inputting a three-dimensional image of a subject, and a real endoscopic image obtained by imaging an observation target of the subject using an endoscope.
  • a real endoscope image input process for inputting, a feature point extraction process for extracting a feature point from each of a three-dimensional image and a real endoscope image, a feature point of each of a three-dimensional image and a real endoscope image Information acquisition step of acquiring viewpoint information including information on the position of the viewpoint at which a virtual endoscopic image having a feature point matching the feature point of the real endoscopic image is obtained, and viewpoint information including the direction of the viewpoint based on And an image processing method including
  • the matters specified in the second to fifteenth aspects and the same matters as the matters specified in the seventeenth aspect or the twentieth aspect can be combined as appropriate.
  • the component carrying the processing or function specified in the image processing apparatus or the endoscope system can be grasped as the component of the image processing method carrying the processing or function corresponding to this.
  • the program according to the twenty-third aspect of the present invention relates to a computer, a three-dimensional image input function of inputting a three-dimensional image of a subject, and an endoscope image obtained by imaging an observation target of the subject using an endoscope.
  • a feature point extraction function of extracting a feature point from each of a three-dimensional image and a real endoscope image, and a three-dimensional image and a real endoscope image
  • viewpoint information acquisition function of acquiring viewpoint information including information on the position of the viewpoint at which a virtual endoscope image having a feature point matching the feature point of the real endoscope image is obtained, and information on the direction of the viewpoint
  • the matters specified in the second to fifteenth aspects and the same matters as the matters specified in the seventeenth aspect or the twentieth aspect can be combined as appropriate.
  • the component carrying the processing or function specified in the image processing apparatus or the endoscope system can be grasped as the component of the program carrying the processing or function corresponding thereto.
  • viewpoint information including information on the position of the viewpoint at which a virtual endoscopic image having a feature point matching the feature point on the real endoscopic image is obtained, and information on the direction of the viewpoint is obtained.
  • FIG. 1 is a schematic view showing an entire configuration of an endoscope system.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the image processing apparatus.
  • FIG. 3 is a functional block diagram showing functions of the image processing apparatus according to the first embodiment.
  • FIG. 4 is a functional block diagram showing the function of the image analysis processing unit shown in FIG.
  • FIG. 5 is an explanatory view of a three-dimensional image showing a three-dimensional model of the large intestine.
  • FIG. 6 is a schematic view showing an example of feature point extraction of a three-dimensional image.
  • FIG. 7 is a schematic view showing another example of feature point extraction of a three-dimensional endoscopic image.
  • FIG. 8 is a schematic view showing an example of feature point extraction of an endoscopic image.
  • FIG. 1 is a schematic view showing an entire configuration of an endoscope system.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the image processing apparatus.
  • FIG. 3 is a functional block diagram showing functions
  • FIG. 9 is a schematic view showing another example of feature point extraction of an endoscopic image.
  • FIG. 10 is a schematic view showing an example of the correspondence between the endoscopic image and the virtual endoscopic image.
  • FIG. 11 is a schematic view showing another example of the correspondence between the endoscopic image and the virtual endoscopic image.
  • FIG. 12 is an explanatory diagram of an example of viewpoint information acquisition.
  • FIG. 13 is a schematic view showing a display example of a virtual endoscopic image after association.
  • FIG. 14 is a flowchart showing the procedure of the image processing method according to the first embodiment.
  • FIG. 15 is a flow chart showing the procedure of the viewpoint information acquiring step shown in FIG.
  • FIG. 16 is a schematic view showing a variation of the correspondence between the endoscopic image and the virtual endoscopic image.
  • FIG. 15 is a flow chart showing the procedure of the viewpoint information acquiring step shown in FIG.
  • FIG. 16 is a schematic view showing a variation of the correspondence between the endoscopic image and the virtual endoscopic image.
  • FIG. 17 is an explanatory view of the correspondence update.
  • FIG. 18 is an explanatory diagram of colon navigation.
  • FIG. 19 is a functional block diagram showing the function of the image analysis processing unit in the image processing apparatus according to the second embodiment.
  • FIG. 21 is a schematic view schematically showing an image processing method according to the second embodiment.
  • FIG. 21 is a functional block diagram showing the function of the image analysis processing unit in the image processing apparatus according to the third embodiment.
  • FIG. 22 is a functional block diagram showing the function of the image analysis processing unit in the image processing apparatus according to the fourth embodiment.
  • FIG. 1 is a schematic view showing an entire configuration of an endoscope system.
  • An endoscope system 9 illustrated in FIG. 1 includes an endoscope 10, a light source device 11, a processor device 12, a display device 13, an image processing device 14, an input device 15, and a monitor device 16.
  • the endoscope system 9 is communicably connected to the storage device 18 via the network 17.
  • the endoscope 10 is an electronic endoscope.
  • the endoscope 10 is a flexible endoscope.
  • the endoscope 10 includes an insertion unit 20, an operation unit 21, and a universal cord 22.
  • the insertion unit 20 is inserted into the subject.
  • the insertion part 20 is formed in a long and narrow shape as a whole.
  • the insertion portion 20 includes a flexible portion 25, a bending portion 26, and a tip portion 27.
  • the insertion portion 20 is configured by continuously connecting the flexible portion 25, the bending portion 26, and the distal end portion 27.
  • the flexible portion 25 has flexibility in order from the proximal side to the distal side of the insertion portion 20.
  • the bending portion 26 has a structure that can be bent when the operation portion 21 is operated.
  • the distal end portion 27 incorporates an imaging optical system and an imaging device 28 which are not shown.
  • CMOS is an abbreviation of Complementary Metal Oxide Semiconductor.
  • CCD is an abbreviation of Charge Coupled Device.
  • An observation window (not shown) is disposed on the distal end surface 27 a of the distal end portion 27.
  • the observation window is an opening formed in the distal end surface 27 a of the distal end portion 27.
  • An imaging optical system (not shown) is disposed behind the observation window. Image light of a region to be observed is incident on an imaging surface of the imaging element 28 through an observation window, an imaging optical system, and the like.
  • the imaging device 28 images the image light of the observed region incident on the imaging surface of the imaging device 28 and outputs an imaging signal.
  • imaging as used herein includes the meaning of converting the reflected light from the observation site into an electrical signal.
  • the operation unit 21 is continuously provided on the proximal end side of the insertion unit 20.
  • the operation unit 21 includes various operation members operated by the operator. Specifically, the operation unit 21 includes two types of bending operation knobs 29.
  • the bending operation knob 29 is used when bending the bending portion 26. Note that the operator may be called a doctor, an operator, a user, or the like.
  • the operation unit 21 includes an air / water supply button 30 and a suction button 31.
  • the air / water supply button 30 is used when the operator performs an air / water supply operation.
  • the suction button 31 is used when the operator performs a suction operation.
  • the operation unit 21 includes a still image capturing instruction unit 32 and a treatment instrument introduction port 33.
  • the still image imaging instruction unit 32 is operated by the operator when imaging a still image of the region to be observed.
  • the treatment instrument introduction port 33 is an opening for inserting the treatment instrument into the inside of the treatment instrument insertion path passing through the inside of the insertion portion 20. The treatment tool insertion path and the treatment tool are not shown.
  • the still image is shown in FIG. 3 with reference numeral 38c.
  • the universal cord 22 is a connection cord that connects the endoscope 10 to the light source device 11.
  • the universal cord 22 includes the light guide 35 passing through the inside of the insertion portion 20, the signal cable 36, and a fluid tube (not shown).
  • the tip of the universal cord 22 includes a connector 37 a connected to the light source device 11 and a connector 37 b branched from the connector 37 a and connected to the processor device 12.
  • the connector 37 a When the connector 37 a is connected to the light source device 11, the light guide 35 and a fluid tube (not shown) are inserted into the light source device 11. Thereby, necessary illumination light, water, and gas are supplied from the light source device 11 to the endoscope 10 through the light guide 35 and the fluid tube (not shown).
  • illumination light is emitted from the illumination window (not shown) of the distal end surface 27 a of the distal end portion 27 toward the region to be observed.
  • gas or water is jetted from an air / water supply nozzle (not shown) of the distal end surface 27a of the distal end portion 27 toward an observation window (not shown) of the distal end surface 27a.
  • the processor device 12 functions as an endoscope control unit that controls the operation of the endoscope 10.
  • a flexible endoscope has been described as an example of the endoscope 10, but various types of electronic devices capable of moving picture imaging of a region to be observed such as a rigid endoscope are described as the endoscope 10 An endoscope may be used.
  • the light source device 11 supplies illumination light to the light guide 35 of the endoscope 10 via the connector 37a.
  • the illumination light may be white light or light of a specific wavelength band.
  • the illumination light may combine white light and light of a specific wavelength band.
  • the light source device 11 is configured to be able to appropriately select light of a wavelength band according to an observation purpose as illumination light.
  • the specific wavelength band may be called special light.
  • the processor device 12 controls the operation of the endoscope 10 via the connector 37 b and the signal cable 36. Further, the processor device 12 acquires an imaging signal from the imaging element 28 of the endoscope 10 via the connector 37 b and the signal cable 36. The processor unit 12 applies a specified frame rate to acquire an imaging signal output from the endoscope 10.
  • the processor device 12 generates an endoscopic image 38 which is an observation image of a region to be observed, based on the imaging signal acquired from the endoscope 10.
  • the endoscopic image 38 here includes a moving image.
  • the endoscopic image 38 may include a still image.
  • the moving image is shown in FIG. 3 with reference numeral 38a.
  • the processor device 12 When the still image imaging instruction unit 32 of the operation unit 21 is operated, the processor device 12 generates a still image of the region to be observed based on the imaging signal acquired from the imaging device 28 in parallel with the generation of the moving image.
  • the still image may be generated at a high resolution relative to the resolution of the moving image.
  • the processor device 12 performs image quality correction to which digital signal processing such as white balance adjustment and shading correction is applied. That is, the processor device 12 functions as an imaging control unit that controls imaging using the endoscope 10.
  • the processor unit 12 may add incidental information defined by the DICOM standard to the endoscopic image 38.
  • DICOM is an abbreviation of Digital Imaging and Communications in Medicine.
  • the endoscopic image 38 is an in-vivo image obtained by imaging the inside of a subject, that is, the inside of a living body.
  • the processor device 12 outputs the generated endoscopic image 38 to each of the display device 13 and the image processing device 14.
  • the processor unit 12 may output the endoscopic image 38 to the storage unit 18 via the network 17 in accordance with a communication protocol conforming to the DICOM standard.
  • the endoscopic image 38 corresponds to a real endoscopic image.
  • the display device 13 is connected to the processor device 12.
  • the display device 13 displays the endoscopic image 38 transmitted from the processor device 12. While checking the endoscopic image 38 displayed on the display device 13, the operator can perform the advancing / retracting operation of the insertion unit 20 or the like. When a surgeon detects a lesion or the like in the observed region, the operator can operate the still image imaging instruction unit 32 to image a still image of the observed region.
  • the display device 13 may have some or all of the functions of the monitor device 16 described later.
  • the image processing apparatus 14 uses a computer.
  • the connection between the input device 15 and the computer may be either a wired connection or a wireless connection.
  • the monitor device 16 uses various monitors connectable to a computer.
  • a diagnosis support apparatus such as a workstation and a server apparatus may be used.
  • the input device 15 and the monitor device 16 are provided for each of a plurality of terminals connected to a work station or the like.
  • a medical care operation support apparatus that supports creation of a medical report or the like may be used.
  • the image processing device 14 performs acquisition of the endoscopic image 38 and storage of the endoscopic image 38.
  • the image processing device 14 controls reproduction of the monitor device 16. That is, the image processing apparatus 14 includes an endoscopic image acquisition unit that acquires the endoscopic image 38, an image storage unit that stores the endoscopic image 38, and a display control unit that performs display control of the endoscopic image 38. Prepare.
  • the endoscopic image acquisition unit is shown in FIG. 3 with reference numeral 41b.
  • the image storage unit is shown in FIG.
  • the display control unit is shown in FIG. Note that storage of an image in the present specification can be read as storage of an image. Storage of an image here means non-temporary storage of an image.
  • the image processing device 14 may include a memory for primary storage for temporarily storing an image.
  • the image processing device 14 acquires a three-dimensional image 19.
  • the image processing apparatus 14 can obtain the three-dimensional image 19 from the storage device 18 via the network 17.
  • the three-dimensional image 19 include a CT image group including a plurality of CT images generated using a CT apparatus, an MRI image group including a plurality of MRI images generated using an MRI apparatus, and the like. .
  • CT image group including a plurality of CT images may be simply referred to as a CT image.
  • CT image has a generic meaning of one CT image and two or more CT images.
  • the image processing device 14 generates a virtual endoscopic image using the three-dimensional image 19.
  • the image processing device 14 uses the monitor device 16 to generate a display control signal for displaying a virtual endoscopic image.
  • the image processing device 14 transmits a display control signal to the monitor device 16.
  • the virtual endoscopic image is shown in FIG. 4 with reference numeral 39. Details of the generation of the virtual endoscopic image and the display of the virtual endoscopic image using the monitor device 16 will be described later.
  • the input device 15 is used to input an operation instruction to the image processing device 14.
  • the monitor device 16 displays the endoscopic image 38 under the control of the image processing device 14.
  • the monitor device 16 may function as a display unit of various information in the image processing device 14.
  • the image processing apparatus 14 is connected to the storage device 18 via the network 17.
  • the DICOM format, the protocol conforming to the DICOM standard, etc. can be applied to the storage format of the image and the communication between the respective devices via the network 17.
  • image includes the meaning of image data representing an image.
  • image means the image itself and / or image data.
  • the storage device 18 is applicable to storage etc. which stores data non-temporarily.
  • the storage device 18 may be managed using a server device (not shown).
  • the server apparatus can apply a computer that stores and manages various data.
  • a system including the endoscope system 9 and the image processing apparatus 14 shown in FIG. 1 corresponds to an example of an endoscope system including an endoscope apparatus including an endoscope and an image processing apparatus. .
  • the image processing method causes the monitor 16 to display a virtual endoscopic image in accordance with the movement of the endoscope 10. That is, the image processing device 14 associates the endoscopic image 38 with the virtual endoscopic image, and causes the monitor device 16 to display the virtual endoscopic image correlated with the endoscopic image 38.
  • the image processing apparatus will be described in detail below.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the image processing apparatus.
  • the image processing apparatus 14 includes a control unit 1, a memory 2, a hard disk drive 3, a communication interface 4, an input controller 5, and a display controller 6.
  • the control unit 1 functions as an overall control unit of the image processing apparatus 14, various operation units, and a storage control unit.
  • the control unit 1 executes a program stored in a ROM (read only memory) included in the memory 2.
  • the control unit 1 may download a program from an external storage device via the communication interface 4 and execute the downloaded program.
  • the external storage device may be communicably connected to the image processing apparatus 14 via the network 17.
  • the control unit 1 uses a random access memory (RAM) provided in the memory 2 as an operation area, and executes various processes in cooperation with various programs. Thereby, various functions of the image processing apparatus 14 are realized.
  • RAM random access memory
  • the control unit 1 controls reading of data from the hard disk drive 3 and writing of data to the hard disk drive 3.
  • the controller 1 may include one or more processors.
  • FPGA Field Programmable Gate Array
  • PLD Programmable Logic Device
  • An ASIC comprises circuitry that is specifically designed to perform specific processing.
  • the control unit 1 can apply two or more processors of the same type.
  • the control unit 1 may use two or more FPGAs, or two PLDs.
  • the control unit 1 may apply two or more processors of different types.
  • the control unit 1 may apply one or more FPGAs and one or more ASICs.
  • the plurality of control units may be configured using one processor.
  • one processor is configured using a combination of one or more CPUs (Central Processing Unit) and software, and this processor functions as a plurality of control units.
  • CPUs Central Processing Unit
  • a GPU Graphics Processing Unit
  • software here is synonymous with a program.
  • computers such as client devices and server devices can be mentioned.
  • a form using a processor that realizes the functions of the entire system including the plurality of control units by one IC chip can be mentioned.
  • SoC System On Chip
  • IC is an abbreviation of Integrated Circuit.
  • control unit 1 is configured using one or more of various processors as a hardware structure.
  • the memory 2 includes a ROM (not shown) and a RAM (not shown).
  • the ROM stores various programs executed by the image processing apparatus 14.
  • the ROM stores parameters used for execution of various programs, files, and the like.
  • the RAM functions as a temporary storage area of data, a work area of the control unit 1, and the like.
  • the hard disk drive 3 stores various data non-temporarily. Specifically, the hard disk drive 3 stores an observation image of the endoscope 10 and a medical image or the like acquired from an external storage device such as the storage device 18 shown in FIG.
  • the hard disk drive 3 may be externally attached to the image processing apparatus 14.
  • a large capacity semiconductor memory device may be applied instead of or in combination with the hard disk drive 3.
  • the communication interface 4 performs data communication with a device external to the storage device 18 shown in FIG. IF shown in FIG. 2 is an abbreviation of interface.
  • the input controller 5 is an interface that receives signals transmitted from the input device 15 such as a keyboard and a mouse, and converts the signals into signals of the type applied to the image processing apparatus 14.
  • the display controller 6 is an interface that converts a signal representing an image generated by the image processing device 14 into a video signal to be displayed using the monitor device 16.
  • the display controller 6 transmits a video signal representing an image to the monitor device 16.
  • the hardware configuration of the image processing apparatus 14 illustrated in FIG. 2 is an example, and addition, deletion, and change can be made as appropriate.
  • FIG. 3 is a functional block diagram showing functions of the image processing apparatus according to the first embodiment.
  • the image processing apparatus 14 illustrated in FIG. 3 includes an overall control unit 40, an image acquisition unit 41, an information acquisition unit 42, an image analysis processing unit 43, a display control unit 44, and a storage unit 47.
  • the general control unit 40, the image acquisition unit 41, the information acquisition unit 42, the image analysis processing unit 43, the display control unit 44, and the storage unit 47 are communicably connected to each other via the communication signal line 68. Each part will be described in detail below.
  • the overall control unit 40 integrally controls the image acquisition unit 41, the information acquisition unit 42, the image analysis processing unit 43, and the display control unit 44 based on the execution of the control program of the image processing apparatus 14.
  • the image acquisition unit 41 includes a three-dimensional image acquisition unit 41a and an endoscopic image acquisition unit 41b.
  • the three-dimensional image acquisition unit 41a and the endoscope image acquisition unit 41b will be described in detail below.
  • the three-dimensional image acquisition unit 41a is a three-dimensional image 19 generated using a modality such as a CT apparatus, and acquires, for example, the three-dimensional image 19 stored in the storage device 18 or the like shown in FIG. In the present embodiment, an example will be described in which a CT image of the colon of a subject of endoscopy is acquired as the three-dimensional image 19.
  • the three-dimensional image acquisition unit 41a corresponds to an example of a three-dimensional image input unit that inputs a three-dimensional image of a subject.
  • the endoscope image acquisition unit 41 b acquires an endoscope image 38 generated using the processor device 12 illustrated in FIG. 1.
  • the endoscope image acquisition unit 41b may acquire an endoscope image captured using an endoscope apparatus stored in an external storage device.
  • the endoscope image acquisition unit 41b may acquire the endoscope image 38 described above via various information storage media such as a memory card.
  • the endoscope image acquisition unit 41b acquires a moving image 38a.
  • the endoscopic image acquisition unit 41b may acquire a time-series frame image 38b as the moving image 38a.
  • the endoscopic image acquisition unit 41b may acquire a still image 38c.
  • the endoscopic image acquiring unit 41b acquires the still image 38c from the processor device 12 illustrated in FIG.
  • the endoscope image acquisition unit 41 b corresponds to an example of a real endoscope image input unit that inputs a real endoscope image obtained by imaging an observation target of a subject using an endoscope.
  • the endoscopic image 38, the moving image 38a, and the still image 38c correspond to an example of a real endoscopic image.
  • the information acquisition unit 42 acquires various types of information used for the processing of the image processing apparatus 14 and operations.
  • Information on the viewing direction of the endoscope 10 can be given as an example of the various information.
  • the output signal of the sensor which detects the visual field direction to endoscope 10 is mentioned.
  • the information acquisition unit corresponds to an example of a visual field information acquisition unit that acquires visual field information of the endoscope.
  • the information for specifying the three-dimensional image 19 includes the personal name of the subject of the endoscopic examination, the personal number, the acquisition date of the three-dimensional image 19, and the acquisition location of the three-dimensional image 19.
  • the image analysis processing unit 43 executes analysis processing of the endoscopic image 38 acquired using the endoscopic image acquisition unit 41 b using deep layer learning based on the deep layer learning algorithm 45. Details of analysis processing of the endoscopic image 38 will be described later.
  • the deep learning algorithm 45 is an algorithm including a known convolutional neural network method, an entire combined layer, and an output layer. Deep learning is sometimes called deep learning.
  • a convolutional neural network is an iterative process of convolutional and pooling layers. Convolutional neural networks may be referred to as convolutional neural networks.
  • Convolutional neural networks may be referred to as convolutional neural networks.
  • image analysis process using deep learning is a well-known technique, specific description is abbreviate
  • the display control unit 44 includes a reproduction control unit 44a and an information display control unit 44b.
  • the reproduction control unit 44a and the information display control unit 44b will be described in detail.
  • the reproduction control unit 44 a functions as a display driver that controls image display when reproducing the endoscopic image 38 and the virtual endoscopic image using the monitor device 16.
  • the display control unit 44 can display a virtual endoscopic image associated with an arbitrary frame image 38 b of the moving image 38 a during reproduction of the moving image 38 a using the monitor device 16.
  • the information display control unit 44 b causes the monitor device 16 to display various information.
  • the information display control unit 44 b can superimpose and display character information and the like on the endoscopic image 38 displayed using the monitor device 16 and the virtual endoscopic image.
  • Examples of various information other than text information include symbol display and highlighting.
  • An example of application of the text information is warning display.
  • the storage unit 47 includes an image storage unit 48 and a program storage unit 49.
  • the image storage unit 48 and the program storage unit 49 will be described in detail.
  • the image storage unit 48 stores the three-dimensional image 19 acquired using the three-dimensional image acquisition unit 41 a.
  • the three-dimensional image 19 stored in the image storage unit 48 is read out to the image analysis processing unit 43 under the control of the overall control unit 40.
  • the image storage unit 48 stores a virtual endoscopic image generated from the three-dimensional image 19.
  • the virtual endoscopic image stored in the image storage unit 48 is transmitted to the monitor device 16 as a display control signal via the display control unit 44 under the control of the overall control unit 40.
  • the image storage unit 48 stores the endoscopic image 38 acquired using the endoscopic image acquisition unit 41 b.
  • the image stored in the image storage unit 48 is read out to the image analysis processing unit 43 under the control of the overall control unit 40.
  • the endoscope image 38 stored in the image storage unit 48 is transmitted to the monitor device 16 as a display control signal via the display control unit 44 under the control of the overall control unit 40.
  • Program storage unit 49 stores various programs for operating the image processing apparatus 14. The various programs stored in the program storage unit 49 are read out to each unit under the control of the overall control unit 40.
  • FIG. 4 is a functional block diagram showing the function of the image analysis processing unit shown in FIG.
  • the image analysis processing unit 43 includes a first feature point extraction unit 51, a second feature point extraction unit 52, a viewpoint information acquisition unit 53, and a first virtual endoscopic image generation unit 54.
  • the above-described units will be described in detail below.
  • the first feature point extraction unit 51 extracts feature points from the three-dimensional image 19.
  • feature points include lesions such as polyps.
  • examples of feature points include folds, change points between colons, and blood vessels.
  • the blood vessel referred to here includes the traveling pattern of the blood vessel.
  • the first feature point extraction unit 51 transmits information on feature points extracted from the three-dimensional image 19 to the viewpoint information acquisition unit 53.
  • volume data may be generated from the three-dimensional image 19
  • feature points may be extracted from the volume data.
  • Volume data which is data representing a three-dimensional image, is included in the concept of the three-dimensional image.
  • Known techniques can be applied to the method of extracting feature points from the three-dimensional image 19.
  • the detailed description of the method of extracting feature points from the three-dimensional image 19 is omitted.
  • the second feature point extraction unit 52 extracts feature points from the endoscopic image 38.
  • the feature points extracted from the endoscopic image 38 are the same as those of the three-dimensional image 19, and the description thereof is omitted here.
  • the second feature point extraction unit 52 transmits the information of the feature points extracted from the endoscopic image 38 to the viewpoint information acquisition unit 53.
  • the viewpoint information acquisition unit 53 generates a virtual endoscopic image 39 associated with the endoscopic image 38 based on the characteristic points of the three-dimensional image 19 and the characteristic points of the endoscopic image 38. Get information.
  • the viewpoint information acquisition unit 53 transmits the acquired viewpoint information to the first virtual endoscopic image generation unit 54. Acquisition of viewpoint information here includes generation of viewpoint information.
  • the correspondence between the three-dimensional image 19 and the virtual endoscopic image is processing of correlating the virtual endoscopic image 39 having a feature point matching the feature point of the endoscopic image 38 with the endoscopic image 38.
  • binding is synonymous with association.
  • the viewpoint information corresponds to the information of the position on the path corresponding to the position of the endoscope 10 at the time of capturing the endoscopic image 38 and the direction of the endoscope 10 at the time of capturing the endoscopic image 38 Contains orientation information on the path.
  • the first virtual endoscopic image generation unit 54 generates a virtual endoscopic image 39 based on the viewpoint information acquired using the viewpoint information acquisition unit 53.
  • the virtual endoscopic image 39 is a two-dimensional image representing the inner wall of a body cavity such as the large intestine.
  • the virtual endoscopic image 39 is a two-dimensional image obtained by imaging using a virtual imaging device with respect to a prescribed viewpoint direction at a prescribed viewpoint.
  • the virtual endoscopic image 39 corresponds to an example of a first virtual endoscopic image.
  • a virtual projection of a central projection obtained by projecting volume data on a plurality of ray directions radially extended around a prescribed viewpoint and a gaze vector based on a prescribed gaze direction is assumed within the virtual It can be generated as an endoscopic image.
  • a well-known volume rendering method etc. are mentioned as an example of the concrete method of central projection.
  • the viewpoint of the virtual endoscopic image may set a point on the center line of the subject extracted based on the volume data.
  • the gaze direction can be changed in accordance with the posture of the endoscope 10, with the traveling direction of the center line of the subject as an initial setting.
  • the posture of the endoscope 10 here is synonymous with the optical axis direction of the endoscope 10.
  • the virtual endoscopic image 39 generated using the first virtual endoscopic image generation unit 54 can be displayed on the monitor device 16 under the control of the display control unit 44 shown in FIG. 3.
  • the virtual endoscopic image 39 is an image group 39a of viewpoint images 39b which are virtual endoscopic images at each viewpoint.
  • the viewpoint image is a name for convenience of explanation, and the viewpoint image represents a virtual endoscopic image at each viewpoint.
  • the viewpoint image can be read as a virtual endoscopic image.
  • the image group 39a corresponds to the moving image 38a.
  • the viewpoint image 39b corresponds to each frame image 38b of the moving image 38a.
  • the still image equivalent image 39c at an arbitrary viewpoint corresponds to the still image 38c.
  • the first virtual endoscopic image generation unit 54 may generate the viewpoint image 39 b for each frame image 38 b of the moving image 38 a.
  • the viewpoint images 39b may be generated every plurality of frame images 38b.
  • the first virtual endoscopic image generation unit 54 may generate the viewpoint image 39 b when the endoscope 10 performs a prescribed movement.
  • the number of the plurality of frame images 38 b corresponds to an example of the specified number of frames.
  • virtual endoscopic image 39 may sometimes refer to a group of images 39a of viewpoint images 39b, respective viewpoint images 39b, and still image equivalent images 39c.
  • FIG. 5 is an explanatory view of a three-dimensional image showing a three-dimensional model of the large intestine.
  • the three-dimensional model 19a shown in FIG. 5 corresponds to, for example, volume data generated from a plurality of CT images.
  • the path 19 b shown in FIG. 5 is a movement path of a virtual imaging device on the three-dimensional model 19 a corresponding to the movement path of the endoscope 10 in the endoscopy.
  • the start point 19c is the start position of the path 19b. In the example shown in FIG. 5, the starting point 19c applies a cecum.
  • the end point 19d is the end position of the pass 19b. In the example shown in FIG. 5, the end point 19d is adapted to the anus.
  • the path 19 b can specify one or more viewpoints 19 e.
  • An arrow illustrated in the path 19 b is a movement direction of a virtual imaging device corresponding to the endoscope 10.
  • FIG. 5 illustrates the case where the virtual imaging apparatus is imaged in the direction opposite to the moving direction.
  • FIG. 6 is a schematic view showing an example of feature point extraction of a three-dimensional image.
  • FIG. 6 shows an example of generating a pseudo virtual endoscopic image 19 f from the three-dimensional image 19 and extracting feature points from the pseudo virtual endoscopic image 19 f.
  • feature points can be extracted from volume data or the like without generating the pseudo virtual endoscopic image 19 f.
  • the pseudo virtual endoscopic image 19 f corresponds to the second virtual endoscopic image 39 f described in the second embodiment.
  • FIG. 6 illustrates two pseudo virtual endoscopic images 19 f corresponding to two consecutive frame images 38 b.
  • a polyp is extracted as a feature point 70 in each of the two virtual imaginary endoscopic images 19 f.
  • the two pseudo virtual endoscopic images 19f shown in FIG. 6 are generated at different viewpoints 19e.
  • Two pseudo virtual endoscopic images 19f shown in FIG. 6 may have different imaging directions.
  • FIG. 7 is a schematic view showing another example of feature point extraction of a three-dimensional endoscopic image.
  • Three pseudo virtual endoscopic images 19f shown in FIG. 7 are extracted as feature points 70a.
  • the three pseudo virtual endoscopic images 19 f shown in FIG. 7 are all extracted as feature points 70 a.
  • the three pseudo virtual endoscopic images 19f shown in FIG. 7 are generated at different viewpoints 19e.
  • the three pseudo virtual endoscopic images 19f shown in FIG. 7 may have different imaging directions.
  • characteristic points of the large intestine include the cecal entry, a curve between the ascending colon and the transverse colon, a curve between the transverse colon and the descending colon, and a curve between the descending colon and the sigmoid colon Etc. Each of these parts has a characteristic curved shape.
  • feature point is not limited to one point or one pixel having a feature.
  • the feature point may be composed of two or more pixels.
  • feature point may be replaced with terms such as feature regions, features, and feature locations. The same applies to the feature points of the endoscopic image described below.
  • FIG. 8 is a schematic view showing an example of feature point extraction of an endoscopic image.
  • FIG. 8 illustrates a frame image 38 b in which a polyp is extracted as the feature point 80. Although illustration is omitted, a polyp is extracted as a feature point 80 also in the frame images 38 b before and after the frame image 38 b shown in FIG. 8.
  • the positions of the endoscope 10 are different between the frame image 38 b shown in FIG. 8 and the frame images 38 b before and after the frame image 38 b.
  • each imaging direction may be different.
  • FIG. 9 is a schematic view showing another example of feature point extraction of an endoscopic image.
  • the frame image 38b shown in FIG. 9 is extracted as a feature point 80a. Also in the frame images 38 b before and after the frame image 38 b shown in FIG. 9, a crease is extracted as a feature point 80 a.
  • the position of the endoscope 10 is different between the frame image 38 b shown in FIG. 9 and the frame images 38 b before and after the frame image 38 b.
  • each imaging direction may be different.
  • the feature point of the large intestine in the endoscopic image 38 is the same as that of the three-dimensional image 19, and the description thereof is omitted here.
  • the image processing apparatus 14 shown in the present embodiment is a virtual endoscope associated with the endoscopic image 38 using information on characteristic points of the endoscopic image 38 and information on characteristic points of the three-dimensional image 19.
  • the viewpoint position for acquiring the image 39 and the viewpoint direction are specified. Further, the image processing device 14 associates the endoscopic image 38 with the virtual endoscopic image 39.
  • FIG. 10 is a schematic view showing an example of the correspondence between the endoscopic image and the virtual endoscopic image.
  • a frame image 38b of an endoscopic image 38 having a polyp as a feature point 80 is associated with a viewpoint image 39b of a virtual endoscopic image 39 having a polyp as a feature point 70 that matches the feature point 80. The case where it was done is illustrated.
  • the virtual endoscopic image 39 shown in FIG. 10 is generated based on the three-dimensional image 19 and the viewpoint position and the viewing direction derived from the image analysis processing using the endoscopic image 38, and the endoscopic image is obtained. It is associated with 38.
  • FIG. 11 is a schematic view showing another example of the correspondence between the endoscopic image and the virtual endoscopic image.
  • FIG. 11 illustrates an example in which a fold is applied as a matching feature point of the endoscopic image 38 and the virtual endoscopic image 39.
  • the virtual endoscopic image 39 shown in FIG. 11 is generated based on the three-dimensional image 19 and the viewpoint position and viewpoint direction derived from the image analysis processing using the endoscopic image 38, and the endoscopic image is obtained. It is associated with 38.
  • FIG. 12 is an explanatory diagram of an example of viewpoint information acquisition.
  • a frame image 38 b having one or more feature points is identified from the endoscopic image 38.
  • the frame image 38b shown in FIG. 12 has four feature points, a first feature point 100a, a second feature point 100b, a third feature point 100c, and a fourth feature point 100d.
  • the area of the three-dimensional image 19 having the feature points corresponding to the feature points of the frame image 38b is specified.
  • a pseudo virtual endoscopic image 19 f is applied as a region of the three-dimensional image 19.
  • the pseudo virtual endoscopic image 19f shown in FIG. 12 includes a first feature point 110a, a second feature point 110b, a third feature point 110c, and a fourth feature point corresponding to four feature points of the frame image 38b. 110 d.
  • the first feature point 100a of the frame image 38b is associated with the first feature point 110a of the pseudo virtual endoscopic image 19f.
  • the second feature point 100b of the frame image 38b and the second feature point 110b of the pseudo virtual endoscopic image 19f are associated with each other.
  • the third feature point 100c of the frame image 38b and the third feature point 110c of the pseudo virtual endoscopic image 19f are associated with each other, and the pseudo feature image 100b and the fourth feature point 100d of the frame image 38b are The fourth feature point 110 d of the mirror image 19 f is associated.
  • the feature point 100 is a generic name of the first feature point 100a, the second feature point 100b, the third feature point 100c, and the fourth feature point 100d.
  • the feature point 110 is a generic name of the first feature point 110a, the second feature point 110b, the third feature point 110c, and the fourth feature point 110d.
  • the feature quantity of the frame image 38b is derived.
  • the feature amount of the pseudo virtual endoscopic image 19 f is derived.
  • a known technique can be applied to the derivation of the feature of the frame image 38b.
  • the feature values of the frame image 38b can be derived using the pixel values of all the feature points 100 of the frame image 38b. The same applies to the derivation of the feature quantities of the pseudo virtual endoscopic image 19 f.
  • the viewpoint position of the virtual endoscopic image 39 actually displayed is shifted from the imaging position of the endoscopic image 38 displayed. The same applies to the viewpoint direction.
  • a viewpoint that can generate a virtual endoscopic image 39 having a feature point that matches the feature point of the endoscopic image 38 using the feature amount of the endoscopic image 38 and the feature amount of the three-dimensional image 19 Identify the position and view direction.
  • the virtual endoscopic image 39 generated based on the identified viewpoint position P and the viewpoint direction D is associated with the endoscopic image 38.
  • the feature points of the endoscopic image 38 and the feature points of the three-dimensional image 19 are each scored, and the feature points of the endoscopic image 38 and the feature points of the three-dimensional image 19 are scored when their scores match. Stipulates that they match.
  • the feature points of the endoscopic image 38 and the feature points of the three-dimensional image 19 match when all the feature points match. If and when
  • a known method can be applied as a method of specifying the viewpoint position and the viewpoint direction from the three-dimensional image.
  • a method of specifying a viewpoint position and a viewpoint direction from a three-dimensional image a method such as SFM (Structure from Motion) can be mentioned.
  • FIG. 13 is a schematic view showing a display example of a virtual endoscopic image after association.
  • FIG. 13 illustrates an example in which the endoscopic image 38 and the virtual endoscopic image 39 associated with the endoscopic image 38 are displayed on the same screen using the monitor device 16 illustrated in FIG. 1.
  • Reference numeral 16 a indicates a display example when the endoscopic image 38 from which the polyp is extracted as the feature point 80 is specified.
  • a virtual endoscopic image 39 having a feature point 70 that matches the feature point 80 of the endoscopic image 38 is associated with the endoscopic image 38 having a feature point 80. Then, on the monitor device 16, the endoscopic image 38 having the feature point 80 and the virtual endoscopic image 39 having the feature point 70 are displayed on the same screen.
  • an example of display when the observation of the endoscopic image 38 proceeds and the extracted endoscopic image 38 is identified as the feature point 80a is illustrated with reference numeral 16b.
  • a virtual endoscopic image 39 having a feature point 70a that matches the feature point 80a of the endoscopic image 38 is associated with the endoscopic image 38 having a feature point 80a. Then, on the monitor device 16, the endoscopic image 38 having the feature point 80a and the virtual endoscopic image 39 having the feature point 70a are displayed on the same screen.
  • a virtual endoscopic image 39 having a coincident characteristic point is displayed on the endoscopic image 38. It is matched.
  • the endoscopic image 38 and the virtual endoscopic image 39 associated with each other are displayed on the same screen of the monitor device 16.
  • the virtual endoscopic image 39 is displayed using the monitor device 16
  • at least one of the endoscopic image 38 and the virtual endoscopic image 39 is rotated in the display screen, and the inside of the display screen is displayed.
  • the directions of the endoscopic image 38 and the virtual endoscopic image 39 are matched.
  • the monitor device 16 does not have to always display the virtual endoscopic image 39. For example, during the period until a new association is made, the display of the virtual endoscopic image 39 finally associated may be continued, or after the virtual endoscopic image 39 is displayed for a certain period, It may be switched to the full screen display of the endoscopic image 38.
  • FIG. 14 is a flowchart showing the procedure of the image processing method according to the first embodiment.
  • the image analysis processing unit 43 shown in FIG. 3 acquires a three-dimensional image using the three-dimensional image acquisition unit 41a.
  • Volume data may be acquired as a three-dimensional image, or the pseudo virtual endoscopic image 19 f shown in FIGS. 6 and 7 may be acquired.
  • the process proceeds to an endoscopic image acquisition step S12.
  • Three-dimensional image acquisition process S10 is corresponded to an example of a three-dimensional image input process.
  • the image analysis processing unit 43 acquires an endoscopic image 38 using the endoscopic image acquisition unit 41b.
  • the three-dimensional image acquisition process S10 and the endoscopic image acquisition process S12 may be performed in parallel.
  • Endoscope image acquisition process S12 is corresponded to an example of a real endoscope image input process.
  • the process proceeds to a feature point extraction step S14.
  • the image analysis processing unit 43 determines whether or not a specified feature point is extracted from the time-series moving image 38a. If a specified feature point is not extracted in the feature point extraction step S14, the determination is No. If the determination is No, the image analysis processing unit 43 continues the feature point extraction step S14.
  • viewpoint information acquisition process S16 the image analysis processing unit 43 acquires viewpoint information used when generating a virtual endoscopic image 39 having feature points that match the endoscopic image 38 from which a specified feature point is extracted. Do. In addition, the detail of viewpoint information acquisition process S16 is mentioned later.
  • the process proceeds to a virtual endoscopic image generation step S18.
  • the first virtual endoscopic image generation unit 54 shown in FIG. 4 is associated with the endoscopic image 38 using the viewpoint information acquired in the viewpoint information acquisition step S16.
  • the virtual endoscopic image 39 is generated.
  • the image analysis processing unit 43 corresponds to the endoscopic image 38 with the virtual endoscopic image 39 generated using the first virtual endoscopic image generation unit 54. Attach.
  • the virtual endoscopic image generation step S18 functions as an associating step of associating the endoscopic image 38 and the virtual endoscopic image 39 whose respective feature points coincide with each other.
  • a storage step of storing the correlated endoscopic image 38 and the virtual endoscopic image 39 may be performed.
  • the process proceeds to the display step S20.
  • the image analysis processing unit 43 transmits a display control signal to the monitor device 16 via the reproduction control unit 44a.
  • the endoscopic image 38 and the virtual endoscopic image 39 associated with the endoscopic image 38 are displayed on the same screen.
  • the process proceeds to an inspection end determination step S22.
  • the image analysis processing unit 43 determines whether or not the endoscopy is completed. When a certain period of time has elapsed from the timing at which the endoscopic image 38 is acquired, it may be determined that the endoscopic examination has ended.
  • the examination end determination step S22 determines whether the endoscopy is not completed. If it is determined in the examination end determination step S22 that the endoscopy is not completed, the determination is No. In the case of No determination, the process proceeds to endoscopic image acquisition step S12, and the image analysis processing unit 43 performs each step of endoscopic image acquisition step S12 to inspection end determination step S22 until Yes determination is made in inspection end determination step S22 Run repeatedly.
  • the determination is Yes. If the determination is Yes, the image analysis processing unit 43 ends the image processing method.
  • FIG. 15 is a flow chart showing the procedure of the viewpoint information acquiring step shown in FIG.
  • the first feature point extraction unit 51 shown in FIG. 4 extracts feature points from the three-dimensional image 19.
  • the second feature point extraction unit 52 extracts feature points from the endoscopic image 38.
  • the second feature point extraction step S42 may be performed in parallel with the endoscopic image acquisition step S12 shown in FIG.
  • the feature point associating step S44 is performed.
  • the viewpoint information acquisition unit 53 associates the feature points of the endoscopic image 38 with the feature points of the three-dimensional image 19.
  • the example of matching with the feature point of the endoscopic image 38 and the feature point of the three-dimensional image 19 was shown in figure in FIG.
  • the process proceeds to a feature amount derivation step S46.
  • the viewpoint information acquisition unit 53 derives the feature quantity of the endoscopic image 38 and the feature quantity of the virtual endoscopic image 39.
  • the process proceeds to a search step S48.
  • the viewpoint information acquisition unit 53 searches the region of the three-dimensional image 19 having the same feature amount as the feature amount of the endoscopic image 38 from the three-dimensional image.
  • the process proceeds to a viewpoint information derivation step S50.
  • the viewpoint information acquisition unit 53 derives viewpoint information of the region of the three-dimensional image 19 having the same feature amount as the feature amount of the endoscopic image 38.
  • a viewpoint information storage process of storing the derived viewpoint information may be performed.
  • the process proceeds to a virtual endoscopic image generation step S18 of the image processing method shown in FIG.
  • FIG. 16 is a schematic view showing a variation of the correspondence between the endoscopic image and the virtual endoscopic image.
  • the example shown in FIG. 16 is an example in which an endoscopic image and a virtual endoscopic image are associated using the number of folds. This example is particularly effective when the large intestine is a subject.
  • the frame image 38b shown in FIG. 16 is extracted as a feature point 80a.
  • the fold number of the frame image 38 b is n 1 .
  • the fold number is a serial number that makes the specified fold the first fold.
  • the three-dimensional image 19, similarly numbered folds endoscopic image 38 specifies an area of the three-dimensional image 19 having n 1 th folds.
  • Viewpoint information may be derived from the area of the three-dimensional image 19 having the n 1st fold, and the virtual endoscopic image 39 generated using the derived viewpoint information may be associated with the endoscopic image 38.
  • FIG. 16 shows an example in which a pseudo virtual endoscopic image 19 f is applied as a region of the three-dimensional image 19.
  • the viewpoint information can be derived from the pseudo virtual endoscopic image 19 f having the n 1 -th fold.
  • the movement vector of the endoscope 10 may be derived using a plurality of frame images 38b.
  • the plurality of frame images 38 b used when deriving the movement vector of the endoscope 10 are continuous frame images 38 b.
  • the fixed range may be defined based on the number of frames of the endoscopic image 38. For example, a new correspondence may be made to each frame, or a new correspondence may be made every plural frames.
  • FIG. 17 is an explanatory view of the correspondence update. As illustrated with reference numerals 16a and 16b in FIG. 17, the virtual endoscopic image 39 associated with the endoscopic image 38 is updated as the observation of the endoscopic image 38 progresses.
  • the virtual endoscopic image 39 associated with the endoscopic image 38 is updated. Be done.
  • symbol 16c shows the state by which the endoscopic image 38 was newly matched with the virtual endoscopic image 39e.
  • the feature point 70b of the virtual endoscopic image 39e coincides with the feature point 80a of the endoscopic image 38.
  • a virtual endoscopic image 39e having a feature point 70b is displayed instead of the virtual endoscopic image 39 having a feature point 70a.
  • the virtual endoscopic image 39 When the virtual endoscopic image 39 is generated for every plurality of frame images 38 b of the endoscopic image 38, the virtual endoscopic image 39 to be displayed next sharply from the virtual endoscopic image 39 already displayed. You may switch to Abruptly means to switch the two directly without going through the intermediate display state. In addition, display modes such as morphing and fast-forward may be applied as an intermediate state of switching.
  • FIG. 18 is an explanatory diagram of colon navigation.
  • the position of the endoscope 10 and the direction in which the distal end surface 27 a of the endoscope 10 is displayed on the three-dimensional model 19 a of the large intestine are used as support information for endoscopic examination.
  • the position of the endoscope 10 and the direction in which the distal end surface 27 a of the endoscope 10 is displayed as navigation can be detected using a sensor provided outside the endoscope 10.
  • the direction in which the distal end surface 27 a of the endoscope 10 faces coincides with the imaging direction of the endoscope 10.
  • the direction in which the distal end surface 27a of the endoscope 10 faces corresponds to an example of the viewing direction of the endoscope.
  • the large intestine navigation corresponds to an example of the movement support information of the endoscope.
  • a magnetic sensor is mentioned as an example of a sensor.
  • a sensor may be provided inside the endoscope 10.
  • the quadrangular pyramid 19 h shown in FIG. 18 indicates the direction in which the tip of the endoscope 10 faces.
  • the paths 19 b illustrated using thin lines indicate the paths 19 b in the observed area. Further, a pass 19 b illustrated using a thick line indicates the pass 19 b in the unobserved region.
  • the viewpoint direction may be specified.
  • FIG. 18 Although the navigation using the three-dimensional model 19a of the large intestine is illustrated in FIG. 18, only the path 19b, the viewpoint 19e, and a symbol representing the direction of the endoscope 10 may be displayed. Navigation can be superimposed on the display screen of the endoscopic image 38. In addition, a symbol or the like representing the viewpoint 19e associated with the navigation may be added.
  • the variation of the correspondence between the endoscopic image 38 and the virtual endoscopic image 39 described above can be combined as appropriate.
  • the matching based on the matching feature point may be used in combination with the above variation, or when one or more matching is made based on the matching feature point, the above variation is applied to the subsequent matching You may
  • the endoscopic image 38 can be stored in the image storage unit 48 shown in FIG.
  • the image storage unit 48 may add viewpoint information or the like as additional information when storing the endoscopic image 38.
  • the image storage unit 48 can store the endoscopic image 38 in association with the virtual endoscopic image 39 when storing the endoscopic image 38. For example, when storing the endoscopic image 38, the image storage unit 48 adds the ID (identification) of the storage device in which the virtual endoscopic image 39 is stored, the address of the storage area in the storage device, etc. It is also good. The same is true when storing the virtual endoscopic image 39.
  • the image storage unit 48 corresponds to an example of an endoscopic image storage unit that stores an actual endoscopic image.
  • the viewpoint information including the information of the position of the viewpoint 19e in the three-dimensional image 19 from which the virtual endoscopic image 39 having the feature point coincident with the feature point of the endoscope image 38 is obtained and the information of the direction in the viewpoint 19e is acquired . Thereby, it is possible to associate the endoscopic image 38 and the virtual endoscopic image 39 correctly.
  • a virtual endoscopic image 39 is generated from the three-dimensional image 19 based on the viewpoint information. Thereby, a virtual endoscopic image 39 having feature points that match the endoscopic image 38 can be generated.
  • Information on the imaging direction of the endoscope 10 is acquired from the movement vector of the endoscope 10.
  • the direction in which the distal end surface 27a of the endoscope 10 faces is acquired from the colon navigation. Thereby, at least one of the imaging direction of the endoscope 10 and the direction in which the distal end surface 27 a of the endoscope 10 faces can be obtained.
  • the viewpoint information is newly acquired, the viewpoint information is updated. As a result, it is possible to associate the virtual endoscopic image 39 using the latest viewpoint information with the endoscopic image 38.
  • the endoscopic image 38 and the virtual endoscopic image 39 are linked and stored. Thereby, when using at least one of the endoscopic image 38 and the virtual endoscopic image 39, it is possible to maintain the cooperation between the two.
  • FIG. 19 is a functional block diagram showing the function of the image analysis processing unit in the image processing apparatus according to the second embodiment.
  • a second virtual endoscopic image generation unit 55 and an endoscope visual field information acquisition unit 56 are added to the image analysis processing unit 43 shown in FIG. There is.
  • the second virtual endoscopic image generation unit 55 generates a second virtual endoscopic image 39 f which is a pseudo virtual endoscopic image from the three-dimensional image 19.
  • the second virtual endoscopic image generation unit 55 generates a second virtual endoscopic image 39 f using the visual field information 10 a of the endoscope 10 acquired using the endoscopic visual field information acquisition unit 56.
  • the second virtual endoscopic image 39f shown in FIG. 19 corresponds to the pseudo virtual endoscopic image 19f shown in FIG.
  • the first feature point extraction unit 51 extracts feature points from the second virtual endoscopic image 39 f generated using the second virtual endoscope image generation unit 55.
  • the endoscope visual field information acquisition unit 56 acquires the visual field information 10 a of the endoscope 10 from the endoscopic image 38.
  • the visual field information 10 a of the endoscope 10 includes information of the imaging direction of the endoscope 10.
  • the endoscope visual field information acquisition unit 56 can derive the movement vector of the endoscope 10 from two or more frame images 38 b of the endoscopic image 38.
  • the endoscope visual field information acquisition unit 56 can derive the movement speed of the endoscope 10 from the movement vector of the endoscope 10.
  • the endoscope visual field information acquisition unit 56 can derive the imaging direction of the endoscope 10 from the movement speed of the endoscope 10.
  • the endoscope visual field information acquisition unit 56 can derive the movement distance of the endoscope 10 from the movement speed of the endoscope 10 and the number of frames.
  • the second virtual endoscopic image generation unit 55 generates a second virtual endoscopic image 39 f from the three-dimensional image 19 using endoscopic field information.
  • the endoscope field-of-view information acquisition unit 56 corresponds to an example of a position information acquisition unit that acquires information on the position of the endoscope.
  • the movement distance of the endoscope 10 corresponds to an example of the movement amount of the endoscope.
  • the endoscope view information acquisition unit 56 corresponds to an example of a view direction information acquisition unit that acquires information on the view direction of the endoscope.
  • An arbitrary frame image 38 b among two or more frame images 38 b of the endoscopic image 38 corresponds to an example of one real endoscopic image.
  • Another arbitrary frame image 38 b of the two or more frame images 38 b of the endoscopic image 38 corresponds to an example of the other real endoscopic image.
  • FIG. 20 is a schematic view schematically showing an image processing method according to the second embodiment.
  • the second virtual endoscopic image 39 f is generated from the three-dimensional image 19 read from the storage device 18.
  • the second virtual endoscopic image 39 f is generated using the visual field information 10 a of the endoscope 10.
  • the image analysis processing unit 43a illustrated in FIG. 19 extracts a fold as a feature point 80a from the endoscopic image 38 generated using the endoscope 10.
  • the image analysis processing unit 43a extracts a fold as the feature point 70c from the second virtual endoscopic image 39f.
  • the image analysis processing unit 43a determines the viewpoint position P of the virtual endoscopic image 39 having a feature point 70a that matches the feature point 80a of the endoscopic image 38 based on the feature point 70c of the second virtual endoscopic image 39f. And the viewpoint direction D. The image analysis processing unit 43a associates the endoscopic image 38 with the virtual endoscopic image 39.
  • a second virtual endoscopic image generation step is added after the endoscopic image acquisition step S12 shown in FIG.
  • the second virtual endoscopic image generation step may be added before the second feature point extraction step S42 shown in FIG.
  • the second virtual endoscopic image 39 f may be hidden or may be displayed on the display screen of the endoscopic image 38.
  • a second virtual endoscopic image 39 f is generated from the three-dimensional image 19. In this way, it is possible to obtain viewpoint information based on the feature points of the second virtual endoscopic image 39f and the feature points of the endoscopic image 38.
  • the second virtual endoscopic image 39 f is generated using the visual field information 10 a of the endoscope 10. Thereby, a second virtual endoscopic image 39f in which at least one of the actual imaging direction of the endoscope 10 and the actual position of the endoscope 10 is reflected can be generated.
  • FIG. 21 is a functional block diagram showing the function of the image analysis processing unit in the image processing apparatus according to the third embodiment.
  • the endoscopic image correction unit 57 is added to the image analysis processing unit 43 shown in FIG. 4 in the image analysis processing unit 43b shown in FIG.
  • the endoscopic image 38 is a color image having pixel values of 256 gradations of RGB color components for each pixel.
  • R of RGB represents red.
  • G of RGB represents green.
  • B of RGB represents blue.
  • the endoscopic image correction unit 57 executes a process of removing at least one of color information and texture information from the endoscopic image 38.
  • the three-dimensional image 19 and the second virtual endoscopic image 39 f do not have color information and texture information.
  • the endoscopic image 38 has color information and texture information.
  • the process of removing an ingredient is mentioned.
  • the unevenness information of the endoscopic image 38 mainly comes in the R signal. Color information and texture information of the endoscopic image 38 mainly ride on the B signal. Therefore, the removal of the B signal component may be applied to the endoscopic image 38 to remove at least one of the color information and the texture information of the endoscopic image 38. Further, extraction of the R signal component can be applied to the endoscopic image 38 to extract asperity information of the endoscopic image 38.
  • the endoscope image correction unit 57 corresponds to an example of a real endoscope image correction unit.
  • At least one of color information and texture information is removed from the endoscopic image 38. Thereby, the unevenness information of the endoscopic image 38 is extracted.
  • the B signal is removed from the endoscopic image 38. Thereby, at least one of color information and texture information can be removed from the endoscopic image 38.
  • FIG. 22 is a functional block diagram showing the function of the image analysis processing unit in the image processing apparatus according to the fourth embodiment.
  • a warning signal generation unit 59 is added to the image analysis processing unit 43 shown in FIG.
  • a warning device 60 is added to the endoscope system 9 shown in FIG.
  • the warning signal generation unit 59 generates a warning signal indicating warning information when the endoscopic image 38 and the virtual endoscopic image 39 are not associated with each other. In other words, when the virtual endoscopic image 39 having the feature point 70 coincident with the feature point 80 of the endoscopic image 38 is not found, the warning signal generation unit 59 generates a warning signal indicating that.
  • the warning signal generation unit 59 transmits a warning signal to the warning device 60 via a communication interface (not shown).
  • the warning signal generation unit 59 corresponds to an example of a component of a warning unit that warns when viewpoint information is not acquired.
  • the virtual endoscopic image 39 having the feature point 70 coincident with the feature point 80 of the endoscopic image 38 is not found, this corresponds to an example in the case where the viewpoint information is not acquired.
  • the warning device 60 outputs warning information corresponding to the warning signal.
  • Examples of notification of warning information include display of character information indicating a warning, warning sound, lighting of a warning light, and the like.
  • the character information representing the warning may use the monitor device 16 shown in FIG.
  • the endoscope system 9 shown in FIG. 1 is provided with a warning device 60 such as a speaker and a light according to the aspect of the warning.
  • the warning device 60 may appropriately combine the above notification modes.
  • the warning device 60 may apply at least one of display of character information indicating a warning, a warning sound, and lighting of a warning light to notification. In this way, the operator can grasp the notification using vision and / or hearing.
  • the image processing method described above can be configured as a program that implements functions corresponding to the respective steps in the image processing method using a computer.
  • a computer may be configured as a program for realizing an endoscopic image acquisition function, an image analysis processing function, an input control function, a display control function, and a storage function.
  • the endoscopic image acquisition function is an example of a medical image acquisition function.
  • the image analysis processing function includes a notable scene recognition function, a similarity calculation function, and a storage processing function as components.
  • Feature point extraction of the endoscopic image 38 corresponds to detection of a region of interest in the endoscopic image 38.
  • the first feature point extraction unit 51 illustrated in FIG. 4 may detect a focused area, which is a focused area, based on the feature quantities of the pixels of the endoscopic image 38, and may acquire a detection result.
  • the first feature point extraction unit 51 may detect the presence or absence of an attention area which is an area to be noticed based on the feature quantities of the pixels of the endoscopic image 38, and acquire the detection result.
  • the first feature point extraction unit 51 may obtain the detection result of the endoscopic image 38 from the storage device such as the storage device 18 illustrated in FIG. 1.
  • the first feature point extraction unit 51 may obtain, as a detection result, at least one of a notable area included in the endoscopic image 38 and information indicating the presence or absence of the notable area.
  • the endoscope image 38 can apply a normal light image acquired by irradiating a plurality of lights of different wavelength bands as light of the white band or light of the white band.
  • the endoscopic image 38 may apply a special light image acquired by irradiating light in a specific wavelength band.
  • the specific wavelength band may apply a wavelength band narrower than the wavelength band of white light.
  • a first example of a particular wavelength band is the blue or green band in the visible range.
  • the wavelength band of the first example includes a wavelength band of 390 nanometers or more and 450 nanometers or less, or 530 nanometers or more and 550 nanometers or less, and the light of the first example is 390 nanometers or more and 450 nanometers or less, or It has a peak wavelength within the wavelength band of 530 nanometers or more and 550 nanometers or less.
  • the wavelength band of the second example includes a wavelength band of 585 nanometers or more and 615 nanometers or less, or 610 nanometers or more and 730 nanometers or less, and the light of the second example is 585 nanometers or more and 615 nanometers or less, or It has a peak wavelength within the wavelength band of 610 nanometers or more and 730 nanometers or less.
  • the third example of the specific wavelength band includes wavelength bands in which the absorption coefficient is different between oxygenated hemoglobin and reduced hemoglobin, and the light of the third example has peak wavelengths in wavelength bands where the absorption coefficient is different between oxygenated hemoglobin and reduced hemoglobin.
  • the wavelength band of this third example includes wavelength bands of 400 ⁇ 10 nanometers, 440 ⁇ 10 nanometers, 470 ⁇ 10 nanometers, or 600 nanometers to 750 nanometers, and the light of the third example is It has a peak wavelength in a wavelength band of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm or more and 750 nm or less.
  • a fourth example of the specific wavelength band is a wavelength band of excitation light which is used to observe the fluorescence emitted from the fluorescent substance in the living body and which excites the fluorescent substance.
  • it is a wavelength band of 390 nanometers or more and 470 nanometers or less.
  • observation of fluorescence may be called fluorescence observation.
  • the fifth example of the specific wavelength band is a wavelength band of infrared light.
  • the wavelength band of the fifth example includes a wavelength band of 790 nm or more and 820 nm or less, or 905 nm or more and 970 nm or less, and the light of the fifth example is 790 nm or more and 820 nm or less, Or has a peak wavelength in a wavelength band of 905 nm or more and 970 nm or less.
  • the processor unit 12 generates a special light image having information of a specific wavelength band based on a normal light image obtained by imaging using white light or a plurality of lights having different wavelength bands as white light. May be Note that the generation referred to here includes acquisition. In this case, the processor unit 12 functions as a special light image acquisition unit. Then, the processor unit 12 obtains a signal of a specific wavelength band by performing an operation based on color information of red, green and blue or cyan, magenta and yellow contained in the normal light image.
  • red, green and blue may be represented as RGB (Red, Green, Blue).
  • cyan, magenta and yellow may be expressed as CMY (Cyan, Magenta, Yellow).
  • the processor device 12 may generate a feature image such as a known oxygen saturation image based on at least one of the normal light image and the special light image.
  • diagnosis support apparatus provided with the image processing apparatus 14 shown in the present embodiment and the medical service support apparatus can be configured.
  • the processor device 12 provided with the image processing device 14 shown in the present embodiment can be configured. That is, an endoscope control unit that controls the operation of the endoscope 10, an imaging control unit that controls imaging using the endoscope 10, a light source control unit that controls the light source device 11, and an image processing device 14 A processor unit may be configured.
  • the image processing device 14 corresponds to an example of an image processing unit.
  • the image processing method described above can be configured as a program that implements functions corresponding to the respective steps in the image processing method using a computer.
  • a program that implements a three-dimensional image input function, a real endoscope image input function, a feature point extraction function, and a viewpoint information acquisition function can be configured.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

仮想内視鏡画像と実内視鏡画像とを正確に対応付け、両者の好ましい連携を可能とする画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラムを提供する。3次元画像(19)を入力する3次元画像入力部(41a)、実内視鏡画像(38)を入力する実内視鏡画像入力部(41b)、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部(51、52)、及び3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得部(53)を備える。

Description

画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
 本発明は画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラムに係り、特に実内視鏡画像と仮想内視鏡画像との連携に関する。
 近年、内視鏡を用いて患者の大腸等の管状構造物を観察又は処置を行う技術が注目されている。内視鏡画像はCCD(Charge Coupled Device)等の撮像素子を用いて撮影された画像である。そして、内視鏡画像は管状構造物内部の色、及び質感が鮮明に表現された画像である。一方、内視鏡画像は、管状構造物の内部を表す2次元画像である。このため、内視鏡画像が管状構造物内のどの位置を表しているものかを把握することが困難である。
 そこで、CT装置又はMRI装置等のモダリティを用いて断層撮影をして取得された3次元画像を用いて、実際に内視鏡を用いて撮影した画像と類似した仮想内視鏡画像を生成する手法が提案されている。CTはComputed Tomographyの省略語である。また、MRIはMagnetic Resonance Imagingの省略語である。
 このため、3次元検査画像から管状構造物の画像を抽出し、管状構造物の画像と内視鏡を用いて撮影を行い取得した実際の内視鏡画像である実内視鏡画像との対応付けを行い、内視鏡の現在位置における仮想内視鏡画像を管状構造物の3次元検査画像から生成して表示する手法が提案されている。
 特許文献1は、内視鏡を用いて取得した内視鏡画像と、医用画像診断装置を用いて取得した医用画像とを表示する場合に、内視鏡画像と医用画像とにそれぞれ表された観察対象の位置を合わせて表示する医用画像処理装置が記載されている。
 同文献に記載の医用画像処理装置は、大腸内を表す内視鏡画像データから腸管の輪郭と結腸ひもとを特定し、大腸を表すCT画像データから腸管領域と結腸ひも領域とを特定する。同文献に記載の医用画像処理装置は、内視鏡画像データに基づく結腸ひもの位置と、CT画像に基づく結腸ひも領域の位置とを合わせ、更に、CT画像に基づく腸管領域の形状を内視鏡画像に基づく輪郭の形状に合わせる。
 同文献に記載の医用画像処理装置は、形状が合わされた腸管領域の各位置に、CT画像データにおいて対応する位置の画素値を割り当てた腸管画像と内視鏡画像とを、表示部に表示させる。
 特許文献2は、X線CT装置を用いて撮像された断層画像が積み上げられたボリュームデータから展開画像を作成し、展開画像における凸部領域の密度、芯線曲率、及び芯線上の各点に直交する断面形状に基づいて、大腸の部位を特定する医用画像処理装置が記載されている。
 特許文献3は、姿勢が異なる同一人物の大腸を撮影した2つ以上の3次元画像から、特徴形状を抽出し、2つ以上の3次元画像の大腸を対応付ける医用画像観察支援装置が記載されている。特許文献3に記載の発明は、特徴形状として大腸のひだの位置、及び体積に基づいて定められるひだ特徴形状と、大腸の屈曲状態に基づいて定められる屈曲特徴形状が適用される。
 特許文献4は、内視鏡画像からR信号成分を抽出し、明暗情報、又は輝度情報の変化に基づき、R画像の3次元形状情報を算出する画像処理装置が記載されている。なお、R画像は内視鏡画像のR信号成分を表す。
 特許文献5は、軟性内視鏡のナビゲーションに関する発明が記載されている。特許文献5に記載の発明は、検査対象の仮想内視鏡画像と、仮想内視鏡画像に対応する仮想的なカメラの位置の情報、及び内視鏡先端の姿勢の情報が記憶されたデータベースを参照し、検査対象の実内視鏡画像をデータベース内の仮想内視鏡画像と比較する。そして、実内視鏡画像と最も類似度が高い仮想内視鏡画像を決定し、これに対応する仮想カメラの位置、及び姿勢を得る。仮想カメラの位置、及び姿勢から、現時点の内視鏡先端部がどの位置にいて、どの方向を向いているかを知ることができる。
 特許文献6は、被検体の3次元画像データに基づく体腔路の仮想画像を用いて、挿入ナビゲーションを行う内視鏡装置が記載されている。特許文献6に記載の内視鏡装置は、仮想気管支内視鏡画像と、内視鏡画像との類似度を比較し、比較結果に基づいて両画像が同一の分岐部を示した画像であるか否かを判断する。
特開2011-50590号公報 特開2013-431号公報 特開2011-30839号公報 国際公開第2007/119297号 特開2003-265408号公報 特開2009-56238号公報
 実内視鏡画像と仮想内視鏡画像とを連携させる際に、実内視鏡画像の動きに合わせて仮想内視鏡画像を表示させたい。しかしながら、仮想内視鏡と軟性内視鏡とは撮像する画像が異なるために、仮想内視鏡画像と実内視鏡画像とを直接対応付け、かつ正確に対応付けることが困難である。
 特許文献1に記載の発明は、腸管の回転方向の位置、形状を合わせているものの、内視鏡の進行方向について、腸管断層画像を内視鏡画像に合わせることについて記載されていない。すなわち、特許文献1は、仮想内視鏡画像と実内視鏡画像とを正確に対応付けることについて記載されていない。
 特許文献2に記載の発明は、X線CT装置を用いて撮像された断層画像が積み上げられたボリューム画像データを用いて作成された展開画像の各部分領域に対応する大腸の部位を決定するものであって、仮想内視鏡画像と実内視鏡画像との直接の対応付けを取るものではない。
 特許文献3に記載の発明は、被検体の姿勢が異なる2つ以上の3次元画像について、それぞれの特徴部位を対応付けるものであって、仮想内視鏡画像と実内視鏡画像との直接の対応付けを取るものではない。
 特許文献4に記載の発明は、2次元画像である内視鏡画像から3次元形状情報を算出するものであって、仮想内視鏡画像と実内視鏡画像との直接の対応付けを取るものではない。
 特許文献5に記載の発明は、実内視鏡画像と最も類似度が高い仮想内視鏡画像に基づいて、現時点の内視鏡の位置、及び姿勢を把握しているが、あくまでも両者は類似するものであって、仮想内視鏡画像と実内視鏡画像とを正確に対応付けていない。
 特許文献6に記載の発明は、仮想気管支内視鏡画像と、内視鏡画像との類似度を用いて、両者が同一の分岐部を示しているか否かを判断しているが、あくまでも両者は類似するものであって、仮想内視鏡画像と実内視鏡画像とを正確に対応付けていない。
 また、特許文献6の段落<0015>に記載のように、特許文献6に記載の発明は、仮想気管支内視鏡画像と、内視鏡画像とが同一の分岐部を示す画像である場合にも、誤認識が発生し得る。
 本発明はこのような事情に鑑みてなされたもので、仮想内視鏡画像と実内視鏡画像とを正確に対応付け、両者の好ましい連携を可能とする画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラムを提供することを目的とする。
 上記目的を達成するために、次の発明態様を提供する。
 第1態様に係る画像処理装置は、被検体の3次元画像を入力する3次元画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得部と、を備えた画像処理装置である。
 第1態様によれば、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点における向きの情報を含む視点情報を取得する。これにより、実内視鏡画像と仮想内視鏡画像とを正確に対応付けることが可能である。
 3次元画像という用語は、3次元画像自体だけでなく、3次元画像を表す3次元画像のデータの意味が含まれてもよい。3次元画像の例として、CT装置を用いて被検体を断層撮影して得られた3次元画像が挙げられる。3次元画像のデータの例としてボリュームデータが挙げられる。
 3次元画像入力部は、3次元画像を取得する態様、3次元画像を表す3次元画像のデータを取得する態様の両者を含み得る。
 特徴点は、1つでもよいし、複数でもよい。特徴点が複数の場合の特徴点の一致は、全ての特徴点の一致を意味する。特徴点は、複数の画素が含まれる領域を適用してもよい。
 第1態様に係る画像処理装置は、1つ以上のプロセッサと、1つ以上のメモリとを備えた画像処理装置であって、プロセッサは、被検体の3次元画像を入力し、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力し、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出し、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得し、メモリはプロセッサの処理結果を記憶する画像処理装置として構成し得る。
 第2態様は、第1態様の画像処理装置において、視点情報取得部を用いて取得した視点情報に基づいて、3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部を備えた構成としてもよい。
 第2態様によれば、実内視鏡画像と特徴点が一致する第1仮想内視鏡画像を生成し得る。
 第3態様は、第1態様又は第2態様の画像処理装置において、3次元画像から第2仮想内視鏡画像を生成する第2仮想内視鏡画像生成部を備え、特徴点抽出部は、3次元画像の特徴点として第2仮想内視鏡画像の特徴点を抽出する構成としてもよい。
 第3態様によれば、第2仮想内視鏡画像の特徴点、及び実内視鏡画像の特徴点に基づく視点情報の取得が可能である。
 第4態様は、第3態様の画像処理装置において、内視鏡の視野方向の情報を取得する視野方向情報取得部を備え、第2仮想内視鏡画像生成部は、視野方向情報取得部を用いて取得した内視鏡の視野方向の情報を用いて、第2仮想内視鏡画像を生成する構成としてもよい。
 第4態様によれば、内視鏡の視野方向の情報が反映された第2仮想内視鏡画像の生成が可能である。
 第5態様は、第4態様の画像処理装置において、視野方向情報取得部は、内視鏡の移動支援情報から視野方向を取得する構成としてもよい。
 第5態様によれば、内視鏡の移動支援情報を用いた内視鏡の視野方向の情報の取得が可能である。
 第6態様は、第4態様の画像処理装置において、視野方向情報取得部は、実内視鏡画像の変化から導出される移動ベクトルを用いて視野方向の情報を取得する構成としてもよい。
 第6態様によれば、実内視鏡画像の変化から導出される移動ベクトルを用いた内視鏡の視野方向の情報の取得が可能である。
 第7態様は、第3態様から第6態様のいずれか一態様の画像処理装置において、内視鏡の位置の情報を取得する位置情報取得部を備え、第2仮想内視鏡画像生成部は、位置情報取得部を用いて取得した内視鏡の位置の情報を用いて、第2仮想内視鏡画像を生成する構成としてもよい。
 第7態様によれば、位置情報取得部を用いて取得した内視鏡の位置情報を用いた第2仮想内視鏡画像の生成が可能である。
 第8態様は、第1態様から第7態様のいずれか一態様の画像処理装置において、実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像、又は実内視鏡画像から凹凸情報を抽出した画像を生成する実内視鏡画像修正部を備え、特徴点抽出部は、実内視鏡画像修正部を用いて生成された画像から特徴点を抽出する構成としてもよい。
 第8態様によれば、実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像、又は実内視鏡画像から凹凸情報を抽出した画像を生成する。これにより、凹凸情報を持ち、且つ色情報、及びテクスチャ情報を持たない3次元画像との特徴点の比較が良好となる。
 実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像の例として、実内視鏡画像のB信号成分を除去した画像が挙げられる。実内視鏡画像から凹凸情報を抽出した画像の例として、実内視鏡画像のR信号成分を抽出した画像が挙げられる。
 第9態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、視点情報取得部は、内視鏡の位置が異なる2つの実内視鏡画像について、一方の実内視鏡画像と他方の実内視鏡画像との変化から導出される移動ベクトルを用いて、一方の実内視鏡画像に対応する3次元画像の視点の位置を起点とする移動量を導出して、他方の実内視鏡画像に対応する3次元画像の視点の位置を特定する構成としてもよい。
 第9態様によれば、内視鏡の位置が異なる2つの実内視鏡画像の移動ベクトルを用いて、両者に対応する3次元画像の視点間の距離の導出が可能である。
 第10態様は、第1態様から第9態様のいずれか一態様の画像処理装置において、視点情報取得部は、実内視鏡画像の毎フレームに、実内視鏡画像の2以上の規定フレーム数ごとに、又は内視鏡が規定の移動を行った場合に、実内視鏡画像に対応する3次元画像の視点情報を取得する構成としてもよい。
 第10態様によれば、規定のフレーム数、又は内視鏡の移動に応じた内視鏡画像と仮想内視鏡画像との対応付けが可能である。
 第11態様は、第1態様から第10態様のいずれか一態様の画像処理装置において、視点情報取得部は、既に視点情報を取得した実内視鏡画像について、新たに視点情報を取得した場合、実内視鏡画像に対応する3次元画像の視点情報を更新する構成としてもよい。
 第11態様によれば、最新の視点情報の使用が可能となる。これにより、最新の視点情報を用いた第1仮想内視鏡画像を実内視鏡画像に対応付けすることが可能となる。
 第12態様は、第1態様から第11態様のいずれか一態様の画像処理装置において、実内視鏡画像と対応する視点情報を非取得の場合に警告する警告部を備えた構成としてもよい。
 第12態様によれば、視点情報の非取得を術者が認識し得る。
 第13態様は、第1態様から第12態様のいずれか一態様の画像処理装置において、3次元画像入力部は、大腸の3次元画像を入力し、特徴点抽出部は、盲腸入口、上行結腸と横行結腸との間の湾曲部、横行結腸と下行結腸との間の湾曲部、下行結腸とS字結腸との間の湾曲部、ひだ、ポリープ、及び血管の少なくともいずれか1つを特徴点として抽出する構成としてもよい。
 第13態様によれば、大腸の3次元画像に基づき、盲腸入口などの大腸の特徴的な形状を有する部位の特定が可能となる。
 第14態様は、第13態様の画像処理装置において、視点情報取得部は、大腸のひだの数に基づいて実内視鏡画像に対応する3次元画像の視点情報を取得する構成としてもよい。
 第14態様によれば、大腸のひだの数を用いた実内視鏡画像と第1仮想内視鏡画像との対応付けが可能となる。
 第15態様は、第1態様から第14態様のいずれか一態様の画像処理装置において、特徴点抽出部は、3次元画像から予め抽出された特徴点の情報を取得する構成としてもよい。
 第15態様によれば、実内視鏡画像から特徴点を抽出する際の処理の効率化、及び処理負荷の低減化の少なくともいずれかが可能となる。
 第16態様に係るプロセッサ装置は、内視鏡の動作を制御する内視鏡制御部と、内視鏡を用いた撮像を制御する撮像制御部と、内視鏡を用いて撮像して得られた内視鏡画像を処理する画像処理部と、を備えたプロセッサ装置であって、画像処理部は、被検体の3次元画像を入力する3次元画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得部と、を備えたプロセッサ装置である。
 第16態様によれば、第1態様と同様の効果を得ることができる。
 第16態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプロセッサ装置の構成要素として把握することができる。
 第16態様に係るプロセッサ装置は、1つ以上のプロセッサと、1つ以上のメモリとを備えたプロセッサ装置であって、プロセッサは、内視鏡の動作を制御し、内視鏡を用いた撮像を制御し、内視鏡を用いて撮像して得られた内視鏡画像を処理し、内視鏡画像の処理においてプロセッサは、被検体の3次元画像を入力し、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力し、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出し、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得し、メモリはプロセッサの処理結果を記憶するプロセッサ装置として構成し得る。
 第17態様に係る内視鏡システムは、内視鏡を備えた内視鏡装置と、画像処理装置と、を備えた内視鏡システムであって、画像処理装置は、被検体の3次元画像を入力する3次元画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得部と、を備えた内視鏡システムである。
 第17態様によれば、第1態様と同様の効果を得ることができる。
 第17態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う内視鏡システムの構成要素として把握することができる。
 第17態様に係る内視鏡システムは、1つ以上のプロセッサと、1つ以上のメモリとを備え、内視鏡を備えた内視鏡装置を備えた内視鏡システムであって、プロセッサは、被検体の3次元画像を入力し、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力し、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出し、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得し、メモリはプロセッサの処理結果を記憶する内視鏡システムとして把握し得る。
 第18態様は、第17態様の内視鏡システムにおいて、3次元画像から生成される仮想内視鏡画像を表示する表示部と、視点情報取得部を用いて取得した視点情報に基づいて、3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部と、を備え、表示部は、新たな第1仮想内視鏡画像を表示する際に、先に表示した第1仮想内視鏡画像から新たな第1仮想内視鏡画像へ直接切り替えるか、早送りするか、又はモーフィングを用いるかのいずれかを選択する構成としてもよい。
 第18態様によれば、新たな第1仮想内視鏡画像が生成された場合に、先に生成された第1仮想内視鏡画像から、新たな第1仮想内視鏡画像への表示の切り替えがスムーズに行われる。
 第19態様は、第18態様の内視鏡システムにおいて、表示部は、実内視鏡画像と、実内視鏡画像に対応する第1仮想内視鏡画像とを同期して表示させる構成としてもよい。
 第19態様によれば、実内視鏡画像と第1仮想内視鏡画像の同期表示が可能である。
 第20態様は、第18態様又は第19態様の内視鏡システムにおいて、実内視鏡画像を記憶する内視鏡画像記憶部を備え、内視鏡画像記憶部は、視点情報を付加した実内視鏡画像を記憶する構成としてもよい。
 第20態様によれば、視点情報を付加した実内視鏡画像の記憶が可能である。
 第21態様は、第20態様の内視鏡システムにおいて、内視鏡画像記憶部は、実内視鏡画像に対応する第1仮想内視鏡画像を記憶する構成としてもよい。
 第21態様によれば、実内視鏡画像と第1内視鏡画像との連携の維持が可能である。
 第22態様に係る画像処理方法は、被検体の3次元画像を入力する3次元画像入力工程と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力工程と、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出工程と、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得工程と、を含む画像処理方法である。
 第22態様によれば、第1態様と同様の効果を得ることができる。
 第22態様において、第2態様から第15態様で特定した事項、及び第17態様か第20態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置、又は内視鏡システムにおいて特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う画像処理方法の構成要素として把握することができる。
 第23態様に係るプログラムは、コンピュータに、被検体の3次元画像を入力する3次元画像入力機能、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力機能、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出機能、及び3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得機能を実現させるプログラムある。
 第23態様によれば、第1態様と同様の効果を得ることができる。
 第23態様において、第2態様から第15態様で特定した事項、及び第17態様か第20態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置、又は内視鏡システムにおいて特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。
 本発明によれば、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点における向きの情報を含む視点情報を取得する。これにより、実内視鏡画像と仮想内視鏡画像とを正確に対応付けることが可能である。
図1は内視鏡システムの全体構成を示す概略図である。 図2は画像処理装置のハードウェアの構成例を示すブロック図である。 図3は第1実施形態に係る画像処理装置の機能を示す機能ブロック図である。 図4は図3に示した画像解析処理部の機能を示す機能ブロック図である。 図5は大腸の3次元モデルを示す3次元画像の説明図である。 図6は3次元画像の特徴点抽出の一例を示す模式図である。 図7は3次元視鏡画像の特徴点抽出の他の例を示す模式図である。 図8は内視鏡画像の特徴点抽出の一例を示す模式図である。 図9は内視鏡画像の特徴点抽出の他の例を示す模式図である。 図10は内視鏡画像と仮想内視鏡画像との対応付けの一例を示す模式図である。 図11は内視鏡画像と仮想内視鏡画像との対応付けの他の例を示す模式図である。 図12は視点情報取得の一例の説明図である。 図13は対応付け後の仮想内視鏡画像の表示例を示す模式図である。 図14は第1実施形態に係る画像処理方法の手順の流れを示すフローチャートである。 図15は図14に示した視点情報取得工程の手順の流れを示すフローチャートである。 図16は内視鏡画像と仮想内視鏡画像との対応付けのバリエーションを示す模式図である。 図17は対応付けの更新の説明図である。 図18は大腸ナビゲーションの説明図である。 図19は第2実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。 図21は第2実施形態に係る画像処理方法を模式的に示す模式図である。 図21は第3実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。 図22は第4実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。
 以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明を省略する。
 [内視鏡システムの全体構成]
 図1は内視鏡システムの全体構成を示す概略図である。図1に示した内視鏡システム9は、内視鏡10、光源装置11、プロセッサ装置12、表示装置13、画像処理装置14、入力装置15、及びモニタ装置16を備える。内視鏡システム9は、ネットワーク17を介して記憶装置18と通信可能に接続される。
 内視鏡10は電子内視鏡である。また、内視鏡10は軟性内視鏡である。内視鏡10は挿入部20、操作部21、及びユニバーサルコード22を備える。挿入部20は被検体内に挿入される。挿入部20は、全体が細径で長尺状に形成されている。
 挿入部20は、軟性部25、湾曲部26、及び先端部27を備える。挿入部20は、軟性部25、湾曲部26、及び先端部27が連設されて構成される。軟性部25は、挿入部20の基端側から先端側に向けて順に可撓性を有する。湾曲部26は、操作部21が操作された場合に湾曲可能な構造を有する。先端部27は、図示しない撮像光学系及び撮像素子28等が内蔵される。
 撮像素子28は、CMOS型撮像素子又はCCD型撮像素子が適用される。CMOSは、Complementary Metal Oxide Semiconductorの省略語である。CCDは、Charge Coupled Deviceの省略語である。
 先端部27の先端面27aは、図示しない観察窓が配置される。観察窓は、先端部27の先端面27aに形成された開口である。観察窓の後方には、図示しない撮像光学系が配置される。撮像素子28の撮像面は、観察窓、及び撮像光学系等を介して、被観察部位の像光が入射する。撮像素子28は、撮像素子28の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、被観察部位からの反射光を電気信号へ変換するという意味が含まれる。
 操作部21は挿入部20の基端側に連設される。操作部21は、術者が操作する各種操作部材を備える。具体的には、操作部21は、2種類の湾曲操作ノブ29を備える。湾曲操作ノブ29は、湾曲部26の湾曲操作の際に用いられる。なお、術者は、医師、操作者、及びユーザなどと呼ばれることがあり得る。
 操作部21は、送気送水ボタン30、及び吸引ボタン31を備える。送気送水ボタン30は、術者が送気送水操作を行う際に用いられる。吸引ボタン31は、術者が吸引操作を行う際に用いられる。
 操作部21は、静止画像撮像指示部32、及び処置具導入口33を備える。静止画像撮像指示部32は、被観察部位の静止画像を撮像する際に、術者が操作する。処置具導入口33は、挿入部20の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路、及び処置具の図示は省略する。なお、静止画像は符号38cを付して図3に図示する。
 ユニバーサルコード22は、内視鏡10を光源装置11に接続する接続コードである。ユニバーサルコード22は、挿入部20の内部を挿通しているライトガイド35、信号ケーブル36、及び図示しない流体チューブを内包している。
 また、ユニバーサルコード22の先端部は、光源装置11に接続されるコネクタ37a、及びコネクタ37aから分岐され、且つプロセッサ装置12に接続されるコネクタ37bを備える。
 コネクタ37aを光源装置11に接続すると、ライトガイド35及び図示しない流体チューブが光源装置11に挿入される。これにより、ライトガイド35及び図示しない流体チューブを介して、光源装置11から内視鏡10に対して必要な照明光と水と気体とが供給される。
 その結果、先端部27の先端面27aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン30の押下操作に応じて、先端部27の先端面27aの図示しない送気送水ノズルから先端面27aの図示しない観察窓に向けて気体又は水が噴射される。
 コネクタ37bをプロセッサ装置12に接続すると、信号ケーブル36とプロセッサ装置12とが電気的に接続される。これにより、信号ケーブル36を介して、内視鏡10の撮像素子28からプロセッサ装置12へ被観察部位の撮像信号が出力され、且つプロセッサ装置12から内視鏡10へ制御信号が出力される。すなわち、プロセッサ装置12は、内視鏡10の動作を制御する内視鏡制御部として機能する。
 本実施形態では、内視鏡10として軟性内視鏡を例に挙げて説明を行ったが、内視鏡10として、硬性内視鏡等の被観察部位の動画撮像を可能な各種の電子内視鏡を用いてもよい。
 光源装置11は、コネクタ37aを介して、内視鏡10のライトガイド35へ照明光を供給する。照明光は、白色光、又は特定の波長帯域の光を適用可能である。照明光は、白色光、及び特定の波長帯域の光を組み合わせてもよい。光源装置11は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。なお、特定の波長帯域は、特殊光と呼ばれる場合がある。
 プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の動作を制御する。また、プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の撮像素子28から撮像信号を取得する。プロセッサ装置12は規定のフレームレートを適用して内視鏡10から出力された撮像信号を取得する。
 プロセッサ装置12は、内視鏡10から取得した撮像信号に基づき、被観察部位の観察画像である内視鏡画像38を生成する。ここでいう内視鏡画像38には動画像が含まれる。内視鏡画像38は静止画像が含まれてもよい。動画像は符号38aを付して図3に図示する。
 プロセッサ装置12は、操作部21の静止画像撮像指示部32が操作された場合、動画像の生成と並行して、撮像素子28から取得した撮像信号に基づき被観察部位の静止画像を生成する。静止画像は、動画像の解像度に対して高解像度に生成されていてもよい。
 内視鏡画像38の生成の際に、プロセッサ装置12はホワイトバランス調整、及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。すなわち、プロセッサ装置12は、内視鏡10を用いた撮像を制御する撮像制御部として機能する。
 プロセッサ装置12はDICOM規格で規定された付帯情報を内視鏡画像38へ付加してもよい。なお、DICOMは、Digital Imaging and Communications in Medicineの省略語である。
 内視鏡画像38は、被検体内、すなわち生体内を撮像した生体内画像である。内視鏡画像38が、特定の波長帯域の光を用いて撮像して得られた画像である場合、両者は特殊光画像である。そして、プロセッサ装置12は、生成した内視鏡画像38を、表示装置13と画像処理装置14とのそれぞれに出力する。プロセッサ装置12は、DICOM規格に準拠した通信プロトコルに従って、ネットワーク17を介して内視鏡画像38を記憶装置18へ出力してもよい。内視鏡画像38は実内視鏡画像に相当する。
 表示装置13は、プロセッサ装置12に接続される。表示装置13は、プロセッサ装置12から送信された内視鏡画像38を表示する。術者は、表示装置13に表示される内視鏡画像38を確認しながら、挿入部20の進退操作等をし得る。術者は、被観察部位に病変等を検出した場合に、静止画像撮像指示部32を操作して被観察部位の静止画を撮像し得る。表示装置13は、後述するモニタ装置16の一部の機能、又は全ての機能を備えてもよい。
 画像処理装置14は、コンピュータが用いられる。入力装置15はコンピュータに接続可能なキーボード及びマウス等が用いられる。入力装置15とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置16は、コンピュータに接続可能な各種モニタが用いられる。
 画像処理装置14として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、入力装置15及びモニタ装置16は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、画像処理装置14として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。
 画像処理装置14は、内視鏡画像38の取得、及び内視鏡画像38の記憶を行う。画像処理装置14は、モニタ装置16の再生制御を行う。すなわち、画像処理装置14は、内視鏡画像38を取得する内視鏡画像取得部、内視鏡画像38の記憶する画像記憶部、及び内視鏡画像38の表示制御を行う表示制御部を備える。
 内視鏡画像取得部は符号41bを付して図3に図示する。画像記憶部は符号48を付して図3に図示する。表示制御部は符号44を付して図3に図示する。なお、本明細書における画像の記憶は、画像の保存と読み替えることが可能である。ここでいう画像の記憶は、画像の非一時的記憶を意味する。画像処理装置14は画像を一次記憶する一次記憶用のメモリを備えてもよい。
 画像処理装置14は、3次元画像19を取得する。例えば、画像処理装置14は、ネットワーク17を介して記憶装置18から3次元画像19を取得することが可能である。3次元画像19の例として、CT装置を用いて生成された複数のCT画像が含まれるCT画像群、及びMRI装置を用いて生成された複数のMRI画像が含まれるMRI画像群等が挙げられる。
 以下、複数のCT画像が含まれるCT画像群を、単にCT画像と呼ぶことがある。MRI画像群も同様である。すなわち、CT画像という用語は、1枚のCT画像、及び複2枚以上のCT画像の総称の意味を有する。
 画像処理装置14は、3次元画像19を用いて仮想内視鏡画像を生成する。画像処理装置14はモニタ装置16を用いて仮想内視鏡画像を表示させるための表示制御信号を生成する。画像処理装置14はモニタ装置16へ表示制御信号を送信する。なお、仮想内視鏡画像は符号39を付して図4に図示する。仮想内視鏡画像の生成、及びモニタ装置16を用いた仮想内視鏡画像の表示の詳細は後述する。
 入力装置15は、画像処理装置14に対する操作指示の入力に用いられる。モニタ装置16は、画像処理装置14の制御の下、内視鏡画像38の表示を行う。モニタ装置16は、画像処理装置14における各種情報の表示部として機能してもよい。
 画像処理装置14は、ネットワーク17を介して記憶装置18と接続される。画像の格納形式、及びネットワーク17を経由した各装置間の通信は、DICOM規格、及びDICOM規格に準拠したプロトコル等を適用可能である。
 なお、画像という用語は、画像を表す画像データの意味が含まれている。本明細書における画像という用語は、画像自身、及び画像データの少なくともいずれかを意味している。
 記憶装置18は、データを非一時的に記憶するストレージ等を適用可能である。記憶装置18は、図示しないサーバ装置を用いて管理されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。図1に示した内視鏡システム9、及び画像処理装置14を含むシステムは、内視鏡を備えた内視鏡装置と、画像処理装置と、を備えた内視鏡システムの一例に相当する。
 [第1実施形態に係る画像処理装置の構成]
 次に、第1実施形態に係る画像処理装置について説明する。
 〔概要〕
 本実施形態に係る画像処理装置方法は、内視鏡10の動きに合わせて仮想内視鏡画像をモニタ装置16に表示させる。すなわち、画像処理装置14は、内視鏡画像38と仮想内視鏡画像との対応付けを行い、内視鏡画像38と対応付けがされた仮想内視鏡画像をモニタ装置16に表示させる。以下に、画像処理装置について詳細に説明する。
 〔ハードウェア構成〕
 図2は画像処理装置のハードウェアの構成例を示すブロック図である。画像処理装置14は、制御部1、メモリ2、ハードディスク装置3、通信インターフェース4、入力コントローラ5、及びディスプレイコントローラ6を備える。
 〈制御部〉
 制御部1は、画像処理装置14の全体制御部、各種演算部、及び記憶制御部として機能する。制御部1は、メモリ2に具備されるROM(read only memory)に記憶されているプログラムを実行する。制御部1は、通信インターフェース4を介して、外部の記憶装置からプログラムをダウンロードし、ダウンロードしたプログラムを実行してもよい。外部の記憶装置は、ネットワーク17を介して画像処理装置14と通信可能に接続されていてもよい。
 制御部1は、メモリ2に具備されるRAM(random access memory)を演算領域とし、各種プログラムと協働して、各種処理を実行する。これにより、画像処理装置14の各種機能が実現される。
 制御部1は、ハードディスク装置3からのデータの読み出し、及びハードディスク装置3へのデータの書き込みを制御する。制御部1は、1つ又は2つ以上のプロセッサ(processor)が含まれてもよい。
 プロセッサの一例として、FPGA(Field Programmable Gate Array)、及びPLD
(Programmable Logic Device)等が挙げられる。FPGA、及びPLDは、製造後に回路構成の変更を可能とする。
 プロセッサの他の例として、ASIC(Application Specific Integrated Circuit)
が挙げられる。ASICは、特定の処理を実行させるために専用に設計された回路構成を備える。
 制御部1は、同じ種類の2以上のプロセッサを適用可能である。例えば、制御部1は2つ以上のFPGAを用いてもよいし、2つのPLDを用いてもよい。制御部1は、異なる種類の2つ以上プロセッサを適用してもよい。例えば、制御部1は1つ以上のFPGAと1つ以上のASICとを適用してもよい。
 複数の制御部を備える場合、複数の制御部は1つのプロセッサを用いて構成してもよい。複数の制御部を1つのプロセッサで構成する一例として、1つ以上のCPU(Central Processing Unit)とソフトウェアとの組合せを用いて1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。CPUに代わり、又はCPUと併用して、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)を適用してもよい。なお、ここでいうソフトウェアはプログラムと同義である。複数の制御部が1つのプロセッサを用いて構成される代表例として、クライアント装置、及びサーバ装置等のコンピュータが挙げられる。
 複数の制御部を1つのプロセッサで構成する他の例として、複数の制御部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態が挙げられる。複数の制御部を含むシステム全体の機能を1つのICチップで実現するプロセッサの代表例として、SoC(System On Chip)が挙げられる。なお、ICは、Integrated Circuitの省略語である。
 このように、制御部1は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。
 〈メモリ〉
 メモリ2は、図示しないROM、及び図示しないRAMを備える。ROMは、画像処理装置14において実行される各種プログラムを記憶する。ROMは、各種プログラムの実行に用いられるパラメータ、及びファイル等を記憶する。RAMは、データの一時記憶領域、及び制御部1のワーク領域等として機能する。
 〈ハードディスク装置〉
 ハードディスク装置3は、各種データを非一時的に記憶する。具体的には、ハードディスク装置3は、内視鏡10の観察画像、及び図1に示した記憶装置18等の外部の記憶装置から取得した医用画像等を記憶する。ハードディスク装置3は、画像処理装置14の外部に外付けされてもよい。ハードディスク装置3に代わり、又はこれと併用して、大容量の半導体メモリ装置を適用してもよい。
 〈通信インターフェース〉
 通信インターフェース4は、図1に示した記憶装置18の外部の装置との間のデータ通信を行う。図2に示したIFは、interfaceの省略語である。
 〈入力コントローラ〉
 入力コントローラ5は、キーボード、及びマウス等の入力装置15から送信される信号を受信し、画像処理装置14に適用される形式の信号に変換するインターフェースである。
 〈ディスプレイコントローラ〉
 ディスプレイコントローラ6は、画像処理装置14において生成された画像を表す信号を、モニタ装置16を用いて表示させる映像信号に変換するインターフェースである。ディスプレイコントローラ6は、画像を表す映像信号をモニタ装置16へ送信する。
 なお、図2に示した画像処理装置14のハードウェア構成は一例であり、適宜、追加、削除、及び変更が可能である。
 〔第1実施形態に係る画像処理装置の機能〕
 図3は第1実施形態に係る画像処理装置の機能を示す機能ブロック図である。図3に示した画像処理装置14は、全体制御部40、画像取得部41、情報取得部42、画像解析処理部43、表示制御部44、及び記憶部47を備える。
 全体制御部40、画像取得部41、情報取得部42、画像解析処理部43、表示制御部44、及び記憶部47は、通信信号線68を介して相互に通信可能に接続される。以下、各部について詳細に説明する。
 〈全体制御部〉
 全体制御部40は、画像処理装置14の制御プログラムの実行に基づき、画像取得部41、情報取得部42、画像解析処理部43、及び表示制御部44を統括的に制御する。
 〈画像取得部〉
 画像取得部41は、3次元画像取得部41a、及び内視鏡画像取得部41bを備える。以下、3次元画像取得部41a、及び内視鏡画像取得部41bについて詳細に説明する。
 《3次元画像取得部》
 3次元画像取得部41aは、CT装置等のモダリティを用いて生成された3次元画像19であり、例えば、図1に示した記憶装置18等に記憶されている3次元画像19を取得する。本実施形態では、3次元画像19として、内視鏡検査の対象者の大腸のCT画像を取得する例について説明する。3次元画像取得部41aは、被検体の3次元画像を入力する3次元画像入力部の一例に相当する。
 《内視鏡画像取得部》
 内視鏡画像取得部41bは、図1に示したプロセッサ装置12を用いて生成された内視鏡画像38を取得する。内視鏡画像取得部41bは、外部の記憶装置に記憶されている内視鏡装置を用いて撮像された内視鏡画像を取得してもよい。内視鏡画像取得部41bは、メモリーカード等の各種情報記憶媒体を介して、上記した内視鏡画像38を取得してもよい。
 内視鏡画像取得部41bは、動画像38aを取得する。内視鏡画像取得部41bは、動画像38aとして、時系列のフレーム画像38bを取得してもよい。内視鏡画像取得部41bは、静止画像38cを取得してもよい。動画像38aの撮像途中に静止画像38cの撮像操作が行われた場合、内視鏡画像取得部41bは、図1に示したプロセッサ装置12から静止画像38cを取得する。内視鏡画像取得部41bは、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部の一例に相当する。内視鏡画像38、動画像38a、及び静止画像38cは実内視鏡画像の一例に相当する。
 〈情報取得部〉
 情報取得部42は、画像処理装置14の処理、及び演算等に用いられる各種情報を取得する。各種情報の例として、内視鏡10の視野方向の情報が挙げられる。内視鏡10の視野方向の情報の例として、内視鏡10に視野方向を検出するセンサの出力信号が挙げられる。情報取得部は内視鏡の視野情報を取得する視野情報取得部の一例に相当する。
 各種情報の他の例として、3次元画像19を取得する際の3次元画像19を特定する情報が挙げられる。3次元画像19を特定する情報は、内視鏡検査の対象者の個人名、個人番号、3次元画像19の取得日、及び3次元画像19の取得場所等が挙げられる。
 〈画像解析処理部〉
 画像解析処理部43は、深層学習アルゴリズム45に基づく深層学習を用いて、内視鏡画像取得部41bを用いて取得した内視鏡画像38の解析処理を実行する。内視鏡画像38の解析処理の詳細は後述する。
 深層学習アルゴリズム45は、公知のコンボリューションニューラルネットワークの手法と、全結合層と、出力層とを含むアルゴリズムである。深層学習はディープラーニングと呼ばれることがある。
 コンボリューションニューラルネットワークは、畳み込み層、及びプーリング層の繰り返し処理である。コンボリューションニューラルネットワークは、畳み込みニューラルネットワークと呼ばれる場合がある。なお、深層学習を用いた画像解析処理は公知技術であるので、具体的な説明は省略する。深層学習は機械学習の一例に相当する。
 〈表示制御部〉
 表示制御部44は、再生制御部44a、及び情報表示制御部44bを備える。以下、再生制御部44a、及び情報表示制御部44bについて詳細に説明する。
 《再生制御部》
 再生制御部44aは、モニタ装置16を用いて内視鏡画像38、及び仮想内視鏡画像を再生する際に、画像表示を制御するディスプレイドライバーとして機能する。表示制御部44は、モニタ装置16を用いて、動画像38aの再生中に、動画像38aの任意のフレーム画像38bに対応付けされた仮想内視鏡画像を表示させることが可能である。
 《情報表示制御部》
 情報表示制御部44bは、モニタ装置16を用いて各種情報を表示させる。例えば、情報表示制御部44bは、モニタ装置16を用いて表示させる内視鏡画像38、及び仮想内視鏡画像に文字情報等を重畳表示させることが可能である。文字情報以外の各種情報の例として、記号表示、及び強調表示等が挙げられる。文字情報の適用例として、警告表示が挙げられる。
 〈記憶部〉
 記憶部47は、画像記憶部48、及びプログラム記憶部49を備える。以下、画像記憶部48、及びプログラム記憶部49について詳細に説明する。
 《画像記憶部》
 画像記憶部48は、3次元画像取得部41aを用いて取得した3次元画像19を記憶する。画像記憶部48に記憶された3次元画像19は、全体制御部40の制御の下、画像解析処理部43へ読み出される。
 画像記憶部48は、3次元画像19から生成された仮想内視鏡画像を記憶する。画像記憶部48に記憶された仮想内視鏡画像は、全体制御部40の制御の下、表示制御部44を介して表示制御信号としてモニタ装置16へ送信される。
 画像記憶部48は、内視鏡画像取得部41bを用いて取得した内視鏡画像38を記憶する。画像記憶部48に記憶された画像は、全体制御部40の制御の下、画像解析処理部43へ読み出される。
 画像記憶部48に記憶された内視鏡画像38は、全体制御部40の制御の下、表示制御部44を介して表示制御信号としてモニタ装置16へ送信される。
 《プログラム記憶部》
 プログラム記憶部49は、画像処理装置14を動作させる各種プログラムを記憶する。プログラム記憶部49に記憶された各種プログラムは、全体制御部40の制御の下、各部へ読み出される。
 〔画像解析処理部の構成例〕
 図4は図3に示した画像解析処理部の機能を示す機能ブロック図である。画像解析処理部43は、第1特徴点抽出部51、第2特徴点抽出部52、視点情報取得部53、及び第1仮想内視鏡画像生成部54を備える。以下、上記した各部について詳細に説明する。
 〈第1特徴点抽出部〉
 第1特徴点抽出部51は、3次元画像19から特徴点を抽出する。特徴点の例として、ポリープ等の病変が挙げられる。被検体が大腸の場合、特徴点の例として、ひだ、各結腸間の変化点、血管が挙げられる。ここでいう血管は、血管の走行パターンが含まれる。
 第1特徴点抽出部51は、3次元画像19から抽出された特徴点の情報を視点情報取得部53へ送信する。3次元画像19から特徴点を抽出する際に、3次元画像19からボリュームデータを生成し、ボリュームデータから特徴点を抽出してもよい。
 なお、3次元画像を表すデータであるボリュームデータは、3次元画像の概念に含まれる。3次元画像19から特徴点を抽出する手法は公知技術を適用可能である。ここでは、3次元画像19から特徴点を抽出する手法の詳細な説明は省略する。
 〈第2特徴点抽出部〉
 第2特徴点抽出部52は、内視鏡画像38から特徴点を抽出する。内視鏡画像38から抽出される特徴点は3次元画像19と同様であり、ここでの説明は省略する。第2特徴点抽出部52は、内視鏡画像38から抽出された特徴点の情報を視点情報取得部53へ送信する。
 〈視点情報取得部〉
 視点情報取得部53は、3次元画像19の特徴点、及び内視鏡画像38の特徴点に基づいて、内視鏡画像38と対応付けされる仮想内視鏡画像39を生成する際の視点情報を取得する。視点情報取得部53は、取得した視点情報を第1仮想内視鏡画像生成部54へ送信する。ここでいう視点情報の取得は、視点情報の生成が含まれる。
 3次元画像19と仮想内視鏡画像との対応付けは、内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39を、内視鏡画像38と紐付けする処理である。なお、ここでいう紐付けとは関連付けと同義である。
 視点情報は、内視鏡画像38を撮像した際の内視鏡10の位置に相当するパス上の位置の情報、及び内視鏡画像38を撮像した際の内視鏡10の向きに相当するパス上の向きの情報が含まれる。
 〈第1仮想内視鏡画像生成部〉
 第1仮想内視鏡画像生成部54は、視点情報取得部53を用いて取得した視点情報に基づいて、仮想内視鏡画像39を生成する。仮想内視鏡画像39は、大腸等の体腔の内壁を表す2次元画像である。換言すると、仮想内視鏡画像39は、規定の視点における規定の視点方向について、仮想的な撮像装置を用いて撮像して得られた2次元画像である。仮想内視鏡画像39は第1仮想内視鏡画像の一例に相当する。
 具体的には、規定の視点、及び規定の視線方向に基づく視線ベクトルを中心として放射線状に伸ばした複数の光線方向上のボリュームデータを、規定の投影面に投影した中心投影による画像を仮想内視鏡画像として生成し得る。中心投影の具体的な方法の例として、公知のボリュームレンダリング手法等が挙げられる。
 仮想内視鏡画像の視点は、ボリュームデータに基づいて抽出された被検体の中心線上の点を設定し得る。視線方向は、被検体の中心線の進行方向を初期設定とし、内視鏡10の姿勢に応じて設定を変更し得る。ここでいう内視鏡10の姿勢は、内視鏡10の光軸方向と同義である。
 第1仮想内視鏡画像生成部54を用いて生成された仮想内視鏡画像39は、図3に示した表示制御部44の制御の下、モニタ装置16へ表示させることが可能である。仮想内視鏡画像39は、各視点における仮想内視鏡画像である視点画像39bの画像群39aである。なお、視点画像は説明の都合上の名称であり、視点画像は各視点における仮想内視鏡画像を表す。視点画像は仮想内視鏡画像と読み替えることが可能である。
 画像群39aは動画像38aに相当する。視点画像39bは動画像38aの各フレーム画像38bに相当する。任意の視点における静止画像相当画像39cは静止画像38cに相当する。
 第1仮想内視鏡画像生成部54は、動画像38aのフレーム画像38bごとに視点画像39bを生成してもよいし。複数のフレーム画像38bおきに視点画像39bを生成してもよい。また、第1仮想内視鏡画像生成部54は、内視鏡10が規定の移動を行った場合に視点画像39bを生成してもよい。複数のフレーム画像38bの数は規定フレーム数の一例に相当する。
 なお、以下の説明において、仮想内視鏡画像39という用語は、視点画像39bの画像群39a、各視点画像39b、及び静止画像相当画像39cの総称を表す場合がある。
 〔画像解析処理の具体例〕
 次に、第1実施形態に係る画像解析処理の具体例について説明する。以下に、大腸を被検体とする内視鏡検査を行い、CT装置を用いて予め取得されている大腸のCT画像から仮想内視鏡画像を生成し、内視鏡画像と仮想内視鏡画像との対応付けを行う例について説明する。
 〈3次元画像の特徴点抽出〉
 図5は大腸の3次元モデルを示す3次元画像の説明図である。図5に示した3次元モデル19aは、例えば、複数のCT画像から生成されたボリュームデータに対応している。図5に示したパス19bは、内視鏡検査における内視鏡10の移動経路に対応する3次元モデル19a上の仮想的な撮像装置の移動経路である。
 始点19cは、パス19bの開始位置である。図5に示す例では、始点19cは盲腸を適用している。終点19dはパス19bの終了位置である。図5に示す例では、終点19dは、肛門を適応している。
 パス19bは1つ以上の視点19eが指定可能である。パス19bに図示した矢印は、内視鏡10に相当する仮想的な撮像装置の移動方向である。図5には、仮想的な撮像装置を移動方向と反対方向に向けて撮像する場合を図示した。
 図6は3次元画像の特徴点抽出の一例を示す模式図である。説明の都合上、図6には3次元画像19から擬似的な仮想内視鏡画像19fを生成し、擬似的な仮想内視鏡画像19fから特徴点を抽出する例を示す。但し、擬似的な仮想内視鏡画像19fを生成せずに、ボリュームデータ等から特徴点の抽出が可能である。なお、擬似的な仮想内視鏡画像19fは、第2実施形態において説明する第2仮想内視鏡画像39fに相当する。
 擬似的な仮想内視鏡画像19fは、特徴点70としてポリープが抽出されている。図6には、2枚の連続するフレーム画像38bに対応する、2枚の擬似的な仮想内視鏡画像19fを図示した。2枚の擬似的な仮想内視鏡画像19fはいずれも、特徴点70としてポリープが抽出されている。一方、図6に示した2枚の擬似的な仮想内視鏡画像19fは、異なる視点19eにおいて生成されたものである。図6に示した2枚の擬似的な仮想内視鏡画像19fは撮像方向が異なる場合があり得る。
 図7は3次元視鏡画像の特徴点抽出の他の例を示す模式図である。図7に示した3枚の擬似的な仮想内視鏡画像19fは、特徴点70aとしてひだが抽出されている。図7に示した3枚の擬似的な仮想内視鏡画像19fはいずれも、特徴点70aとしてひだが抽出されている。
 一方、図7に示した3枚の擬似的な仮想内視鏡画像19fは、異なる視点19eにおいて生成されたものである。図7に示した3枚の擬似的な仮想内視鏡画像19fは撮像方向が異なる場合があり得る。
 大腸の特徴点の他の例として、盲腸入口、上行結腸と横行結腸との間の湾曲部、横行結腸と下行結腸との間の湾曲部、及び下行結腸とS字結腸との間の湾曲部等が挙げられる。これらの部位はいずれも特徴的な湾曲形状を有している。
 ここで、特徴点という用語は、特徴を有する一点、又は1画素に限定されない。特徴点は、2画素以上の画素から構成し得る。特徴点という用語は、特徴領域、特徴部分、及び特徴位置等の用語と置き替えてもよい。以下に説明する内視鏡画像の特徴点についても同様である。
 〈内視鏡画像の特徴点抽出〉
 図8は内視鏡画像の特徴点抽出の一例を示す模式図である。図8には、特徴点80としてポリープが抽出されたフレーム画像38bを図示する。図示は省略するが、図8に示したフレーム画像38bの前後のフレーム画像38bにも、特徴点80としてポリープが抽出される。一方、図8に示したフレーム画像38bと、フレーム画像38bの前後のフレーム画像38bとの内視鏡10の位置は相違する。また、それぞれの撮像方向が異なる場合もあり得る。
 図9は内視鏡画像の特徴点抽出の他の例を示す模式図である。図9に示したフレーム画像38bは、特徴点80aとしてひだが抽出されている。図9に示したフレーム画像38bの前後のフレーム画像38bにも、特徴点80aとしてひだが抽出される。
 一方、図9に示したフレーム画像38bと、フレーム画像38bの前後のフレーム画像38bとの内視鏡10の位置は相違する。また、それぞれの撮像方向が異なる場合もあり得る。なお内視鏡画像38における大腸の特徴点は、3次元画像19と同様であり、ここでの説明は省略する。
 〈内視鏡画像と仮想内視鏡画像との対応付け〉
 内視鏡画像38を撮像した内視鏡10の正確な位置、及び内視鏡10の正確な撮像方向が把握できれば、内視鏡画像38と対応付けされる仮想内視鏡画像39の視点位置、及び視点方向を特定することが可能である。しかし、内視鏡10の正確な位置、及び内視鏡10の正確な姿勢を把握することは困難である。
 本実施形態に示す画像処理装置14は、内視鏡画像38の特徴点の情報、及び3次元画像19の特徴点の情報を用いて、内視鏡画像38と対応付けされる仮想内視鏡画像39を取得する視点位置、及び視点方向を特定する。また、画像処理装置14は、内視鏡画像38と仮想内視鏡画像39とを対応付けする。
 図10は内視鏡画像と仮想内視鏡画像との対応付けの一例を示す模式図である。図10には、ポリープを特徴点80とする内視鏡画像38のフレーム画像38bに、特徴点80と一致する、ポリープを特徴点70とする仮想内視鏡画像39の視点画像39bが対応付けされた場合を図示した。
 図10に示した仮想内視鏡画像39は、3次元画像19、及び内視鏡画像38を用いた画像解析処理から導出された視点位置、及び視点方向に基づいて生成され、内視鏡画像38と対応付けがされている。
 図11は内視鏡画像と仮想内視鏡画像との対応付けの他の例を示す模式図である。図11には、内視鏡画像38と仮想内視鏡画像39との一致する特徴点として、ひだを適用した例を示す。
 図11に示した仮想内視鏡画像39は、3次元画像19、及び内視鏡画像38を用いた画像解析処理から導出された視点位置、及び視点方向に基づいて生成され、内視鏡画像38と対応付けがされている。
 〈視点情報の取得の具体例〉
 図12は視点情報取得の一例の説明図である。内視鏡画像38から1つ以上の特徴点を有するフレーム画像38bを特定する。図12に示したフレーム画像38bは4つの特徴点である第1特徴点100a、第2特徴点100b、第3特徴点100c、及び第4特徴点100dを有している。
 次に、フレーム画像38bの特徴点に対応する特徴点を有する3次元画像19の領域を特定する。図12に示す例では、3次元画像19の領域として擬似的な仮想内視鏡画像19fを適用する。
 図12に示した擬似的な仮想内視鏡画像19fは、フレーム画像38bの4つの特徴点に対応する第1特徴点110a、第2特徴点110b、第3特徴点110c、及び第4特徴点110dを有している。
 すなわち、フレーム画像38bの第1特徴点100aと擬似的な仮想内視鏡画像19fの第1特徴点110aとが対応付けされる。同様に、フレーム画像38bの第2特徴点100bと擬似的な仮想内視鏡画像19fの第2特徴点110bとが対応付けされる。
 更に、フレーム画像38bの第3特徴点100cと擬似的な仮想内視鏡画像19fの第3特徴点110cとが対応付けされ、且つフレーム画像38bの第4特徴点100dと擬似的な仮想内視鏡画像19fの第4特徴点110dとが対応付けされる。
 すなわち、フレーム画像38bの全ての特徴点100に対応付けされる、特徴点110を有する擬似的な仮想内視鏡画像19fが特定される。なお、特徴点100は、第1特徴点100a、第2特徴点100b、第3特徴点100c、及び第4特徴点100dの総称である。特徴点110は、第1特徴点110a、第2特徴点110b、第3特徴点110c、及び第4特徴点110dの総称である。
 次に、フレーム画像38bの特徴量を導出する。また、擬似的な仮想内視鏡画像19fの特徴量を導出する。フレーム画像38bの特徴量の導出は、公知の技術を適用可能である。例えば、フレーム画像38bの全ての特徴点100の画素値を用いてフレーム画像38bの特徴量を導出し得る。擬似的な仮想内視鏡画像19fの特徴量の導出についても同様である。
 擬似的な仮想内視鏡画像19fの特徴量が、フレーム画像38bの特徴量と相違する場合、フレーム画像38bの特徴量と同一の特徴量を有する仮想内視鏡画像39dを生成可能な視点情報として、視点位置P、及び視点方向Dを特定する。
 すなわち、内視鏡画像38を観察する際に、内視鏡画像38の表示画面に仮想内視鏡画像39を表示させることが可能である。しかし、内視鏡10の位置、及び内視鏡10の撮像方向を正確に把握することは難しく、内視鏡画像38と仮想内視鏡画像39とを同期させて表示することが困難である。実際に表示される仮想内視鏡画像39の視点位置は、表示される内視鏡画像38の撮像位置との間にずれが生じる。視点方向についても同様である。
 そこで、内視鏡画像38の特徴量、及び3次元画像19の特徴量を用いて、内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39を、生成可能な視点位置、及び視点方向を特定する。特定された視点位置P、及び視点方向Dに基づいて生成された仮想内視鏡画像39は、内視鏡画像38と対応付けされる。
 換言すると、内視鏡画像38の特徴点、及び3次元画像19の特徴点をそれぞれスコア化し、それぞれのスコアが一致する場合を、内視鏡画像38の特徴点と3次元画像19の特徴点が一致する場合と規定する。
 内視鏡画像38、及び3次元画像19に複数の特徴点が存在する場合は、すべての特徴点が一致する場合を、内視鏡画像38の特徴点と3次元画像19の特徴点が一致する場合と規定する。
 3次元画像から視点位置、及び視点方向を特定する手法は公知の手法を適用可能である。3次元画像から視点位置、及び視点方向を特定する手法の一例としてSFM(Structure from Motion)等の手法が挙げられる。
 〈仮想内視鏡画像の表示例〉
 図13は対応付け後の仮想内視鏡画像の表示例を示す模式図である。図13には、図1に示したモニタ装置16を用いて、内視鏡画像38及び内視鏡画像38と対応付けされた仮想内視鏡画像39を同一の画面に表示させる例を示す。
 符号16aは、特徴点80としてポリープが抽出された内視鏡画像38が特定された場合の表示例を示す。この場合、内視鏡画像38の特徴点80と一致する特徴点70を有する仮想内視鏡画像39が、特徴点80を有する内視鏡画像38と対応付けされる。そして、モニタ装置16には、特徴点80を有する内視鏡画像38と特徴点70を有する仮想内視鏡画像39とが同一の画面に表示される。
 更に、内視鏡画像38の観察が進み、特徴点80aとしてひだが抽出された内視鏡画像38が特定された場合の表示例を、符号16bを付して図示する。この場合、内視鏡画像38の特徴点80aと一致する特徴点70aを有する仮想内視鏡画像39が、特徴点80aを有する内視鏡画像38と対応付けされる。そして、モニタ装置16には、特徴点80aを有する内視鏡画像38と、特徴点70aを有する仮想内視鏡画像39とが同一の画面に表示される。
 更に、内視鏡画像38の観察が進み、特徴点が抽出された内視鏡画像38が特定される度に、一致する特徴点を有する仮想内視鏡画像39が、内視鏡画像38に対応付けされる。また、モニタ装置16の同一画面に、対応付けされた内視鏡画像38と仮想内視鏡画像39が表示される。
 モニタ装置16を用いて仮想内視鏡画像39を表示させる際に、内視鏡画像38、及び仮想内視鏡画像39の少なくともいずれか一方を表示画面内において回転させて、表示画面内における内視鏡画像38と仮想内視鏡画像39との向きを合わせることが好ましい。
 モニタ装置16は、仮想内視鏡画像39を常に表示する必要はない。例えば、新たに対応付けがされるまでの期間は、最後に対応付けされた仮想内視鏡画像39の表示を継続してもよいし、仮想内視鏡画像39を一定期間表示した後に、内視鏡画像38の全画面表示に切り替えてもよい。
 なお、内視鏡画像38のフレーム画像38bごとに仮想内視鏡画像39が対応付けされる場合は、内視鏡画像38と仮想内視鏡画像39との同期表示が可能である。この場合は、対応付け処理の処理期間に相当する遅延期間を内視鏡画像38の表示に適用してもよい。
 [第1実施形態に係る画像処理方法の手順]
 〔画像処理方法の全体の手順〕
 図14は第1実施形態に係る画像処理方法の手順の流れを示すフローチャートである。3次元画像取得工程S10では、図3に示した画像解析処理部43は、3次元画像取得部41aを用いて3次元画像を取得する。
 3次元画像として、ボリュームデータを取得してもよいし、図6、及び図7に示した擬似的な仮想内視鏡画像19fを取得してもよい。3次元画像取得工程S10の後に、内視鏡画像取得工程S12へ進む。3次元画像取得工程S10は3次元画像入力工程の一例に相当する。
 内視鏡画像取得工程S12では、画像解析処理部43は内視鏡画像取得部41bを用いて内視鏡画像38を取得する。なお、3次元画像取得工程S10と内視鏡画像取得工程S12とを並行して実行してもよい。内視鏡画像取得工程S12は実内視鏡画像入力工程の一例に相当する。
 内視鏡画像取得工程S12の後に、特徴点抽出工程S14へ進む。特徴点抽出工程S14では、画像解析処理部43は時系列の動画像38aから規定の特徴点が抽出されたか否かを判定する。特徴点抽出工程S14において規定の特徴点が抽出されない場合はNo判定となる。No判定の場合、画像解析処理部43は特徴点抽出工程S14を継続する。
 一方、特徴点抽出工程S14において規定の特徴点が抽出された場合はYes判定となる。Yes判定の場合は視点情報取得工程S16へ進む。視点情報取得工程S16では、画像解析処理部43は規定の特徴点が抽出された内視鏡画像38と一致する特徴点を有する仮想内視鏡画像39を生成する際に用いられる視点情報を取得する。なお、視点情報取得工程S16の詳細は後述する。
 視点情報取得工程S16の後に仮想内視鏡画像生成工程S18へ進む。仮想内視鏡画像生成工程S18では、図4に示した第1仮想内視鏡画像生成部54は、視点情報取得工程S16において取得した視点情報を用いて、内視鏡画像38と対応付けされる仮想内視鏡画像39を生成する。また、仮想内視鏡画像生成工程S18では、画像解析処理部43は、第1仮想内視鏡画像生成部54を用いて生成された仮想内視鏡画像39を、内視鏡画像38に対応付けする。
 すなわち、仮想内視鏡画像生成工程S18は、それぞれの特徴点が一致する内視鏡画像38と仮想内視鏡画像39とを対応付けする対応付け工程として機能している。仮想内視鏡画像生成工程S18の後に、対応付けがされた内視鏡画像38と仮想内視鏡画像39とを記憶する記憶工程が実行されてもよい。
 仮想内視鏡画像生成工程S18の後に表示工程S20へ進む。表示工程S20では、画像解析処理部43は、再生制御部44aを介してモニタ装置16へ表示制御信号を送信する。モニタ装置16は、内視鏡画像38、及び内視鏡画像38と対応付けされた仮想内視鏡画像39が同一の画面に表示される。
 表示工程S20の後に検査終了判定工程S22へ進む。検査終了判定工程S22では、画像解析処理部43は、内視鏡検査が終了したか否かを判定する。内視鏡画像38を取得したタイミングから一定期間が経過した場合に、内視鏡検査が終了したと判定してもよい。
 検査終了判定工程S22において、内視鏡検査が終了していないと判定された場合はNo判定となる。No判定の場合は内視鏡画像取得工程S12へ進み、画像解析処理部43は、検査終了判定工程S22においてYes判定となるまで、内視鏡画像取得工程S12から検査終了判定工程S22の各工程を繰り返し実行する。
 一方、検査終了判定工程S22において、内視鏡検査が終了したと判定された場合はYes判定となる。Yes判定の場合、画像解析処理部43は画像処理方法を終了する。
 〔視点情報取得工程の手順〕
 図15は図14に示した視点情報取得工程の手順の流れを示すフローチャートである。第1特徴点抽出工程S40では、図4に示した第1特徴点抽出部51は3次元画像19から特徴点を抽出する。第1特徴点抽出工程S40は、予め3次元画像19に含まれる特徴点を抽出しておき、抽出した特徴点を記憶しておく態様も可能である。
 第2特徴点抽出工程S42では、第2特徴点抽出部52は、内視鏡画像38から特徴点を抽出する。第2特徴点抽出工程S42は、図14に示した内視鏡画像取得工程S12と並行して実行してもよい。
 第2特徴点抽出工程S42において内視鏡画像38の特徴点が抽出された場合、特徴点対応付け工程S44が実行される。特徴点対応付け工程S44では、視点情報取得部53は、内視鏡画像38の特徴点と3次元画像19の特徴点との対応付けを行う。図12に内視鏡画像38の特徴点と3次元画像19の特徴点との対応付けの例を図示した。
 特徴点対応付け工程S44の後に特徴量導出工程S46へ進む。特徴量導出工程S46では、視点情報取得部53は内視鏡画像38の特徴量、及び仮想内視鏡画像39の特徴量を導出する。特徴量導出工程S46の後に探索工程S48へ進む。探索工程S48では、視点情報取得部53は、内視鏡画像38の特徴量と同一の特徴量を有する3次元画像19の領域を、3次元画像から探索する。
 探索工程S48の後に視点情報導出工程S50へ進む。視点情報導出工程S50では、視点情報取得部53は、内視鏡画像38の特徴量と同一の特徴量を有する3次元画像19の領域の視点情報を導出する。導出された視点情報を記憶する視点情報記憶工程を実行してもよい。視点情報導出工程S50の後に、図14に示した画像処理方法の仮想内視鏡画像生成工程S18へ進む。
 [内視鏡画像と仮想内視鏡画像との対応付けのバリエーション]
 〔ひだの数を用いる具体例〕
 図16は内視鏡画像と仮想内視鏡画像との対応付けのバリエーションを示す模式図である。図16に示す例は、ひだの数を用いて内視鏡画像と仮想内視鏡画像とを対応付ける例である。本例は大腸を被検体とする場合に、特に有効である。
 図16に示したフレーム画像38bは、特徴点80aとしてひだが抽出されている。フレーム画像38bのひだの番号をnとする。ひだの番号とは、規定のひだを1番目のひだとする連番である。3次元画像19について、内視鏡画像38と同様にひだの番号を付与し、n番目のひだを有する3次元画像19の領域を特定する。n番目のひだを有する3次元画像19の領域から視点情報を導出し、導出した視点情報を用いて生成される仮想内視鏡画像39を内視鏡画像38と対応付けし得る。
 図16には、3次元画像19の領域として擬似的な仮想内視鏡画像19fを適用した例を示す。図16に示した3枚の擬似的な仮想内視鏡画像19fのうち、n番目のひだを有する擬似的な仮想内視鏡画像19fから視点情報を導出し得る。
 〔内視鏡の移動ベクトルを用いる具体例〕
 仮想内視鏡画像39と対応付けがされた内視鏡画像38の内視鏡10の位置、及び内視鏡10の撮像方向を起点とし、内視鏡10の移動ベクトルに基づいて、次の内視鏡画像38の位置、及び内視鏡10の撮像方向に対応する視点位置、及び視点方向を導出してもよい。内視鏡10の撮像方向は、内視鏡の視野方向の一例に相当する。
 内視鏡10の移動ベクトルは、複数のフレーム画像38bを用いて導出し得る。内視鏡10の移動ベクトルを導出する際に使用する複数のフレーム画像38bは、連続するフレーム画像38bであることが好ましい。
 〔対応付けの間隔〕
 内視鏡画像38と仮想内視鏡画像39との対応付けがされた後に新たな対応付けを行う場合、前回の対応付けが行われた内視鏡10の位置から一定範囲内において、新たな対応付けを行う。一定範囲は、内視鏡10の移動距離、及び移動期間の少なくともいずれか一方に基づき規定し得る。例えば、内視鏡10が規定の移動を行った場合に新たな対応付けを実行し得る。
 一定範囲は、内視鏡画像38のフレーム数に基づき規定してもよい。例えば、毎フレームに新たな対応付け行ってもよいし、複数のフレームおきに新たな対応付け行ってもよい。
 〔対応付けの更新〕
 図17は対応付けの更新の説明図である。図17に符号16a、及び符号16bを付して図示したように、内視鏡画像38の観察の進行に従い、内視鏡画像38と対応付けされた仮想内視鏡画像39が更新される。
 例えば、符号16bを付した状態において、内視鏡画像38が新たな仮想内視鏡画像39と対応付けされた場合に、内視鏡画像38と対応付けされる仮想内視鏡画像39が更新される。符号16cは、内視鏡画像38が仮想内視鏡画像39eと新たに対応付けされた状態を示す。
 仮想内視鏡画像39eの特徴点70bは、内視鏡画像38の特徴点80aと一致する。モニタ装置16には、特徴点70aを有する仮想内視鏡画像39に代わり、特徴点70bを有する仮想内視鏡画像39eが表示される。
 〔仮想内視鏡画像表示のバリエーション〕
 動画像38aとして表示される内視鏡画像38に対して、内視鏡画像38と対応付けされた仮想内視鏡画像39を順に表示させることが可能である。内視鏡画像38のフレーム画像38bごとに仮想内視鏡画像39が生成される場合、内視鏡画像38と仮想内視鏡画像39とを同期表示させることが可能である。
 内視鏡画像38の複数のフレーム画像38bおきに仮想内視鏡画像39が生成される場合、既に表示されている仮想内視鏡画像39から次に表示すべき仮想内視鏡画像39に急激に切り替えてもよい。急激にとは、中間の表示状態を経ずに両者を直接切り替えることを意味する。また、切り替えの中間状態として、モーフィング、及び早送り等の表示形態を適用してもよい。
 〔大腸ナビゲーション〕
 図18は大腸ナビゲーションの説明図である。大腸ナビゲーションは、例えば、大腸の3次元モデル19aに、内視鏡10の位置、及び内視鏡10の先端面27aが向く方向を表示させ、内視鏡検査の支援情報として使用される。
 ナビゲーションとして表示される、内視鏡10の位置、及び内視鏡10の先端面27aの向く方向は、内視鏡10の外部に備えられるセンサを用いて検出可能である。内視鏡10の先端面27aの向く方向は内視鏡10の撮像方向と一致する。
 内視鏡10の先端面27aの向く方向は内視鏡の視野方向の一例に相当する。大腸ナビゲーションは、内視鏡の移動支援情報の一例に相当する。
 センサの例として磁気センサが挙げられる。センサは、内視鏡10の内部に備えられてもよい。図18に示した四角錐19hは内視鏡10の先端が向く方向を示す。
 図18に示したパス19bのうち、細線を用いて図示したパス19bは、観察済みの領域におけるパス19bを示す。また、太線を用いて図示したパス19bは、未観察の領域におけるパス19bを示す。
 大腸ナビゲーションから内視鏡10の位置の情報、及び内視鏡10の先端面27aが向く方向の情報を取得して、内視鏡画像38と対応付けされる3次元画像19の視点位置、及び視点方向を特定してもよい。
 図18には大腸の3次元モデル19aを用いたナビゲーションを例示したが、パス19b、視点19e、及び内視鏡10の方向を表す記号等のみを表示させてもよい。ナビゲーションは、内視鏡画像38の表示画面に重畳表示が可能である。また、ナビゲーションに対応付けがされた視点19eを表す記号等を付与してもよい。
 以上説明した内視鏡画像38と仮想内視鏡画像39との対応付けのバリエーションは、適宜組み合わせることが可能である。例えば、一致する特徴点に基づく対応付けと上記したバリエーションを併用してもよいし、一致する特徴点に基づいて1つ以上の対応付けがされた場合、その後の対応付けに上記したバリエーションを適用してもよい。
 〔内視鏡画像、仮想内視鏡画像の記憶〕
 内視鏡画像38は、図3に示した画像記憶部48に記憶することが可能である。画像記憶部48は、内視鏡画像38を記憶する際に付加情報として視点情報等を付加してもよい。
 画像記憶部48は、内視鏡画像38を記憶する際に仮想内視鏡画像39と紐付けして記憶することが可能である。例えば、画像記憶部48は、内視鏡画像38を記憶する際に仮想内視鏡画像39が記憶されている記憶装置のID(identification)、及び記憶装置における記憶領域のアドレス等を付加してもよい。仮想内視鏡画像39を記憶する際も同様である。画像記憶部48は、実内視鏡画像を記憶する内視鏡画像記憶部の一例に相当する。
 [第1実施形態の作用効果]
 上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
 〔1〕
 内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が得られる3次元画像19における視点19eの位置の情報、及び視点19eにおける向きの情報を含む視点情報を取得する。これにより、内視鏡画像38と仮想内視鏡画像39とを正確に対応付けることが可能である。
 〔2〕
 視点情報に基づいて3次元画像19から仮想内視鏡画像39が生成される。これにより、内視鏡画像38と一致する特徴点を有する仮想内視鏡画像39を生成し得る。
 〔3〕
 内視鏡10の移動ベクトルから内視鏡10の撮像方向の情報を取得する。また、大腸ナビゲーションから内視鏡10の先端面27aの向く方向を取得する。これにより、内視鏡10の撮像方向、及び内視鏡10の先端面27aの向く方向の少なくともいずれかの取得が可能である。
 〔4〕
 新たに視点情報を取得した場合に視点情報を更新する。これにより、最新の視点情報を用いた仮想内視鏡画像39を内視鏡画像38に対応付けることが可能となる。
 〔5〕
 内視鏡画像38と仮想内視鏡画像39とを紐付けして記憶する。これにより、内視鏡画像38、及び仮想内視鏡画像39の少なくともいずれかを利用する際に、両者の連携を維持することが可能である。
 [第2実施形態に係る画像処理装置の構成]
 〔全体構成〕
 図19は第2実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図19に示した画像解析処理部43aは、図4に示した画像解析処理部43に対して、第2仮想内視鏡画像生成部55、及び内視鏡視野情報取得部56が追加されている。
 〔第2仮想内視鏡画像生成部〕
 第2仮想内視鏡画像生成部55は、3次元画像19から擬似的な仮想内視鏡画像である第2仮想内視鏡画像39fを生成する。第2仮想内視鏡画像生成部55は、内視鏡視野情報取得部56を用いて取得した内視鏡10の視野情報10aを用いて、第2仮想内視鏡画像39fを生成する。
 図19に示した第2仮想内視鏡画像39fは、図12に示した擬似的な仮想内視鏡画像19fに相当する。第1特徴点抽出部51は、第2仮想内視鏡画像生成部55を用いて生成された第2仮想内視鏡画像39fから特徴点を抽出する。
 〔内視鏡視野情報〕
 内視鏡視野情報取得部56は、内視鏡画像38から内視鏡10の視野情報10aを取得する。内視鏡10の視野情報10aは、内視鏡10の撮像方向の情報が含まれる。内視鏡視野情報取得部56は、内視鏡画像38の2つ以上のフレーム画像38bから、内視鏡10の移動ベクトルを導出し得る。
 内視鏡視野情報取得部56は、内視鏡10の移動ベクトルから内視鏡10の移動速度を導出し得る。内視鏡視野情報取得部56は、内視鏡10の移動速度から内視鏡10の撮像方向を導出し得る。内視鏡視野情報取得部56は、内視鏡10の移動速度、及びフレーム数から内視鏡10の移動距離を導出し得る。第2仮想内視鏡画像生成部55は、内視鏡視野情報を用いて3次元画像19から第2仮想内視鏡画像39fを生成する。
 内視鏡視野情報取得部56は、内視鏡の位置の情報を取得する位置情報取得部の一例に相当する。内視鏡10の移動距離は内視鏡の移動量の一例に相当する。内視鏡視野情報取得部56は内視鏡の視野方向の情報を取得する視野方向情報取得部の一例に相当する。
 内視鏡画像38の2つ以上のフレーム画像38bのうち任意のフレーム画像38bは一方の実内視鏡画像の一例に相当する。内視鏡画像38の2つ以上のフレーム画像38bのうち他の任意のフレーム画像38bは他方の実内視鏡画像の一例に相当する。
 図20は第2実施形態に係る画像処理方法を模式的に示す模式図である。第2仮想内視鏡画像39fは、記憶装置18から読み出された3次元画像19から生成される。第2仮想内視鏡画像39fは、内視鏡10の視野情報10aを用いて生成される。
 図19に示した画像解析処理部43aは、内視鏡10を用いて生成された内視鏡画像38から特徴点80aとしてひだを抽出する。画像解析処理部43aは、第2仮想内視鏡画像39fから特徴点70cとしてひだを抽出する。
 画像解析処理部43aは、第2仮想内視鏡画像39fの特徴点70cに基づき、内視鏡画像38の特徴点80aと一致する特徴点70aを有する仮想内視鏡画像39の視点位置P、及び視点方向Dを導出する。画像解析処理部43aは、内視鏡画像38と仮想内視鏡画像39とを対応付ける。
 第2実施形態に係る画像処理方法は、図14に示した内視鏡画像取得工程S12の後に、第2仮想内視鏡画像生成工程が追加される。第2仮想内視鏡画像生成工程は、図15に示した第2特徴点抽出工程S42の前に追加されてもよい。なお、第2仮想内視鏡画像39fは、非表示としてもよいし、内視鏡画像38の表示画面に表示してもよい。
 [第2実施形態の作用効果]
 上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
 〔1〕
 3次元画像19から第2仮想内視鏡画像39fを生成する。これにより、第2仮想内視鏡画像39fの特徴点、及び内視鏡画像38の特徴点に基づく視点情報の取得が可能である。
 〔2〕
 内視鏡10の視野情報10aを用いて第2仮想内視鏡画像39fを生成する。これにより、実際の内視鏡10の撮像方向、及び実際の内視鏡10の位置の少なくともいずれかが反映された第2仮想内視鏡画像39fを生成し得る。
 [第3実施形態に係る画像処理装置の構成]
 〔全体構成〕
 図21は第3実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図21に示した画像解析処理部43bは、図4に示した画像解析処理部43に対して、内視鏡画像修正部57が追加されている。
 〔内視鏡画像修正部〕
 内視鏡画像38は、各画素についてRGB各色成分の256階調の画素値を有するカラー画像である。ここで、RGBのRは赤を表す。RGBのGは緑を表す。RGBのBは青を表す。
 内視鏡画像修正部57は、内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去する処理を実行する。3次元画像19、及び第2仮想内視鏡画像39fは、色情報、及びテクスチャ情報を有していない。一方、内視鏡画像38は、色情報、及びテクスチャ情報を有している。
 3次元画像19の特徴点、又は第2仮想内視鏡画像39fの特徴点と、内視鏡画像38の特徴点を比較する際に、内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去する。内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去した場合、凹凸情報が抽出される。
 内視鏡画像38の色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去する処理の例として、内視鏡画像38からR信号成分を抽出する処理、又は内視鏡画像38からB信号成分を除去する処理が挙げられる。
 内視鏡画像38の凹凸情報は、主としてR信号に乗る。内視鏡画像38の色情報、及びテクスチャ情報は、主としてB信号に乗る。そこで、内視鏡画像38に対してB信号成分の除去を適用して、内視鏡画像38の色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去し得る。また、内視鏡画像38に対してR信号成分の抽出を適用して、内視鏡画像38の凹凸情報を抽出し得る。なお、内視鏡画像修正部57は実内視鏡画像修正部の一例に相当する。
 [第3実施形態の作用効果]
 上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
 〔1〕
 内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方を除去する。これにより、内視鏡画像38の凹凸情報が抽出される。
 〔2〕
 内視鏡画像38からB信号を除去する。これにより、内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方を除去し得る。
 〔3〕
 内視鏡画像38からR信号を抽出する。これにより、内視鏡画像38から凹凸情報を抽出し得る。
 [第4実施形態に係る画像処理装置の構成]
 〔全体構成〕
 図22は第4実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図22に示した画像解析処理部43cは、図4に示した画像解析処理部43に対して、警告信号生成部59が追加されている。また、図1に示した内視鏡システム9に対して警告装置60が追加されている。
 〔警告信号生成部〕
 警告信号生成部59は、内視鏡画像38と仮想内視鏡画像39との対応付けがされていない場合に警告情報を表す警告信号を生成する。換言すると、警告信号生成部59は、内視鏡画像38の特徴点80と一致する特徴点70を有する仮想内視鏡画像39が発見されない場合に、その旨を表す警告信号を生成する。
 警告信号生成部59は、図示しない通信インターフェースを介して警告信号を警告装置60へ送信する。警告信号生成部59は、視点情報を非取得の場合に警告する警告部の構成要素の一例に相当する。内視鏡画像38の特徴点80と一致する特徴点70を有する仮想内視鏡画像39が発見されない場合は、視点情報を非取得の場合の一例に相当する。
 〔警告装置〕
 警告装置60は、警告信号に対応する警告情報を出力する。警告情報の報知の例として、警告を表す文字情報の表示、警告音、及び警告ライトの点灯等が挙げられる。警告を表す文字情報は、図3に示したモニタ装置16を用いてもよい。図1に示した内視鏡システム9は、警告の態様に応じたスピーカ、及びライト等の警告装置60を備える。警告装置60は、上記の報知態様を適宜組み合わせてもよい。
 [第4実施形態の作用効果]
 上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
 〔1〕
 内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が発見されない場合にその旨を報知する。これにより、内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が発見されないことを、術者が把握し得る。
 〔2〕
 警告装置60は、警告を表す文字情報の表示、警告音、及び警告ライトの点灯の少なくともいずれか1つを報知に適用し得る。これにより、術者は、視覚、及び聴覚の少なくともいずれかを用いて報知を把握し得る。
 [コンピュータを画像処理装置として機能させるプログラムへの適用例]
 上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータを、内視鏡画像取得機能、画像解析処理機能、入力制御機能、表示制御機能、及び記憶機能を実現させるプログラムを構成し得る。
 内視鏡画像取得機能は医用画像取得機能の一例である。画像解析処理機能は、注目シーン認識機能、類似度算出機能、保存処理機能が構成要素として含まれる。
 上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。
 また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。
 [変形例]
 〔特徴点抽出の変形例〕
 内視鏡画像38の特徴点抽出は、内視鏡画像38の注目領域の検出に相当する。図4に示した第1特徴点抽出部51は、内視鏡画像38の画素の特徴量に基づいて注目すべき領域である注目領域を検出し、検出結果を取得してもよい。
 第1特徴点抽出部51は、内視鏡画像38の画素の特徴量に基づいて注目すべき領域である注目領域の有無を検出し、検出結果を取得してもよい。第1特徴点抽出部51は、図1に示した記憶装置18等の記憶装置から、内視鏡画像38の検出結果を取得してもよい。第1特徴点抽出部51は、検出結果として、内視鏡画像38に含まれる注目領域、及び注目領域の有無を表す情報の少なくともいずれかを取得してもよい。
 〔内視鏡画像の変形例〕
 〈第1例〉
 内視鏡画像38は、白色帯域の光、又は白色帯域の光として波長帯域が異なる複数の光を照射して取得した通常光画像を適用し得る。
 〈第2例〉
 内視鏡画像38は、特定の波長帯域の光を照射して取得した特殊光画像を適用し得る。特定の波長帯域は、白色光の波長帯域よりも狭い波長帯域を適用し得る。
 〔特定の波長帯域の変形例〕
 〈第1例〉
 特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、且つ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
 〈第2例〉
 特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、且つ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
 〈第3例〉
 特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、且つ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
 〈第4例〉
 特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ、且つこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
 〈第5例〉
 特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、且つ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
 〔特殊光画像の生成例〕
 プロセッサ装置12は、白色光、又は白色光として異なる波長帯域を有する複数の光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ装置12は、特殊光画像取得部として機能する。そして、プロセッサ装置12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青、或いはシアン、マゼンタ、及びイエローの色情報に基づく演算を行うことで得る。
 なお、赤、緑、及び青は、RGB(Red,Green,Blue)と表されることがある。また、シアン、マゼンタ、及びイエローは、CMY(Cyan,Magenta,Yellow)と表されることがある。
 〔特徴量画像の生成例〕
 プロセッサ装置12は、通常光画像、及び特殊光画像の少なくともいずれか一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。
 [診断支援装置、医療行業務支援装置への適用例]
 本実施形態に示した画像処理装置14を備えた診断支援装置、及び医療行業務支援装置を構成し得る。
 [プロセッサ装置への適用例]
 本実施形態に示した画像処理装置14を備えるプロセッサ装置12を構成し得る。すなわち、内視鏡10の動作を制御する内視鏡制御部、内視鏡10を用いた撮像を制御する撮像制御部、光源装置11を制御する光源制御部、及び画像処理装置14を備えたプロセッサ装置を構成し得る。画像処理装置14は画像処理部の一例に相当する。
 [コンピュータを画像処理装置として機能させるプログラムへの適用例]
 上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、3次元画像入力機能、実内視鏡画像入力機能、特徴点抽出機能、及び視点情報取得機能を実現させるプログラムを構成し得る。
 上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。
 また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。
 [実施形態及び変形例等の組み合わせについて]
 上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
 以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
1 制御部
2 メモリ
3 ハードディスク装置
4 通信インターフェース
5 入力コントローラ
6 ディスプレイコントローラ
9 内視鏡システム
10 内視鏡
10a 視野情報
11 光源装置
12 プロセッサ装置
13 表示装置
14 画像処理装置
15 操作装置
16 モニタ装置
16a、16b、16c 状態
17 ネットワーク
18 画像記憶装置
19 3次元画像
19a 3次元モデル
19b パス
19c 始点
19d 終点
19e 視点
19f 擬似的な仮想内視鏡画像
19h 四角錐
20 挿入部
21 操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
27a 先端面
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画像撮影指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37a、37b コネクタ
38 内視鏡画像
38a 動画像
38b フレーム画像
38c 静止画像
39、39d、39e 仮想内視鏡画像
39a 画像群
39b 視点画像
39c 静止画像相当画像
39f 第2仮想内視鏡画像
40 全体制御部
41 画像取得部
41a 3次元画像取得部
41b 内視鏡画像取得部
42 情報取得部
43、43a、43b、43c 画像解析処理部
44 表示制御部
44a 再生制御部
44b 情報表示制御部
45 深層学習アルゴリズム
47 記憶部
48 画像記憶部
49 プログラム記憶部
51 第1特徴点抽出部
52 第2特徴点抽出部
53 視点情報取得部
54 第1仮想内視鏡画像生成部
55 第2仮想内視鏡画像生成部
56 内視鏡視野情報取得部
57 内視鏡画像修正部
59 警告信号生成部
60 警告装置
68 通信信号線
70、70a、70b、70c、80、80a、100、110 特徴点
100a、110a 第1特徴点
100b、110b 第2特徴点
100c、110c 第3特徴点
100d、110d 第4特徴点
D 視点方向
P 視点位置
S10からS50 画像処理方法の各工程

Claims (23)

  1.  被検体の3次元画像を入力する3次元画像入力部と、
     内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
     前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
     前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
     を備えた画像処理装置。
  2.  前記視点情報取得部を用いて取得した前記視点情報に基づいて、前記3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部を備えた請求項1に記載の画像処理装置。
  3.  前記3次元画像から第2仮想内視鏡画像を生成する第2仮想内視鏡画像生成部を備え、
     前記特徴点抽出部は、前記3次元画像の特徴点として前記第2仮想内視鏡画像の特徴点を抽出する請求項1又は2に記載の画像処理装置。
  4.  前記内視鏡の視野方向の情報を取得する視野方向情報取得部を備え、
     前記第2仮想内視鏡画像生成部は、前記視野方向情報取得部を用いて取得した前記内視鏡の視野方向の情報を用いて、前記第2仮想内視鏡画像を生成する請求項3に記載の画像処理装置。
  5.  前記視野方向情報取得部は、前記内視鏡の移動支援情報から前記視野方向の情報を取得する請求項4に記載の画像処理装置。
  6.  前記視野方向情報取得部は、前記実内視鏡画像の変化から導出される移動ベクトルを用いて前記視野方向の情報を取得する請求項4に記載の画像処理装置。
  7.  前記内視鏡の位置の情報を取得する位置情報取得部を備え、
     前記第2仮想内視鏡画像生成部は、前記位置情報取得部を用いて取得した前記内視鏡の位置の情報を用いて、前記第2仮想内視鏡画像を生成する請求項3から6のいずれか一項に記載の画像処理装置。
  8.  前記実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像、又は前記実内視鏡画像から凹凸情報を抽出した画像を生成する実内視鏡画像修正部を備え、
     前記特徴点抽出部は、前記実内視鏡画像修正部を用いて生成された画像から特徴点を抽出する請求項1から7のいずれか一項に記載の画像処理装置。
  9.  前記視点情報取得部は、前記内視鏡の位置が異なる2つの実内視鏡画像について、一方の実内視鏡画像と他方の実内視鏡画像との変化から導出される移動ベクトルを用いて、前記一方の実内視鏡画像に対応する前記3次元画像の視点の位置を起点とする移動量を導出して、前記他方の実内視鏡画像に対応する前記3次元画像の視点の位置を特定する請求項1から8のいずれか一項に記載の画像処理装置。
  10.  前記視点情報取得部は、前記実内視鏡画像の毎フレームに、前記実内視鏡画像の2以上の規定フレーム数ごとに、又は前記内視鏡が規定の移動を行った場合に、前記実内視鏡画像に対応する前記3次元画像の前記視点情報を取得する請求項1から9のいずれか一項に記載の画像処理装置。
  11.  前記視点情報取得部は、既に前記視点情報を取得した前記実内視鏡画像について、新たに視点情報を取得した場合、前記実内視鏡画像に対応する前記3次元画像の視点情報を更新する請求項1から10のいずれか一項に記載の画像処理装置。
  12.  前記実内視鏡画像と対応する前記視点情報を非取得の場合に警告する警告部を備えた請求項1から11のいずれか一項に記載の画像処理装置。
  13.  前記3次元画像入力部は、大腸の3次元画像を入力し、
     前記特徴点抽出部は、盲腸入口、上行結腸と横行結腸との間の湾曲部、横行結腸と下行結腸との間の湾曲部、下行結腸とS字結腸との間の湾曲部、ひだ、ポリープ、及び血管の少なくともいずれか1つを前記特徴点として抽出する請求項1から12のいずれか一項に記載の画像処理装置。
  14.  前記視点情報取得部は、大腸のひだの数に基づいて前記実内視鏡画像に対応する前記3次元画像の前記視点情報を取得する請求項13に記載の画像処理装置。
  15.  前記特徴点抽出部は、前記3次元画像から予め抽出された特徴点の情報を取得する請求項1から14のいずれか一項に記載の画像処理装置。
  16.  内視鏡の動作を制御する内視鏡制御部と、
     前記内視鏡を用いた撮像を制御する撮像制御部と、
     前記内視鏡を用いて撮像して得られた内視鏡画像を処理する画像処理部と、
     を備えたプロセッサ装置であって、
     前記画像処理部は、
     被検体の3次元画像を入力する3次元画像入力部と、
     前記内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
     前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
     前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
     を備えたプロセッサ装置。
  17.  内視鏡を備えた内視鏡装置と、
     画像処理装置と、
     を備えた内視鏡システムであって、
     前記画像処理装置は、
     被検体の3次元画像を入力する3次元画像入力部と、
     前記内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
     前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
     前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
     を備えた内視鏡システム。
  18.  前記3次元画像から生成される仮想内視鏡画像を表示する表示部と、
     前記視点情報取得部を用いて取得した前記視点情報に基づいて、前記3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部と、
     を備え、
     前記表示部は、新たな前記第1仮想内視鏡画像を表示する際に、先に表示した第1仮想内視鏡画像から前記新たな第1仮想内視鏡画像へ直接切り替えるか、早送りするか、又はモーフィングを用いるかのいずれかを選択する請求項17に記載の内視鏡システム。
  19.  前記表示部は、前記実内視鏡画像と、前記実内視鏡画像に対応する前記第1仮想内視鏡画像とを同期して表示させる請求項18に記載の内視鏡システム。
  20.  前記実内視鏡画像を記憶する内視鏡画像記憶部を備え、
     前記内視鏡画像記憶部は、前記視点情報を付加した前記実内視鏡画像を記憶する請求項18又は19に記載の内視鏡システム。
  21.  前記内視鏡画像記憶部は、前記実内視鏡画像に対応する前記第1仮想内視鏡画像を記憶する請求項20に記載の内視鏡システム。
  22.  被検体の3次元画像を入力する3次元画像入力工程と、
     内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力工程と、
     前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出工程と、
     前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得工程と、
     を含む画像処理方法。
  23.  コンピュータに、
     被検体の3次元画像を入力する3次元画像入力機能、
     内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力機能、
     前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出機能、及び
     前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得機能を実現させるプログラム。
PCT/JP2018/042018 2017-12-25 2018-11-13 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム WO2019130868A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019562831A JP7050817B2 (ja) 2017-12-25 2018-11-13 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-248254 2017-12-25
JP2017248254 2017-12-25

Publications (1)

Publication Number Publication Date
WO2019130868A1 true WO2019130868A1 (ja) 2019-07-04

Family

ID=67067016

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/042018 WO2019130868A1 (ja) 2017-12-25 2018-11-13 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP7050817B2 (ja)
WO (1) WO2019130868A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021149140A1 (ja) * 2020-01-21 2021-07-29 オリンパス株式会社 内視鏡装置、制御装置、内視鏡装置の作動方法及びプログラム
JP2021141969A (ja) * 2020-03-10 2021-09-24 独立行政法人国立病院機構 内視鏡装置
CN113544743A (zh) * 2019-09-20 2021-10-22 Hoya株式会社 内窥镜用处理器、程序、信息处理方法和信息处理装置
WO2021250951A1 (ja) * 2020-06-08 2021-12-16 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
WO2023286196A1 (ja) * 2021-07-14 2023-01-19 オリンパスメディカルシステムズ株式会社 画像処理装置、内視鏡装置及び画像処理方法
EP4327718A1 (en) * 2022-08-26 2024-02-28 FUJIFILM Corporation Image processing device, method for operating the same, and endoscope system
JP7506264B2 (ja) 2021-07-14 2024-06-25 オリンパスメディカルシステムズ株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
WO2011122037A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2012110549A (ja) * 2010-11-26 2012-06-14 Fujifilm Corp 医用画像処理装置および方法、並びにプログラム
WO2012086536A1 (ja) * 2010-12-24 2012-06-28 オリンパス株式会社 内視鏡装置及びプログラム
WO2014115371A1 (ja) * 2013-01-28 2014-07-31 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
WO2011122037A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2012110549A (ja) * 2010-11-26 2012-06-14 Fujifilm Corp 医用画像処理装置および方法、並びにプログラム
WO2012086536A1 (ja) * 2010-12-24 2012-06-28 オリンパス株式会社 内視鏡装置及びプログラム
WO2014115371A1 (ja) * 2013-01-28 2014-07-31 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113544743A (zh) * 2019-09-20 2021-10-22 Hoya株式会社 内窥镜用处理器、程序、信息处理方法和信息处理装置
CN113544743B (zh) * 2019-09-20 2024-03-12 Hoya株式会社 内窥镜用处理器、程序、信息处理方法和信息处理装置
WO2021149140A1 (ja) * 2020-01-21 2021-07-29 オリンパス株式会社 内視鏡装置、制御装置、内視鏡装置の作動方法及びプログラム
JP7346602B2 (ja) 2020-01-21 2023-09-19 オリンパス株式会社 内視鏡システム、内視鏡プロセッサ、内視鏡プロセッサの作動方法及び内視鏡プロセッサの作動プログラム
JP2021141969A (ja) * 2020-03-10 2021-09-24 独立行政法人国立病院機構 内視鏡装置
WO2021250951A1 (ja) * 2020-06-08 2021-12-16 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
JP2021192746A (ja) * 2020-06-08 2021-12-23 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
JP7377769B2 (ja) 2020-06-08 2023-11-10 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
WO2023286196A1 (ja) * 2021-07-14 2023-01-19 オリンパスメディカルシステムズ株式会社 画像処理装置、内視鏡装置及び画像処理方法
JP7506264B2 (ja) 2021-07-14 2024-06-25 オリンパスメディカルシステムズ株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法
EP4327718A1 (en) * 2022-08-26 2024-02-28 FUJIFILM Corporation Image processing device, method for operating the same, and endoscope system

Also Published As

Publication number Publication date
JP7050817B2 (ja) 2022-04-08
JPWO2019130868A1 (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
WO2019130868A1 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JP6371729B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
JP5580637B2 (ja) 画像処理装置、内視鏡装置の作動方法及びプログラム
JP5855358B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
JP5675227B2 (ja) 内視鏡画像処理装置および作動方法、並びに、プログラム
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
JP5771757B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
WO2014136579A1 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP7346693B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法、及びプログラム
JP7289373B2 (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
JP2011200283A (ja) 制御装置、内視鏡システム、プログラム及び制御方法
JP6022133B2 (ja) 医療装置
JP6840263B2 (ja) 内視鏡システム及びプログラム
JPWO2020184257A1 (ja) 医用画像処理装置及び方法
JP2011050590A (ja) 医用画像処理装置、及び医用画像処理プログラム
WO2019138772A1 (ja) 画像処理装置、プロセッサ装置、画像処理方法、及びプログラム
JP5554028B2 (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
JP7148534B2 (ja) 画像処理装置、プログラム、及び内視鏡システム
JP7387859B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP2007236629A (ja) 医療用画像処理装置及び医療用画像処理方法
JP6199267B2 (ja) 内視鏡画像表示装置、その作動方法およびプログラム
CN116724334A (zh) 计算机程序、学习模型的生成方法、以及手术辅助装置
US20230206445A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18896493

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019562831

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18896493

Country of ref document: EP

Kind code of ref document: A1