WO2019054265A1 - 医療画像処理装置 - Google Patents

医療画像処理装置 Download PDF

Info

Publication number
WO2019054265A1
WO2019054265A1 PCT/JP2018/032972 JP2018032972W WO2019054265A1 WO 2019054265 A1 WO2019054265 A1 WO 2019054265A1 JP 2018032972 W JP2018032972 W JP 2018032972W WO 2019054265 A1 WO2019054265 A1 WO 2019054265A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
attention area
unit
medical
attention
Prior art date
Application number
PCT/JP2018/032972
Other languages
English (en)
French (fr)
Inventor
駿平 加門
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019542016A priority Critical patent/JPWO2019054265A1/ja
Priority to CN201880057673.7A priority patent/CN111050628B/zh
Priority to EP18855554.4A priority patent/EP3682791B1/en
Publication of WO2019054265A1 publication Critical patent/WO2019054265A1/ja
Priority to US16/795,506 priority patent/US11449988B2/en
Priority to JP2021183297A priority patent/JP7411618B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Definitions

  • the present invention relates to a medical image processing apparatus that uses analysis results of medical images.
  • a doctor uses a medical image obtained from a device for acquiring an image including a subject image (hereinafter referred to as a medical image) among devices related to medical treatment (hereinafter referred to as a medical device) as one of determination materials.
  • a medical image obtained from a device for acquiring an image including a subject image (hereinafter referred to as a medical image) among devices related to medical treatment (hereinafter referred to as a medical device) as one of determination materials.
  • a diagnosis As a matter of course, discrimination of the condition of the subject and the like performed using a medical image at the time of diagnosis is based on the skill and experience of the doctor.
  • Patent Document 1 a system for automatically measuring the number of lesions and the like in mammographic images
  • a region to be noted such as a region having a lesion may be detected from a medical image.
  • analysis results of medical images may be statistically added and used for secondary use such as research applications. For example, when an examination of the large intestine is performed using an endoscope apparatus (medical device), the number of attention areas such as an area where a polyp is found and an area where treatment (biopsy etc.) should be or has been performed is counted. Use for research.
  • it is important in medical development to collect the analysis results of medical images there is a problem that the work such as the calculation is a burden on the doctor.
  • An object of the present invention is to provide a medical image processing apparatus which reduces the work load on a doctor by automatically and accurately totaling analysis results of medical images.
  • a medical image processing apparatus includes a medical image acquisition unit for acquiring a plurality of medical images including a subject image, an attention area detection unit for detecting an attention area for each medical image, and a plurality of attention areas detected for each medical image.
  • a notable area determination unit that determines whether or not the area includes the same object, and a notable area counting unit that counts the number of notable areas using the determination result of the identical notable area determination unit; And.
  • the region-of-interest counting unit preferably clusters medical images in which the same region of interest is detected, and counts the number of clusters.
  • the region-of-interest counting unit preferably counts the number of regions of interest for each type of region of interest.
  • the type of region of interest preferably includes the type of lesion included in the region of interest, the size, the position in the lumen, the macroscopic form, or the endoscopic findings classification.
  • the type of the region of interest includes the use status of the drug or the content of the treatment.
  • the type determination unit determines the type of the target area using the medical image, and the target area counting unit uses the determination result according to the type of the target area in the type determination unit to determine the number of target areas for each type of target area. Is preferably counted.
  • the examination time preferably includes an insertion time, a withdrawal time, or both an insertion time and a withdrawal time.
  • the examination time calculation unit calculates the examination time using the imaging time of a medical image obtained by imaging a specific site or position.
  • an examination information acquisition unit that acquires examination information that is information related to a patient or a doctor, and store the number of attention areas and the examination information in association with each other.
  • the medical image processing apparatus of the present invention can reduce the workload on the doctor by automatically and accurately totaling the analysis results of the medical image.
  • the medical image processing apparatus 10 includes a medical image acquisition unit 11, a medical image analysis processing unit 12, a display unit 13, a display control unit 15, an input reception unit 16, an overall control unit 17, and a storage unit. It has eighteen.
  • the medical image acquisition unit 11 performs medical treatment including a subject image directly from an endoscope apparatus 21 or the like which is a medical apparatus, or via a management system such as a PACS (Picture Archiving and Communication System) 22 or other information system. Get an image.
  • the medical image is a still image or a moving image (so-called test moving image).
  • the medical image acquisition unit 11 can acquire a frame image constituting the moving image as a still image after the examination.
  • displaying the medical image includes reproducing the moving image one or more times in addition to displaying a still image of one representative frame constituting the moving image.
  • the medical device such as the endoscope device 21 or the like receives the imaging instruction of the doctor in addition to the image photographed by the doctor using the medical device such as the endoscope device 21 or the like. Includes images taken automatically regardless of
  • the medical image acquisition unit 11 can acquire a plurality of medical images, it can selectively acquire one or more medical images among these medical images. Further, the medical image acquisition unit 11 can acquire a plurality of medical images acquired in a plurality of different examinations. For example, one or both of a medical image acquired by an examination performed in the past and a medical image acquired by the latest examination can be acquired. That is, the medical image acquisition unit 11 can arbitrarily acquire a medical image.
  • a plurality of medical images including subject images are acquired. More specifically, when medical images captured in one specific examination are obtained and there are multiple medical images captured in one specific examination, multiple medical images in a series of medical images are obtained. Get an image. Further, in the present embodiment, the medical image processing apparatus 10 is connected to the endoscope apparatus 21 and acquires a medical image from the endoscope apparatus 21. That is, in the present embodiment, the medical image is an endoscopic image.
  • the endoscope apparatus 21 to which the medical image processing apparatus 10 is connected shoots a subject by irradiating at least one of light of a white wavelength band or light of a specific wavelength band.
  • a light source device 32 to emit illumination light into a subject through the endoscope 31 a processor device 33, and an endoscopic image taken using the endoscope 31 And the like.
  • the light of a specific wavelength band used for illumination light by the endoscope 31 is, for example, light of a shorter wavelength band than the green wavelength band, particularly light of a blue band or a purple band in the visible range.
  • the processor device 33 includes an image generation unit 36 that generates an endoscopic image.
  • the medical image processing apparatus 10 is connected to the processor 33. Then, the medical image acquisition unit 11 acquires an endoscope image directly from the image generation unit 36 of the endoscope apparatus 21.
  • the medical image analysis processing unit 12 performs analysis processing using the endoscopic image acquired by the medical image acquisition unit 11. Specifically, as shown in FIG. 3, the medical image analysis processing unit 12 includes an attention area detection unit 41, a same attention area determination unit 42, and an attention area counting unit 43.
  • the attention area detection unit 41 detects an attention area for each medical image.
  • a region of interest is detected for each of a plurality of endoscopic images captured in one examination.
  • the attention area detected by the attention area detection unit 41 is an area having characteristics of color or shape different from one or more lesions, surrounding tissues, etc., an area where a drug is dispersed, or a treatment (biopsy, It is a region including a subject such as a region in which endoscopic mucosal resection (EMR (Endoscopic Mucosal Resection)) or endoscopic submucosal dissection (ESD (Endoscopic Submucosal Dissection)) or the like is performed.
  • EMR Endoscopic Mucosal Resection
  • ESD Endoscopic Submucosal Dissection
  • the lesion is, for example, a polyp (a raised lesion), more specifically, hyperplastic polyp (HP), SSA / P ( Sessile serrated adenoma / polyp), adenomas, cancer, etc.
  • the area having characteristics of color or shape different from the surrounding tissue or the like is, for example, the subject's redness, atrophy, diverticulum, or a treatment scar.
  • the attention area detection unit 41 can detect a plurality of (plurality of) attention areas from one medical image. In this case, each attention area may partially overlap. Further, the attention area detection unit 41 detects one lesion as one attention area, or detects a portion in which a plurality of lesions are gathered as one attention area, depending on the setting or the type of lesion or the like. . In addition, the attention area detection unit 41 can detect one or more types of attention areas (for example, an area including a specific lesion and an area including a lesion having another feature) by setting.
  • the attention area detection unit 41 calculates one or more feature amounts (for example, oxygen saturation etc.) calculated using the color or shape of the subject image shown in the medical image or the color or shape of the subject image shown in the medical image To detect the area of interest.
  • the attention area detection unit 41 detects a polyp or the like which is a medical image as an attention area.
  • the same attention area determination unit 42 determines whether or not a plurality of attention areas detected for each medical image include the same target.
  • the same attention area determination unit 42 calculates, for example, using the color or shape similarity of each medical image or each attention area, the color or shape of an object image included in each medical image or each attention area, or the like.
  • the attention of each medical image using the feature quantity of each of the medical images, the shooting time of each medical image, the movement of the subject between medical images (a motion vector representing the amount and direction of the movement of the subject, etc.) It is determined whether the area is an area including the same object.
  • the same attention area determination unit 42 can determine that these attention areas are the same attention area in which the same target (for example, the same polyp) is detected.
  • the same attention area determination unit 42 can determine that these are the same attention area in which the same target is detected.
  • the same attention area determination unit 42 can determine whether or not the part shown in each medical image is the same part of the subject by taking into consideration the shooting time of the series of medical images or the movement of the subject. As a result, the same attention area determination unit 42 can determine whether the attention area of each medical image is an area including the same object, using the imaging time or the movement of the subject.
  • the attention area counting unit 43 counts (counts) the number of attention areas excluding duplication by using the determination result in the same attention area determination unit 42. More specifically, the attention area counting unit 43 clusters medical images in which the same attention area is detected, and counts the number of clusters. As a result, the focused area counting unit 43 counts the number of focused areas without duplication. In the clustering performed by the region-of-interest counting unit 43, one medical image may belong to a plurality of clusters.
  • this medical image is a cluster C-X 1 formed by a medical image in which polyp X 1 is imaged
  • the attention area counting unit 43 arbitrarily forms clusters (classification items) in accordance with the determination result in the same attention area determination unit 42 and clusters medical images. That is, one or more medical images form a cluster as a result of clustering.
  • the attention area counting unit 43 can cluster medical images by classifying the medical images into clusters predetermined by setting.
  • the display unit 13 is a display that displays the medical image acquired by the medical image acquisition unit 11 and the analysis result of the medical image analysis processing unit 12.
  • a monitor or display included in a device or the like connected to the medical image processing apparatus 10 can be shared and used as the display unit 13 of the medical image processing apparatus 10.
  • the display control unit 15 controls the display mode of the medical image and the analysis result on the display unit 13.
  • the input reception unit 16 receives input from a mouse, a keyboard, and other operation devices connected to the medical image processing apparatus 10. The operation of each part of the medical image processing apparatus 10 can be controlled using these operation devices.
  • the integrated control unit 17 integrally controls the operation of each unit of the medical image processing apparatus 10.
  • the overall control unit 17 controls each unit of the medical image processing apparatus 10 according to the operation input.
  • the storage unit 18 includes at least a notable area counting unit in a storage device (not shown) such as a memory included in the medical image processing apparatus 10 or a medical device such as the endoscope apparatus 21 or a storage device (not illustrated) included in the PACS 22.
  • a storage device such as a memory included in the medical image processing apparatus 10 or a medical device such as the endoscope apparatus 21 or a storage device (not illustrated) included in the PACS 22.
  • the number of regions of interest counted by 43 is stored.
  • the medical image acquisition unit 11 acquires a plurality of endoscopic images automatically or by manual selection (step S ⁇ b> 10).
  • the medical image acquisition unit 11 acquires endoscopic images 101, 102, 103, 104, and 105 shown in FIG. 5 to FIG. 9 by extracting frame images from so-called examination moving images.
  • An endoscopic image 101 shown in FIG. 5 is an endoscopic image obtained by photographing a normal part without any lesion or the like.
  • the endoscopic image 102 shown in FIG. 6 is, for example, an endoscopic image obtained by imaging a portion where the redness 111 is present.
  • FIG. 7 is an endoscopic image obtained by imaging a portion where a polyp 112 (for example, a hyperplastic polyp) is present.
  • the endoscopic image 104 shown in FIG. 8 is an endoscopic image obtained by photographing the polyp 112 from another angle
  • the endoscopic image 105 shown in FIG. 9 is an endoscopic image obtained by magnifying the polyp 112 .
  • the attention area detection unit 41 When the medical image acquisition unit 11 acquires endoscopic images 101, 102, 103, 104, and 105 which are medical images, the attention area detection unit 41 focuses on each of the endoscopic images 101, 102, 103, 104, and 105. An area is detected (step S11). Since the endoscopic image 101 does not include a lesion or the like, the focused area detection unit 41 executes processing for detecting a focused area (focused area detection processing), but as a result does not detect a focused area (see FIG. 5). Since the endoscopic image 102 includes the redness 111, the attention area detection unit 41 detects the portion of the redness 111 as the attention area 122.
  • the attention area detection unit 41 detects a portion of the polyp 112 as the attention area 123. Similarly, the attention area detection unit 41 detects the portion of the polyp 112 as the attention area 124 in the endoscopic image 104 and detects the portion of the polyp 112 in the endoscopic image 105 as the attention area 125.
  • the same attention area determination unit 42 determines whether these attention areas 122, 123, 124, 125 are areas including the same object (step S12).
  • the attention area 122 is an area where the redness 111 is detected, and the attention areas 123, 124, and 125 are areas where the polyp 112 is detected. Therefore, the same attention area determination unit 42 determines that the attention area 122 is different from any of the other attention areas 123, 124, and 125.
  • the attention areas 123, 124, and 125 are areas in which the same polyp 112 is detected although the position in the image, the imaging angle (imaging direction), or the enlargement ratio is different. Therefore, the same attention area determination unit 42 includes the same target as the attention area 123 of the endoscopic image 103, the attention area 124 of the endoscopic image 104, and the attention area 125 of the endoscopic image 105. It determines that it is an area.
  • the attention area counting unit 43 determines The number of attention areas is counted (step S13).
  • the attention area counting unit 43 clusters the endoscopic images 101, 102, 103, 104, and 105 using the determination result of the same attention area determination unit 42.
  • the cluster C0 is a cluster whose element is an endoscopic image not including the region of interest. Therefore, the endoscopic image 101 belongs to the cluster C0.
  • the cluster C1 is a cluster whose element is an endoscopic image including the attention area 122 in which the redness 111 is detected. Therefore, the endoscopic image 102 belongs to the cluster C1.
  • the cluster C2 is a cluster whose element is an endoscopic image including the regions of interest 123, 124, and 125 in which the polyp 112 is detected. Therefore, the endoscopic images 103, 104, and 105 belong to the cluster C2.
  • the region-of-interest counting unit 43 counts the number of clusters formed as a result of the clustering.
  • cluster C0 is a cluster having as an element the endoscopic image 101 not including the region of interest. Therefore, the region-of-interest counting unit 43 counts clusters C1 and C2 whose elements are endoscopic images 102, 103, 104, and 105 including the region of interest except for the cluster C0.
  • the attention area counting unit 43 detects the number of clusters having the endoscopic image including the attention area as the elements, that is, the number of independent attention areas is two (two types), and the detected redness 111 is It is possible to obtain the result that the number is one and the number of detected polyps 112 is one.
  • the storage unit 18 stores the number of independent target regions counted by the target region counting unit 43 in a predetermined storage device (step S14).
  • the medical image processing apparatus 10 counts the number of independent attention areas by determining whether or not the plurality of attention areas detected from the plurality of medical images are areas including the same object. Therefore, the medical image processing apparatus 10 can automatically and accurately count the number of the redness 111 and the number of the polyps 112 or the like which are analysis results of the medical image. As a result, the medical image processing apparatus 10 can reduce the work load on the doctor involved in counting the analysis results of the medical image.
  • the attention area counting unit 43 counts the number of attention areas for each type of attention area. However, the attention area counting unit 43 can count the number of attention areas for each type of attention area in more detail.
  • the medical image analysis processing unit 12 is provided with a type determination unit 201 in addition to the attention area detection unit 41, the same attention area determination unit 42, and the attention area counting unit 43.
  • the type determination unit 201 determines the type of the region of interest using a medical image.
  • the type of region of interest includes the type and size of the lesion included in the region of interest, the position in the lumen and other subjects, the type of subject based on the characteristics of the subject such as macroscopic forms or endoscopic findings classification, the use status or treatment of medicine The type of procedure such as the contents of the above, or the type based on the combined condition combining these conditions.
  • the endoscopic findings classification is the NICE (The Narrow-band imaging International Colorectal Endoscopic) classification, the JNET (The Japan NBI (Narrow Band Imaging) Expert Team) classification, or the like.
  • the drug is a coloring agent or a staining agent (such as indigo carmine or pictanin).
  • the attention area counting unit 43 uses the determination result in the same attention area determination unit 42 and the determination result according to the type in the type determination unit 201 to remove the overlapping of the attention area. And, for each type of attention area, the number of attention areas is counted.
  • the storage unit 18 stores, in a predetermined storage device, at least the number of target regions counted by the target region counting unit 43 for each type.
  • the medical image processing apparatus 10 can automatically and accurately calculate the analysis results of the medical image for each type of lesion. As a result, the medical image processing apparatus 10 can reduce the work load on the doctor involved in counting the analysis results of the medical image.
  • the type determination unit 201 determines the type of lesion
  • the attention area counting unit 43 can count, for example, the number of hyperplastic polyps, adenomas, and SSA / P.
  • the attention area counting unit 43 can count, for example, the number of lesions of 5 mm or more and the number of lesions of less than 5 mm.
  • the region-of-interest counting unit 43 includes, for example, the number of lesions in the ascending colon, the number of lesions in the transverse colon, and the lesions in the descending colon. The number and the number can be counted respectively.
  • the region-of-interest counting unit 43 can count, for example, the number of adenomas of 5 mm or more and the number of adenomas less than 5 mm. In addition to this, the same applies to the case where the type determination unit 201 determines the gross form of the lesion or the endoscopic findings classification of the lesion.
  • the focused region counting unit 43 determines the use condition of the drug, the focused region counting unit 43, for example, does not scatter the drug, and the number of focused regions dispersed with indigo carmine, the number of focused regions dispersed with pioctanine, The number of regions of interest can be counted respectively.
  • the attention area counting unit 43 determines the number of attention areas subjected to the biopsy, the number of attention areas subjected to the EMR, and the attention areas subjected to the ESD. And the number of attention areas not treated.
  • the type determination unit 201 determines the type of the attention area, but a doctor can input part or all of the type of the attention area. Also in this case, the doctor can automatically and accurately count the analysis results of the medical image for each type of lesion simply by inputting the type of the region of interest by selection or the like. For this reason, the medical image processing apparatus 10 can reduce the work load on the doctor involved in counting the analysis results of the medical image.
  • the number of the attention areas counted by the attention area counting unit 43 in the medical image processing apparatus 10 of the first embodiment and the second embodiment is stored in association with the examination time.
  • the “examination time” associated with the number of regions of interest is, for example, in the case of an endoscopy (large intestine examination) of the large intestine, the insertion time, the withdrawal time, or both of them.
  • the insertion time is the time taken for the insertion of the endoscope 31, and specifically, it is the time from the start of the insertion of the endoscope 31 to the arrival of the cecum.
  • the withdrawal time is the time taken to complete the examination after reaching the cecum.
  • the medical image analysis processing unit 12 includes the attention area detection unit 41 and the same attention area.
  • the imaging time acquisition unit 301 is provided.
  • the medical image analysis processing unit 12 further includes an examination time calculation unit 302 in order to store the number of attention areas, the insertion time, and the removal time in association with each other.
  • the imaging time acquisition unit 301 acquires the imaging time of the medical image acquired by the medical image acquisition unit 11.
  • the imaging time acquisition unit 301 can acquire the imaging time from the medical image.
  • the medical device such as the endoscope device 21 or the PACS 22 holds information of imaging time
  • the medical image processing apparatus 10 can acquire the imaging time from the connected medical device or PACS 22. In addition to this, even when the medical image acquisition unit 11 acquires a frame image of a test moving image as a medical image, information is obtained from a header or the like of the test moving image, and the imaging time of each medical image is obtained or calculated.
  • the examination time calculation unit 302 calculates an insertion time, a withdrawal time, or both of them using the imaging times of two medical images among the plurality of medical images acquired by the medical image acquisition unit 11.
  • the inspection time calculation unit 302 calculates an insertion time and a removal time. Specifically, among the plurality of medical images, the examination time calculation unit 302 takes a photographing time of a medical image (medical image showing an anus or its vicinity) photographed when insertion of the endoscope 31 is started, The insertion time is calculated on the basis of the difference with the imaging time of the medical image (medical image showing the cecum) taken when the endoscope 31 reaches the cecum.
  • the examination time calculation unit 302 takes the photographing time of the medical image taken when the endoscope 31 reaches the cecum, and when the endoscope 31 is removed from the subject.
  • the insertion time is calculated based on the difference between the imaging time of the taken medical image (the medical image of the anus or its vicinity).
  • the examination time calculation unit 302 uses the imaging time of a medical image obtained by imaging a specific part or specific position of an object (e.g., the vicinity of a turn of a part or a favorite part or position such as a lesion other than cecum etc). Calculate the inspection time. In this way, it is possible to calculate a particularly practical examination time in an examination where it is customary to photograph a specific part or a specific position of a subject regardless of the presence or absence of a lesion or the like.
  • the storage unit 18 associates the number of attention areas counted by the attention area counting unit 43 with the examination time calculated by the examination time calculation unit 302, and stores the result in a predetermined storage device.
  • storing the number of attention areas counted by the attention area counting unit 43 in association with the examination time is useful for secondary use such as research.
  • the examination time can be manually input by a doctor or the like to the medical image processing apparatus 10 or the like.
  • the imaging time acquisition unit 301 acquires the examination time input by the doctor or the like, and the storage unit 18 determines the number of the attention areas counted by the attention area counting unit 43, the examination time input by the doctor or the like, Are associated and stored in a predetermined storage device.
  • the test time calculation unit 302 determines the start time of the test input by the doctor or the like, the end time of the test, or The time required for the examination can be calculated using both of them.
  • the examination start time is the insertion start time of the endoscope 31
  • the examination end time is the extraction completion time of the endoscope 31, and these are usually This item is input by a doctor or the like.
  • the imaging time acquisition unit 301 acquires the imaging time input by the doctor etc.
  • the examination time calculation unit 302 acquires the imaging input by the doctor etc.
  • the inspection time can be calculated using the time.
  • the number of attention areas counted by the attention area counting unit 43 and the examination time are stored in association with each other, but instead of the examination time or in addition to the examination time, the attention area It is preferable to store the number of the attention areas counted by the counting unit 43 in association with the examination information.
  • the examination information is information related to a patient or a doctor. For example, the patient's age, sex, medical history, or the content of treatment for the current lesion or the like is examination information. Also, for example, the doctor's name (ID (identification) etc.), history, results (number of cases in which a specific lesion has been examined etc.) etc. are examination information.
  • attention area detection unit 41 When the number of attention areas counted by the attention area counting unit 43 and examination information are stored in association with each other, as shown in FIG. 13, in the medical image analysis processing unit 12, attention area detection unit 41, same attention area determination An inspection information acquisition unit 401 is provided in addition to the unit 42 and the attention area counting unit 43.
  • the examination information acquisition unit 401 acquires examination information which is information related to a patient or a doctor.
  • the storage unit 18 associates the number of attention areas counted by the attention area counting unit 43 with the examination information acquired by the examination information acquisition unit 401 and stores the associated information in a predetermined storage device.
  • storing the number of attention areas counted by the attention area counting unit 43 in association with examination information is useful in secondary use such as research. Further, when the number of the attention areas counted by the attention area counting unit 43 and the examination information related to the doctor are stored in association with each other, information serving as an index indicating the skill of the doctor who has performed the examination can be obtained.
  • the number of the attention areas counted by the attention area counting unit 43 is stored in association with the examination time
  • the attention area counting unit 43 counts Although the number of attention areas and examination information are stored in association with each other, items to be stored in association with the number of attention areas counted by the attention area counting unit 43 can be arbitrarily set for each doctor or hospital. Is preferred. In this way, it is possible to organize and store information without waste according to the purpose of research.
  • the medical image processing apparatus 10 can set an item to be stored in the input receiving unit 16 in association with the number of the attention areas counted by the attention area counting unit 43.
  • the medical image processing apparatus 10 and the endoscope apparatus 21 are separate apparatuses, but the endoscope apparatus 21 can include the medical image processing apparatus 10.
  • each unit 520 constituting the medical image processing apparatus 10 is provided in the processor device 33.
  • the display unit 13 can share the monitor 34 of the endoscope apparatus 21, it is sufficient if the processor unit 33 is provided with units other than the display unit 13.
  • a new endoscope apparatus can be configured as a whole of the medical image processing apparatus 10 of the above-described embodiment and the other modified examples, and the endoscope apparatus 21 of FIG. 2.
  • the endoscope apparatus 21 basically observes the subject in real time, as described above, when the endoscope apparatus 21 includes the medical image processing apparatus 10, detection of the attention area, detection of the same attention area
  • the determination and the counting of the region of interest can be performed when an endoscopic image is taken or at any timing.
  • a diagnosis support apparatus 610 used in combination with the endoscope apparatus 21 and other modality can include the medical image processing apparatus 10 of the above-described embodiment and other modifications.
  • various inspection devices such as the first inspection device 621, the second inspection device 622,.
  • the medical service support device 630 to be connected can include the medical image processing device 10 of the above-described embodiment and other modified examples.
  • the medical image processing apparatus 10 various apparatuses including the medical image processing apparatus 10, and various apparatuses or systems including the functions of the medical image processing apparatus 10 can be used with various modifications described below. .
  • a normal light image obtained by irradiating light of a plurality of wavelength bands as light of a white band or light of a white band can be used.
  • a specific wavelength band can use a band narrower than the white wavelength band.
  • the specific wavelength band is, for example, a blue band or a green band in the visible range.
  • the specific wavelength band is a blue band or a green band in the visible range
  • the specific wavelength band includes a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm, and light of the specific wavelength band is 390 nm or more It is preferable to have a peak wavelength within a wavelength band of 450 nm or less or 530 nm or more and 550 nm or less.
  • the specific wavelength band is, for example, a red band in the visible range.
  • the specific wavelength band is a red band in the visible range
  • the specific wavelength band includes a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm, and light of the specific wavelength band is 585 nm to 615 nm or 610 nm It is preferable to have a peak wavelength within the wavelength band of not less than 730 nm.
  • the specific wavelength band includes, for example, wavelength bands in which the absorption coefficient is different between oxygenated hemoglobin and reduced hemoglobin, and light of a specific wavelength band is a peak wavelength in the wavelength band where absorption coefficients are different between oxygenated hemoglobin and reduced hemoglobin You can have
  • a specific wavelength band includes wavelength bands whose absorption coefficients are different between oxyhemoglobin and reduced hemoglobin, and light of a specific wavelength band has peak wavelengths in wavelength bands whose absorption coefficients are different between oxyhemoglobin and reduced hemoglobin
  • the specific wavelength band includes the wavelength bands of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm to 750 nm, and the light of the specific wavelength band is 400 ⁇ 10 nm, 440 ⁇ 10 nm, It is preferable to have a peak wavelength in a wavelength band of 470 ⁇ 10 nm, or 600 nm or more and 750 nm or less.
  • this in-vivo image can have information of fluorescence emitted from a fluorescent substance in the living body.
  • fluorescence fluorescence obtained by irradiating excitation light having a peak wavelength of 390 nm or more and 470 nm or less into a living body can be used.
  • the above-mentioned specific wavelength band can utilize the wavelength band of infrared light.
  • the specific wavelength band is a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm
  • light of a specific wavelength band preferably has a peak wavelength in a wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less.
  • the medical image acquisition unit 11 acquires a special light image having a signal of a specific wavelength band based on a normal light image obtained by irradiating light of a plurality of wavelength bands as light of the white band or light of the white band. It can have a special light image acquisition unit. In this case, a special light image can be used as a medical image.
  • a signal of a specific wavelength band can be obtained by an operation based on RGB or CMY color information included in a normal light image.
  • a feature amount image generation unit that generates a feature amount image can be provided.
  • the feature amount image can be used as a medical image.
  • a capsule endoscope can be used as the endoscope 31.
  • the light source device 32 and part of the processor device 33 can be mounted on the capsule endoscope.
  • a processing unit that executes various processes such as the generation unit 36
  • CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • a programmable logic device PLD
  • PLD programmable Logic Device
  • One processing unit may be configured of one of these various processors, or configured of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA) It may be done.
  • a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software as represented by computers such as clients and servers; There is a form in which this processor functions as a plurality of processing units.
  • SoC system on chip
  • IC integrated circuit
  • circuitry in the form in which circuit elements such as semiconductor elements are combined.
  • Reference Signs List 10 medical image processing apparatus 11 medical image acquisition unit 12 medical image analysis processing unit 13 display unit 15 display control unit 16 input reception unit 17 general control unit 18 storage unit 21 endoscope device 22 PACS Reference Signs List 31 endoscope 32 light source device 33 processor device 34 monitor 36 image generation unit 41 attention area detection unit 42 same attention area determination unit 43 attention area counting unit 101, 102, 103, 104, 105 endoscopic image 111 red light 112 polyp 122 , 123, 124, 125 attention area 201 type determination unit 301 photographing time acquisition unit 302 examination time calculation unit 401 examination information acquisition unit 520 each unit constituting medical image processing apparatus 610 diagnosis support apparatus 621 first inspection apparatus 622 second inspection apparatus 623 Nth inspection device 626 Network 630 medical service support device C0, C1, C2 cluster

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

医療画像の解析結果を自動的かつ正確に集計することにより、医師の作業負担を低減する医療画像処理装置を提供する。医療画像処理装置(10)は、被写体像を含む医療画像を複数取得する医療画像取得部(11)と、医療画像ごとに注目領域を検出する注目領域検出部(41)と、医療画像ごとに検出した複数の注目領域が同一の対象を含む領域であるか否かを判定する同一注目領域判定部(42)と、同一注目領域判定部における判定結果を用いて、重複を除いた注目領域の個数を計数する注目領域計数部(43)と、を備える。

Description

医療画像処理装置
 本発明は、医療画像の解析結果を用いる医療画像処理装置に関する。
 従来、医師は、医療に係る装置(以下、医療装置という)のうち、被写体像を含む画像(以下、医療画像と言う)を取得する装置から得る医療画像を判断材料の1つとして使用し、診断等をしている。当然ながら、診断の際に医療画像を用いて行う被写体の状態等の鑑別は、医師の技量及び経験等に基づく。
 近年においては、画像解析技術の進歩により、医療画像を解析することで、医療画像から様々な客観的な情報を得ることができる。このため、医療画像の解析結果を医師等に提示することにより、鑑別及び診断等を支援する医療装置が増えてきている。例えば、マンモグラフィ画像において、病変の個数等を自動的に測定するシステムが知られている(特許文献1)。
特開2011-110429号公報
 従来より、診断を支援するために、医療画像から病変がある領域等の注目すべき領域(以下、注目領域という)を検出する場合がある。さらに、近年においては、医療画像の解析結果を、統計的に集計して研究用途等の2次利用に供する場合がある。例えば、内視鏡装置(医療装置)を用いて大腸の検査をした場合、ポリープが発見された領域、処置(生検等)を施すべき又は施した領域等の注目領域の個数を集計して研究に利用する。医療画像の解析結果を集計することは医学の発展において重要であるが、一方で、集計等の作業が医師の負担になっているという問題がある。
 本発明は、医療画像の解析結果を自動的かつ正確に集計することにより、医師の作業負担を低減する医療画像処理装置を提供することを目的とする。
 本発明の医療画像処理装置は、被写体像を含む医療画像を複数取得する医療画像取得部と、医療画像ごとに注目領域を検出する注目領域検出部と、医療画像ごとに検出した複数の注目領域が同一の対象を含む領域であるか否かを判定する同一注目領域判定部と、同一注目領域判定部における判定結果を用いて、重複を除いた注目領域の個数を計数する注目領域計数部と、を備える。
 注目領域計数部は、同一の注目領域を検出した医療画像をクラスタリングし、かつ、クラスタの個数を計数することが好ましい。
 注目領域計数部は、注目領域の種別ごとに注目領域の個数を計数することが好ましい。
 注目領域の種別は、注目領域が含む病変の種類、サイズ、管腔内における位置、肉眼形態、または、内視鏡所見分類を含むことが好ましい。
 注目領域の種別は、薬剤の使用状況または処置の内容を含むことが好ましい。
 医療画像を用いて注目領域の種別を判定する種別判定部を備え、注目領域計数部は、種別判定部における注目領域の種別に係る判定結果を用いて、注目領域の種別ごとに注目領域の個数を計数することが好ましい。
 注目領域の個数と、検査時間と、を関連付けて保存することが好ましい。
 検査時間は、挿入時間、抜去時間、または、挿入時間と抜去時間の両方を含むことが好ましい。
 医療画像の撮影時刻を取得する撮影時刻取得部と、複数の医療画像のうち2つの医療画像の撮影時刻を用いて検査時間を算出する検査時間算出部と、を備えることが好ましい。
 検査時間算出部は、特定の部位または位置を撮影した医療画像の撮影時刻を用いて検査時間を算出することが好ましい。
 患者または医師に係る情報である検査情報を取得する検査情報取得部を備え、注目領域の個数と、検査情報と、を関連付けて保存することが好ましい。
 本発明の医療画像処理装置は、医療画像の解析結果を自動的かつ正確に集計することにより、医師の作業負担を低減できる。
医療画像処理装置のブロック図である。 内視鏡装置のブロック図である。 医療画像解析処理部のブロック図である。 医療画像処理装置の作用を示すフローチャートである。 内視鏡画像である。 内視鏡画像である。 内視鏡画像である。 内視鏡画像である。 内視鏡画像である。 内視鏡画像のクラスタリングと注目領域の計数の方法を示す説明図である。 第2実施形態の医療画像解析処理部のブロック図である。 第3実施形態の医療画像解析処理部のブロック図である。 第4実施形態の医療画像解析処理部のブロック図である。 医療画像処理装置を含む内視鏡装置のブロック図である。 医療画像処理装置を含む診断支援装置のブロック図である。 医療画像処理装置を含む医療業務支援装置のブロック図である。
 [第1実施形態]
 図1に示すように、医療画像処理装置10は、医療画像取得部11、医療画像解析処理部12、表示部13、表示制御部15、入力受信部16、統括制御部17、及び、保存部18を備える。
 医療画像取得部11は、医療装置である内視鏡装置21等から直接に、または、PACS(Picture Archiving and Communication System)22等の管理システムもしくはその他の情報システムを介して、被写体像を含む医療画像を取得する。なお、医療画像は静止画像または動画(いわゆる検査動画)である。医療画像が動画である場合、医療画像取得部11は、検査後に動画を構成するフレーム画像を静止画像として取得することができる。また、医療画像が動画である場合、医療画像の表示には、動画を構成する1つの代表フレームの静止画像を表示することのほか、動画を1または複数回、再生することを含む。また、医療画像取得部11が取得する医療画像には、内視鏡装置21等の医療装置を用いて医師が撮影した画像の他、内視鏡装置21等の医療装置が医師の撮影指示に依らず自動的に撮影した画像を含む。
 医療画像取得部11は、複数の医療画像を取得し得る場合、これらの医療画像のうち1または複数の医療画像を選択的に取得できる。また、医療画像取得部11は、複数の互いに異なる検査において取得した複数の医療画像を取得できる。例えば、過去に行った検査で取得した医療画像と、最新の検査で取得した医療画像と、の一方または両方を取得できる。すなわち、医療画像取得部11は、任意に医療画像を取得できる。
 本実施形態においては、被写体像を含む医療画像を複数取得する。より具体的には、1回の特定の検査において撮影した医療画像を取得し、かつ、1回の特定の検査において撮影した医療画像が複数ある場合には、一連の医療画像のうち複数の医療画像を取得する。また、本実施形態においては、医療画像処理装置10は、内視鏡装置21と接続し、内視鏡装置21から医療画像を取得する。すなわち、本実施形態において医療画像は、内視鏡画像である。
 図2に示すように、本実施形態において医療画像処理装置10が接続する内視鏡装置21は、白色の波長帯域の光もしくは特定の波長帯域の光の少なくともいずれかを照射して被写体を撮影することにより画像を取得する内視鏡31、内視鏡31を介して被写体内に照明光を照射する光源装置32、プロセッサ装置33、及び、内視鏡31を用いて撮影した内視鏡画像等を表示するモニタ34を有する。内視鏡31が照明光に使用する特定の波長帯域の光は、例えば、緑色波長帯域よりも短波長帯域の光、特に可視域の青色帯域または紫色帯域の光である。プロセッサ装置33は、内視鏡画像を生成する画像生成部36を備える。医療画像処理装置10は上記プロセッサ装置33と接続する。そして、医療画像取得部11は、内視鏡装置21の画像生成部36から直接に内視鏡画像を取得する。
 医療画像解析処理部12は、医療画像取得部11が取得した内視鏡画像を用いて解析処理をする。具体的には、図3に示すように、医療画像解析処理部12は、注目領域検出部41と、同一注目領域判定部42と、注目領域計数部43と、を含む。
 注目領域検出部41は、医療画像ごとに注目領域を検出する。本実施形態においては、1回の検査において撮影した複数の内視鏡画像についてそれぞれ注目領域を検出する。注目領域検出部41が検出する注目領域は、1または複数の病変、周辺の組織等と相違する色もしくは形状の特徴を有する領域、薬剤を散布等した領域、または、処置(生検、内視鏡的粘膜切除術(EMR(Endoscopic Mucosal Resection))、または、内視鏡的粘膜下層剥離術(ESD(Endoscopic Submucosal Dissection))等)を実施した領域、等の対象を含む領域である。注目領域を検出する医療画像が内視鏡画像である場合、病変とは、例えば、ポリープ(隆起性病変)であり、より具体的には過形成ポリープ(HP:hyperplastic polyp)、SSA/P(sessile serrated adenoma/polyp)、腺腫、癌、等である。また、周辺の組織等と相違する色もしくは形状の特徴を有する領域とは、被写体の発赤、萎縮、憩室、または、治療痕、等である。
 注目領域検出部41は、1枚の医療画像から複数(複数の箇所)の注目領域を検出することができる。この場合、各注目領域は一部が重複する場合がある。また、注目領域検出部41は、設定により、または、病変の種類等により、1つの病変を1つの注目領域として検出し、または、複数個の病変が集まった部分を1つの注目領域として検出する。この他、注目領域検出部41は、設定により、1または複数種類の注目領域(例えば特定の病変を含む領域と他の特徴を有する病変を含む領域)を検出できる。注目領域検出部41は、医療画像に写る被写体像の色もしくは形状等、または、医療画像に写る被写体像の色もしくは形状等を用いて算出する1または複数の特徴量(例えば酸素飽和度等)を用いて、注目領域を検出する。本実施形態においては、注目領域検出部41は、医療画像であるポリープ等を注目領域として検出する。
 同一注目領域判定部42は、医療画像ごとに検出した複数の注目領域が同一の対象を含む領域であるか否かを判定する。同一注目領域判定部42は、例えば、各医療画像もしくは各注目領域の色もしくは形状の類似度、各医療画像もしくは各注目領域に含まれる被写体像の色もしくは形状等を用いて算出する1もしくは複数の特徴量、各医療画像の撮影時刻、医療画像間の被写体の動き(被写体の動きの量及び方向を表す動きベクトル等)、または、これらを複合した判定条件を用いて、各医療画像の注目領域が同一の対象を含む領域であるか否かを判定する。例えば、注目領域の被写体像の類似度が高い場合、同一注目領域判定部42は、これらの注目領域を、同じ対象(例えば同一のポリープ)を検出した同一の注目領域であると判定できる。また、注目領域の被写体像に係る特徴量または特徴量の分布が類似する場合、同一注目領域判定部42はこれらを同じ対象を検出した同一の注目領域であると判定できる。また、同一注目領域判定部42は、一連の医療画像の撮影時刻または被写体の動きを参酌すれば、各医療画像に写る部分が被写体の同じ部分か否かを判別できる。その結果、同一注目領域判定部42は、撮影時刻または被写体の動きを用いて、各医療画像の注目領域が同一の対象を含む領域であるか否かを判定できる。
 注目領域計数部43は、同一注目領域判定部42における判定結果を用いて、重複を除いた注目領域の個数を計数(カウント)する。より具体的には、注目領域計数部43は、同一の注目領域を検出した医療画像をクラスタリングし、かつ、クラスタの個数を計数する。その結果、注目領域計数部43は、重複なく注目領域の個数を計数する。注目領域計数部43が行うクラスタリングにおいては、1枚の医療画像が、複数のクラスタに属する場合がある。例えば、1枚の医療画像に、ポリープX1と、ポリープX1とは別のポリープX2と、が写っている場合、この医療画像は、ポリープX1が写っている医療画像で形成するクラスタC-X1と、ポリープX2が写っている医療画像で形成するクラスタC-X2と、の両方に同時に属する。なお、注目領域計数部43は、同一注目領域判定部42における判定結果に合わせて任意にクラスタ(分類項目)を形成して医療画像をクラスタリングする。すなわち、クラスタリングの結果として1または複数の医療画像がクラスタを形成する。但し、注目領域計数部43は、設定により予め定めたクラスタに医療画像を分類することで医療画像をクラスタリングできる。
 表示部13は、医療画像取得部11が取得した医療画像、及び、医療画像解析処理部12の解析結果を表示するディスプレイである。医療画像処理装置10が接続するデバイス等が含むモニタまたはディスプレイを共用し、医療画像処理装置10の表示部13として使用できる。表示制御部15は、表示部13における医療画像及び解析結果の表示態様を制御する。
 入力受信部16は、医療画像処理装置10に接続するマウス、キーボード、その他操作デバイスからの入力を受け付ける。医療画像処理装置10の各部の動作はこれらの操作デバイスを用いて制御できる。
 統括制御部17は、医療画像処理装置10の各部の動作を統括的に制御する。入力受信部16が操作デバイスを用いた操作入力を受信した場合には、統括制御部17は、その操作入力にしたがって医療画像処理装置10の各部を制御する。
 保存部18は、医療画像処理装置10が含むメモリ等の記憶デバイス(図示しない)、または、内視鏡装置21等の医療装置もしくはPACS22が含む記憶デバイス(図示しない)に、少なくとも注目領域計数部43が計数した注目領域の個数を保存する。
 以下、医療画像処理装置10の動作の流れを説明する。図4に示すように、医療画像取得部11は、自動的にまたは手動選択により、複数の内視鏡画像を取得する(ステップS10)。本実施形態においては、医療画像取得部11は、いわゆる検査動画からフレーム画像を抽出することにより、図5~図9に示す内視鏡画像101,102,103,104,105を取得する。図5に示す内視鏡画像101は、病変等がない正常な部分を撮影した内視鏡画像である。図6に示す内視鏡画像102は、例えば、発赤111がある部分を撮影した内視鏡画像である。図7に示す内視鏡画像103は、ポリープ112(例えば過形成ポリープ)がある部分を撮影した内視鏡画像である。図8に示す内視鏡画像104は、ポリープ112を別の角度から撮影した内視鏡画像であり、図9に示す内視鏡画像105は、ポリープ112を拡大撮影した内視鏡画像である。
 医療画像取得部11が医療画像である内視鏡画像101,102,103,104,105を取得すると、注目領域検出部41は、内視鏡画像101,102,103,104,105ごとに注目領域を検出する(ステップS11)。内視鏡画像101は病変等を含まないので、注目領域検出部41は、注目領域を検出する処理(注目領域検出処理)を実行するが、結果として注目領域を検出しない(図5参照)。内視鏡画像102は発赤111を含むので、注目領域検出部41は発赤111の部分を注目領域122として検出する。内視鏡画像103は、ポリープ112を含むので、注目領域検出部41はポリープ112の部分を注目領域123として検出する。同様に、注目領域検出部41は、内視鏡画像104においてポリープ112の部分を注目領域124として検出し、かつ、内視鏡画像105においてポリープ112の部分を注目領域125として検出する。
 注目領域検出部41が内視鏡画像101,102,103,104,105ごとに、不検出である場合を含め、注目領域122,123,124,125を検出すると、同一注目領域判定部42が、これらの注目領域122,123,124,125が同一の対象を含む領域であるか否かを判定する(ステップS12)。本実施形態においては、注目領域122は発赤111を検出した領域であり、注目領域123,124,125はポリープ112を検出した領域である。このため、同一注目領域判定部42は、注目領域122を、他の注目領域123,124,125のいずれとも異なると判定する。また、注目領域123,124,125は、画像内での位置、撮影角度(撮影方向)、または、拡大率等が異なるが、同じポリープ112を検出した領域である。このため、同一注目領域判定部42は、内視鏡画像103の注目領域123と、内視鏡画像104の注目領域124と、内視鏡画像105の注目領域125と、を同一の対象を含む領域であると判定する。
 同一注目領域判定部42が、内視鏡画像101,102,103,104,105ごとに検出した注目領域122,123,124,125について同一か否かの判定をすると、注目領域計数部43は注目領域の個数を計数する(ステップS13)。本実施形態の場合、図10に示すように、注目領域計数部43は、同一注目領域判定部42の判定結果を用いて、内視鏡画像101,102,103,104,105をクラスタリングする。クラスタC0は、注目領域を含まない内視鏡画像を要素とするクラスタである。このため、クラスタC0には、内視鏡画像101が属する。クラスタC1は、発赤111を検出した注目領域122を含む内視鏡画像を要素とするクラスタである。このため、クラスタC1には、内視鏡画像102が属する。クラスタC2は、ポリープ112を検出した注目領域123,124,125を含む内視鏡画像を要素とするクラスタである。このため、クラスタC2には、内視鏡画像103,104,105が属する。
 内視鏡画像101,102,103,104,105をクラスタリングすると、注目領域計数部43は、クラスタリングの結果、形成したクラスタの個数を計数する。本実施形態の場合、クラスタリングの結果、クラスタC0と、クラスタC1と、クラスタC2と、の3個のクラスタを形成するが、クラスタC0は注目領域を含まない内視鏡画像101を要素とするクラスタなので、注目領域計数部43は、クラスタC0を除き、注目領域を含む内視鏡画像102,103,104,105を要素とするクラスタC1,C2を計数の対象とする。これにより、注目領域計数部43は、注目領域を含む内視鏡画像を要素とするクラスタの個数、すなわち、独立した注目領域の個数が2個(2種類)であって、検出した発赤111の個数は1個であり、かつ、検出したポリープ112の個数が1個であるとの結果を得ることができる。注目領域計数部43が計数した独立した注目領域の個数は、保存部18が所定の記憶デバイスに保存する(ステップS14)。
 上記のように、医療画像処理装置10は、複数の医療画像からそれぞれ検出した複数の注目領域が同一の対象を含む領域であるか否かを判定することによって、独立した注目領域の個数を計数するので、医療画像処理装置10は、医療画像の解析結果である発赤111の個数及びポリープ112等の個数を自動的かつ正確に集計できる。この結果、医療画像処理装置10は、医療画像の解析結果の集計に係る医師の作業負担を低減できる。
 [第2実施形態]
 上記第1実施形態においては、発赤111とポリープ112とを各々の個数を計数するので、注目領域計数部43は注目領域の種別ごとに注目領域の個数を計数している。しかし、注目領域計数部43は、さらに詳細に注目領域の種別ごとに注目領域の個数を計数できる。
 この場合、図11に示すように、医療画像解析処理部12には、注目領域検出部41、同一注目領域判定部42、及び、注目領域計数部43に加えて、種別判定部201を設ける。種別判定部201は、医療画像を用いて注目領域の種別を判定する。注目領域の種別とは、注目領域が含む病変の種類、サイズ、管腔内その他被写体における位置、肉眼形態、または、内視鏡所見分類等の被写体の特徴に基づく種別、薬剤の使用状況もしくは処置の内容等の手技の種別、または、これら条件を複合した複合条件に基づく種別等である。内視鏡所見分類とは、NICE(The Narrow-band imaging International Colorectal Endoscopic)分類、または、JNET(The Japan NBI(Narrow Band Imaging) Expert Team)分類等である。薬剤とは、色素剤または染色剤(インジゴカルミンまたはピオクタニン等)等である。
 そして、種別判定部201を設ける場合、注目領域計数部43は、同一注目領域判定部42における判定結果と、種別判定部201における種別に係る判定結果と、を用いて、注目領域の重複を除き、かつ、注目領域の種別ごとに、注目領域の個数を計数する。また、保存部18は、所定の記憶デバイスに、少なくとも注目領域計数部43が種別ごとに計数した注目領域の個数を保存する。
 これにより、医療画像処理装置10は、医療画像の解析結果を病変の種別ごとに自動的かつ正確に集計できる。この結果、医療画像処理装置10は、医療画像の解析結果の集計に係る医師の作業負担を低減できる。具体的には、種別判定部201が病変の種類を判定する場合、注目領域計数部43は、例えば、過形成ポリープ、腺腫、及び、SSA/Pの個数をそれぞれ計数できる。また、種別判定部201が病変のサイズを判定する場合、注目領域計数部43は、例えば、5mm以上の病変の個数と、5mm未満の病変の個数と、をそれぞれ計数できる。また、種別判定部201が管腔内における位置を判定する場合、注目領域計数部43は、例えば、上行結腸にある病変の個数と、横行結腸にある病変の個数と、下行結腸にある病変の個数と、をそれぞれ計数できる。例えば、種別判定部201が病変の種類とサイズを判定する場合、注目領域計数部43は、例えば、5mm以上の腺腫の個数と、5mm未満の腺腫の個数と、をそれぞれ計数できる。この他、種別判定部201が、病変の肉眼形態、または、病変の内視鏡所見分類を判定する場合も同様である。種別判定部201が薬剤の使用状況を判定する場合、注目領域計数部43は、例えば、インジゴカルミンを散布した注目領域の個数と、ピオクタニンを散布した注目領域の個数と、薬剤を散布していない注目領域の個数と、をそれぞれ計数できる。同様に、種別判定部201が処置の内容を判定する場合、注目領域計数部43は、生検を行った注目領域の個数と、EMRを行った注目領域の個数と、ESDを行った注目領域の個数と、処置をしていない注目領域の個数と、をそれぞれ計数できる。
 なお、第2実施形態においては、種別判定部201において注目領域の種別を判定しているが、注目領域の種別の一部または全部を医師が入力できる。この場合においても、医師は、注目領域の種別を選択等により入力するだけで、医療画像の解析結果を病変の種別ごとに自動的かつ正確に集計できる。このため、医療画像処理装置10は、医療画像の解析結果の集計に係る医師の作業負担を低減できる。
 [第3実施形態]
 第1実施形態及び第2実施形態の医療画像処理装置10において注目領域計数部43が計数した注目領域の個数は、検査時間と関連付けて保存することが好ましい。注目領域の個数と関連付ける「検査時間」とは、例えば、大腸の内視鏡検査(大腸検査)の場合、挿入時間、抜去時間、または、これらの両方である。挿入時間とは、内視鏡31の挿入に要した時間であって、具体的には内視鏡31の挿入開始から盲腸到達までの時間である。抜去時間とは、盲腸に到達後、検査終了までに要した時間である。
 注目領域計数部43が計数した注目領域の個数と、検査時間と、を関連付けて保存する場合、図12に示すように、医療画像解析処理部12には、注目領域検出部41、同一注目領域判定部42、及び、注目領域計数部43に加え、撮影時刻取得部301を備える。本実施形態においては、注目領域の個数と、挿入時間及び抜去時間と、を関連付けて保存するため、医療画像解析処理部12にはさらに検査時間算出部302を備える。
 撮影時刻取得部301は、医療画像取得部11が取得した医療画像の撮影時刻を取得する。医療画像のヘッダ等に撮影時刻の情報が記録されている場合、撮影時刻取得部301は、医療画像からその撮影時刻を取得することができる。また、内視鏡装置21等の医療装置またはPACS22が撮影時刻の情報を保持している場合、医療画像処理装置10は接続した医療装置またはPACS22から撮影時刻を取得することができる。この他、医療画像取得部11が検査動画のフレーム画像を医療画像として取得する場合も、検査動画のヘッダ等から情報を得て、各医療画像の撮影時刻を取得または算出する。
 検査時間算出部302は、医療画像取得部11が取得した複数の医療画像のうち2つの医療画像の撮影時刻を用いて挿入時間、抜去時間、またはこれらの両方を算出する。本実施形態においては、検査時間算出部302は、挿入時間及び抜去時間を算出する。具体的には、検査時間算出部302は、複数の医療画像のうち、内視鏡31の挿入を開始した際に撮影した医療画像(肛門またはその付近が写った医療画像)の撮影時刻と、内視鏡31が盲腸に到達した際に撮影した医療画像(盲腸が写った医療画像)の撮影時刻と、の差により挿入時間を算出する。同様に、検査時間算出部302は、複数の医療画像のうち、内視鏡31が盲腸に到達した際に撮影した医療画像の撮影時刻と、内視鏡31を被検体内から抜去した際に撮影した医療画像(肛門またはその付近が写った医療画像)の撮影時刻と、の差により、挿入時間を算出する。本実施形態においては、大腸検査の場合を例示しているが、その他の部位等を検査する場合も同様である。すなわち、検査時間算出部302は、被写体の特定の部位または特定の位置(盲腸等の他、部位の変わり目付近または病変等の好発部位または位置等)を撮影した医療画像の撮影時刻を用いて検査時間を算出する。こうすると、病変の有無等に関わらず、被写体の特定の部位または特定の位置を撮影することが慣習となっている検査において、特に実際的な検査時間を算出できる。
 保存部18は、注目領域計数部43が計数した注目領域の個数と、検査時間算出部302が算出した検査時間と、を関連付けて、所定の記憶デバイスに記憶する。
 上記のように、注目領域計数部43が計数した注目領域の個数と、検査時間と、を関連付けて保存しておくと、研究等の2次利用において有用である。
 なお、検査時間は、医療画像処理装置10等に対して医師等が手動で入力することができる。この場合、撮影時刻取得部301は医師等が入力した検査時間を取得し、かつ、保存部18は、注目領域計数部43が計数した注目領域の個数と、医師等が入力した検査時間と、を関連付けて所定の記憶デバイスに記憶する。また、検査の開始時刻、検査の終了時刻、または、これらの両方を医師等が手動で入力する場合、検査時間算出部302は、医師等が入力した検査の開始時刻、検査の終了時刻、または、これらの両方を用いて検査に要した時間を算出することができる。例えば、大腸の内視鏡検査においては、検査の開始時刻は内視鏡31の挿入開始時刻であり、検査の終了時刻は、内視鏡31の抜去完了時刻であり、かつ、これらは通常、医師等が入力する項目である。この他、医療画像の撮影時刻を医師等が手動で入力し得る場合、撮影時刻取得部301は医師等が入力した撮影時刻を取得し、かつ、検査時間算出部302は医師等が入力した撮影時刻を用いて検査時間を算出することができる。
 [第4実施形態]
 第3実施形態においては、注目領域計数部43が計数した注目領域の個数と、検査時間と、を関連付けて保存しているが、検査時間の代わりに、または、検査時間に加えて、注目領域計数部43が計数した注目領域の個数と、検査情報と、を関連付けて保存することが好ましい。検査情報とは、患者または医師に係る情報である。例えば、患者の年齢、性別、既往歴、または、現在の病変等に対する処置の内容等は、検査情報である。また、例えば、医師の氏名(ID(identification)等)、経歴、実績(特定の病変を診察した件数等)等は、検査情報である。
 注目領域計数部43が計数した注目領域の個数と、検査情報と、を関連付けて保存する場合、図13に示すように、医療画像解析処理部12に、注目領域検出部41、同一注目領域判定部42、及び、注目領域計数部43に加え、検査情報取得部401を備える。検査情報取得部401は、患者または医師に係る情報である検査情報を取得する。そして、保存部18は、注目領域計数部43が計数した注目領域の個数と、検査情報取得部401が取得した検査情報と、を関連付けて、所定の記憶デバイスに記憶する。
 上記のように、注目領域計数部43が計数した注目領域の個数と、検査情報と、を関連付けて記憶しておくと、研究等の2次利用において有用である。また、注目領域計数部43が計数した注目領域の個数と、医師に関する検査情報と、を関連付けて保存しておくと、検査をした医師の技量を表す指標となる情報を得ることができる。
 なお、第3実施形態においては、注目領域計数部43が計数した注目領域の個数と、検査時間と、を関連付けて保存し、かつ、第4実施形態においては、注目領域計数部43が計数した注目領域の個数と、検査情報と、を関連付けて保存しているが、注目領域計数部43が計数した注目領域の個数と関連付けて保存する項目は、医師ごとまたは病院ごとに、任意に設定できることが好ましい。こうすると研究の目的等に応じて、無駄なく情報を整理して保存しておくことができる。医療画像処理装置10は、入力受信部16において注目領域計数部43が計数した注目領域の個数と関連付けて保存する項目を設定することができる。
 上記実施形態においては、医療画像処理装置10と内視鏡装置21は別個の装置であるが、内視鏡装置21は、医療画像処理装置10を含むことができる。この場合、図14に示すように、医療画像処理装置10を構成する各部520は、プロセッサ装置33に設ける。但し、表示部13は、内視鏡装置21のモニタ34を共用できるので、プロセッサ装置33には表示部13以外の各部を設ければ足りる。また、上記実施形態及びその他変形例の医療画像処理装置10と、図2の内視鏡装置21と、の全体で新たな内視鏡装置を構成できる。
 内視鏡装置21は、基本的にリアルタイムに被写体を観察する装置であるから、上記のように、内視鏡装置21が医療画像処理装置10を含む場合、注目領域の検出、同一注目領域の判定、及び、注目領域の計数は、内視鏡画像を撮影した際に、または、任意のタイミングで実行できる。
 また、図15に示すように、内視鏡装置21その他モダリティと組み合わせて使用する診断支援装置610は、上記実施形態及びその他変形例の医療画像処理装置10を含むことができる。また、図16に示すように、例えば内視鏡装置21を含む、第1検査装置621、第2検査装置622、…、第N検査装置633等の各種検査装置と任意のネットワーク626を介して接続する医療業務支援装置630は、上記実施形態及びその他変形例の医療画像処理装置10を含むことができる。
 この他、医療画像処理装置10、及び、医療画像処理装置10を含む各種装置、及び、医療画像処理装置10の機能を内包する各種装置またはシステムは、以下の種々の変更等をして使用できる。
 医療画像としては、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像を用いることができる。
 医療画像としては、特定の波長帯域の光を照射して得た画像を使用する場合、特定の波長帯域は、白色の波長帯域よりも狭い帯域を用いることができる。
 特定の波長帯域は、例えば、可視域の青色帯域または緑色帯域である。
 特定の波長帯域が可視域の青色帯域または緑色帯域である場合、特定の波長帯域は、390nm以上450nm以下または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有することが好ましい。
 特定の波長帯域は、例えば、可視域の赤色帯域である。
 特定の波長帯域が可視域の赤色帯域である場合、特定の波長帯域は、585nm以上615nmまたは610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有することが好ましい。
 特定の波長帯域は、例えば、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有することができる。
 特定の波長帯域が、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する場合、特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域にピーク波長を有することが好ましい。
 医療画像が生体内を写した生体内画像である場合、この生体内画像は、生体内の蛍光物質が発する蛍光の情報を有することができる。
 また、蛍光は、ピーク波長が390nm以上470nm以下である励起光を生体内に照射して得る蛍光を利用できる。
 医療画像が生体内を写した生体内画像である場合、前述の特定の波長帯域は、赤外光の波長帯域を利用することができる。
 医療画像が生体内を写した生体内画像であり、前述の特定の波長帯域として、赤外光の波長帯域を利用する場合、特定の波長帯域は、790nm以上820nmまたは905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有することが好ましい。
 医療画像取得部11は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の信号を有する特殊光画像を取得する特殊光画像取得部を有することができる。この場合、医療画像として特殊光画像を利用できる。
 特定の波長帯域の信号は、通常光画像に含むRGBまたはCMYの色情報に基づく演算により得ることができる。
 白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備えることができる。この場合、医療画像として特徴量画像を利用できる。
 内視鏡装置21については、内視鏡31としてカプセル内視鏡を使用できる。この場合、光源装置32と、プロセッサ装置33の一部と、はカプセル内視鏡に搭載できる。
 上記実施形態及び変形例において、医療画像取得部11、医療画像解析処理部12及び医療画像解析処理部12を構成する各部、表示制御部15、入力受信部16、統括制御部17、並びに、画像生成部36といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
 10 医療画像処理装置
 11 医療画像取得部
 12 医療画像解析処理部
 13 表示部
 15 表示制御部
 16 入力受信部
 17 統括制御部
 18 保存部
 21 内視鏡装置
 22 PACS
 31 内視鏡
 32 光源装置
 33 プロセッサ装置
 34 モニタ
 36 画像生成部
 41 注目領域検出部
 42 同一注目領域判定部
 43 注目領域計数部
 101,102,103,104,105 内視鏡画像
 111 発赤
 112 ポリープ
 122,123,124,125 注目領域
 201 種別判定部
 301 撮影時刻取得部
 302 検査時間算出部
 401 検査情報取得部
 520 医療画像処理装置を構成する各部
 610 診断支援装置
 621 第1検査装置
 622 第2検査装置
 623 第N検査装置
 626 ネットワーク
 630 医療業務支援装置
 C0,C1,C2 クラスタ
 

Claims (11)

  1.  被写体像を含む医療画像を複数取得する医療画像取得部と、
     前記医療画像ごとに注目領域を検出する注目領域検出部と、
     前記医療画像ごとに検出した複数の前記注目領域が同一の対象を含む領域であるか否かを判定する同一注目領域判定部と、
     前記同一注目領域判定部における判定結果を用いて、重複を除いた前記注目領域の個数を計数する注目領域計数部と、
     を備える医療画像処理装置。
  2.  前記注目領域計数部は、同一の前記注目領域を検出した前記医療画像をクラスタリングし、かつ、クラスタの個数を計数する請求項1に記載の医療画像処理装置。
  3.  前記注目領域計数部は、前記注目領域の種別ごとに前記注目領域の個数を計数する請求項1または2に記載の医療画像処理装置。
  4.  前記注目領域の種別は、前記注目領域が含む病変の種類、サイズ、管腔内における位置、肉眼形態、または、内視鏡所見分類を含む請求項3に記載の医療画像処理装置。
  5.  前記注目領域の種別は、薬剤の使用状況または処置の内容を含む請求項3に記載の医療画像処理装置。
  6.  前記医療画像を用いて前記注目領域の種別を判定する種別判定部を備え、
     前記注目領域計数部は、前記種別判定部における前記注目領域の種別に係る判定結果を用いて、前記注目領域の種別ごとに前記注目領域の個数を計数する請求項3~5のいずれか1項に記載の医療画像処理装置。
  7.  前記注目領域の個数と、検査時間と、を関連付けて保存する請求項1~6のいずれか1項に記載の医療画像処理装置。
  8.  前記検査時間は、挿入時間、抜去時間、または、挿入時間と抜去時間の両方を含む請求項7に記載の医療画像処理装置。
  9.  前記医療画像の撮影時刻を取得する撮影時刻取得部と、
     複数の前記医療画像のうち2つの前記医療画像の撮影時刻を用いて前記検査時間を算出する検査時間算出部と、
     を備える請求項7または8に記載の医療画像処理装置。
  10.  前記検査時間算出部は、特定の部位または位置を撮影した前記医療画像の撮影時刻を用いて前記検査時間を算出する請求項9に記載の医療画像処理装置。
  11.  患者または医師に係る情報である検査情報を取得する検査情報取得部を備え、
     前記注目領域の個数と、前記検査情報と、を関連付けて保存する請求項1~10のいずれか1項に記載の医療画像処理装置。
     
PCT/JP2018/032972 2017-09-15 2018-09-06 医療画像処理装置 WO2019054265A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019542016A JPWO2019054265A1 (ja) 2017-09-15 2018-09-06 医療画像処理装置
CN201880057673.7A CN111050628B (zh) 2017-09-15 2018-09-06 医疗图像处理装置
EP18855554.4A EP3682791B1 (en) 2017-09-15 2018-09-06 Medical image processing device
US16/795,506 US11449988B2 (en) 2017-09-15 2020-02-19 Medical image processing apparatus
JP2021183297A JP7411618B2 (ja) 2017-09-15 2021-11-10 医療画像処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017177822 2017-09-15
JP2017-177822 2017-09-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/795,506 Continuation US11449988B2 (en) 2017-09-15 2020-02-19 Medical image processing apparatus

Publications (1)

Publication Number Publication Date
WO2019054265A1 true WO2019054265A1 (ja) 2019-03-21

Family

ID=65723656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/032972 WO2019054265A1 (ja) 2017-09-15 2018-09-06 医療画像処理装置

Country Status (5)

Country Link
US (1) US11449988B2 (ja)
EP (1) EP3682791B1 (ja)
JP (3) JPWO2019054265A1 (ja)
CN (1) CN111050628B (ja)
WO (1) WO2019054265A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019220848A1 (ja) * 2018-05-17 2019-11-21 富士フイルム株式会社 内視鏡装置、内視鏡操作方法、及びプログラム
WO2020194568A1 (ja) * 2019-03-27 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020012530A1 (ja) * 2018-07-09 2020-01-16 日本電気株式会社 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
JP7038641B2 (ja) * 2018-11-02 2022-03-18 富士フイルム株式会社 医療診断支援装置、内視鏡システム、及び作動方法
CN114565582B (zh) * 2022-03-01 2023-03-10 佛山读图科技有限公司 一种医学图像分类和病变区域定位方法、系统及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165677A (ja) * 2003-12-02 2005-06-23 Olympus Corp 検査マネージメント方法及び検査マネージメントシステム
WO2006123455A1 (ja) * 2005-05-20 2006-11-23 Olympus Medical Systems Corp. 画像表示装置
JP2008061704A (ja) * 2006-09-05 2008-03-21 Olympus Medical Systems Corp 画像表示装置
JP2008301968A (ja) * 2007-06-06 2008-12-18 Olympus Medical Systems Corp 内視鏡画像処理装置
JP2011110429A (ja) 2009-11-25 2011-06-09 Fujifilm Corp 医用画像中の注目対象を測定するためのシステムおよび方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003126045A (ja) * 2001-10-22 2003-05-07 Olympus Optical Co Ltd 診断支援装置
JP4007954B2 (ja) * 2003-11-04 2007-11-14 オリンパス株式会社 画像処理装置、該方法、及び該プログラム
US8900124B2 (en) 2006-08-03 2014-12-02 Olympus Medical Systems Corp. Image display device
JP2007236957A (ja) * 2007-03-16 2007-09-20 Olympus Corp 内視鏡診断支援装置及び内視鏡画像処理方法
CN101273916B (zh) * 2007-03-30 2013-07-17 吉温成像有限公司 评估患者状况的系统和方法
JP5220705B2 (ja) * 2009-07-23 2013-06-26 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP5220780B2 (ja) * 2010-02-05 2013-06-26 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
JP5597021B2 (ja) * 2010-04-15 2014-10-01 オリンパス株式会社 画像処理装置及びプログラム
JP2011255006A (ja) * 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法
JP5492729B2 (ja) * 2010-09-28 2014-05-14 富士フイルム株式会社 内視鏡画像記録装置、及び内視鏡画像記録装置の作動方法、並びにプログラム
JP5580758B2 (ja) * 2011-02-22 2014-08-27 オリンパス株式会社 蛍光観察装置
JP5818520B2 (ja) * 2011-06-06 2015-11-18 株式会社東芝 医用画像処理システム
JP6116899B2 (ja) * 2012-01-16 2017-04-19 東芝メディカルシステムズ株式会社 医用画像診断装置及び制御プログラム
JP5620932B2 (ja) * 2012-02-14 2014-11-05 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP5865734B2 (ja) * 2012-03-01 2016-02-17 株式会社Screenホールディングス 領域分類装置、そのプログラム、基板検査装置、および領域分類方法
WO2014073527A1 (ja) * 2012-11-07 2014-05-15 オリンパスメディカルシステムズ株式会社 医療用画像処理装置
JP6188477B2 (ja) 2013-08-02 2017-08-30 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
JP6030035B2 (ja) * 2013-09-27 2016-11-24 富士フイルム株式会社 蛍光観察装置、内視鏡システム及びプロセッサ装置並びに作動方法
JP6027960B2 (ja) * 2013-12-13 2016-11-16 オリンパス株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
JP5942044B2 (ja) * 2014-02-14 2016-06-29 オリンパス株式会社 内視鏡システム
JP6371544B2 (ja) * 2014-03-14 2018-08-08 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6351323B2 (ja) * 2014-03-20 2018-07-04 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2016006635A (ja) * 2014-05-29 2016-01-14 パナソニック株式会社 制御方法及びプログラム
JP2016021216A (ja) * 2014-06-19 2016-02-04 レイシスソフトウェアーサービス株式会社 所見入力支援システム、装置、方法およびプログラム
JP6588256B2 (ja) * 2015-07-06 2019-10-09 オリンパス株式会社 内視鏡検査データ記録システム
CN106560827B (zh) * 2015-09-30 2021-11-26 松下知识产权经营株式会社 控制方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165677A (ja) * 2003-12-02 2005-06-23 Olympus Corp 検査マネージメント方法及び検査マネージメントシステム
WO2006123455A1 (ja) * 2005-05-20 2006-11-23 Olympus Medical Systems Corp. 画像表示装置
JP2008061704A (ja) * 2006-09-05 2008-03-21 Olympus Medical Systems Corp 画像表示装置
JP2008301968A (ja) * 2007-06-06 2008-12-18 Olympus Medical Systems Corp 内視鏡画像処理装置
JP2011110429A (ja) 2009-11-25 2011-06-09 Fujifilm Corp 医用画像中の注目対象を測定するためのシステムおよび方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019220848A1 (ja) * 2018-05-17 2019-11-21 富士フイルム株式会社 内視鏡装置、内視鏡操作方法、及びプログラム
JPWO2019220848A1 (ja) * 2018-05-17 2021-05-13 富士フイルム株式会社 内視鏡装置、内視鏡操作方法、及びプログラム
EP3795062A4 (en) * 2018-05-17 2021-06-16 FUJIFILM Corporation ENDOSCOPE DEVICE, ENDOSCOPE OPERATING PROCESS AND PROGRAM
JP7135082B2 (ja) 2018-05-17 2022-09-12 富士フイルム株式会社 内視鏡装置、内視鏡装置の作動方法、及びプログラム
US11950760B2 (en) 2018-05-17 2024-04-09 Fujifilm Corporation Endoscope apparatus, endoscope operation method, and program
WO2020194568A1 (ja) * 2019-03-27 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
CN112566540A (zh) * 2019-03-27 2021-03-26 Hoya株式会社 内窥镜用处理器、信息处理装置、内窥镜系统、程序以及信息处理方法
JPWO2020194568A1 (ja) * 2019-03-27 2021-04-08 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
CN112566540B (zh) * 2019-03-27 2023-12-19 Hoya株式会社 内窥镜用处理器、信息处理装置、内窥镜系统、程序以及信息处理方法
US11944262B2 (en) 2019-03-27 2024-04-02 Hoya Corporation Endoscope processor, information processing device, and endoscope system

Also Published As

Publication number Publication date
US20200184645A1 (en) 2020-06-11
CN111050628B (zh) 2022-09-06
EP3682791B1 (en) 2023-12-20
US11449988B2 (en) 2022-09-20
EP3682791A4 (en) 2020-11-04
JP2023026617A (ja) 2023-02-24
JPWO2019054265A1 (ja) 2020-10-01
CN111050628A (zh) 2020-04-21
JP2022010202A (ja) 2022-01-14
JP7411618B2 (ja) 2024-01-11
EP3682791A1 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP7411618B2 (ja) 医療画像処理装置
JP7296498B2 (ja) 医療画像処理装置、及び、内視鏡装置
JP6827557B2 (ja) 医療画像処理装置
JP6920931B2 (ja) 医療画像処理装置、内視鏡装置、診断支援装置、及び、医療業務支援装置
CN112512398B (zh) 医疗图像处理装置
US11862327B2 (en) Medical image processing system
CN112584741A (zh) 医疗图像处理系统
US11867896B2 (en) Endoscope system and medical image processing system
WO2020184257A1 (ja) 医用画像処理装置及び方法
JP6785990B2 (ja) 医療画像処理装置、及び、内視鏡装置
CN112584740B (zh) 医疗图像处理装置
JP6834019B2 (ja) 医療画像処理装置、及び、内視鏡装置
CN112867430B (zh) 医疗图像处理系统及学习方法
JP6866497B2 (ja) 医療画像処理装置、及び、内視鏡装置
US11830185B2 (en) Medical image processing system and learning method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18855554

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019542016

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018855554

Country of ref document: EP

Effective date: 20200415