WO2023053991A1 - 医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム - Google Patents

医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム Download PDF

Info

Publication number
WO2023053991A1
WO2023053991A1 PCT/JP2022/034597 JP2022034597W WO2023053991A1 WO 2023053991 A1 WO2023053991 A1 WO 2023053991A1 JP 2022034597 W JP2022034597 W JP 2022034597W WO 2023053991 A1 WO2023053991 A1 WO 2023053991A1
Authority
WO
WIPO (PCT)
Prior art keywords
inappropriate
image
medical image
area
factor
Prior art date
Application number
PCT/JP2022/034597
Other languages
English (en)
French (fr)
Inventor
弘亮 岩根
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN202280066538.5A priority Critical patent/CN118042977A/zh
Priority to JP2023551309A priority patent/JPWO2023053991A1/ja
Publication of WO2023053991A1 publication Critical patent/WO2023053991A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons

Definitions

  • the present invention relates to a medical image processing apparatus, a method of operating the medical image processing apparatus, and a program for the medical image processing apparatus.
  • Image recognition processing that detects lesions based on medical images is known.
  • endoscope systems there is known an endoscope system or the like that notifies a lesion site by controlling a notification means or the like based on the degree of risk of overlooking the lesion by the user (Patent Document 1).
  • An object of the present invention is to provide a medical image processing apparatus, an operation method of the medical image processing apparatus, and a program for the medical image processing apparatus, which can obtain image recognition processing results with higher reliability or accuracy.
  • the medical image processing apparatus of the present invention includes a processor.
  • the processor acquires medical images including the subject image, performs image recognition processing based on the medical images, controls display of the medical images and the results of the image recognition processing on the display, and performs image recognition processing based on the medical images.
  • Inappropriate area detection processing is performed to detect an inappropriate area, and based on the detection result of the inappropriate area detection process, control is performed to notify the detection result.
  • Inappropriate area detection processing preferably specifies the position of the inappropriate area in the medical image, and the detection result includes the position of the inappropriate area in the medical image.
  • the processor controls at least one of notifying the detection result with an image on the display, notifying the vibration generating means with vibration, and notifying the sound generating means with sound. preferably.
  • the processor preferably controls a display including a main area and sub-areas to display the medical image in the main area and display the detection results in the sub-area.
  • the processor preferably controls the display to display a superimposed image in which the detection result is superimposed on the medical image.
  • the processor performs inappropriate factor identification processing to identify an inappropriate factor that makes the inappropriate area inappropriate for image recognition processing based on the medical image, and controls to notify the identification result based on the identification result of the inappropriate factor identification processing. It is preferable to
  • the identification result includes a plurality of inappropriate factors, and the processor preferably performs control to report the identification result in a manner different from each other for each inappropriate factor.
  • the identification result includes multiple inappropriate factors, and the processor preferably controls notification of the identification result based on a combined inappropriate factor obtained by combining at least two of the multiple inappropriate factors.
  • Inappropriate factors are preferably blurred or blurred images in medical images, images of water, blood, residue, or dirt on the lens, or images of dark or halation areas.
  • the inappropriate factor is preferably that the accuracy rate calculated based on the result of image recognition processing is equal to or less than a preset value.
  • the inappropriate factor identification process refers to the inappropriate factor and the avoidance information to determine the inappropriate factor avoidance method in the inappropriate area. is acquired, and the identification result preferably includes a method of avoiding inappropriate factors in the inappropriate area.
  • the processor controls an imaging device that captures an image of the subject and generates a medical image, and controls the imaging device to execute a method of avoiding inappropriate factors.
  • the degree of inappropriateness representing the degree of inappropriateness for image recognition processing is identified for each inappropriate factor, and the processor performs control to vary the mode of notification of the detection result based on the degree of inappropriateness. is preferred.
  • the processor When performing control to notify the detection result, the processor preferably sets a threshold for notification in advance, and performs control to vary the mode of notification of the detection result based on the threshold for notification.
  • the processor is connected to the image storage unit, and controls to store the medical image and the information superimposed image obtained by superimposing at least one of the result of the image recognition processing, the detection result, and the identification result on the medical image in the image storage unit. It is preferable to have
  • the processor is connected to the image storage unit, and controls to store an information-attached image obtained by adding at least one of the result of image recognition processing, the result of detection, and the result of identification to the attached information of the medical image, in the image storage unit. preferably.
  • the processor calculates the quality index of the medical image based on the inappropriate area of the medical image and controls the display of the quality index on the display.
  • the medical images are obtained in the examination of the subject, and the processor can control the display to display an overall examination score calculated based on the quality indicators of the plurality of medical images obtained in the examination. preferable.
  • a method for operating a medical image processing apparatus of the present invention includes the steps of obtaining a medical image including an image of a subject, performing image recognition processing based on the medical image, and displaying the medical image and the result of the image recognition processing. , a step of performing inappropriate area detection processing for detecting an inappropriate area that is inappropriate for image recognition processing based on the medical image, and based on the detection result of the inappropriate area detection process, and a step of performing control to report the detection result.
  • the program for a medical image processing apparatus of the present invention includes a process of obtaining a medical image including a subject image, a process of performing image recognition processing based on the medical image, and displaying the medical image and the result of the image recognition processing on a display.
  • Processing to control display, processing to perform inappropriate area detection processing to detect inappropriate areas that are inappropriate for image recognition processing based on medical images, and detection based on the detection results of inappropriate area detection processing A computer is caused to execute a control process for notifying the result.
  • FIG. 1 is a block diagram showing functions of a medical image processing apparatus; FIG. It is a block diagram explaining a structure of a medical image processing apparatus.
  • 4 is a block diagram showing functions of a recognition processing unit; FIG. FIG. 4(a) is an explanatory diagram for explaining the process of displaying the attention area detected by the attention area detector by the shape of the attention area, and FIG. 4(b) is an illustration of the attention area detected by the attention area detector. is an explanatory diagram for explaining a process of displaying the , in a rectangular shape.
  • FIG. 4 is an image diagram displaying an endoscopic image and the result of recognition processing, which is detection processing.
  • FIG. 10 is an image diagram displaying an endoscopic image and the result of recognition processing, which is classification processing; FIG.
  • FIG. 4 is an image diagram displaying an endoscopic image and a result of recognition processing, which is part recognition processing; 4 is a block diagram showing functions of an inappropriate area detection unit; FIG. FIG. 9A is an explanatory diagram for explaining an inappropriate area due to the halation part detected by the inappropriate area detector, and FIG. 9B is an inappropriate area due to the dark part detected by the inappropriate area detector. It is an explanatory view explaining.
  • FIG. 10 is an image diagram displaying an endoscopic image, a result of detection processing, and a result of inappropriate region detection processing in sub-regions; FIG. 10 is an image diagram displaying an endoscopic image, a result of detection processing, and a result of inappropriate area detection processing in a main area; FIG.
  • FIG. 10 is a block diagram showing functions of an inappropriate area detection unit including an inappropriate factor classifier;
  • FIG. 13(a) is an explanatory diagram for explaining an inappropriate factor that is a halation portion detected by the inappropriate factor identifier, and
  • FIG. It is an explanatory view explaining a factor.
  • FIG. 10 is an image diagram of an image that notifies an inappropriate factor identification result by an inappropriate factor identifier;
  • FIG. 4 is a block diagram showing functions of an inappropriate area detection unit including various detection units;
  • FIG. 11 is an image diagram of an image that notifies an inappropriate factor identification result by each detection unit;
  • FIG. 4 is a block diagram showing functions of an inappropriate area detection unit including avoidance information;
  • FIG. 5 is an explanatory diagram for explaining avoidance information;
  • FIG. 10 is an image diagram for notifying an avoidance method and an inappropriate factor identification result
  • FIG. 4 is a block diagram showing functions of an inappropriate area detection unit including an imaging device control unit
  • FIG. 10 is an image diagram for notifying avoidance execution information and inappropriate factor identification results
  • FIG. 10 is a block diagram showing functions of an inappropriate area detection unit having inappropriateness level threshold information
  • FIG. 10 is an explanatory diagram for explaining inappropriateness degree threshold information
  • It is an explanatory view explaining an information addition image.
  • 2 is a block diagram showing functions of a medical image processing apparatus including a quality index calculator
  • FIG. 10 is an image diagram displaying a quality index
  • FIG. 10 is an image diagram for explaining an overall map
  • FIG. 11 is an image diagram for explaining an overall check sheet
  • 4 is a flowchart for explaining the flow of processing of the medical image processing apparatus;
  • the medical image processing apparatus 10 includes a medical image acquisition unit 11 , recognition processing unit 12 , display control unit 13 , inappropriate area detection unit 14 , and notification control unit 15 .
  • the medical image processing apparatus 10 includes an endoscope apparatus 18, various modalities such as X-ray examination (not shown), RIS (Radiology Information Systems) or an examination information system such as an endoscope information system (Fig. not shown), PACS (Picture Archiving and Communication System) 19 and other devices capable of outputting medical images, a display device such as a display 20, and an input device 21 such as a keyboard.
  • the medical image processing device 10 performs image recognition processing based on medical images acquired from the endoscope device 18 or the like, and controls display of the medical image and the image recognition processing result of the medical image on the display 20 .
  • a doctor who is a user uses the medical image and the image recognition processing result shown on the display 20 for diagnosis.
  • the medical image processing apparatus 10 performs inappropriate area detection processing for detecting an inappropriate area, which is an inappropriate area for image recognition processing, based on the medical image, and notifies the doctor of the detection result of the inappropriate area detection process. to control.
  • the detection result indicates that an inappropriate area has been detected
  • the doctor can recognize that the medical image used for the image recognition process has an inappropriate area for the image recognition process.
  • the doctor can recognize that the medical image used for image recognition processing does not have an inappropriate region for image recognition processing.
  • Medical images are mainly inspection videos or still images obtained by inspection, for example, medical images handled by PACS19.
  • an X-ray image obtained by X-ray examination, an MRI image obtained by MR examination, a CT image obtained by CT examination, an endoscopic image obtained by endoscopy, or an ultrasonic image obtained by ultrasonic examination can be used.
  • the medical image processing apparatus 10 operates during or after examination. Therefore, the medical image processing apparatus 10 acquires medical images in real time during an examination, or acquires medical images stored in various medical image storage apparatuses after an examination. Then, based on the acquired medical image, subsequent operations are continuously performed.
  • Image recognition processing is various types of recognition processing performed using medical images. Part recognition processing for recognizing a part and the like are included. Each of these processes may combine two or more types of processes, such as attention area detection processing also serving as classification processing.
  • Image recognition processing is performed by a learning model for image recognition built by performing learning on a machine learning algorithm.
  • This learning model for image recognition is a learning model that has undergone learning and adjustment so as to output a desired result by inputting a medical image for each process.
  • the learning data set consists of medical images and correct data of regions of interest possessed by the medical images.
  • the medical image and the result of image recognition processing are displayed on the display 20 .
  • the user confirms the result of the recognition processing by the display on the display 20, and uses it as diagnostic support information for diagnosis.
  • Inappropriate area detection processing is a process for detecting inappropriate areas in medical images, and is performed in parallel with image recognition processing.
  • the inappropriate area detection processing is performed by a learning model for inappropriate area detection constructed by performing learning on a machine learning algorithm, or the like.
  • This learning model for detecting inappropriate areas is a learning model that has undergone learning and adjustment so as to output inappropriate areas by inputting medical images.
  • the learning data set consists of medical images and correct data of inappropriate regions in the medical images.
  • the correct data for the inappropriate areas in the medical image is determined by a doctor based on the medical image and added to the medical image.
  • an area with a low accuracy rate or an area that fails to output a desired result may be assigned to the medical image as an inappropriate area.
  • Whether or not the image recognition processing has failed to output the desired result is determined based on the result of the doctor's visual inspection of the medical image or the result of an examination such as a biopsy, and the result of the recognition processing. do.
  • the accuracy rate indicates the extent to which the results of recognition processing by various learning models, such as image recognition processing performed on medical images, were the same as the results diagnosed by a doctor.
  • the result of the image recognition processing of the attention area detection processing performed on the medical image for the result of the doctor diagnosing the actual condition of the subject shown in the medical image including the test result of biopsy etc. the percentage that was the same as the result of the region of interest diagnosed by the doctor. Therefore, an area with a low accuracy rate is an area in which the ratio of matching between the result of the image recognition processing and the diagnosis result of the doctor is small with respect to the medical image.
  • the correct data for the inappropriate area may include correct data regarding the inappropriate factor that caused the inappropriate area.
  • the correct data on the inappropriate factors may be given by the doctor visually observing the medical image and giving the correct data on the inappropriate factors, or by identifying the inappropriate factors by the learning model for identifying inappropriate factors.
  • the medical image may be provided with correct data for the inappropriate area and the inappropriate factor.
  • Inappropriate factors determined by a doctor include, for example, unfocused images such as blurring or blurring in medical images, water, blood, residue, or images other than the subject such as dirt or cloudiness of the lens, or dark areas or halation. Inappropriately exposed images such as
  • An inappropriate factor may be an area where the accuracy rate calculated based on the result of image recognition processing is equal to or less than a preset threshold. Further, in areas where the accuracy rate of image recognition processing is low, or in areas where image recognition processing fails, there may be factors that cannot be determined depending on the doctor. According to the inadequate factor classifier 91 (see FIG. 12), in areas where the accuracy rate of the image recognition process is low or where the image recognition process fails, even if the factor cannot be determined by the doctor, Inappropriate factors can be identified. The inappropriate factor identifier 91 and the like will be described later.
  • the notification performed when an inappropriate area is detected by the inappropriate area detection process can be performed by a method that allows the doctor to recognize that an inappropriate area has been detected in the medical image. For example, by displaying the fact that an inappropriate region has been detected on the display 20 that displays the acquired medical image, the doctor can see that there is an inappropriate region in the medical image for image recognition processing by the inappropriate region detection processing. It can be recognized that it is detected when it exists. Moreover, when there is no notification, the doctor can recognize that an inappropriate area for image recognition processing has not been detected by inappropriate area detection processing in the medical image.
  • inappropriate factors in inappropriate areas occur regardless of the presence or absence of attention areas such as lesions in medical images. That is, in the case where a medical image of a subject includes only normal regions in which there is no lesion or the like, there is a risk that the image recognition processing for detecting the region of interest may detect the region of interest due to the inappropriate region. As described above, when a diagnosis is made using the result of image analysis processing as diagnosis support information, there is a possibility that an appropriate diagnosis cannot be made.
  • the medical image processing apparatus 10 detects an inappropriate area when performing image recognition processing on a medical image and notifies the doctor of it, regardless of the presence of a lesion or the like. Therefore, for example, when a doctor sees the medical image displayed on the display 20 and the inappropriate area notified by the display, the factor of the inappropriate area can be recognized and the inappropriate factor can be avoided. If so, the doctor can take measures such as changing the imaging environment of the medical image in the examination. Therefore, the physician can avoid inappropriate factors and obtain more reliable or accurate results of the image recognition process.
  • the medical image processing apparatus 10 notifies the doctor of the detection of the inappropriate area, even if the doctor cannot recognize the cause of the inappropriate area, the result of the image recognition processing displayed on the display 20 can recognize that there may be unreliable points due to the presence of inappropriate regions. Therefore, it is possible to pay more attention to the result of the image recognition processing than in the case where the result of inappropriate area detection is not obtained. In this way, even when the factors that have caused the inappropriate area cannot be recognized, the notification of the detection of the inappropriate area is useful information regarding the reliability or accuracy of the result of the image recognition processing, and the doctor can automatically receive this information. Obtainable. On the other hand, when inappropriate area detection processing is being performed and there is no inappropriate area notification, the doctor can recognize that the result of image recognition processing has a certain degree of reliability or accuracy.
  • a doctor can perform a medical image in which an inappropriate region exists, a medical image in which an inappropriate region does not exist, and an area in which a region of interest is detected.
  • the medical image processing apparatus 10 of the present embodiment includes an input device 21 as an input device, a display 20 as an output device, a control unit 31, a communication unit 32, and a storage unit. 33 is a computer electrically interconnected via a data bus 34;
  • the input device 21 is an input device such as a keyboard, mouse, or touch panel of the display 20.
  • the display 20 is a kind of output device.
  • the display 20 displays various operation screens according to the operation of the input device 21 such as a mouse and keyboard.
  • the operation screen has an operation function by GUI (Graphical User Interface).
  • a computer that configures the medical image processing apparatus 10 can receive input of operation instructions from the input device 21 through the operation screen.
  • the control unit 31 includes a CPU (Central Processing Unit) 41 which is a processor, a RAM (Random Access Memory) 42, a ROM (Read Only Memory) 43, and the like.
  • the CPU 41 loads a program stored in the storage unit 33 or the like into the RAM 42 or the ROM 43 and executes processing according to the program, thereby comprehensively controlling each unit of the computer.
  • the communication unit 32 is a network interface that controls transmission of various information via the network 35 . Note that the RAM 42 or the ROM 43 may have the function of the storage section 33 .
  • the storage unit 33 is an example of a memory, and for example, a hard disk drive, a solid state drive, or a hard disk drive connected via a cable or network, built into a computer that constitutes the medical image processing apparatus 10, or a disk in which a plurality of hard disk drives are connected. array.
  • the storage unit 33 stores control programs, various application programs, various data for use in these programs, display data for various operation screens associated with these programs, and the like.
  • the storage unit 33 of the present embodiment stores various data such as the program 44 for the medical image processing apparatus and the data 45 for the medical image processing apparatus.
  • the medical image processing apparatus program 44 or the medical image processing apparatus data 45 is a program or data for executing various functions of the medical image processing apparatus 10 .
  • the functions of the medical image processing apparatus 10 are realized by the medical image processing apparatus program 44 and the medical image processing apparatus data 45 .
  • the medical image processing apparatus data 45 includes a temporary storage unit 16 and a data storage unit 17 for temporarily storing or storing various data generated by the medical image processing apparatus program 44, and stores various data. .
  • the computer that constitutes the medical image processing apparatus 10 can be a specially designed device, a general-purpose server device, a PC (Personal Computer), or the like.
  • the functions of the medical image processing apparatus 10 can be exhibited, and a single computer may be used, or other functions may be shared with the apparatus.
  • the computer may be shared with a device that performs other functions, such as an endoscope processor device, or the functions of the medical image processing device 10 or the computer may be incorporated into an endoscope management system or the like.
  • the computer that constitutes the medical image processing apparatus 10 is shared with a PC that performs image recognition processing of medical images.
  • the medical image processing apparatus 10 of the present embodiment is a processor apparatus having a processor, and the medical image processing apparatus 10 stores programs related to medical image processing in the storage unit 33, which is a program memory.
  • a program in a program memory is operated by a control unit 31 configured by a processor or the like, whereby the medical image acquisition unit 11, the recognition processing unit 12, the display control unit 13, The functions of the inappropriate area detection unit 14 and the notification control unit 15 are realized (see FIG. 1).
  • the medical image acquisition unit 11 acquires medical images from a device capable of outputting medical images.
  • a medical image an examination moving image obtained mainly by an examination is acquired.
  • an endoscopic image obtained in an endoscopic examination using the endoscope device 18 is acquired in real time during the examination.
  • An endoscopic image is a kind of medical image, and is an image obtained by photographing a subject with an endoscope included in the endoscope device 18 .
  • An endoscopic image is a kind of medical image, and is an image obtained by photographing a subject with an endoscope included in the endoscope device 18 .
  • an endoscopic image is used as a medical image will be described below.
  • the moving image includes individual frame images captured by the endoscope apparatus 18 with the preset number of frames.
  • the recognition processing unit 12 performs image recognition processing on the endoscopic image acquired by the medical image acquisition unit 11 .
  • a region of interest such as a lesion is detected in real time from the endoscopic image acquired by the medical image acquisition unit 11 during examination. Therefore, in the present embodiment, image recognition processing is attention area detection processing.
  • image recognition processing is attention area detection processing.
  • a classification process of classifying disease types for lesions, a site recognition process of recognizing information about a site being imaged, or a combination of these processes can be performed.
  • the recognition processing unit 12 includes an attention area detector 51 .
  • the region-of-interest detector 51 performs region-of-interest detection processing for detecting a region of interest included in the subject appearing in the endoscopic image 61 based on the acquired endoscopic image 61 .
  • the attention area detection process is performed using the attention area detector 51 .
  • the attention area detector 51 detects the attention area 62 when the subject reflected in the endoscopic image 61 includes the attention area 62.
  • the output of the result 63 of the recognition process displays, for example, the area itself of the detected attention area 64, which is the attention area 62 detected by the recognition process, in the form of an image.
  • the output of the recognition process result 63 may be an output indicating the position of the detected attention area 64 instead of the output of the detected attention area 64 itself.
  • the output of the recognition process result 63 is displayed in the form of a rectangular figure indicating the detected attention area 64 .
  • the result 63 of recognition processing is notified to the doctor by outputting in various forms such as images, graphics, or text.
  • the attention area detector 51 may detect an attention area by image processing, or may detect an attention area by a learning model based on machine learning.
  • the attention area detector 51 is a learning model for attention area detection built using a machine learning algorithm, and when an endoscope image 61 is input to the attention area detector 51, the endoscope This learning model is capable of outputting the presence or absence of a region of interest in the image 61 as an objective variable.
  • the attention area detection learning model is an example of an image recognition learning model.
  • the region-of-interest detector 51 uses a machine-learning algorithm in advance so that the presence or absence of the region-of-interest in the endoscopic image 61 can be output as an objective variable.
  • the initial image data set for the region-of-interest detector 51 consisting of is learned, and parameters and the like are adjusted.
  • the machine learning algorithm used for the attention area detector 51 various algorithms can be used as long as they are algorithms used for supervised learning. preferable. For example, it is preferable to use a multilayer neural network or a convolutional neural network, and it is preferable to use a technique called deep learning.
  • the region-of-interest detector 51 also includes an endoscopic image 61, which is an input image, which is generally performed to improve the performance of a learning model, such as improving the accuracy of detecting a region of interest or improving the detection speed. Techniques such as processing for , use of multiple learning models, etc. may be used.
  • the detection result of the attention area which is the recognition processing result 63, includes the location, size or area, shape, number, etc. of the attention area detected in the endoscopic image 61, and the location or size of the attention area is included. It also includes the content that the value was 0, that is, the region of interest was not detected.
  • the display control unit 13 controls the display of the endoscope image 61 and the result 63 of recognition processing on the display 20 .
  • a method of displaying the endoscopic image 61 and the recognition processing result 63 a method that allows the doctor to confirm the endoscopic image 61 and the recognition processing result 63 can be adopted. superimpose the recognition process result 63 on the display 20, display the endoscopic image 61 in the main area of the display 20 and display the recognition process result 63 in the sub-area, or show the recognition process result 63 in text etc.
  • the display method of the endoscopic image 61 and the result 63 of the recognition processing can be an appropriate display form according to the content of the recognition processing performed by the recognition processing unit 12 or the content of the result 63 of the recognition processing. is.
  • the recognition processing unit 12 performs attention area detection processing.
  • the result of the attention area detection process which is the process result 63, is displayed.
  • the doctor can confirm the region of interest 62 of the subject by displaying the endoscopic image 61.
  • the recognition processing result 63 is obtained by, for example, changing the shape and color of the frame of the endoscopic image 61 close to the detected attention area 62 from the normal frame as the attention area detection display frame 72 in the main area 71 . can be displayed. Further, by displaying a figure indicating the position of the detected attention area 62 as the attention area detection display figure 73 in the sub-area 74 of the display 20, the position of the detected attention area 62 can be indicated.
  • a doctor can recognize that the attention area 62 has been detected by the recognition processing unit 12 by looking at the main area 71 or the sub-area 74 of the display 20 .
  • a doctor can utilize the result 63 of the recognition process for diagnosis by the attention area detection display frame 72 or the attention area detection display graphic 73 showing the result 63 of the recognition process. It should be noted that the inspection moving image including the endoscopic image 61 being inspected and the data such as the result 63 of recognition processing are stored in the temporary storage unit 16 .
  • the recognition processing unit 12 performs classification processing for classifying disease types for lesions
  • the endoscope image 61 and the recognition processing are displayed on the display 20 used during examination by the endoscope device 18.
  • the result 63 of the classification process As shown in FIG. 6, the endoscopic image 61 and the recognition process result 63 are displayed in the main area 71 of the display 20 used during the examination.
  • the result 63 of recognition processing is also displayed in a sub-area 74 of the display 20 .
  • the recognition processing result 63 displayed in the main area 71 the recognition processing result 63 is displayed by the classification result display text 75 .
  • the classification result color display 76 indicates that the lesion is hyperplastic.
  • the inspection report creation software of the display 20 for creating the inspection report When displaying the endoscopic image 61 and the result of the part recognition process, which is the result 63 of the recognition process, in the main area 71, for example, as shown in FIG.
  • the name display text 77 is displayed, and the result 63 of recognition processing is also displayed in the sub-area 74 by highlighting 78 of the tile of the part name.
  • the inappropriate area detection unit 14 performs inappropriate area detection processing based on the endoscope image 61 .
  • an inappropriate area that is inappropriate for image recognition processing is output as an inappropriate area detection result 82 .
  • an inappropriate area which is an inappropriate area for the attention area detection process, is detected as an inappropriate area detection result 82 .
  • the inappropriate area is an area on the endoscopic image 61 where there is a possibility that due to the endoscopic image 61, attention area detection processing may not be properly performed.
  • the inappropriate area detection process identifies the position of the inappropriate area in the endoscopic image 61 . Therefore, the inappropriate area detection result 82 includes the position of the inappropriate area in the endoscopic image 61 .
  • the inappropriate area detection process it is only necessary to detect an area in the endoscopic image 61 where the attention area detection process may not be properly performed.
  • a method using a learning model by machine learning or A method of detecting an inappropriate area by identifying the inappropriate factor by image processing can be adopted for the inappropriate factor that is the factor of the inappropriate area.
  • a learning model based on machine learning is used. A case of identifying inappropriateness factors by image processing will be described later.
  • the inappropriate area detection unit 14 includes an inappropriate area detector 81.
  • the inappropriate area detector 81 is an inappropriate area detection learning model that detects an inappropriate area for attention area detection processing based on the acquired endoscope image 61 .
  • the inappropriate area detector 81 receives an endoscopic image 61 so that the subject imaged in the endoscopic image 61 includes an inappropriate area for attention area detection processing. In this case, an inappropriate area detection result 82 is output.
  • an endoscopic image 61 includes a halation region 65.
  • the pixel values in the endoscopic image 61 are in a saturated state or a state close to saturation. In this case, it is not possible to properly perform attention area detection processing.
  • An inappropriate area detector 81 outputs an inappropriate area detection result 82 including a detection inappropriate area 83 of the halation area 65 when an endoscopic image 61 including the halation area 65 is input and the halation area 65 is detected. do.
  • the inappropriate area detection result 82 may or may not include the inappropriately detected area 83 detected by the attention area detection process.
  • the endoscopic image 61 includes a dark region 66 that captures the depths of the lumen where the illumination light of the endoscope does not reach.
  • the recognition processing unit 12 cannot perform image recognition processing based on the feature amount of the pixel. 66, it is not possible to properly perform attention area detection processing.
  • the inappropriate area detector 81 outputs an inappropriate area detection result 82 including a detection inappropriate area 83 of the dark area 66 upon input of the endoscopic image 61 including the dark area 66 .
  • the inappropriate area detector 81 is specifically a learning model for inappropriate area detection constructed using a machine learning algorithm. It is a learning model capable of outputting the presence or absence of an inappropriate region in the endoscopic image 61 as an objective variable.
  • the inappropriate area detector 81 previously detects the endoscopic image 61 and the inappropriate area using a machine learning algorithm so that the presence or absence of the inappropriate area in the endoscopic image 61 can be output as an objective variable. are learned from an initial image data set for the inappropriate area detector 81, which consists of the correct data of , and the parameters and the like are adjusted.
  • the inappropriate area detector 81 includes an input image of the endoscope, which is generally performed to improve the performance of the learning model, such as improving the accuracy of inappropriate area detection or improving the detection speed. Techniques such as processing the image 61 and using a plurality of learning models may be used.
  • the inappropriate area detection result 82 includes the location, size or area, shape, number, etc. of the inappropriate area detected in the endoscopic image 61. If the location, size, etc. of the inappropriate area is 0, It also includes the content that there was an inappropriate area, that is, that the inappropriate area was not detected.
  • the notification control unit 15 performs control to notify based on the inappropriate area detection result 82 .
  • the notification control method can be set in advance. For example, if the inappropriate area detection result 82 indicates that no inappropriate area is detected, no notification is made, and if an inappropriate area is detected, a notification to that effect is given to the doctor. Assumed to be performed.
  • Any method of notification may be used as long as the doctor can recognize that the endoscopic image 61 includes an inappropriate region for the region-of-interest detection process. Therefore, for notification, a method using notification means that can be recognized by a doctor's five senses can be adopted.
  • the inappropriate area detection result 82 indicating that an inappropriate area has been detected can be reported using the display 20 as an image.
  • the display 20 that displays the inappropriate region detection result 82 is preferably the same display 20 that displays the endoscopic image 61 during the examination.
  • the doctor can confirm the inappropriate area detection result 82 by the same operation as a normal examination.
  • the notification control unit 15 issues a notification instruction to the display control unit 13, and the display control unit 13 performs specific display control.
  • the vibration generating means may be used to notify by vibration.
  • a voice generating means such as a speaker may be used to notify by sound and/or voice including voice.
  • the notification control unit 15 controls the display 20 to notify by displaying the inappropriate area detection result 82 as an image.
  • the display 20 has a main area 71 and a sub-area 74 and displays the endoscopic image 61 in the main area 71 .
  • a sub-area 74 displays a position map indicating positions on the endoscopic image 61 .
  • the position map displays inappropriate area detection results 82 by the detection process.
  • the main area 71 and/or may display the result 63 of the recognition process, which is the attention area detection process.
  • an endoscopic image 61 and an attention area 62 which is the result 63 of recognition processing, are displayed in a main area 71 during examination by an attention area detection display frame 72.
  • FIG. In the position map of the sub-region 74, a detection inappropriate region 83 and an attention region detection display figure 73, which is the result 63 of recognition processing, are displayed.
  • An endoscopic image 61 includes a halation area 65 that appears white and a dark area 66 that appears dark. Therefore, since the inappropriate area detection result 82 includes the halation area 65 and the dark area 66 , the position map shown in the sub-area 74 indicates that these areas are the detection inappropriate area 83 .
  • the doctor can confirm the recognition processing result 63 of the endoscopic image 61 under examination.
  • the display 20 By looking at the display 20, it is possible to observe the subject under examination and grasp the inappropriate region detection result 82 and the like at the same time. Therefore, by displaying the inappropriate region detection result 82 in the sub-region 74, the display of the main region 71 does not have to be changed from the normal examination, and the doctor's observation of the endoscopic image 61 is not disturbed.
  • the inappropriate area detection result 82 may be superimposed on the endoscopic image 61 and displayed on the display 20 .
  • the endoscopic image 61 and the inappropriate detection region 83 may be superimposed and displayed.
  • the result 63 of recognition processing may be superimposed and displayed.
  • the inappropriate area detection result 82 and the recognition process result 63 are displayed by displaying the inappropriate area detection result 82 as the detected inappropriate area 83 and displaying the recognition process result 63 as the attention area detection display frame 72 . is preferably shown in a different manner.
  • the medical image processing apparatus 10 performs control to notify the inappropriate area detection result 82, and notifies the inappropriate area detection result 82 to the doctor or the like.
  • the doctor can recognize regions inappropriate for image recognition processing on the endoscopic image 61.
  • FIG. For example, not only when the attention area detection process detects the attention area, but also when the subject is a normal part that does not include a lesion and does not detect the attention area, or when the attention area detection process makes an erroneous detection. Inappropriate areas are detected even when Moreover, even if the image recognition processing cannot detect the lesion of the subject, the inappropriate area is detected and notified, and the possibility that the lesion can be detected after that is increased.
  • the inappropriate area detection result 82 includes an area that poses a problem when performing image recognition processing, even in the endoscopic image 61 that does not appear to pose a problem when viewed by a person. That is, it is possible to notify the doctor as an inappropriate area even for an area for which the determination result by the doctor and the determination result by the image recognition process are different with respect to the inappropriate area. With these notifications, for example, in an examination using an endoscope, the doctor corrects blurring or blurring that may be an inappropriate area, removes dirt from the lens, and adjusts the magnification or the distance to the subject. For example, various operations including operating the endoscope so as not to generate an inappropriate region can be performed.
  • the medical image processing apparatus 10 can obtain image recognition processing results with higher reliability or accuracy through appropriate image recognition processing.
  • the doctor can see the inappropriate region detection result in addition to the endoscopic image 61 by looking at the display 20 for confirming the subject during the examination. Information such as 82 can also be obtained.
  • the inappropriate area detection unit 14 may perform inappropriate factor identification processing based on the endoscopic image 61 to identify inappropriate factors that make the inappropriate area inappropriate for image recognition processing.
  • the notification control unit 15 performs control to notify the identification result based on the identification result of the inappropriate factor identification processing.
  • each of the inappropriateness areas of the endoscopic image 61 is identified as one of a plurality of types of inappropriateness factors.
  • the risk of overlooking lesions, etc. is reported, but the factors causing the risk of overlooking lesions, etc. are also reported to doctors. physicians may not be aware of these risks because they are not Therefore, it may not be possible to take actions to avoid these risks.
  • the medical image processing apparatus 10 it is possible to identify and notify what the inappropriate factor is, and the doctor can perform an operation to avoid the inappropriate factor. By avoiding inappropriate factors, the possibility that the image recognition processing will be performed appropriately increases.
  • Inappropriate factor identification processing includes a method that uses a learning model based on machine learning, a method that identifies inappropriate factors through image processing, and the like.
  • the inappropriate area detection unit 14 includes an inappropriate factor classifier 91 when using a learning model.
  • the inappropriate factor identifier 91 performs inappropriate factor identification processing for identifying inappropriate factors for the inappropriate area detected by the inappropriate area detector 81 . If multiple inappropriate areas are detected, the inappropriate factor is identified for each inappropriate area.
  • the inappropriateness factor identifier 91 is input with an endoscopic image 61 having an inappropriately detected region 83 that is a halation region 65 .
  • the factor is identified and an inappropriate factor identification result 92 is output.
  • the inappropriate factor identification result 92 is output as the halation area identification result 93 by displaying the area and/or text such as "inappropriate exposure: halation”.
  • the inappropriate factor classifier 91 receives the input of the endoscopic image 61 having the inappropriate detection area 83, which was the dark area 66, and detects the inappropriate detection area.
  • the inappropriate factors in 83 are identified and an inappropriate factor identification result 92 is output.
  • the inappropriate factor identification result 92 is output as a dark area identification result 94 by displaying the area and/or text such as "inappropriate exposure: dark area”.
  • the output of the inappropriate factor identification result 92 is displayed on the sub-region 74 of the display 20 or the like.
  • the inappropriate factor classifier 91 is a learning model for inappropriate factor discrimination constructed using a machine learning algorithm. , is a learning model that can identify inappropriate factors in an input inappropriate area and output the inappropriate factors as objective variables. The inappropriateness factor classifier 91 is learned or adjusted so as to be able to output the inappropriateness factor of the inappropriate area in the endoscopic image 61 as an objective variable.
  • Various algorithms used in supervised learning can be used as the machine learning algorithm used for the inadequate factor classifier 91, but it is preferable to use an algorithm that is said to output good inference results in image recognition.
  • the inappropriateness factor identifier 91 may output the output result as a ratio of a plurality of items.
  • a plurality of inappropriate factors are output according to their respective probabilities.
  • the inappropriateness factor identifier 91 outputs probabilities of a plurality of inappropriateness factors, so that these inappropriateness factors can be examined to determine the final inappropriateness factor.
  • the inappropriate factor classifier 91 includes an input image of an endoscope, which is generally performed to improve the performance of the learning model, such as improving the accuracy of inappropriate factor discrimination or improving the discrimination speed. Techniques such as processing the image 61 or the like and using a plurality of learning models may be used.
  • the inappropriateness factor identification result 92 includes the content of the inappropriateness factor that identified the inappropriate area, and also includes the result that the inappropriateness factor was unknown.
  • the inappropriateness factor classifier 91 is learned from a learning data set including the endoscopic image 61 having inappropriate areas and the correct data of the inappropriateness factors in the inappropriate areas.
  • the correct data for the inappropriate factor the content of the inappropriate factor such as blur, blur, or halation is given by a doctor or the like to each inappropriate area due to blur, blur, halation, or the like as described above. Therefore, the correct data can be obtained.
  • the inadequacy factor is that the accuracy rate calculated based on the result of image recognition processing is equal to or less than a preset threshold value
  • image recognition such as detection processing performed on this endoscopic image 61 is performed. Accuracy rates calculated based on the results of processing can be used as correct data.
  • the accuracy rate can be assigned to each region of the endoscopic image 61 by the doctor's determination of the result 63 of recognition processing such as detection processing performed on the endoscopic image 61 . For example, if the recognition processing result 63 is exactly the same as the doctor's diagnosis, 100 is given, and if the recognition processing result 63 is completely different from the doctor's diagnosis, 0 is given.
  • the endoscopic images 61 to which the accuracy rate is assigned as correct data by the doctor can be used as a learning data set. By inputting an endoscopic image 61 with an unknown accuracy rate, an inadequate factor classifier 91 learned from the endoscopic image 61 to which the correct data of the accuracy rate is assigned, the region of the endoscopic image 61 is determined.
  • the misdiagnosis rate may be used as an inappropriate factor similar to the accuracy rate.
  • the misdiagnosis rate indicates the degree of difference between the result of image recognition processing such as detection processing performed on the endoscopic image 61 and the result of diagnosis by a doctor.
  • the doctor diagnoses the results of image recognition processing such as detection processing performed on the endoscopic image 61 with respect to the results of the doctor diagnosing the actual condition of the subject shown in the endoscopic image 61 including examination results. It can be the percentage that was different from the results obtained.
  • the misdiagnosis rate can also be used similarly to the accuracy rate. As an inappropriate factor, an area with a high misdiagnosis rate can be said to have a high degree of inappropriateness for image recognition processing.
  • the notification control unit 15 controls notification of the identification result based on the inappropriateness factor identification result 92 .
  • Notification control can be set in advance. For example, if the inappropriate factor identification result 92 is an inappropriate factor for an inappropriate area that is likely to be overlooked by a doctor and is an inappropriate factor that can be easily avoided by operating the endoscope, positive It is possible to perform control such that the notification is performed explicitly or the notification is performed in a conspicuous manner. On the other hand, if the inappropriate factor identification result 92 is the halation area 65 or the like, and the inappropriate factor is highly likely to be visually recognized by the doctor, the notification is not performed, or the notification is performed in an unobtrusive manner. , can be controlled.
  • the notification method may be the same as in the attention area detection process.
  • the inappropriate factor identification result 92 may be notified to the display 20 by an image, or may be notified to the vibration generating means by vibration. , and at least one of notifying the sound generating means by generating a sound.
  • the notification control unit 15 may perform control to notify the inappropriateness factor identification result 92 in a manner different from each other for each inappropriateness factor.
  • Any mode may be used as long as it is possible to recognize that the contents of the reports are different from each other in each means of reporting. For example, in the case of notification by images, it is possible to recognize that the contents of the notification are different from each other by displaying different colors, figures, or texts.
  • the mode can be different from each other, depending on the pattern of vibration, and when using sound, depending on the content of the sound or the pattern of the sound.
  • the inappropriate factor identification result 92 is notified by displaying each identified inappropriate factor in a different color.
  • a detection inappropriate area 83 whose inappropriate factor is the halation area 65 is displayed in a color indicating the halation area identification result 93 in the position map.
  • the detection inappropriate area 83 whose inappropriate factor is the dark area 66 is displayed in a color indicating the dark area identification result 94 in the position map. Accordingly, in this case, it is preferable to display the inappropriate factor legend 95 in which the content of the inappropriate factor and the displayed color correspond to each other so that the relationship between the inappropriate factor and the color can be confirmed.
  • Notification may be controlled by a combination of inappropriate factors.
  • the identification result includes multiple inappropriate factors, that is, when the endoscopic image 61 includes multiple inappropriate factors
  • the notification control unit 15 combines at least two of the multiple inappropriate factors. It is possible to perform control to change the mode of notifying the detection result based on the inappropriate combination factor.
  • Inappropriate combination factors are factors obtained by using each inappropriate factor.
  • each inappropriate factor can be weighted. For example, in a combined inappropriate factor combining an inappropriate factor of the accuracy rate and other inappropriate factors, if the inappropriate factor of the accuracy rate is equal to or greater than a preset value, the other inappropriate factor is It is possible to decide not to notify anything. By using the improper combination factor, it becomes possible to control the notification in detail.
  • Incompatibility factors in the case of combination inappropriate factors may be quantified. The degree of inappropriateness, which is a quantified factor of inappropriateness, will be described later.
  • the inappropriateness factor is identified based on the endoscope image 61 to obtain the inappropriateness factor identification result 92, and at the same time, the region having the inappropriateness factor identification result 92 is identified. , that is, inappropriate areas can be detected.
  • a learning model that outputs an inappropriate region in which the inappropriate factor exists can be used. Therefore, in this case, the inappropriate factor identification process and the inappropriate area detection process for detecting inappropriate areas can be performed simultaneously.
  • the inappropriateness factor identification process a method of identifying inappropriateness factors by image processing can be adopted. Also in this case, the inappropriate factor identification process and the inappropriate area detection process for detecting an inappropriate area may be performed at the same time.
  • the inappropriate area detection unit 14 detects each of the plurality of inappropriate factors by image processing, and identifies the inappropriate factor based on the detection result. The image processing that identifies these inadequacies operates in parallel.
  • the inappropriate area detection unit 14 includes an inappropriate exposure detection unit 101 for detecting inappropriate exposure, It includes an unfocus detection unit 102 for detecting blur, a residue detection unit 103 for detecting presence of residue, and the like.
  • the inappropriate exposure detection unit 101 can perform identification using a determination algorithm using pixel values.
  • the unfocus detection unit 102 that detects the blurring detection unit or blur can be identified by a determination algorithm that uses the contrast of the image. Since the residue detection unit 103 is different from the surrounding color, it can be identified by a determination algorithm using pixel values.
  • each detection unit of the inappropriate region detection unit 14 The inappropriate exposure detection unit 101, the inappropriate focus detection unit 102, and the residue detection unit 103 operate in parallel. Then, the recognition processing result of the recognition processing unit 12 is sent to the display control unit 13, and the display on the display 20 is controlled. Then, the detection result of each detection unit of the inappropriate region detection unit 14 is sent to the notification control unit 15, and notification is performed according to a preset mode.
  • the inappropriate factor identification result 92 is set to be notified by displaying it on the image. If so, in the sub-region 74 of the display 20, the halation area identification result 93 and the dark area identification result 94, which are the image processing results of the inappropriate exposure detection unit 101, and the residue area, which is the image processing result of the residue detection unit 103, are displayed.
  • the identification results 112 are displayed in different colors. Note that FIG. 16 shows the case where the detected attention area 64 is not displayed in the position map of the sub-area 74 . Since the detected attention area 64 is not displayed, the doctor can confirm that the recognition processing unit 12 could not recognize the attention area 62, probably because of residue. Armed with such information, the physician can consider various operations.
  • the identified inappropriate factors can be utilized. For example, a doctor can be notified of a avoidance method for avoiding the inappropriate factor based on the identified inappropriate factor.
  • the inappropriate area detection unit 14 is provided with avoidance information 121 in which inappropriate factors and methods for avoiding inappropriate factors are associated.
  • the avoidance information 121 associates each inappropriate factor with an avoidance method for avoiding the inappropriate factor. Then, based on the inappropriate factor identified in the inappropriate factor identification process and the avoidance information 121, the avoidance method in the inappropriate area can be notified as the inappropriate factor identification result 92.
  • avoidance information 121 when the inappropriateness factor is the presence of residue, a avoidance method such as “water supply to the subject or residue” is associated as the avoidance method. If the appropriate factor is “bokeh”, the workaround is to "slowly operate the scope”. Water supply” etc. are associated.
  • the inappropriate area detection unit 14 identifies inappropriate factors in the inappropriate factor identification process, and uses the avoidance information 121 to obtain methods for avoiding inappropriate factors. Then, the inappropriateness factor of the inappropriate area and the avoidance method for avoiding this inappropriateness factor are notified as the identification result.
  • the display 20 displays an endoscopic image 61, a recognition processing result 63, a dark area identification result 94 which is an inappropriate factor identification result 92, and a blurred image.
  • the area identification result 133 and the avoidance methods 122 for each of the dark area and the blur, which are inappropriate factors, are displayed. It should be noted that "movement/rotation of the scope” is displayed as a method 122 for avoiding dark area ambidextrous, and "reduction of exposure time” is displayed as a method 122 for avoiding blurring.
  • the mode of display on the display 20 can be set in advance. For example, it may be displayed outside the main area 71 so as not to interfere with the observation of the endoscopic image 61, or if priority is given to recognition of the avoidance method 122, the avoidance method 122 is displayed superimposed on the main area 71. It is good also as a mode to carry out.
  • the medical image processing apparatus 10 controls the imaging device to execute the inappropriate factor avoidance method 122.
  • the inappropriate area detection section 14 includes an imaging device control section 131 .
  • the imaging device control unit 131 receives the avoidance method 122 and controls the imaging device that images the subject and generates a medical image based on the avoidance method 122 . Execution of the avoidance method 122 by the imaging device is preferably performed automatically.
  • the imaging device is the endoscope device 18 that acquires the endoscopic image 61, so the imaging device control unit 131 controls the endoscope device 18 to implement the inappropriate factor avoidance method 122. let it run. Items that can be avoided by the operation of the endoscope apparatus 18 are items to be adjusted when the endoscope image 61 is captured. mentioned.
  • the imaging device control unit 131 shortens the exposure time in the endoscope device 18 to avoid blurring, which is an inappropriate factor
  • the display 20 In the display of the inappropriate factor legend 95, the avoidance execution information 134 such as "exposure time shortening" may be displayed to notify that the inappropriate factor has been avoided.
  • the doctor can recognize that the undetectable factor of blur is avoided.
  • the area of the inappropriate factors of the blur area identification result 133 before the blur is avoided is displayed for a certain period of time, so that the doctor can determine which area has the inappropriate factor. It may be made possible to recognize whether or not
  • the identified inappropriate factors can also be used as follows. For example, it is possible to identify and use the degree of inappropriateness representing the degree of inappropriateness for image recognition processing for each inappropriateness factor.
  • the inappropriate area detection unit 14 identifies the degree of inappropriateness for each inappropriate factor using the inappropriate factor identifier 91 . Then, the notification control unit 15 can perform control to change the manner of notification of the detection result of the inappropriate area detection process based on the degree of inappropriateness.
  • the degree of inappropriateness represents the degree to which an inappropriate factor is inappropriate for image recognition processing, and can be set for each inappropriate factor and according to the type of image recognition processing. For example, if the type of image recognition processing is attention area detection processing and the inappropriate factor is blurring, the amount of blurring calculated by means for calculating the amount of blurring is used as a basis. is set to 1, etc., it is possible to calculate the degree of inadequacy of the inadequate factor of the blur in the attention area detection process.
  • the inappropriateness factor itself may be used as the inappropriateness level.
  • the accuracy rate in the process of detecting the attention area
  • the degree of inappropriateness can be used as the degree of inappropriateness.
  • the degree of inappropriateness can be defined as the ratio of the area where the residue exists to the area of the entire endoscopic image 61 . It is preferable to set the degree of inappropriateness for each inappropriateness factor so as to more appropriately represent the degree of inappropriateness of the inappropriateness factor for image recognition processing.
  • the degree of inappropriateness may be calculated by the inappropriateness factor identifier 91. As described above, depending on the type of learning model, the output result can be output as a ratio of a plurality of items. As a result, the inappropriateness factor identifier 91 may output the inappropriateness of each inappropriateness factor.
  • the inappropriateness factor is blurring
  • the objective function is set to three classes of low blurring, medium blurring, and high blurring, and the inappropriate region is classified into the proportion of each of the three classes of blurring. Then, the class with the highest percentage can be used as the degree of inappropriateness of the blur in the inappropriate area.
  • the inappropriateness factor classifier 91 can similarly calculate the inappropriateness of other inappropriate factors.
  • the notification control unit 15 can perform control to change the manner of notification of the inappropriate area detection result 82 based on the degree of inappropriateness. In this case, it is preferable to perform control to change the notification mode of the inappropriate area detection result 82 based on the inappropriateness level and a preset inappropriateness level threshold value.
  • the inappropriateness threshold can be set in advance for each inappropriateness factor.
  • the threshold can be a preset value for inappropriateness, including a minimum or maximum inappropriateness value.
  • the inappropriate area detection unit 14 sets an inappropriate level threshold value for each inappropriate factor detected, and determines whether the inappropriate area detection unit 14 has information in which the mode of notification is changed based on the inappropriate level threshold value.
  • Suitability threshold information 135 may be provided.
  • the inappropriateness level threshold information 135 includes information on the content of the level of inappropriateness for each inappropriateness factor and the threshold value of the inappropriateness level for notification in each image detection process. In the case shown in FIG. 23, notification is given when the degree of inappropriateness is greater than or equal to the threshold. Further, when setting the mode of notification in more detail, it is possible to set a plurality of types of thresholds, determine the presence or absence of notification with the first threshold, and vary the mode of notification with the second threshold. can.
  • the notification control unit 15 can perform control to change the manner of notification of the inappropriate area detection result 82 based on the inappropriateness level threshold information 135 .
  • the inappropriateness threshold Based on the inappropriateness threshold, it is possible to notify when necessary, and not to notify when frequent notifications interfere with endoscopy. For example, if blurring or blurring occurs due to the doctor moving the scope, it is clear to the doctor that the endoscopic image 61 contains inappropriate regions. It is possible to set a high threshold for inappropriateness and not to notify. Therefore, by using the inappropriateness threshold, it becomes possible to control the notification in detail.
  • the inappropriateness of an inappropriate factor can be used as an inappropriate factor that constitutes an inappropriate combination factor, as described above.
  • the inappropriate area detection unit 14 uses each of the plurality of inappropriateness levels identified for each type of inappropriate factor to determine a combination inappropriate factor, and based on the combination inappropriate factor, the mode of notification of the detection result is varied. You can let In this case, each of the degrees of unsuitability may be weighted and set as unsuitable factors for combination. In addition, each of the degrees of inappropriateness may be used to calculate factors such as addition, subtraction, multiplication, and division as factors of inappropriate combination.
  • the inappropriateness of blurring is equal to or greater than a preset value
  • the other inappropriateness should not be reported. can do.
  • the threshold value of the inappropriate combination factor may be set and used to determine the notification mode in the same manner as the degree of inappropriateness. . As described above, by using the inappropriate combination factor, it is possible to control the notification in detail according to the examination scene.
  • the notification control unit 15 may set a threshold for notification in advance when performing control to notify the detection result. Then, based on the threshold for notification, control may be performed to vary the manner of notification of the detection result.
  • the threshold for notification is not only information based on the detected inappropriate area, such as inappropriate factor, inappropriate degree, or inappropriate combination factor, but also information based on the endoscopic image 61 used for detection processing, or , information such as imaging conditions when the endoscopic image 61 is photographed can also be set.
  • a threshold for notification can be set for the reliability of each processing result in the attention area detector 51, the inappropriate area detector 81, or the inappropriate factor classifier 91.
  • There are various calculation methods for the reliability in the learning model and for example, a confusion matrix, an accuracy rate, a precision rate, a recall rate, or the like is used. Any one of them can be adopted as the reliability, a threshold can be set for this reliability, and control can be performed so that notification is not performed when the reliability is equal to or greater than the threshold.
  • the threshold for notification is the value determined by the determination algorithm used by each detection unit when the inappropriate factor is identified by image processing by the exposure inappropriateness detection unit 101, the focus inappropriateness detection unit 102, the residue detection unit 103, or the like. (See FIG. 15).
  • the value of the determination algorithm is lower than the set threshold value, it can be said that the inappropriate area has a lower contrast than the set value. Therefore, when the value of the determination algorithm in the inappropriate exposure detection unit 101 is equal to or less than the set threshold value, there is a high possibility of blurring or blurring. In this case, control can be performed so as not to notify.
  • the temporal continuity in the imaging conditions of the endoscopic image 61, or the endoscopic image 61 Spatial continuity of itself can be used.
  • the temporal continuity in the photographing conditions of the endoscopic image 61 for example, when the endoscopic image 61 has 10 consecutive frames or more, at least one of the inappropriate factors continues, and a notification is given. can be controlled to Further, as the spatial continuity of the endoscopic image 61 itself, the pixel values of the endoscopic image 61 can be used. Control can be performed to notify when an inappropriate factor is detected.
  • the medical image processing apparatus 10 is connected to the data storage unit 17, which is an image storage unit, and stores at least an endoscopic image 61, a recognition processing result 63, an inappropriate region detection result 82, and an inappropriate factor identification result 92. It is preferable to perform control to store the information superimposed image in which one is superimposed on the endoscopic image 61 in the data storage unit 17 .
  • the recognition processing result 63, the inappropriate area detection result 82, or the inappropriate factor identification result 92 includes, in addition to the inappropriate factor, the inappropriateness level or various threshold values.
  • the information-superimposed image is, for example, an image obtained by superimposing a region-of-interest detection display frame 72 indicating a result 63 of recognition processing for detecting a region-of-interest and a detection inappropriate region 83 on the endoscope image 61 (see FIG. 11). ).
  • Various results to be superimposed on the endoscopic image 61 and the mode of superimposition can be appropriately set.
  • the medical image processing apparatus 10 is connected to the data storage unit 17, and includes at least one of the recognition processing result 63, the inappropriate region detection result 82, and the inappropriate factor identification result 92 in the incidental information of the endoscopic image 61. Control may be performed to store one additional information-added image in the data storage unit 17 .
  • the endoscope image 61 may be accompanied by patient information for identifying the patient.
  • endoscopic images 61 including moving images or examination information data are standardized by the DICOM (Digital Imaging and Communications in Medicine) standard, and this standard includes patient's personal information such as the patient's name.
  • the information-added image is an image to which at least one of the recognition processing result 63, the inappropriate area detection result 82, and the inappropriate factor identification result 92 is added as supplementary information in the same manner as supplementary information such as the patient's name. be.
  • each of the recognition processing result 63, the inappropriate area detection result 82, or the inappropriate factor identification result 92 includes, in addition to the inappropriate factor, the inappropriate degree, Or it includes various thresholds and the like.
  • These pieces of information are stored in the temporary storage unit 16 each time a result is produced. Therefore, by integrating these pieces of information stored in the temporary storage unit 16, an information-added image can be obtained.
  • additional information may be called a tag, and the additional information and the tag can be the same.
  • the information-attached image 141 includes an image ID for specifying an image, examination identification information for identifying an examination, and patient identification information for identifying a patient, which are usually attached as additional information 142 of the endoscopic image 61.
  • it has a recognition processing result 63 described as recognition information, an inappropriate area detection result 82 described as detection information, and an inappropriate factor identification result 92 described as identification information.
  • the information to be attached can be attached after appropriately selected.
  • the data storage unit 17, which is an image storage unit, is provided in the medical image processing apparatus 10, but the image storage unit may be provided in an external device other than the medical image processing apparatus 10. For example, it may be stored in an image management system or the like used in a medical facility, or stored in a cloud via an external network.
  • the information-superimposed image or information-added image 141 is an image having information of various results, it is possible to use this information in various ways. For example, the information superimposed image can be selected by searching for such information. Therefore, by storing and using the information-superimposed image, it is possible to automatically select an image to be placed on an examination report, a medical chart, or the like, or an image to be sent to secondary interpretation, depending on the situation.
  • the medical image processing apparatus 10 calculates the quality index of the endoscopic image 61 based on the detection result of the inappropriate region detection processing of the endoscopic image 61 .
  • the quality index is preferably calculated for each endoscopic image 61 .
  • the display control unit 13 controls display of the quality index on the display 20 . Therefore, when the endoscopic image 61 is displayed on the display 20, the doctor can designate whether or not to display the quality indication, and the display control unit 13 controls the endoscopic image when the designation is correct. 61, control is performed to display the quality display.
  • the medical image processing apparatus 10 includes a quality index calculator 151.
  • the quality index calculator 151 calculates a quality index for each endoscopic image 61 based on the inappropriate region detection result 82 in the endoscopic image 61 .
  • a quality index is an index that indicates the quality of the endoscopic image 61 .
  • an index that integrates the inappropriate area detection results 82 for each endoscopic image 61 can be used. can be done. In this case, the smaller the quality index, the higher the quality, and the higher the quality index, the lower the quality.
  • the mode of displaying the quality index may be any mode in which the lowness of the quality index can be recognized, and may be indicated numerically or in the shape of a meter or indicator.
  • the quality index is calculated in an endoscopic image 61.
  • the unit 151 calculates that the size ratio of the area other than the inappropriate area to the size of the endoscopic image 61 is 90%.
  • the meter index 153 indicates a higher index as the meter pointer 154 points to the right in the figure of the meter, indicating that the score is about 90 here.
  • the value of the index is indicated by displaying a color on each indicator, and when the quality index reaches 33, the color is displayed on the first indicator 155a, and when the quality index reaches 66. When the quality index reaches 100, a color is displayed on the second indicator 155b, and a color is displayed on the third indicator 155c when the quality index reaches 100.
  • the overall quality of the endoscopic image 61 can be immediately grasped.
  • the quality index calculation unit 151 further calculates an overall examination score based on the quality indexes of a plurality of endoscopic images obtained in the examination. Then, the display 20 is controlled to display the overall examination score.
  • the doctor acquires and saves the endoscopic image 61 at each point of the lumen that is important for the examination.
  • a quality index can be calculated for the endoscopic image 61 acquired at each site, and the quality index can be viewed at a glance.
  • an endoscope image 61 acquired at each point of the lumen is displayed as an overall inspection map 161 .
  • the point of each part is the point at which the endoscopic image 61 should be acquired in the examination.
  • the overall map 161 is composed of a schema 162 , a plurality of endoscopic images 61 and a score display section 163 . It should be noted that in the drawings, only some parts may be labeled to avoid complication.
  • the points of each part where the endoscopic image 61 should be acquired are indicated by a schematic diagram 162, and the endoscopic images 61 acquired at the points of each part are arranged around the schematic diagram 162. do.
  • a quality display mark indicating the quality index of each endoscopic image 61 is superimposed and displayed.
  • the quality display marks include a good quality mark 164a indicating "good” when the quality index is 66 or more, a good quality mark 164b indicating "acceptable” when the quality index is in the range of 33 to 65, There are three levels of "improper" quality impermissible mark 164c within the range, each of which is displayed in a different color.
  • a position where the endoscopic image 61 is not displayed is an endoscopic image unacquired site 165, which is a site where the endoscopic image 61 was not acquired during the examination.
  • the score display section 163 displays the overall examination score, the image acquisition rate, and the good image rate of the endoscopic images 61 displayed on the overall map 161 in text form.
  • the overall inspection score is a value obtained by averaging the quality indexes of the endoscopic images 61 displayed on the overall map 161, and is indicated by a numerical value within the range of 0 to 100.
  • the image acquisition rate is the ratio of the number of endoscopic images 61 actually acquired to the number of endoscopic images 61 to be acquired in the examination. Since it was acquired, it is displayed as 70%.
  • the good image rate is the ratio of the number of endoscopic images 61 with a good quality index to the number of actually acquired endoscopic images 61. In the case of FIG. Since the sheet was good, it is displayed as 63%.
  • the quality index By using the quality index, the quality of the endoscopic image 61 acquired in the inspection can be grasped at a glance. In addition, it is possible to obtain information such as the quality of the endoscopic images of the necessary parts in the endoscopic examination and whether reexamination is necessary, etc. It can also be used for other plans.
  • the overall check sheet 171 includes the name of the part to be acquired for the endoscopic image 61 in the endoscopy, and the square-shaped quality index attached to the left of the row of each part name. column 172;
  • the quality index is calculated in the check column with the quality index as soon as the endoscopic image 61 of the target region is acquired, and the color corresponding to the quality index of the endoscopic image 61 is applied.
  • the check column on the left of the row with the part name "esophagus" is colored with a quality check 172a.
  • the check columns attached to the part names are displayed in different colors. You can see at a glance whether there is If the overall check sheet 171 is checked during the inspection, it is possible to prevent the endoscopic image 61 of the necessary part from being forgotten, and the endoscopic image 61 for which the quality index is not acceptable has been acquired. In this case, it becomes an opportunity to reacquire an endoscopic image 61 of better quality.
  • the medical image acquisition unit 11 acquires an endoscopic image 61 obtained by the endoscope device 18 (step ST110).
  • An endoscope image 61 shows the subject.
  • the recognition processing unit 12 performs image recognition processing for detecting a region of interest of the subject on the endoscope image 61 acquired by the medical image acquisition unit 11 (step ST120).
  • the endoscope image 61 and the recognition processing result 63 are displayed on the display 20 (step ST130).
  • inappropriate area detection processing is performed to detect an inappropriate area that is inappropriate for image recognition processing for detecting an attention area (step ST140). Based on the detection result of the inappropriate area detection process, control is performed to notify the detection result (step ST150).
  • the above-described embodiments and the like are programs for medical image processing, and include a process of acquiring a medical image including a subject image, a process of performing image recognition processing based on the medical image, and the medical image and the result of the image recognition processing. is displayed on the display, inappropriate area detection processing is performed to detect inappropriate areas that are inappropriate for image recognition processing based on medical images, and the detection result of inappropriate area detection processing is Based on this, it includes a medical image processing program that causes a computer to execute control processing for notifying detection results.
  • the medical image acquisition unit 11, the recognition processing unit 12, the display control unit 13, the inappropriate area detection unit 14, the notification control unit 15, and other processing units is various processors as shown below.
  • Various processors include CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that run software (programs) and function as various processing units.
  • Programmable Logic Devices PLDs
  • PLDs Programmable Logic Devices
  • One processing unit may be composed of one of these various processors, or composed of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA).
  • a plurality of processing units may be configured by one processor.
  • a plurality of processing units may be configured by one processor.
  • this processor functions as a plurality of processing units.
  • SoC System On Chip
  • SoC System On Chip
  • the various processing units are configured using one or more of the above various processors as a hardware structure.
  • the hardware structure of these various processors is, more specifically, an electric circuit in the form of a combination of circuit elements such as semiconductor elements.
  • Medical image processing device 11 Medical image acquisition unit 12 Recognition processing unit 13 Display control unit 14 Inappropriate area detection unit 15 Notification control unit 16 Temporary storage unit 17 Data storage unit 18 Endoscope device 19 PACS 20 display 21 input device 31 control unit 32 communication unit 33 storage unit 34 data bus 35 network 41 CPU 42 RAM 43 ROMs 44 Program for medical image processing device 45 Data for medical image processing device 51 Attention area detector 61 Endoscope image 62 Attention area 63 Recognition processing result 64 Detected attention area 65 Halation area 66 Dark area 71 Main area 72 Attention area detection display Frame 73 Attention area detection display figure 74 Sub-area 75 Classification result display text 76 Classification result display by color 77 Region name display text 78 Highlight display of region name tile 81 Inappropriate region detector 82 Inappropriate region detection result 83 Inappropriate detection result Region 91 Inappropriate factor identifier 92 Inappropriate factor identification result 93 Halation area identification result 94 Dark area identification result 95 Inappropriate factor legend 101 Inappropriate exposure detection section 102 Inappropriate focus detection section 103 Residue detection section

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

より信頼性又は精度が高い画像認識処理結果を得ることができる医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理用プログラムを提供する。 医療画像処理装置(10)は、取得した医療画像に基づき画像認識処理を行い、医療画像と画像認識処理の結果とをディスプレイ(20)に表示する制御を行い、医療画像に基づき画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行い、不適切領域検出処理の検出結果に基づき、検出結果を報知する制御を行う。

Description

医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム
 本発明は、医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラムに関する。
 医療分野においては、内視鏡またはCT(Computed Tomography、コンピュータ断層撮影装置)もしくはMRI(Magnetic Resonance Imaging、磁気共鳴画像)等の各種のモダリティにより得られる医療画像を用いて画像認識処理を行うことにより、医師の診断を支援するための診断支援情報を得ることが行われている。近年では、機械学習の技術を用いた画像認識処理により所望の情報を得る方法が各種開発されている。
 医療画像に基づいて病変を検出する画像認識処理が知られている。内視鏡システムにおいて、ユーザが病変を見落とす見落としリスクの度合いに基づき、報知手段等を制御して病変部の報知を行う内視鏡システム等が知られている(特許文献1)。
国際公開第2020/110214号
 医療画像に基づいた画像認識処理を行う場合、画像認識処理自体が有効に実施されることにより、画像認識処理の信頼性又は精度を高めることができ、病変等によっては、これを見落とすリスクを減少させることも可能である。
 本発明は、より信頼性又は精度が高い画像認識処理結果を得ることができる医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラムを提供することを目的とする。
 本発明の医療画像処理装置は、プロセッサを備える。プロセッサは、被検体像を含む医療画像を取得し、医療画像に基づき画像認識処理を行い、医療画像と画像認識処理の結果とをディスプレイに表示する制御を行い、医療画像に基づき画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行い、不適切領域検出処理の検出結果に基づき、検出結果を報知する制御を行う。
 不適切領域検出処理は、医療画像における不適切領域の位置を特定し、検出結果は、医療画像における不適切領域の位置を含むことが好ましい。
 プロセッサは、検出結果を、ディスプレイに対して画像により報知すること、振動発生手段に対し振動により報知すること、及び、音声発生手段に対し音声の発生により報知することのうち少なくとも1種の制御を行うことが好ましい。
 プロセッサは、メイン領域とサブ領域とを備えるディスプレイに対し、医療画像をメイン領域に表示し、検出結果をサブ領域に表示する制御を行うことが好ましい。
 プロセッサは、ディスプレイに対し、検出結果を医療画像に重畳した重畳画像を表示する制御を行うことが好ましい。
 プロセッサは、医療画像に基づき不適切領域が画像認識処理に不適切である不適切要因を識別する不適切要因識別処理を行い、不適切要因識別処理の識別結果に基づき、識別結果を報知する制御を行うことが好ましい。
 識別結果は、複数の不適切要因を含み、プロセッサは、不適切要因毎に互いに異なる態様により識別結果を報知する制御を行うことが好ましい。
 識別結果は、複数の不適切要因を含み、プロセッサは、複数の不適切要因のうち少なくとも2つを組み合わせて得られる組み合わせ不適切要因に基づき、識別結果を報知する制御を行うことが好ましい。
 不適切要因は、医療画像におけるブレもしくはボケ、水、血液、残渣、もしくはレンズの汚れの像、又は、暗部もしくはハレーション部の像であることが好ましい。
 不適切要因は、画像認識処理の結果に基づいて算出される正診率が予め設定した値以下であることであることが好ましい。
 不適切要因と不適切要因の回避方法とが関連付けられた回避情報を備え、不適切要因識別処理は、不適切要因と回避情報とを参照することにより、不適切領域における不適切要因の回避方法を取得し、識別結果は、不適切領域における不適切要因の回避方法を含むことが好ましい。
 プロセッサは、被検体を撮影して医療画像を生成する撮影装置を制御し、撮影装置に不適切要因の回避方法を実行させる制御を行うことが好ましい。
 不適切領域検出処理は、不適切要因毎に画像認識処理に不適切である程度を表す不適切度を識別し、プロセッサは、不適切度に基づき、検出結果の報知の態様を異ならせる制御を行うことが好ましい。
 プロセッサは、検出結果を報知する制御を行う際に、予め報知に関する閾値を設定し、報知に関する閾値に基づき、検出結果の報知の態様を異ならせる制御を行うことが好ましい。
 プロセッサは、画像保存部と接続し、医療画像と、画像認識処理の結果、検出結果、及び識別結果のうち少なくとも1つを医療画像に重畳した情報重畳画像とを、画像保存部に保存する制御を行うことが好ましい。
 プロセッサは、画像保存部と接続し、医療画像の付属情報に、画像認識処理の結果、検出結果、及び識別結果のうち少なくとも1つを加えた情報付与画像を、画像保存部に保存する制御を行うことが好ましい。
 プロセッサは、医療画像が有する不適切領域に基づき、医療画像の品質指標を算出し、ディスプレイに対して品質指標を表示する制御を行うことが好ましい。
 医療画像は、被検体の検査において得られたものであり、プロセッサは、ディスプレイに対して検査において得られた複数の医療画像の品質指標に基づき算出した検査全体スコアを表示する制御を行うことが好ましい。
 また、本発明の医療画像処理装置の作動方法は、被検体像を含む医療画像を取得するステップと、医療画像に基づき画像認識処理を行うステップと、医療画像と画像認識処理の結果とをディスプレイに表示する制御を行うステップと、医療画像に基づき画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行うステップと、不適切領域検出処理の検出結果に基づき、検出結果を報知する制御を行うステップと備える。
 また、本発明の医療画像処理装置用プログラムは、被検体像を含む医療画像を取得する処理と、医療画像に基づき画像認識処理を行う処理と、医療画像と画像認識処理の結果とをディスプレイに表示する制御を行う処理と、医療画像に基づき画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行う処理と、不適切領域検出処理の検出結果に基づき、検出結果を報知する制御を行う処理とをコンピュータに実行させる。
 本発明によれば、より信頼性又は精度が高い画像認識処理結果を得ることができる。
医療画像処理装置の機能を示すブロック図である。 医療画像処理装置の構成を説明するブロック図である。 認識処理部の機能を示すブロック図である。 図4(a)は、注目領域検出器が検出した注目領域を、注目領域の形状により表示する処理を説明する説明図であり、図4(b)は、注目領域検出器が検出した注目領域を、矩形の形状により表示する処理を説明する説明図である。 内視鏡画像及び検出処理である認識処理の結果を表示する画像図である。 内視鏡画像及び分類処理である認識処理の結果を表示する画像図である。 内視鏡画像及び部位認識処理である認識処理の結果を表示する画像図である。 不適切領域検出部の機能を示すブロック図である。 図9(a)は、不適切領域検出器が検出したハレーション部による不適切領域を説明する説明図であり、図9(b)は、不適切領域検出器が検出した暗部による不適切領域を説明する説明図である。 内視鏡画像、検出処理の結果、及び不適切領域検出処理の結果をサブ領域に表示する画像図である。 内視鏡画像、検出処理の結果、及び不適切領域検出処理の結果をメイン領域に表示する画像図である。 不適切要因識別器を備える不適切領域検出部の機能を示すブロック図である。 図13(a)は、不適切要因識別器が検出したハレーション部である不適切要因を説明する説明図であり、図13(b)は、不適切要因識別器が検出した暗部である不適切要因を説明する説明図である。 不適切要因識別器による不適切要因識別結果を報知する画像の画像図である。 各種検出部を備える不適切領域検出部の機能を示すブロック図である。 各検出部による不適切要因識別結果を報知する画像の画像図である。 回避情報を備える不適切領域検出部の機能を示すブロック図である。 回避情報を説明する説明図である。 回避方法と不適切要因識別結果とを報知する画像図である。 撮影装置制御部を備える不適切領域検出部の機能を示すブロック図である。 回避実行情報と不適切要因識別結果とを報知する画像図である。 不適切度閾値情報を備える不適切領域検出部の機能を示すブロック図である。 不適切度閾値情報を説明する説明図である。 情報付与画像を説明する説明図である。 品質指標算出部を備える医療画像処理装置の機能を示すブロック図である。 品質指標を表示する画像図である。 全体マップを説明する画像図である。 全体チェックシートを説明する画像図である。 医療画像処理装置の処理の流れを説明するフローチャートである。
 本発明の基本的な構成の一例について説明する。図1に示すように、医療画像処理装置10は、医療画像取得部11、認識処理部12、表示制御部13、不適切領域検出部14、及び報知制御部15を備える。医療画像処理装置10は、内視鏡装置18、X線検査等の各種モダリティ(図示せず)、RIS(放射線科情報システム、Radiology Information Systems)もしくは内視鏡情報システム等の検査情報システム(図示せず)、及びPACS(医療用画像管理システム、Picture Archiving and Communication System)19等の医療画像の出力が可能な装置、ディスプレイ20等の表示装置、及びキーボード等の入力デバイス21等と接続する。
 医療画像処理装置10は、内視鏡装置18等から取得した医療画像に基づき画像認識処理を行い、医療画像と医療画像の画像認識処理結果とをディスプレイ20に表示する制御を行う。ユーザである医師は、ディスプレイ20に示された医療画像と画像認識処理結果とを診断に役立てる。また、医療画像処理装置10は、医療画像に基づき、画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行い、不適切領域検出処理の検出結果を医師に報知する制御を行う。検出結果において、不適切領域を検出したとの報知があった場合、医師は、画像認識処理に用いた医療画像は、画像認識処理に不適切な領域があったことを認識できる。一方、不適切領域を検出したとの報知がなかった場合、医師は、画像認識処理に用いた医療画像は、画像認識処理に不適切な領域がなかったことを認識できる。
 医療画像は、主に検査により得られた検査動画又は静止画であり、例えばPACS19が扱う医療画像である。具体的には、X線検査によるX線画像、MR検査によるMRI画像、CT検査によるCT画像、内視鏡検査による内視鏡画像、又は超音波検査による超音波画像等が挙げられる。
 医療画像処理装置10は、検査中又は検査後に作動する。したがって、医療画像処理装置10は、検査中にリアルタイムで医療画像を取得するか、又は、検査後に各種の医療画像を保存する装置に保存されていた医療画像を取得する。そして、取得した医療画像に基づき、その後の動作を続けて行う。
 画像認識処理は、医療画像を用いて行われる各種の認識処理であり、例えば、病変等の注目領域を検出する注目領域検出処理、病変に対して病種を分類する分類処理、又は、撮影した部位を認識する部位認識処理等が挙げられる。これらの処理のそれぞれは、注目領域検出処理が分類処理を兼ねる等、2つ以上の種類の処理を兼ね備えてもよい。
 画像認識処理は、機械学習アルゴリズムに対し学習を実施して構築された画像認識用学習モデルにより実施される。この画像認識用学習モデルは、それぞれの処理毎に、医療画像を入力することにより目的の結果を出力するように学習及び調整等が行われた学習モデルである。具体的には、注目領域検出処理での学習の場合、学習データセットは、医療画像と医療画像が有する注目領域の正解データとからなる。医療画像と画像認識処理の結果とは、ディスプレイ20に表示される。ユーザは、ディスプレイ20の表示により認識処理の結果を確認し、診断支援情報として診断に役立てる。
 不適切領域検出処理は、医療画像における不適切領域を検出する処理であり、画像認識処理と並行して行う。不適切領域検出処理は、機械学習アルゴリズムに対し学習を実施して構築された不適切領域検出用学習モデル等により実施される。この不適切領域検出用学習モデルは、医療画像を入力することにより不適切領域を出力するように学習及び調整等が行われた学習モデルである。具体的には、学習データセットは、医療画像と医療画像における不適切領域の正解データとからなる。
 医療画像における不適切領域を示す不適切領域の正解データは、例えば、医療画像に基づいて医師が判定して医療画像に付与する。また、医療画像に基づいて画像認識処理を行った際に、正診率が低い領域又は目的の結果を出力することに失敗した領域を、不適切領域として医療画像に付与してもよい。画像認識処理が目的の結果を出力することに失敗したか否かは、医師が医療画像を目視して診断した結果、又は、生検等の検査の結果等と、認識処理の結果とにより判定する。
 ここで、正診率は、医療画像に対して行った画像認識処理等の各種学習モデルによる認識処理の結果が、医師が診断した結果と同じであった程度を示す。例えば、生検等の検査結果も含め医療画像に写る被検体の実際の状況を医師が診断した結果に対して、医療画像に対して行った注目領域検出処理の画像認識処理の結果であって、医師が診断した注目領域の結果と同じであった割合とすることができる。したがって、正診率が低い領域とは、医療画像に対し、画像認識処理の結果と医師の診断結果とが一致する割合が小さい領域である。
 不適切領域の正解データは、不適切領域となった原因である不適切要因に関する正解データを含んでもよい。不適切要因に関する正解データは、医師が医療画像を目視して不適切要因の正解データを付与してもよいし、不適切要因を識別する不適切要因識別用学習モデルにより識別して得た不適切要因により、医療画像に不適切領域及び不適切要因の正解データを付与してもよい。
 不適切要因に関する正解データは、医師が付与する場合は、医師が医療画像を目視して判定することにより付与することができる。医師が判定する不適切要因は、例えば、医療画像におけるブレもしくはボケ等の不適焦点の像、水、血液、残渣、もしくは、レンズの汚れもしくは曇り等の被検体以外の像、又は、暗部もしくはハレーション部等の不適露出の像等が挙げられる。
 不適切要因は、画像認識処理の結果に基づいて算出される正診率が予め設定した閾値以下の領域であってもよい。また、画像認識処理の正診率が低い領域又は画像認識処理が失敗した領域等において、医師によってはその要因が判定できない要因の場合がありうる。不適切要因識別器91(図12参照)によれば、画像認識処理の正診率が低い領域又は画像認識処理が失敗した領域等において、医師によってはその要因が判定できない要因であっても、不適切要因を識別することができる。不適切要因識別器91等については、後述する。
 不適切領域検出処理により不適切領域が検出された場合に行われる報知は、医師に医療画像において不適切領域が検出されたことを認識させることができる方法により行うことができる。例えば、不適切領域が検出されたことを、取得した医療画像を表示するディスプレイ20に表示することにより、医師は、不適切領域検出処理によって、医療画像には画像認識処理に不適切な領域が存在すると検出されたことを認識できる。また、報知がない場合、医師は、医療画像において不適切領域検出処理によって画像認識処理に不適切な領域が検出されなかったことを認識できる。
 画像認識処理を行う場合に医療画像の不適切領域が存在すると、適切な画像解析処理が行われないおそれがある。例えば、医療画像に写る被検体が病変等の注目領域を含む場合に、不適切領域のために、注目領域を検出する画像認識処理が注目領域を正しく検出できないおそれがある。
 また、不適切領域における不適切要因は、医療画像において病変等の注目領域の存在の有無に関わらず生じる。すなわち、医療画像に写る被検体において病変等が存在しない正常な領域のみを含む場合に、不適切領域のために、注目領域を検出する画像認識処理が注目領域を検出してしまうおそれがある。以上のように、画像解析処理の結果を診断支援情報として診断を行う場合、適切な診断とならない可能性がある。
 医療画像処理装置10は、病変等の存在に関わらず、医療画像に対し画像認識処理を行うに際して不適切な不適切領域を検出して医師に報知する。したがって、例えば、医師がディスプレイ20に表示された医療画像と、表示により報知された不適切領域とを見て、不適切領域となった要因が認識でき、不適切な要因を回避することが可能であれば、医師は、検査において医療画像の撮影環境を変える等の対応をすることが可能となる。したがって、医師は不適切な要因を回避し、より信頼性又は精度が高い画像認識処理の結果を得ることができる。
 また、医療画像処理装置10により、不適切領域の検出が医師に報知された場合、医師が不適切領域となった要因が認識できなくても、ディスプレイ20に表示された画像認識処理の結果には、不適切領域の存在のために信頼できない箇所がある可能性を認識することができる。したがって、不適切領域の検出の結果が得られない場合と比較して、画像認識処理の結果に対し注意を払うことができる。このように、不適切領域となった要因が認識できない場合も、不適切領域の検出の報知は画像認識処理の結果の信頼性又は精度に関する有用な情報となり、医師はこれらの情報を自動的に得ることができる。一方、不適切領域検出処理を行っている場合に、不適切領域の報知がない場合は、医師は、画像認識処理の結果に対して一定の信頼性又は精度があることを認識できる。
 以上のように、医療画像処理装置10により、医師は、不適切領域が存在する医療画像に対しても、不適切領域が存在しない医療画像に対しても、また、注目領域が検出された領域のみならず、病変等の注目領域が存在しない正常領域に対しても、不適切領域の報知により、信頼性又は精度が高い画像認識処理結果を得ることができる。
 本発明の医療画像処理装置10について実施形態の一例を説明する。図2に示すように、本実施形態の医療画像処理装置10は、ハードウェア構成としては、入力装置である入力デバイス21、出力装置であるディスプレイ20、制御部31、通信部32、及び記憶部33が、データバス34を介して電気的に相互接続されているコンピュータである。
 入力デバイス21は、キーボード、マウス、又はディスプレイ20のタッチパネル等の入力装置である。ディスプレイ20は、出力装置の一種である。ディスプレイ20は、マウスやキーボード等の入力デバイス21の操作に応じた各種操作画面を表示する。操作画面にはGUI(Graphical User Interface)による操作機能が備えられる。医療画像処理装置10を構成するコンピュータは、操作画面を通じて入力デバイス21からの操作指示の入力を受け付けることができる。
 制御部31は、プロセッサであるCPU(Central Processing Unit)41、RAM(Random Access Memory)42、及びROM(Read Only Memory)43等を含む。CPU41は、記憶部33等に記憶されたプログラムをRAM42、又はROM43へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。通信部32は、ネットワーク35を介した各種情報の伝送制御を行うネットワークインターフェースである。なお、RAM42、又はROM43は、記憶部33の機能を備えていてもよい。
 記憶部33は、メモリの一例であり、例えば、医療画像処理装置10を構成するコンピュータに内蔵、もしくはケーブルやネットワークを通じて接続されたハードディスクドライブ、ソリッドステートドライブ、又はハードディスクドライブ等を複数台連装したディスクアレイである。記憶部33には、制御プログラム、各種アプリケーションプログラム、これらのプログラムに使用するための各種データ、及び、これらのプログラムに付随する各種操作画面の表示データ等が記憶されている。
 本実施形態の記憶部33は、医療画像処理装置用プログラム44、医療画像処理装置用データ45等の各種データを記憶する。医療画像処理装置用プログラム44又は医療画像処理装置用データ45は、医療画像処理装置10の各種機能を実施するためのプログラム又はデータである。医療画像処理装置用プログラム44と医療画像処理装置用データ45とにより、医療画像処理装置10の機能が実現される。また、医療画像処理装置用データ45は、医療画像処理装置用プログラム44により生成された各種データの一時保存又は保存のための一時保存部16及びデータ保存部17を含み、各種のデータを記憶する。
 医療画像処理装置10を構成するコンピュータは、専用に設計された装置の他、汎用のサーバ装置、又はPC(Personal Computer)等とすることができる。また、医療画像処理装置10の機能を発揮することができればよく、単独のコンピュータとしてもよいし、他の機能を装置とコンピュータを共用してもよい。例えば、内視鏡用プロセッサ装置等の他の機能を果たす装置とコンピュータを共用してもよいし、内視鏡管理システム等に医療画像処理装置10の機能又はコンピュータを組み込んでもよい。本実施形態では、医療画像処理装置10を構成するコンピュータは、医療画像の画像認識処理を行うPCと共用とする。
 本実施形態の医療画像処理装置10はプロセッサを備えるプロセッサ装置であり、医療画像処理装置10には医療画像処理に関するプログラムがプログラム用メモリである記憶部33に格納されている。医療画像処理装置10においては、プロセッサ等によって構成される制御部31により、プログラム用メモリ内のプログラムが動作することによって、医療画像取得部11と、認識処理部12と、表示制御部13と、不適切領域検出部14と、報知制御部15との機能が実現される(図1参照)。
 医療画像取得部11は、医療画像を出力可能な装置から医療画像を取得する。医療画像としては、主に検査により得られる検査動画を取得する。本実施形態では、内視鏡装置18を用いた内視鏡検査において得られる内視鏡画像を検査中にリアルタイムで取得する。内視鏡画像は医療画像の一種であり、内視鏡装置18が備える内視鏡で被検体を撮影して得た画像である。以下、医療画像として内視鏡画像を用いた場合について説明する。なお、内視鏡画像という場合には、動画及び/又は静止画とする。また、動画には、内視鏡装置18が予め設定したフレーム数で撮影した個々のフレーム画像が含まれる。
 認識処理部12は、医療画像取得部11が取得した内視鏡画像に対する画像認識処理を行う。画像認識処理の内容としては、本実施形態では、医療画像取得部11が取得した内視鏡画像に対し、検査中にリアルタイムで病変等の注目領域を検出する。したがって、本実施形態では、画像認識処理は注目領域検出処理である。注目領域検出処理の他に、病変に対して病種を分類する分類処理、撮影中の部位に関する情報を認識する部位認識処理、又は、これらを複数組み合わせて行う処理が可能である。
 図3に示すように、認識処理部12は、注目領域検出器51を含む。注目領域検出器51は、取得した内視鏡画像61に基づき、内視鏡画像61に写る被検体が含む注目領域を検出する注目領域検出処理を行う。
 注目領域検出処理は、注目領域検出器51を用いて行う。図4(a)に示すように、注目領域検出器51は、内視鏡画像61が入力されることにより、内視鏡画像61に映る被検体が注目領域62を含む場合に、注目領域62の有無又は注目領域62の場所を含む認識処理の結果63を出力する。認識処理の結果63の出力は、例えば、認識処理により検出された注目領域62である検出注目領域64の領域自体を画像の形態として表示する。また、図4(b)に示すように、認識処理の結果63の出力は、検出注目領域64の領域自体の出力ではなく、検出注目領域64の位置を示す出力でもよい。例えば、認識処理の結果63の出力は、検出注目領域64を示す矩形の図形の形態として表示する。認識処理の結果63は、画像、図形、又はテキスト等の各種の形態で出力することにより医師に通知される。
 注目領域検出器51は、画像処理により注目領域を検出するものであってもよいし、機械学習による学習モデルにより注目領域を検出するものであってもよい。本実施形態では、注目領域検出器51は、機械学習アルゴリズムを用いて構築された注目領域検出用学習モデルであり、内視鏡画像61を注目領域検出器51に入力した場合に、内視鏡画像61における注目領域の有無を目的変数として出力することが可能な学習モデルである。注目領域検出用学習モデルは、画像認識用学習モデルの一例である。注目領域検出器51は、内視鏡画像61における注目領域の有無を目的変数として出力することが可能なように、予め、機械学習アルゴリズムを用いて、内視鏡画像61と注目領域の正解データとからなる注目領域検出器51用の初期画像データセットにより学習され、パラメータ等の調整が行われている。
 注目領域検出器51に用いる機械学習アルゴリズムとしては、教師あり学習に用いられるアルゴリズムであれば各種のアルゴリズムを用いることができるが、画像認識において良好な推論結果を出力するとされるアルゴリズムを用いることが好ましい。例えば、多層ニューラルネットワーク、又は畳み込みニューラルネットワークを用いることが好ましく、いわゆるディープラーニングと称される手法を用いることが好ましい。また、注目領域検出器51には、注目領域の検出の精度の向上、又は検出速度の向上等、学習モデルの性能の向上のために一般的に行われる、入力画像である内視鏡画像61に対する加工、複数の学習モデルの使用等の技術を用いてもよい。
 認識処理の結果63である注目領域の検出の結果には、内視鏡画像61において検出した注目領域の場所、大きさもしくは面積、形状、又は、個数等が含まれ、注目領域の場所又は大きさ等が0であった、すなわち、注目領域が検出されなかったとの内容も含む。
 表示制御部13は、内視鏡画像61と認識処理の結果63とをディスプレイ20に表示する制御を行う。内視鏡画像61と認識処理の結果63との表示方法としては、医師が内視鏡画像61と認識処理の結果63とを確認できる方法を採用することができ、例えば、内視鏡画像61に認識処理の結果63を重畳して示す、ディスプレイ20のメイン領域に内視鏡画像61を表示し、サブ領域に認識処理の結果63を表示する、又は、認識処理の結果63をテキストで示す等とすることができる。内視鏡画像61と認識処理の結果63との表示方法は、認識処理部12が行う認識処理の内容、又は、認識処理の結果63の内容等に合わせて適切な表示形態とすることが可能である。
 図5に示すように、本実施形態では、認識処理部12は注目領域検出処理を行うため、内視鏡装置18による検査中に使用するディスプレイ20のメイン領域71に内視鏡画像61と認識処理の結果63である注目領域検出処理の結果とを表示する。内視鏡画像61が注目領域62を含む場合は、内視鏡画像61を表示することにより、医師は、被検体が有する注目領域62を確認することができる。
 そして、認識処理の結果63は、例えば、メイン領域71において、注目領域検出表示枠72として、検出した注目領域62に近い内視鏡画像61の枠の形状及び色を、通常の枠から変化させて表示することができる。また、ディスプレイ20のサブ領域74に、注目領域検出表示図形73として、検出した注目領域62の位置を示す図形を表示することによって、検出した注目領域62の位置を示すことができる。
 医師は、ディスプレイ20のメイン領域71又はサブ領域74を見ることで、認識処理部12により注目領域62が検出されたことを認知できる。医師は、認識処理の結果63を示す注目領域検出表示枠72又は注目領域検出表示図形73により、認識処理の結果63を診断に役立てることができる。なお、検査中の内視鏡画像61を含む検査動画、及び、認識処理の結果63等のデータは、一時保存部16に保存される。
 なお、例えば、認識処理部12が病変に対して病種を分類する分類処理を行う場合であって、内視鏡装置18による検査中に使用するディスプレイ20に内視鏡画像61と認識処理の結果63である分類処理の結果とを表示する場合は、図6に示すように、検査中に使用するディスプレイ20のメイン領域71に内視鏡画像61と認識処理の結果63とを表示し、また、ディスプレイ20のサブ領域74にも認識処理の結果63を表示する。なお分類処理においては、内視鏡画像61における病変の位置を検出し、この病変の種類を分類する。メイン領域71に表示する認識処理の結果63では、分類結果表示テキスト75により認識処理の結果63を表示する。具体的には、「HYPERPLASTIC」等のテキストにより表示する。また、サブ領域74にも、認識処理の結果63として、分類結果色別表示76により、病変の位置とこの病変の種類とが、この病変の種類を示す色により表示される。図6では、分類結果色別表示76により、病変が過形成(hyperplastic)であることが示される。
 また、例えば、認識処理部12が部位に関する情報を認識する部位認識処理等を行う場合であって、内視鏡装置18による検査終了後において、検査レポート作成用のディスプレイ20の検査レポート作成ソフトにおけるメイン領域71に、内視鏡画像61と認識処理の結果63である部位認識処理の結果とを表示する場合は、図7に示すように、例えば、メイン領域71に内視鏡画像61と部位名表示テキスト77とを表示し、また、サブ領域74にも、部位名のタイルの強調表示78により、認識処理の結果63を表示する。
 不適切領域検出部14は、内視鏡画像61に基づき不適切領域検出処理を行う。不適切領域検出処理では、画像認識処理に不適切な領域である不適切領域を、不適切領域検出結果82として出力する。本実施形態では、注目領域検出処理にとって不適切な領域である不適切領域を、不適切領域検出結果82として検出する。不適切領域は、具体的には、内視鏡画像61上の領域であって、内視鏡画像61に起因して、注目領域検出処理が適正に行われない可能性がある領域である。不適切領域検出処理は、内視鏡画像61における不適切領域の位置を特定する。したがって、不適切領域検出結果82は内視鏡画像61における不適切領域の位置を含む。
 不適切領域検出処理では、内視鏡画像61において注目領域検出処理が適正に行われない可能性がある領域を検出することができればよく、例えば、機械学習による学習モデルを利用する方法、又は、不適切領域となった要因である不適切要因について、画像処理により不適切要因を識別することにより不適切領域を検出する方法等を採用することができる。本実施形態では、機械学習による学習モデルを利用する。画像処理により不適切要因を識別する場合については、後述する。
 図8に示すように、不適切領域検出部14は、不適切領域検出器81を含む。不適切領域検出器81は、取得した内視鏡画像61に基づき、注目領域検出処理に対する不適切領域を検出する不適切領域検出用学習モデルである。
 図9(a)に示すように、不適切領域検出器81は、内視鏡画像61が入力されることにより、内視鏡画像61に写る被検体が注目領域検出処理に対する不適切領域を含む場合に、不適切領域検出結果82を出力する。図9(a)において、内視鏡画像61は、ハレーション領域65を含む。ハレーション領域65は、内視鏡画像61において画素値が飽和状態又は飽和に近い状態にあるため、認識処理部12は、画素の特徴量により画像認識処理を行うことができず、ハレーション領域65に基づく場合は適正に注目領域検出処理を行うことができない。不適切領域検出器81は、ハレーション領域65を含む内視鏡画像61の入力により、ハレーション領域65を検出した場合に、ハレーション領域65の検出不適切領域83を含む不適切領域検出結果82を出力する。不適切領域検出結果82には、注目領域検出処理により検出された検出不適切領域83を含む場合と、検出不適切領域83を含まない場合とがある。
 また、図9(b)に示すように、内視鏡画像61は、内視鏡の照明光が届かない管腔の奥を撮影した暗部領域66を含む。暗部領域66は、逆に、内視鏡画像61において画素値が0又は0に近い状態にあるため、認識処理部12は、画素の特徴量により画像認識処理を行うことができず、暗部領域66に基づく場合は適正に注目領域検出処理を行うことができない。したがって、不適切領域検出器81は、暗部領域66を含む内視鏡画像61の入力により、暗部領域66の検出不適切領域83を含む不適切領域検出結果82を出力する。
 不適切領域検出器81は、具体的には機械学習アルゴリズムを用いて構築された不適切領域検出用学習モデルであり、内視鏡画像61を不適切領域検出器81に入力した場合に、内視鏡画像61における不適切領域の有無を目的変数として出力することが可能な学習モデルである。不適切領域検出器81は、内視鏡画像61における不適切領域の有無を目的変数として出力することが可能なように、予め、機械学習アルゴリズムを用いて、内視鏡画像61と不適切領域の正解データとからなる不適切領域検出器81用の初期画像データセットにより学習され、パラメータ等の調整が行われている。
 不適切領域検出器81に用いる機械学習アルゴリズムとしては、教師あり学習に用いられるアルゴリズムであれば各種のアルゴリズムを用いることができるが、画像認識において良好な推論結果を出力するとされるアルゴリズムを用いることが好ましい。例えば、多層ニューラルネットワーク、又は畳み込みニューラルネットワークを用いることが好ましく、いわゆるディープラーニングと称される手法を用いることが好ましい。また、不適切領域検出器81には、不適切領域の検出の精度の向上、又は検出速度の向上等、学習モデルの性能の向上のために一般的に行われる、入力画像である内視鏡画像61に対する加工、複数の学習モデルの使用等の技術を用いてもよい。
 不適切領域検出結果82には、内視鏡画像61において検出した不適切領域の場所、大きさもしくは面積、形状、又は、個数等が含まれ、不適切領域の場所又は大きさ等が0であった、すなわち、不適切領域が検出されなかったとの内容も含む。
 報知制御部15は、不適切領域検出結果82に基づき、これを報知する制御を行う。報知の制御方法は、予め設定することができる。例えば、不適切領域検出結果82が、不適切領域が検出されないとの内容である場合は、報知を行わないものとし、不適切領域が検出された場合は、医師にその旨を通知する報知を行うものとする。
 報知の方法としては、医師が、内視鏡画像61において注目領域検出処理に対する不適切領域を含むことについて認識できる方法であればよい。したがって、報知は、医師の五感により認識できる報知手段を用いる方法を採用することができる。
 報知は、具体的には、不適切領域が検出されたとの不適切領域検出結果82について、ディスプレイ20を用いて画像により報知することができる。内視鏡装置18による検査中である場合は、不適切領域検出結果82を表示するディスプレイ20は、検査中に内視鏡画像61を表示するディスプレイ20と同じであることが好ましい。不適切領域検出結果82をディスプレイ20に表示することにより、医師は、通常の検査と変わらない動作により、不適切領域検出結果82を確認することができる。なお、画像による報知の場合、報知制御部15は、報知の指示を表示制御部13に対して行い、具体的な表示の制御は、表示制御部13が行う。
 また、振動発生手段に対し、不適切領域が検出されたとの不適切領域検出結果82が得られた際に、振動発生手段を用いて振動により報知してもよい。振動発生手段としては、通信により振動を発生することができる小型端末、携帯電話、又は、スマートフォン等が採用できる。また、不適切領域が検出されたとの不適切領域検出結果82が得られた際に、スピーカ等の音声発生手段を用いて、音及び/又は声を含む音声により報知してもよい。不適切領域検出結果82の報知において、音声発生手段又は振動発生手段を用いることにより、医師は、ディスプレイ20の表示を通常の検査等と同じにすることができる。
 報知制御部15は、本実施形態では、不適切領域検出結果82を画像として表示することにより報知する制御をディスプレイ20に対して行う。例えば、ディスプレイ20は、メイン領域71とサブ領域74とを備え、メイン領域71に内視鏡画像61を表示する。サブ領域74は、内視鏡画像61での位置を示すポジションマップを表示する。ポジションマップには、検出処理による不適切領域検出結果82を表示する。メイン領域71及び/又には、注目領域の検出処理である認識処理の結果63を表示してもよい。
 図10に示すように、検査中、メイン領域71に、内視鏡画像61と、注目領域検出表示枠72により認識処理の結果63である注目領域62とが表示される。サブ領域74のポジションマップには、検出不適切領域83と、認識処理の結果63である注目領域検出表示図形73とが表示される。内視鏡画像61は、白く写るハレーション領域65と暗く写る暗部領域66とを含む。したがって、不適切領域検出結果82にハレーション領域65と暗部領域66とが含まれるため、サブ領域74に示されるポジションマップには、これらの領域が検出不適切領域83であることが表示される。メイン領域71とサブ領域74とに、認識処理の結果63及び不適切領域検出結果82を表示することにより、医師は、検査中の内視鏡画像61の認識処理の結果63を確認するためにディスプレイ20を見ることにより、検査中の被検体の観察と同時に不適切領域検出結果82等を把握することができる。したがって、不適切領域検出結果82をサブ領域74に表示することにより、メイン領域71の表示を通常の検査から変えずにすみ、医師の内視鏡画像61の観察を妨げない。
 また、内視鏡画像61に不適切領域検出結果82を重畳してディスプレイ20に表示してもよい。図11に示すように、内視鏡画像61と検出不適切領域83とを重畳して表示してもよい。ここにさらに、認識処理の結果63を重畳して表示してもよい。この場合、不適切領域検出結果82を検出不適切領域83として表示し、認識処理の結果63を注目領域検出表示枠72として表示する等により、不適切領域検出結果82と認識処理の結果63とを異なる態様で示すことが好ましい。内視鏡画像61に、不適切領域検出結果82等を重畳して表示することにより、サブ領域74を設けないディスプレイ20であっても、医師は、検査中の内視鏡画像61を確認するためにディスプレイ20を見ることにより、被検体の観察と同時に不適切領域検出結果82等を把握することができる。
 以上のとおり、医療画像処理装置10は、不適切領域検出結果82を報知する制御を行い、不適切領域検出結果82を医師等に対し報知する。これにより、内視鏡画像61における注目領域検出処理等の画像認識処理の結果に関わらず、内視鏡画像61において画像認識処理に不適切な領域を医師に認識させることができる。たとえば、注目領域検出処理が、注目領域を検出した場合のみならず、被検体が病変等を含まない正常部からなり注目領域を検出しない場合、又は、注目領域検出処理が誤検出をしている場合であっても、不適切領域を検出する。また、画像認識処理が被検体の病変を検出できない場合であっても、不適切領域の検出及び報知が行われ、その後病変を検出できる可能性が高くなる。
 さらに、不適切領域検出結果82は、人が視認した場合ではそれほど問題がないと思われる内視鏡画像61であっても、画像認識処理を行うにあたって問題となる領域を含む。すなわち、不適切領域に関して医師による判定結果と画像認識処理による判定結果とが異なる領域についても、不適切領域として医師に報知することができる。医師は、これらの報知により、例えば、内視鏡を用いた検査において、不適切領域となる得るブレもしくはボケを是正する、レンズの汚れを除去する、拡大率もしくは被検体との距離を調整する等、不適切領域が発生しないように内視鏡を操作することを含む種々の操作を行うことができる。したがって、医師により不適切領域の発生を抑えることが可能であり、注目領域検出処理が適正に行われる内視鏡画像61を撮影していくことも可能となる。以上のように、医療画像処理装置10では、適正な画像認識処理により、より信頼性又は精度が高い画像認識処理結果を得ることができる。
 また、不適切領域検出結果82をディスプレイ20に表示して報知する場合は、医師は、検査中に被検体を確認するディスプレイ20を見ることで、内視鏡画像61に加え不適切領域検出結果82等の情報も得ることができる。
 次に、不適切要因について説明する。不適切領域検出部14は、内視鏡画像61に基づき、不適切領域が画像認識処理に不適切な理由である不適切要因を識別する不適切要因識別処理を行ってもよい。この場合、報知制御部15は、不適切要因識別処理の識別結果に基づき、識別結果を報知する制御を行う。上記したように、不適切要因には複数の種類があり得る。不適切要因識別処理は、内視鏡画像61の不適切領域のそれぞれについて、複数の種類の不適切要因のうちいずれであるかを識別する。
 例えば、画像認識処理により病変等を見落とすリスクのみについて評価及び報知する場合は、病変等を見落とすリスクについては報知されるが、どのような要因により病変等を見落とすリスクとなっているかは医師に報知されないため、医師はこれらのリスクについて認識することができない場合がある。したがって、これらのリスクの回避操作をすることができない可能性がある。医療画像処理装置10によれば、不適切要因が何であるかを識別し、報知することが可能であり、医師は不適切要因を回避する操作を行うことが可能である。そして、不適切要因を回避することにより、画像認識処理が適切に行われる可能性が高まる。
 また、不適切領域について不適切要因を識別して報知することにより、不適切領域を検出する学習モデルによる検出結果について説明可能とすることができ、検出結果に関する理由が不明となる場合があるといった、機械学習を採用することによる不便を解消し、より有用な機械学習の利用につながる。
 不適切要因識別処理は、機械学習による学習モデルを利用する方法、又は、画像処理により不適切要因を識別する方法等が挙げられる。図12に示すように、学習モデルを利用する場合は、不適切領域検出部14は不適切要因識別器91を備える。不適切要因識別器91は、不適切領域検出器81により検出された不適切領域について、不適切要因を識別する不適切要因識別処理を行う。不適切領域が複数検出された場合は、それぞれの不適切領域について不適切要因を識別する。
 図13(a)に示すように、不適切要因識別器91は、ハレーション領域65である検出不適切領域83を有する内視鏡画像61が入力されることにより、検出不適切領域83における不適切要因を識別して不適切要因識別結果92を出力する。不適切要因識別結果92は、ハレーション領域識別結果93として、領域の表示及び/又は「不適露出:ハレーション」のようなテキストにより出力する。同様に、図13(b)に示すように、不適切要因識別器91は、暗部領域66であった検出不適切領域83を有する内視鏡画像61が入力されることにより、検出不適切領域83における不適切要因を識別して不適切要因識別結果92を出力する。不適切要因識別結果92は、暗部領域識別結果94として、領域の表示及び/又は「不適露出:暗部」のようなテキストにより出力する。不適切要因識別結果92の出力は、ディスプレイ20のサブ領域74等に表示する。
 不適切要因識別器91は、機械学習アルゴリズムを用いて構築された不適切要因識別用学習モデルであり、内視鏡画像61の不適切領域に関する情報を不適切要因識別器91に入力した場合に、入力した不適切領域の不適切要因を識別して、不適切要因を目的変数として出力することが可能な学習モデルである。不適切要因識別器91は、内視鏡画像61における不適切領域の不適切要因を目的変数として出力することが可能なように学習又は調整される。
 不適切要因識別器91に用いる機械学習アルゴリズムとしては、教師あり学習に用いられる各種のアルゴリズムを用いることができるが、画像認識において良好な推論結果を出力するとされるアルゴリズムを用いることが好ましい。例えば、多層ニューラルネットワーク、又は畳み込みニューラルネットワークを用いることが好ましく、いわゆるディープラーニングと称される手法を用いることが好ましい。
 なお、不適切要因識別器91は、出力する結果を複数の項目の割合として出力するものであってもよい。この場合、出力は、複数の不適切要因がそれぞれの確率により出力される。具体的には、アルゴリズムとして畳込みニューラルネットワークを用いた深層学習を行う場合に、活性化関数としてソフトマックス関数を用いる等の手法が行われる。これにより、不適切要因識別器91により、複数の不適切要因の確率が出力されるため、これらの不適切要因を検討して最終的な不適切要因を決定することができる。また、不適切要因識別器91には、不適切要因の識別の精度の向上、又は識別速度の向上等、学習モデルの性能の向上のために一般的に行われる、入力画像である内視鏡画像61等に対する加工、複数の学習モデルの使用等の技術を用いてもよい。不適切要因識別結果92には、不適切領域を識別した不適切要因の内容が含まれ、不適切要因が不明であったとの結果も含む。
 不適切要因識別器91は、不適切領域を有する内視鏡画像61と、不適切領域における不適切要因の正解データとを含む学習データセットにより学習される。不適切要因の正解データとしては、上記したようなボケ、ブレ、又はハレーション等による不適切領域のそれぞれに対し、医師等により、ボケ、ブレ、又はハレーション等の不適切要因の内容をそれぞれ付与することにより正解データとすることができる。また、不適切要因が、画像認識処理の結果に基づいて算出される正診率が予め設定した閾値以下である場合については、この内視鏡画像61に対して行った検出処理等の画像認識処理の結果に基づいて算出した正診率を正解データとすることができる。
 正診率は、内視鏡画像61に対して行った検出処理等の認識処理の結果63を医師が判定して内視鏡画像61の領域毎に付与することができる。例えば、認識処理の結果63が医師の診断と全く同じである場合は100を、認識処理の結果63が医師の診断と全く異なる場合は0を付与する等、0から100の段階的な数値で医師が付与することにより、正診率が正解データとして付与された内視鏡画像61を学習データセットとすることができる。正診率の正解データが付与された内視鏡画像61により学習した不適切要因識別器91により、正診率が未知の内視鏡画像61を入力することにより、内視鏡画像61の領域毎に推測された正診率を不適切要因識別結果92として出力することができる。正診率が高い領域は、その不適切領域が画像認識処理に不適切である程度が低いといえる。したがって、正診率を用いることにより、不適切要因の識別により、不適切要因の内容のみならず、不適切要因の不適切さを表す程度に関する情報も得ることができる。
 なお、正診率と同様の不適切要因として誤診率を用いてもよい。誤診率は、内視鏡画像61に対して行った検出処理等の画像認識処理の結果と、医師が診断した結果が異なった程度を示し、例えば、正診率と反対に、生検等の検査結果も含め内視鏡画像61に写る被検体の実際の状況を医師が診断した結果に対して、内視鏡画像61に対して行った検出処理等の画像認識処理の結果が医師が診断した結果と異なるものであった割合とすることができる。誤診率も正診率と同様に用いることができる。不適切要因として、誤診率が高い領域は、その不適切領域が画像認識処理に不適切である程度が高いといえる。
 報知制御部15は、不適切要因識別結果92に基づき、識別結果を報知する制御を行う。報知の制御については予め設定することができる。例えば、不適切要因識別結果92が、医師が見落とす可能性が高い不適切領域に対する不適切要因であって、内視鏡の操作により不適切要因を回避しやすい不適切要因である場合は、積極的に報知を行う、又は、目立つ態様により報知を行う、といったように制御することができる。一方、不適切要因識別結果92がハレーション領域65等であり、医師が目視により認識できる可能性が高い不適切要因の場合は、報知を行わないようにする、又は、目立たない態様により報知を行う、といったように制御することができる。
 報知の方法としては、注目領域検出処理の場合と同様とすることができ、例えば、不適切要因識別結果92をディスプレイ20に対して画像により報知すること、振動発生手段に対し振動により報知すること、及び音声発生手段に対し音声の発生により報知することのうち少なくとも1種を行うことができる。
 また、不適切要因識別結果92が複数の不適切要因を含む場合、報知制御部15は、不適切要因毎に互いに異なる態様により不適切要因識別結果92を報知する制御を行ってもよい。態様は、報知の各手段において、報知の内容が互いに異なることが認識できる態様であればよい。例えば、画像により報知する場合は、互いに異なる色、図形、又はテキストを表示するとの態様により、報知の内容が互いに異なることを認識することができる。振動による場合は振動のパターンにより、音声による場合は音声の内容又は音声のパターンにより、互いに異なる態様とすることができる。
 図14に示すように、例えば、不適切要因識別結果92を画像により報知する場合、識別された不適切要因毎に色を異ならせて表示することにより、不適切要因識別結果92を報知することができる。不適切要因がハレーション領域65である検出不適切領域83は、ポジションマップにおいて、ハレーション領域識別結果93を示す色により表示する。また、不適切要因が暗部領域66である検出不適切領域83は、ポジションマップにおいて、暗部領域識別結果94を示す色により表示する。これにより、この場合、不適切要因と色との関係を確認できるように、不適切要因の内容と表示の色とを対応させて表示した不適切要因凡例95を表示することが好ましい。
 不適切要因の組み合わせにより報知を制御してもよい。識別結果が複数の不適切要因を含む場合、すなわち、内視鏡画像61が複数の不適切要因を含む場合、報知制御部15は、複数の不適切要因のうち少なくとも2つを組み合わせて得られる組み合わせ不適切要因に基づいて、検出結果の報知の態様を異ならせる制御を行うことができる。
 組み合わせ不適切要因は、それぞれの不適切要因を用いて得られる要因である。それぞれの不適切要因を用いて組み合わせ不適切要因とする場合には、各不適切要因に重み付けを行うことができる。例えば、正診率の不適切要因と、その他の不適切要因とを組み合わせた組み合わせ不適切要因において、正診率の不適切要因が予め設定した値以上である場合は、その他の不適切要因が何であっても報知を行わないとすることができる。組み合わせ不適切要因を用いることにより、報知を詳細にコントロールすることが可能となる。組み合わせ不適切要因とする場合の不適切要因は、定量化したものであってもよい。定量化された不適切要因である不適切度については、後述する。
 なお、不適切要因識別器91の種類によっては、内視鏡画像61に基づいて、不適切要因を識別して不適切要因識別結果92を得るのと同時に、不適切要因識別結果92を有する領域、すなわち、不適切領域を検出することができる。内視鏡画像61と、この内視鏡画像61が含む各種の不適切要因とその領域とを学習データセットとして学習させることにより、内視鏡画像61を入力した際に、不適切要因と、その不適切要因が存在する不適切領域とを出力する学習モデルとすることができる。したがって、この場合は、不適切要因識別処理により、不適切要因識別処理と、不適切領域を検出する不適切領域検出処理とを、同時に行うことができる。
 また、不適切要因識別処理において、画像処理により不適切要因を識別する方法を採用することができる。この場合も、不適切要因識別処理と、不適切領域を検出する不適切領域検出処理とを、同時に行ってもよい。不適切領域検出部14は、複数の不適切要因のそれぞれを画像処理により検出し、検出結果に基づき不適切要因を識別する。これらの不適切要因を識別する画像処理は、並列して作動させる。
 図15に示すように、例えば、不適切要因を、不適露出、ボケ等の不適焦点、及び残渣の存在とした場合、不適切領域検出部14は、不適露出を検出する露出不適検出部101、ボケを検出する焦点不適検出部102、及び、残渣の存在を検出する残渣検出部103等を備える。その他、検出する不適切要因に応じて、ブレを検出するブレ検出部、又は、レンズの汚れ等を検出する汚れ検出部等を適宜設定することができる。具体的には、露出不適検出部101は画素値を用いた判定アルゴリズムにより識別することができる。ブレ検出部又はボケを検出する焦点不適検出部102は、画像のコントラストを用いた判定アルゴリズムにより識別することができる。残渣検出部103は、周囲の色と異なることから、画素値を用いた判定アルゴリズムにより識別することができる。
 この場合の処理の流れとしては、医療画像取得部11が取得した内視鏡画像61について、認識処理部12が注目領域を認識するのと並行して、不適切領域検出部14の各検出部である露出不適検出部101、焦点不適検出部102、及び残渣検出部103が並行して作動する。そして、認識処理部12の認識処理の結果は表示制御部13に送られ、ディスプレイ20に表示する制御が行われる。そして、不適切領域検出部14の各検出部の検出結果は、報知制御部15に送られ、予め設定した態様により報知が行われる。
 図16に示すように、内視鏡画像61が暗部領域66、残渣が写る残渣領域111、及びハレーション領域を含む場合であって、不適切要因識別結果92について画像に表示することによる報知が設定されている場合、ディスプレイ20のサブ領域74に、露出不適検出部101の画像処理結果であるハレーション領域識別結果93及び暗部領域識別結果94、並びに、残渣検出部103の画像処理結果である残渣領域識別結果112とが、それぞれ異なる色により表示される。なお、図16においては、サブ領域74のポジションマップにおいて、検出注目領域64が表示されない場合である。検出注目領域64が表示されないことにより、医師は、残渣のためか、認識処理部12が注目領域62を認識できなかったことを確認できる。このような情報を得ることにより、医師は種々の操作を検討することができる。
 不適切要因を識別する場合、識別した不適切要因を活用することができる。例えば、識別した不適切要因により、不適切要因を回避する回避方法を医師に報知することができる。図17に示すように、この場合、不適切領域検出部14は、不適切要因と不適切要因の回避方法とが関連づけられた回避情報121と備える。回避情報121は、それぞれの不適切要因毎に、その不適切要因を回避する回避方法が関連付けられるものである。そして、不適切要因識別処理において識別した不適切要因と回避情報121とから、不適切領域における回避方法を不適切要因識別結果92として報知することができる。
 図18に示すように、具体的には、回避情報121では、不適切要因が残渣の存在であった場合、回避方法として、「被写体又は残渣への送水」等の回避方法が関連付けられ、不適切要因が「ボケ」であった場合、回避方法として、「スコープ操作をゆっくりする」等が、また、不適切要因が「レンズ汚れ」であった場合、回避方法として「レンズ面への送気送水」等が関連付けられている。
 不適切領域検出部14は、不適切要因識別処理において不適切要因を識別し、回避情報121を用いて不適切要因の回避方法を得る。そして、不適切領域の不適切要因とこの不適切要因を回避する回避方法とを識別結果として報知する。図19に示すように、画像等の表示により識別結果を報知する場合、ディスプレイ20に、内視鏡画像61、認識処理の結果63、不適切要因識別結果92である暗部領域識別結果94とボケ領域識別結果133、及び、不適切要因である暗部領域とボケのそれぞれの回避方法122とを表示する。なお、暗部両利きの回避方法122としては「スコープの移動・回転」を表示し、ボケの回避方法122としては「露光時間の短縮」を表示している。
 回避方法122を表示により報知する場合、ディスプレイ20における表示の態様は、予め設定することができる。例えば、内視鏡画像61の観察の妨げにならないよう、メイン領域71以外に表示してもよいし、回避方法122の認識を優先する場合は、メイン領域71に回避方法122を重畳して表示する態様としてもよい。
 また、不適切要因が内視鏡装置18等の医療画像の撮影装置の作動により回避できるものについては、医療画像処理装置10は、撮影装置に不適切要因の回避方法122を実行させる制御を行ってもよい。この場合、図20に示すように、不適切領域検出部14は、撮影装置制御部131を備える。撮影装置制御部131は、回避方法122を受け取り、回避方法122に基づいて、被検体を撮影して医療画像を生成する撮影装置を制御する。撮影装置による回避方法122の実行は、自動で行われることが好ましい。
 本実施形態では、撮影装置は内視鏡画像61を取得する内視鏡装置18であるから、撮影装置制御部131は、内視鏡装置18を制御することにより不適切要因の回避方法122を実行させる。不適切要因を内視鏡装置18の動作により回避できるものとしては、内視鏡画像61を撮影する際に調整する項目であり、例えば、露光時間、フレームレート、拡大率、又は照明光等が挙げられる。
 なお、撮影装置に不適切要因の回避方法122を実行させる制御を行った場合、不適切要因を回避したことを報知することが好ましい。図21に示すように、図19に示す場合に、撮影装置制御部131が内視鏡装置18において露光時間の短縮を実行することにより、不適切要因であるボケを回避した場合、ディスプレイ20の不適切要因凡例95の表示において、「露光時間短縮中」といった回避実行情報134を表示して、不適切要因を回避したことを報知してもよい。医師は、メイン領域71を確認することにより、ボケの検出不適切要因が回避されていることを認識できる。なお、この場合、サブ領域74のポジションマップには、一定時間、ボケを回避する前のボケ領域識別結果133の不適切要因の領域を表示しておき、医師がどの領域に不適切要因があったのかを認識できるようにしてもよい。
 識別した不適切要因は、次のようにも活用できる。例えば、不適切要因毎に画像認識処理に不適切である程度を表す不適切度を識別して用いることができる。不適切領域検出部14は、不適切要因識別器91により不適切要因毎に不適切度を識別する。そして、報知制御部15は、不適切度に基づいて不適切領域検出処理の検出結果の報知の態様を異ならせる制御を行うことができる。
 不適切度は、不適切要因が画像認識処理に不適切である程度を表し、不適切要因毎に、また、画像認識処理の種類により設定できる。例えば、画像認識処理の種類が注目領域の検出処理であって、不適切要因がブレである場合、ブレ量を算出する手段により算出したブレ量を基本とし、例えば、算出したブレ量に対する重み付け係数を1とする等により、注目領域の検出処理におけるブレの不適切要因における不適切度を算出することができる。
 また、不適切要因によっては、不適切要因自体を不適切度としてもよい。例えば、不適切要因が注目領域の検出処理における正診率である場合、正診率自体を不適切度とすることができる。また、不適切要因が残渣である場合、内視鏡画像61全体の面積に対する残渣が存在する面積の割合を不適切度とすることができる。不適切要因が画像認識処理に不適切である程度をより適切に表すように、各不適切要因毎に不適切度を設定することが好ましい。
 なお、不適切度は、不適切要因識別器91により算出してもよい。上記したように、学習モデルの種類によっては、出力する結果を複数の項目の割合として出力することができる。これにより、不適切要因識別器91において、それぞれの不適切要因の不適切度を出力させてもよい。
 例えば、不適切要因がブレである場合、目的関数を低度のブレ、中度のブレ、及び高度のブレの3クラスとし、不適切領域についてブレの3クラスのそれぞれの割合にクラス分類する。そしてもっとも高い割合となったクラスを、その不適切領域のブレの不適切度とすることができる。不適切要因識別器91により、他の不適切要因についても、同様にして不適切度を算出することができる。
 報知制御部15は、不適切度に基づいて不適切領域検出結果82の報知の態様を異ならせる制御を行うことができる。この場合、不適切度と予め設定した不適切度の閾値とに基づいて、不適切領域検出結果82の報知の態様を異ならせる制御を行うことが好ましい。不適切度の閾値は、不適切要因毎に予め設定することができる。閾値は、不適切度に関する予め設定した値とすることができ、不適切度の最低値又は最高値を含む。また、不適切要因が識別されても報知しない、又は、不適切要因が識別された場合は不適切度に関わらず全て報知する、との報知の態様とすることができる。
 図22に示すように、不適切領域検出部14は、検出した不適切要因毎に不適切度の閾値を設定し、不適切度の閾値に基づいて報知の態様を異ならせた情報を有する不適切度閾値情報135を備えてもよい。図23に示すように、不適切度閾値情報135は、不適切要因毎に、不適切度の内容と、各画像検出処理における報知を行う不適切度の閾値との情報を有する。図23に示す場合は、不適切度が閾値以上の場合に報知を行う。また、報知の態様をさらに詳細に設定する場合は、閾値を複数種類設定して、第1の閾値で報知の有無を決定し、第2の閾値で報知の態様を異ならせる等とすることができる。報知制御部15は、不適切度閾値情報135に基づいて、不適切領域検出結果82の報知の態様を異ならせる制御を行うことができる。
 不適切度の閾値により、必要な場合の報知は行い、報知が頻繁となることで内視鏡検査に支障をきたすような場合の報知を行わないようにすることができる。例えば、医師がスコープを移動させていることによってブレ又はボケが発生している場合は、医師が内視鏡画像61が不適切領域を含むことが医師にとって明らかであるため、これらの場合については不適切度の閾値を高く設定し、報知をしないように設定できる。したがって、不適切度の閾値を用いることにより、報知を詳細にコントロールすることが可能となる。
 なお、不適切度は、定量化した不適切要因とみることができるため、上記したように、組み合わせ不適切要因を構成する不適切要因として、不適切要因の不適切度を用いることができる。不適切領域検出部14は、不適切要因の種類毎に識別された複数の不適切度のそれぞれを用いて組み合わせ不適切要因とし、組み合わせ不適切要因に基づいて、検出結果の報知の態様を異ならせてもよい。この場合、不適切度のそれぞれに対し重み付けをした上で、組み合わせ不適切要因としてもよい。また、不適切度のそれぞれを用いて、加減乗除等により算出して、組み合わせ不適切要因としてもよい。
 例えば、ブレの不適切要因と、その他の不適切要因とを組み合わせた組み合わせ不適切要因において、ブレの不適切度が予め設定した値以上である場合は、その他の不適切度については報知しないとすることができる。ブレ量が高く、ブレの不適切度が高い場合は、スコープが移動中である場合が多い。スコープの移動中は、その他の不適切要因について報知を行って解消したとしても、ブレが解消されない限り不適切要因が解消されないと考えられるためである。また、組み合わせ不適切要因に基づいて、検出結果の報知の態様を異ならせる場合は、不適切度と同様であり、組み合わせ不適切要因の閾値を設定して報知の態様の決定に用いてもよい。以上のように、組み合わせ不適切要因を用いることにより、検査の場面に合わせ、報知を詳細にコントロールすることが可能となる。
 次に、報知に関する閾値を用いる場合について説明する。報知制御部15は、検出結果を報知する制御を行う際に、予め報知に関する閾値を設定してもよい。そして、報知に関する閾値に基づき、検出結果の報知の態様を異ならせる制御を行ってもよい。
 報知に関する閾値は、不適切要因、不適切度、又は組み合わせ不適切要因等の、検出された不適切領域に基づく情報のみならず、検出処理等に用いた内視鏡画像61に基づく情報、又は、内視鏡画像61を撮影した際の撮影条件等の情報に対しても設定することができる。
 例えば、報知に関する閾値は、注目領域検出器51、不適切領域検出器81、又は不適切要因識別器91における各処理結果の信頼度に対して設定することができる。学習モデルにおける信頼度には各種の算出方法が挙げられ、例えば、混同行列(Confusion matrix)、正解率(Accuracy)、適合率(Precision)、又は再現率(Recall)等が用いられる。これらをうちいずれかを信頼度として採用し、この信頼度に閾値を設定し、信頼度が閾値以上である場合は報知を行わないように制御することができる。
 また、報知に関する閾値は、不適切要因を、露出不適検出部101、焦点不適検出部102、又は残渣検出部103等による画像処理により識別する場合の、各検出部が用いる判定アルゴリズムによる値に対して設定することができる(図15参照)。露出不適検出部101の場合は、判定アルゴリズムの値が設定した閾値より低いことにより、不適切領域において、コントラストが設定した値より低い領域であるといえる。したがって、露出不適検出部101における判定アルゴリズムの値にが、設定した閾値以下である場合は、ブレ又はボケである可能性が高いため、この場合は報知を行わないように制御することができる。
 また、内視鏡画像61を撮影した際の撮影条件等の情報を用いて設定する場合としては、例えば、内視鏡画像61の撮影条件における時間的な連続性、又は、内視鏡画像61自体の空間的な連続性を用いることができる。
 内視鏡画像61の撮影条件における時間的な連続性としては、例えば、内視鏡画像61が、連続10フレーム以上において、不適切要因の少なくとも1つが連続している場合について、報知を行うように制御することができる。また、内視鏡画像61自体の空間的な連続性としては、内視鏡画像61の画素値を用いることができ、例えば、画素数において、縦10画素以上かつ横10画素以上の矩形領域において不適切要因が検出された場合について、報知を行うように制御することができる。
 以上のように、不適切要因等の不適切領域以外の情報も用いて、報知に関する閾値を設定することにより、報知を詳細にコントロールすることが可能となり、例えば、不適切要因の誤検出を除去すること等が可能となる。
 次に、不適切領域検出結果82等の保存について説明する。医療画像処理装置10は、画像保存部であるデータ保存部17と接続し、内視鏡画像61と、認識処理の結果63、不適切領域検出結果82、及び不適切要因識別結果92のうち少なくとも1つを内視鏡画像61に重畳した情報重畳画像とを、データ保存部17に保存する制御を行うことが好ましい。認識処理の結果63、不適切領域検出結果82、又は不適切要因識別結果92のそれぞれには、上記したように、不適切要因の他に、不適切度、又は各種の閾値等を含む。これらの情報は、結果が出される毎に一時保存部16に保存される。したがって、一時保存部16に保存されたこれらの情報を統合することにより、情報重畳画像とすることができる。
 情報重畳画像は、例えば、注目領域を検出した認識処理の結果63を示す注目領域検出表示枠72と、検出不適切領域83とを、内視鏡画像61に重畳した画像である(図11参照)。内視鏡画像61に重畳させる各種の結果、及び重畳の態様は、適宜設定することができる。
 また、医療画像処理装置10は、データ保存部17と接続し、内視鏡画像61の付帯情報に、認識処理の結果63、不適切領域検出結果82、及び不適切要因識別結果92のうち少なくとも1つを加えた情報付与画像を、データ保存部17に保存する制御を行ってもよい。
 内視鏡装置18を用いる検査においては、内視鏡画像61には患者を特定するための患者情報が付帯する場合がある。例えば、動画を含む内視鏡画像61又は検査情報データは、DICOM(Digital Imaging and Communications in Medicine)の規格により統一化されており、この規格には、患者の氏名等の患者の個人情報が含まれる。
 情報付与画像は、患者の氏名等の付帯情報と同様に、認識処理の結果63、不適切領域検出結果82、及び不適切要因識別結果92のうち少なくとも1つの情報を付帯情報として加えた画像である。情報重畳画像の場合と同様に、認識処理の結果63、不適切領域検出結果82、又は不適切要因識別結果92のそれぞれには、上記したように、不適切要因の他に、不適切度、又は各種の閾値等を含む。これらの情報は、結果が出される毎に一時保存部16に保存される。したがって、一時保存部16に保存されたこれらの情報を統合することにより、情報付与画像とすることができる。なお、一般的に、付帯情報はタグと呼ばれる場合があり、付帯情報とタグとは同じものとすることができる。
 図24に示すように、情報付与画像141は、内視鏡画像61の付帯情報142として通常付帯される、画像を特定する画像ID、検査を特定する検査識別情報、患者を特定する患者識別情報に加え、認識情報と記載される認識処理の結果63、検出情報と記載される不適切領域検出結果82、及び識別情報と記載される不適切要因識別結果92を有する。付帯させる情報は、適宜選択の上で付帯することができる。
 なお、画像保存部であるデータ保存部17は、医療画像処理装置10が備えるが、画像保存部が医療画像処理装置10以外の外部装置が備えるものであってもよい。例えば、医療施設において用いられている画像管理システム等に保存する、又は、外部ネットワークを介してクラウド上に保存する等であってもよい。
 情報重畳画像又は情報付与画像141は、各種の結果の情報を有する画像であるため、これらの情報を様々に用いることが可能となる。例えば、これらの情報を検索して情報重畳画像を選択することができる。したがって、情報重畳画像を保存して利用することにより、検査レポートもしくはカルテ等に載せる画像、又は、二次読影に送る画像等を、場合によっては自動的に選択することができる。
 次に、不適切領域検出処理の検出結果に基づく内視鏡画像61の品質について説明する。医療画像処理装置10は、内視鏡画像61が有する不適切領域検出処理の検出結果に基づき、内視鏡画像61の品質指標を算出する。品質指標は、内視鏡画像61毎に算出することが好ましい。表示制御部13は、ディスプレイ20に対して品質指標を表示する制御を行う。したがって、ディスプレイ20に内視鏡画像61を表示する際に、医師は、品質表示を表示するか否かを指定することができ、表示制御部13は、指定が合った場合に内視鏡画像61に応じて品質表示を表示する制御を行う。
 図25に示すように、この場合、医療画像処理装置10は、品質指標算出部151を備える。品質指標算出部151は、内視鏡画像61における不適切領域検出結果82に基づき、内視鏡画像61毎に品質指標を算出する。品質指標は、内視鏡画像61の品質を示す指標である。例えば、内視鏡画像61毎に不適切領域検出結果82を統合した指標とすることができ、具体的には、内視鏡画像61のサイズに対する不適切領域以外のサイズの割合等とすることができる。この場合、品質指標が小さいほど品質が高く、品質指標が高いほど品質が低いと評価することができる。
 品質指標の表示の態様としては、品質指標の低度が認識できる態様であればよく、数値で示す、又は、メータもしくはインジケータの形状で示す等が挙げられる。図26に示すように、例えば、内視鏡画像61において、暗部領域66である不適切領域が内視鏡画像61の全体のサイズのうち10%のサイズの部分に存在する場合、品質指標算出部151は、不適切領域検出結果82に基づき、内視鏡画像61のサイズに対する不適切領域以外のサイズの割合が90%であったと算出する。スコア指標152は、品質指標を1から100までの数値により示す。したがって、スコア指標152では、「スコア=90」とのテキストが示される。同様に、メータ指標153では、メータの図形において、メータ指針154が右を指すほど高い指標を示し、ここではスコアが約90であることを示す。同様に、インジケータ指標155では、各インジケータに色が表示されることにより指標の値を示し、品質指標が33に達した場合に第1インジケータ155aに色が表示され、品質指標が66に達した場合に第2インジケータ155bに色が表示され、品質指標が100に達した場合に第3インジケータ155cに色が表示される。
 品質指標をディスプレイ20に図形又はテキスト等で報知することにより、内視鏡画像61の全体の品質をすぐに把握することができる。
 また、品質指標を用いることにより、内視鏡検査全体のスコアを算出することができる。品質指標算出部151は、検査において得られた複数の内視鏡画像の品質指標に基づいて、さらに、検査全体スコアを算出する。そして、ディスプレイ20に対して、検査全体スコアを表示する制御を行う。
 検査の目的にもよるが、内視鏡装置18を用いた内視鏡検査において、医師は、検査に重要な管腔の各部位のポイントにおいて内視鏡画像61を取得し、保存する。各部位において取得した内視鏡画像61について品質指標を算出することができ、品質指標を一覧することができる。
 図27に示すように、検査の全体マップ161として、管腔の各部位のポイントにおいて取得した内視鏡画像61を表示する。各部位のポイントは、検査において、内視鏡画像61を取得すべきポイントである。全体マップ161は、シェーマ図162と、複数の内視鏡画像61と、スコア表示部163とから構成される。なお、図において、煩雑さを避けるため一部にのみ符号を付す場合がある。
 例えば、下部内視鏡検査において、内視鏡画像61を取得すべき各部位のポイントをシェーマ図162で示し、各部位のポイントにおいて取得された内視鏡画像61をシェーマ図162の周りに配置する。内視鏡画像61には、それぞれの内視鏡画像61の品質指標を示す品質表示マークを重畳して表示する。品質表示マークは、品質指標が66以上である「良」を示す品質良マーク164a、品質指標が33から65の範囲内である「可」を示す品質可マーク164b、品質指標が1から32の範囲内である「不可」品質不可マーク164cの3段階とし、それぞれを互いに異なる色で表示する。なお、内視鏡画像61が表示されない位置は、内視鏡画像未取得部位165であり、検査において、内視鏡画像61が取得されなかった部位である。
 スコア表示部163は、全体マップ161に表示した内視鏡画像61を総合した検査総合スコア、画像取得率、及び、良画像率がテキストで表示される。検査総合スコアは、全体マップ161に表示された内視鏡画像61のそれぞれが有する品質指標を平均した値であり、0以上100以下の範囲内の数値で示される。図27の場合では70と示される。画像取得率は、検査において取得すべき内視鏡画像61の数に対する、実際に取得した内視鏡画像61の数の割合であり、図27の場合では、10枚取得すべきところ7枚を取得したため、70%と表示される。良画像率は、実際に取得した内視鏡画像61の数に対する、品質指標が良であった内視鏡画像61の数の割合であり、図27の場合では、取得した8枚のうち5枚が良であったため、63%と表示される。
 品質指標を用いることにより、検査において取得した内視鏡画像61の品質が一目で把握することができる。また、内視鏡検査において必要な部位の内視鏡画像が、どのような品質で取得できているか、また、再検査が必要であるか等の情報を得ることができ、今後の検査又は治療等の計画にも役立てることができる。
 また、全体マップ161以外にも、チェックシートの態様で、品質指標と取得した内視鏡画像61とを確認することができる。図28に示すように、全体チェックシート171は、内視鏡検査において内視鏡画像61を取得すべき部位名と、それぞれの部位名の行の左に付された正方形形状の品質指標付きチェック欄172とからなる。品質指標付きチェック欄には、対象の部位の内視鏡画像61が取得され次第品質指標が算出されて、内視鏡画像61の品質指標に応じた色が付される。全体チェックシート171において、部位名が「食道」である行の左のチェック欄には、品質良チェック172aの色が付されているため、検査において「食道」の部位については、品質指標が「良」の内視鏡画像61が取得されたことが示されている。また、同様に、部位名が「噴門部」である行の左のチェック欄には、品質可チェック172bの色が付されているため、検査において「噴門部」の部位については、品質指標が「可」の内視鏡画像61が取得されたことが示されている。なお、図において、同じ種類の網掛けは、同じ色を示す。チェック欄に色が付されていない部位名は、その部位の内視鏡画像61が取得されていないことを示す。
 なお、これらのチェック欄は、内視鏡画像61を取得後、内視鏡画像61に対し部位識別処理等により自動的に部位名が付され、上記したように、品質指標も自動的に算出されることから、部位名及び品質指標が自動的に付与される。
 品質指標を用いて、検査の全体チェックシート171を作成することにより、部位名に付されるチェック欄が色分けして表示されるため、どの品質によりどこの部位の内視鏡画像61が取得されているか、ひと目で把握することができる。検査中に全体チェックシート171を確認した場合は、必要な部位の内視鏡画像61の撮影し忘れを防ぐことができ、また、品質指標が不可である内視鏡画像61が取得されていた場合、より優れた品質の内視鏡画像61を取得しなおす契機となる。
 次に、本実施形態の医療画像処理装置10による処理の流れについて説明する。図29に示すように、医療画像取得部11が内視鏡装置18により得られた内視鏡画像61を取得する(ステップST110)。内視鏡画像61には被検体が写っている。認識処理部12は、医療画像取得部11が取得した内視鏡画像61に対し、被検体が有する注目領域の検出の画像認識処理を行う(ステップST120)。内視鏡画像61と認識処理の結果63とは、ディスプレイ20に表示される(ステップST130)。
 次に、内視鏡画像61に基づき、注目領域の検出の画像認識処理に不適切な不適切領域を検出する不適切領域検出処理を行う(ステップST140)。不適切領域検出処理の検出結果に基づき、この検出結果を報知する制御を行う(ステップST150)。
 上記実施形態等は、医療画像処理用のプログラムであって、被検体像を含む医療画像を取得する処理と、医療画像に基づき画像認識処理を行う処理と、医療画像と画像認識処理の結果とをディスプレイに表示する制御を行う処理と、医療画像に基づき画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行う処理と、不適切領域検出処理の検出結果に基づき、検出結果を報知する制御を行う処理とをコンピュータに実行させる医療画像処理用プログラムを含む。
 上記実施形態において、プロセッサ装置である医療画像処理装置10に含まれる医療画像取得部11、認識処理部12、表示制御部13、不適切領域検出部14、及び報知制御部15等の処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
10 医療画像処理装置
11 医療画像取得部
12 認識処理部
13 表示制御部
14 不適切領域検出部
15 報知制御部
16 一時保存部
17 データ保存部
18 内視鏡装置
19 PACS
20 ディスプレイ
21 入力デバイス
31 制御部
32 通信部
33 記憶部
34 データバス
35 ネットワーク
41 CPU
42 RAM
43 ROM
44 医療画像処理装置用プログラム
45 医療画像処理装置用データ
51 注目領域検出器
61 内視鏡画像
62 注目領域
63 認識処理の結果
64 検出注目領域
65 ハレーション領域
66 暗部領域
71 メイン領域
72 注目領域検出表示枠
73 注目領域検出表示図形
74 サブ領域
75 分類結果表示テキスト
76 分類結果色別表示
77 部位名表示テキスト
78 部位名のタイルの強調表示
81 不適切領域検出器
82 不適切領域検出結果
83 検出不適切領域
91 不適切要因識別器
92 不適切要因識別結果
93 ハレーション領域識別結果
94 暗部領域識別結果
95 不適切要因凡例
101 露出不適検出部
102 焦点不適検出部
103 残渣検出部
111 残渣領域
112 残渣領域識別結果
121 回避情報
122 回避方法
131 撮影装置制御部
132 ボケ領域
133 ボケ領域識別結果
134 回避実行情報
135 不適切度閾値情報
141 情報付与画像
142 付帯情報
151 品質指標算出部
152 スコア指標
153 メータ指標
154 メータ指針
155 インジケータ指標
155a 第1インジケータ
155b 第2インジケータ
155c 第3インジケータ
161 全体マップ
162 シェーマ図
163 スコア表示部
164a 品質良マーク
164b 品質可マーク
164c 品質不可マーク
165 内視鏡画像未取得部位
171 全体チェックシート
172 品質指標付きチェック欄
172a 品質良チェック
172b 品質可チェック
ST110~ST150 ステップ
 

Claims (20)

  1.  プロセッサを備え、
     前記プロセッサは、
     被検体像を含む医療画像を取得し、
     前記医療画像に基づき画像認識処理を行い、
     前記医療画像と前記画像認識処理の結果とをディスプレイに表示する制御を行い、
     前記医療画像に基づき前記画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行い、
     前記不適切領域検出処理の検出結果に基づき、前記検出結果を報知する制御を行う医療画像処理装置。
  2.  前記不適切領域検出処理は、前記医療画像における前記不適切領域の位置を特定し、
     前記検出結果は、前記医療画像における前記不適切領域の位置を含む請求項1に記載の医療画像処理装置。
  3.  前記プロセッサは、前記検出結果を、前記ディスプレイに対して画像により報知すること、振動発生手段に対し振動により報知すること、及び、音声発生手段に対し音声の発生により報知することのうち少なくとも1種の制御を行う請求項1又は2に記載の医療画像処理装置。
  4.  前記プロセッサは、メイン領域とサブ領域とを備える前記ディスプレイに対し、前記医療画像を前記メイン領域に表示し、前記検出結果を前記サブ領域に表示する制御を行う請求項1又は2に記載の医療画像処理装置。
  5.  前記プロセッサは、前記ディスプレイに対し、前記検出結果を前記医療画像に重畳した重畳画像を表示する制御を行う請求項1又は2に記載の医療画像処理装置。
  6.  前記プロセッサは、前記医療画像に基づき前記不適切領域が前記画像認識処理に不適切である不適切要因を識別する不適切要因識別処理を行い、
     前記不適切要因識別処理の識別結果に基づき、前記識別結果を報知する制御を行う請求項1ないし5のいずれか1項に記載の医療画像処理装置。
  7.  前記識別結果は、複数の前記不適切要因を含み、
     前記プロセッサは、前記不適切要因毎に互いに異なる態様により前記識別結果を報知する制御を行う請求項6に記載の医療画像処理装置。
  8.  前記識別結果は、複数の前記不適切要因を含み、
     前記プロセッサは、複数の前記不適切要因のうち少なくとも2つを組み合わせて得られる組み合わせ不適切要因に基づき、前記識別結果を報知する制御を行う請求項6に記載の医療画像処理装置。
  9.  前記不適切要因は、前記医療画像におけるブレもしくはボケ、水、血液、残渣、もしくはレンズの汚れの像、又は、暗部もしくはハレーション部の像である請求項6ないし8のいずれか1項に記載の医療画像処理装置。
  10.  前記不適切要因は、前記画像認識処理の結果に基づいて算出される正診率が予め設定した値以下であることである6ないし8のいずれか1項に記載の医療画像処理装置。
  11.  前記不適切要因と前記不適切要因の回避方法とが関連付けられた回避情報を備え、
     前記不適切要因識別処理は、前記不適切要因と前記回避情報とを参照することにより、前記不適切領域における前記不適切要因の回避方法を取得し、
     前記識別結果は、前記不適切領域における前記不適切要因の回避方法を含む請求項6ないし10のいずれか1項に記載の医療画像処理装置。
  12.  前記プロセッサは、前記被検体を撮影して前記医療画像を生成する撮影装置を制御し、
     前記撮影装置に前記不適切要因の回避方法を実行させる制御を行う請求項11に記載の医療画像処理装置。
  13.  前記不適切領域検出処理は、前記不適切要因毎に前記画像認識処理に不適切である程度を表す不適切度を識別し、
     前記プロセッサは、前記不適切度に基づき、前記検出結果の報知の態様を異ならせる制御を行う請求項6ないし12のいずれか1項に記載の医療画像処理装置。
  14.  前記プロセッサは、前記検出結果を報知する制御を行う際に、予め前記報知に関する閾値を設定し、前記報知に関する閾値に基づき、前記検出結果の報知の態様を異ならせる制御を行う請求項1ないし13のいずれか1項に記載の医療画像処理装置。
  15.  前記プロセッサは、画像保存部と接続し、
     前記医療画像と、前記画像認識処理の結果、前記検出結果、及び前記識別結果のうち少なくとも1つを前記医療画像に重畳した情報重畳画像とを、前記画像保存部に保存する制御を行う請求項1ないし14のいずれか1項に記載の医療画像処理装置。
  16.  前記プロセッサは、画像保存部と接続し、
     前記医療画像の付属情報に、前記画像認識処理の結果、前記検出結果、及び前記識別結果のうち少なくとも1つを加えた情報付与画像を、前記画像保存部に保存する制御を行う請求項1ないし14のいずれか1項に記載の医療画像処理装置。
  17.  前記プロセッサは、前記医療画像が有する前記不適切領域に基づき、前記医療画像の品質指標を算出し、
     前記ディスプレイに対して前記品質指標を表示する制御を行う請求項1ないし16のいずれか1項に記載の医療画像処理装置。
  18.  前記医療画像は、前記被検体の検査において得られたものであり、
     前記プロセッサは、前記ディスプレイに対して前記検査において得られた複数の前記医療画像の前記品質指標に基づき算出した検査全体スコアを表示する制御を行う請求項17に記載の医療画像処理装置。
  19.  被検体像を含む医療画像を取得するステップと、
     前記医療画像に基づき画像認識処理を行うステップと、
     前記医療画像と前記画像認識処理の結果とをディスプレイに表示する制御を行うステップと、
     前記医療画像に基づき前記画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行うステップと、
     前記不適切領域検出処理の検出結果に基づき、前記検出結果を報知する制御を行うステップと備える医療画像処理装置の作動方法。
  20.  医療画像処理装置用のプログラムであって、
     前記プログラムは、
     被検体像を含む医療画像を取得する処理と、
     前記医療画像に基づき画像認識処理を行う処理と、
     前記医療画像と前記画像認識処理の結果とをディスプレイに表示する制御を行う処理と、
     前記医療画像に基づき前記画像認識処理に不適切な領域である不適切領域を検出する不適切領域検出処理を行う処理と、
     前記不適切領域検出処理の検出結果に基づき、前記検出結果を報知する制御を行う処理とをコンピュータに実行させる医療画像処理装置用プログラム。
     
PCT/JP2022/034597 2021-09-30 2022-09-15 医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム WO2023053991A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280066538.5A CN118042977A (zh) 2021-09-30 2022-09-15 医疗图像处理装置、医疗图像处理装置的工作方法及医疗图像处理装置用程序
JP2023551309A JPWO2023053991A1 (ja) 2021-09-30 2022-09-15

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021162022 2021-09-30
JP2021-162022 2021-09-30

Publications (1)

Publication Number Publication Date
WO2023053991A1 true WO2023053991A1 (ja) 2023-04-06

Family

ID=85782472

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/034597 WO2023053991A1 (ja) 2021-09-30 2022-09-15 医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム

Country Status (3)

Country Link
JP (1) JPWO2023053991A1 (ja)
CN (1) CN118042977A (ja)
WO (1) WO2023053991A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005124756A (ja) * 2003-10-22 2005-05-19 Olympus Corp 内視鏡用画像処理装置
WO2018008593A1 (ja) * 2016-07-04 2018-01-11 日本電気株式会社 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体
WO2019123986A1 (ja) * 2017-12-22 2019-06-27 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
WO2020054543A1 (ja) * 2018-09-11 2020-03-19 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
WO2020084752A1 (ja) * 2018-10-26 2020-04-30 オリンパス株式会社 内視鏡用画像処理装置、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005124756A (ja) * 2003-10-22 2005-05-19 Olympus Corp 内視鏡用画像処理装置
WO2018008593A1 (ja) * 2016-07-04 2018-01-11 日本電気株式会社 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体
WO2019123986A1 (ja) * 2017-12-22 2019-06-27 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
WO2020054543A1 (ja) * 2018-09-11 2020-03-19 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
WO2020084752A1 (ja) * 2018-10-26 2020-04-30 オリンパス株式会社 内視鏡用画像処理装置、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム

Also Published As

Publication number Publication date
CN118042977A (zh) 2024-05-14
JPWO2023053991A1 (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
JP7187430B2 (ja) 人工知能の検出出力から疾患の進行を決定するシステムおよび方法
JP2019093137A (ja) 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法
JP4911029B2 (ja) 異常陰影候補検出方法、異常陰影候補検出装置
JP2019033966A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2007275408A (ja) 類似画像検索装置および方法並びにプログラム
KR102531400B1 (ko) 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법
US20190125306A1 (en) Method of transmitting a medical image, and a medical imaging apparatus performing the method
JP2007151645A (ja) 医用画像診断支援システム
US20230206435A1 (en) Artificial intelligence-based gastroscopy diagnosis supporting system and method for improving gastrointestinal disease detection rate
KR101518804B1 (ko) 의료 데이터 관리 방법 및 장치
US20220277445A1 (en) Artificial intelligence-based gastroscopic image diagnosis assisting system and method
CN104809331A (zh) 一种计算机辅助诊断技术(cad)检测放射图像发现病灶的方法和系统
WO2023053991A1 (ja) 医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム
CN110785125A (zh) 用于医学图像的图像分析的方法和系统
CN114343701A (zh) X射线摄影系统和异物确认方法
JP5533198B2 (ja) 医用画像表示装置及びプログラム
JP2021049270A (ja) 情報処理装置、情報処理方法及びプログラム
JP7502125B2 (ja) 医用画像処理装置、医用画像処理システム、及び、医用画像処理方法
JP6568375B2 (ja) 眼科情報処理システム、画像処理装置、および画像処理方法
JP2009061176A (ja) 医用画像処理装置及びプログラム
US20230082779A1 (en) Medical image processing device, operation method of medical image processing device, and non-transitory computer readable medium
KR102425843B1 (ko) 의료영상 기반 첨도맵을 이용한 질환 진단 정보 제공 장치 및 방법
US20230082499A1 (en) Information processing apparatus, training data generation device, and diagnosis support system
US20230298178A1 (en) Medical image display system, medical image display method, and recording medium
US20220208358A1 (en) Systems, devices, and methods for rapid detection of medical conditions using machine learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22875862

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023551309

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE