WO2023026538A1 - Medical assistance system, medical assistance method, and evaluation assistance device - Google Patents

Medical assistance system, medical assistance method, and evaluation assistance device Download PDF

Info

Publication number
WO2023026538A1
WO2023026538A1 PCT/JP2022/010844 JP2022010844W WO2023026538A1 WO 2023026538 A1 WO2023026538 A1 WO 2023026538A1 JP 2022010844 W JP2022010844 W JP 2022010844W WO 2023026538 A1 WO2023026538 A1 WO 2023026538A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
affected area
image
medical support
value
Prior art date
Application number
PCT/JP2022/010844
Other languages
French (fr)
Japanese (ja)
Inventor
真司 渡辺
健人 竹中
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023026538A1 publication Critical patent/WO2023026538A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography

Definitions

  • the present disclosure relates to a medical support system, a medical support method, and an evaluation support device.
  • ulcerative colitis is treated using an endoscope. Specifically, the doctor evaluates the disease condition of the affected area from the captured image obtained by the endoscope, and performs treatment while controlling the dosage and the like based on the evaluation. In addition, when it is difficult to evaluate the condition of a patient by follow-up observation using such an endoscope, a part of the affected tissue may be excised for pathological diagnosis.
  • AI artificial intelligence
  • medical support systems medical support systems
  • an image of the affected area is taken with an endoscope
  • an AI system that functions as a determiner built in advance by machine learning is used to analyze the affected area image and evaluate the disease status of the affected area.
  • AI system it is possible to avoid variations in evaluation among doctors, and treat patients based on evaluation results that are more objective and highly reproducible. becomes possible.
  • the present disclosure proposes a medical support system, a medical support method, and an evaluation support device capable of presenting highly accurate evaluation results in real time.
  • a medical support system including an information processing device and a program for causing the information processing device to execute information processing related to medical support, wherein the information processing device treats an affected area according to the program.
  • an image acquisition unit that sequentially acquires a plurality of images of the affected area obtained by imaging; a determination unit that determines whether the acquired images of the affected area satisfy image quality conditions for evaluating the affected area; and the image quality conditions.
  • an evaluation execution determination unit that determines whether or not to execute the evaluation of the affected area based on the continuous acquisition of the affected area images determined to satisfy an evaluation unit that derives information about an evaluation value for the affected area based on the plurality of affected area images determined to satisfy the image quality condition; and an output unit that outputs information about the evaluation value.
  • the processor sequentially acquires a plurality of affected area images obtained by imaging the affected area, and whether the acquired affected area images satisfy image quality conditions for evaluating the affected area Determining whether to execute the evaluation of the affected area based on the fact that the affected area images determined to satisfy the image quality condition are continuously acquired; deriving information about an evaluation value for the affected area based on the plurality of images of the affected area determined to satisfy the image quality condition when execution of evaluation is determined; and outputting information about the evaluation value.
  • a method of medical assistance comprising:
  • an image acquisition unit that sequentially acquires a plurality of evaluation target images obtained by imaging an evaluation target, and an image quality condition for the acquired evaluation target images to evaluate the evaluation target.
  • a determination unit that determines whether the image quality condition is satisfied; and a decision as to whether or not to perform the evaluation of the evaluation target based on the continuous acquisition of the evaluation target images that are determined to satisfy the image quality condition.
  • an evaluation execution determination unit that, when execution of evaluation of the evaluation target is determined, based on the plurality of evaluation target images determined to satisfy the image quality condition, information regarding an evaluation value for the evaluation target.
  • An evaluation support device comprising: an evaluation unit that derives the evaluation value; and an output unit that outputs information about the evaluation value together with the evaluation target image.
  • FIG. 1 is a schematic diagram showing a technical overview of a medical support system 10 according to an embodiment of the present disclosure
  • FIG. 1 is a block diagram showing an example configuration of a medical support system 10 according to an embodiment of the present disclosure
  • FIG. 4 is a flow chart showing the flow of work by a user in the medical support method according to the embodiment of the present disclosure
  • 4 is a flowchart (part 1) showing a score derivation method performed by the medical support device 200 in the medical support method according to the embodiment of the present disclosure
  • FIG. 4 is a schematic diagram illustrating an overview of skip frame determination and parallel processing in the derivation method according to the embodiment of the present disclosure
  • FIG. 4 is a schematic diagram illustrating an example of step determination in skip frame determination according to an embodiment of the present disclosure
  • FIG. 4 is a schematic diagram illustrating details of skip frame determination in the derivation method according to the embodiment of the present disclosure
  • 2 is a flowchart (part 2) showing a score derivation method performed by the medical support device 200 in the medical support method according to the embodiment of the present disclosure
  • FIG. 3 is a schematic diagram illustrating an example of a derivation method according to an embodiment of the present disclosure
  • FIG. FIG. 3 is a schematic diagram (part 1) illustrating an example of display in the embodiment of the present disclosure
  • 10 is a flowchart showing ranking display performed by the medical support device 200 in the medical support method according to the embodiment of the present disclosure
  • FIG. 2 is a schematic diagram (part 2) illustrating an example of display in the embodiment of the present disclosure
  • FIG. 3 is a schematic diagram illustrating an example of an ultrasound image
  • 2 is a hardware configuration diagram showing an example of a computer that implements the functions of the medical support device 200.
  • FIG. 1 is a schematic diagram illustrating a technical overview of a medical support system 10 according to the present disclosure.
  • the medical support system 10 according to the embodiment of the present disclosure is a medical evaluation support system or a research evaluation system that can be used to determine the condition of an evaluation target in medical care or research.
  • Examples of evaluation targets for the medical support system 10 include humans (patients) and animals (patients).
  • the doctor 1 examines the inside of the patient 2 using an endoscope 100 included in the medical support system 10, for example. At that time, an affected part image 400 inside the body of the patient 2 captured by the endoscope 100 is displayed by the display device 300 included in the medical support system 10 . The doctor 1 can examine the inside of the patient 2 by viewing the affected part image 400 displayed on the display device 300 . Furthermore, in the technology according to the present disclosure, the display device 300 displays the diseased part image 400 and the evaluation result of the disease state of the affected part derived by an algorithm (determiner) constructed by machine learning. Therefore, the doctor 1 can improve the diagnosis accuracy by making a diagnosis considering the evaluation result of the disease condition by the above algorithm.
  • an algorithm determineer
  • the evaluation result is a score (evaluation value) consisting of a specific numerical value indicating the evaluation of the disease state of the affected area determined by the doctor (endoscopist) 1 by visually recognizing the surface of the affected area, or based on the score. It is a graded score and also includes a value indicating the pathological examination evaluation obtained by pathological examination of the affected area by a doctor (pathologist).
  • the score (evaluation value) for the disease state of the affected area is the value scored by Doctor 1 for the bleeding, tumor, or fluoroscopic image of the affected area.
  • an evaluation value obtained by any known scoring method can be used as the score for the disease state of the affected area.
  • a score based on the Ulcerative Colitis Endoscopic Index of Severity can be used as the score for the disease condition of the affected area.
  • the UCEIS score is an index that has recently come into use as an evaluation value of the severity of ulcerative colitis.
  • UCEIS scores are defined for assessment of at least vascular permeability, bleeding, and ulceration of ulcerative colitis. Since the UCEIS score can be finely classified, it is possible to formulate a fine diagnostic policy and to reduce evaluation variations among endoscopists.
  • the Mayo score can be used as the score for the disease condition of the affected area.
  • the Mayo score can classify the severity of ulcerative colitis on several scales from 0 to 3. Specifically, the Mayo score consists of assessment values for each of vascular permeability, bleeding, and ulcerative severity of ulcerative colitis by endoscopic findings, rectal bleeding, and comprehensive assessment by Physician 1.
  • Mayo score remission is defined as a case where the sum of the scores for each of the above items is 2 or less and none of the subscores exceeds 1.
  • Mayo score improvement if the Mayo score has decreased by 3 or more or 30% or more from the baseline, and the rectal bleeding subscore has decreased by 1 or more, or the rectal bleeding subscore is 0 or 1 is defined as “Mayo score improvement”.
  • Mayo score defines "mucosal healing" when the endoscopic findings have a subscore of 0 or 1.
  • the evaluation value of the pathological examination is the evaluation value determined by the first grade doctor for the diagnosis result of the pathological examination by biopsy of the affected area.
  • the Geboes biopsy tissue finding score can be used as the evaluation value of the pathological examination.
  • the Geboes score is an index generally used as an index for scoring pathological findings of ulcerative colitis.
  • the medical support system 10 can be used for diagnosis of digestive system diseases using the endoscope 100, for example.
  • the medical support system 10 can be suitably used for diagnosis of inflammatory bowel disease such as ulcerative colitis or Crohn's disease.
  • inflammatory bowel disease such as ulcerative colitis or Crohn's disease.
  • a case where the medical support system 10 according to the embodiment of the present disclosure is used for diagnosing ulcerative colitis will be described as an example. Application is not limited.
  • Ulcerative colitis one of the inflammatory bowel diseases, is a chronic disease in which erosions and ulcers occur due to inflammation in the mucous membrane of the large intestine. It affects more than 200,000 people, mainly young people. It is said that there are Major symptoms of ulcerative colitis include diarrhea, bloody stool, abdominal pain, fever, anemia, etc. In addition, various complications may occur. However, the cause of ulcerative colitis has not been identified, nor has any therapy been established, and it is one of the specific diseases designated by the Ministry of Health, Labor and Welfare.
  • ulcerative colitis may progress to a chronic state by repeating remission (symptoms are calm) and relapses (symptoms are worsening). known to increase the risk of developing In light of this, it is considered very important to appropriately estimate the prognosis of ulcerative colitis based on disease activity evaluation by lower gastrointestinal endoscopy.
  • ulcerative colitis and the like by visual recognition of the affected area depends on subjective judgment, and the degree of difficulty is high. It is difficult to avoid the occurrence of variations between 1.
  • tissue collection may damage the patient 2 and cause complications.
  • pathological examinations cannot be performed anywhere, and diagnosis takes time.
  • additional costs are incurred for the patient 2 by performing the pathological examination.
  • an image of the affected area (affected area image 400) is captured by the endoscope 100, and an AI system (medical support system) that functions as a determiner built in advance by machine learning 10) is used to analyze the affected area image 400 and evaluate the disease state of the affected area.
  • AI system medical support system
  • the AI system it is possible to thoroughly analyze the affected area image 400 compared to the case where the doctor 1 who is a human being performs the analysis, so that it is possible to prevent omissions in diagnosis.
  • the present inventors have made intensive studies from the viewpoint of image analysis. It turned out that there is a feature that the images of the images) are very similar to each other. Furthermore, during the study, some of the multiple frames include frames that are out of focus, frames that include motion blur (motion blur) due to movement of the subject and the endoscope, and shadow changes due to those movements, It was found that there are frames in which the image of the affected area is not clear due to evaporation or reflection of the liquid substance present in the affected area. It has been found that it is difficult to obtain highly accurate evaluation results when analyzing such frames by an AI system.
  • the present inventors came to create the embodiments of the present disclosure described below based on the unique knowledge as described above.
  • the frames (still images) to be analyzed by the AI system are limited to, for example, frames with appropriate focus and frames without motion blur, rather than all obtained frames.
  • excluding frames in which the diseased part is unclear from the analysis targets is effective in improving the accuracy of evaluation by the AI system, and is also effective in reducing the amount of data to be processed. Therefore, according to the present embodiment, it is possible to reduce the processing load while improving the accuracy of the evaluation, so that it is possible to display the image of the affected area and present the evaluation result in real time.
  • the medical support system 10 mainly includes an endoscope 100, a medical support device 200, and a display device 300.
  • the medical support system 10 receives an affected part image 400 captured by the endoscope 100 as an input, derives a score (evaluation value) of the affected part in the medical support apparatus 200, and displays the score (evaluation value) of the affected part to a user (for example, doctor 1) via the display device 300.
  • the score of the affected area can be presented.
  • the configuration of the medical support system 10 shown in FIG. 2 is an example, and the configuration is not limited to that shown in FIG. Each device included in the medical support system 10 according to the present embodiment will be sequentially described below.
  • an example of using the endoscope 100 as an imaging device for imaging an evaluation target is shown, but this embodiment is not limited to the endoscope 100, and can be used with an endoscope, a microscope, Any imaging device capable of imaging an object to be evaluated, such as an ultrasonic inspection device, may be used.
  • a visible light image such as a white light image obtained by the endoscope 100 may be used as the affected area image 400 of the affected area.
  • White-light images are images that can be captured most easily with the basic functions of endoscopes, so if disease conditions can be evaluated using white-light images, the time, items, and costs of endoscopic examinations can be reduced. be able to.
  • the medical support apparatus 200 processes an affected area image 400 captured by the endoscope 100 and displays it on a display device 300, which will be described later, and analyzes the affected area image 400 to derive an evaluation result of the disease state of the affected area. and can be performed in parallel. For example, the medical support apparatus 200 subdivides the affected area image 400, derives a score (more specifically, a tile evaluation value) for the subdivided image (more specifically, the tile image 402) (see FIG. 9), and further By deriving the score for the entire image from each of these scores, the evaluation result of the disease state of the affected area may be derived.
  • a score more specifically, a tile evaluation value
  • the medical support apparatus 200 includes, for example, a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit) that perform various types of arithmetic processing, a ROM (Read Only Memory) in which data is stored in advance, and data that is temporarily stored in It is composed of a computer having a RAM (Random Access Memory) for storage. Details of the medical support device 200 will be described later.
  • a CPU Central Processing Unit
  • a GPU Graphics Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the display device 300 can present the affected part image 400 and evaluation results (scores, etc.) to the user (for example, the doctor 1).
  • the display device 300 may be, for example, a touch panel display, a three-dimensional display, a spatial display, a projection display, or the like.
  • the display device 300 may be any of a CRT (Cathode Ray Tube) display, a liquid crystal display, a plasma display, an EL (Electro Luminescence) display, a laser projector, an LED (Light Emitting Diode) projector, and the like.
  • the medical support apparatus 200 includes an image acquisition unit 202, an image processing unit 204, a determination unit 206, an evaluation execution determination unit 208, an evaluation unit 210, an evaluation value determination unit 212, an output unit 214, and a storage unit 216.
  • the medical support apparatus 200 includes an image acquisition unit 202, an image processing unit 204, a determination unit 206, an evaluation execution determination unit 208, an evaluation unit 210, an evaluation value determination unit 212, an output unit 214, and a storage unit 216.
  • Each functional unit included in the medical support device 200 according to this embodiment will be described below.
  • the image acquisition unit 202 can sequentially acquire a plurality of affected area images 400 (frames) (evaluation target images) obtained by imaging the affected area with the endoscope 100 and output them to the image processing unit 204 described later.
  • the blur value means a value obtained by indexing the degree of motion blur occurring in the diseased part image 400 .
  • the amount of motion means the amount of motion (relative position change) of the same subject between successive affected area images (frames) 400 .
  • the evaluation execution determination unit 208 determines that the affected area images 400 determined by the determination unit 206 to satisfy the image quality conditions for evaluating the affected area are continuously acquired, and the evaluation unit 210 described later. It is possible to decide whether to perform evaluation of the affected area by Specifically, the evaluation execution determination unit 208 determines the number of consecutive acquisitions of the affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area and a predetermined threshold (second threshold). It is possible to decide whether to perform the evaluation of the affected area based on the result of comparison with. Details of the determination performed by the evaluation execution determination unit 208 will be described later.
  • the evaluation unit 210 cuts out the affected area image 400 as a plurality of tile-shaped tile images 402 (see FIG. 9), and calculates a tile evaluation value indicating the evaluation of the affected area in each of the plurality of tile images 402. derive Then, the evaluation unit 210 can select one tile evaluation value from among the plurality of derived tile evaluation values and set it as the score (evaluation value) of the diseased part image 400 . Specifically, for example, the evaluation unit 210 may statistically process a plurality of derived tile evaluation values, and acquire the average value, median value, etc. obtained by the statistical processing as the score of the affected area image 400. can.
  • the algorithm (determiner) is generated by machine learning.
  • the determiner includes at least one of a large number of affected area images 400, an evaluation result of a doctor 1 (for example, a specialist) based on visual recognition of the affected area image 400, and an evaluation result of a pathological examination by a pathologist.
  • a doctor 1 for example, a specialist
  • One or more can be generated by machine learning.
  • evaluation is performed with an accuracy equivalent to the difference in score between a plurality of doctors 1. It is possible to generate an algorithm (determiner) that can For example, the algorithm (determiner) can be generated by machine learning using a deep neural network or the like.
  • the doctor 1 inserts the endoscope 100 into the body of the patient 2 (for example, the large intestine, etc.) (step S1).
  • FIG. 4 is a flowchart showing a score derivation method performed by the medical support device 200 in the medical support method according to this embodiment.
  • the score derivation method performed by the medical support device 200 can mainly include a plurality of steps from step S31 to step S39. Details of each of these steps according to the present embodiment will be sequentially described below.
  • the medical support device 200 sequentially acquires a plurality of affected area images 400 (frames) obtained by imaging the affected area with the endoscope 100 (step S31).
  • the medical support device 200 outputs the affected area image 400 processed in step S32 described above to the display device 300 (step S33).
  • the medical support apparatus 200 determines whether or not the affected area image 400 processed in step S32 described above satisfies the image quality conditions for evaluating the affected area (step S34). Specifically, the medical support apparatus 200 can make the determination by comparing the blur value and motion amount of the affected area image 400 with a predetermined threshold, for example. Then, the medical support apparatus 200 temporarily stores (buffers) the affected area image 400 that satisfies the image quality conditions for evaluating the affected area, and uses the stored affected area image 400 in subsequent processing. Further, the medical support apparatus 200 counts (accumulates) the number of consecutively acquired affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area.
  • the affected area image 400 determined to satisfy the image quality conditions for evaluating the affected area is obtained continuously 8 to 10 times (n times) (predetermined threshold value). In that case, the medical support device 200 decides to perform the evaluation of the affected area.
  • the processing of steps S34 and S35 is also processing for determining whether or not to execute the evaluation of the affected area based on the image quality of the frame (affected area image 400), so it is called "skip frame determination". Details of the skip frame determination will be described later.
  • the medical support apparatus 200 calculates a score (evaluation value ) is derived in real time (step S36). Furthermore, in the present embodiment, the medical support apparatus 200 uses the derived score to calculate a histological (G) score such as a three-level index (for example, “Active”/“Healing”/“Unknown”). can be derived. Details of the evaluation performed in step S36 will be described later.
  • G histological
  • the medical support apparatus 200 renders the score or the like so as to superimpose the score or the like derived in step S36 on the affected area image 400, and outputs the rendered score or the like to the display device 300 in real time (step S37). Details of the superimposed display executed in step S37 will be described later.
  • the medical support apparatus 200 compares the score (evaluation value) derived in step S36 described above with the scores of the diseased part images 400 acquired consecutively to the diseased part image 400 corresponding to the score (statistical processing). Then, it is determined whether or not it is an outlier (step S38). If the score is not an outlier (step S38: Yes), the medical support apparatus 200 proceeds to step S39 to store the score in the storage unit 216. FIG. On the other hand, if the score is an outlier (step S38: No), the medical support apparatus 200 excludes the score from the values to be stored, and returns to the process of step S31.
  • the medical support apparatus 200 uses the score (evaluation value) derived in step S36 described above and not excluded in step S38 as the diseased part image 400 corresponding to the score or the identification information (ID) of the diseased part image 400. ) (step S39). Then, the stored score is used in the final diagnosis by the doctor 1 or the like.
  • FIG. 5 is a schematic diagram for explaining an overview of skip frame determination and parallel processing in the derivation method according to this embodiment
  • FIG. 6 is a schematic diagram for explaining an example of step determination in skip frame determination according to this embodiment. It is a diagram.
  • FIG. 7 is a schematic diagram for explaining the details of skip frame determination in the derivation method according to this embodiment.
  • the contrast ratio (maximum/minimum brightness) of the affected area image 400 may be used as an index used to determine whether the image quality conditions for evaluating the affected area are satisfied.
  • the blur value (F value) of the diseased part image 400 is divided into three stages, and the motion amount (M value) of the diseased part image 400 and a predetermined threshold value are determined according to the classification of the blur value. By comparing , it is possible to appropriately determine whether or not the image quality conditions for evaluating the affected area are satisfied.
  • the blur value (F value) of the diseased part image 400 is classified into one of three levels (upper range, intermediate range, lower range). Which range the blur value falls into can be determined by comparing the blur value with a preset threshold value.
  • the affected area image 400 without blur has a sufficiently high blur value (F value). Therefore, as shown in FIG. 6, when the blur value is classified into the upper range, it is determined that the image quality conditions for evaluating the affected area are satisfied.
  • each threshold value described above it is possible to appropriately extract the part that the doctor 1 wants to determine.
  • the image quality is affected by the endoscope 100 , so it is preferable that each threshold is set individually for each endoscope 100 .
  • the above threshold may be set using a Look Up Table (LUT).
  • LUT is created as a two-dimensional table that normalizes all patterns consisting of axes of blur value and motion amount. Then, in the LUT, thresholds are set for classification according to the two values of the blur value and the motion amount. Although this method can also deal with local values, errors may occur depending on the fineness of division in the LUT.
  • the threshold may be set by calibration. For example, using a color chart/resolution chart, various adjustments (calibrations) may be performed with thresholds predetermined by the medical support system 10 so as to obtain evaluation results above a certain level. With this method, since the white level and black level can also be obtained, it is possible to adjust the contrast in addition to the color and resolution.
  • the medical support apparatus 200 performs stepwise threshold determination as described above on the blur value (F value) and the amount of motion (M value) acquired as described above, and the affected area image 400 is used to evaluate the affected area. It is determined whether the image quality condition for performing is satisfied (threshold processing). Subsequently, the medical support apparatus 200 continuously stores the affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area, and accumulates the number (accumulation processing). Then, the medical support apparatus 200 evaluates the affected area when the affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area are obtained n times (predetermined threshold value) consecutively. Judgment to execute (judgement).
  • FIG. 8 is a flowchart showing a score (evaluation value) derivation method performed by the medical support device 200 in the medical support method according to this embodiment
  • FIG. 9 illustrates an example of the derivation method according to this embodiment. It is a schematic diagram to do.
  • the evaluation unit 210 can derive the score for the affected area in real time based on a plurality of successive affected area images 400 .
  • an example of the score derivation method performed by the medical support device 200 can mainly include a plurality of steps from step S361 to step S364. The details of each of these steps according to the present embodiment will be sequentially described below.
  • the evaluation unit 210 cuts out the affected area image 400 as a tile-shaped tile image 402 having a polygonal shape, as shown in FIG. 9 (step S362).
  • the tile image 402 is preferably sized such that the disease state of the affected area can be determined, which may include, for example, an image of a blood vessel or an object to be examined such as an ulcer.
  • the evaluation unit 210 may cut out the affected area image 400 into a rectangular shape such as a square.
  • the evaluation unit 210 may cut out the affected part image 400 so that the circumscribed circle of the quadrangular shape is 5 mm or more and 15 mm or less.
  • the shape of the tile image 402 is not limited to a polygon, and may be any shape that can subdivide the diseased part image 400 .
  • the tile image 402 may be cut out in a random shape that differs depending on the location.
  • the evaluation unit 210 derives a tile evaluation value for each evaluation item as the tile evaluation value.
  • the evaluation item may be an item of bleeding in an affected area, a tumor, or a fluoroscopic image of a blood vessel, or may be an item of a pathological examination.
  • the evaluation unit 210 may derive a tile evaluation value that is a mixture of evaluation items.
  • a tile evaluation value may be derived using evaluation values of at least two or more of bleeding, ulceration, and fluoroscopic images of the affected area.
  • the tile evaluation value may be obtained by summing the evaluation values of at least two or more of the bleeding, ulcer, and fluoroscopic images of the affected area.
  • the evaluation unit 210 derives the overall score (evaluation value) of the affected area image 400 based on the tile evaluation values (step S364). This allows the user (for example, the doctor 1, etc.) to evaluate the entire affected area image 400 rather than a portion of it, thereby enabling more accurate diagnosis of ulcerative disease.
  • the score may be derived as an average value obtained by averaging the tile evaluation values of the tile images 402 included in the affected area image 400 .
  • the evaluation unit 210 may derive a score by weighting the bleeding site.
  • the evaluation unit 210 may derive a score using the maximum value or the median value of the tile evaluation values instead of or in addition to the average value of the tile evaluation values.
  • the evaluation unit 210 may further use the probability distribution (variance, standard deviation, etc.) of the tile evaluation values to derive the score.
  • the derived score (evaluation value) 500 is used to derive a three-level index (for example, "Active” / "Healing” / "Unknown"), etc., instead of the score 500, It may be superimposed on the affected part image 400 .
  • the whole or part of the affected area image 400 may be displayed with color or brightness according to the derived score 500 .
  • the score 500 superimposed on the affected area image 400 may have color, brightness, character type, size, or thickness corresponding to the score 500 .
  • outlier detection Next, the outlier detection process, which is the process of step S36 described above, will be described.
  • the quality of the scores referred to when making a final diagnosis is improved, and the final diagnosis by the doctor 1 is improved. Accuracy can be further improved.
  • the score (evaluation value) 500 larger than the position of the first delimiter from the large number side (75th percentile (third quartile)) is regarded as an outlier Detecting a score of 500 that is greater than the position of the second delimiter (50th percentile (median)) as an outlier than detecting it is a score that is closer to the evaluation result based on clinical findings by Doctor 1. I know I can get 500. Further, in the present embodiment, it is preferable to appropriately select which range is to be detected as an outlier according to the number of obtained scores 500 and the statistical processing method thereof.
  • the ranking display according to this embodiment can mainly include a plurality of steps from step S41 to step S44. The details of each of these steps according to the present embodiment will be sequentially described below.
  • the top scores 500 from a plurality of scores (evaluation values) 500 generated in real time are displayed in a ranking format.
  • all scores such as the affected part image 400 corresponding to the score 500, the tile image 402, and the tile evaluation value are displayed. Therefore, the doctor 1 can confirm the diagnosis based on various data regarding the score 500 selected by him/herself.
  • the medical support apparatus 200 selects the top scores 500 by a predetermined number from among the plurality of stored scores 500 from which outlier scores (evaluation values) 500 are excluded, in descending order. Displayed in a ranking format (step S41).
  • the display device 300 can display a ranking table 502, as shown in FIG. Note that the ranking table 502 may have, for example, a cursor 600 or the like for moving the displayed score 500 up and down.
  • the medical support apparatus 200 acquires data such as the affected area image 400, the tile image 402, and the tile evaluation value corresponding to the selected score (evaluation value) 500 from the storage unit 216 (step S43).
  • the medical support apparatus 200 displays the affected area image 400, the tile image 402, the score (evaluation value), and all scores including the tile evaluation value obtained in step S43 (step S44).
  • the display device 300 displays a diseased part image 400 corresponding to the selected score 500 and a collective image 404 in which tile images 402 obtained by cutting out the diseased part image 400 into tiles are aggregated. You may At this time, the collective image 404 may be an image in which the tile images 402 having different colors according to the tile evaluation values are collected. Further, the collective image 404 may be displayed together with the collective images 404 of the lesion images 400 acquired before and after it.
  • the display device 300 may also display a cursor 600 to chronologically change the collective image 404 to be displayed. In this case, the doctor 1 can change the collective image 404 to be displayed in time series by moving the cursor 600 left and right.
  • adjacent affected area images 400 are very similar to each other. may be regarded as a change point (scene change) in observation of the affected area.
  • one affected area image 400 may be selected from among the plurality of affected area images 400 included in one observation section (scene) and displayed as the affected area image 400 representing the observation section (scene). . By doing so, it is possible to easily grasp the overall case.
  • ulcerative colitis patients (a total of 770 people) were subjected to endoscope 100 using this embodiment.
  • An endoscopist collected mucosal biopsies from five regions of the large intestine (ascending colon, transverse colon, descending colon, sigmoid colon, and rectum), performed pathological evaluation, and compared the scores according to the present embodiment. Additionally, a UCEIS score was determined for each patient by an expert physician and compared to the score according to the present embodiment.
  • the presence or absence of histological inflammation could be evaluated in real time in 81.0% of all patients compared with the results of pathological evaluation. Furthermore, the precision for histological remission was 97.9% sensitive and 94.6% specific.
  • the intraclass correlation coefficient between the scores according to the present embodiment and the expert scores for the UCEIS score is 0.927, indicating that the scores according to the present embodiment have similar accuracy to the expert scores. rice field. It is said that if the intraclass correlation coefficient is 0.85 or more, it can be regarded as clinically consistent.
  • the present embodiment is not limited to application to ulcerative colitis, and can be applied to examinations and diagnoses that require real-time endoscopic examination (oral, transnasal, large intestine).
  • scirrhous gastric cancer cancer that progresses as it permeates the stomach wall and tissues, and the stomach becomes hard and thick
  • early esophageal cancer early colon cancer
  • Crohn's disease a type of inflammatory bowel disease, a chronic disease of unknown cause in which erosion and ulcers occur due to inflammation occurring mainly in the digestive tract, such as the small intestine and large intestine).
  • an ultrasound image is an image acquired by the doctor 1 or the like while moving the head portion of the probe, and is required to be an appropriate contrast image with high visibility for highly accurate diagnosis.
  • the present embodiment to the ultrasound image 410, it is possible to extract only images suitable for diagnosis and analyze only the extracted images, thereby enabling accurate evaluation in real time. becomes.
  • an affected area image 400 with appropriate focus for analysis by the AI system, for example, an affected area image 400 with appropriate focus, an affected area image 400 without motion blur, and other affected area images suitable for analysis and evaluation of the affected area Try to use only 400.
  • the analysis uses consecutive affected area images 400 having similar images. By doing so, according to the present embodiment, it is possible to reduce the processing load while improving the accuracy of the evaluation, so that the evaluation result can be presented in real time together with the display of the affected area image 400. .
  • the CPU 1100 (including the Graphics Processing Unit (GPU)) operates based on programs stored in the ROM 1300 or HDD 1400 and controls each part.
  • the ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.
  • the HDD 1400 stores programs executed by the CPU 1100 and data used by these programs.
  • Communication interface 1500 receives data from another device via a predetermined communication network, sends the data to CPU 1100, and transmits data generated by CPU 1100 to another device via a predetermined communication network.
  • the media interface 1700 reads programs or data stored in the recording medium 1800 and provides them to the CPU 1100 via the RAM 1200.
  • CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program.
  • the recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase-change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor. memory and the like.
  • the CPU 1100 of the computer 1000 executes a program loaded on the RAM 1200 to obtain the image acquisition unit 202, the image processing unit 204, It realizes the functions of the determination unit 206, the evaluation execution determination unit 208, the evaluation unit 210, the evaluation value determination unit 212, the output unit 214, and the like.
  • CPU 1100 of computer 1000 reads these programs from recording medium 1800 and executes them, but as another example, these programs may be obtained from another device via a predetermined communication network.
  • the HDD 1400 stores programs, data, and the like according to the embodiment of the present disclosure.
  • the above-described embodiment of the present disclosure includes, for example, a medical support method executed by the medical support system 10 as described above, a program for operating the medical support system 10, and a program in which the program is recorded. May include non-transitory tangible media. Also, the program may be distributed via a communication line (including wireless communication) such as the Internet.
  • an information processing device a program for causing the information processing device to execute information processing related to medical support; including, A medical support system,
  • the information processing device according to the program, an image acquisition unit that sequentially acquires a plurality of images of the affected area obtained by imaging the affected area; a determination unit that determines whether the acquired affected area image satisfies image quality conditions for evaluating the affected area; an evaluation execution determination unit that determines whether or not to perform evaluation of the affected area based on successive acquisition of the affected area images determined to satisfy the image quality condition; an evaluation unit that derives information regarding an evaluation value for the affected area based on the plurality of affected area images determined to satisfy the image quality condition when execution of evaluation of the affected area is determined; an output unit that outputs information about the evaluation value; functioning as Medical support system.
  • the evaluation execution determination unit determines whether or not the evaluation of the affected area can be performed based on a comparison result between the number of consecutively acquired affected area images determined to satisfy the image quality condition and a second threshold.
  • the medical support system according to any one of (1) to (5) above, which determines the (7) Any of the above (1) to (6), wherein the evaluation unit analyzes a plurality of consecutively acquired affected area images using an algorithm obtained by machine learning to derive an evaluation value for the affected area. or the medical support system according to one.
  • the evaluation unit cutting out the affected area image as a plurality of tiled tile images; deriving a tile evaluation value indicating an evaluation of the affected area in each of the plurality of tile images; The medical support system according to (7) above.
  • the medical support system according to (8) above wherein the evaluation unit selects one of the derived tile evaluation values as the evaluation value.
  • the evaluation unit obtains the evaluation value by statistically processing the plurality of derived tile evaluation values.
  • the output unit displays the evaluation value or an index based on the evaluation value superimposed on the affected area image in real time.
  • an evaluation value determination unit that detects outliers based on statistical processing from among the plurality of derived evaluation values and excludes the detected outliers from the plurality of evaluation values; a storage unit that stores the plurality of non-excluded evaluation values in association with identification information of the affected area image corresponding to each of the evaluation values; further comprising The medical support system according to any one of (8) to (11) above. (13) The medical support system according to (12) above, wherein the evaluation value determination unit detects the outlier using one of quartiles, standard deviation, Smirnov-Grubbs test, and Dixon test.

Abstract

Provided is a medical assistance system comprising: an image acquisition unit (202) that sequentially acquires a plurality of affected part images obtained by imaging an affected part; a determination unit (206) that determines whether the acquired affected part images satisfy a quality condition for evaluating the affected part; an evaluation execution determination unit (208) that determines whether evaluation of the affected part can be executed on the basis of the affected part images determined to satisfy the image quality being continuously acquired; an evaluation unit (210) that, when it is determined that the affected part is to be evaluated, derives information pertaining to an evaluation value for the affected part on the basis of the plurality of affected part images determined to satisfy the image quality condition; and an output unit (214) that outputs information pertaining to the evaluation value.

Description

医療支援システム、医療支援方法及び評価支援装置Medical support system, medical support method and evaluation support device
 本開示は、医療支援システム、医療支援方法及び評価支援装置に関する。 The present disclosure relates to a medical support system, a medical support method, and an evaluation support device.
 医師は、様々な手法を用いて患者を診療する。例えば、潰瘍性大腸炎等では、内視鏡を用いて診療が行われる。詳細には、医師は、内視鏡から得られる撮像画像から患部の病状を評価し、当該評価に基づいて投薬量等をコントロールしながら治療を行う。また、このような内視鏡による経過観察で病状の評価が困難な場合には、患部の組織の一部を切り取って病理診断を行う場合もある。 Doctors treat patients using various methods. For example, ulcerative colitis is treated using an endoscope. Specifically, the doctor evaluates the disease condition of the affected area from the captured image obtained by the endoscope, and performs treatment while controlling the dosage and the like based on the evaluation. In addition, when it is difficult to evaluate the condition of a patient by follow-up observation using such an endoscope, a part of the affected tissue may be excised for pathological diagnosis.
国際公開第2020/121906号WO2020/121906
 近年、内視鏡による潰瘍性大腸炎の病勢評価においては、人工知能(Artificial Intelligence;AI)システム(医療支援システム)を利用する技術が提案されている。詳細には、内視鏡により患部の画像(患部画像)を撮像し、事前に機械学習によって構築された判定器として機能するAIシステムを用いて患部画像を解析し、患部の病勢評価を行う。このように、AIシステムを用いることにより、医師間での評価のばらつきを回避し、患者に対してより客観的、且つ、再現性の高い基準で評価した評価結果に基づいて、治療を行うことが可能となる。 In recent years, technology that uses artificial intelligence (AI) systems (medical support systems) has been proposed for endoscopic disease assessment of ulcerative colitis. Specifically, an image of the affected area (affected area image) is taken with an endoscope, and an AI system that functions as a determiner built in advance by machine learning is used to analyze the affected area image and evaluate the disease status of the affected area. In this way, by using the AI system, it is possible to avoid variations in evaluation among doctors, and treat patients based on evaluation results that are more objective and highly reproducible. becomes possible.
 さらに、AIシステムを利用した病勢評価のための技術に対しては、医師がストレスなく、且つ、適切に病勢評価を行うために、患部の動画等の表示とともに、リアルタイムでAIシステムによる精度の高い評価結果が提示されることが求められている。 In addition, for the technology for disease status evaluation using AI system, in order for doctors to perform stress-free and appropriate disease status evaluation, along with the display of movies etc. of the affected area, highly accurate real-time AI system Evaluation results are required to be presented.
 そこで、本開示では、リアルタイムで、精度の高い評価結果を提示することができる、医療支援システム、医療支援方法及び評価支援装置を提案する。 Therefore, the present disclosure proposes a medical support system, a medical support method, and an evaluation support device capable of presenting highly accurate evaluation results in real time.
 本開示によれば、情報処理装置と、医療支援に関する情報処理を前記情報処理装置に実行させるためのプログラムとを含む、医療支援システムであって、前記情報処理装置は、前記プログラムに従って、患部を撮像して得られた複数の患部画像を順次取得する画像取得部と、取得した前記患部画像が前記患部の評価を行うための画質条件を満たしているかの判定を行う判定部と、前記画質条件を満たしていると判定された前記患部画像が連続して取得されたことに基づいて、前記患部の評価の実行の可否を決定する評価実行判定部と、前記患部の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の患部画像に基づいて、前記患部に対する評価値に関する情報を導出する評価部と、前記評価値に関する情報を出力する出力部と、として機能する、医療支援システムが提供される。 According to the present disclosure, there is provided a medical support system including an information processing device and a program for causing the information processing device to execute information processing related to medical support, wherein the information processing device treats an affected area according to the program. an image acquisition unit that sequentially acquires a plurality of images of the affected area obtained by imaging; a determination unit that determines whether the acquired images of the affected area satisfy image quality conditions for evaluating the affected area; and the image quality conditions. and an evaluation execution determination unit that determines whether or not to execute the evaluation of the affected area based on the continuous acquisition of the affected area images determined to satisfy an evaluation unit that derives information about an evaluation value for the affected area based on the plurality of affected area images determined to satisfy the image quality condition; and an output unit that outputs information about the evaluation value. A functioning medical support system is provided.
 また、本開示によれば、プロセッサが、患部を撮像して得られた複数の患部画像を順次取得することと、取得した前記患部画像が前記患部の評価を行うための画質条件を満たしているかの判定を行うことと、前記画質条件を満たしていると判定された前記患部画像が連続して取得されたことに基づいて、前記患部の評価の実行の可否を決定することと、前記患部の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の患部画像に基づいて、前記患部に対する評価値に関する情報を導出することと、前記評価値に関する情報を出力することと、を含む、医療支援方法が提供される。 Further, according to the present disclosure, the processor sequentially acquires a plurality of affected area images obtained by imaging the affected area, and whether the acquired affected area images satisfy image quality conditions for evaluating the affected area Determining whether to execute the evaluation of the affected area based on the fact that the affected area images determined to satisfy the image quality condition are continuously acquired; deriving information about an evaluation value for the affected area based on the plurality of images of the affected area determined to satisfy the image quality condition when execution of evaluation is determined; and outputting information about the evaluation value. A method of medical assistance is provided, comprising:
 さらに、本開示によれば、評価対象を撮像して得られた複数の評価対象画像を順次取得する画像取得部と、取得した前記評価対象画像が前記評価対象の評価を行うための画質条件を満たしているかの判定を行う判定部と、前記画質条件を満たしていると判定された前記評価対象画像が連続して取得されたことに基づいて、前記評価対象の評価の実行の可否を決定する評価実行判定部と、前記評価対象の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の評価対象画像に基づいて、前記評価対象に対する評価値に関する情報を導出する評価部と、前記評価値に関する情報を前記評価対象画像とともに出力する出力部と、を備える、評価支援装置が提供される。 Furthermore, according to the present disclosure, an image acquisition unit that sequentially acquires a plurality of evaluation target images obtained by imaging an evaluation target, and an image quality condition for the acquired evaluation target images to evaluate the evaluation target. a determination unit that determines whether the image quality condition is satisfied; and a decision as to whether or not to perform the evaluation of the evaluation target based on the continuous acquisition of the evaluation target images that are determined to satisfy the image quality condition. and an evaluation execution determination unit that, when execution of evaluation of the evaluation target is determined, based on the plurality of evaluation target images determined to satisfy the image quality condition, information regarding an evaluation value for the evaluation target. An evaluation support device is provided, comprising: an evaluation unit that derives the evaluation value; and an output unit that outputs information about the evaluation value together with the evaluation target image.
本開示の実施形態に係る医療支援システム10の技術概要を示す模式図である。1 is a schematic diagram showing a technical overview of a medical support system 10 according to an embodiment of the present disclosure; FIG. 本開示の実施形態に係る医療支援システム10の構成の一例を示したブロック図である。1 is a block diagram showing an example configuration of a medical support system 10 according to an embodiment of the present disclosure; FIG. 本開示の実施形態に係る医療支援方法における、ユーザによる作業の流れを示すフローチャートである。4 is a flow chart showing the flow of work by a user in the medical support method according to the embodiment of the present disclosure; 本開示の実施形態に係る医療支援方法における、医療支援装置200によって行われるスコアの導出方法を示すフローチャート(その1)である。4 is a flowchart (part 1) showing a score derivation method performed by the medical support device 200 in the medical support method according to the embodiment of the present disclosure; 本開示の実施形態に係る導出方法における、スキップフレーム判定及び並列処理の概要を説明する模式図である。FIG. 4 is a schematic diagram illustrating an overview of skip frame determination and parallel processing in the derivation method according to the embodiment of the present disclosure; 本開示の実施形態に係るスキップフレーム判定における段階判定の一例を説明する模式図である。FIG. 4 is a schematic diagram illustrating an example of step determination in skip frame determination according to an embodiment of the present disclosure; 本開示の実施形態に係る導出方法における、スキップフレーム判定の詳細を説明する模式図である。FIG. 4 is a schematic diagram illustrating details of skip frame determination in the derivation method according to the embodiment of the present disclosure; 本開示の実施形態に係る医療支援方法における、医療支援装置200によって行われるスコアの導出方法を示すフローチャート(その2)である。2 is a flowchart (part 2) showing a score derivation method performed by the medical support device 200 in the medical support method according to the embodiment of the present disclosure; 本開示の実施形態に係る導出方法の一例を説明する模式図である。FIG. 3 is a schematic diagram illustrating an example of a derivation method according to an embodiment of the present disclosure; FIG. 本開示の実施形態における表示の一例を説明する模式図(その1)である。FIG. 3 is a schematic diagram (part 1) illustrating an example of display in the embodiment of the present disclosure; 本開示の実施形態に係る医療支援方法における、医療支援装置200によって行われるランキング表示についての示すフローチャートである。10 is a flowchart showing ranking display performed by the medical support device 200 in the medical support method according to the embodiment of the present disclosure; 本開示の実施形態における表示の一例を説明する模式図(その2)である。FIG. 2 is a schematic diagram (part 2) illustrating an example of display in the embodiment of the present disclosure; 超音波画像の一例を説明する模式図である。FIG. 3 is a schematic diagram illustrating an example of an ultrasound image; 医療支援装置200の機能を実現するコンピュータの一例を示すハードウェア構成図である。2 is a hardware configuration diagram showing an example of a computer that implements the functions of the medical support device 200. FIG.
 以下に、添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description. In addition, in this specification and drawings, a plurality of components having substantially the same or similar functional configuration may be distinguished by attaching different alphabets after the same reference numerals. However, when there is no particular need to distinguish between a plurality of components having substantially the same or similar functional configurations, only the same reference numerals are used.
 なお、説明は以下の順序で行うものとする。
1. 技術概要
2. 本開示の実施形態を創作するに至る背景
3. 実施形態
   3.1 医療支援システム10
   3.2 医療支援装置200
   3.3 医療支援方法
   3.4 実施例
   3.5 応用
4. まとめ
5. ハードウェア構成について
6. 補足
Note that the description will be given in the following order.
1. Technical overview 2. 3. Background leading to the creation of the embodiments of the present disclosure. Embodiment 3.1 Medical support system 10
3.2 Medical support device 200
3.3 Medical support method 3.4 Example 3.5 Application 4. Summary 5. 6. Hardware configuration. supplement
 <<1. 技術概要>>
 まずは、図1を参照して、本開示の実施形態に係る医療支援システム10の技術概要を説明する。図1は、本開示に係る医療支援システム10の技術概要を説明する模式図である。本開示の実施形態に係る医療支援システム10は、医療や研究において、評価対象の状態を判別する際に利用することが可能な、医療用評価支援システム、又は、研究用評価システムである。当該医療支援システム10の評価対象としては、例えば、人間(患者)又は動物(患畜)が挙げられる。
<<1. Technical Overview>>
First, a technical overview of a medical support system 10 according to an embodiment of the present disclosure will be described with reference to FIG. FIG. 1 is a schematic diagram illustrating a technical overview of a medical support system 10 according to the present disclosure. The medical support system 10 according to the embodiment of the present disclosure is a medical evaluation support system or a research evaluation system that can be used to determine the condition of an evaluation target in medical care or research. Examples of evaluation targets for the medical support system 10 include humans (patients) and animals (patients).
 図1に示すように、消化器系疾患の診察では、医師1は、例えば、医療支援システム10に含まれる内視鏡100を用いて患者2の体内を診察している。その際、内視鏡100により撮像された患者2の体内の患部画像400は、医療支援システム10に含まれる表示装置300により表示されている。そして、医師1は、表示装置300に表示された患部画像400を視認することで、患者2の体内を診察することができる。さらに、本開示に係る技術では、表示装置300には、患部画像400とともに、機械学習により構築されたアルゴリズム(判定器)によって導出された患部の病状に対する評価結果が表示される。従って、医師1は、上記アルゴリズムによる病状の評価結果を考慮して診断することにより、診察精度を向上させることができる。 As shown in FIG. 1, in diagnosis of a digestive system disease, the doctor 1 examines the inside of the patient 2 using an endoscope 100 included in the medical support system 10, for example. At that time, an affected part image 400 inside the body of the patient 2 captured by the endoscope 100 is displayed by the display device 300 included in the medical support system 10 . The doctor 1 can examine the inside of the patient 2 by viewing the affected part image 400 displayed on the display device 300 . Furthermore, in the technology according to the present disclosure, the display device 300 displays the diseased part image 400 and the evaluation result of the disease state of the affected part derived by an algorithm (determiner) constructed by machine learning. Therefore, the doctor 1 can improve the diagnosis accuracy by making a diagnosis considering the evaluation result of the disease condition by the above algorithm.
 ここで、評価結果とは、医師(内視鏡医)1が患部の表面を視認することで判断した患部の病状に対する評価を示す具体的な数値からなるスコア(評価値)や当該スコアに基づく段階的なスコアであり、さらに、医師(病理医)が患部を病理検査することで得られた病理検査の評価を示す値も含む。 Here, the evaluation result is a score (evaluation value) consisting of a specific numerical value indicating the evaluation of the disease state of the affected area determined by the doctor (endoscopist) 1 by visually recognizing the surface of the affected area, or based on the score. It is a graded score and also includes a value indicating the pathological examination evaluation obtained by pathological examination of the affected area by a doctor (pathologist).
 具体的には、患部の病状に対するスコア(評価値)は、患部の出血、腫瘍、又は、血管透見像に対して医師1がスコアリングした値である。本開示の実施形態においては、患部の病状に対するスコアは、公知のいかなるスコアリング手法による評価値を用いることができる。 Specifically, the score (evaluation value) for the disease state of the affected area is the value scored by Doctor 1 for the bleeding, tumor, or fluoroscopic image of the affected area. In the embodiment of the present disclosure, an evaluation value obtained by any known scoring method can be used as the score for the disease state of the affected area.
 例えば、患部の病状に対するスコアとしては、Ulcerative Colitis Endoscopic Index of Severity(UCEIS)によるスコアを用いることができる。UCEISによるスコアは、潰瘍性大腸炎の重症度の評価値として近年使用されるようになった指標である。UCEISによるスコアは、少なくとも潰瘍性大腸炎の血管の透過性、出血、及び潰瘍度の評価について定義されている。UCEISによるスコアは、細かい分類が可能であるため、細かい診断方針を立てることが可能であり、且つ、内視鏡医ごとの評価ばらつきを小さくすることができる。 For example, a score based on the Ulcerative Colitis Endoscopic Index of Severity (UCEIS) can be used as the score for the disease condition of the affected area. The UCEIS score is an index that has recently come into use as an evaluation value of the severity of ulcerative colitis. UCEIS scores are defined for assessment of at least vascular permeability, bleeding, and ulceration of ulcerative colitis. Since the UCEIS score can be finely classified, it is possible to formulate a fine diagnostic policy and to reduce evaluation variations among endoscopists.
 また、患部の病状に対するスコアとしては、他に、Mayoスコアを用いることができる。Mayoスコアは、潰瘍性大腸炎の重症度を0~3までの数種類にて分類することができる。具体的には、Mayoスコアは、内視鏡所見、直腸出血、及び医師1による総合評価による、潰瘍性大腸炎の血管の透過性、出血、及び潰瘍度の各々について評価値からなる。 In addition, the Mayo score can be used as the score for the disease condition of the affected area. The Mayo score can classify the severity of ulcerative colitis on several scales from 0 to 3. Specifically, the Mayo score consists of assessment values for each of vascular permeability, bleeding, and ulcerative severity of ulcerative colitis by endoscopic findings, rectal bleeding, and comprehensive assessment by Physician 1.
 なお、Mayoスコアでは、上記の各項目のスコアの合計が2以下、かついずれのサブスコアも1を超えない場合を「Mayoスコア寛解」と定義している。また、Mayoスコアでは、Mayoスコアがベースラインから3以上又は30%以上減少していることが認められ、且つ、直腸出血のサブスコアの1以上の減少、又は直腸出血のサブスコアが0又は1の場合を「Mayoスコア改善」と定義している。さらに、Mayoスコアでは、内視鏡所見のサブスコアが0又は1の場合を「粘膜治癒」と定義している。 In the Mayo score, "Mayo score remission" is defined as a case where the sum of the scores for each of the above items is 2 or less and none of the subscores exceeds 1. In the Mayo score, if the Mayo score has decreased by 3 or more or 30% or more from the baseline, and the rectal bleeding subscore has decreased by 1 or more, or the rectal bleeding subscore is 0 or 1 is defined as “Mayo score improvement”. Furthermore, the Mayo score defines "mucosal healing" when the endoscopic findings have a subscore of 0 or 1.
 病理検査の評価値は、患部を生検した病理検査の診断結果に対して医師1等が病状のグレードを決定した評価値である。例えば、病理検査の評価値としては、Geboesの生検組織所見スコアを用いることができる。Geboesのスコアは、潰瘍性大腸炎の病理所見をスコア化する指標として一般的に用いられている指標である。 The evaluation value of the pathological examination is the evaluation value determined by the first grade doctor for the diagnosis result of the pathological examination by biopsy of the affected area. For example, the Geboes biopsy tissue finding score can be used as the evaluation value of the pathological examination. The Geboes score is an index generally used as an index for scoring pathological findings of ulcerative colitis.
 以上のように、本開示の実施形態に係る医療支援システム10は、例えば、内視鏡100を用いる消化器系疾患の診察に用いることが可能である。具体的には、医療支援システム10は、潰瘍性大腸炎又はクローン病等のような炎症性腸疾患の診察に好適に用いることが可能である。なお、以下の説明では、本開示の実施形態に係る医療支援システム10を潰瘍性大腸炎の診断に用いる場合を例示して説明を行うが、本開示に係る技術は潰瘍性大腸炎の診断へ適用に限定されるものではない。 As described above, the medical support system 10 according to the embodiment of the present disclosure can be used for diagnosis of digestive system diseases using the endoscope 100, for example. Specifically, the medical support system 10 can be suitably used for diagnosis of inflammatory bowel disease such as ulcerative colitis or Crohn's disease. In the following description, a case where the medical support system 10 according to the embodiment of the present disclosure is used for diagnosing ulcerative colitis will be described as an example. Application is not limited.
 <<2. 本開示の実施形態を創作するに至る背景>>
 次に、本開示の実施形態を説明する前に、本発明者らが本開示の実施形態を創作するに至る背景について説明する。
<<2. Background leading to the creation of the embodiments of the present disclosure >>
Next, before describing the embodiments of the present disclosure, the background leading to the creation of the embodiments of the present disclosure by the present inventors will be described.
 潰瘍性大腸炎は、炎症性腸疾患の1つであり、大腸の粘膜に炎症が起きることによりびらんや潰瘍ができる慢性の病気であって、若年者を中心に20万人を超える罹患者がいるといわれている。潰瘍性大腸炎の主な症状としては、下痢や血便、腹痛、発熱、貧血等があり、さらに、さまざまな合併症が発現することもある。しかしながら、潰瘍性大腸炎は、その原因は特定されておらず、且つ、その療法も確立されておらず、厚生労働省が指定する特定疾患の1つとなっている。 Ulcerative colitis, one of the inflammatory bowel diseases, is a chronic disease in which erosions and ulcers occur due to inflammation in the mucous membrane of the large intestine. It affects more than 200,000 people, mainly young people. It is said that there are Major symptoms of ulcerative colitis include diarrhea, bloody stool, abdominal pain, fever, anemia, etc. In addition, various complications may occur. However, the cause of ulcerative colitis has not been identified, nor has any therapy been established, and it is one of the specific diseases designated by the Ministry of Health, Labor and Welfare.
 そして、近年、潰瘍性大腸炎に対して多様な治療法が確立されつつあり、適切な治療をして症状を抑えることができれば、患者2は、健康な人とほとんど変わらない日常生活を続けるようになってきている。このような状況において、潰瘍性大腸炎の病勢に応じて適切に治療法を選択することが求められる中、例えば、下部消化管内視鏡による病勢評価が非常に重要となってきている。 In recent years, various treatment methods have been established for ulcerative colitis, and if the symptoms can be suppressed by appropriate treatment, patient 2 can continue a daily life that is almost the same as that of a healthy person. is becoming Under such circumstances, it is required to appropriately select a treatment method according to the disease state of ulcerative colitis, and disease state evaluation by lower gastrointestinal endoscopy, for example, has become very important.
 また、潰瘍性大腸炎は、寛解(症状が落ち着いている状態)と再燃(症状が悪化している状態)を繰り返しながら慢性状態に至ることがあり、さらに、発病後長期経過すると大腸がんを発症するリスクが高まることが知られている。そのようなことを踏まえると、下部消化管内視鏡による病勢評価に基づいて、潰瘍性大腸炎の予後を適切に推定することは、非常に重要であると考えられる。 In addition, ulcerative colitis may progress to a chronic state by repeating remission (symptoms are calm) and relapses (symptoms are worsening). known to increase the risk of developing In light of this, it is considered very important to appropriately estimate the prognosis of ulcerative colitis based on disease activity evaluation by lower gastrointestinal endoscopy.
 しかし、潰瘍性大腸炎等の患部視認による評価は、主観的な判断に依存する部分もあり、且つ、難易度が高いため、患部視認による医師1の評価は、専門医に限定しても、医師1間でばらつきが生じてしまうことを避けることが難しい。 However, the evaluation of ulcerative colitis and the like by visual recognition of the affected area depends on subjective judgment, and the degree of difficulty is high. It is difficult to avoid the occurrence of variations between 1.
 また、上述のような患部視認の代わりに、もしくは、患部視認による評価を補うために、患部の組織の一部を切り取って病理検査、病理診断を行うことが有効とされている。しかし、組織採取の際には、患者2にダメージを与える可能性、及び、合併症を引き起こす可能性がある。さらに、病理検査を行う病理医の人数が少ないため、病理検査は、どこでも実施できるものではなく、且つ、診断に時間がかかってしまう。加えて、病理検査を行うことで、患者2には追加の費用が発生してしまう。 In addition, instead of visualizing the affected area as described above, or in order to supplement the evaluation based on visual recognition of the affected area, it is effective to cut out a part of the tissue of the affected area and perform pathological examination and pathological diagnosis. However, tissue collection may damage the patient 2 and cause complications. Furthermore, since the number of pathologists who perform pathological examinations is small, pathological examinations cannot be performed anywhere, and diagnosis takes time. In addition, additional costs are incurred for the patient 2 by performing the pathological examination.
 このような状況において、本発明者らは、内視鏡による潰瘍性大腸炎の病勢評価の方法について検討を重ね、上記病勢評価において、人工知能(Artificial Intelligence;AI)システムを利用することが有効であるとの考えに至った。詳細には、本発明者らによる病勢評価においては、内視鏡100により患部の画像(患部画像400)を撮像し、事前に機械学習によって構築された判定器として機能するAIシステム(医療支援システム10)を用いて上記患部画像400を解析し、患部の病勢評価を行う。このように、AIシステムを用いることにより、医師1間での評価のばらつきを回避し、患者2に対して、より客観的、且つ、再現性の高い基準で評価した評価結果に基づいた治療を行うことが可能となる。さらに、AIシステムを用いることにより、人間である医師1が行う場合に比べて、患部画像400を洩れなく解析することが可能であることから、診断の漏れを防ぐことが可能となる。 Under these circumstances, the present inventors have repeatedly studied methods for evaluating the disease state of ulcerative colitis using an endoscope, and it is effective to use an artificial intelligence (AI) system in the disease state evaluation. I came to the idea that it is. Specifically, in the disease state evaluation by the present inventors, an image of the affected area (affected area image 400) is captured by the endoscope 100, and an AI system (medical support system) that functions as a determiner built in advance by machine learning 10) is used to analyze the affected area image 400 and evaluate the disease state of the affected area. In this way, by using the AI system, it is possible to avoid variations in evaluation between doctors 1, and to treat patient 2 based on the evaluation results evaluated on a more objective and highly reproducible basis. can be done. Furthermore, by using the AI system, it is possible to thoroughly analyze the affected area image 400 compared to the case where the doctor 1 who is a human being performs the analysis, so that it is possible to prevent omissions in diagnosis.
 さらに、本発明者らが、AIシステムを利用した病勢評価のための技術を鋭意検討したところ、医師1がストレスなく、且つ、適切に病勢評価を行うために、患部の動画等の表示とともに、リアルタイムでAIシステムによる評価結果が提示されることが重要であることがわかった。言い換えると、医師1による患部の状態の視認(カメラワーク)による臨床所見と同じタイミングで、AIシステムによる、精度の高い評価結果が提示されることで、AIシステムを利用した病勢評価のための技術において、高いユーザビリティが確保され、医師1による診断の支援するシステムとして有効に機能することとなる。 Furthermore, when the present inventors diligently studied the technology for evaluating the disease state using an AI system, in order for the doctor 1 to perform stress-free and appropriate disease state evaluation, together with the display of a moving image of the affected area, etc. It turned out that it is important to present the evaluation results by the AI system in real time. In other words, at the same timing as the clinical findings by visual recognition (camera work) of the state of the affected area by the doctor 1, the highly accurate evaluation results by the AI system are presented, so the disease state evaluation technology using the AI system. , high usability is ensured, and the system effectively functions as a system for supporting diagnosis by the doctor 1 .
 しかしながら、患部の動画には、例えば、1秒間に30枚(インターレースを用いた場合には60枚)のフレーム(静止画)が存在する。これらの膨大な量のフレームの全てに対して、AIシステムによって解析、評価を行うことは、処理の負荷が非常に高い。処理の負荷が高いことから、例えば、評価結果の表示に遅延が生じたり、表示の際に不具合が発生したりしやすくなる。従って、ハードウェア、ソフトウェアのリソースの観点から、AIシステムによる精度の高い評価結果の提示をリアルタイムで行うことが難しい。 However, there are, for example, 30 (60 if interlaced) frames (still images) per second in a moving image of an affected area. Analyzing and evaluating all of these enormous amounts of frames by an AI system results in a very high processing load. Since the processing load is high, for example, the display of the evaluation results is likely to be delayed, or problems may occur during the display. Therefore, from the viewpoint of hardware and software resources, it is difficult to present highly accurate evaluation results by an AI system in real time.
 このような状況を踏まえ、本発明者らが画像解析の観点から鋭意検討を進めたところ、潰瘍性大腸炎等の患部等、組織学的な評価が必要な個所については、隣接するフレーム(静止画像)同士の画像は非常に類似しているという特徴があることがわかった。さらに、検討を進める中、複数のフレームの中には、フォーカスがあっていないフレーム、被写体や内視鏡の動き及びそれらの動きによる陰影変化に起因したモーションブラー(動きボケ)を含むフレームや、患部に存在する液体状の物質の蒸発や反射によって患部の画像が鮮明ではないフレーム等が含まれることがわかった。そして、このようなフレームに対してAIシステムによって解析を行った場合、精度の高い評価結果を得ることが難しくなることがわかった。 In light of this situation, the present inventors have made intensive studies from the viewpoint of image analysis. It turned out that there is a feature that the images of the images) are very similar to each other. Furthermore, during the study, some of the multiple frames include frames that are out of focus, frames that include motion blur (motion blur) due to movement of the subject and the endoscope, and shadow changes due to those movements, It was found that there are frames in which the image of the affected area is not clear due to evaporation or reflection of the liquid substance present in the affected area. It has been found that it is difficult to obtain highly accurate evaluation results when analyzing such frames by an AI system.
 そこで、本発明者らは、上述のような独自の知見に基づいて、以下に説明する本開示の実施形態を創作するに至った。本開示の実施形態においては、AIシステムによる解析に供されるフレーム(静止画像)を、得られた全てのフレームではなく、例えば、フォーカスが適切なフレームや動きボケのないフレーム等に限定する。このように、患部の不鮮明なフレームを解析対象から外すことは、AIシステムによる評価の精度の向上に有効であるとともに、処理データ量の削減にも有効である。従って、本実施形態によれば、評価の精度を向上させつつ、処理の負荷を低減することができることから、患部の画像の表示とともに、リアルタイムで評価結果を提示することが可能となる。 Therefore, the present inventors came to create the embodiments of the present disclosure described below based on the unique knowledge as described above. In the embodiment of the present disclosure, the frames (still images) to be analyzed by the AI system are limited to, for example, frames with appropriate focus and frames without motion blur, rather than all obtained frames. In this way, excluding frames in which the diseased part is unclear from the analysis targets is effective in improving the accuracy of evaluation by the AI system, and is also effective in reducing the amount of data to be processed. Therefore, according to the present embodiment, it is possible to reduce the processing load while improving the accuracy of the evaluation, so that it is possible to display the image of the affected area and present the evaluation result in real time.
 すなわち、本発明者らが創作した本開示の実施形態においては、AIシステムによる解析には、例えば、フォーカスが適切なフレーム(静止画像)や、動きボケのないフレーム等といった、患部の解析、評価に適切なフレームのみを用いるようにする。さらに、本実施形態においては、上記解析では、画像が類似する連続するフレームを用いるようにする。このようにすることで、本実施形態によれば、評価の精度を向上させつつ、処理の負荷を低減することができることから、患部の画像の表示とともに、リアルタイムで評価結果を提示することが可能となる。以下、このような本開示の実施形態の詳細を順次説明する。 That is, in the embodiment of the present disclosure created by the present inventors, the analysis by the AI system includes, for example, the analysis and evaluation of the affected area, such as a frame with appropriate focus (still image) and a frame without motion blur. Use only frames that are appropriate for Furthermore, in this embodiment, the above analysis uses consecutive frames with similar images. By doing so, according to the present embodiment, it is possible to reduce the processing load while improving the accuracy of the evaluation, so that the image of the affected area can be displayed and the evaluation results can be presented in real time. becomes. The details of such embodiments of the present disclosure will be sequentially described below.
 <<3. 実施形態>>
 <3.1 医療支援システム10>
 図2を参照して、本開示の実施形態に係る医療支援システム10の構成を説明する。図2は、本実施形態に係る医療支援システム10の構成の一例を示したブロック図である。
<<3. Embodiment>>
<3.1 Medical support system 10>
A configuration of a medical support system 10 according to an embodiment of the present disclosure will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the configuration of the medical support system 10 according to this embodiment.
 図2に示すように、本開示の実施形態に係る医療支援システム10は、内視鏡100と、医療支援装置200と、表示装置300とを主に含む。医療支援システム10は、内視鏡100が撮像した患部画像400を入力として、医療支援装置200において患部のスコア(評価値)を導出し、表示装置300を介して、ユーザ(例えば、医師1)へ患部のスコアを提示することができる。なお、本実施形態においては、図2に示す医療支援システム10の構成はその一例であって、図2に示す構成に限定されるものではない。以下、本実施形態に係る医療支援システム10に含まれる各装置について順次説明する。 As shown in FIG. 2, the medical support system 10 according to the embodiment of the present disclosure mainly includes an endoscope 100, a medical support device 200, and a display device 300. The medical support system 10 receives an affected part image 400 captured by the endoscope 100 as an input, derives a score (evaluation value) of the affected part in the medical support apparatus 200, and displays the score (evaluation value) of the affected part to a user (for example, doctor 1) via the display device 300. The score of the affected area can be presented. In this embodiment, the configuration of the medical support system 10 shown in FIG. 2 is an example, and the configuration is not limited to that shown in FIG. Each device included in the medical support system 10 according to the present embodiment will be sequentially described below.
 (内視鏡100)
 内視鏡100は、患者2の体内を撮像して患部画像400を取得することができる。患部画像400は、医師1が診察する患部を含む画像である。具体的には、患部画像400は、患部の血管像、凹凸、及び潰瘍部が視認できる画像である。患部画像400は、内視鏡100によって撮像された患部の画像であってもよく、内視鏡100によって連続的に撮像された動画を一時停止して得られた静止画像であってもよい。なお、本実施形態では、評価対象を撮像する撮像装置として内視鏡100を用いる例を示したが、本実施形態は、内視鏡100に限定されるものではなく、外視鏡、顕微鏡、超音波検査装置等、評価対象を撮像することが可能な撮像装置であればよい。
(Endoscope 100)
The endoscope 100 can acquire an affected part image 400 by imaging the inside of the body of the patient 2 . The affected part image 400 is an image including the affected part examined by the doctor 1 . Specifically, the affected area image 400 is an image in which the blood vessel image, unevenness, and ulcer area of the affected area can be visually recognized. The affected area image 400 may be an image of the affected area captured by the endoscope 100 or may be a still image obtained by pausing a moving image continuously captured by the endoscope 100 . In this embodiment, an example of using the endoscope 100 as an imaging device for imaging an evaluation target is shown, but this embodiment is not limited to the endoscope 100, and can be used with an endoscope, a microscope, Any imaging device capable of imaging an object to be evaluated, such as an ultrasonic inspection device, may be used.
 具体的には、本実施形態においては、患部を撮像した患部画像400としては、内視鏡100による白色光画像等の可視光画像を用いてもよい。白色光画像は、内視鏡の基本機能にて最も容易に撮像可能な画像であるため、白色光画像によって病勢を評価することができれば、内視鏡検査の時間、項目、及び費用を抑制することができる。 Specifically, in the present embodiment, a visible light image such as a white light image obtained by the endoscope 100 may be used as the affected area image 400 of the affected area. White-light images are images that can be captured most easily with the basic functions of endoscopes, so if disease conditions can be evaluated using white-light images, the time, items, and costs of endoscopic examinations can be reduced. be able to.
 また、白色光画像にて病状を評価することが困難である場合には、患部画像400として、例えば、特殊光を照射して撮像することによって、画像に含まれる血管領域を強調したNBI(Narrow Band Imaging)画像や、評価対象の凹凸を強調するためにインジゴカルミン染色を施した染色画像等の特殊画像を用いてもよい。本実施形態においては、状況に応じて、白色光画像だけでなく、これらの特殊画像を追加で用いることによって、患部の評価精度を向上させることができる。 In addition, when it is difficult to evaluate the disease state with a white light image, the affected area image 400 is captured by irradiating special light, for example, so that the blood vessel region included in the image is emphasized. A special image such as a Band Imaging image or a stained image obtained by indigo carmine staining to emphasize the unevenness of the evaluation target may be used. In this embodiment, depending on the situation, the evaluation accuracy of the affected area can be improved by additionally using these special images in addition to the white light image.
 (医療支援装置200)
 医療支援装置200は、内視鏡100で撮像された患部画像400を処理して、後述する表示装置300に表示する処理と、患部画像400を解析して患部の病勢の評価結果を導出する処理とを並列で行うことができる。例えば、医療支援装置200は、患部画像400を細分化して、細分化された画像(詳細には、タイル画像402)(図9 参照)に対するスコア(詳細にはタイル評価値)を導出し、さらにこれら各スコアから全体の画像に対するスコアを導出することで患部の病勢の評価結果を導出してもよい。詳細には、医療支援装置200は、例えば、各種演算処理を行うCPU(Central Processing Unit)やGPU(Graphics Processing Unit)、データが予め記憶されたROM(Read Only Memory)、及びデータを一時的に記憶するRAM(Random Access Memory)等を有するコンピュータから構成される。なお、医療支援装置200の詳細については、後述する。
(Medical support device 200)
The medical support apparatus 200 processes an affected area image 400 captured by the endoscope 100 and displays it on a display device 300, which will be described later, and analyzes the affected area image 400 to derive an evaluation result of the disease state of the affected area. and can be performed in parallel. For example, the medical support apparatus 200 subdivides the affected area image 400, derives a score (more specifically, a tile evaluation value) for the subdivided image (more specifically, the tile image 402) (see FIG. 9), and further By deriving the score for the entire image from each of these scores, the evaluation result of the disease state of the affected area may be derived. Specifically, the medical support apparatus 200 includes, for example, a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit) that perform various types of arithmetic processing, a ROM (Read Only Memory) in which data is stored in advance, and data that is temporarily stored in It is composed of a computer having a RAM (Random Access Memory) for storage. Details of the medical support device 200 will be described later.
 (表示装置300)
 表示装置300は、患部画像400や評価結果(スコア等)をユーザ(例えば、医師1)へ提示することができる。表示装置300は、例えば、タッチパネル型のディスプレイ、3次元ディスプレイ、空間ディスプレイ、または投影型ディスプレイ等であってもよい。具体的には、表示装置300は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイ、EL(Electro Luminescence)ディスプレイ、レーザープロジェクタ、LED(Light Emitting Diode)プロジェクタ等のいずれであってもよい。
(Display device 300)
The display device 300 can present the affected part image 400 and evaluation results (scores, etc.) to the user (for example, the doctor 1). The display device 300 may be, for example, a touch panel display, a three-dimensional display, a spatial display, a projection display, or the like. Specifically, the display device 300 may be any of a CRT (Cathode Ray Tube) display, a liquid crystal display, a plasma display, an EL (Electro Luminescence) display, a laser projector, an LED (Light Emitting Diode) projector, and the like.
 このような、医療支援システム10を用いることで、医師1は、医療支援システム10が導出した患部の評価結果と自身の診断結果とを考慮して、より確信をもって病勢の診断を行うことができる。 By using such a medical support system 10, the doctor 1 can diagnose the state of disease with more certainty by considering the evaluation result of the affected area derived by the medical support system 10 and his own diagnosis result. .
 <3.2 医療支援装置200>
 次に、図2を参照して、本実施形態に係る医療支援装置200の機能構成の一例について説明する。詳細には、医療支援装置200は、画像取得部202、画像処理部204、判定部206、評価実行判定部208、評価部210、評価値判定部212、出力部214、及び、記憶部216を主に有する。以下、本実施形態に係る医療支援装置200に含まれる各機能部について説明する。
<3.2 Medical support device 200>
Next, an example of the functional configuration of the medical support device 200 according to this embodiment will be described with reference to FIG. Specifically, the medical support apparatus 200 includes an image acquisition unit 202, an image processing unit 204, a determination unit 206, an evaluation execution determination unit 208, an evaluation unit 210, an evaluation value determination unit 212, an output unit 214, and a storage unit 216. Mainly have Each functional unit included in the medical support device 200 according to this embodiment will be described below.
 (画像取得部202)
 画像取得部202は、内視鏡100により患部を撮像して得られた複数の患部画像400(フレーム)(評価対象画像)を順次取得し、後述する画像処理部204へ出力することができる。
(Image acquisition unit 202)
The image acquisition unit 202 can sequentially acquire a plurality of affected area images 400 (frames) (evaluation target images) obtained by imaging the affected area with the endoscope 100 and output them to the image processing unit 204 described later.
 (画像処理部204)
 画像処理部204は、画像取得部202から出力された患部画像400に対して、画像表示のための処理や、グレースケール変換処理、縮小処理、2値化処理、セグメンテーション処理等の処理を施し、後述する判定部206、出力部214及び記憶部216に出力することができる。さらに、画像処理部204は、画像中の光学的な歪みを補正したり、明るさ調整したりしてもよい。なお、画像処理部204で行われる各種処理の詳細については、後述する。
(Image processing unit 204)
The image processing unit 204 performs processing such as image display processing, grayscale conversion processing, reduction processing, binarization processing, and segmentation processing on the affected area image 400 output from the image acquisition unit 202. It can be output to the determination unit 206, the output unit 214, and the storage unit 216, which will be described later. Furthermore, the image processing unit 204 may correct optical distortion in the image or adjust brightness. Details of various processes performed by the image processing unit 204 will be described later.
 (判定部206)
 判定部206は、画像処理部204から出力された患部画像400が、後述する評価部210により患部(評価対象)の評価を行うための画質条件を満たしているかの判定を行うことができる。さらに、判定部206は、判定結果を、例えば患部画像400の識別情報に紐づけて、後述する評価実行判定部208へ出力することができる。詳細には、判定部206は、例えば、患部画像400の、ボケ値、動き量、輝度及びコントラストといった画質を示す指標と所定の閾値(第1の閾値)とを比較することにより、判定を行うことができる。
(Determination unit 206)
The determination unit 206 can determine whether the affected area image 400 output from the image processing unit 204 satisfies image quality conditions for evaluating the affected area (evaluation target) by the evaluation unit 210 described later. Furthermore, the determination unit 206 can link the determination result to the identification information of the affected area image 400, for example, and output it to the evaluation execution determination unit 208, which will be described later. Specifically, the determination unit 206 performs the determination by, for example, comparing an index indicating image quality such as a blur value, motion amount, luminance, and contrast of the affected area image 400 with a predetermined threshold value (first threshold value). be able to.
 より具体的には、判定部206は、例えば、患部画像400のボケ値を3段階に区分し、ボケ値の区分に応じて、当該患部画像400の動き量と所定の閾値(第1の閾値)とを比較することにより、評価部210により患部の評価を行うための画質条件を満たしているかの判定を行うことができる。このようにして、本実施形態においては、患部の評価を行うのに適切な患部画像400に対して評価を実施するができることから、評価の精度を向上させるとともに、医療支援装置200における処理負荷を低減することができる。従って、本実施形態によれば、迅速に、且つ、精度よく評価を行うことができることから、患部を観察中の医師1等にリアルタイムで評価結果を提示することが可能となる。なお、判定部206で行われる判定の詳細については、後述する。 More specifically, for example, the determination unit 206 classifies the blur value of the diseased part image 400 into three stages, and determines the motion amount of the diseased part image 400 and a predetermined threshold value (first threshold value) according to the classification of the blur value. ), the evaluation unit 210 can determine whether the image quality conditions for evaluating the affected area are satisfied. In this way, in the present embodiment, the affected area image 400 suitable for evaluating the affected area can be evaluated. Therefore, the accuracy of the evaluation can be improved and the processing load on the medical support apparatus 200 can be reduced. can be reduced. Therefore, according to the present embodiment, since evaluation can be performed quickly and accurately, evaluation results can be presented in real time to the doctor 1 or the like who is observing the affected area. Details of the determination performed by the determination unit 206 will be described later.
 なお、ここで、ボケ値とは、患部画像400に発生した動きボケ(モーションブラー)の度合いを指標化した値を意味する。また、動き量とは、連続する患部画像(フレーム)400間での同一被写体の動き量(相対位置変化)を意味する。 Here, the blur value means a value obtained by indexing the degree of motion blur occurring in the diseased part image 400 . Also, the amount of motion means the amount of motion (relative position change) of the same subject between successive affected area images (frames) 400 .
 (評価実行判定部208)
 評価実行判定部208は、上述した判定部206により患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続して取得されたことに基づいて、後述する評価部210による患部の評価の実行の可否を決定することができる。詳細には、評価実行判定部208は、患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続して取得された数と、所定の閾値(第2の閾値)との比較結果に基づいて、患部の評価の実行の可否を決定することができる。なお、評価実行判定部208で行われる判定の詳細については、後述する。
(Evaluation execution determination unit 208)
The evaluation execution determination unit 208 determines that the affected area images 400 determined by the determination unit 206 to satisfy the image quality conditions for evaluating the affected area are continuously acquired, and the evaluation unit 210 described later. It is possible to decide whether to perform evaluation of the affected area by Specifically, the evaluation execution determination unit 208 determines the number of consecutive acquisitions of the affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area and a predetermined threshold (second threshold). It is possible to decide whether to perform the evaluation of the affected area based on the result of comparison with. Details of the determination performed by the evaluation execution determination unit 208 will be described later.
 (評価部210)
 評価部210は、上述した評価実行判定部208によって患部の評価の実行が決定された場合に、上記画質条件を満たしていると判定された、連続する複数の患部画像400(フレーム)に基づいて、患部に対するスコア(評価値)及びスコアに基づく情報をリアルタイムで導出することができる。本実施形態においては、先に説明したように、潰瘍性大腸炎等の患部等、組織学的な評価が必要な個所については、隣接するフレーム同士の画像は非常に類似しているという特徴があることから、評価部210は、画像が類似する連続するフレーム(言い換えると、前後に取得された複数のフレーム)を用いて評価を行うものとする。このようにすることで、本実施形態においては、再現性の高い評価を行うことができる。
(Evaluation unit 210)
The evaluation unit 210 evaluates the affected area based on a plurality of continuous affected area images 400 (frames) determined to satisfy the image quality conditions when the evaluation execution determining unit 208 determines to perform the evaluation of the affected area. , a score (evaluation value) for the affected area and information based on the score can be derived in real time. As described above, this embodiment has the feature that the images of adjacent frames are very similar to each other for a site requiring histological evaluation, such as an affected area of ulcerative colitis. Therefore, the evaluation unit 210 performs evaluation using consecutive frames having similar images (in other words, a plurality of frames acquired before and after). By doing so, in the present embodiment, highly reproducible evaluation can be performed.
 また、当該評価部210は、機械学習によって得られたアルゴリズム(判定器)を用いて、患部に対するスコア(評価値)をリアルタイムで導出することができる。なお、本実施形態においては、上述したように患部の病勢に対するスコアとしては様々な評価、様々な項目が存在するが、リアルタイムで導出、提示するスコアは、その一部であってもよい。さらに、本実施形態においては、評価部210は、導出したスコアを用いて、3段階の指標(例えば、「Active」/「Healing」/「Unknown」)等、組織学的(G)スコア等を導出してもよい。そして、評価部210は、導出したスコア等を、後述する評価値判定部212及び出力部214へ出力することができる。 In addition, the evaluation unit 210 can derive a score (evaluation value) for the affected area in real time using an algorithm (determiner) obtained by machine learning. In this embodiment, as described above, there are various evaluations and various items as the score for the disease state of the affected area, and the score derived and presented in real time may be a part of them. Furthermore, in the present embodiment, the evaluation unit 210 uses the derived score to calculate a histological (G) score such as a three-level index (for example, “Active” / “Healing” / “Unknown”). can be derived. Then, the evaluation unit 210 can output the derived score or the like to the evaluation value determination unit 212 and the output unit 214, which will be described later.
 より具体的には、評価部210は、例えば、患部画像400を複数のタイル状のタイル画像402(図9 参照)として切り出し、複数のタイル画像402のそれぞれにおける患部の評価を示すタイル評価値を導出する。そして、評価部210は、導出された複数のタイル評価値のなかから1つのタイル評価値を選択して、患部画像400のスコア(評価値)とすることができる。具体的には、例えば、評価部210は、導出された複数のタイル評価値を統計処理して、統計処理により得られた平均値、中央値等を、患部画像400のスコアとして取得することができる。さらに、評価部210は、先に説明したように、潰瘍性大腸炎等の患部等、組織学的な評価が必要な個所については、隣接する患部画像400(フレーム)同士の画像は非常に類似しているという特徴があることから、画像が類似する連続して前後に取得された複数のフレームのスコアを統計処理して得られたスコアを、類似する患部画像400群の代表的なスコアとして導出してもよい。 More specifically, the evaluation unit 210, for example, cuts out the affected area image 400 as a plurality of tile-shaped tile images 402 (see FIG. 9), and calculates a tile evaluation value indicating the evaluation of the affected area in each of the plurality of tile images 402. derive Then, the evaluation unit 210 can select one tile evaluation value from among the plurality of derived tile evaluation values and set it as the score (evaluation value) of the diseased part image 400 . Specifically, for example, the evaluation unit 210 may statistically process a plurality of derived tile evaluation values, and acquire the average value, median value, etc. obtained by the statistical processing as the score of the affected area image 400. can. Furthermore, as described above, the evaluation unit 210 determines that adjacent affected area images 400 (frames) are very similar to each other for areas that require histological evaluation, such as affected areas such as ulcerative colitis. Therefore, the score obtained by statistically processing the scores of a plurality of consecutively obtained frames with similar images is used as a representative score of the group of similar affected area images 400. can be derived.
 また、本実施形態においては、上記アルゴリズム(判定器)は、機械学習により生成される。具体的には、判定器は、多数の患部画像400と、当該患部画像400に対する患部視認による医師1(例えば、専門医)の評価結果、及び、病理医の病理検査による評価結果の少なくともいずれか1つ以上とを機械学習することで生成することができる。機械学習では、少なくとも1万枚以上の患部画像400と上記評価結果とを学習することで、複数の医師1間におけるスコアの差と同程度の差を示す程度の精度で評価(判定)を行うことができるアルゴリズム(判定器)を生成することができる。例えば、アルゴリズム(判定器)は、ディープニューラルネットワーク等を用いた機械学習によって生成することができる。 Also, in the present embodiment, the algorithm (determiner) is generated by machine learning. Specifically, the determiner includes at least one of a large number of affected area images 400, an evaluation result of a doctor 1 (for example, a specialist) based on visual recognition of the affected area image 400, and an evaluation result of a pathological examination by a pathologist. One or more can be generated by machine learning. In machine learning, by learning at least 10,000 or more affected area images 400 and the above-mentioned evaluation results, evaluation (judgment) is performed with an accuracy equivalent to the difference in score between a plurality of doctors 1. It is possible to generate an algorithm (determiner) that can For example, the algorithm (determiner) can be generated by machine learning using a deep neural network or the like.
 先に説明したように、潰瘍性大腸炎等の患部視認による評価は難易度が高いため、患部視認による医師1の評価は、専門医であっても医師1間でばらつきが生じてしまう。本実施形態によれば、機械学習によって生成されたアルゴリズム(判定器)を用いることによって、専門医がいなくとも潰瘍性大腸炎等の疾患の診断評価を行うことができる。また、機械学習によって生成されたアルゴリズム(判定器)を用いることによって、医師1間での評価のばらつきを回避し、患者2に対して、より客観的、且つ、再現性の高い基準で評価したスコアを得ることが可能となる。 As explained above, evaluation of ulcerative colitis, etc. by visual recognition of the affected area is highly difficult, so the evaluation by Doctor 1 based on visual confirmation of the affected area varies among doctors 1, even among specialists. According to this embodiment, by using an algorithm (determiner) generated by machine learning, diagnosis and evaluation of diseases such as ulcerative colitis can be performed without a specialist. In addition, by using an algorithm (determiner) generated by machine learning, variations in evaluation between doctors 1 were avoided, and patient 2 was evaluated on a more objective and highly reproducible basis. It is possible to get a score.
 また、病理検査は、組織採取の際に患者2にダメージを与える可能性、及び、合併症を引き起こす可能性がある。さらに、病理検査を行う病理医の人数が少ないため、病理検査は、どこでも実施できるものではなく、且つ、診断に時間がかかってしまう。加えて、病理検査を行うことで、患者2には追加の費用が発生してしまう。本実施形態によれば、機械学習によって生成されたアルゴリズム(判定器)を用いることによって、組織採取をせずとも評価結果を導出することができるため、患者2に対する身体的、時間的、及び金銭的な負担を抑制することができる。 In addition, pathological examination may damage patient 2 during tissue collection and may cause complications. Furthermore, since the number of pathologists who perform pathological examinations is small, pathological examinations cannot be performed anywhere, and diagnosis takes time. In addition, additional costs are incurred for the patient 2 by performing the pathological examination. According to this embodiment, by using an algorithm (determiner) generated by machine learning, evaluation results can be derived without tissue sampling, so physical, time, and financial It is possible to reduce the burden of
 なお、評価部210で行われる評価の詳細については、後述する。 The details of the evaluation performed by the evaluation unit 210 will be described later.
 (評価値判定部212)
 評価値判定部212は、上述した評価部210によって導出された連続する患部画像400(フレーム)に対応する複数のスコア(評価値)を比較(統計処理)し、例えば、4分位数、標準偏差、スミルノフ・グラブス検定、ディクソン検定等を用いて、複数のスコアの中から外れ値を検出する。さらに、評価値判定部212は、上記複数のスコアの中から外れ値を除外して、後述する記憶部216に出力することができる。本実施形態においては、外れ値を除外することで、最終的に診断を行う際に参照するスコアの質を高め、医師1による最終診断の精度をより向上させることができる。なお、評価値判定部212で行われる判定の詳細については、後述する。
(Evaluation value determination unit 212)
The evaluation value determination unit 212 compares (statistically processes) a plurality of scores (evaluation values) corresponding to the consecutive affected area images 400 (frames) derived by the evaluation unit 210 described above, and, for example, quartile, standard Detect outliers among multiple scores using deviation, Smirnov-Grubbs test, Dixon test, or the like. Furthermore, the evaluation value determination unit 212 can exclude outliers from the plurality of scores and output the results to the storage unit 216, which will be described later. In this embodiment, by excluding outliers, the quality of the score to be referred to when making a final diagnosis can be improved, and the accuracy of the final diagnosis by the doctor 1 can be further improved. Details of the determination performed by the evaluation value determination unit 212 will be described later.
 (出力部214)
 出力部214は、表示装置300へ、患部画像400と、スコア(評価値)や当該スコアに基づく指標等を含む評価に関する情報とをリアルタイムで出力することができる。例えば、出力部214は、表示装置300に、患部画像400に重畳してスコア等をリアルタイムで表示することができる。さらに、出力部214は、後述する記憶部216に格納された複数のスコアから、ユーザ(例えば、医師1)が設定した所定の数の上位のスコアをランキングの形式で出力したり、ユーザによって上記ランキングから選択されたスコアと、当該スコアに対応する患部画像400とを表示したりすることができる。この際、出力部214は、ユーザによって選択されたスコアの患部画像400に対応するタイル画像402を、当該タイル画像402のタイル評価値に応じた色彩又は明度によって表示することもできる。
(Output unit 214)
The output unit 214 can output to the display device 300 in real time the affected area image 400 and information regarding evaluation including a score (evaluation value) and an index based on the score. For example, the output unit 214 can superimpose the score on the affected area image 400 and display the score or the like on the display device 300 in real time. Furthermore, the output unit 214 outputs a predetermined number of top scores set by the user (for example, doctor 1) in a ranking format from a plurality of scores stored in the storage unit 216, which will be described later. The score selected from the ranking and the diseased part image 400 corresponding to the score can be displayed. At this time, the output unit 214 can also display the tile image 402 corresponding to the affected area image 400 with the score selected by the user in color or brightness according to the tile evaluation value of the tile image 402 .
 (記憶部216)
 記憶部216は、上述した評価値判定部212から出力された、すなわち、外れ値として除外されなかったスコア(評価値)を、当該スコアに対応する患部画像400、又は、患部画像400の識別情報と紐づけて格納することができる。
(storage unit 216)
The storage unit 216 stores the score (evaluation value) output from the evaluation value determination unit 212 described above, that is, the score (evaluation value) that is not excluded as an outlier, as the diseased part image 400 corresponding to the score or the identification information of the diseased part image 400. can be stored in association with
 なお、本実施形態においては、医療支援装置200の機能構成は、図2に示すような機能構成に限定されるものではなく、例えば、他の機能部を含んでもよい。 Note that in the present embodiment, the functional configuration of the medical support device 200 is not limited to the functional configuration shown in FIG. 2, and may include other functional units, for example.
 <3.3 医療支援方法>
 (作業フロー)
 次に、図3を参照して、本開示の実施形態に係る医療支援方法について説明する。図3は、本実施形態に係る医療支援方法における、ユーザ(例えば、医師1等)による作業の流れを示すフローチャートである。詳細には、図3に示すように、本実施形態における、ユーザの作業は、ステップS1からステップS5までの複数のステップを主に含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について順次説明する。
<3.3 Medical support method>
(work flow)
Next, a medical support method according to an embodiment of the present disclosure will be described with reference to FIG. FIG. 3 is a flow chart showing the flow of operations by a user (for example, the doctor 1, etc.) in the medical support method according to this embodiment. Specifically, as shown in FIG. 3, the user's work in this embodiment can mainly include a plurality of steps from step S1 to step S5. The details of each of these steps according to the present embodiment will be sequentially described below.
 まずは、医師1は、内視鏡100を患者2の体内(例えば、大腸等)に挿入する(ステップS1)。 First, the doctor 1 inserts the endoscope 100 into the body of the patient 2 (for example, the large intestine, etc.) (step S1).
 次に、医師1は、表示装置300に表示される内視鏡100により撮像された患者2の体内の患部画像400により、患部を観察しながら、内視鏡100の先端を進めていく(ステップS2)。 Next, the doctor 1 advances the distal end of the endoscope 100 while observing the affected area based on the affected area image 400 inside the body of the patient 2 captured by the endoscope 100 displayed on the display device 300 (step S2).
 そして、本実施形態に係る医療支援装置200により、患部画像400に基づいて患部の許可値がリアルタイムで導出されることから、医師1は、表示装置300にリアルタイムで表示されたスコア(評価値)を確認する(ステップS3)。この際、表示装置300には、例えば、リアルタイムに導出されたスコア、又は、当該スコアに基づいて判断された3段階の指標(例えば、「Active」/「Healing」/「Unknown」)が患部画像400に重畳表示されることとなる。 Since the permission value of the affected area is derived in real time based on the affected area image 400 by the medical support apparatus 200 according to the present embodiment, the doctor 1 can see the score (evaluation value) displayed in real time on the display device 300. is confirmed (step S3). At this time, the display device 300 displays, for example, a score derived in real time, or a three-stage index (eg, “Active”/“Healing”/“Unknown”) determined based on the score. 400 is superimposed and displayed.
 さらに、医師1は、一連の観察により導出された複数のスコアを確認し、状況によっては、格納された個別の患部画像400やそのスコア(評価値)、タイル評価値等の全スコアを確認する(ステップS4)。この際、医師1は、気になった患部画像400やスコア等を指定して、タイル画像402(図9 参照)やタイル評価値等を確認することができる。さらに、本実施形態においては、リアルタイムに導出された各スコアやタイル評価値は、記憶部216に格納された後、ランキング表示されることができる。例えば、また、医師1により、ランキング表からスコアが選択されることにより、事後的に患部画像400やそのスコア及びタイル評価値を参照することも可能である。 Further, the doctor 1 confirms a plurality of scores derived from a series of observations, and depending on the situation, confirms all scores such as the stored individual affected area images 400 and their scores (evaluation values), tile evaluation values, etc. (Step S4). At this time, the doctor 1 can specify the affected area image 400, the score, etc. of interest, and confirm the tile image 402 (see FIG. 9), the tile evaluation value, and the like. Furthermore, in this embodiment, each score and tile evaluation value derived in real time can be displayed in ranking after being stored in the storage unit 216 . For example, it is also possible for the doctor 1 to refer to the affected area image 400 and its score and tile evaluation value after the fact by selecting a score from the ranking table.
 そして、医師1は、これまで確認した患部画像400やスコア等に基づき、診断を行う(ステップS5)。 Then, the doctor 1 makes a diagnosis based on the affected area image 400 and the score confirmed so far (step S5).
 (スコアの導出)
 次に、図4を参照して、上記ステップS3で医療支援装置200によって行われるスコア(評価値)の導出方法について説明する。図4は、本実施形態に係る医療支援方法における、医療支援装置200によって行われるスコアの導出方法を示すフローチャートである。詳細には、図4に示すように、医療支援装置200によって行われるスコアの導出方法は、ステップS31からステップS39までの複数のステップを主に含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について順次説明する。
(Derivation of score)
Next, a method of deriving a score (evaluation value) performed by the medical support apparatus 200 in step S3 will be described with reference to FIG. FIG. 4 is a flowchart showing a score derivation method performed by the medical support device 200 in the medical support method according to this embodiment. Specifically, as shown in FIG. 4, the score derivation method performed by the medical support device 200 can mainly include a plurality of steps from step S31 to step S39. Details of each of these steps according to the present embodiment will be sequentially described below.
 まずは、医療支援装置200は、内視鏡100により患部を撮像して得られた複数の患部画像400(フレーム)を順次取得する(ステップS31)。 First, the medical support device 200 sequentially acquires a plurality of affected area images 400 (frames) obtained by imaging the affected area with the endoscope 100 (step S31).
 次に、医療支援装置200は、画像取得部202から出力された患部画像400に対して、画像表示のための処理や、グレースケール変換処理、縮小処理等の処理を施す(ステップS32)。 Next, the medical support apparatus 200 performs image display processing, grayscale conversion processing, reduction processing, and other processing on the affected area image 400 output from the image acquisition unit 202 (step S32).
 そして、医療支援装置200は、上述したステップS32で処理された患部画像400を、表示装置300に出力する(ステップS33)。 Then, the medical support device 200 outputs the affected area image 400 processed in step S32 described above to the display device 300 (step S33).
 次に、医療支援装置200は、上述したステップS32で処理された患部画像400に対して、患部の評価を行うための画質条件を満たしているかどうかの判定を行う(ステップS34)。詳細には、医療支援装置200は、例えば、患部画像400の、ボケ値及び動き量と所定の閾値とを比較することにより、判定を行うことができる。そして、医療支援装置200は、患部の評価を行うための画質条件を満たしている患部画像400を一時的に格納し(バッファリング)、格納した患部画像400をこの後の処理でも用いる。さらに、医療支援装置200は、患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続して取得された数をカウント(累積)する。 Next, the medical support apparatus 200 determines whether or not the affected area image 400 processed in step S32 described above satisfies the image quality conditions for evaluating the affected area (step S34). Specifically, the medical support apparatus 200 can make the determination by comparing the blur value and motion amount of the affected area image 400 with a predetermined threshold, for example. Then, the medical support apparatus 200 temporarily stores (buffers) the affected area image 400 that satisfies the image quality conditions for evaluating the affected area, and uses the stored affected area image 400 in subsequent processing. Further, the medical support apparatus 200 counts (accumulates) the number of consecutively acquired affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area.
 そして、医療支援装置200は、患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続してn回(所定の閾値)得られたかどうかを判定する(ステップS35)。医療支援装置200は、患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続してn回(所定の閾値)得られたと判定した場合(ステップS35:Yes)には、患部の評価を実行することを決定し、ステップS36へ進む。一方、医療支援装置200は、患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続してn回(所定の閾値)得られていないと判定した場合(ステップS35:No)には、ステップS31の処理へ戻る。 Then, the medical support apparatus 200 determines whether or not the diseased part images 400 determined to satisfy the image quality conditions for evaluating the diseased part have been obtained n times (predetermined threshold) (step S35). . When the medical support apparatus 200 determines that the affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area have been obtained continuously n times (predetermined threshold value) (step S35: Yes) decides to perform an evaluation of the affected area and proceeds to step S36. On the other hand, when the medical support apparatus 200 determines that the affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area have not been obtained n consecutive times (predetermined threshold) (step S35). : No), the process returns to step S31.
 なお、本実施形態においては、例えば、患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続して8~10回(n回)(所定の閾値)得られた場合には、医療支援装置200は、患部の評価を実行することを決定する。なお、本実施形態においては、ステップS34及びステップ35の処理を、フレーム(患部画像400)の画質により患部の評価の実行の可否を決定するための処理でもあることから、「スキップフレーム判定」と称するものし、当該スキップフレーム判定の詳細については、後述する。 In the present embodiment, for example, the affected area image 400 determined to satisfy the image quality conditions for evaluating the affected area is obtained continuously 8 to 10 times (n times) (predetermined threshold value). In that case, the medical support device 200 decides to perform the evaluation of the affected area. Note that in the present embodiment, the processing of steps S34 and S35 is also processing for determining whether or not to execute the evaluation of the affected area based on the image quality of the frame (affected area image 400), so it is called "skip frame determination". Details of the skip frame determination will be described later.
 次に、医療支援装置200は、患部の評価の実行が決定されたことに基づいて、画質条件を満たしていると判定された連続する複数の患部画像400に基づいて、患部に対するスコア(評価値)をリアルタイムで導出する(ステップS36)。さらに、本実施形態においては、医療支援装置200は、導出したスコアを用いて、3段階の指標(例えば、「Active」/「Healing」/「Unknown」)等、組織学的(G)スコアを導出してもよい。なお、当該ステップS36で実行される評価の詳細については後述する。 Next, the medical support apparatus 200 calculates a score (evaluation value ) is derived in real time (step S36). Furthermore, in the present embodiment, the medical support apparatus 200 uses the derived score to calculate a histological (G) score such as a three-level index (for example, “Active”/“Healing”/“Unknown”). can be derived. Details of the evaluation performed in step S36 will be described later.
 そして、医療支援装置200は、上述したステップS36で導出されたスコア等を患部画像400に重畳して表示させるように、スコア等をレンダリングし、表示装置300にリアルタイムに出力する(ステップS37)。なお、当該ステップS37で実行される重畳表示の詳細については後述する。 Then, the medical support apparatus 200 renders the score or the like so as to superimpose the score or the like derived in step S36 on the affected area image 400, and outputs the rendered score or the like to the display device 300 in real time (step S37). Details of the superimposed display executed in step S37 will be described later.
 次に、医療支援装置200は、上述したステップS36で導出されたスコア(評価値)を、当該スコアに対応する患部画像400に連続して取得された患部画像400のスコアと比較(統計処理)し、外れ値でないかどうかを判定する(ステップS38)。医療支援装置200は、スコアが外れ値でない場合(ステップS38:Yes)には、当該スコアを記憶部216に格納するために、ステップS39へ進む。一方、医療支援装置200は、スコアが外れ値である場合(ステップS38:No)には、当該スコアを格納する値から除外し、ステップS31の処理へ戻る。本実施形態においては、外れ値を格納対象から除外することで、最終的に診断を行う際に参照するスコアの質を高め、医師1による最終診断の精度をより向上させることができる。なお、当該ステップS38で実行される外れ値の検出の詳細については後述する。 Next, the medical support apparatus 200 compares the score (evaluation value) derived in step S36 described above with the scores of the diseased part images 400 acquired consecutively to the diseased part image 400 corresponding to the score (statistical processing). Then, it is determined whether or not it is an outlier (step S38). If the score is not an outlier (step S38: Yes), the medical support apparatus 200 proceeds to step S39 to store the score in the storage unit 216. FIG. On the other hand, if the score is an outlier (step S38: No), the medical support apparatus 200 excludes the score from the values to be stored, and returns to the process of step S31. In this embodiment, by excluding outliers from being stored, the quality of the score to be referred to when making a final diagnosis can be improved, and the accuracy of the final diagnosis by the doctor 1 can be further improved. The details of the outlier detection performed in step S38 will be described later.
 そして、医療支援装置200は、上述したステップS36で導出され、ステップS38で除外されなかったスコア(評価値)を、当該スコアに対応する患部画像400又は当該患部画像400の識別情報(identification;ID)とともに格納する(ステップS39)。そして、格納されたスコアは、医師1による最終診断等において用いられることとなる。 Then, the medical support apparatus 200 uses the score (evaluation value) derived in step S36 described above and not excluded in step S38 as the diseased part image 400 corresponding to the score or the identification information (ID) of the diseased part image 400. ) (step S39). Then, the stored score is used in the final diagnosis by the doctor 1 or the like.
 なお、本実施形態においては、図4を参照して説明した各ステップは、必ずしも図示された順序に沿って処理されることに限定されるものではなく、例えば、ステップS33と、ステップS34からステップS37までとは、並列的に処理されることが好ましい。 In this embodiment, the steps described with reference to FIG. 4 are not necessarily limited to being processed in the illustrated order. Up to S37 are preferably processed in parallel.
 (スキップフレーム判定)
 次に、図5から図7までを参照して、上述したステップS34及びステップ35の処理である「スキップフレーム判定」処理について説明する。図5は、本実施形態に係る導出方法における、スキップフレーム判定及び並列処理の概要を説明する模式図であり、図6は、本実施形態に係るスキップフレーム判定における段階判定の一例を説明する模式図である。さらに、図7は、本実施形態に係る導出方法における、スキップフレーム判定の詳細を説明する模式図である。
(skip frame determination)
Next, the "skip frame determination" process, which is the process of steps S34 and S35 described above, will be described with reference to FIGS. FIG. 5 is a schematic diagram for explaining an overview of skip frame determination and parallel processing in the derivation method according to this embodiment, and FIG. 6 is a schematic diagram for explaining an example of step determination in skip frame determination according to this embodiment. It is a diagram. Furthermore, FIG. 7 is a schematic diagram for explaining the details of skip frame determination in the derivation method according to this embodiment.
 まず、図5に示すように、医療支援装置200は、患部画像400に対して、患部の評価を行うための画質条件を満たしているかの判定を行う(画質判定)。ここでは、医療支援装置200は、患部の評価を行うための画質条件を満たしているかの判定のために、ボケ値と動き量とを用いて判定を行う。以下、ボケ値と動き量との詳細を説明する。 First, as shown in FIG. 5, the medical support apparatus 200 determines whether the affected area image 400 satisfies the image quality conditions for evaluating the affected area (image quality determination). Here, the medical support apparatus 200 uses the blur value and the amount of motion to determine whether image quality conditions for evaluating the affected area are satisfied. Details of the blur value and the amount of motion will be described below.
 (ボケ値)
 ボケ値とは、先に説明したように、患部画像400に発生した動きボケ(モーションブラー)の度合いを指標化した値を意味する。なお、本実施形態においては、ボケ値をF値とも称する。具体的には、例えば、患部画像400を縮小処理(リサイズ)し、縮小処理された患部画像400に対して、Canny関数を適用して、画像上の輝度差が大きい部分を輪郭として検出し、エッジ画像を生成する。さらに、エッジ画像の標準偏差を算出することで、ボケ値を取得することができる。また、標準偏差の値が低いほど、画像ボケが大きい。従って、本実施形態においては、評価精度を高めつつ、処理負荷を低減するために、画像ボケが大きな患部画像400は評価の対象から除外する。
(bokeh value)
The blur value means a value obtained by indexing the degree of motion blur occurring in the diseased part image 400, as described above. Note that, in the present embodiment, the blur value is also referred to as the F value. Specifically, for example, the affected area image 400 is reduced (resized), the Canny function is applied to the reduced affected area image 400, and a portion with a large luminance difference on the image is detected as a contour, Generate an edge image. Furthermore, the blur value can be obtained by calculating the standard deviation of the edge image. Also, the lower the standard deviation value, the greater the image blur. Therefore, in the present embodiment, in order to reduce the processing load while increasing the evaluation accuracy, the diseased part image 400 with large image blur is excluded from the evaluation target.
 (動き量)
 動き量とは、先に説明したように、連続する患部画像(フレーム)400間での同一被写体の動き量(相対位置変化)を意味する。なお、本実施形態においては、動き量をM値とも称する。具体的には、例えば、患部画像400を縮小処理(リサイズ)し、縮小処理されたn番目に取得された患部画像400とn-1番目に取得された患部画像400と間の画素差分値(画素差分絶対値)を算出することで、動き量を取得することができる。また、画素差分値の値が高いほど、動き量が大きい。従って、本実施形態においては、評価精度を高めつつ、処理負荷を低減するために、動きによるブレ(動き量)が大きな患部画像400は評価の対象から除外する。
(movement amount)
The amount of motion means the amount of motion (relative position change) of the same subject between successive affected area images (frames) 400, as described above. Note that, in the present embodiment, the amount of motion is also referred to as the M value. Specifically, for example, the diseased part image 400 is reduced (resized), and the pixel difference value ( The amount of motion can be obtained by calculating the pixel difference absolute value). Also, the higher the pixel difference value, the larger the motion amount. Therefore, in the present embodiment, in order to reduce the processing load while increasing the evaluation accuracy, the diseased part image 400 with large motion blur (movement amount) is excluded from the evaluation target.
 さらに、本実施形態においては、患部の評価を行うための画質条件を満たしているかの判定のために使用する指標としては、上述したボケ値や動き量に限定されるものではない。例えば、上記指標として、患部画像400の輝度を挙げることができる。より具体的には、医療支援装置200は、患部画像400に対して白とびや黒つぶれの程度を判定し、判定結果に基づいて、患部の評価を行うための画質条件を満たしているかの判定を行ってもよい。また、医療支援装置200は、連続する患部画像400における時間軸方向の輝度の分散値を算出し、算出した分散値に基づいて、輝度変化が安定した患部画像400を、患部の評価を行うための画質条件を満たしている画像として抽出してもよい。 Furthermore, in the present embodiment, the indices used for determining whether the image quality conditions for evaluating the affected area are satisfied are not limited to the above-described blur value and motion amount. For example, the index may be the brightness of the affected area image 400 . More specifically, the medical support apparatus 200 determines the degree of blown-out highlights and blocked-up shadows in the affected area image 400, and based on the determination result, determines whether image quality conditions for evaluating the affected area are satisfied. may be performed. In addition, the medical support apparatus 200 calculates the variance value of the brightness in the time axis direction in the continuous affected area images 400, and based on the calculated variance value, the affected area images 400 with stable brightness changes are used to evaluate the affected area. may be extracted as an image that satisfies the image quality condition of .
 また、本実施形態においては、患部の評価を行うための画質条件を満たしているかの判定のために使用する指標として、患部画像400のコントラスト比(最大・最小輝度)を用いてもよい。 Also, in the present embodiment, the contrast ratio (maximum/minimum brightness) of the affected area image 400 may be used as an index used to determine whether the image quality conditions for evaluating the affected area are satisfied.
 さらに、本実施形態においては、潰瘍性大腸炎のスコア(評価値)導出に適切な画像か否かの判定の精度を向上させるために、段階を踏んでの判定を行うことが好ましい。例えば、図6に示すように、患部画像400のボケ値(F値)を3段階に区分し、ボケ値の区分に応じて、当該患部画像400の動き量(M値)と所定の閾値とを比較することにより、患部の評価を行うための画質条件を満たしているかの判定を適切に行うことができる。 Furthermore, in the present embodiment, it is preferable to perform stepwise determination in order to improve the accuracy of determining whether an image is appropriate for deriving the score (evaluation value) of ulcerative colitis. For example, as shown in FIG. 6, the blur value (F value) of the diseased part image 400 is divided into three stages, and the motion amount (M value) of the diseased part image 400 and a predetermined threshold value are determined according to the classification of the blur value. By comparing , it is possible to appropriately determine whether or not the image quality conditions for evaluating the affected area are satisfied.
 本実施形態においては、例えば、図6に示すように、患部画像400のボケ値(F値)が3段階(上位範囲、中間範囲、下位範囲)のいずれかに区分されるかを判定する。ボケ値がいずれかの範囲に区分されるかは、当該ボケ値をあらかじめ設定された閾値と比較することで判定することができる。 In the present embodiment, for example, as shown in FIG. 6, it is determined whether the blur value (F value) of the diseased part image 400 is classified into one of three levels (upper range, intermediate range, lower range). Which range the blur value falls into can be determined by comparing the blur value with a preset threshold value.
 具体的には、ボケがない患部画像400は、ボケ値(F値)が十分に高くなることが想定される。従って、図6に示すように、ボケ値が上位範囲に区分された場合には、患部の評価を行うための画質条件を満たしていると判定する。 Specifically, it is assumed that the affected area image 400 without blur has a sufficiently high blur value (F value). Therefore, as shown in FIG. 6, when the blur value is classified into the upper range, it is determined that the image quality conditions for evaluating the affected area are satisfied.
 また、ボケが少なく動きも小さい境界領域に位置する患部画像400は、ボケ値(F値)も動き量(M値)も中間範囲に含まれることが想定される。従って、図6に示すように、ボケ値が中間範囲に区分された場合には、動き量が中間範囲に区分されれば、患部の評価を行うための画質条件を満たしていると判定する。なお、動き量がいずれかの範囲に区分されるかは、当該動き量をあらかじめ設定された閾値と比較することで判定することができる。 In addition, it is assumed that the affected area image 400 located in the boundary area with little blur and small movement is included in the intermediate range in both the blur value (F value) and the amount of motion (M value). Therefore, as shown in FIG. 6, when the blur value is classified into the intermediate range, if the motion amount is classified into the intermediate range, it is determined that the image quality conditions for evaluating the affected area are satisfied. It should be noted that it is possible to determine which range the motion amount falls into by comparing the motion amount with a preset threshold value.
 また、テクスチャの無い(被写体の表面の質感に変化のない)患部画像400は、ボケ値(F値)も動き量(M値)も下位範囲に含まれることが想定される。従って、図6に示すように、ボケ値が下位範囲に区分された場合には、動き量が下位範囲に区分されれば、患部の評価を行うための画質条件を満たしていると判定する。なお、動き量がいずれかの範囲に区分されるかは、当該動き量をあらかじめ設定された閾値と比較することで判定することができる。 In addition, it is assumed that the affected area image 400 with no texture (no change in texture of the surface of the subject) has a blur value (F value) and a motion amount (M value) included in the lower range. Therefore, as shown in FIG. 6, when the blur value is classified into the lower range, if the motion amount is classified into the lower range, it is determined that the image quality condition for evaluating the affected part is satisfied. It should be noted that it is possible to determine which range the motion amount falls into by comparing the motion amount with a preset threshold value.
 なお、本実施形態においては、上述した各閾値を適切に設定することで、医師1が判定したい箇所を適切に抽出することができる。ただし、本実施形態においては、内視鏡100により画質は影響を受けることから、各閾値の設定は、内視鏡100ごとに個別に設定されることが好ましい。 It should be noted that, in the present embodiment, by appropriately setting each threshold value described above, it is possible to appropriately extract the part that the doctor 1 wants to determine. However, in the present embodiment, the image quality is affected by the endoscope 100 , so it is preferable that each threshold is set individually for each endoscope 100 .
 詳細には、上記閾値は、実験的に求めることができる。例えば、医師1による評価が既知である実際の症例画像を用いて、内視鏡100の撮像部(図示省略)や光源(図示省略)、医療支援装置200による画像処理等の特性を実験的に求めて、特性を反映させるように閾値を事前に設定する。 Specifically, the above threshold can be obtained experimentally. For example, using an actual case image for which evaluation by the doctor 1 is known, characteristics such as an imaging unit (not shown) and a light source (not shown) of the endoscope 100, and image processing by the medical support apparatus 200 are experimentally evaluated. and pre-set thresholds to reflect the characteristics.
 また、上記閾値は、Look Up Table(LUT)を用いて設定してもよい。例えば、上記LUTは、ボケ値及び動き量の軸からなるすべてのパターンを正規化した2次元テーブルとして作成される。そして、当該LUTにおいては、ボケ値及び動き量の2つの値に応じて区分する閾値が設定される。当該方法では、局所的な値にも対応できるが、LUT内の区分の細かさに応じて誤差が生じる可能性がある。 Also, the above threshold may be set using a Look Up Table (LUT). For example, the LUT is created as a two-dimensional table that normalizes all patterns consisting of axes of blur value and motion amount. Then, in the LUT, thresholds are set for classification according to the two values of the blur value and the motion amount. Although this method can also deal with local values, errors may occur depending on the fineness of division in the LUT.
 また、上記閾値は、キャリブレーションにより設定されてもよい。例えば、カラーチャート・解像度チャートを用いて、ある一定以上の評価結果が得られるように、医療支援システム10側で予め決定された閾値において、各種の調整(キャリブレーション)を行ってもよい。当該方法では、ホワイトレベルやブラックレベルも求めることができるため、色や解像度以外にコントラストの調整も併せて行うことができる。 Also, the threshold may be set by calibration. For example, using a color chart/resolution chart, various adjustments (calibrations) may be performed with thresholds predetermined by the medical support system 10 so as to obtain evaluation results above a certain level. With this method, since the white level and black level can also be obtained, it is possible to adjust the contrast in addition to the color and resolution.
 そして、本実施形態においては、図5に示すように、患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続してn回(所定の閾値)得られたかどうかを判定する(評価実行判定)。その後、本実施形態においては、図5に示すように、スコアの表示をリアルタイムで行うために、評価や表示についての処理は並列処理で行われることとなる。この際、導出されたスコアは、例えば、遅延を考慮して15フレーム分程度を格納し、格納された順に順次出力される(First IN FirstOut;FIFO)(図5では、n+1個のスコアが順次格納され、順次出力される)。 Then, in the present embodiment, as shown in FIG. 5, whether or not the affected area image 400 determined to satisfy the image quality conditions for evaluating the affected area is obtained n times (predetermined threshold value) consecutively. is determined (evaluation execution determination). After that, in the present embodiment, as shown in FIG. 5, in order to display the score in real time, the evaluation and display processing are performed in parallel. At this time, the derived scores are stored, for example, for about 15 frames in consideration of delay, and are sequentially output in the order in which they are stored (First IN First Out; FIFO) (in FIG. 5, n+1 scores are sequentially stored and output sequentially).
 さらに、図7を参照して、「スキップフレーム判定」処理の詳細について説明する。まずは、医療支援装置200は、患部画像400に対して、グレースケール変換処理を行い、さらに、患部画像400を1/2にする画像縮小処理を行う。そして、医療支援装置200は、ボケ値(F値)を取得するために、縮小処理された患部画像400に対して、Canny関数を適用して、画像上の輝度差が大きい部分を輪郭として検出するエッジ検出処理を行う。さらに、医療支援装置200は、エッジ画像の標準偏差を算出し(標準偏差算出)、画素数で正規化処理を行う。 Furthermore, details of the "skip frame determination" process will be described with reference to FIG. First, the medical support apparatus 200 performs grayscale conversion processing on the affected area image 400, and further performs image reduction processing to reduce the affected area image 400 to 1/2. Then, in order to obtain a blur value (F value), the medical support apparatus 200 applies the Canny function to the reduced image 400 of the diseased area, and detects a portion with a large luminance difference on the image as a contour. Edge detection processing is performed. Furthermore, the medical support apparatus 200 calculates the standard deviation of the edge image (standard deviation calculation), and performs normalization processing using the number of pixels.
 一方、動き量(M値)を取得するために、医療支援装置200は、縮小処理されたn番目に取得された患部画像400とn-1番目に取得され、一時的に格納された患部画像400と間の画素差分値(画素差分絶対値)を算出し(差分値算出、絶対値算出)、画素数で正規化処理を行う。 On the other hand, in order to acquire the amount of motion (M value), the medical support apparatus 200 uses the n-th acquired affected area image 400 that has undergone reduction processing and the (n−1)-th acquired and temporarily stored affected area image 400. A pixel difference value (pixel difference absolute value) between 400 and 400 is calculated (difference value calculation, absolute value calculation), and normalization processing is performed by the number of pixels.
 さらに、医療支援装置200は、上述したように取得されたボケ値(F値)及び動き量(M値)を、上述したような段階的な閾値判定を行い、患部画像400が患部の評価を行うための画質条件を満たしているかの判定を行う(閾値処理)。続いて、医療支援装置200は、患部の評価を行うための画質条件を満たしていると判定された患部画像400を連続的に格納し、その数を累積する処理する(累積処理)。そして、医療支援装置200は、患部の評価を行うための画質条件を満たしていると判定された患部画像400が連続してn回(所定の閾値)得られた場合には、患部の評価を実行すると判定する(判定)。 Furthermore, the medical support apparatus 200 performs stepwise threshold determination as described above on the blur value (F value) and the amount of motion (M value) acquired as described above, and the affected area image 400 is used to evaluate the affected area. It is determined whether the image quality condition for performing is satisfied (threshold processing). Subsequently, the medical support apparatus 200 continuously stores the affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area, and accumulates the number (accumulation processing). Then, the medical support apparatus 200 evaluates the affected area when the affected area images 400 determined to satisfy the image quality conditions for evaluating the affected area are obtained n times (predetermined threshold value) consecutively. Judgment to execute (judgement).
 (AIシステムによる評価)
 次に、図8及び図9を参照して、本実施形態における、AIシステムによる患部の評価方法の一例について説明する。図8は、本実施形態に係る医療支援方法における、医療支援装置200によって行われるスコア(評価値)の導出方法を示すフローチャートであり、図9は、本実施形態に係る導出方法の一例を説明する模式図である。先に説明したように、本実施形態においては、評価部210によって、連続する複数の患部画像400に基づいて、患部に対するスコアをリアルタイムで導出することができる。詳細には、図8に示すように、医療支援装置200によって行われるスコアの導出方法の一例は、ステップS361からステップS364までの複数のステップを主に含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について順次説明する。
(Evaluation by AI system)
Next, with reference to FIGS. 8 and 9, an example of an affected area evaluation method by the AI system in this embodiment will be described. FIG. 8 is a flowchart showing a score (evaluation value) derivation method performed by the medical support device 200 in the medical support method according to this embodiment, and FIG. 9 illustrates an example of the derivation method according to this embodiment. It is a schematic diagram to do. As described above, in this embodiment, the evaluation unit 210 can derive the score for the affected area in real time based on a plurality of successive affected area images 400 . Specifically, as shown in FIG. 8, an example of the score derivation method performed by the medical support device 200 can mainly include a plurality of steps from step S361 to step S364. The details of each of these steps according to the present embodiment will be sequentially described below.
 評価部210は、上述した評価実行判定部208によって患部の評価の実行が決定された場合に、上記画質条件を満たしていると判定された連続する複数の患部画像400を順次取得する(ステップS361)。 The evaluation unit 210 sequentially acquires a plurality of continuous affected area images 400 determined to satisfy the image quality condition when the evaluation execution determining unit 208 determines to perform the evaluation of the affected area (step S361). ).
 次に、評価部210は、図9に示すように、患部画像400を多角形の形状を有するタイル状のタイル画像402として切り出す(ステップS362)。タイル画像402は、例えば、血管像または潰瘍等の診察対象物が含まれ得る、患部の病状を判定可能な大きさであることが好ましい。具体的には、評価部210は、患部画像400を正方形等の四角形形状に切り出してもよい。もしくは、評価部210は、該四角形形状の外接円が5mm以上15mm以下となるように患部画像400を切り出してもよい。なお、本実施形態においては、タイル画像402の形状は、多角形に限定されず、患部画像400を細分化できる形状であればよい。また、タイル画像402は、場所により形状が異なるランダムな形状に切り出されてもよい。 Next, the evaluation unit 210 cuts out the affected area image 400 as a tile-shaped tile image 402 having a polygonal shape, as shown in FIG. 9 (step S362). The tile image 402 is preferably sized such that the disease state of the affected area can be determined, which may include, for example, an image of a blood vessel or an object to be examined such as an ulcer. Specifically, the evaluation unit 210 may cut out the affected area image 400 into a rectangular shape such as a square. Alternatively, the evaluation unit 210 may cut out the affected part image 400 so that the circumscribed circle of the quadrangular shape is 5 mm or more and 15 mm or less. Note that in the present embodiment, the shape of the tile image 402 is not limited to a polygon, and may be any shape that can subdivide the diseased part image 400 . Alternatively, the tile image 402 may be cut out in a random shape that differs depending on the location.
 そして、評価部210は、切出されたタイル画像402に基づいて、機械学習により得られたアルゴリズム(判定器)を用いて、タイル評価値を導出する(ステップS363)。ここで、タイル評価値とは、タイル画像402毎に導出された患部のスコア(評価値)である。 Then, the evaluation unit 210 derives a tile evaluation value based on the clipped tile image 402 using an algorithm (determiner) obtained by machine learning (step S363). Here, the tile evaluation value is the score (evaluation value) of the affected area derived for each tile image 402 .
 例えば、評価部210は、タイル評価値として、評価項目別のタイル評価値を導出する。例えば、評価項目は、患部の出血、腫瘍、または血管透見像の項目であってよく、病理検査の項目であってよい。また、評価部210は、各評価項目を混合したタイル評価値を導出してもよい。例えば、患部の出血、潰瘍、または血管透見像の少なくともいずれか2つ以上の評価値が使用されてタイル評価値が導出されてもよい。例えば、この場合には、患部の出血、潰瘍、または血管透見像の少なくともいずれか2つ以上の評価値を合計して、タイル評価値としてもよい。 For example, the evaluation unit 210 derives a tile evaluation value for each evaluation item as the tile evaluation value. For example, the evaluation item may be an item of bleeding in an affected area, a tumor, or a fluoroscopic image of a blood vessel, or may be an item of a pathological examination. Also, the evaluation unit 210 may derive a tile evaluation value that is a mixture of evaluation items. For example, a tile evaluation value may be derived using evaluation values of at least two or more of bleeding, ulceration, and fluoroscopic images of the affected area. For example, in this case, the tile evaluation value may be obtained by summing the evaluation values of at least two or more of the bleeding, ulcer, and fluoroscopic images of the affected area.
 評価部210は、上記タイル評価値に基づいて、患部画像400の全体のスコア(評価値)を導出する(ステップS364)。これにより、ユーザ(例えば、医師1等)は、患部画像400の一部ではなく全体を評価することができるため、潰瘍性の疾患に対してより正確な診断を行うことが可能となる。具体的には、上記スコアは、患部画像400に含まれるタイル画像402のタイル評価値を平均した平均値として導出されてもよい。ただし、出血等のように病状の程度よりも発生の有無を特徴とする評価項目を評価する場合には、評価部210は、出血箇所に重みづけしてスコアを導出してもよい。このような場合、評価部210は、タイル評価値の平均値に代えて、又は、加えてタイル評価値の最大値や中央値を用いてスコアを導出してもよい。また、評価部210は、タイル評価値の確率分布(分散、標準偏差等)をさらに用いてスコアを導出してよい。 The evaluation unit 210 derives the overall score (evaluation value) of the affected area image 400 based on the tile evaluation values (step S364). This allows the user (for example, the doctor 1, etc.) to evaluate the entire affected area image 400 rather than a portion of it, thereby enabling more accurate diagnosis of ulcerative disease. Specifically, the score may be derived as an average value obtained by averaging the tile evaluation values of the tile images 402 included in the affected area image 400 . However, when evaluating an evaluation item characterized by the presence or absence of occurrence rather than the degree of a medical condition, such as bleeding, the evaluation unit 210 may derive a score by weighting the bleeding site. In such a case, the evaluation unit 210 may derive a score using the maximum value or the median value of the tile evaluation values instead of or in addition to the average value of the tile evaluation values. In addition, the evaluation unit 210 may further use the probability distribution (variance, standard deviation, etc.) of the tile evaluation values to derive the score.
 (表示例)
 次に、図10を参照して、本実施形態に係るスコア(評価値)等の重畳表示の一例について説明する。図10は、本実施形態における表示の一例を説明する模式図である。詳細には、図10に示すように、本実施形態においては、表示装置300により、患部画像400に重畳して、当該患部画像400のスコア500がリアルタイム表示される。このようにすることで、本実施形態においては、医師1による患部の状態の視認(カメラワーク)による臨床所見と同じタイミングで、AIシステムによる、精度の高い評価結果が提示されることから、高いユーザビリティが確保され、医師1による診断の支援を有効に行うことができる。さらに、本実施形態においては、患部画像400とスコア500とが重畳表示されることから、医師1は、視線を動かすことなく、患部画像400とスコア500との両方を容易に視認することができる。
(Display example)
Next, an example of superimposed display of scores (evaluation values) and the like according to the present embodiment will be described with reference to FIG. 10 . FIG. 10 is a schematic diagram illustrating an example of display in this embodiment. Specifically, as shown in FIG. 10, in the present embodiment, the display device 300 superimposes the score 500 of the affected area image 400 on the affected area image 400 and displays the score 500 in real time. By doing so, in the present embodiment, at the same timing as the clinical findings by visual recognition (camera work) of the state of the affected area by the doctor 1, the AI system presents highly accurate evaluation results. Usability is ensured, and diagnosis support by the doctor 1 can be effectively performed. Furthermore, in the present embodiment, the diseased part image 400 and the score 500 are superimposed and displayed, so that the doctor 1 can easily visually recognize both the diseased part image 400 and the score 500 without moving the line of sight. .
 また、本実施形態においては、導出したスコア(評価値)500を用いて、3段階の指標(例えば、「Active」/「Healing」/「Unknown」)等を導出し、スコア500の代わりに、患部画像400に重畳表示してもよい。さらに、本実施形態においては、導出したスコア500に応じた色彩又は明度によって、患部画像400の全体又は一部を表示してもよい。もしくは、本実施形態においては、患部画像400に重畳表示されるスコア500を、当該スコア500に応じた色彩、明度、文字種、大きさ又は文字の太さを持つようにしてもよい。 In addition, in the present embodiment, the derived score (evaluation value) 500 is used to derive a three-level index (for example, "Active" / "Healing" / "Unknown"), etc., instead of the score 500, It may be superimposed on the affected part image 400 . Furthermore, in this embodiment, the whole or part of the affected area image 400 may be displayed with color or brightness according to the derived score 500 . Alternatively, in the present embodiment, the score 500 superimposed on the affected area image 400 may have color, brightness, character type, size, or thickness corresponding to the score 500 .
 なお、本実施形態においては、図10に示されるような重畳表示の形態に限定されるものではない。 Note that this embodiment is not limited to the form of superimposed display as shown in FIG.
 (外れ値検出)
 次に、上述したステップS36の処理である外れ値検出処理について説明する。本実施形態においては、外れ値であるスコア(評価値)を記憶部216の格納対象から除外することで、最終的に診断を行う際に参照するスコアの質を高め、医師1による最終診断の精度をより向上させることができる。
(outlier detection)
Next, the outlier detection process, which is the process of step S36 described above, will be described. In the present embodiment, by excluding outlier scores (evaluation values) from the storage targets of the storage unit 216, the quality of the scores referred to when making a final diagnosis is improved, and the final diagnosis by the doctor 1 is improved. Accuracy can be further improved.
 例えば、本実施形態においては、連続して得られた患部画像400の複数のスコア(評価値)500から、四分位数を用いて外れ値を検出し、検出した外れ値を複数のスコア500から除外して、残りの上位のスコア500を最終的な診断の際に用いるスコア500として格納する。詳細には、本実施形態においては、複数のスコア500を大きい順に並べ変え、並べ替えた複数のスコア500を4つに区分する。そして、大きい数側から2つ目の区切りの位置(50パーセンタイル(中央値))を抽出し、それ以外のスコア500を外れ値として検出する。 For example, in the present embodiment, outliers are detected using quartiles from a plurality of scores (evaluation values) 500 of the affected area images 400 obtained in succession, and the detected outliers are counted as a plurality of scores 500 , and the remaining top scores 500 are stored as scores 500 to be used in the final diagnosis. Specifically, in this embodiment, the multiple scores 500 are rearranged in descending order, and the rearranged multiple scores 500 are divided into four. Then, the second delimiter position (50th percentile (median value)) is extracted from the large number side, and the other scores of 500 are detected as outliers.
 なお、本発明者らが実験的に検証したところ、大きい数側から1つ目の区切りの位置(75パーセンタイル(第三四分位数))よりも大きいスコア(評価値)500を外れ値として検出する場合よりも、大きい数側から2つ目の区切りの位置(50パーセンタイル(中央値))よりも大きいスコア500を外れ値として検出する方が、医師1による臨床所見による評価結果に近いスコア500を得られることがわかっている。また、本実施形態においては、どの範囲を外れ値として検出するかについては、スコア500の取得数やその統計処理方法に応じて、適宜選択することが好ましい。また、四分位数を用いた外れ値の検出は、分散や標準偏差を用いて外れ値を検出する場合に比べて、データ数が少なくても、比較的良好な精度を得ることが可能であるといわれている。しかしながら、本実施形態においては、極端にデータ数が少ない状況を避けるために、対象となるスコア500に対応する患部画像400に対して、その前後に取得された約150フレーム程度の患部画像400に対応するスコア500を用いて、外れ値の検出を行うことが好ましい。 In addition, as a result of experimental verification by the present inventors, the score (evaluation value) 500 larger than the position of the first delimiter from the large number side (75th percentile (third quartile)) is regarded as an outlier Detecting a score of 500 that is greater than the position of the second delimiter (50th percentile (median)) as an outlier than detecting it is a score that is closer to the evaluation result based on clinical findings by Doctor 1. I know I can get 500. Further, in the present embodiment, it is preferable to appropriately select which range is to be detected as an outlier according to the number of obtained scores 500 and the statistical processing method thereof. In addition, outlier detection using quartiles can obtain relatively good accuracy even with a small amount of data compared to outlier detection using variance and standard deviation. It is said that there is However, in this embodiment, in order to avoid a situation in which the number of data is extremely small, the diseased part image 400 corresponding to the target score 500 is replaced with about 150 frames of the diseased part image 400 acquired before and after the affected part image 400. Outlier detection is preferably performed with the corresponding score 500 .
 また、本実施形態においては、四分位数を用いた外れ値の検出に限定されるものではなく、例えば、スミルノフ・グラブス検定、ディクソン検定、偏差及び標準偏差を用いた検定等を用いることができる。例えば、スミルノフ・グラブス検定やディクソン検定は、データが正規分布に従うことを前提として外れ値を検出する検定であり、偏差及び標準偏差を用いた検定は、偏差及び標準偏差を用いて算出した値を有意点と比較することにより外れ値を検出する検定である。 Further, in the present embodiment, it is not limited to the detection of outliers using quartiles. For example, Smirnov-Grubbs test, Dixon test, deviation and standard deviation using the test, etc. can be used. can. For example, the Smirnov-Grubbs test and Dixon test are tests that detect outliers on the premise that the data follow a normal distribution, and the test using the deviation and standard deviation is the value calculated using the deviation and standard deviation. A test that detects outliers by comparison with significant points.
 (ランキング表示)
 本実施形態においては、図3を参照して先に説明したステップS4及びステップS5では、医師1による最終診断のために、格納されたスコア(評価値)500等をランキング表示することができる。そこで、図11及び図12を参照して、スコア500のランキング表示の詳細について説明する。図11は、本実施形態に係る医療支援方法における、医療支援装置200によって行われるランキング表示についての示すフローチャートであり、図12は、本実施形態における表示の一例を説明する模式図である。
(ranking display)
In this embodiment, in steps S4 and S5 previously described with reference to FIG. 3, the stored scores (evaluation values) 500 and the like can be displayed in ranking order for final diagnosis by the doctor 1. FIG. Therefore, the details of the ranking display of the score 500 will be described with reference to FIGS. 11 and 12. FIG. FIG. 11 is a flowchart showing ranking display performed by the medical support device 200 in the medical support method according to this embodiment, and FIG. 12 is a schematic diagram illustrating an example of display in this embodiment.
 医師1による臨床所見による評価においては、上位5個のスコア(評価値)500を抽出し、検討することが一般的である。しかしながら、本実施形態においては、過検出や鉗子やNBI画像に起因する誤検出等を考慮して、上位5個から20個のスコア500を抽出、表示するようにすることが好ましい。例えば、診断が難しい症例等では、多めにスコア500を抽出、表示することにより、医師1の診断を効果的に支援する。 In the evaluation based on clinical findings by Doctor 1, it is common to extract and consider the top five scores (evaluation values) 500. However, in this embodiment, it is preferable to extract and display the top 5 to 20 scores 500 in consideration of over-detection, erroneous detection due to forceps or NBI images, and the like. For example, in cases where diagnosis is difficult, a large number of scores 500 are extracted and displayed to effectively assist the diagnosis of the doctor 1 .
 本実施形態においては、上述した外れ値の検出により外れ値であるスコア(評価値)500が除外され、前後120フレーム程度の患部画像400に対応するスコア500の中から、医師1が指定した所定の数だけ上位のスコア500をランキング形式で表示する。なお、本実施形態においては、上述した動き量(M値)に基づいて、動き量が急に大きくなった患部画像400(フレーム)間を区切り、当該区切りを患部観察の変化点(シーンチェンジ)とみなしてもよい。この場合、1つの観察区間(シーン)に含まれる複数の患部画像400における最も高いスコアを代表評価値としてみなし、その上位の代表評価値をランキング形式で表示してもよい。このようにすることで、全体的な症例の把握を容易にすることができる。 In the present embodiment, outlier scores (evaluation values) 500 are excluded by outlier detection as described above. The number of top scores 500 are displayed in a ranking format. Note that, in the present embodiment, based on the above-described amount of motion (M value), the affected area images 400 (frames) in which the amount of motion suddenly increases are separated, and the partition is defined as a change point (scene change) in observation of the affected area. may be regarded as In this case, the highest score in a plurality of affected area images 400 included in one observation section (scene) may be regarded as a representative evaluation value, and the top representative evaluation values may be displayed in a ranking format. By doing so, it is possible to easily grasp the overall case.
 次に、図11及び図12を参照して、本開示の実施形態に係るランキング表示の処理について説明する。図11に示すように、本実施形態に係るランキング表示は、ステップS41からステップS44までの複数のステップを主に含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について順次説明する。ここでは、リアルタイムで創出された複数のスコア(評価値)500から、上位のスコア500をランキング形式で表示するものとする。さらに、医師1がランキング表示から1つのスコア500を選択した場合、当該スコア500に対応する患部画像400や、タイル画像402及びタイル評価値等の全スコアを表示する。従って、医師1は、自身が選択したスコア500に関する様々なデータに基づいて、診断を確定することができる。 Next, the ranking display processing according to the embodiment of the present disclosure will be described with reference to FIGS. 11 and 12. FIG. As shown in FIG. 11, the ranking display according to this embodiment can mainly include a plurality of steps from step S41 to step S44. The details of each of these steps according to the present embodiment will be sequentially described below. Here, the top scores 500 from a plurality of scores (evaluation values) 500 generated in real time are displayed in a ranking format. Furthermore, when the doctor 1 selects one score 500 from the ranking display, all scores such as the affected part image 400 corresponding to the score 500, the tile image 402, and the tile evaluation value are displayed. Therefore, the doctor 1 can confirm the diagnosis based on various data regarding the score 500 selected by him/herself.
 まずは、医療支援装置200は、格納された、外れ値であるスコア(評価値)500が除外された、複数のスコア500の中から、所定の数分だけ上位のスコア500を大きい順に、すなわち、ランキング形式で表示する(ステップS41)。例えば、図12に示すように、表示装置300は、ランキング表502を表示することができる。なお、当該ランキング表502は、例えば、表示するスコア500を上下にずらすためにカーソル600等を有していてもよい。 First, the medical support apparatus 200 selects the top scores 500 by a predetermined number from among the plurality of stored scores 500 from which outlier scores (evaluation values) 500 are excluded, in descending order. Displayed in a ranking format (step S41). For example, the display device 300 can display a ranking table 502, as shown in FIG. Note that the ranking table 502 may have, for example, a cursor 600 or the like for moving the displayed score 500 up and down.
 次に、医療支援装置200は、医師1によるスコア(評価値)500の選択入力を受け付ける(ステップS42)。例えば、医師1は、図12に示すランキング表502上で選択域504を指定することにより、選択入力を行うことができる。 Next, the medical support device 200 receives a selection input of the score (evaluation value) 500 by the doctor 1 (step S42). For example, the doctor 1 can perform a selection input by designating a selection area 504 on the ranking table 502 shown in FIG.
 そして、医療支援装置200は、選択されたスコア(評価値)500に対応する患部画像400、タイル画像402及びタイル評価値等といったデータを記憶部216から取得する(ステップS43)。 Then, the medical support apparatus 200 acquires data such as the affected area image 400, the tile image 402, and the tile evaluation value corresponding to the selected score (evaluation value) 500 from the storage unit 216 (step S43).
 さらに、医療支援装置200は、上述したステップS43で取得された患部画像400、タイル画像402、及び、スコア(評価値)、タイル評価値を含む全スコアを表示する(ステップS44)。例えば、図12に示すように、表示装置300は、選択されたスコア500に対応する患部画像400とともに、当該患部画像400がタイル状に切り出された各タイル画像402が集合した集合画像404を表示してもよい。この際、集合画像404は、タイル評価値に応じて異なる色彩を持つタイル画像402が集合した画像であってもよい。さらに、集合画像404は、その前後に取得された患部画像400の集合画像404とともに表示されてもよい。加えて、例えば、表示装置300は、表示する集合画像404を時系列的に変更するためにカーソル600を併せて表示してもよい。この場合、医師1が当該カーソル600を左右に移動させることにより、表示する集合画像404を時系列的に変化させることができる。 Further, the medical support apparatus 200 displays the affected area image 400, the tile image 402, the score (evaluation value), and all scores including the tile evaluation value obtained in step S43 (step S44). For example, as shown in FIG. 12, the display device 300 displays a diseased part image 400 corresponding to the selected score 500 and a collective image 404 in which tile images 402 obtained by cutting out the diseased part image 400 into tiles are aggregated. You may At this time, the collective image 404 may be an image in which the tile images 402 having different colors according to the tile evaluation values are collected. Further, the collective image 404 may be displayed together with the collective images 404 of the lesion images 400 acquired before and after it. In addition, for example, the display device 300 may also display a cursor 600 to chronologically change the collective image 404 to be displayed. In this case, the doctor 1 can change the collective image 404 to be displayed in time series by moving the cursor 600 left and right.
 なお、本実施形態においては、先に説明したように、隣接する患部画像400同士の画像は非常に類似していることから、動き量が急に大きくなった患部画像400間を区切り、当該区切りを患部観察の変化点(シーンチェンジ)とみなしてもよい。この場合、1つの観察区間(シーン)に含まれる複数の患部画像400の中から、1つの患部画像400を選択して、当該観察区間(シーン)を代表する患部画像400として表示してもよい。このようにすることで、全体的な症例の把握を容易にすることができる。 In the present embodiment, as described above, adjacent affected area images 400 are very similar to each other. may be regarded as a change point (scene change) in observation of the affected area. In this case, one affected area image 400 may be selected from among the plurality of affected area images 400 included in one observation section (scene) and displayed as the affected area image 400 representing the observation section (scene). . By doing so, it is possible to easily grasp the overall case.
 なお、本実施形態においては、図12に示されるような表示の形態に限定されるものではない。 It should be noted that the present embodiment is not limited to the form of display as shown in FIG.
 <3.4 実施例>
 上述した本開示の実施形態の効果を検証するために、2020年4月から2021年3月にかけて、潰瘍性大腸炎患者(計770人)を対象に、本実施形態を用いて内視鏡100の動画全体から炎症部を自動的に選択し、内視鏡スコアを導出した。内視鏡医は、大腸の5つの領域(上行結腸、横行結腸、下行結腸、S状結腸、直腸)から粘膜生検を採取し、病理評価を行い、本実施形態によるスコアと比較した。さらに、各患者について専門医がUCEISスコアを決定し、本実施形態によるスコアと比較した。
<3.4 Examples>
In order to verify the effect of the embodiment of the present disclosure described above, from April 2020 to March 2021, ulcerative colitis patients (a total of 770 people) were subjected to endoscope 100 using this embodiment. We automatically selected the inflamed area from the entire movie and derived the endoscopic score. An endoscopist collected mucosal biopsies from five regions of the large intestine (ascending colon, transverse colon, descending colon, sigmoid colon, and rectum), performed pathological evaluation, and compared the scores according to the present embodiment. Additionally, a UCEIS score was determined for each patient by an expert physician and compared to the score according to the present embodiment.
 また、本開示の実施形態の有益性を検証するために、2018年4月から2019年4月にかけて、潰瘍性大腸炎患者(計875人)を対象に、本実施形態を用いて算出されるスコアの患者予後予測(1年後)と専門医による予測とを比較した。 In addition, in order to verify the benefit of the embodiment of the present disclosure, from April 2018 to April 2019, patients with ulcerative colitis (875 people in total) were calculated using this embodiment Scores were compared to patient prognosis (1 year later) and expert predictions.
 その結果、本実施形態によれば、病理評価の結果と比較して、全患者の81.0%において、リアルタイムに組織学的炎症の有無を評価できていることがわかった。さらに、組織学的寛解に対する精度については、97.9%の感度及び94.6%の特異度であった。UCEISスコアに関する本実施形態によるスコアと専門医によるスコアとの間のクラス内相関係数は0.927であり、本実施形態によるスコアは、専門家によるスコアと同等の精度を持っていることがわかった。なお、クラス内相関係数が0.85以上であれば、臨床的には一致しているとみなすことができるといわれている。 As a result, according to this embodiment, it was found that the presence or absence of histological inflammation could be evaluated in real time in 81.0% of all patients compared with the results of pathological evaluation. Furthermore, the precision for histological remission was 97.9% sensitive and 94.6% specific. The intraclass correlation coefficient between the scores according to the present embodiment and the expert scores for the UCEIS score is 0.927, indicating that the scores according to the present embodiment have similar accuracy to the expert scores. rice field. It is said that if the intraclass correlation coefficient is 0.85 or more, it can be regarded as clinically consistent.
 また、1年後の予後予測に関しては、上記患者に対する本実施形態による予測能(ハザード比で評価)は、入院48.4、手術46.4、ステロイド使用10.2、再燃8.8であった。それに対して、専門医の予測は、入院44.7、手術43.0、ステロイド使用13.4、再燃9.5であった。これらの結果をまとめると、本実施形態によるスコアと専門医によるスコアとの予後予測能には有意差が無く、専門家による患者予後予測と同等の精度を持っていることがわかった。 In addition, regarding prognosis prediction after one year, the prediction ability (evaluated by hazard ratio) according to the present embodiment for the above patients was hospitalization 48.4, surgery 46.4, steroid use 10.2, relapse 8.8. rice field. In contrast, specialist predictions were 44.7 hospitalizations, 43.0 surgeries, 13.4 steroid use, and 9.5 relapses. Summarizing these results, it was found that there was no significant difference in prognosis prediction ability between the score according to this embodiment and the score by the specialist, and that the score was as accurate as the patient prognosis prediction by the specialist.
 以上のことから、本実施形態によれば、一貫して正確な内視鏡スコアを導出することが可能であり、リアルタイムに組織学的炎症の有無を評価することができることから、採取する粘膜生検の数を減らすことが可能であるといえる。 From the above, according to the present embodiment, it is possible to consistently derive an accurate endoscopic score, and to evaluate the presence or absence of histological inflammation in real time. It can be said that it is possible to reduce the number of tests.
 <3.5 応用>
 (他疾患への応用)
 本実施形態は、潰瘍性大腸炎に適用することに限定されるものではなく、内視鏡検査(経口・経鼻・大腸)においてリアルタイム性が求められる検査及び診断に適用することが可能である。具体的には、本実施形態は、スキルス性胃がん(胃壁や組織にしみこんでいくように進行し、胃が硬く厚くなった状態のがん)、早期食道がん、早期大腸がん、クローン病(炎症性腸疾患のひとつで、主に小腸や大腸などの消化管に炎症が起きることによりびらんや潰瘍ができる原因不明の慢性の疾患)等の診断支援に適用することができる。
<3.5 Application>
(Application to other diseases)
The present embodiment is not limited to application to ulcerative colitis, and can be applied to examinations and diagnoses that require real-time endoscopic examination (oral, transnasal, large intestine). . Specifically, in this embodiment, scirrhous gastric cancer (cancer that progresses as it permeates the stomach wall and tissues, and the stomach becomes hard and thick), early esophageal cancer, early colon cancer, Crohn's disease (a type of inflammatory bowel disease, a chronic disease of unknown cause in which erosion and ulcers occur due to inflammation occurring mainly in the digestive tract, such as the small intestine and large intestine).
 (他の医療画像への応用)
 また、本実施形態は、内視鏡画像等への適用に限定されるものではなく、例えば超音波画像にも適用することが可能である。超音波画像は、医師1等がプローブのヘッド部分を動かしながら取得される画像であり、精度の高い診断のために、視認性が高い適切なコントラスト像であることが求められる。
(Application to other medical images)
Further, the present embodiment is not limited to application to endoscopic images and the like, and can also be applied to ultrasound images, for example. An ultrasound image is an image acquired by the doctor 1 or the like while moving the head portion of the probe, and is required to be an appropriate contrast image with high visibility for highly accurate diagnosis.
 例えば、超音波画像410は、超音波画像の一例を説明する模式図である図13に示されている。このような超音波画像410では、医師1等がプローブのヘッド部分を動かしながら取得されることから、リアルタイム性を持つことは有効であると考えられる。例えば、上記ヘッド部分を横に揺らしているときや、患者2が大きく息を吸っている最中では、超音波画像410内に大きなブレ(モーションブラー)が発生しやすく、診断に適切な画像を得ることが難しい。 For example, an ultrasound image 410 is shown in FIG. 13, which is a schematic diagram illustrating an example of an ultrasound image. Since such an ultrasound image 410 is acquired while the doctor 1 or the like moves the head portion of the probe, it is considered effective to have a real-time property. For example, when the head portion is swayed sideways or when the patient 2 is taking a deep breath, large blurring (motion blur) is likely to occur in the ultrasonic image 410, and an image suitable for diagnosis cannot be obtained. difficult to obtain.
 そこで、本実施形態を超音波画像410に適用することにより、診断に適切な画像のみを抽出して、抽出した画像のみに対して解析を行うことにより、リアルタイムに精度よく評価を行うことが可能となる。 Therefore, by applying the present embodiment to the ultrasound image 410, it is possible to extract only images suitable for diagnosis and analyze only the extracted images, thereby enabling accurate evaluation in real time. becomes.
 <<4. まとめ>>
 以上のように、本開示の実施形態においては、AIシステムによる解析には、例えば、フォーカスが適切な患部画像400、動きボケのない患部画像400等といった、患部の解析、評価に適切な患部画像400のみを用いるようにする。さらに、本実施形態においては、上記解析では、画像が類似する連続する患部画像400を用いるようにする。このようにすることで、本実施形態によれば、評価の精度を向上させつつ、処理の負荷を低減することができることから、患部画像400の表示とともに、リアルタイムで評価結果が提示することができる。
<<4. Summary>>
As described above, in the embodiment of the present disclosure, for analysis by the AI system, for example, an affected area image 400 with appropriate focus, an affected area image 400 without motion blur, and other affected area images suitable for analysis and evaluation of the affected area Try to use only 400. Furthermore, in the present embodiment, the analysis uses consecutive affected area images 400 having similar images. By doing so, according to the present embodiment, it is possible to reduce the processing load while improving the accuracy of the evaluation, so that the evaluation result can be presented in real time together with the display of the affected area image 400. .
 その結果、本実施形態によれば、医師1による患部の状態の視認(カメラワーク)に基づく臨床所見と同じタイミングで、AIシステムによる、精度の高い評価結果が提示されることから、高いユーザビリティが確保され、医師1による診断の支援を有効に行うことができる。 As a result, according to the present embodiment, at the same timing as clinical findings based on the visual recognition (camera work) of the state of the affected area by the doctor 1, highly accurate evaluation results are presented by the AI system, resulting in high usability. This ensures that the doctor 1 can effectively assist diagnosis.
 なお、本実施形態に係る医療支援システム10は、医師1の診断を支援することを目的としているが、将来的には、様々な条件(法整備等)をクリアし、評価等の精度を高めることを条件として、診断を自動的に行う診断システムとして機能することもできる。 The medical support system 10 according to the present embodiment aims to assist the diagnosis of the doctor 1, but in the future, various conditions (legal development, etc.) will be cleared, and the accuracy of evaluation, etc. will be improved. Provided that it can also function as a diagnostic system that automatically performs diagnostics.
 また、上述した本開示の実施形態は、医療用途への適用に限定されるものではなく、学術研究等の用途へ適用することも可能であり、画像を用いてAIシステムにより高精度の解析等を行い、リアルタイムに解析結果を表示することが求められる用途であれば、特に限定されるものではない。 In addition, the above-described embodiments of the present disclosure are not limited to application to medical applications, and can also be applied to applications such as academic research. is not particularly limited as long as the application requires performing analysis and displaying the analysis results in real time.
 <<5. ハードウェア構成について>>
 また、上述してきた実施形態に係る医療支援装置200は、例えば、図14に示すような構成のコンピュータ1000によって実現される。図14は、医療支援装置200の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU(Central Processing Unit)1100、RAM(Random Access Memory)1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インタフェース(I/F)1500、入出力インタフェース(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
<<5. Hardware configuration >>
Also, the medical support apparatus 200 according to the above-described embodiments is implemented by, for example, a computer 1000 configured as shown in FIG. FIG. 14 is a hardware configuration diagram showing an example of a computer that realizes the functions of the medical support device 200. As shown in FIG. The computer 1000 includes a CPU (Central Processing Unit) 1100, a RAM (Random Access Memory) 1200, a ROM (Read Only Memory) 1300, a HDD (Hard Disk Drive) 1400, a communication interface (I/F) 1500, an input/output interface (I /F) 1600 and a media interface (I/F) 1700 .
 CPU1100(Graphics Processing Unit(GPU)を含む)は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 (including the Graphics Processing Unit (GPU)) operates based on programs stored in the ROM 1300 or HDD 1400 and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インタフェース1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100 and data used by these programs. Communication interface 1500 receives data from another device via a predetermined communication network, sends the data to CPU 1100, and transmits data generated by CPU 1100 to another device via a predetermined communication network.
 CPU1100は、入出力インタフェース1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インタフェース1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インタフェース1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, via the input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .
 メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は、半導体メモリ等である。 The media interface 1700 reads programs or data stored in the recording medium 1800 and provides them to the CPU 1100 via the RAM 1200. CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase-change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor. memory and the like.
 例えば、コンピュータ1000が本開示の実施形態に係る医療支援装置200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、画像取得部202、画像処理部204、判定部206、評価実行判定部208、評価部210、評価値判定部212及び出力部214等の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。また、HDD1400には、本開示の実施形態に係るプログラムやデータ等が格納される。 For example, when the computer 1000 functions as the medical support device 200 according to the embodiment of the present disclosure, the CPU 1100 of the computer 1000 executes a program loaded on the RAM 1200 to obtain the image acquisition unit 202, the image processing unit 204, It realizes the functions of the determination unit 206, the evaluation execution determination unit 208, the evaluation unit 210, the evaluation value determination unit 212, the output unit 214, and the like. CPU 1100 of computer 1000 reads these programs from recording medium 1800 and executes them, but as another example, these programs may be obtained from another device via a predetermined communication network. Also, the HDD 1400 stores programs, data, and the like according to the embodiment of the present disclosure.
 <<6. 補足>>
 なお、先に説明した本開示の実施形態は、例えば、上記で説明したような医療支援システム10で実行される医療支援方法、医療支援システム10を機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、当該プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
<<6. Supplement >>
The above-described embodiment of the present disclosure includes, for example, a medical support method executed by the medical support system 10 as described above, a program for operating the medical support system 10, and a program in which the program is recorded. May include non-transitory tangible media. Also, the program may be distributed via a communication line (including wireless communication) such as the Internet.
 また、上述した本開示の実施形態の処理における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法により処理されていてもよい。 Also, each step in the processing of the embodiment of the present disclosure described above does not necessarily have to be processed in the described order. For example, each step may be processed in an appropriately changed order. Also, each step may be partially processed in parallel or individually instead of being processed in chronological order. Furthermore, the processing of each step does not necessarily have to be processed in accordance with the described method, and may be processed by another method by another functional unit, for example.
 上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Of the processes described in each of the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or all of the processes described as being performed manually Alternatively, some can be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Also, the effects described in this specification are merely descriptive or exemplary, and are not limiting. In other words, the technology according to the present disclosure can produce other effects that are obvious to those skilled in the art from the description of this specification, in addition to or instead of the above effects.
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or modifications within the scope of the technical idea described in the claims. are naturally within the technical scope of the present disclosure.
 なお、本技術は以下のような構成も取ることができる。
(1)
 情報処理装置と、
 医療支援に関する情報処理を前記情報処理装置に実行させるためのプログラムと、
 を含む、
 医療支援システムであって、
 前記情報処理装置は、前記プログラムに従って、
 患部を撮像して得られた複数の患部画像を順次取得する画像取得部と、
 取得した前記患部画像が前記患部の評価を行うための画質条件を満たしているかの判定を行う判定部と、
 前記画質条件を満たしていると判定された前記患部画像が連続して取得されたことに基づいて、前記患部の評価の実行の可否を決定する評価実行判定部と、
 前記患部の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の患部画像に基づいて、前記患部に対する評価値に関する情報を導出する評価部と、
 前記評価値に関する情報を出力する出力部と、
 として機能する、
 医療支援システム。
(2)
 前記出力部は、前記評価値に関する情報を前記患部画像とともにリアルタイムで出力する、上記(1)に記載の医療支援システム。
(3)
 前記判定部は、前記患部画像の画質を示す指標と第1の閾値との比較結果に基づいて、判定を行う、上記(1)又は(2)に記載の医療支援システム。
(4)
 前記判定部は、前記患部画像の画質を示す指標として、前記患部画像の、ボケ値、動き量、輝度及びコントラストのうちの少なくとも1つの指標を用いて判定を行う、上記(3)に記載の医療支援システム。
(5)
 前記判定部は、
 前記患部画像のボケ値を値に応じて3段階に区分し、
 前記ボケ値の区分に応じて、当該患部画像の動き量と前記第1の閾値とを比較する、
 上記(4)に記載の医療支援システム。
(6)
 前記評価実行判定部は、前記画質条件を満たしていると判定された前記患部画像が連続して取得された数と第2の閾値との比較結果に基づいて、前記患部の評価の実行の可否を決定する、上記(1)~(5)のいずれか1つに記載の医療支援システム。
(7)
 前記評価部は、機械学習によって得られたアルゴリズムを用いて、連続して取得された複数の患部画像を解析して、前記患部に対する評価値を導出する、上記(1)~(6)のいずれか1つに記載の医療支援システム。
(8)
 前記評価部は、
 前記患部画像を複数のタイル状のタイル画像として切り出し、
 前記複数の前記タイル画像のそれぞれにおける前記患部の評価を示すタイル評価値を導出する、
 上記(7)に記載の医療支援システム。
(9)
 前記評価部は、導出された複数の前記タイル評価値のなかから1つの前記タイル評価値を選択して、前記評価値とする、上記(8)に記載の医療支援システム。
(10)
 前記評価部は、導出された複数の前記タイル評価値を統計処理することにより、前記評価値を取得する、上記(8)に記載の医療支援システム。
(11)
 前記出力部は、前記患部画像に重畳して前記評価値又は前記評価値に基づく指標をリアルタイムで表示する、上記(8)~(10)のいずれか1つに記載の医療支援システム。
(12)
 導出された複数の前記評価値の中から、統計処理に基づいて外れ値を検出し、検出した前記外れ値を前記複数の評価値から除外する評価値判定部と、
 前記除外されなかった前記複数の評価値を、当該各評価値に対応する前記患部画像の識別情報と紐づけて格納する記憶部と、
 をさらに備える、
 上記(8)~(11)のいずれか1つに記載の医療支援システム。
(13)
 前記評価値判定部は、4分位数、標準偏差、スミルノフ・グラブス検定、ディクソン検定のうちの1つを用いて、前記外れ値を検出する、上記(12)に記載の医療支援システム。
(14)
 前記出力部は、前記記憶部に格納された前記複数の評価値から、所定の数の上位の前記評価値をランキングの形式で出力する、上記(13)に記載の医療支援システム。
(15)
 前記出力部は、ユーザによって前記ランキングから選択された前記評価値と、当該評価値に対応する前記患部画像とを表示する、上記(14)に記載の医療支援システム。
(16)
 前記出力部は、前記ユーザによって前記ランキングから選択された前記評価値の前記患部画像とともに、当該患部画像に対応する前記タイル画像をさらに表示する、
 上記(15)に記載の医療支援システム。
(17)
 前記タイル画像は、前記タイル評価値に応じた色彩又は明度を持つ、上記(16)に記載の医療支援システム。
(18)
 前記患部画像は、内視鏡、外視鏡、顕微鏡、超音波検査装置のうちのいずれか1つから取得される、上記(1)~(17)のいずれか1つに記載の医療支援システム。
(19)
 プロセッサが、
 患部を撮像して得られた複数の患部画像を順次取得することと、
 取得した前記患部画像が前記患部の評価を行うための画質条件を満たしているかの判定を行うことと、
 前記画質条件を満たしていると判定された前記患部画像が連続して取得されたことに基づいて、前記患部の評価の実行の可否を決定することと、
 前記患部の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の患部画像に基づいて、前記患部に対する評価値に関する情報を導出することと、
 前記評価値に関する情報を出力することと、
 を含む、医療支援方法。
(20)
 コンピュータを、
 患部を撮像して得られた複数の患部画像を順次取得する画像取得部と、
 取得した前記患部画像が前記患部の評価を行うための画質条件を満たしているかの判定を行う判定部と、
 前記画質条件を満たしていると判定された前記患部画像が連続して取得されたことに基づいて、前記患部の評価の実行の可否を決定する評価実行判定部と、
 前記患部の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の患部画像に基づいて、前記患部に対する評価値に関する情報を導出する評価部と、
 前記評価値に関する情報を出力する出力部と、
 として機能させる、
 プログラム。
(21)
 評価対象を撮像して得られた複数の評価対象画像を順次取得する画像取得部と、
 取得した前記評価対象画像が前記評価対象の評価を行うための画質条件を満たしているかの判定を行う判定部と、
 前記画質条件を満たしていると判定された前記評価対象画像が連続して取得されたことに基づいて、前記評価対象の評価の実行の可否を決定する評価実行判定部と、
 前記評価対象の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の評価対象画像に基づいて、前記評価対象に対する評価値に関する情報を導出する評価部と、
 前記評価値に関する情報を前記評価対象画像とともに出力する出力部と、
 を備える、
 評価支援装置。
(22)
 情報処理装置と、
 評価支援に関する情報処理を前記情報処理装置に実行させるためのプログラムと、
 を含む、
 評価支援システムであって、
 前記情報処理装置は、前記プログラムに従って、
 評価対象を撮像して得られた複数の評価対象画像を順次取得する画像取得部と、
 取得した前記評価対象画像が前記評価対象の評価を行うための画質条件を満たしているかの判定を行う判定部と、
 前記画質条件を満たしていると判定された前記評価対象画像が連続して取得されたことに基づいて、前記評価対象の評価の実行の可否を決定する評価実行判定部と、
 前記評価対象の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の評価対象画像に基づいて、前記評価対象に対する評価値に関する情報を導出する評価部と、
 前記評価値に関する情報を前記評価対象画像とともに出力する出力部と、
 として機能する、
 評価支援システム。
(23)
 プロセッサが、
 評価対象を撮像して得られた複数の評価対象画像を順次取得することと、
 取得した前記評価対象画像が前記評価対象の評価を行うための画質条件を満たしているかの判定を行うことと、
 前記画質条件を満たしていると判定された前記評価対象画像が連続して取得されたことに基づいて、前記評価対象の評価の実行の可否を決定することと、
 前記評価対象の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の評価対象画像に基づいて、前記評価対象に対する評価値に関する情報を導出することと、
 前記評価値に関する情報を前記評価対象画像とともに出力することと、
 を含む、評価支援方法。
(24)
 コンピュータを、
 評価対象を撮像して得られた複数の評価対象画像を順次取得する画像取得部と、
 取得した前記評価対象画像が前記評価対象の評価を行うための画質条件を満たしているかの判定を行う判定部と、
 前記画質条件を満たしていると判定された前記評価対象画像が連続して取得されたことに基づいて、前記評価対象の評価の実行の可否を決定する評価実行判定部と、
 前記評価対象の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の評価対象画像に基づいて、前記評価対象に対する評価値に関する情報を導出する評価部と、
 前記評価値に関する情報を前記評価対象画像とともに出力する出力部と、
 として機能させる、
 プログラム。
Note that the present technology can also take the following configuration.
(1)
an information processing device;
a program for causing the information processing device to execute information processing related to medical support;
including,
A medical support system,
The information processing device, according to the program,
an image acquisition unit that sequentially acquires a plurality of images of the affected area obtained by imaging the affected area;
a determination unit that determines whether the acquired affected area image satisfies image quality conditions for evaluating the affected area;
an evaluation execution determination unit that determines whether or not to perform evaluation of the affected area based on successive acquisition of the affected area images determined to satisfy the image quality condition;
an evaluation unit that derives information regarding an evaluation value for the affected area based on the plurality of affected area images determined to satisfy the image quality condition when execution of evaluation of the affected area is determined;
an output unit that outputs information about the evaluation value;
functioning as
Medical support system.
(2)
The medical support system according to (1) above, wherein the output unit outputs information about the evaluation value in real time together with the affected area image.
(3)
The medical support system according to (1) or (2) above, wherein the determination unit performs the determination based on a comparison result between an index indicating image quality of the affected area image and a first threshold value.
(4)
The determination unit according to (3) above, wherein the determination is performed using at least one index of blur value, motion amount, brightness, and contrast of the affected area image as an index indicating image quality of the affected area image. Medical support system.
(5)
The determination unit is
classifying the blur value of the affected area image into three stages according to the value;
comparing the motion amount of the affected area image with the first threshold according to the classification of the blur value;
The medical support system according to (4) above.
(6)
The evaluation execution determination unit determines whether or not the evaluation of the affected area can be performed based on a comparison result between the number of consecutively acquired affected area images determined to satisfy the image quality condition and a second threshold. The medical support system according to any one of (1) to (5) above, which determines the
(7)
Any of the above (1) to (6), wherein the evaluation unit analyzes a plurality of consecutively acquired affected area images using an algorithm obtained by machine learning to derive an evaluation value for the affected area. or the medical support system according to one.
(8)
The evaluation unit
cutting out the affected area image as a plurality of tiled tile images;
deriving a tile evaluation value indicating an evaluation of the affected area in each of the plurality of tile images;
The medical support system according to (7) above.
(9)
The medical support system according to (8) above, wherein the evaluation unit selects one of the derived tile evaluation values as the evaluation value.
(10)
The medical support system according to (8) above, wherein the evaluation unit obtains the evaluation value by statistically processing the plurality of derived tile evaluation values.
(11)
The medical support system according to any one of (8) to (10) above, wherein the output unit displays the evaluation value or an index based on the evaluation value superimposed on the affected area image in real time.
(12)
an evaluation value determination unit that detects outliers based on statistical processing from among the plurality of derived evaluation values and excludes the detected outliers from the plurality of evaluation values;
a storage unit that stores the plurality of non-excluded evaluation values in association with identification information of the affected area image corresponding to each of the evaluation values;
further comprising
The medical support system according to any one of (8) to (11) above.
(13)
The medical support system according to (12) above, wherein the evaluation value determination unit detects the outlier using one of quartiles, standard deviation, Smirnov-Grubbs test, and Dixon test.
(14)
The medical support system according to (13) above, wherein the output unit outputs a predetermined number of high-ranking evaluation values from the plurality of evaluation values stored in the storage unit in a ranking format.
(15)
The medical support system according to (14) above, wherein the output unit displays the evaluation value selected by the user from the ranking and the affected part image corresponding to the evaluation value.
(16)
The output unit further displays the tile image corresponding to the affected area image together with the affected area image of the evaluation value selected by the user from the ranking.
The medical support system according to (15) above.
(17)
The medical support system according to (16) above, wherein the tile image has a color or brightness corresponding to the tile evaluation value.
(18)
The medical support system according to any one of (1) to (17) above, wherein the image of the affected area is obtained from any one of an endoscope, an endoscope, a microscope, and an ultrasonic examination apparatus. .
(19)
the processor
Sequentially acquiring a plurality of images of the affected area obtained by imaging the affected area;
Determining whether the acquired affected area image satisfies image quality conditions for evaluating the affected area;
Determining whether or not to perform the evaluation of the affected area based on the continuous acquisition of the affected area images determined to satisfy the image quality condition;
deriving information about an evaluation value for the affected area based on the plurality of affected area images determined to satisfy the image quality condition when execution of evaluation of the affected area is determined;
outputting information about the evaluation value;
medical assistance methods, including;
(20)
the computer,
an image acquisition unit that sequentially acquires a plurality of images of the affected area obtained by imaging the affected area;
a determination unit that determines whether the acquired affected area image satisfies image quality conditions for evaluating the affected area;
an evaluation execution determination unit that determines whether or not to perform evaluation of the affected area based on successive acquisition of the affected area images determined to satisfy the image quality condition;
an evaluation unit that derives information regarding an evaluation value for the affected area based on the plurality of affected area images determined to satisfy the image quality condition when execution of evaluation of the affected area is determined;
an output unit that outputs information about the evaluation value;
function as
program.
(21)
an image acquisition unit that sequentially acquires a plurality of evaluation target images obtained by imaging an evaluation target;
a determination unit that determines whether the acquired evaluation target image satisfies an image quality condition for evaluating the evaluation target;
an evaluation execution determination unit that determines whether or not to execute the evaluation of the evaluation target based on the continuous acquisition of the evaluation target images determined to satisfy the image quality condition;
an evaluation unit that derives information about an evaluation value for the evaluation target based on the plurality of evaluation target images determined to satisfy the image quality condition when execution of evaluation of the evaluation target is determined;
an output unit that outputs information about the evaluation value together with the evaluation target image;
comprising
Evaluation support device.
(22)
an information processing device;
a program for causing the information processing device to execute information processing related to evaluation support;
including,
An evaluation support system,
The information processing device, according to the program,
an image acquisition unit that sequentially acquires a plurality of evaluation target images obtained by imaging an evaluation target;
a determination unit that determines whether the acquired evaluation target image satisfies an image quality condition for evaluating the evaluation target;
an evaluation execution determination unit that determines whether or not to execute the evaluation of the evaluation target based on the continuous acquisition of the evaluation target images determined to satisfy the image quality condition;
an evaluation unit that derives information about an evaluation value for the evaluation target based on the plurality of evaluation target images determined to satisfy the image quality condition when execution of evaluation of the evaluation target is determined;
an output unit that outputs information about the evaluation value together with the evaluation target image;
functioning as
Evaluation support system.
(23)
the processor
Sequentially acquiring a plurality of evaluation target images obtained by imaging the evaluation target;
Determining whether the acquired evaluation target image satisfies an image quality condition for evaluating the evaluation target;
Determining whether or not to execute the evaluation of the evaluation target based on the continuous acquisition of the evaluation target images determined to satisfy the image quality condition;
deriving information about an evaluation value for the evaluation target based on the plurality of evaluation target images determined to satisfy the image quality condition when execution of evaluation of the evaluation target is determined;
outputting information about the evaluation value together with the evaluation target image;
evaluation support methods, including;
(24)
the computer,
an image acquisition unit that sequentially acquires a plurality of evaluation target images obtained by imaging an evaluation target;
a determination unit that determines whether the acquired evaluation target image satisfies an image quality condition for evaluating the evaluation target;
an evaluation execution determination unit that determines whether or not to execute the evaluation of the evaluation target based on the continuous acquisition of the evaluation target images determined to satisfy the image quality condition;
an evaluation unit that derives information about an evaluation value for the evaluation target based on the plurality of evaluation target images determined to satisfy the image quality condition when execution of evaluation of the evaluation target is determined;
an output unit that outputs information about the evaluation value together with the evaluation target image;
function as
program.
  1  医師
  2  患者
  10  医療支援システム
  100  内視鏡
  200  医療支援装置
  202  画像取得部
  204  画像処理部
  206  判定部
  208  評価実行判定部
  210  評価部
  212  評価値判定部
  214  出力部
  216  記憶部
  300  表示装置
  400  患部画像
  402  タイル画像
  404  集合画像
  410  超音波画像
  500  スコア(評価値)
  502  ランキング表
  504  選択域
  600  カーソル
1 doctor 2 patient 10 medical support system 100 endoscope 200 medical support device 202 image acquisition unit 204 image processing unit 206 determination unit 208 evaluation execution determination unit 210 evaluation unit 212 evaluation value determination unit 214 output unit 216 storage unit 300 display device 400 Affected area image 402 Tile image 404 Group image 410 Ultrasound image 500 Score (evaluation value)
502 Ranking table 504 Selection area 600 Cursor

Claims (20)

  1.  情報処理装置と、
     医療支援に関する情報処理を前記情報処理装置に実行させるためのプログラムと、
     を含む、
     医療支援システムであって、
     前記情報処理装置は、前記プログラムに従って、
     患部を撮像して得られた複数の患部画像を順次取得する画像取得部と、
     取得した前記患部画像が前記患部の評価を行うための画質条件を満たしているかの判定を行う判定部と、
     前記画質条件を満たしていると判定された前記患部画像が連続して取得されたことに基づいて、前記患部の評価の実行の可否を決定する評価実行判定部と、
     前記患部の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の患部画像に基づいて、前記患部に対する評価値に関する情報を導出する評価部と、
     前記評価値に関する情報を出力する出力部と、
     として機能する、
     医療支援システム。
    an information processing device;
    a program for causing the information processing device to execute information processing related to medical support;
    including,
    A medical support system,
    The information processing device, according to the program,
    an image acquisition unit that sequentially acquires a plurality of images of the affected area obtained by imaging the affected area;
    a determination unit that determines whether the acquired affected area image satisfies image quality conditions for evaluating the affected area;
    an evaluation execution determination unit that determines whether or not to perform evaluation of the affected area based on successive acquisition of the affected area images determined to satisfy the image quality condition;
    an evaluation unit that derives information regarding an evaluation value for the affected area based on the plurality of affected area images determined to satisfy the image quality condition when execution of evaluation of the affected area is determined;
    an output unit that outputs information about the evaluation value;
    functioning as
    Medical support system.
  2.  前記出力部は、前記評価値に関する情報を前記患部画像とともにリアルタイムで出力する、請求項1に記載の医療支援システム。 The medical support system according to claim 1, wherein the output unit outputs information about the evaluation value in real time together with the affected area image.
  3.  前記判定部は、前記患部画像の画質を示す指標と第1の閾値との比較結果に基づいて、判定を行う、請求項1に記載の医療支援システム。 The medical support system according to claim 1, wherein the determination unit makes a determination based on a comparison result between an index indicating image quality of the affected area image and a first threshold value.
  4.  前記判定部は、前記患部画像の画質を示す指標として、前記患部画像の、ボケ値、動き量、輝度及びコントラストのうちの少なくとも1つの指標を用いて判定を行う、請求項3に記載の医療支援システム。 4. The medical treatment according to claim 3, wherein the determination unit performs determination using at least one index of blur value, motion amount, brightness, and contrast of the affected area image as an index indicating image quality of the affected area image. support system.
  5.  前記判定部は、
     前記患部画像のボケ値を値に応じて3段階に区分し、
     前記ボケ値の区分に応じて、当該患部画像の動き量と前記第1の閾値とを比較する、
     請求項4に記載の医療支援システム。
    The determination unit is
    classifying the blur value of the affected area image into three stages according to the value;
    comparing the motion amount of the affected area image with the first threshold according to the classification of the blur value;
    The medical support system according to claim 4.
  6.  前記評価実行判定部は、前記画質条件を満たしていると判定された前記患部画像が連続して取得された数と第2の閾値との比較結果に基づいて、前記患部の評価の実行の可否を決定する、請求項1に記載の医療支援システム。 The evaluation execution determination unit determines whether or not the evaluation of the affected area can be performed based on a comparison result between the number of consecutively acquired affected area images determined to satisfy the image quality condition and a second threshold. 2. The medical support system according to claim 1, wherein the system determines
  7.  前記評価部は、機械学習によって得られたアルゴリズムを用いて、連続して取得された複数の患部画像を解析して、前記患部に対する評価値を導出する、請求項1に記載の医療支援システム。 The medical support system according to claim 1, wherein the evaluation unit uses an algorithm obtained by machine learning to analyze a plurality of consecutively acquired images of the affected area to derive an evaluation value for the affected area.
  8.  前記評価部は、
     前記患部画像を複数のタイル状のタイル画像として切り出し、
     前記複数の前記タイル画像のそれぞれにおける前記患部の評価を示すタイル評価値を導出する、
     請求項7に記載の医療支援システム。
    The evaluation unit
    cutting out the affected area image as a plurality of tiled tile images;
    deriving a tile evaluation value indicating an evaluation of the affected area in each of the plurality of tile images;
    The medical support system according to claim 7.
  9.  前記評価部は、導出された複数の前記タイル評価値のなかから1つの前記タイル評価値を選択して、前記評価値とする、請求項8に記載の医療支援システム。 The medical support system according to claim 8, wherein the evaluation unit selects one of the derived tile evaluation values as the evaluation value.
  10.  前記評価部は、導出された複数の前記タイル評価値を統計処理することにより、前記評価値を取得する、請求項8に記載の医療支援システム。 The medical support system according to claim 8, wherein the evaluation unit obtains the evaluation values by statistically processing the derived tile evaluation values.
  11.  前記出力部は、前記患部画像に重畳して前記評価値又は前記評価値に基づく指標をリアルタイムで表示する、請求項8に記載の医療支援システム。 The medical support system according to claim 8, wherein the output unit superimposes the evaluation value or an index based on the evaluation value on the affected area image in real time.
  12.  導出された複数の前記評価値の中から、統計処理に基づいて外れ値を検出し、検出した前記外れ値を前記複数の評価値から除外する評価値判定部と、
     前記除外されなかった前記複数の評価値を、当該各評価値に対応する前記患部画像の識別情報と紐づけて格納する記憶部と、
     をさらに備える、
     請求項8に記載の医療支援システム。
    an evaluation value determination unit that detects outliers based on statistical processing from among the plurality of derived evaluation values and excludes the detected outliers from the plurality of evaluation values;
    a storage unit that stores the plurality of non-excluded evaluation values in association with identification information of the affected area image corresponding to each of the evaluation values;
    further comprising
    The medical support system according to claim 8.
  13.  前記評価値判定部は、4分位数、標準偏差、スミルノフ・グラブス検定、ディクソン検定のうちの1つを用いて、前記外れ値を検出する、請求項12に記載の医療支援システム。 13. The medical support system according to claim 12, wherein said evaluation value determination unit detects said outlier using one of quartiles, standard deviation, Smirnov-Grubbs test, and Dixon test.
  14.  前記出力部は、前記記憶部に格納された前記複数の評価値から、所定の数の上位の前記評価値をランキングの形式で出力する、請求項13に記載の医療支援システム。 14. The medical support system according to claim 13, wherein the output unit outputs a predetermined number of high ranking evaluation values from the plurality of evaluation values stored in the storage unit in a ranking format.
  15.  前記出力部は、ユーザによって前記ランキングから選択された前記評価値と、当該評価値に対応する前記患部画像とを表示する、請求項14に記載の医療支援システム。 The medical support system according to claim 14, wherein the output unit displays the evaluation value selected by the user from the ranking and the affected area image corresponding to the evaluation value.
  16.  前記出力部は、前記ユーザによって前記ランキングから選択された前記評価値の前記患部画像とともに、当該患部画像に対応する前記タイル画像をさらに表示する、
     請求項15に記載の医療支援システム。
    The output unit further displays the tile image corresponding to the affected area image together with the affected area image of the evaluation value selected by the user from the ranking.
    The medical support system according to claim 15.
  17.  前記タイル画像は、前記タイル評価値に応じた色彩又は明度を持つ、請求項16に記載の医療支援システム。 The medical support system according to claim 16, wherein said tile image has color or brightness according to said tile evaluation value.
  18.  前記患部画像は、内視鏡、外視鏡、顕微鏡、超音波検査装置のうちのいずれか1つから取得される、請求項1に記載の医療支援システム。  The medical support system according to claim 1, wherein the affected part image is obtained from any one of an endoscope, an endoscope, a microscope, and an ultrasonic examination apparatus.
  19.  プロセッサが、
     患部を撮像して得られた複数の患部画像を順次取得することと、
     取得した前記患部画像が前記患部の評価を行うための画質条件を満たしているかの判定を行うことと、
     前記画質条件を満たしていると判定された前記患部画像が連続して取得されたことに基づいて、前記患部の評価の実行の可否を決定することと、
     前記患部の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の患部画像に基づいて、前記患部に対する評価値に関する情報を導出することと、
     前記評価値に関する情報を出力することと、
     を含む、医療支援方法。
    the processor
    Sequentially acquiring a plurality of images of the affected area obtained by imaging the affected area;
    Determining whether the acquired affected area image satisfies image quality conditions for evaluating the affected area;
    Determining whether or not to perform the evaluation of the affected area based on the continuous acquisition of the affected area images determined to satisfy the image quality condition;
    deriving information about an evaluation value for the affected area based on the plurality of affected area images determined to satisfy the image quality condition when execution of evaluation of the affected area is determined;
    outputting information about the evaluation value;
    medical assistance methods, including;
  20.  評価対象を撮像して得られた複数の評価対象画像を順次取得する画像取得部と、
     取得した前記評価対象画像が前記評価対象の評価を行うための画質条件を満たしているかの判定を行う判定部と、
     前記画質条件を満たしていると判定された前記評価対象画像が連続して取得されたことに基づいて、前記評価対象の評価の実行の可否を決定する評価実行判定部と、
     前記評価対象の評価の実行が決定された場合に、前記画質条件を満たしていると判定された前記複数の評価対象画像に基づいて、前記評価対象に対する評価値に関する情報を導出する評価部と、
     前記評価値に関する情報を前記評価対象画像とともに出力する出力部と、
     を備える、
     評価支援装置。
    an image acquisition unit that sequentially acquires a plurality of evaluation target images obtained by imaging an evaluation target;
    a determination unit that determines whether the acquired evaluation target image satisfies an image quality condition for evaluating the evaluation target;
    an evaluation execution determination unit that determines whether or not to execute the evaluation of the evaluation target based on the continuous acquisition of the evaluation target images determined to satisfy the image quality condition;
    an evaluation unit that derives information about an evaluation value for the evaluation target based on the plurality of evaluation target images determined to satisfy the image quality condition when execution of evaluation of the evaluation target is determined;
    an output unit that outputs information about the evaluation value together with the evaluation target image;
    comprising
    Evaluation support device.
PCT/JP2022/010844 2021-08-27 2022-03-11 Medical assistance system, medical assistance method, and evaluation assistance device WO2023026538A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021139204 2021-08-27
JP2021-139204 2021-08-27

Publications (1)

Publication Number Publication Date
WO2023026538A1 true WO2023026538A1 (en) 2023-03-02

Family

ID=85322640

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010844 WO2023026538A1 (en) 2021-08-27 2022-03-11 Medical assistance system, medical assistance method, and evaluation assistance device

Country Status (1)

Country Link
WO (1) WO2023026538A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199635A1 (en) * 2016-05-18 2017-11-23 オリンパス株式会社 Image analysis device, image analysis system, and method for operating image analysis device
WO2019083019A1 (en) * 2017-10-26 2019-05-02 富士フイルム株式会社 Medical image processing device and endoscope device
WO2020008834A1 (en) * 2018-07-05 2020-01-09 富士フイルム株式会社 Image processing device, method, and endoscopic system
WO2020054543A1 (en) * 2018-09-11 2020-03-19 富士フイルム株式会社 Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program
WO2020121906A1 (en) * 2018-12-13 2020-06-18 ソニー株式会社 Medical assistance system, medical assistance device, and medical assistance method
WO2020218029A1 (en) * 2019-04-26 2020-10-29 Hoya株式会社 Electronic endoscope system and data processing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199635A1 (en) * 2016-05-18 2017-11-23 オリンパス株式会社 Image analysis device, image analysis system, and method for operating image analysis device
WO2019083019A1 (en) * 2017-10-26 2019-05-02 富士フイルム株式会社 Medical image processing device and endoscope device
WO2020008834A1 (en) * 2018-07-05 2020-01-09 富士フイルム株式会社 Image processing device, method, and endoscopic system
WO2020054543A1 (en) * 2018-09-11 2020-03-19 富士フイルム株式会社 Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program
WO2020121906A1 (en) * 2018-12-13 2020-06-18 ソニー株式会社 Medical assistance system, medical assistance device, and medical assistance method
WO2020218029A1 (en) * 2019-04-26 2020-10-29 Hoya株式会社 Electronic endoscope system and data processing device

Similar Documents

Publication Publication Date Title
Ohmori et al. Endoscopic detection and differentiation of esophageal lesions using a deep neural network
Nakagawa et al. Classification for invasion depth of esophageal squamous cell carcinoma using a deep neural network compared with experienced endoscopists
JP6875709B2 (en) A computer-readable recording medium that stores a disease diagnosis support method, a diagnosis support system, a diagnosis support program, and this diagnosis support program using endoscopic images of the digestive organs.
EP3449800B1 (en) Medical image processing apparatus, endoscope apparatus, diagnostic support apparatus, and medical service support apparatus
JP5800468B2 (en) Image processing apparatus, image processing method, and image processing program
US20180247107A1 (en) Method and system for classification of endoscopic images using deep decision networks
JP4652023B2 (en) Image data processing method and apparatus useful for disease detection
WO2012114600A1 (en) Medical image processing device and medical image processing method
JP7034102B2 (en) Systems and methods for assessing and monitoring mucosal disease in the subject&#39;s gastrointestinal tract
CN113573654A (en) AI system for detecting and determining lesion size
Shimamoto et al. Real-time assessment of video images for esophageal squamous cell carcinoma invasion depth using artificial intelligence
WO2020121906A1 (en) Medical assistance system, medical assistance device, and medical assistance method
JP2023021440A (en) Detection of pathologies in ocular images
WO2007119297A1 (en) Image processing device for medical use and image processing method for medical use
JP2015509026A (en) System and method for displaying motility events in an in-vivo image stream
JP2015509026A5 (en)
JP7411618B2 (en) medical image processing device
JP2012045056A (en) Image processor, image processing method, and image processing program
JPWO2020008651A1 (en) An image processing device for an endoscope, an image processing method for an endoscope, and an image processing program for an endoscope.
JP2007151645A (en) Medical diagnostic imaging support system
US20230255467A1 (en) Diagnostic imaging device, diagnostic imaging method, diagnostic imaging program, and learned model
JPWO2020040086A1 (en) Medical image processing system
KR20230097646A (en) Artificial intelligence-based gastroscopy diagnosis supporting system and method to improve gastro polyp and cancer detection rate
JP2006325640A (en) Method of displaying abnormal shadow candidate and medical image processing system
WO2023026538A1 (en) Medical assistance system, medical assistance method, and evaluation assistance device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22860836

Country of ref document: EP

Kind code of ref document: A1