WO2012032734A1 - 誤診原因検出装置及び誤診原因検出方法 - Google Patents

誤診原因検出装置及び誤診原因検出方法 Download PDF

Info

Publication number
WO2012032734A1
WO2012032734A1 PCT/JP2011/004780 JP2011004780W WO2012032734A1 WO 2012032734 A1 WO2012032734 A1 WO 2012032734A1 JP 2011004780 W JP2011004780 W JP 2011004780W WO 2012032734 A1 WO2012032734 A1 WO 2012032734A1
Authority
WO
WIPO (PCT)
Prior art keywords
interpretation
image
result
diagnosis
interpreter
Prior art date
Application number
PCT/JP2011/004780
Other languages
English (en)
French (fr)
Inventor
和豊 高田
貴史 續木
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN201180007768.6A priority Critical patent/CN102741849B/zh
Priority to JP2011553996A priority patent/JP4945705B2/ja
Publication of WO2012032734A1 publication Critical patent/WO2012032734A1/ja
Priority to US13/454,239 priority patent/US20120208161A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data

Definitions

  • the present invention relates to a misdiagnosis cause detection device and a misdiagnosis cause detection method.
  • misdiagnosis of doctors with little interpretation experience has become a major problem due to the chronic shortage of interpretation doctors.
  • “probability of presence diagnosis” and “error of qualitative diagnosis” have a great influence on the prognosis of patients.
  • An error in the presence diagnosis is missing a lesion.
  • An error in qualitative diagnosis is a mistake in the diagnosis of the detected lesion.
  • CAD Computer Aided Diagnosis
  • measures against “error in qualitative diagnosis” are taken by interpretation education by experienced doctors.
  • a veteran doctor educates a new doctor, in addition to determining whether the diagnosis is correct, the veteran doctor gives detailed instructions according to the cause of the misdiagnosis of the new doctor. For example, when the determination of “A cancer” is mistaken and the diagnosis flow for determining A cancer is wrong, the diagnosis flow is taught. On the other hand, when the recognition of the image pattern corresponding to the diagnosis flow of A cancer is incorrect, the image pattern is taught.
  • Patent Document 1 has a problem that the cause of misdiagnosis cannot be detected.
  • the first cause is that the association between the case and the diagnosis flow is incorrect.
  • the second cause is that the association between the case and the image pattern is incorrect.
  • the interpreter learns the diagnosis flow for each case and makes a diagnosis according to the diagnosis flow.
  • diagnosis is performed while checking the diagnosis items included in the diagnosis flow.
  • the image interpreter directly associates and stores each case and the image pattern, and performs diagnosis by image pattern matching. That is, the misdiagnosis that occurs in the radiogram interpreter occurs when incorrect knowledge is obtained in any of the learning processes described above.
  • an object of the present invention is to provide a device for detecting a cause of misdiagnosis and a method for detecting the cause of misdiagnosis when an interpreter makes a misdiagnosis.
  • a misdiagnosis cause detection device is an interpretation image of an interpretation report that is a set of an interpretation image for image diagnosis and a definitive diagnosis result for the interpretation image.
  • An interpretation image presentation unit for presenting a certain target interpretation image to an interpreter, a first interpretation result as an interpretation result by the interpreter for the target interpretation image, and a time required for the interpretation by the interpreter to interpret the target interpretation image.
  • An interpretation result acquisition unit that acquires an interpretation time, and a determination of whether the first interpretation result is correct by comparing a definitive diagnosis result with respect to the target interpretation image and the first interpretation result acquired by the interpretation result acquisition unit When the interpretation result determination unit and the interpretation result determination unit determine that the first interpretation result is incorrect, (a) the interpretation time acquired by the interpretation result acquisition unit is longer than a threshold value.
  • a first selection process for selecting an attribute of a teaching content for teaching a diagnosis flow of a case having a case name indicated by the first interpretation result as an attribute of the teaching content presented to the interpreter b) If the interpretation time is equal to or less than the threshold, the teaching content attribute for teaching the image pattern of the case of the case name indicated by the first interpretation result is used as the teaching content attribute to be presented to the interpreter.
  • a teaching content attribute selection unit that executes at least one of the second selection processes to be selected.
  • the above-mentioned misdiagnosis causes can be classified using the interpretation time.
  • the image interpretation time is long because the image reader performs diagnosis while confirming the diagnosis flow step by step.
  • the interpreter does not need to check the diagnosis flow, and the diagnosis is performed mainly from the image pattern, so that the interpretation time is shortened.
  • the image interpreter can select the teaching content that can appropriately correct the cause of the misdiagnosis. Further, it is possible to reduce the search time by the interpreter of the teaching content to be referred to at the time of misdiagnosis, and to shorten the learning time of the interpreter.
  • the present invention can be realized not only as a misdiagnosis cause detection device including such a characteristic processing unit, but also as a misdiagnosis having steps executed by a characteristic processing unit included in the misdiagnosis cause detection device.
  • This can be realized as a cause detection method. It can also be realized as a program for causing a computer to function as a characteristic processing unit included in the misdiagnosis cause detection device. It can also be realized as a program that causes a computer to execute characteristic steps included in the misdiagnosis cause detection method. Needless to say, such a program can be distributed through a computer-readable non-volatile recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet.
  • CD-ROM Compact Disc-Read Only Memory
  • the cause of misdiagnosis can be detected.
  • FIG. 1 is a block diagram showing a characteristic functional configuration of an image interpretation education apparatus according to Embodiment 1 of the present invention.
  • FIG. 2A is a diagram illustrating an example of an ultrasound image as an interpretation image stored in an interpretation report database.
  • FIG. 2B is a diagram illustrating an example of interpretation information stored in the interpretation report database.
  • FIG. 3 is a diagram illustrating an example of an image presented by the interpretation image presenting unit.
  • FIG. 4 is a diagram illustrating an example of a representative image and an interpretation flow.
  • FIG. 5 is a diagram illustrating an example of a histogram of interpretation time.
  • FIG. 6 is a diagram illustrating an example of a teaching content database.
  • FIG. 1 is a block diagram showing a characteristic functional configuration of an image interpretation education apparatus according to Embodiment 1 of the present invention.
  • FIG. 2A is a diagram illustrating an example of an ultrasound image as an interpretation image stored in an interpretation report database.
  • FIG. 2B is a diagram illustrating an example of
  • FIG. 7 is a flowchart showing a flow of overall processing executed by the image interpretation education apparatus according to Embodiment 1 of the present invention.
  • FIG. 8 is a flowchart showing a detailed processing flow of the teaching content attribute selection process (step S105 in FIG. 7) by the teaching content attribute selection unit.
  • FIG. 9 is a diagram illustrating an example of a screen output to the output medium by the output unit.
  • FIG. 10 is a diagram illustrating an example of a screen output to the output medium by the output unit.
  • FIG. 11 is a block diagram showing a characteristic functional configuration of the image interpretation education apparatus according to Embodiment 2 of the present invention.
  • FIG. 12A is a diagram illustrating an example of a misdiagnosis location on an interpretation image.
  • FIG. 12A is a diagram illustrating an example of a misdiagnosis location on an interpretation image.
  • FIG. 12B is a diagram illustrating an example of a misdiagnosis location on the diagnosis flow.
  • FIG. 13 is a flowchart showing the flow of overall processing executed by the image interpretation education apparatus according to Embodiment 2 of the present invention.
  • FIG. 14 is a flowchart showing a detailed process flow of the misdiagnosis location extraction process (step S301 in FIG. 13) by the misdiagnosis location extraction unit.
  • FIG. 15 is a diagram illustrating an example of representative images and diagnosis items of two cases.
  • FIG. 16 is a diagram illustrating an example of a screen output to the output medium by the output unit.
  • FIG. 17 is a diagram illustrating an example of a screen output to the output medium by the output unit.
  • the misdiagnosis cause detection device has an input diagnosis result (when a misdiagnosis occurs for image interpretation such as an ultrasound image, a CT (Computed Tomography) image, or a nuclear magnetic resonance image) ( Hereinafter, whether the cause of the misdiagnosis is caused by the image pattern or the diagnosis flow from the “interpretation result” and the diagnosis time (hereinafter also referred to as “interpretation time”). And presenting teaching content suitable for the cause of misdiagnosis of the interpreter.
  • the misdiagnosis cause detection apparatus interprets a target interpretation image that is an interpretation image among interpretation reports that are a combination of an interpretation image for image diagnosis and a definitive diagnosis result for the interpretation image.
  • the second selection process of selecting the attribute of the teaching content for teaching the image pattern of the case with the case name indicated by the first interpretation result as the attribute of the teaching content presented to the radiogram interpreter if And a teaching content attribute selection unit that executes at least one of the selection processes.
  • the cause of misdiagnosis can be classified using the interpretation time.
  • an error in association between a case and a diagnosis flow occurs, the image interpretation time is long because the image reader performs diagnosis while confirming the diagnosis flow step by step.
  • an error in association between a case and an image pattern occurs, it is considered that learning of the diagnosis flow has already been completed and the interpreter is familiar with the diagnosis flow. For this reason, the interpreter does not need to check the diagnosis flow, and the diagnosis is performed mainly from the image pattern, so that the interpretation time is shortened.
  • the image interpreter can select the teaching content that can appropriately correct the cause of the misdiagnosis. Further, it is possible to reduce the search time by the interpreter of the teaching content to be referred to at the time of misdiagnosis, and to shorten the learning time of the interpreter.
  • the radiogram interpreter can select teaching contents that can appropriately correct the diagnosis flow causing the misdiagnosis.
  • the interpreter can search for the teaching content for teaching the diagnosis flow immediately as the teaching content to be referred to at the time of misdiagnosis, and the learning time of the interpreter can be shortened.
  • the interpretation time is less than or equal to the threshold value, it can be determined that a misdiagnosis has occurred due to an “incorrect association between a case and an image pattern”. For this reason, the attribute of the teaching content for teaching the image pattern can be selected.
  • the radiogram interpreter can select teaching content that can appropriately correct the image pattern causing the misdiagnosis.
  • the interpreter can search for the teaching content for teaching the image pattern immediately as the teaching content to be referred to at the time of misdiagnosis, and the learning time of the interpreter can be shortened.
  • the interpretation report further includes a second interpretation result that is an interpretation result that has already been performed on the interpretation image, and the interpretation image presentation unit matches the final diagnosis result with the second interpretation result.
  • the image interpretation image included in the image interpretation report may be presented to the image interpreter.
  • the above-described misdiagnosis cause detection device further includes, for each case name, teaching content for teaching the diagnosis flow of the case with the case name and teaching content for teaching the image pattern of the case with the case name.
  • An output unit is provided that acquires the teaching content of the attribute selected by the teaching content attribute selection unit for the case with the case name indicated by the first interpretation result from the stored teaching content database, and outputs the acquired teaching content. .
  • the interpretation report further includes a diagnosis result for each of the plurality of diagnosis items, and the interpretation result acquisition unit further displays a diagnosis result performed by the interpreter for each of the plurality of diagnosis items.
  • the misdiagnosis cause detection device may further include a misdiagnosis location extraction unit that extracts a diagnosis item in which the diagnosis result included in the interpretation report is different from the diagnosis result acquired by the interpretation result acquisition unit. Good.
  • the above-described misdiagnosis cause detection device further includes, for each case name, teaching content for teaching a diagnosis flow of a case with the case name and teaching content for teaching an image pattern of a case with the case name.
  • teaching content for teaching a diagnosis flow of a case with the case name
  • teaching content for teaching an image pattern of a case with the case name.
  • An output unit is provided that creates teaching content in which a portion corresponding to the diagnostic item extracted by the extraction unit is emphasized and outputs the created teaching content.
  • the threshold value may be different for each case name indicated by the first interpretation result.
  • misdiagnosis cause detection apparatus and the misdiagnosis cause detection method of the present invention will be described.
  • the misdiagnosis cause detection device of the present invention is applied to an interpretation education device for an interpreter.
  • the present invention can be applied to devices other than the interpretation education device described in the following embodiments.
  • a device that detects the cause of misdiagnosis and presents the cause of misdiagnosis to the interpreter when the interpreter is actually making a diagnosis by interpretation.
  • FIG. 1 is a block diagram showing a characteristic functional configuration of an interpretation education apparatus 100 according to Embodiment 1 of the present invention.
  • an interpretation education apparatus 100 is an apparatus that presents educational content according to an interpretation result of an interpreter.
  • the interpretation interpretation apparatus 100 includes an interpretation report database 101, an interpretation image presentation unit 102, an interpretation result acquisition unit 103, an interpretation result determination unit 104, a teaching content attribute selection unit 105, a teaching content database 106, and an output unit 107.
  • the interpretation report database 101 is a storage device including, for example, a hard disk and a memory.
  • the interpretation report database 101 is a database that stores an interpretation image to be presented to an interpreter and interpretation information corresponding to the interpretation image.
  • the interpretation image is an image used for image diagnosis and indicates image data stored in an electronic medium.
  • the interpretation information is information indicating not only the interpretation result of the interpretation image but also the result of definitive diagnosis such as biopsy performed after the image diagnosis.
  • FIG. 2A and 2B are diagrams respectively showing an example of an ultrasound image and interpretation information 21 as the interpretation image 20 stored in the interpretation report database 101.
  • the interpretation information 21 includes a patient ID 22, an image ID 23, a definitive diagnosis result 24, an interpreter ID 25, a diagnostic item determination result 26, an image finding 27, and an interpretation time 28.
  • Patient ID 22 indicates information for identifying a patient who is a subject of an interpretation image.
  • the image ID 23 indicates information for identifying the interpretation image 20.
  • the definitive diagnosis result 24 indicates the definitive diagnosis result of the patient indicated by the patient ID 22.
  • the definitive diagnosis result is a diagnosis result that reveals the true state of the subject patient by microscopic pathological examination of the specimen obtained by surgery or biopsy, or by various other means. is there.
  • the radiogram interpreter ID 25 indicates information for identifying the radiogram interpreter who interprets the radiogram image 20 having the image ID 23.
  • the diagnosis item determination result 26 indicates information on the diagnosis result for each diagnosis item (described as item 1, item 2, etc. in FIG. 2B) defined for the interpretation image 20 with the image ID 23.
  • the image finding 27 is information indicating a result of diagnosis performed by the image interpreter with the image interpreter ID 25 on the image interpretation image 20 with the image ID 23.
  • the image findings 27 are information indicating a diagnosis result (interpretation result) including a disease name and a diagnosis reason (interpretation reason).
  • the interpretation time 28 is information indicating the time from the start of interpretation to the end of interpretation.
  • the interpretation report database 101 is provided in the interpretation education apparatus 100 .
  • the interpretation education apparatus to which the present invention is applied is not limited to such an interpretation education apparatus.
  • the interpretation report database 101 may be provided on a server connected to the interpretation education apparatus via a network.
  • the interpretation information 21 may be included as attached data in the interpretation image 20.
  • the interpretation image presentation unit 102 acquires the interpretation image 20 that is the subject of the diagnostic test from the interpretation report database 101. Further, the interpretation image presentation unit 102 displays the acquired interpretation image 20 (target interpretation image) on a monitor such as a liquid crystal display (not shown) or a television together with an input form of diagnostic items and image findings for the interpretation image 20.
  • FIG. 3 is a diagram showing an example of a presentation screen by the interpretation image presentation unit 102.
  • the presentation screen includes an interpretation image 20 as a diagnostic test target, an answer form for a diagnostic result for a diagnostic item, an input form for the diagnostic item input area 30 as an example, and an input form for an image finding. And an input form using the image finding input area 31 as an example.
  • the diagnostic item input area 30 items corresponding to the diagnostic item determination result 26 of the interpretation report database 101 are described.
  • the image finding input area 31 items corresponding to the image findings 27 of the interpretation report database 101 are described.
  • the interpretation image presentation unit 102 may select only the interpretation image 20 in which the definitive diagnosis result 24 and the image findings 27 match when acquiring the interpretation image 20 to be subjected to the diagnostic test from the interpretation report database 101.
  • the interpretation report database 101 there is an interpretation image 20 that cannot indicate a lesion that matches the definitive diagnosis result from the image alone due to image noise or characteristics of the imaging device of the interpretation image 20.
  • Such an image is an inappropriate image as an image for interpretation education intended to estimate a lesion using only the interpretation image 20.
  • a case where the definitive diagnosis result 24 and the image finding 27 coincide can be said to be a case that ensures that the same lesion as the definitive diagnosis result can be pointed out from the interpretation image 20.
  • the interpretation result acquisition unit 103 acquires the interpretation result of the interpreter for the interpretation image 20 presented by the interpretation image presentation unit 102. For example, information input to the diagnostic item input area 30 and the image finding input area 31 from a keyboard or a mouse is acquired and stored in a memory or the like. In addition, the interpretation result acquisition unit 103 acquires the time (interpretation time) from when the interpreter starts interpretation until it ends. The interpretation result acquisition unit 103 outputs the acquired information and interpretation time to the interpretation result determination unit 104 and the teaching content attribute selection unit 105. The interpretation time is measured by a timer (not shown) provided in the interpretation education apparatus 100.
  • the interpretation result determination unit 104 refers to the interpretation report database 101, compares the interpretation result of the interpreter acquired from the interpretation result acquisition unit 103 with the interpretation information 21 recorded in the interpretation report database 101, and interprets the interpreter. The correctness / incorrectness of the interpretation result is determined. Specifically, the interpretation result determination unit 104 includes the input result to the image interpretation input area 31 of the interpreter acquired from the interpretation result acquisition unit 103 and the definitive diagnosis result 24 of the interpretation image 20 acquired from the interpretation report database 101. Compare with information. The interpretation result determination unit 104 determines that the interpretation result is correct when they match, and determines that the interpretation result is erroneous (misdiagnosis) when they do not match.
  • the teaching content attribute selection unit 105 uses the interpretation result and interpretation time acquired from the interpretation result acquisition unit 103 and the result of correct / incorrect determination of the interpretation result acquired from the interpretation result determination unit 104 to teach content to be presented to the interpreter. Select an attribute. Further, the teaching content attribute selection unit 105 notifies the output unit 107 of the selected teaching content attribute. A specific method for selecting the teaching content attribute will be described later. Here, the teaching content attribute will be described.
  • the teaching content attribute is two types of identification information given to teaching content for teaching an accurate diagnosis method of a case.
  • teaching content attributes there are two types of teaching content attributes: an image pattern attribute and a diagnostic flow attribute.
  • the teaching content to which the image pattern attribute is given indicates content related to the representative interpretation image 20 for the case name.
  • the teaching content to which the diagnosis flow attribute is assigned indicates content related to the diagnosis flow for the case name.
  • FIG. 4 is a diagram showing an example of image pattern attribute content and diagnostic flow attribute content for “case name: hard cancer”.
  • the image pattern attribute content 40 is an interpretation image 20 showing a typical example of hard cancer.
  • diagnosis flow attribute content 41 is a flowchart for diagnosing hard cancer.
  • FIG. 4B “border unclear” or “border clear rough”, “front / rear tear”, “back echo weak”, and “internal echo extremely low”.
  • a diagnosis flow for diagnosing hard cancer is described.
  • Misdiagnosis is roughly divided into two causes. The first is an error in associating a diagnosis flow with a case stored by an interpreter. The second is an error in associating the case and the image pattern stored by the interpreter.
  • the interpreter determines individual diagnosis items for the interpretation image 20, and then combines the determination results of the diagnosis items with reference to the diagnosis flow to make a final diagnosis.
  • an interpreter who is not familiar with interpretation interprets the diagnosis flow one by one, and thus it takes time for interpretation.
  • an interpreter who has completed the first half of the learning process will perform the second half of the learning process, but in the second half of the learning process, the interpreter will determine a typical diagnostic item and then determine the typical diagnosis for each case name.
  • An image pattern is constructed in the head, and diagnosis is performed instantaneously while referring to the constructed image pattern.
  • the interpretation time of the interpreter in the second half of learning is relatively shorter than the interpretation time of the interpreter in the first half of learning. This is because, by experiencing many interpretations of the same case, the diagnostic flow becomes familiar and reference of the diagnostic flow becomes unnecessary. For this reason, the image interpreter in the second half of learning mainly diagnoses from the image pattern.
  • the image interpretation education apparatus 100 determines whether the cause of the misdiagnosis is caused by “an error in association between a case and a diagnosis flow (diagnosis flow attribute)” or “an error in association between a case and an image pattern (image pattern attribute)”. Is determined.
  • the interpretation interpretation education apparatus 100 can provide content that matches the cause of misdiagnosis of the interpreter by presenting the instruction content of the teaching content attribute corresponding to the cause of misdiagnosis to the interpreter.
  • FIG. 5 is a diagram showing a typical example of a histogram of interpretation time in the radiology department of a hospital.
  • the frequency (number of interpretations) in the histogram is approximated by a curved waveform.
  • the peak with the shorter interpretation time is due to the diagnosis by the image pattern
  • the peak with the longer interpretation time is due to the diagnosis by the diagnostic flow judgment
  • the teaching content database 106 is a database in which teaching content related to two attributes of an image pattern attribute and a diagnostic flow attribute selected by the teaching content attribute selection unit 105 is recorded.
  • FIG. 6 is an example of the teaching content database 106.
  • the teaching content database 106 includes a content attribute 60, a case name 61, and a content ID 62.
  • the teaching content database 106 lists the content IDs 62 so that the content IDs 62 can be easily obtained from the content attributes 60 and the case names 61.
  • the content attribute 60 is a diagnosis flow attribute and the case name 61 is hard cancer
  • the content ID 62 of the teaching content is F_001.
  • the teaching content corresponding to the content ID 62 is stored in the teaching content database 106.
  • the teaching content may not be stored in the teaching content database 106, and may be stored in, for example, an external server.
  • the output unit 107 acquires the content ID corresponding to the content attribute selected by the taught content attribute selection unit 105 and the case name misdiagnosed by the interpreter from the taught content database 106 by referring to the taught content database 106.
  • the output unit 107 outputs the teaching content corresponding to the acquired content ID to the output medium.
  • the output medium is a monitor such as a liquid crystal display or a television.
  • FIG. 7 is a flowchart showing an overall flow of processing executed by the image interpretation education apparatus 100.
  • the interpretation image presentation unit 102 acquires the interpretation image 20 that is the subject of the diagnostic test from the interpretation report database 101.
  • the image interpretation image presentation unit 102 presents the acquired image interpretation image 20 to a radiogram interpreter by displaying it on a monitor such as a liquid crystal display (not shown) or a television together with an input form for diagnostic items and image findings for the image interpretation image 20 (step). S101).
  • the image interpretation image 20 to be processed may be selected by the image interpreter or may be selected randomly.
  • the interpretation result acquisition unit 103 acquires the interpretation result of the interpreter for the interpretation image 20 presented by the interpretation image presentation unit 102.
  • the interpretation result acquisition unit 103 stores information input from a keyboard, a mouse, or the like in a memory or the like. Then, the interpretation result acquisition unit 103 notifies the acquired input to the interpretation result determination unit 104 and the teaching content attribute selection unit 105 (step S102). Specifically, the interpretation result acquisition unit 103 acquires information input from the interpretation image presentation unit 102 to the diagnostic item input area 30 and the image finding input area 31, respectively.
  • the interpretation result acquisition unit 103 acquires the interpretation time.
  • the interpretation result determination unit 104 refers to the interpretation report database 101 to compare the interpretation result of the interpreter acquired from the interpretation result acquisition unit 103 with the interpretation information 21 recorded in the interpretation report database 101.
  • the interpretation result determination unit 104 determines the correctness of the interpretation result of the interpreter from the comparison result (step S103). Specifically, the interpretation result determination unit 104 includes the input result to the image interpretation input area 31 of the interpreter acquired from the interpretation result acquisition unit 103 and the definitive diagnosis result 24 of the interpretation image 20 acquired from the interpretation report database 101. Compare with information.
  • the interpretation result determination unit 104 determines that the interpretation result is correct when they match, and determines that the interpretation result is erroneous (misdiagnosis) when they do not match.
  • the image finding input of the interpreter acquired in step S102 is “hard cancer” and the definitive diagnosis result acquired from the interpretation report database 101 is “hard cancer” for the image interpretation image A, the two match. Therefore, it is determined that it is not a misdiagnosis (correct answer).
  • the image finding input of the interpreter acquired in step S102 is “hard cancer” for the interpretation image A and the definitive diagnosis obtained from the interpretation report database 101 is other than “hard cancer”, both are It becomes inconsistent and it determines with a misdiagnosis.
  • step S102 when there are a plurality of diagnosis names acquired from step S102, if one of them matches the confirmed diagnosis result acquired from the interpretation report database 101, it may be determined that the answer is correct.
  • step S104 When the teaching content attribute selection unit 105 obtains a determination that there is a misdiagnosis from the interpretation result determination unit 104 (Yes in step S104), the input result and interpretation time from the interpretation result acquisition unit 103 to the image finding input area 31 Get each. Further, the teaching content attribute selection unit 105 selects the teaching content attribute using the interpretation time, and notifies the output unit 107 of the selected teaching content attribute (step S105). Details of the teaching content attribute selection process (step S105) will be described later.
  • the output unit 107 refers to the teaching content database 106, and the teaching content database 106 indicates the content ID corresponding to the teaching content attribute selected by the teaching content attribute selection unit 105 and the case name misdiagnosed by the interpreter. Get more. Further, the output unit 107 acquires the teaching content corresponding to the acquired content ID from the teaching content database 106 and outputs it to the output medium (step S106).
  • FIG. 8 is a flowchart showing a detailed processing flow of the teaching content attribute selection process (step S105 in FIG. 7) by the teaching content attribute selection unit 105.
  • the teaching content attribute selection method using the interpretation time of the interpreter will be described with reference to FIG.
  • the teaching content attribute selection unit 105 acquires the image findings input by the interpreter from the interpretation result acquisition unit 103 (step S201).
  • the teaching content attribute selection unit 105 acquires the interpretation time of the interpreter from the interpretation result acquisition unit 103 (step S202).
  • the interpretation time of the interpreter may be measured by a timer provided inside the interpretation education apparatus 100. For example, the user presses a start button displayed on the screen at the start of interpretation (when an interpretation image is presented), and the user presses an end button displayed on the screen at the end of interpretation.
  • the teaching content attribute selection unit 105 may acquire the time from when the start button counted by the timer is pressed until the end button is pressed as the interpretation time.
  • the teaching content attribute selection unit 105 calculates a threshold of interpretation time for determining the teaching content attribute (step S203).
  • a threshold calculation method is to create a histogram of interpretation time from interpretation time of data recorded in the interpretation report database 101, and to determine a discrimination threshold (Non-Patent Document: “Image Processing Handbook”, pp. 278, (See Shoshodo, 1992). Thereby, a threshold value can be set in a valley portion located between two peaks in the histogram as shown in FIG.
  • the threshold of interpretation time may be obtained for each case name judged by the interpreter.
  • the frequency of occurrence of diagnosis flow or the frequency of occurrence of cases varies depending on the site or case name to be examined. For this reason, the interpretation time may be different.
  • case names with a short diagnosis flow include some hard cancers and invasive lobular cancers. Since the case name can be determined only by the boundary property of the tumor, the time for determining the case name is also shorter than the other case names.
  • case names having a long diagnosis flow include some cysts and mucinous cancer. Since these are case names that can be determined using the shape and aspect ratio in addition to the boundary of the mass, the interpretation time becomes longer for some hard cancers and invasive lobular cancers.
  • the interpretation time varies depending on the occurrence frequency of case names. For example, the occurrence frequency of “hard cancer” in breast disease is about 30%, while the occurrence frequency of “medullary cancer” is about 0.5%. Cases with a high frequency of occurrence are frequently seen clinically, so that diagnosis can be made earlier, and the interpretation time is shortened compared with cases with a low frequency of occurrence.
  • the accuracy of attribute classification can be improved by obtaining a threshold value for each part or for each case name.
  • the threshold for the interpretation time may be calculated in synchronization with the update of the interpretation report database 101 and stored in the interpretation report database 101.
  • the calculation of the threshold value may be performed by the teaching content attribute selection unit 105 or may be performed by another processing unit. This eliminates the need for threshold calculation every time the radiogram interpreter inputs diagnostic items each time. For this reason, the processing time of the image interpretation education apparatus 100 can be shortened, and the teaching content can be presented to the image interpreter in a shorter time.
  • the teaching content attribute selecting unit 105 determines whether or not the interpretation time of the interpreter acquired in step S202 is greater than the threshold calculated in step S203 (step S204). If the interpretation time is greater than the threshold (Yes in step S204), the teaching content attribute selection unit 105 selects a diagnostic flow attribute as the teaching content attribute (step S205). On the other hand, when the interpretation time is equal to or less than the threshold (No in step S204), the teaching content attribute selection unit 105 selects an image pattern attribute as the teaching content attribute (step S206).
  • the teaching content attribute selection unit 105 can select the teaching content attribute according to the cause of misdiagnosis of the interpreter.
  • FIG. 9 is a diagram illustrating an example of a screen output to the output medium by the output unit 107 when the teaching content attribute selection unit 105 selects an image pattern attribute.
  • the output unit 107 presents an interpretation image that the interpreter makes a determination error, an interpretation result (interpreter answer) of the interpreter, and a definitive diagnosis result (correct answer).
  • the output unit 107 presents a representative image of the case name corresponding to the interpreter's answer along with the presentation.
  • the image pattern attribute it is considered that the interpreter is familiar with the diagnosis flow of “hard cancer”.
  • FIG. 10 is a diagram illustrating an example of a screen output to the output medium by the output unit 107 when the teaching content attribute selection unit 105 selects the diagnosis flow attribute.
  • the output unit 107 like FIG. 9 (a), interprets an image that the interpreter makes a mistake in determination, an interpretation result (interpreter's answer) of the interpreter, and a definitive diagnosis result. (Correct).
  • the output unit 107 presents the diagnosis flow of the case name corresponding to the interpreter's answer along with the presentation.
  • a misdiagnosis occurs because the diagnostic flow of the radiogram interpreter for “hard cancer” is incorrectly associated. Therefore, by presenting the correct diagnosis flow for the “hard cancer” that is the interpreter's answer, the knowledge of the diagnosis flow of “hard cancer” that is erroneously recognized by the interpreter can be corrected.
  • the interpretation education apparatus 100 can present the teaching content according to the cause of the misdiagnosis of the interpreter by executing the processing of steps S101 to S106 shown in FIG. For this reason, the learning time is shortened, and an efficient interpretation method can be learned.
  • the image interpretation education apparatus 100 it is possible to determine the cause of misdiagnosis using the interpretation time of the interpreter and automatically select teaching contents according to the determined cause of misdiagnosis. For this reason, the interpreter can learn the interpretation method efficiently without being given unnecessary teaching content.
  • Embodiment 2 An interpretation education apparatus according to Embodiment 2 of the present invention will be described.
  • interpretation education apparatus 100 classifies the cause of misdiagnosis of an interpreter into one of two types of attributes “diagnosis flow attribute” and “image pattern attribute” using the interpretation time.
  • the teaching content corresponding to the attribute is presented.
  • the interpretation education apparatus according to the present embodiment emphasizes and presents the location (misdiagnosis location) that caused the misdiagnosis for the content taught when the interpreter misdiagnose.
  • the background of the problem to be solved by this embodiment is as follows. For example, when an interpreter misdiagnoses “papillary duct cancer” as “hard cancer” in the ultrasound image diagnosis of the mammary gland, the difference between the diagnosis flow of “hard cancer” and the diagnosis flow of “papillary duct cancer” (different) (Part) includes “internal echo”, “backward echo”, and “boundary property”. In order for the image interpreter to learn the image interpretation method correctly, it is necessary to recognize all these differences. However, for example, simply presenting the diagnosis flow of hard cancer and papillary ductal cancer may partially miss the difference between the two diagnosis flows, and may not be correctly learned. Also, the act of searching for the difference between the two diagnostic flows itself increases the learning time, resulting in a decrease in learning efficiency.
  • the interpretation education apparatus can present the teaching content by emphasizing the misdiagnosis location of the interpreter, and can improve the learning efficiency.
  • FIG. 11 is a block diagram showing a characteristic functional configuration of the image interpretation education apparatus 200 according to Embodiment 2 of the present invention.
  • the same components as those in FIG. 11 are identical to FIG. 11 and the same components as those in FIG. 11;
  • Interpretation education apparatus 200 includes interpretation report database 101, interpretation image presentation unit 102, interpretation result acquisition unit 103, interpretation result determination unit 104, teaching content attribute selection unit 105, teaching content database 106, output unit 107, and misdiagnosis location extraction unit. 201.
  • the difference between the image interpretation education apparatus 200 shown in FIG. 11 and the image interpretation education apparatus 100 shown in FIG. 1 is that a misdiagnosis location of the image interpreter is extracted from the result input to the diagnosis item input area 30 acquired from the image interpretation result acquisition unit 103. It is a point which has the misdiagnosis location extraction part 201 to do.
  • the misdiagnosis location extraction unit 201 includes, for example, a CPU and a memory storing a program executed by the CPU.
  • the misdiagnosis location extraction unit 201 is based on the determination result input to the diagnosis item input area 30 acquired by the interpretation result acquisition unit 103 and the diagnosis item determination result 26 included in the interpretation information 21 stored in the interpretation report database 101.
  • the misdiagnosis location of the radiogram interpreter is extracted and notified to the output unit 107. A specific misdiagnosis location extraction method will be described later.
  • Misdiagnostic points are defined as diagnostic items or areas on the representative image where misdiagnosis occurred during the interpretation process.
  • the interpretation process can be roughly divided into two processes, “visual recognition” and “diagnosis”.
  • the misdiagnosis location in the visual recognition process corresponds to a specific image area on the interpretation image 20, and misdiagnosis in the diagnostic process.
  • a location corresponds to a specific diagnostic item in the diagnostic flow.
  • FIG. 12A and FIG. 12B show an example of a misdiagnosis location in a mammary gland ultrasound image.
  • the misdiagnosis location on the interpretation image 20 indicates the misdiagnosis location 70, which is the corresponding image area, as shown in FIG. 12A. Further, as shown in FIG. 12B, the misdiagnosis location on the diagnosis flow indicates a misdiagnosis location 71 corresponding to the misdiagnosis item.
  • misdiagnosis locations can reduce the time required to detect misdiagnosed locations by the interpreter, thereby improving learning efficiency.
  • FIG. 13 is a flowchart showing an overall flow of processing executed by the image interpretation education apparatus 200. In FIG. 13, steps in which the same process as the process of the image interpretation education apparatus 100 of the first embodiment shown in FIG.
  • the process of extracting the misdiagnosis location of the interpreter from the determination result input to the diagnostic item input area 30 acquired from the interpretation result acquisition unit 103 is the interpretation education according to the first embodiment. This is different from the processing in the apparatus 100. However, other processes are the same as those of the image interpretation training apparatus 100 of the first embodiment. Specifically, in FIG. 13, the processing of steps S101 to S105 executed by the interpretation education apparatus 200 is the same as the processing of the interpretation education apparatus 100 of Embodiment 1 shown in FIG.
  • the misdiagnosis location extraction unit 201 extracts the misdiagnosis location of the interpreter using the determination result input to the diagnosis item input area 30 acquired from the interpretation result acquisition unit 103 (step S301).
  • the output unit 107 acquires the teaching content from the teaching content database 106 and outputs it to the output medium, similarly to step S106 shown in FIG. However, the output unit 107 performs output after emphasizing the misdiagnosis location extracted by the misdiagnosis location extraction unit 201 when outputting the teaching content (step S302). A specific example of emphasis will be described later.
  • FIG. 14 is a flowchart showing a detailed process flow of the process (step S301 in FIG. 13) by the misdiagnosis point extraction unit 201.
  • a method for extracting a misdiagnosis location of a radiogram interpreter will be described with reference to FIG.
  • the misdiagnosis location extraction unit 201 acquires the determination result input to the diagnostic item input area 30 from the interpretation result acquisition unit 103 (step S401).
  • the misdiagnosis location extraction unit 201 acquires the diagnosis item determination result 26 having the same image findings 27 as the confirmed diagnosis result 24 for the interpretation image to be diagnosed from the interpretation report database 101 (step S402).
  • the misdiagnosis location extraction unit 201 extracts a diagnosis item in which the determination result input in the diagnosis item input area 30 input by the image interpreter acquired in step S401 is different from the diagnosis item determination result 26 acquired in step S402 (step S402). S403). That is, the misdiagnosis location extraction unit 201 extracts these different diagnosis items as misdiagnosis locations.
  • FIG. 15 shows representative images of “A cancer” and “B cancer” and examples of diagnostic items.
  • the difference processing in step S403 will be described with reference to FIG. Now, suppose that the interpreter misdiagnoses A cancer for an image to be interpreted whose correct answer is B cancer. At this time, in order to identify which part was erroneously learned with respect to each diagnosis item determined as A cancer, the diagnosis item by the interpreter misdiagnosed as A cancer and the correct diagnosis of B cancer What is necessary is just to extract the diagnostic item from which a determination result differs between items. In the example of FIG.
  • the internal echo 80 and the back echo 81 which are diagnostic items having different determination results between the diagnostic item by the interpreter misdiagnosed as A cancer and the diagnostic item of the correct B cancer, are extracted as misdiagnosis locations. Is done. That is, regarding the internal echo 80, the diagnosis result of cancer A is “low” while the diagnosis result of cancer B is “very low”, so the internal echo 80 is extracted as a misdiagnosis location. Further, regarding the rear echo 81, the diagnosis result of the A cancer is “attenuated”, whereas the diagnosis result of the B cancer is “invariant”, so the rear echo 81 is extracted as a misdiagnosis location.
  • the misdiagnosis location extraction unit 201 can extract the misdiagnosis location of the interpreter.
  • step S302 in FIG. 13 The processing by the output unit 107 (step S302 in FIG. 13) will be described with a specific example.
  • FIG. 16 is a diagram illustrating an example of a screen output to the output medium by the output unit 107 when a misdiagnosis location is extracted by the misdiagnosis location extraction unit 201.
  • the output unit 107 emphasizes and presents an image region corresponding to a misdiagnosis location that is a difference in diagnosis items from a correct case on a representative image of a case name misdiagnosed by an interpreter.
  • the image areas corresponding to “rear echo” and “internal echo”, which are diagnostic items with different determination results between “hard cancer” and “invasive ductal carcinoma”, are highlighted by arrows. It is displayed.
  • the position information of the image region to be emphasized may be stored in the teaching content database 106 in association with the diagnosis item in advance.
  • the output unit 107 refers to the teaching content database 106 based on the misdiagnosis location (diagnostic item) extracted by the misdiagnosis location extraction unit 201, and acquires the position information of the image region to be emphasized, and based on the acquired location information.
  • the position information of the image area to be emphasized may be stored in a place other than the teaching content database 106. Further, the position information of the image area to be emphasized may not be stored in any place. In that case, the output unit 107 may detect an image area to be enhanced by performing image processing.
  • FIG. 17 is a diagram illustrating an example of a screen output to the output medium by the output unit 107 when the misdiagnosis location extraction unit 201 extracts a misdiagnosis location.
  • the output unit 107 presents a diagnosis flow region that is a difference in diagnosis items from the correct case on the diagnosis flow of the case name misdiagnosed by the radiogram interpreter.
  • the diagnostic flow regions corresponding to “rear echo” and “internal echo”, which are diagnostic items having different determination results between “hard cancer” and “invasive breast cancer” are indicated by broken lines. It is highlighted by being surrounded by and indicated by an arrow.
  • the image interpretation education apparatus 200 can present the misdiagnosis location of the image interpreter to the output unit 107, thereby reducing oversight of the misdiagnosis location and search time. Learning efficiency can be improved.
  • the essential components of the image interpretation education apparatus are an image interpretation image presentation unit 102, an image interpretation result acquisition unit 103, an image interpretation result determination unit 104, and a teaching content attribute selection unit 105.
  • the component does not necessarily have to be provided.
  • each of the above devices may be specifically configured as a computer system including a microprocessor, ROM, RAM, hard disk drive, display unit, keyboard, mouse, and the like.
  • a computer program is stored in the RAM or hard disk drive.
  • Each device achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • the system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • each of the above-described devices may be configured from an IC card or a single module that can be attached to and detached from each device.
  • the IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention provides a non-volatile recording medium that can read the computer program or the digital signal, such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray). -Ray Disc (registered trademark)), recorded in a semiconductor memory, or the like.
  • the digital signal may be recorded on these non-volatile recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, data broadcasting, or the like.
  • the present invention may also be a computer system including a microprocessor and a memory.
  • the memory may store the computer program, and the microprocessor may operate according to the computer program.
  • the present invention can be used as a device for detecting the cause of misdiagnosis from the interpretation input of the interpreter.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

 読影教育装置(100)は、対象読影画像を読影者に提示する読影画像提示部(102)と、対象読影画像に対する読影者による読影結果である第1読影結果と読影者が対象読影画像の読影に要した時間である読影時間とを取得する読影結果取得部(103)と、対象読影画像に対する確定診断結果と読影結果取得部(103)が取得した第1読影結果とを比較することにより、第1読影結果の正誤を判定する読影結果判定部(104)と、第1読影結果を誤りであると判定したときに、読影時間に基づいて、読影者に提示する教示コンテンツの教示内容の属性を選択する教示コンテンツ属性選択部(105)とを備える。

Description

誤診原因検出装置及び誤診原因検出方法
 本発明は、誤診原因検出装置及び誤診原因検出方法に関する。
 慢性的な読影医不足により、読影経験の少ない医師の誤診が大きな問題になっている。誤診の中で患者の予後に大きな影響を与えるのは「存在診断の誤り」と「質的診断の誤り」である。存在診断の誤りとは、病変を見落とすことである。質的診断の誤りとは、検出した病変の診断を間違えることである。
 このような誤診を防止するために、それぞれの誤りに応じた対策が行われている。「存在診断の誤り」に対しては、コンピュータが自動的に病変領域を検出するCAD(Computer Aided Diagnosis)等による検出支援のアプローチが行われている。これにより、病変の見落とし防止に効果をあげている。
 一方で、「質的診断の誤り」に対しては、ベテランの医師による読影教育により防止策が講じられている。ベテラン医師は、新人医師を教育する場合には、診断の正誤判断に加え、新人医師の誤診原因に応じた細やかな教示を行う。例えば、「A癌」の判定を間違えたときにおいて、A癌と判定するための診断フローが誤っている場合には、その診断フローについての教示を行う。一方、A癌の診断フローに対応する画像パタンの認識が誤っている場合には、画像パタンを教示する。
 上記誤診の問題に対し、医師(読影者)の読影時間(読影に要した時間)から誤診の抽出を行う方法が提案されている(例えば、特許文献1参照)。特許文献1に記載の方法では、過去の読影データベースから標準読影時間を算出し、読影時間が標準読影時間を超えた場合に誤診の可能性があると判断する。これにより、一部の症例については誤診判定を瞬時に行うことができる。
特開2009-82182号公報
 しかし、特許文献1に記載の装置では誤診原因の検出を行うことができないという課題がある。
 誤診には大きく2つの原因が考えられる。1つ目の原因は、症例と診断フローの対応付けが誤っていることである。2つ目の原因は、症例と画像パタンの対応付けが誤っていることである。
 誤診原因を上記2種類に分類できる理由は、読影者の読影技術の学習過程が2段階に分かれることに起因する。
 学習過程の初めの段階では、読影者は各症例の診断フローを学習し、診断フローに沿った診断を行う。この段階では、診断フローに含まれる診断項目を逐一確認しながら診断を行う。次の段階では、読影者は各症例と画像パタンとを直接結び付けて記憶し、画像のパタンマッチングにより診断を行う。すなわち、読影者に生じる誤診は、上述のいずれかの学習過程において、誤った知識が得られた場合に生じることになる。
 よって、誤診時には、「症例と診断フローの対応付けの誤り」か「症例と画像パタンの対応付けの誤り」か、を判定し、読影者に提示する必要がある。
 そこで本発明は、上記課題を解決するためになされたものであり、読影者が誤診をした際に、誤診原因を検出する装置及び誤診原因を検出する方法を提供することを目的とする。
 上記課題を解決するために、本発明のある局面に係る誤診原因検出装置は、画像診断のための読影画像と前記読影画像に対する確定診断結果との組である読影レポートのうち、前記読影画像である対象読影画像を読影者に提示する読影画像提示部と、前記対象読影画像に対する前記読影者による読影結果である第1読影結果と前記読影者が前記対象読影画像の読影に要した時間である読影時間とを取得する読影結果取得部と、前記対象読影画像に対する確定診断結果と前記読影結果取得部が取得した前記第1読影結果とを比較することにより、前記第1読影結果の正誤を判定する読影結果判定部と、前記読影結果判定部が前記第1読影結果を誤りであると判定したときに、(a)前記読影結果取得部が取得した前記読影時間が閾値よりも大きければ、前記読影者に提示する前記教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の診断フローを教示するための教示コンテンツの属性を選択する第1選択処理、および、(b)前記読影時間が前記閾値以下であれば、前記読影者に提示する前記教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の画像パタンを教示するための教示コンテンツの属性を選択する第2選択処理のうちの少なくとも一方の選択処理を実行する教示コンテンツ属性選択部とを備える。
 上述の誤診原因は、読影時間を用いて分類することができる。「症例と診断フローの対応付けの誤り」が生じる場合には、読影者は診断フローを逐一確認しながら診断を行うため、読影時間が大きくなるという特徴がある。一方、「症例と画像パタンの対応付けの誤り」が生じる場合には、既に診断フローの学習は終わっており、読影者は診断フローに熟知しているものと考えられる。このため、読影者は診断フローの確認をする必要が無く、主に画像パタンから診断を下すこととなるため、読影時間は短くなる。よって、読影時間が長い場合は「症例と診断フローの対応付けの誤り」により誤診が生じたものと判断し、読影時間が短い場合は「症例と画像パタンの対応付けの誤り」により誤診が生じたものと判断することができる。
 このように、読影時間に基づいて診断フローと画像パタンのどちらが原因で誤診が生じたかを判断できるため、誤診原因に応じた教示コンテンツの属性を自動的に選択することができる。選択した教示コンテンツの属性に従い、読影者は、誤診の原因を適切に正すことができる教示コンテンツを選択することが可能となる。また、誤診時に参照する教示コンテンツの読影者による検索時間を減らすことができ、読影者の学習時間を短縮することができる。
 なお、本発明は、このような特徴的な処理部を備える誤診原因検出装置として実現することができるだけでなく、誤診原因検出装置に含まれる特徴的な処理部が実行する処理をステップとする誤診原因検出方法として実現することができる。また、誤診原因検出装置が備える特徴的な処理部としてコンピュータを機能させるためのプログラムとして実現することもできる。また、誤診原因検出方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムを、CD-ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な不揮発性の記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
 本発明によると、読影者が誤診をした際に、誤診原因を検出することができる。
図1は、本発明の実施の形態1に係る読影教育装置の特徴的な機能構成を示すブロック図である。 図2Aは、読影レポートデータベースに記憶されている読影画像としての超音波画像の一例を示す図である。 図2Bは、読影レポートデータベースに記憶されている読影情報の一例を示す図である。 図3は、読影画像提示部による提示画像の一例を示す図である。 図4は、代表画像と読影フローの一例を示す図である。 図5は、読影時間のヒストグラムの一例を示す図である。 図6は、教示コンテンツデータベースの一例を示す図である。 図7は、本発明の実施の形態1に係る読影教育装置が実行する全体的な処理の流れを示すフローチャートである。 図8は、教示コンテンツ属性選択部による教示コンテンツ属性選択処理(図7のステップS105)の詳細な処理の流れを示すフローチャートである。 図9は、出力部により出力媒体へ出力された画面の一例を示す図である。 図10は、出力部により出力媒体へ出力された画面の一例を示す図である。 図11は、本発明の実施の形態2に係る読影教育装置の特徴的な機能構成を示すブロック図である。 図12Aは、読影画像上の誤診箇所の一例を示す図である。 図12Bは、診断フロー上の誤診箇所の一例を示す図である。 図13は、本発明の実施の形態2に係る読影教育装置が実行する全体的な処理の流れを示すフローチャートである。 図14は、誤診箇所抽出部による誤診箇所抽出処理(図13のステップS301)の詳細な処理の流れを示すフローチャートである。 図15は、2つの症例の代表画像と診断項目の例を示す図である。 図16は、出力部により出力媒体へ出力された画面の一例を示す図である。 図17は、出力部により出力媒体へ出力された画面の一例を示す図である。
 以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲だけによって限定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
 本発明の実施の形態に係る誤診原因検出装置は、超音波画像、CT(Computed Tomography)画像、または核磁気共鳴画像等の画像読影に対して誤診が生じた際に、入力された診断結果(以下、「読影結果」とも言う。)と診断時間(以下、「読影時間」とも言う。)とから、誤診の原因が画像パタンに起因したものであるのか、診断フローに起因したものであるのかを判別して、読影者の誤診原因に適合した教示コンテンツを提示する装置である。
 本発明の一実施形態に係る誤診原因検出装置は、画像診断のための読影画像と前記読影画像に対する確定診断結果との組である読影レポートのうち、前記読影画像である対象読影画像を読影者に提示する読影画像提示部と、前記対象読影画像に対する前記読影者による読影結果である第1読影結果と前記読影者が前記対象読影画像の読影に要した時間である読影時間とを取得する読影結果取得部と、前記対象読影画像に対する確定診断結果と前記読影結果取得部が取得した前記第1読影結果とを比較することにより、前記第1読影結果の正誤を判定する読影結果判定部と、前記読影結果判定部が前記第1読影結果を誤りであると判定したときに、(a)前記読影結果取得部が取得した前記読影時間が閾値よりも大きければ、前記読影者に提示する前記教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の診断フローを教示するための教示コンテンツの属性を選択する第1選択処理、および、(b)前記読影時間が前記閾値以下であれば、前記読影者に提示する前記教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の画像パタンを教示するための教示コンテンツの属性を選択する第2選択処理のうちの少なくとも一方の選択処理を実行する教示コンテンツ属性選択部とを備える。
 誤診原因は、読影時間を用いて分類することができる。「症例と診断フローの対応付けの誤り」が生じる場合には、読影者は診断フローを逐一確認しながら診断を行うため、読影時間が大きくなるという特徴がある。一方、「症例と画像パタンの対応付けの誤り」が生じる場合には、既に診断フローの学習は終わっており、読影者は診断フローに熟知しているものと考えられる。このため、読影者は診断フローの確認をする必要が無く、主に画像パタンから診断を下すこととなるため、読影時間は短くなる。よって、読影時間が長い場合は「症例と診断フローの対応付けの誤り」により誤診が生じたものと判断し、読影時間が短い場合は「症例と画像パタンの対応付けの誤り」により誤診が生じたものと判断することができる。
 このように、読影時間に基づいて診断フローと画像パタンのどちらが原因で誤診が生じたかを判断できるため、誤診原因に応じた教示コンテンツの属性を自動的に選択することができる。選択した教示コンテンツの属性に従い、読影者は、誤診の原因を適切に正すことができる教示コンテンツを選択することが可能となる。また、誤診時に参照する教示コンテンツの読影者による検索時間を減らすことができ、読影者の学習時間を短縮することができる。
 つまり、読影時間が閾値よりも大きい場合には、「症例と診断フローの対応付けの誤り」により誤診が生じたものと判断することができる。このため、診断フローを教示するための教示コンテンツの属性を選択することができる。これにより、読影者は、誤診の原因となっている診断フローを適切に正すことができる教示コンテンツを選択することが可能となる。また、読影者は誤診時に参照する教示コンテンツとして即座に診断フローを教示するための教示コンテンツを探すことができ、読影者の学習時間を短縮することができる。
 読影時間が閾値以下の場合には、「症例と画像パタンの対応付けの誤り」により誤診が生じたものと判断することができる。このため、画像パタンを教示するための教示コンテンツの属性を選択することができる。これにより、読影者は、誤診の原因となっている画像パタンを適切に正すことができる教示コンテンツを選択することが可能となる。また、読影者は誤診時に参照する教示コンテンツとして即座に画像パタンを教示するための教示コンテンツを探すことができ、読影者の学習時間を短縮することができる。
 また、前記読影レポートは、さらに、前記読影画像に対して既に行われた読影結果である第2読影結果を含み、前記読影画像提示部は、前記確定診断結果と前記第2読影結果とが一致する前記読影レポートに含まれる前記読影画像を前記読影者に提示してもよい。
 読影レポートデータベースには、画像ノイズまたは読影画像の撮影装置の特性により、画像だけからでは確定診断結果と一致する病変を指摘することができない読影画像が存在する。このような画像は、読影画像のみを用いて病変を推定することを目的とした読影教育用の画像としては、不適切な画像となる。逆に、確定診断結果と第2読影結果とが一致する症例は、読影画像から確定診断結果と同じ病変を指摘できることを担保する症例と言える。よって、確定診断結果と第2読影結果とが一致する読影画像のみを選択することにより、読影教育に必要な画像症例の画像のみを提示することが可能になる。
 また、上述の誤診原因検出装置は、さらに、症例名ごとに、当該症例名の症例の診断フローを教示するための教示コンテンツと当該症例名の症例の画像パタンを教示するための教示コンテンツとが記憶されている教示コンテンツデータベースから、前記第1読影結果が示す症例名の症例に対する前記教示コンテンツ属性選択部が選択した属性の教示コンテンツを取得し、取得した前記教示コンテンツを出力する出力部を備える。
 このように、選択した属性の教示コンテンツを取得し、出力することにより、読影者が教示コンテンツを探す手間を削減することができる。
 また、前記読影レポートは、さらに、複数の診断項目の各々に対する診断結果を含み、前記読影結果取得部は、さらに、前記複数の診断項目の各々に対して前記読影者により行われた診断結果を取得し、前記誤診原因検出装置は、さらに、前記読影レポートに含まれる前記診断結果と前記読影結果取得部が取得した前記診断結果とが異なる診断項目を抽出する誤診箇所抽出部を備えていてもよい。
 この構成によると、読影者による誤診箇所を抽出することができる。
 好ましくは、上述の誤診原因検出装置は、さらに、症例名ごとに、当該症例名の症例の診断フローを教示するための教示コンテンツと当該症例名の症例の画像パタンを教示するための教示コンテンツとが記憶されている教示コンテンツデータベースから、前記第1読影結果が示す症例名の症例に対する前記教示コンテンツ属性選択部が選択した属性の教示コンテンツを取得し、取得した前記教示コンテンツのうち、前記誤診箇所抽出部が抽出した前記診断項目に対応する箇所を強調した教示コンテンツを作成し、作成した前記教示コンテンツを出力する出力部を備える。
 この構成によると、読影者の誤診箇所を強調した教示コンテンツを提示することができる。これにより、読影者が誤診した箇所を検出する時間を短縮することができる。このため、誤診箇所の見落としや誤診箇所の検索時間を低減することで、読影者の学習効率を向上させることができる。
 また、前記閾値は、前記第1読影結果が示す症例名ごとに異なっていてもよい。
 閾値を症例名ごとに異ならせることにより、教示コンテンツ属性選択部による教示コンテンツの属性の選択の精度を向上させることができる。
 以下、本発明の誤診原因検出装置及び誤診原因検出方法について説明する。一例として、本発明の誤診原因検出装置を、読影者の読影教育装置に適用した場合について説明するが、本発明は、以下の実施の形態に記載の読影教育装置以外にも適用可能である。
 たとえば、実際に、読影者が読影による診断を行っている際、誤診原因の検出を行い、誤診原因を読影者に提示する装置であっても良い。
 以下、本発明の実施の形態に係る読影教育装置について、図面を用いて詳細に説明する。
 (実施の形態1)
 図1は、本発明の実施の形態1に係る読影教育装置100の特徴的な機能構成を示すブロック図である。図1に示すように、読影教育装置100は、読影者の読影結果に応じた教育コンテンツを提示する装置である。読影教育装置100は、読影レポートデータベース101、読影画像提示部102、読影結果取得部103、読影結果判定部104、教示コンテンツ属性選択部105、教示コンテンツデータベース106、及び出力部107を備える。
 以下、図1に示した、読影教育装置100の各構成要素の詳細について順に説明する。
 読影レポートデータベース101は、例えばハードディスク、メモリ等からなる記憶装置である。読影レポートデータベース101は、読影者に提示する読影画像と、その読影画像に対応する読影情報とを記憶しているデータベースである。ここで、読影画像とは、画像診断ために用いられる画像であり、電子媒体に格納された画像データを示す。また、読影情報とは、読影画像の読影結果に加え、画像診断後に行われる生検等の確定診断の結果までを示す情報である。
 図2A及び図2Bは、読影レポートデータベース101に記憶されている、読影画像20としての超音波画像及び読影情報21の一例をそれぞれ示す図である。読影情報21は、患者ID22、画像ID23、確定診断結果24、読影者ID25、診断項目判定結果26、画像所見27、および読影時間28を含む。
 患者ID22は、読影画像の被写体となる患者を識別するための情報を示す。画像ID23は、読影画像20を識別するための情報を示す。確定診断結果24は、患者ID22で示される患者の確定診断結果を示す。ここで確定診断結果とは、手術または生検で得られた試験体の顕微鏡による病理検査、またはその他様々な手段によって、対象の患者の真の状態が何であったのかを明らかにした診断結果である。読影者ID25は、画像ID23の読影画像20に対して読影を行った読影者を識別するための情報を示す。診断項目判定結果26は、画像ID23の読影画像20に対して定められた各診断項目(図2Bでは、項目1、項目2などと記載)に対する診断結果の情報を示す。例えば、画像ID23の読影画像20が乳腺画像であれば、診断項目として、境界性状(明瞭平滑、明瞭粗ぞう、不明瞭、評価困難)および内部エコーレベル(無、極低、低、等、高)等が該当する。画像所見27は、画像ID23の読影画像20に対して読影者ID25の読影者が行った診断結果を示す情報である。画像所見27は、病名を含む診断結果(読影結果)および診断理由(読影理由)を示す情報である。読影時間28は、読影開始から読影終了までの時間を示す情報である。
 なお、1枚の画像ID23の読影画像20に対して複数の読影者が読影を行った場合は、読影者ID25、診断項目判定結果26、画像所見27および読影時間28は、読影者ID25毎に記憶される。
 なお、本実施の形態では、読影レポートデータベース101が読影教育装置100に備えられる事例について説明するが、本発明が適用される読影教育装置は、このような読影教育装置に限定されるものではない。例えば、読影レポートデータベース101は、読影教育装置とネットワークを介して接続されたサーバ上に備えられてもよい。
 また、読影情報21は、読影画像20内に付属データとして含まれてもよい。
 ここで、図1に示した読影教育装置100の各構成要素の説明に戻る。
 読影画像提示部102は、読影レポートデータベース101から診断テストの対象となる読影画像20を取得する。また、読影画像提示部102は、取得した読影画像20(対象読影画像)を、読影画像20に対する診断項目および画像所見の入力フォームと共に、図示しない液晶ディスプレイ、テレビなどのモニタに表示することにより、読影者に提示する。図3は読影画像提示部102による提示画面例を示す図である。図3に示すように、提示画面は、診断テスト対象の読影画像20と、診断項目に対する診断結果の回答フォームとして、診断項目入力領域30を一例とする入力フォームと、画像所見の入力フォームとして、画像所見入力領域31を一例とする入力フォームとを含む。診断項目入力領域30には、読影レポートデータベース101の診断項目判定結果26と対応する項目が記載されている。一方、画像所見入力領域31には、読影レポートデータベース101の画像所見27と対応する項目が記載されている。
 なお、読影画像提示部102は読影レポートデータベース101から診断テストの対象となる読影画像20を取得する際、確定診断結果24と画像所見27とが一致する読影画像20のみを選択しても良い。読影レポートデータベース101には、画像ノイズまたは読影画像20の撮影装置の特性により、画像だけからでは確定診断結果と一致する病変を指摘することができない読影画像20が存在する。このような画像は、読影画像20のみを用いて病変を推定することを目的とした読影教育用の画像としては、不適切な画像となる。逆に、確定診断結果24と画像所見27とが一致する症例は、読影画像20から確定診断結果と同じ病変を指摘できることを担保する症例と言える。よって、確定診断結果24と画像所見27とが一致する読影画像20のみを選択することにより、読影教育に必要な画像症例の画像のみを提示することが可能になる。なお、1枚の読影画像20に対して複数の読影者が読影を行った場合には、いずれかの読影者の画像所見27が確定診断結果24と一致している場合に、画像ID23で示される読影画像20のみを選択してもよい。
 読影結果取得部103は、読影画像提示部102で提示された読影画像20に対する読影者の読影結果を取得する。例えば、キーボードまたはマウス等から診断項目入力領域30および画像所見入力領域31に入力された情報を取得し、メモリ等に記憶する。また、読影結果取得部103は、読影者が読影を開始してから終了するまでの時間(読影時間)を取得する。読影結果取得部103は、取得した情報と読影時間とを、読影結果判定部104及び教示コンテンツ属性選択部105に出力する。なお、読影時間は、読影教育装置100に設けられた図示しないタイマーにより計測される。
 読影結果判定部104は、読影レポートデータベース101を参照することにより、読影結果取得部103から取得した読影者の読影結果と読影レポートデータベース101に記録されている読影情報21とを比較し、読影者の読影結果の正誤を判定する。具体的には、読影結果判定部104は、読影結果取得部103から取得した読影者の画像所見入力領域31への入力結果と、読影レポートデータベース101から取得した読影画像20の確定診断結果24の情報とを比較する。読影結果判定部104は、両者が一致する場合には読影結果が正解であると判定し、一致しない場合は読影結果を誤り(誤診)と判定する。
 教示コンテンツ属性選択部105は、読影結果取得部103から取得した読影結果および読影時間と、読影結果判定部104から取得した読影結果の正誤判定の結果とを用いて、読影者に提示する教示コンテンツ属性を選択する。また、教示コンテンツ属性選択部105は、選択した教示コンテンツ属性を出力部107へ通知する。なお、教示コンテンツ属性の具体的な選択方法については後述し、ここでは教示コンテンツ属性について説明する。
 教示コンテンツ属性とは、症例の正確な診断方法を教示するための教示用のコンテンツに付与された2種類の識別情報である。教示コンテンツ属性には、具体的には、画像パタン属性と診断フロー属性との2種類の属性が存在する。画像パタン属性が付与された教示コンテンツとは、症例名に対する代表的な読影画像20に関するコンテンツを示す。一方、診断フロー属性が付与された教示コンテンツとは、症例名に対する診断フローに関するコンテンツを示す。図4は「症例名:硬癌」に対する画像パタン属性のコンテンツと診断フロー属性のコンテンツの一例を示す図である。図4(a)に示すように、画像パタン属性コンテンツ40は硬癌の典型例を示す読影画像20である。また、図4(b)に示すように、診断フロー属性コンテンツ41は硬癌と診断するためのフローチャートである。例えば、図4(b)には、「境界不明瞭」または「境界明瞭粗ぞう」であり、「前・後方断裂あり」であり、「後方エコー微弱」であり、かつ「内部エコー極低」または「内部エコー高」であると判断した場合には、硬癌と診断せよとの診断フローが記載されている。
 教示コンテンツをこれら2つの属性に分ける理由について、以下、説明する。
 誤診は大きく分けて2つの原因によって生じる。1つ目は、読影者が記憶している症例と診断フローの対応付けの誤りである。2つ目は読影者が記憶している症例と画像パタンの対応付けの誤りである。
 誤診原因が上記2種類に分類できる理由は、読影技術の学習過程が2段階に分かれることに起因する。
 学習過程の前半では、読影者は、読影画像20に対して個別の診断項目を判定した後、診断フローを参照しながら診断項目の判定結果を組み合わせ、最終的な診断を行う。このように、読影に慣れていない読影者は、診断フローの参照を逐一行うため、読影時間がかかってしまう。一方、前半の学習過程を終えた読影者は、後半の学習過程を行うこととなるが、学習過程の後半では、読影者は、個別の診断項目を判定した後、各症例名に対する典型的な画像パタンを頭の中で構築し、構築された画像パタンを参照しながら瞬時に診断を行う。学習後半の読影者の読影時間は学習前半の読影者の読影時間と比べて相対的に短くなる。これは、同じ症例の読影を多数経験することにより、診断フローを熟知してしまい、診断フローの参照が不要になるためである。このため、学習後半の読影者は主に画像パタンから診断を行う。
 すなわち、読影で生じる誤診は、異なる学習過程において、それぞれ誤った知識が得られた場合に生じることになる。よって、読影教育装置100は、誤診時には、その原因が「症例と診断フローの対応付けの誤り(診断フロー属性)」によるものなのか、「症例と画像パタンの対応付けの誤り(画像パタン属性)」によるものなのかを判別する。その上で、読影教育装置100は、誤診の原因に対応する教示コンテンツ属性の教示コンテンツを読影者に提示することにより、読影者の誤診原因に合致したコンテンツを提供することができる。
 上述の2つの診断プロセスは読影時間を用いて分類することができる。図5はある病院の放射線科における読影時間のヒストグラムの典型例を示す図である。なお、図5では、ヒストグラムにおける頻度(読影件数)を曲線波形で近似している。図5に示すように、ヒストグラムの波形にピークが2つ存在し、読影時間が短い方のピークは画像パタンによる診断によるものであり、読影時間が長い方のピークは診断フロー判定による診断によるものであると判定することができる。このような時間特性の違いは、上述したように、読影の学習過程の違いにより生じるものであり、具体的には診断フローの参照の有無が大きな要因となっている。
 このような読影時間の特性を利用することで、読影医が誤診をした時の誤診要因を分類することができる。例えば、短い読影時間Aで読影を行った結果、誤診が生じた場合は、その読影者の画像パタンによる判定が間違っていたということになる。よって、教示コンテンツとしては正しい画像パタンを提示し、読影者の頭の中に構築されている誤った画像パタンを修正する必要がある。一方、長い読影時間Bで読影を行った結果、誤診が生じた場合は、診断フロー判定での誤りとなる。そのため、読影者が記憶している誤った診断フローを修正するためのコンテンツ教示が必要になる。
 このように、教示コンテンツを2つの属性に分けて提示することにより、誤診の要因に合致した教示コンテンツを提示できる。これにより、自ら教示コンテンツを検索する時間や余分な教示コンテンツを読む時間が削減されるため、読影者の学習時間を短縮することが可能になる。
 ここで、図1に示した読影教育装置100の各構成要素の説明に戻る。
 教示コンテンツデータベース106は、教示コンテンツ属性選択部105が選択する画像パタン属性と診断フロー属性の2つの属性に関する教示コンテンツをそれぞれ記録しているデータベースである。図6は教示コンテンツデータベース106の一例である。図6に示すように、教示コンテンツデータベース106は、コンテンツ属性60と、症例名61と、コンテンツID62とを含む。教示コンテンツデータベース106は、コンテンツ属性60と症例名61とによりコンテンツID62が簡単に取得できるように、コンテンツID62がリスト化されている。例えば、コンテンツ属性60が診断フロー属性であり、症例名61が硬癌である場合には、教示コンテンツのコンテンツID62はF_001となる。なお、コンテンツID62に対応する教示コンテンツは、教示コンテンツデータベース106内に格納されている。ただし、教示コンテンツは教示コンテンツデータベース106に格納されていなくてもよく、例えば、外部のサーバに格納されていてもよい。
 出力部107は、教示コンテンツデータベース106を参照することにより、教示コンテンツ属性選択部105が選択したコンテンツ属性と、読影者が誤診した症例名とに該当するコンテンツIDを教示コンテンツデータベース106より取得する。また、出力部107は、取得したコンテンツIDに対応する教示コンテンツを出力媒体へ出力する。出力媒体は、例えば液晶ディスプレイ、テレビなどのモニタである。
 以上のように構成された読影教育装置100の動作について説明する。
 図7は、読影教育装置100が実行する処理の全体的な流れを示すフローチャートである。
 まず、読影画像提示部102は、読影レポートデータベース101から診断テストの対象となる読影画像20を取得する。読影画像提示部102は、取得した読影画像20を、読影画像20に対する診断項目および画像所見の入力フォームと共に、図示しない液晶ディスプレイ、テレビなどのモニタに表示することにより、読影者に提示する(ステップS101)。対象となる読影画像20は、読影者が選択するようにしてもよいし、ランダムに選択するようにしてもよい。
 読影結果取得部103は、読影画像提示部102が提示した読影画像20に対する読影者の読影結果を取得する。例えば、読影結果取得部103は、キーボード、マウス等から入力された情報をメモリ等に記憶する。そして、読影結果取得部103は、取得した入力を、読影結果判定部104及び教示コンテンツ属性選択部105に通知する(ステップS102)。具体的に、読影結果取得部103は、読影画像提示部102から診断項目入力領域30と画像所見入力領域31とに入力された情報をそれぞれ取得する。また、読影結果取得部103は、読影時間を取得する。
 読影結果判定部104は、読影レポートデータベース101を参照することにより、読影結果取得部103から取得した読影者の読影結果と読影レポートデータベース101に記録されている読影情報21とを比較する。読影結果判定部104は、比較結果から、読影者の読影結果の正誤を判定する(ステップS103)。具体的には、読影結果判定部104は、読影結果取得部103から取得した読影者の画像所見入力領域31への入力結果と、読影レポートデータベース101から取得した読影画像20の確定診断結果24の情報とを比較する。読影結果判定部104は、両者が一致する場合には読影結果が正解であると判定し、一致しない場合は読影結果を誤り(誤診)と判定する。例えば、読影画像Aに対して、ステップS102において取得した読影者の画像所見入力が「硬癌」であり、読影レポートデータベース101から取得した確定診断結果が「硬癌」の場合は、両者が一致するため誤診でないと(正解であると)判定する。逆に、読影画像Aに対して、ステップS102において取得した読影者の画像所見入力が「硬癌」であり、読影レポートデータベース101から取得した確定診断が「硬癌」以外の場合は、両者が不一致となり、誤診と判定する。
 なお、ステップS102から取得した診断名が複数ある場合は、その中の一つが読影レポートデータベース101から取得した確定診断結果と一致すれば正解と判断してよい。
 教示コンテンツ属性選択部105は、読影結果判定部104から誤診であるとの判定を取得した場合に(ステップS104でYes)、読影結果取得部103から画像所見入力領域31への入力結果および読影時間をそれぞれ取得する。また、教示コンテンツ属性選択部105は、読影時間を用いて教示コンテンツ属性を選択し、選択した教示コンテンツ属性を出力部107へ通知する(ステップS105)。教示コンテンツ属性選択処理(ステップS105)の詳細については後述する。
 最後に、出力部107は、教示コンテンツデータベース106を参照することにより、教示コンテンツ属性選択部105が選択した教示コンテンツ属性と、読影者が誤診した症例名とに該当するコンテンツIDを教示コンテンツデータベース106より取得する。また、出力部107は、取得したコンテンツIDに対応する教示コンテンツを、教示コンテンツデータベース106より取得し、出力媒体へ出力する(ステップS106)。
 教示コンテンツ属性選択処理(図7のステップS105)について詳細に説明する。図8は、教示コンテンツ属性選択部105による教示コンテンツ属性選択処理(図7のステップS105)の詳細な処理の流れを示すフローチャートである。以下、図8を用いて読影者の読影時間を用いた教示コンテンツ属性選択方法について説明する。
 まず、教示コンテンツ属性選択部105は、読影者が入力した画像所見を読影結果取得部103から取得する(ステップS201)。
 教示コンテンツ属性選択部105は、読影結果取得部103から読影者の読影時間を取得する(ステップS202)。なお、読影者の読影時間は、読影教育装置100の内部に設けられたタイマーにより計測するようにしてもよい。例えば、読影開始時(読影画像提示時)にユーザが画面上に表示されたスタートボタンを押下し、読影終了時にユーザが画面上に表示されたエンドボタンを押下する。教示コンテンツ属性選択部105は、タイマーが計数したスタートボタンが押下されてからエンドボタンが押下されるまでの間の時間を読影時間として取得してもよい。
 教示コンテンツ属性選択部105は、教示コンテンツ属性を判断するための読影時間の閾値を算出する(ステップS203)。閾値の算出方法は、例えば読影レポートデータベース101に記録されているデータの読影時間から読影時間のヒストグラムを作成し、判別しきい値選定法(非特許文献:「画像処理ハンドブック」,pp.278,昭晃堂,1992を参照)を用いて読影時間の閾値を求めればよい。これにより、図5に示すようなヒストグラムにおいて2つのピークの間に位置する谷の部分に閾値を設定することができる。
 なお、読影時間の閾値は読影者が判断した症例名毎に求めてもよい。診断フローの発生頻度または症例の発生頻度は診察対象の部位または症例名によって異なる。このため、読影時間もそれぞれ異なる場合がある。例えば、乳腺の超音波画像診断において、診断フローが短い症例名としては、一部の硬癌や浸潤性小葉癌が挙げられる。これらは腫瘤の境界部性状だけで症例名を判定することができるため、症例名を判断する時間も他の症例名に対して短くなる。一方、同じ乳腺の超音波画像診断において、診断フローが長い症例名としては、一部の嚢胞や粘液癌等が挙げられる。これらは、腫瘤の境界部に加え、形状、縦横比を用いて判断できる症例名であるため、一部の硬癌や浸潤性小葉癌に対して読影時間が長くなる。
 また、症例名の発生頻度によっても読影時間は異なる。例えば、乳腺疾患における「硬癌」の発生頻度は約30%であるのに対し、「髄様癌」の発生頻度は約0.5%である。発生頻度の高い症例は、臨床上でも頻繁に目にするため、より早く診断することができるようになり、発生頻度の低い症例と比べて読影時間が短縮される。
 そのため、閾値を部位毎または症例名毎に求めることにより、属性分類の精度を高めることができる。
 また、読影時間の閾値は読影レポートデータベース101の更新と同期して、算出され、読影レポートデータベース101に記憶されるようにしてもよい。なお、この閾値の算出は、教示コンテンツ属性選択部105が行ってもよいし、その他の処理部が行ってもよい。これにより、読影者が毎回の診断項目入力等を行う度に閾値算出を行う必要がなくなる。このため、読影教育装置100の処理時間を短縮することができ、より短い時間で読影者に教示コンテンツを提示することができる。
 教示コンテンツ属性選択部105は、ステップS202で取得した読影者の読影時間がステップS203で算出した閾値よりも大きいか否かを判別する(ステップS204)。読影時間が閾値よりも大きい場合は(ステップS204のYes)、教示コンテンツ属性選択部105は、教示コンテンツの属性として診断フロー属性を選択する(ステップS205)。一方、読影時間が閾値以下の場合は(ステップS204のNo)、教示コンテンツ属性選択部105は、教示コンテンツの属性として画像パタン属性を選択する(ステップS206)。
 以上のステップS201~S206の処理が実行されることにより、教示コンテンツ属性選択部105は、読影者の誤診原因に応じた教示コンテンツの属性を選択することができる。
 図9は、教示コンテンツ属性選択部105が画像パタン属性を選択した際に、出力部107により出力媒体へ出力された画面の一例を示す図である。図9(a)に示すように、出力部107は、読影者が判定を誤った読影画像と、読影者の読影結果(読影者回答)と、確定診断結果(正解)とを提示する。また、図9(b)に示すように、出力部107は、その提示と共に、読影者回答に対応する症例名の代表画像を提示する。画像パタン属性が選択される場合には、読影者は「硬癌」の診断フローを熟知していると考えられる。このため、このような読影者は主に画像パタンから診断を下すことになるが、「硬癌」に対する読影者の画像パタンの対応付けが間違っていることにより誤診が生じている。よって、読影者回答である「硬癌」に対する代表画像を提示することで、読影者が誤って認識している「硬癌」の代表画像を修正することができる。
 また、図10は、教示コンテンツ属性選択部105が診断フロー属性を選択した際に、出力部107により出力媒体へ出力された画面の一例を示す図である。図10(a)に示すように、出力部107は、図9(a)と同様に、読影者が判定を誤った読影画像と、読影者の読影結果(読影者回答)と、確定診断結果(正解)とを提示する。また、図10(b)に示すように、出力部107は、その提示と共に、読影者回答に対応する症例名の診断フローを提示する。図10に示す例では、「硬癌」に対する読影者の診断フローの対応付けが間違っていることにより誤診が生じている。よって、読影者回答である「硬癌」に対する正しい診断フローを提示することで、読影者が誤って認識している「硬癌」の診断フローの知識を修正することができる。
 以上説明したように、図7に示すステップS101~ステップS106の処理が実行されることにより、読影教育装置100は、読影者の誤診原因に応じた教示コンテンツを提示することができる。このため、学習時間が短縮され、効率的な読影方法の学習を行うことができる。
 すなわち、本実施の形態に係る読影教育装置100によると、読影者の読影時間を用いて誤診原因を判断し、判断した誤診原因に応じた教示コンテンツを自動的に選択することが可能となる。このため、読影者は不要な教示コンテンツを与えられることなく、効率的に読影方法を学習することが可能になる。
 (実施の形態2)
 本発明の実施の形態2に係る読影教育装置について説明する。
 上述のように、実施の形態1に係る読影教育装置100は、読影時間を用いて読影者の誤診原因を「診断フロー属性」および「画像パタン属性」の2種類の属性のいずれかに分類することで、属性に応じた教示コンテンツを提示している。これに加え、本実施の形態に係る読影教育装置は、読影者が誤診した際に教示するコンテンツに対して、誤診原因となった箇所(誤診箇所)を強調して提示する。
 本実施の形態が解決する課題の背景は次の通りである。例えば、読影者が乳腺の超音波画像診断において「乳頭腺管癌」を「硬癌」と誤診した際、「硬癌」の診断フローと「乳頭腺管癌」の診断フローとの差分(異なる部分)は、「内部エコー」「後方エコー」および「境界性状」など多岐に渡る。読影者が読影方法を正しく学習するためには、これらの差分を全て認識する必要がある。しかし、例えば、硬癌と乳頭腺管癌の診断フローを単純に提示するだけでは、2つの診断フローの差分を部分的に見逃してしまい、正しく学習が行われない可能性が生じてしまう。また、2つの診断フローの差分を探す行為自体も学習時間が増加してしまい、結果として学習効率が低下してしまう。
 このような問題に対し、本実施の形態に係る読影教育装置は、読影者の誤診箇所を強調して教示コンテンツを提示することができ、学習効率を向上させることができる。
 以下、初めに図11を参照しながら、本実施の形態に係る読影教育装置の各構成について順に説明する。
 (実施の形態2の各構成の説明)
 図11は、本発明の実施の形態2に係る読影教育装置200の特徴的な機能構成を示すブロック図である。図11において、図1と同じ構成要素については同じ符号を付し、説明を省略する。
 読影教育装置200は、読影レポートデータベース101、読影画像提示部102、読影結果取得部103、読影結果判定部104、教示コンテンツ属性選択部105、教示コンテンツデータベース106、出力部107、及び誤診箇所抽出部201を備える。
 図11に示す読影教育装置200が図1に示す読影教育装置100と相違する点は、読影結果取得部103から取得した診断項目入力領域30に入力された結果から、読影者の誤診箇所を抽出する誤診箇所抽出部201を有する点である。
 誤診箇所抽出部201は、例えば、CPU、およびCPUで実行されるプログラムを格納しているメモリ等からなる。誤診箇所抽出部201は、読影結果取得部103が取得した診断項目入力領域30に入力された判定結果と、読影レポートデータベース101に記憶されている読影情報21に含まれる診断項目判定結果26とから、読影者の誤診箇所を抽出し、出力部107へ通知する。具体的な誤診箇所抽出方法は後述する。
 誤診箇所とは、読影プロセスの中で誤診が生じた診断項目または代表画像上での領域と定義する。具体的には、読影プロセスは大きく「視認」と「診断」の2つのプロセスに分けることができ、視認プロセスにおける誤診箇所とは読影画像20上の特定の画像領域に対応し、診断プロセスにおける誤診箇所とは診断フロー上の特定の診断項目に対応する。図12Aおよび図12Bに乳腺超音波画像における誤診箇所の一例を示す。誤診箇所抽出部201で読影者の誤診箇所が腫瘤の内部エコー性状と抽出された場合、図12Aに示すように読影画像20上の誤診箇所は、該当する画像領域である誤診箇所70を示す。また、図12Bに示すように診断フロー上の誤診箇所は、誤診した診断項目に対応する誤診箇所71を示す。
 これらの誤診箇所を明示的に提示することにより、読影者が誤診した箇所を検出する時間を短縮することができるため、学習効率を向上させることができる。
 図13のフローチャートを参照しながら、図11に示される読影教育装置200において行われる全体的な処理の流れを説明する。
 図13は、読影教育装置200が実行する処理の全体的な流れを示すフローチャートである。なお、図13において、図7に示される、実施の形態1の読影教育装置100の処理と同じ処理が実行されるステップについては同じ符号を付している。
 本実施の形態に係る読影教育装置200では、読影結果取得部103から取得した診断項目入力領域30に入力された判定結果から読影者の誤診箇所を抽出する処理が、実施の形態1の読影教育装置100における処理と異なっている。しかし、その他の処理は実施の形態1の読影教育装置100の処理と同じである。具体的には、図13において、読影教育装置200が実行する、ステップS101~S105の処理は、図7に示す実施の形態1の読影教育装置100の処理と同じため、説明を省略する。
 誤診箇所抽出部201は、読影結果取得部103から取得した診断項目入力領域30に入力された判定結果を用いて、読影者の誤診箇所を抽出する(ステップS301)。
 出力部107は、図7に示したステップS106と同様に、教示コンテンツを教示コンテンツデータベース106より取得し、出力媒体に出力する。ただし、出力部107は、出力部107は、教示コンテンツを出力する際に、誤診箇所抽出部201が抽出した誤診箇所を強調した上で出力を行う(ステップS302)。強調の具体例については後述する。
 図14は、誤診箇所抽出部201による処理(図13のステップS301)の詳細な処理の流れを示すフローチャートである。以下、図14を用いて読影者の誤診箇所の抽出方法について説明する。
 まず初めに、誤診箇所抽出部201は、読影結果取得部103から、診断項目入力領域30に入力された判定結果を取得する(ステップS401)。
 誤診箇所抽出部201は、読影レポートデータベース101から診断の対象となる読影画像に対する確定診断結果24と同じ画像所見27を有する診断項目判定結果26を取得する(ステップS402)。
 誤診箇所抽出部201は、ステップS401で取得した読影者の入力した診断項目入力領域30に入力された判定結果と、ステップS402で取得した診断項目判定結果26とが異なる診断項目を抽出する(ステップS403)。つまり、誤診箇所抽出部201は、この異なる診断項目を、誤診箇所として抽出する。
 図15に、「A癌」および「B癌」の代表画像と診断項目の例を示す。以下、図15を用いてステップS403の差分処理について説明する。今、正解がB癌の読影対象画像に対して、読影者がA癌と誤診したとする。この際、A癌と判定を行った各診断項目に対して、どの部分を誤って学習していたかを特定するためには、A癌と誤診した読影者による診断項目と正解のB癌の診断項目との間で判定結果の異なる診断項目を抽出すればよい。図15の例では、A癌と誤診した読影者による診断項目と正解のB癌の診断項目との間で判定結果が異なる診断項目である内部エコー80と後方エコー81とが、誤診箇所として抽出される。つまり、内部エコー80についてはA癌の診断結果が「低」であるのに対してB癌の診断結果が「極低」であるため、内部エコー80が誤診箇所として抽出される。また、後方エコー81についてはA癌の診断結果が「減弱」であるのに対してB癌の診断結果が「不変」であるため、後方エコー81が誤診箇所として抽出される。
 以上のステップS401~S403の処理を実行することにより、誤診箇所抽出部201は、読影者の誤診箇所を抽出することができる。
 出力部107による処理(図13のステップS302)について具体例を示して説明する。
 図16は、誤診箇所抽出部201で誤診箇所を抽出した際に、出力部107により出力媒体へ出力された画面の一例を示す図である。図16に示すように、出力部107は、読影者の誤診した症例名の代表画像上に、正解症例との診断項目の差分となる誤診箇所に対応する画像領域を強調して提示する。この場合では、「硬癌」と「浸潤性乳管癌」との間で判定結果が異なる診断項目である「後方エコー」および「内部エコー」に該当する画像領域が矢印で示されることにより強調表示されている。これにより、読影者回答である「硬癌」に対する代表画像を提示する際に、読影者が誤って認識している画像領域を、自動的に提示することができる。なお、強調する画像領域の位置情報は、診断項目と予め対応付けられて教示コンテンツデータベース106に記憶されていてもよい。出力部107は、誤診箇所抽出部201が抽出した誤診箇所(診断項目)に基づいて、教示コンテンツデータベース106を参照することにより、強調する画像領域の位置情報を取得し、取得した位置情報に基づいて強調表示を行う。なお、強調する画像領域の位置情報は教示コンテンツデータベース106以外の場所に記憶されていてもよい。また、強調する画像領域の位置情報はいずれの場所にも記憶されていなくてもよい。その場合には、出力部107が画像処理を行うことにより、強調する画像領域を検出してもよい。
 また、図17は、誤診箇所抽出部201で誤診箇所を抽出した際に、出力部107により出力媒体へ出力された画面の一例を示す図である。図17に示すように、出力部107は、読影者の誤診した症例名の診断フロー上に、正解症例との診断項目の差分となる診断フロー領域を提示する。この場合も図16と同様に、「硬癌」と「浸潤性乳管癌」との間で判定結果が異なる診断項目である「後方エコー」および「内部エコー」に該当する診断フロー領域が破線で囲われて矢印で示されることにより強調表示されている。これにより、読影者回答である「硬癌」に対する診断フローを提示する際に、読影者が誤って認識している診断フロー領域を、自動的に提示することができる。
 以上、ステップS101~ステップS106、ステップS301の処理が実行されることにより、読影教育装置200は、読影者の誤診箇所を出力部107に提示することができ、誤診箇所の見落としや検索時間を低減することで学習効率を向上させることができる。
 以上、本発明に係る読影教育装置について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、異なる実施の形態における構成要素を組み合わせて構築される形態なども、本発明の範囲内に含まれる。
 なお、本発明に係る読影教育装置の必須の構成要素は、読影画像提示部102と、読影結果取得部103と、読影結果判定部104と、教示コンテンツ属性選択部105とであり、それ以外の構成要素は必ずしも備えられていなくてもよい。
 また、上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 さらに、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 さらにまた、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしても良い。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしても良い。
 また、本発明は、上記に示す方法であるとしても良い。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、前記コンピュータプログラムからなるデジタル信号であるとしても良い。
 さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読み取り可能な不揮発性の記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc(登録商標))、半導体メモリなどに記録したものとしても良い。また、これらの不揮発性の記録媒体に記録されている上記デジタル信号であるとしても良い。
 また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。
 また、上記プログラムまたは上記デジタル信号を上記不揮発性の記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。
 さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしても良い。
 本発明は、読影者の読影入力から誤診原因を検出する装置等として利用可能である。
   20 読影画像
   21 読影情報
   22 患者ID
   23 画像ID
   24 確定診断結果
   25 読影者ID
   26 診断項目判定結果
   27 画像所見
   28 読影時間
   40 画像パタン属性コンテンツ
   41 診断フロー属性コンテンツ
   60 コンテンツ属性
   61 症例名
   62 コンテンツID
   70、71 誤診箇所
   80 内部エコー
   81 後方エコー
  100、200 読影教育装置
  101 読影レポートデータベース
  102 読影画像提示部
  103 読影結果取得部
  104 読影結果判定部
  105 教示コンテンツ属性選択部
  106 教示コンテンツデータベース
  107 出力部
  201 誤診箇所抽出部

Claims (8)

  1.  画像診断のための読影画像と前記読影画像に対する確定診断結果との組である読影レポートのうち、前記読影画像である対象読影画像を読影者に提示する読影画像提示部と、
     前記対象読影画像に対する前記読影者による読影結果である第1読影結果と前記読影者が前記対象読影画像の読影に要した時間である読影時間とを取得する読影結果取得部と、
     前記対象読影画像に対する確定診断結果と前記読影結果取得部が取得した前記第1読影結果とを比較することにより、前記第1読影結果の正誤を判定する読影結果判定部と、
     前記読影結果判定部が前記第1読影結果を誤りであると判定したときに、(a)前記読影結果取得部が取得した前記読影時間が閾値よりも大きければ、前記読影者に提示する教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の診断フローを教示するための教示コンテンツの属性を選択する第1選択処理、および、(b)前記読影時間が前記閾値以下であれば、前記読影者に提示する前記教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の画像パタンを教示するための教示コンテンツの属性を選択する第2選択処理のうちの少なくとも一方の選択処理を実行する教示コンテンツ属性選択部と
     を備える誤診原因検出装置。
  2.  前記読影レポートは、さらに、前記読影画像に対して既に行われた読影結果である第2読影結果を含み、
     前記読影画像提示部は、前記確定診断結果と前記第2読影結果とが一致する前記読影レポートに含まれる前記読影画像を前記読影者に提示する
     請求項1に記載の誤診原因検出装置。
  3.  さらに、症例名ごとに、当該症例名の症例の診断フローを教示するための教示コンテンツと当該症例名の症例の画像パタンを教示するための教示コンテンツとが記憶されている教示コンテンツデータベースから、前記第1読影結果が示す症例名の症例に対する前記教示コンテンツ属性選択部が選択した属性の教示コンテンツを取得し、取得した前記教示コンテンツを出力する出力部を備える
     請求項1または2に記載の誤診原因検出装置。
  4.  前記読影レポートは、さらに、複数の診断項目の各々に対する診断結果を含み、
     前記読影結果取得部は、さらに、前記複数の診断項目の各々に対して前記読影者により行われた診断結果を取得し、
     前記誤診原因検出装置は、さらに、
     前記読影レポートに含まれる前記診断結果と前記読影結果取得部が取得した前記診断結果とが異なる診断項目を抽出する誤診箇所抽出部を備える
     請求項1または2に記載の誤診原因検出装置。
  5.  さらに、症例名ごとに、当該症例名の症例の診断フローを教示するための教示コンテンツと当該症例名の症例の画像パタンを教示するための教示コンテンツとが記憶されている教示コンテンツデータベースから、前記第1読影結果が示す症例名の症例に対する前記教示コンテンツ属性選択部が選択した属性の教示コンテンツを取得し、取得した前記教示コンテンツのうち、前記誤診箇所抽出部が抽出した前記診断項目に対応する箇所を強調した教示コンテンツを作成し、作成した前記教示コンテンツを出力する出力部を備える
     請求項4に記載の誤診原因検出装置。
  6.  前記閾値は、前記第1読影結果が示す症例名ごとに異なる
     請求項1に記載の誤診原因検出装置。
  7.  コンピュータが、画像診断のための読影画像と前記読影画像に対する確定診断結果との組である読影レポートのうち、前記読影画像である対象読影画像を読影者に提示する読影画像提示ステップと、
     コンピュータが、前記対象読影画像に対する前記読影者による読影結果である第1読影結果と前記読影者が前記対象読影画像の読影に要した時間である読影時間とを取得する読影結果取得ステップと、
     コンピュータが、前記対象読影画像に対する確定診断結果と前記読影結果取得ステップにおいて取得された前記第1読影結果とを比較することにより、前記第1読影結果の正誤を判定する読影結果判定ステップと、
     コンピュータが、前記読影結果判定ステップにおいて前記第1読影結果が誤りであると判定されたときに、(a)前記読影結果取得ステップにおいて取得された前記読影時間が閾値よりも大きければ、前記読影者に提示する教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の診断フローを教示するための教示コンテンツの属性を選択する第1選択処理、および、(b)前記読影時間が前記閾値以下であれば、前記読影者に提示する前記教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の画像パタンを教示するための教示コンテンツの属性を選択する第2選択処理のうちの少なくとも一方の選択処理を実行する教示コンテンツ属性選択ステップと
     を含む誤診原因検出方法。
  8.  画像診断のための読影画像と前記読影画像に対する確定診断結果との組である読影レポートのうち、前記読影画像である対象読影画像を読影者に提示する読影画像提示ステップと、
     前記対象読影画像に対する前記読影者による読影結果である第1読影結果と前記読影者が前記対象読影画像の読影に要した時間である読影時間とを取得する読影結果取得ステップと、
     前記対象読影画像に対する確定診断結果と前記読影結果取得ステップにおいて取得された前記第1読影結果とを比較することにより、前記第1読影結果の正誤を判定する読影結果判定ステップと、
     前記読影結果判定ステップにおいて前記第1読影結果が誤りであると判定されたときに、(a)前記読影結果取得ステップにおいて取得された前記読影時間が閾値よりも大きければ、前記読影者に提示する教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の診断フローを教示するための教示コンテンツの属性を選択する第1選択処理、および、(b)前記読影時間が前記閾値以下であれば、前記読影者に提示する前記教示コンテンツの属性として、前記第1読影結果が示す症例名の症例の画像パタンを教示するための教示コンテンツの属性を選択する第2選択処理のうちの少なくとも一方の選択処理を実行する教示コンテンツ属性選択ステップと
     をコンピュータに実行させるためのプログラム。
PCT/JP2011/004780 2010-09-07 2011-08-29 誤診原因検出装置及び誤診原因検出方法 WO2012032734A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201180007768.6A CN102741849B (zh) 2010-09-07 2011-08-29 误诊原因检测装置以及误诊原因检测方法
JP2011553996A JP4945705B2 (ja) 2010-09-07 2011-08-29 誤診原因検出装置及び誤診原因検出方法
US13/454,239 US20120208161A1 (en) 2010-09-07 2012-04-24 Misdiagnosis cause detecting apparatus and misdiagnosis cause detecting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-200373 2010-09-07
JP2010200373 2010-09-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/454,239 Continuation US20120208161A1 (en) 2010-09-07 2012-04-24 Misdiagnosis cause detecting apparatus and misdiagnosis cause detecting method

Publications (1)

Publication Number Publication Date
WO2012032734A1 true WO2012032734A1 (ja) 2012-03-15

Family

ID=45810345

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/004780 WO2012032734A1 (ja) 2010-09-07 2011-08-29 誤診原因検出装置及び誤診原因検出方法

Country Status (4)

Country Link
US (1) US20120208161A1 (ja)
JP (1) JP4945705B2 (ja)
CN (1) CN102741849B (ja)
WO (1) WO2012032734A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016177418A (ja) * 2015-03-19 2016-10-06 コニカミノルタ株式会社 読影結果評価装置及びプログラム
JP2017107553A (ja) * 2015-12-09 2017-06-15 株式会社ジェイマックシステム 読影訓練支援装置、読影訓練支援方法および読影訓練支援プログラム
JP2020537233A (ja) * 2017-10-06 2020-12-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 補遺ベースのレポート品質スコアカード作成

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355569B2 (en) * 2012-08-30 2016-05-31 Picmonic Inc. Systems, methods, and computer program products for providing a learning aid using pictorial mnemonics
CN102982242A (zh) * 2012-11-28 2013-03-20 徐州医学院 一种医学影像读片差错智能提醒系统
CN103595775B (zh) 2013-11-04 2018-01-19 惠州Tcl移动通信有限公司 媒体文件的共享方法及系统
CN106415555B (zh) * 2013-11-26 2019-10-18 皇家飞利浦有限公司 用于病理学报告与放射学报告的相关联的系统和方法
WO2015134668A1 (en) * 2014-03-04 2015-09-11 The Regents Of The University Of California Automated quality control of diagnostic radiology
JP6525527B2 (ja) * 2014-08-07 2019-06-05 キヤノン株式会社 読影レポート作成支援装置、読影レポート作成支援方法及びプログラム
US11902396B2 (en) 2017-07-26 2024-02-13 Amazon Technologies, Inc. Model tiering for IoT device clusters
US10980085B2 (en) * 2017-07-26 2021-04-13 Amazon Technologies, Inc. Split predictions for IoT devices
US11108575B2 (en) 2017-07-26 2021-08-31 Amazon Technologies, Inc. Training models for IOT devices
US11611580B1 (en) 2020-03-02 2023-03-21 Amazon Technologies, Inc. Malware infection detection service for IoT devices
US12041094B2 (en) 2020-05-01 2024-07-16 Amazon Technologies, Inc. Threat sensor deployment and management
US12058148B2 (en) 2020-05-01 2024-08-06 Amazon Technologies, Inc. Distributed threat sensor analysis and correlation
US11489853B2 (en) 2020-05-01 2022-11-01 Amazon Technologies, Inc. Distributed threat sensor data aggregation and data export
US11989627B1 (en) 2020-06-29 2024-05-21 Amazon Technologies, Inc. Automated machine learning pipeline generation
WO2022013265A1 (en) * 2020-07-16 2022-01-20 Koninklijke Philips N.V. Automatic certainty evaluator for radiology reports
CN118116584A (zh) * 2024-04-23 2024-05-31 鼎泰(南京)临床医学研究有限公司 一种基于大数据的可调整医疗辅助诊断系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277219A (ja) * 2005-03-29 2006-10-12 Konica Minolta Medical & Graphic Inc 医用画像読影システム
JP2010057727A (ja) * 2008-09-04 2010-03-18 Konica Minolta Medical & Graphic Inc 医用画像読影システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301462B1 (en) * 1999-01-15 2001-10-09 Unext. Com Online collaborative apprenticeship
JP2007275408A (ja) * 2006-04-10 2007-10-25 Fujifilm Corp 類似画像検索装置および方法並びにプログラム
JP5337992B2 (ja) * 2007-09-26 2013-11-06 富士フイルム株式会社 医用情報処理システム、医用情報処理方法、及びプログラム
JP2009082182A (ja) * 2007-09-27 2009-04-23 Fujifilm Corp 検査作業支援装置及び方法、並びに検査作業支援システム
JP2009078085A (ja) * 2007-09-27 2009-04-16 Fujifilm Corp 医用画像処理システム、医用画像処理方法、及びプログラム
US20110039249A1 (en) * 2009-08-14 2011-02-17 Ronald Jay Packard Systems and methods for producing, delivering and managing educational material
CN101706843B (zh) * 2009-11-16 2011-09-07 杭州电子科技大学 一种乳腺cr图像交互式读片方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277219A (ja) * 2005-03-29 2006-10-12 Konica Minolta Medical & Graphic Inc 医用画像読影システム
JP2010057727A (ja) * 2008-09-04 2010-03-18 Konica Minolta Medical & Graphic Inc 医用画像読影システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016177418A (ja) * 2015-03-19 2016-10-06 コニカミノルタ株式会社 読影結果評価装置及びプログラム
JP2017107553A (ja) * 2015-12-09 2017-06-15 株式会社ジェイマックシステム 読影訓練支援装置、読影訓練支援方法および読影訓練支援プログラム
JP2020537233A (ja) * 2017-10-06 2020-12-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 補遺ベースのレポート品質スコアカード作成
JP7319256B2 (ja) 2017-10-06 2023-08-01 コーニンクレッカ フィリップス エヌ ヴェ 補遺ベースのレポート品質スコアカード作成

Also Published As

Publication number Publication date
JP4945705B2 (ja) 2012-06-06
CN102741849B (zh) 2016-03-16
US20120208161A1 (en) 2012-08-16
CN102741849A (zh) 2012-10-17
JPWO2012032734A1 (ja) 2014-01-20

Similar Documents

Publication Publication Date Title
JP4945705B2 (ja) 誤診原因検出装置及び誤診原因検出方法
KR102043130B1 (ko) 컴퓨터 보조 진단 방법 및 장치
CN104584018B (zh) 用于有效查看和报告成像研究相关的先前注释的自动检测和检索
AU2004266022B2 (en) Computer-aided decision support systems and methods
JP5475923B2 (ja) 類似症例検索装置および類似症例検索方法
JP5100285B2 (ja) 医用診断支援装置およびその制御方法、プログラム、記憶媒体
US20110137132A1 (en) Mammography Information System
US20120166211A1 (en) Method and apparatus for aiding imaging diagnosis using medical image, and image diagnosis aiding system for performing the method
JP2006500124A (ja) 医療画像をコンピュータ支援検出(cad)のガイドによって読み取る方法及びシステム
JP2009516551A (ja) 医用画像の定量的および定性的なコンピュータ支援分析方法およびシステム
JP2007279942A (ja) 類似症例検索装置、類似症例検索方法およびそのプログラム
KR102049336B1 (ko) 컴퓨터 보조 진단 장치 및 방법
JP2000276587A (ja) 異常陰影検出処理方法およびシステム
US12046367B2 (en) Medical image reading assistant apparatus and method providing hanging protocols based on medical use artificial neural network
US20220172826A1 (en) Medical image reading assistant apparatus and method for adjusting threshold of diagnostic assistant information based on follow-up examination
US11996182B2 (en) Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network
CN100507928C (zh) 用于确保医学图像中计算机标记的人工审查的计算机辅助检测系统和方法
JP2007275440A (ja) 類似画像検索装置および方法並びにプログラム
JP7452068B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6448588B2 (ja) 医療診断支援装置、医療診断支援システム、情報処理方法及びプログラム
JP2013041428A (ja) 医療診断支援装置及び医療診断支援方法
EP3362925B1 (en) Systems and methods for generating correct radiological recommendations
JP6316325B2 (ja) 情報処理装置、情報処理装置の作動方法及び情報処理システム
JP2009045110A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP5279996B2 (ja) 画像抽出装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180007768.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2011553996

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11823215

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11823215

Country of ref document: EP

Kind code of ref document: A1