WO2010140288A1 - 診断支援システム及びその診断支援方法、情報処理装置 - Google Patents

診断支援システム及びその診断支援方法、情報処理装置 Download PDF

Info

Publication number
WO2010140288A1
WO2010140288A1 PCT/JP2010/001989 JP2010001989W WO2010140288A1 WO 2010140288 A1 WO2010140288 A1 WO 2010140288A1 JP 2010001989 W JP2010001989 W JP 2010001989W WO 2010140288 A1 WO2010140288 A1 WO 2010140288A1
Authority
WO
WIPO (PCT)
Prior art keywords
diagnosis
case
result
learning
category
Prior art date
Application number
PCT/JP2010/001989
Other languages
English (en)
French (fr)
Inventor
米沢恵子
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to US12/893,989 priority Critical patent/US20110022553A1/en
Publication of WO2010140288A1 publication Critical patent/WO2010140288A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present invention relates to a diagnosis support system, a diagnosis support method thereof, and an information processing apparatus.
  • CAD Diagnostic diagnosis
  • Patent Document 1 there is known an education support system that displays image information and surgical and medical findings of a patient and allows a learner to answer a name of a sickness.
  • the correct answer is displayed to the learner based on the case data with the correct answer. Thereby, the learner can learn the diagnosis result of the specialist for many cases.
  • the above-mentioned system displays the same correct answer to doctors with abundant experience and doctors with little experience, and does not provide educational support according to experience.
  • diagnosis is performed by integrating analysis results from a plurality of modalities.
  • the display ratio of analysis results for each modality is the same.
  • the conventional system only provides uniform educational support for modalities that the learner is not good at or not, and does not provide educational support according to the learner.
  • the present invention has been made in view of the above problems, and learns each doctor's diagnosis pattern in advance, and displays a diagnosis screen corresponding to the diagnosis skill for each doctor based on the learning result.
  • the purpose is to provide the technology.
  • a diagnosis support system includes a first learning result based on diagnosis results by a plurality of doctors for case data and a second result based on diagnosis results by a specific doctor for the case data.
  • Learning means for calculating the learning result
  • analysis means for analyzing characteristics relating to the diagnosis of the specific doctor based on a comparison between the first learning result and the second learning result, and based on the analysis result
  • determining means for determining display information of clinical data obtained by examination of the patient.
  • each doctor's diagnosis pattern is learned in advance, and a diagnosis screen corresponding to the diagnosis skill is displayed to each doctor based on the learning result.
  • FIG. 4 is a flowchart illustrating an example of a process flow of S104 illustrated in FIG. 3. It is a figure which shows an example of classification
  • FIG. 10 is a diagram illustrating an example of a functional configuration of a learning processing apparatus 10 according to the third embodiment. 10 is a flowchart illustrating an example of a process flow in the learning processing apparatus according to the third embodiment.
  • FIG. 1 is a diagram showing an example of the overall configuration of a diagnosis support system according to an embodiment of the present invention. In the present embodiment, a case where diagnosis support for glaucoma is performed will be described as an example.
  • the diagnosis support system is connected to a learning processing device 10, a diagnosis support device 50, a clinical data acquisition device 20, and a database 40 via a network 30 constituted by a LAN (Local Area Network) or the like. Yes.
  • a network 30 constituted by a LAN (Local Area Network) or the like.
  • Each device only needs to be able to communicate, and is not necessarily connected via the network 30.
  • it may be connected via USB (Universal Serial Bus), IEEE 1394, etc., or may be connected via WAN (Wide Area Network).
  • the database 40 stores various data.
  • the database 40 includes a case database 41.
  • the case database 41 stores a plurality of case data such as data that is known to include a diseased part and data that does not include such a diseased part (not considered).
  • each case data includes examination results using a plurality of modalities (for example, fundus camera, OCT (Optical Coherence Tomograph), perimeter).
  • modalities for example, fundus camera, OCT (Optical Coherence Tomograph), perimeter.
  • the learning processing device 10 learns a doctor's diagnosis pattern and analyzes the characteristics of the doctor's diagnosis. Then, the analysis result and the like are stored in the database 40.
  • the clinical data acquisition device 20 acquires clinical data.
  • the clinical data includes test results using a plurality of modalities (for example, fundus camera, OCT, perimeter) as in the case data described above.
  • the clinical data acquisition apparatus 20 performs measurement of imaging of the subject's eye, visual field sensitivity, intraocular pressure, corner angle, and the like, and obtains images and other information obtained by the measurement. It transmits to the diagnosis support apparatus 50.
  • the diagnosis support apparatus 50 is an apparatus used by a doctor for diagnosis.
  • a diagnosis is performed by a doctor
  • a learning result indicating the characteristics of the diagnosis of the doctor is acquired from the database 40, and clinical data of a patient to be diagnosed is acquired from the clinical data acquisition apparatus 20.
  • diagnosis support according to the diagnosis skill of each doctor is performed.
  • a computer is incorporated in the learning processing device 10, the diagnosis support device 50, the clinical data acquisition device 20, the database 40, and the like described above.
  • the computer includes main control means such as a CPU, and storage means such as ROM (Read Only Memory), RAM (Random Access Memory), and HDD (Hard Disk Drive).
  • main control means such as a CPU
  • storage means such as ROM (Read Only Memory), RAM (Random Access Memory), and HDD (Hard Disk Drive).
  • the computer includes input / output means such as a keyboard, a mouse, a display, a button, or a touch panel. These constituent units are connected by a bus or the like, and are controlled by the main control unit executing a program stored in the storage unit.
  • the learning processing device 10 includes a case data acquisition unit 11, an input unit 12, a storage unit 13, a display processing unit 14, an output unit 16, and a control unit 15.
  • the case data acquisition unit 11 acquires case data from the case database 41.
  • the input unit 12 inputs identification information for identifying a doctor (user) and user instructions into the apparatus.
  • the storage unit 13 stores various information.
  • the control unit 15 performs overall control of the learning processing apparatus 10.
  • the display processing unit 14 generates a display screen and displays it on a monitor (display device).
  • the output unit 16 outputs various information toward the database 40 and the like.
  • control unit 15 includes a learning unit 151, a comparison and classification unit 152, and an analysis unit 153.
  • the learning unit 151 obtains a set of feature quantities necessary for identifying the case data. It also sets the parameters for the pattern recognition method. Then, using this feature amount set, pattern recognition method parameters, and the like, a plurality of experienced doctors (experienced persons) and doctors using this system are learned.
  • the comparison classification unit 152 compares a learning result by an experienced person (hereinafter referred to as a first learning result) with a learning result by a system user (hereinafter referred to as a second learning result), and based on the comparison result. Then, each case in the case database 41 is classified. For example, in the case of glaucoma diagnosis, each case is classified into a case that is easy to identify as glaucoma, a case that is easy to identify if it is not glaucoma (that is, normal), a case that is difficult to identify as glaucoma, etc. To do.
  • the analysis unit 153 performs diagnosis of the user based on a learning result by an experienced person (hereinafter referred to as a first learning result) and a learning result by a system user (hereinafter referred to as a second learning result). Analyze features (diagnostic skills).
  • the learning processing apparatus 10 acquires, from the case database 41, case data with a diagnostic label (information indicating a diagnosis result) in the case data acquisition unit 11. Then, the learning processing apparatus 10 determines the feature amount set, sets the parameters of the pattern recognition technique, and stores the information in the storage unit 13 in the learning unit 151 based on the case data with the diagnostic label. (S101). This process is performed for all case data stored in the case database 41.
  • the learning processing apparatus 10 obtains the first discriminant function group in the learning unit 151 based on the diagnostic labels given to the case data by a plurality of experienced doctors (experienced persons) (S102). At this time, the values set in S101 are used as parameters of the feature amount set and the pattern recognition method.
  • the learning processing apparatus 10 obtains the second identification function in the learning unit 151 based on the diagnostic label given to the case data by the doctor (system user) using this system (S103).
  • the second identification function is stored in the storage unit 13 together with information for identifying a doctor (for example, the ID of each doctor). Note that the values set in S101 are used as the parameters of the feature amount set and the pattern recognition method at this time.
  • the learning processing apparatus 10 compares the learning results of the experienced person and the system user based on the first discrimination function obtained in S102 and the second discrimination function obtained in S103 in the comparison and classification unit 152. Then, the cases in the case database 41 are classified based on the comparison result. After the classification, the learning processing apparatus 10 causes the analysis unit 153 to analyze the difference between the first identification function and the second identification function based on the classification result. And the analysis result etc. are stored in the database 40 (S104). Thereafter, this process is terminated.
  • the case database 41 stores a case N glaucoma case that is known to have glaucoma and a normal case N normal example.
  • the case where glaucoma is known refers to, for example, a case where glaucoma is continuously observed and diagnosed as glaucoma after diagnosis by a specialist.
  • the learning processing apparatus 10 acquires all case data from the case database 41 in the case data acquisition unit 11 and stores it in the storage unit 13. Subsequently, the learning processing device 10 performs identification learning by pattern recognition using the acquired case data in the learning unit 151.
  • the feature amount used for pattern recognition is a cup / disk ratio (C / D ratio), a rim / disk ratio (R / D ratio) corresponding to the depression of the optic nerve head, or a nerve fiber layer. And a value such as a color histogram along the nerve fiber layer corresponding to the deficit of.
  • the layer around the macula is divided into nine sectors, and the nerve fiber layer thickness measured in each region and the visual field measurement are MD values (Mean Deviation) and TD values. (Total Deviation).
  • SVM Small Vector Vector Machine
  • any method capable of classifying may be used.
  • classification may be performed by a parametric method using a neural network, a Bayesian network, a mixed normal distribution, or the like.
  • a 10 fold cross validation method may be used as an evaluation method.
  • the glaucoma case and the normal case are each divided into 10 parts, learning is performed using 9 groups of glaucoma cases and 9 groups of normal cases, and the process of identifying the remaining cases is repeated as a result.
  • 10 fold cross validation method is used to evaluate the accuracy rate ((number of cases that identify glaucoma cases as glaucoma + number of cases that identify normal cases as normal) / number of all cases), and pattern recognition so that the accuracy rate is the highest. Determine method parameters.
  • a feature quantity effective for identifying a case is selected from a plurality of feature quantities using a dimension reduction technique.
  • a dimensionality reduction technique called reverse method is used.
  • feature amounts are reduced one by one from the state where all feature amounts are used.
  • This is a technique for evaluating the identification accuracy (Sequential Backward Search method).
  • the forward method (Sequential Forward ⁇ ⁇ ⁇ Search method) that examines the change in accuracy by adding features one by one or the principal component analysis method known as a dimension reduction method that does not use a classifier May be.
  • the dimension reduction is performed using the backward method. Thereafter, the value of the derived parameter is changed around the value, and the change in the correct answer rate is confirmed. By repeating this process, the final set of feature values and the parameters of the pattern recognition method are determined.
  • the learning processing apparatus 10 acquires the case data from the case database 41 in the case data acquisition unit 11 and stores it in the storage unit 13.
  • the acquired case data is displayed on the monitor through the display processing unit 14 simultaneously with the storage in the storage unit 13.
  • the user diagnoses whether or not the case displayed on the monitor has glaucoma, and inputs the diagnosis result.
  • the diagnosis result is input as a diagnostic label into the apparatus via the input unit 12 and stored in the storage unit 13 in association with the case data.
  • the learning processing apparatus 10 uses the feature amount set of each case set in S101 and the parameters of the pattern recognition method in the learning unit 151 to apply the diagnostic label provided by the experienced person. Based on learning. Thereby, the discriminant function f 1 is obtained.
  • the learning here is performed based on a diagnosis by a plurality of experienced doctors, and thereby an identification function of each doctor is obtained.
  • the learning processing apparatus 10 acquires identification information (ID information given to each doctor) for identifying the doctor at the input unit 12.
  • the learning processing apparatus 10 acquires case data from the case database 41 in the case data acquisition unit 11 and stores it in the storage unit 13.
  • the acquired case data is displayed on the monitor through the display processing unit 14 simultaneously with the storage in the storage unit 13.
  • the doctor who is the user diagnoses whether or not the case displayed on the monitor has glaucoma, and inputs the diagnosis result.
  • the diagnosis result is input as a diagnostic label into the apparatus via the input unit 12 and stored in the storage unit 13 in association with the case data.
  • the learning processing apparatus 10 uses the feature amount set of each case set in S101 and the parameters of the pattern recognition method in the learning unit 151 to label the user. Based on learning. Thus, determining the discrimination function f 2. This learning result is stored in the storage unit 13 as the second learning result together with the ID of the doctor who is the system user.
  • the learning processing apparatus 10 acquires from the storage unit 13 the first learning result obtained in S102 and the second learning result obtained in S103.
  • the first learning result is a first discriminant function group f 1 n (x) obtained by diagnosis of a plurality of experienced doctors
  • the second learning result is a doctor of the system user.
  • This is a second discrimination function f 2 (x) obtained by diagnosis.
  • the case group m1 is a group of cases diagnosed as normal by both experienced persons (plural experienced doctors) and system users (doctors using this system).
  • the case group m6 is a case group in which both the experienced person and the system user have diagnosed glaucoma.
  • the case groups m2 and m5 are case groups in which opinions can be shared among experienced persons, and can be said to be case groups (third category) that are difficult to diagnose.
  • case group m3 is a group of cases in which all experienced persons have diagnosed glaucoma but the system user has diagnosed as normal. That is, it becomes a group of cases in which the system user has overlooked glaucoma.
  • this case group m3 be a False-Negative case group (hereinafter referred to as FN case group).
  • case group m4 is a group of cases in which all experienced persons have been diagnosed as normal but the system user has diagnosed as glaucoma. That is, it becomes a False-Positive case group (hereinafter referred to as an FP case group) by the user of this system.
  • the learning processing apparatus 10 causes the analysis unit 153 to execute the first discrimination function group f 1 n (x), the second discrimination function f 2 (x), and It is determined whether or not there is a difference. Specifically, the case groups classified into the case group m3 (FN) and the case group m4 (FP) are the difference between the two. If there are no cases classified into the case group m3 (FN) and the case group m4 (FP), it is assumed that there is no difference between the discriminant functions.
  • Case group m3 (FN) and the case group m1 cases classified in (normal) is the second discrimination function f 2, but has been diagnosed to be normal, the first discrimination function group f 1 n, case group m1 is normal and case group m3 is diagnosed with glaucoma. That is, the case group m1 (first category) is a group of cases diagnosed accurately by a doctor who is a system user, and the case group m3 (second category) is a syndrome in which a misdiagnosis is performed.
  • the learning processing apparatus 10 refers to the case group m3 and the case group m1 in the analysis unit 153, and obtains a feature amount that becomes a separation factor between the case group m3 and the case group m1. For example, using Fisher's discriminant analysis method, an optimal one-dimensional axis for discriminating these two classes is obtained from the two classes of pattern distribution in the feature amount space. Note that the method is not limited to Fisher's discriminant analysis method, and a technique such as a decision tree or logistic regression analysis may be used.
  • the analysis unit 153 applies Fisher's discriminant analysis to the case group m3 and the case group m1. Thereby, the transformation matrix shown in “Formula 1” is obtained.
  • ⁇ i is an average vector of feature vectors in each case group
  • Sw is an intraclass variation matrix.
  • the intra-class variation matrix Sw is expressed as “Expression 2”.
  • Transformation matrix M 31 by discriminant analysis Fisher is obtained.
  • Transformed feature quantity space by the transformation matrix M 31 is a one-dimensional space to maximize the intraclass variation class variability ratio. Although explanation is omitted here, the processing described above is performed also on the case group m4 and the case group m6, and the transformation matrix M46 is obtained.
  • the learning processing unit 10 the analysis unit 153 obtains the largest element absolute value among the elements of the M 31, a feature amount corresponding to the element to the most important feature amount. Also, taking the sum of squares of each element of M 31 for each modality. Then, this value is compared for each modality, and the modality having the largest value is set as the most important modality. This is performed to specify examination information that is important for assisting the diagnosis of the doctor. For M 46 , the most important feature quantity and the most important modality are obtained in the same manner as described above.
  • the learning processing apparatus 10 transmits the analysis result and the like toward the database 40. Specifically, the feature amount set and the pattern recognition parameters set in S101, the first learning result obtained in S102, the second learning result obtained in S103, and the doctor (system user) ID, in S104 The obtained analysis results and the like are stored in the database 40 (S204).
  • the diagnosis support apparatus 50 includes a learning result acquisition unit 51, an input unit 52, a storage unit 53, a display processing unit 54, an output unit 55, a clinical data acquisition unit 56, and a control unit 57. Is done.
  • the input unit 52 inputs information for identifying a doctor (user) and user instructions into the apparatus.
  • the learning result acquisition unit 51 acquires a learning result from the database 40. Specifically, the first learning result and the second learning result are acquired from the database 40.
  • the clinical data acquisition unit 56 acquires clinical data of a patient to be diagnosed from the clinical data acquisition device 20.
  • the storage unit 53 stores various information.
  • the control unit 57 performs overall control of the diagnosis support apparatus 50.
  • the display processing unit 54 generates a display screen and displays it on the monitor.
  • the output unit 55 outputs various information toward the database 40 and the like.
  • control unit 57 includes a display information determination unit 571 and a clinical data identification unit 572.
  • the display information determination unit 571 determines display information to be displayed on the screen when clinical data is displayed.
  • the display information is information indicating which of the test results is displayed when clinical data is displayed, information indicating which modality is displayed, and the like.
  • the display information includes information indicating how to display the test result, information for prompting attention, and the like. Note that display information to be displayed is determined based on the analysis result by the analysis unit 153.
  • the display information determination unit 571 is provided with a comparison classification unit 61.
  • the comparison classifying unit 61 uses a learning result by an experienced person (hereinafter referred to as a first learning result) and a learning result by a system user (hereinafter referred to as a second learning result) to generate a plurality of feature amount spaces. Sort into categories. Then, the display information determination unit 571 determines display information for each classified category.
  • the clinical data identification unit 572 analyzes the clinical data acquired by the clinical data acquisition unit 56, and identifies to which category the clinical data is classified by the comparison classification unit 61 described above. Specifically, the value of each feature value is calculated based on clinical data, and a feature value vector x of the clinical data is obtained. Thereby, it is identified to which case the clinical data is classified.
  • the doctor inputs his / her doctor ID via the input unit 52.
  • the diagnosis support apparatus 50 acquires ID of a doctor (user), and stores it in the memory
  • the learning result acquisition unit 51 acquires information stored in the database 40 by the learning processing apparatus 10. Specifically, the feature amount set and pattern recognition parameters set in S101, and the first learning result (first discrimination function group f 1 n (x)) obtained in S102 are acquired. The learning result acquisition unit 51 acquires the second learning result (second identification function f 2 (x)) performed by the doctor in S103 based on the ID acquired in S301, and the second Based on the learning result, the user's analysis result obtained in S104 is acquired (S302).
  • the diagnosis support apparatus 50 uses the first discrimination function group f 1 n (x) and the second discrimination function f 2 (x) in the display information determination unit 571, As shown in FIG. 8, the feature amount space is classified into a plurality of categories (in this case, six).
  • the category R3 and the category R2 are combined into the category R2, and the category R3 does not exist.
  • the category R4 and the category R5 are combined into a category R5, and the category R4 does not exist. If there is a difference between the two functions, it is classified into one of R3 (FN case group, m3) and R4 (FP case group, m4) based on the information acquired in S302 (specifically, the processing result of S201). Determine whether there are any cases.
  • category R3 and category R2 are combined into category R2, and category R3 does not exist. If there is no FP case group, the category R4 and the category R5 are combined into a category R5, and the category R4 does not exist.
  • the diagnosis support apparatus 50 determines whether the category R3 or the category R4 exists in the display information determination unit 571. If one of the categories exists as a result of the determination, the most important feature amount and the most important modality corresponding to R3 and R4 are stored in the storage unit based on the information acquired in S302 (specifically, the processing result in S203). 53.
  • the diagnosis support apparatus 50 determines display information for each of the plurality of categories (R1 to R6) in the display information determination unit 571 (S303). Specifically, display information corresponding to each category is determined from a plurality of display information provided in advance. For example, display information when displaying a case that is not glaucoma is set for the category R1, and display information when displaying a case that is glaucoma is set for the category R6. For category R2 or R5, display information for displaying cases that are difficult to diagnose even by experienced doctors is set. For category R3 or R4, the most important feature amount obtained in S203 is set. And display information for displaying information based on the most important modality. Furthermore, display information when displaying information including analysis results regarding each modality, display information when displaying information including the distribution of normal examples and the degree of variation for each feature amount, and the like are also selected.
  • the diagnosis support apparatus 50 acquires clinical data from the clinical data acquisition apparatus 20 in the clinical data acquisition unit 56 (S304). Specifically, the clinical data acquisition device 20 is requested to transmit examination results, and the fundus image, 3D image by OCT, visual field sensitivity measurement result by perimeter, intraocular pressure, corner angle, visual acuity, and axial length Clinical data including information is acquired and stored in the storage unit 53.
  • the diagnosis support apparatus 50 calculates the value of each feature value based on the clinical data acquired in S304, and obtains the feature value vector x of the clinical data. Then, using the first discriminant function group f 1 n (x) obtained in S102 and the second discriminant function f 2 (x) obtained in S103, The identification process is performed. Thereby, it is identified to which category of the feature amount space shown in FIG. 8 the case of the acquired clinical data belongs (S305).
  • the diagnosis support apparatus 50 displays clinical data based on the identification result by the clinical data identification unit 572 and the display information determined by the display information determination unit 571. That is, a display screen is generated based on display information set in the category into which clinical data is classified, and is displayed on the monitor (S306).
  • the doctor instructs whether to store the clinical data in the database 40 via the input unit 52.
  • the diagnosis support apparatus 50 transmits the doctor ID, clinical data information, analysis results, and the like to the database 40 in the output unit 55 (S308). Furthermore, the diagnosis result (diagnosis label) by the doctor is stored in the database 40 in association with the clinical data.
  • the doctor instructs whether to end the diagnosis through the input unit 52.
  • the diagnosis support apparatus 50 ends this process.
  • an operation for instructing continuation of diagnosis is performed (NO in S309), the process returns to S304.
  • the display screen is configured based on the most important feature amount and the most important modality described above.
  • the most important feature amount is a feature amount related to the layer thickness of the nerve fiber layer
  • the most important modality is OCT.
  • the layer thickness distribution at the normal time and the data regarding the variation are displayed. Furthermore, the point where the deviation from the normal distribution of the examined case is seen is pointed out, and the tomographic image of the place where the big deviation is seen is displayed.
  • intraocular pressure is affected by various factors. Therefore, if the most important feature amount is intraocular pressure, data regarding fluctuation is displayed. For example, data regarding the effects of age, sex, race, refraction, and the difference in variation between sitting and supine positions during measurement may be displayed.
  • a diagnosis pattern of a plurality of experienced doctors is compared with a diagnosis pattern of a doctor who uses this system, and the difference is analyzed. And the display content of a diagnostic screen is changed based on the analysis result.
  • Embodiment 2 Next, Embodiment 2 will be described.
  • the diagnostic screen is displayed in units of each modality has been described as an example.
  • the second embodiment attention is focused on the fact that there are a plurality of different imaging results and analysis results even with the same modality.
  • OCT modality of the fundus camera includes analysis of the optic nerve head in the fundus image and analysis of nerve fiber defects.
  • the most important modalities are further classified to obtain the most important imaging location or the most important analysis location.
  • the processing of S203 is different from the first embodiment.
  • the learning processing unit 10 according to the second embodiment, the analysis unit 153, the absolute value seeking the largest element in the elements of the transformation matrix M 31, most significant feature quantity the feature quantity corresponding to the elements And Also, taking the sum of squares of each element of M 31 for each corresponding imaging portion.
  • the imaging location where the sum of squares is the largest is taken as the most important imaging location. For example, if there is an OCT image in which the macular portion is imaged and an OCT image in which the optic nerve head is imaged, each element sum of squares of M 31 corresponding to the feature amount of the macula portion and the feature amount of the optic nerve head Each element sum of squares of M 31 is calculated.
  • the fundus image when analyzing the fundus image, there may be a plurality of analysis points such as analysis of the optic nerve head, analysis of nerve fiber defects in the upper half of the fundus, and analysis of nerve fiber defects in the lower half of the fundus. Therefore, the sum of squares of each element of M 31 corresponding to the feature quantity related to each analysis location is obtained, and those values are compared for each analysis location. The analysis location where the sum of squares is the largest is taken as the most important analysis location. Also with respect to M 46, similarly to the above finding and the most important feature amount, and most important imaging points or most significant analysis portion.
  • the processing of S302 and S303 is different from that of the first embodiment.
  • the processing of S302 not only acquisition of the most important modality but also acquisition of the most important imaging location or the most important analysis location of the modality.
  • the diagnosis support apparatus 50 acquires the most important feature amount, the most important imaging location, or the most important analysis location.
  • the diagnosis support apparatus 50 determines display information for each of a plurality of categories (R1 to R6) in the display information determination unit 571. Specifically, display information similar to that of the first embodiment is set for the categories R1, R2, R5, and R6, but the category R3 corresponds to the most important feature amount, the most important imaging location, or the most important analysis location. Display information is set.
  • the second embodiment not only the modality but also the display based on the imaging location or the analysis location based on the modality is performed. Therefore, for example, even with a modality of OCT, information on the optic nerve head can be displayed with priority, in particular.
  • the FP case group and the FN case group are treated as one set when analyzing the difference between the diagnosis pattern of a plurality of experienced doctors and the diagnosis pattern of a doctor using this system. .
  • the FN case group should be further classified among them.
  • clustering processing is performed on case groups (FP case group, FN case group) in a specific category. Thereby, the most important feature quantity and the most important modality reflecting the internal structure of each case group are obtained.
  • a clustering unit 154 is newly provided.
  • the clustering unit 154 further classifies the FP case group and the FN case group.
  • For clustering for example, a k-Means method or a method using a mixed normal distribution may be employed.
  • the learning processing apparatus 10 classifies each case data as in the first embodiment (S401). Thereafter, the learning processing apparatus 10 determines whether or not there is a difference between the first discriminant function group f 1 n (x) and the second discriminant function f 2 (x) in the comparison and classification unit 152.
  • the learning processing apparatus 10 performs a clustering process in the clustering unit 154 (S403). Specifically, to classify the case group m3 and case group m4 3 or k respectively, the k 4 pieces of clusters. As a result, m3-1 to m3-k 3 and m4-1 to m4-k 4 are obtained.
  • the learning processing apparatus 10 performs an analysis process in the analysis unit 153 (S404).
  • the case group m3 replaced by k 3 pieces of clusters of the (FN) m3-1 ⁇ m3-k 3, k 4 of case group m4 the (FP) m4-1 ⁇ m4-k 4 Replace with clusters.
  • the learning processing apparatus 10 performs the same analysis as in the first embodiment on 1-1) to 1-k 3 ) and 2-1 to 2-k 4 ). Thereby, the transformation matrices M 31 ⁇ 1 to M 31 ⁇ k 3 and M 46 ⁇ 1 to M 46 ⁇ k 4 are acquired as analysis results.
  • the learning processing apparatus 10 obtains the element having the largest absolute value among the elements of M 31 -1 in the analysis unit 153, as in the first embodiment, and maximizes the feature amount corresponding to the element. Use important features. Further, the sum of squares of each element of M 31 ⁇ 1 is taken for each modality. Then, this value is compared for each modality, and the modality having the largest value is set as the most important modality. Similarly, the most important feature amount and the most important modality are obtained for all the transformation matrices M 31 ⁇ 1 to M 31 ⁇ k 3 and M 46 ⁇ 1 to M 46 ⁇ k 4 . For M 46 ⁇ 1, the most important feature amount and the most important modality are obtained in the same manner as described above.
  • the learning processing apparatus 10 stores the analysis result in the storage unit 13 as the most important feature amount and the most important modality for each cluster.
  • the most important feature amount and the most important imaging part or the most important analysis part may be obtained.
  • the diagnosis support apparatus 50 causes the display information determination unit 571 to divide the feature amount space into a plurality of categories (in this case, six categories) as shown in FIG. ). Then, as in the first embodiment, the categories are merged. If there is a feature amount space corresponding to the category R3 (FN case group) as a result of this combination of categories and the like, the category R3 is classified into one of the k 3 clusters described in S403. In addition, category R4 (FP case group) also, category R3 Similarly, classified into k 4 pieces of the cluster.
  • category R3 FN case group
  • category R4 FP case group
  • category R3 Similarly, classified into k 4 pieces of the cluster.
  • the diagnosis support apparatus 50 determines in the display information determination unit 571 whether the category R3 or the category R4 exists. As a result of the determination, if any category exists, it corresponds to category R3 and its clusters (R3-1 to R3-k 3 ), category R4 and its clusters (R4-1 to R4-k 4 ). Get the most important features and most important modalities.
  • the diagnosis support apparatus 50 determines display information for each of the plurality of categories in the display information determination unit 571 (S303). That is, display information for four types of categories (R1, R2, R5, and R6), two types of categories, and clusters (R3-1 to R3-k 3 , R4-1 to R4-k 4 ) belonging to each category are determined. . For each cluster of category R3 (R3-1 to R3-k 3 ) and each class of category R4 (R4-1 to R4-k 4 ), display information corresponding to the most important feature amount and the most important modality is displayed. Set.
  • the diagnosis support apparatus 50 acquires clinical data (S304) and obtains a feature vector x of the clinical data. Thereby, it is identified which case of the acquired clinical data belongs to which of the feature amount spaces (six classifications and corresponding clusters) shown in FIG. 8 (S305).
  • a cluster identification method for example, if the k-Means method is used in S403, the case is classified into the nearest cluster among the average vectors of each cluster.
  • the diagnosis support device 50 displays clinical data based on the identification result by the clinical data identification unit 572 and the display information determined by the display information determination unit 571. That is, a display screen is generated based on display information set in the category into which clinical data is classified, and is displayed on the monitor (S306). Since the subsequent processing is the same as that of the first embodiment, the description thereof is omitted.
  • a more optimal diagnosis screen can be displayed when diagnosing a case that is likely to cause a diagnosis error (FP, FN).
  • the diagnosis support apparatus 50 is configured to perform the category identification process and the clustering process each time a diagnosis is made.
  • the present invention is not limited to this.
  • the result of category identification and clustering performed once may be held, and thereafter, the result may be acquired to provide diagnosis support.
  • the learning processing device 10 the diagnosis support device 50, the clinical data acquisition device 20, and the database 40 are included.
  • the learning processing device 10 and the diagnosis support device 50 may be realized as one device (information processing device), or may be realized as three or more devices.
  • the present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Bioethics (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Eye Examination Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

 診断支援システムは、症例データに対する複数の医師による診断結果に基づく第1の学習結果と、該症例データに対する特定の医師による診断結果に基づく第2の学習結果とを算出する学習手段と、第1の学習結果と第2の学習結果との比較に基づいて特定の医師の診断に関する特徴を分析する分析手段と、分析結果に基づいて患者の検査により得られた臨床データの表示情報を決定する決定手段とを具備する。

Description

診断支援システム及びその診断支援方法、情報処理装置
 本発明は、診断支援システム及びその診断支援方法、情報処理装置に関する。
 近年、様々な計測機器が医療現場で用いられるようになっている。これらの機器は、計測精度やデータ処理能力の向上により、莫大な情報量のデータを静止画や動画として生成する。そのため、それらデータに基づき診断を行なう読影医の負荷は、甚大なものとなっている。また、読影医の絶対数が少ないことがこのような負荷の増大の一要因となっており、読影医の育成は急務であるともいわれている。
 診断支援(以下、CADと略す)技術が脚光を浴びている。CADでは、例えば、X線CTデータや、脳のMRIデータを用いて読影の支援を行なう。読影医の育成に関しては、特許文献1に示すように、患者の画像情報や外科的及び内科的所見を表示し、学習者に傷病名を解答させる教育支援システムが知られている。この教育支援システムでは、正解が付けられた症例データに基づいて、学習者に正しい答えを表示する。これにより、学習者は、多くの症例に対する専門医の診断結果を学ぶことができる。
特開平5-25748号公報
 一般に、上述したシステムは、経験が豊富な医師に対しても、経験が浅い医師に対しても、同じ正解を表示し、経験等に応じた教育支援は行なっていない。また、例えば、眼科の場合、複数のモダリティによる分析結果を統合して診断を行なうが、この場合にも、各モダリティに対する分析結果の表示の割合は同一となる。
 すなわち、従来のシステムでは、学習者が苦手としているモダリティに対してもそうでないモダリティに対しても画一的な教育支援を行なうだけであり、学習者に応じた教育支援を行なっていない。
 本発明は、上記課題に鑑みてなされたものであり、医師個々の診断パターンを予め学習しておき、当該学習結果に基づいて診断スキルに応じた診断画面を各医師に対して表示するようにした技術を提供することを目的とする。
 上記課題を解決するため、本発明の一態様による診断支援システムは、症例データに対する複数の医師による診断結果に基づく第1の学習結果と、該症例データに対する特定の医師による診断結果に基づく第2の学習結果とを算出する学習手段と、前記第1の学習結果と前記第2の学習結果との比較に基づいて前記特定の医師の診断に関する特徴を分析する分析手段と、前記分析結果に基づいて患者の検査により得られた臨床データの表示情報を決定する決定手段とを具備することを特徴とする。
 本発明によれば、医師個々の診断パターンを予め学習しておき、当該学習結果に基づいて診断スキルに応じた診断画面を各医師に対して表示する。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本発明の一実施の形態に係わる診断支援システムの全体構成の一例を示す図。 図1に示す学習処理装置10の機能的な構成の一例を示す図。 図1に示す学習処理装置10における処理の流れの一例を示すフローチャート。 図3に示すS104の処理の流れの一例を示すフローチャート。 症例データの分類の一例を示す図である。 図1に示す診断支援装置50の機能的な構成の一例を示す図。 図1に示す診断支援装置50における処理の流れの一例を示すフローチャート。 症例データの分類の一例を示す図である。 実施形態3に係わる学習処理装置10の機能的な構成の一例を示す図。 実施形態3に係わる学習処理装置10における処理の流れの一例を示すフローチャート。
 以下、本発明に係わる診断支援システム及びその診断支援方法、情報処理装置の一実施の形態について添付図面を参照して詳細に説明する。
 (実施形態1)
 図1は、本発明の一実施の形態に係わる診断支援システムの全体構成の一例を示す図である。なお、本実施形態においては、緑内障の診断支援を行なう場合を例に挙げて説明する。
 この診断支援システムには、LAN(Local Area Network)等で構成されたネットワーク30を介して、学習処理装置10と、診断支援装置50と、臨床データ取得装置20と、データベース40とが接続されている。なお、各装置は、通信が行なえればよく、必ずしもネットワーク30を介して接続される必要はない。例えば、USB(Universal Serial Bus)やIEEE1394等を介して接続されていもよいし、また、WAN(Wide Area Network)を介して接続されていてもよい。
 ここで、データベース40は、各種データを格納する。データベース40には、症例データベース41が含まれる。症例データベース41には、疾患部を含むことが分かっているデータ、及びそのような疾患部を含まないデータ(所見なし)等、複数の症例データが格納される。ここで、各症例データには、複数のモダリティ(例えば、眼底カメラ、OCT(Optical Coherence Tomograph)、視野計)を用いた検査結果が含まれる。具体的には、眼底カメラで撮影した眼底画像、OCTにより黄斑部及び視神経乳頭部の断層像を撮影した3D画像、視野計による視野感度の測定結果、被検眼の眼圧、隅角、視力、眼軸長の値等が含まれる。
 学習処理装置10は、医師の診断パターンを学習し、当該医師の診断の特徴を分析する。そして、その分析結果等をデータベース40に格納する。
 臨床データ取得装置20は、臨床データを取得する。臨床データには、上述した症例データ同様に、複数のモダリティ(例えば、眼底カメラ、OCT、視野計)を用いた検査結果が含まれる。臨床データ取得装置20では、診断支援装置50からの指示に応じて、被検眼の撮影や視野感度、眼圧、隅角等の測定を実施し、当該測定により得られた画像やその他の情報を診断支援装置50に送信する。
 診断支援装置50は、医師が診断に用いる装置である。診断支援装置50では、医師による診断が行なわれる際に、当該医師の診断の特徴を示す学習結果をデータベース40から取得するとともに、診断対象となる患者の臨床データを臨床データ取得装置20から取得する。そして、当該医師が間違いやすい症例の診断に際しては、その間違いをカバーするために重要となる情報を臨床データに基づいて表示する。これにより、医師各々の診断スキルに応じた診断支援を行なう。
 なお、上記説明した、学習処理装置10、診断支援装置50、臨床データ取得装置20、データベース40等には、コンピュータが組み込まれている。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、キーボード、マウス、ディスプレイ、ボタン又はタッチパネル等の入出力手段、等も具備される。これら各構成手段は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
 図2を用いて、図1に示す学習処理装置10の機能的な構成の一例について説明する。学習処理装置10は、症例データ取得部11と、入力部12と、記憶部13と、表示処理部14と、出力部16と、制御部15とを具備して構成される。
 症例データ取得部11は、症例データベース41から症例データを取得する。入力部12は、医師(使用者)を識別する識別情報や、使用者の指示を装置内に入力する。記憶部13は、各種情報を記憶する。制御部15は、学習処理装置10を統括制御する。表示処理部14は、表示画面を生成し、それをモニタ(表示器)に表示する。出力部16は、データベース40等に向けて各種情報を出力する。
 ここで、制御部15には、学習部151と、比較分類部152と、分析部153とが具備される。学習部151は、症例データ取得部11により取得された症例データに基づいて、当該症例データを識別するために必要な特徴量のセットを求める。また、パターン認識手法のパラメータの設定も行なう。そして、この特徴量のセット、パターン認識手法のパラメータ等を用いて、複数の経験豊富な医師(経験者)や本システムを使用する医師の診断パターンを学習する。
 比較分類部152は、経験者による学習結果(以下、第1の学習結果と呼ぶ)とシステム使用者による学習結果(以下、第2の学習結果と呼ぶ)とを比較し、その比較結果に基づいて症例データベース41内の各症例を分類する。例えば、緑内障診断の場合であれば、緑内障であると識別し易い症例、緑内障でないと識別し易い症例(すなわち、正常)、緑内障であると識別するのが困難な症例、等に各症例を分類する。
 分析部153は、経験者による学習結果(以下、第1の学習結果と呼ぶ)とシステム使用者による学習結果(以下、第2の学習結果と呼ぶ)とに基づいて、当該使用者の診断の特徴(診断スキル)を分析する。
 次に、図3を用いて、図1に示す学習処理装置10における処理の流れの一例について説明する。ここでは、学習結果を作成する時の処理の流れについて説明する。
 この処理が始まると、学習処理装置10は、症例データ取得部11において、診断ラベル(診断結果を示す情報)付きの症例データを症例データベース41から取得する。そして、学習処理装置10は、学習部151において、当該診断ラベル付きの症例データに基づいて、特徴量のセットを決めるとともに、パターン認識手法のパラメータ等を設定し、それら情報を記憶部13に格納する(S101)。この処理は、症例データベース41に格納された全ての症例データに対して行なわれる。
 ここで、学習処理装置10は、学習部151において、複数の経験豊富な医師(経験者)が症例データに付与した診断ラベルに基づいて、第1の識別関数群を求める(S102)。このとき、特徴量セットやパターン認識手法のパラメータは、S101で設定された値を用いる。
 次に、学習処理装置10は、学習部151において、本システムを使用する医師(システム使用者)が症例データに付与した診断ラベルに基づいて、第2の識別関数を求める(S103)。第2の識別関数は、医師を識別する情報(例えば、各医師のID)とともに記憶部13に格納される。なお、このときの特徴量セットやパターン認識手法のパラメータは、S101で設定された値を用いる。
 学習処理装置10は、比較分類部152において、S102で求めた第1の識別関数と、S103で求めた第2の識別関数とに基づき、経験者とシステム使用者との学習結果を比較する。そして、その比較結果に基づいて症例データベース41内の症例を分類する。この分類が済むと、学習処理装置10は、分析部153において、分類結果に基づいて、第1の識別関数及び第2の識別関数の差異を分析する。そして、その分析結果等をデータベース40に格納する(S104)。その後、この処理を終了する。
 [S101の処理の詳細]
 ここで、図3に示すS101の処理について具体例を挙げて説明する。
 ここで、症例データベース41には、緑内障であることが既知である症例Nglaucoma例と、正常な症例Nnormal例とが格納されている。なお、緑内障であることが既知である症例とは、例えば、専門医により緑内障と診断された後、継続的に経過観察され、緑内障であることが確定した症例を指す。
 学習処理装置10は、症例データ取得部11において、症例データベース41から全ての症例データを取得し、記憶部13に格納する。続いて、学習処理装置10は、学習部151において、当該取得した症例データを用いてパターン認識による識別学習を行なう。パターン認識に用いる特徴量は、例えば、眼底画像であれば、視神経乳頭部の陥凹に対応するカップ/ディスク比(C/D比)やリム/ディスク比(R/D比)、神経線維層の欠損に対応する神経線維層に沿った色ヒストグラムなどの値が挙げられる。また、例えば、OCTによる3D画像であれば、黄斑周辺を9つのセクターに分割しそれぞれの領域で測定した神経線維層の層厚さ、視野測定であれば、MD値(Mean Deviation)やTD値(Total Deviation)などが挙げられる。
 パターン認識には、例えば、SVM(Support Vector Machine)を用いればよい。なお、この手法以外にも、クラス分類が可能な手法であればよい。例えば、SVM以外でも、ニューラルネットワーク、ベイジアンネットワーク、混合正規分布などを用いたパラメトリックな手法によりクラス分類してもよい。
 また、評価法としては、例えば、10 fold cross validation法を用いればよい。緑内障症例、正常症例をそれぞれ10分割して、緑内障症例の9グループと正常症例の9グループとを用いて学習し、その結果で残りの症例の識別を行なう処理を繰り返す。10 fold cross validation法により正解率((緑内障症例を緑内障と識別する症例数+正常症例を正常と識別する症例数)/全症例数)を評価し、その正解率が最も高くなるようにパターン認識手法のパラメータを決定する。
 ここで、次元削減手法を用いて複数の特徴量の中から症例の識別に有効な特徴量を選択する。例えば、後進法と呼ばれる次元削減手法を用いる。後進法では、全ての特徴量を用いた状態から一つずつ特徴量を減らしていく。これにより、識別精度を評価する手法(Sequential Backward Search法)である。但し、この手法に限られない。例えば、これとは逆に特徴量を一つずつ加えていくことによって精度の変化を調べる前進法(Sequential Forward Search法)や、識別器によらない次元削減手法として知られる主成分分析法を用いてもよい。
 10 fold cross validation法により全ての特徴量を用いてパラメータを調整した後、後進法を用いて次元削減を行なう。その後、導出されたパラメータの値をその値周辺で変化させて、正答率の変化を確認する。この処理を繰り返すことにより、最終的な特徴量のセット、パターン認識手法のパラメータを決定する。
 このように学習部151では、症例データベース41から取得した症例データに基づいて、特徴量のセットを決め、学習モデルを設定するために必要となるパラメータ(カーネルやパラメータ)を設定する。これらパラメータ等は、上述した通り、記憶部13に格納される。なお、この処理では、症例データベース41に格納された全ての症例データに対して特徴量のセットを算出する。そして、症例毎の特徴量ベクトルx(i=1~N)を記憶部13に格納する。
 [S102の処理の詳細]
 次に、図3に示すS102の処理の具体的内容に関して説明する。ここでは、緑内障診断の経験が豊富な医師(経験者)がシステム使用者であるとする。
 この処理が始まると、学習処理装置10は、症例データ取得部11において、症例データベース41から症例データを取得し、それを記憶部13に格納する。この取得した症例データは、記憶部13への格納と同時に表示処理部14を介してモニタに表示される。使用者は、モニタに表示された症例に対して緑内障であるか否かを診断し、その診断結果を入力する。この診断結果は、入力部12を介して装置内に診断ラベルとして入力され、症例データと対応付けて記憶部13に格納される。
 全ての症例データのラベル付けが終わると、学習処理装置10は、学習部151において、S101で設定した各症例の特徴量セット、パターン認識手法のパラメータを用いて、経験者が付与した診断ラベルに基づく学習を行なう。これにより、識別関数fを求める。
 ここでの学習は、複数の経験豊富な医師による診断に基づいて行われ、これにより、各医師の識別関数が求められる。n人の医師各々に対応する識別関数をf ~f とする。この学習結果は、第1の学習結果として記憶部13に格納される。
 (S103の処理の詳細)
 次に、図3に示すS103の処理について具体例を挙げて説明する。ここでは、本システムを使用する医師(経験豊富であっても、そうでなくても良い)をシステム使用者とする。
 この処理が始まると、学習処理装置10は、入力部12において、医師を識別する識別情報(各医師に対して付与されたID情報)を取得する。また、学習処理装置10は、症例データ取得部11において、症例データベース41から症例データを取得し、それを記憶部13に格納する。この取得した症例データは、記憶部13への格納と同時に表示処理部14を介してモニタに表示される。使用者である医師は、モニタに表示された症例に対して緑内障であるか否かを診断し、その診断結果を入力する。この診断結果は、入力部12を介して装置内に診断ラベルとして入力され、症例データと対応付けて記憶部13に格納される。
 全ての症例データのラベル付けが終わると、学習処理装置10は、学習部151において、S101で設定した各症例の特徴量セット、パターン認識手法のパラメータを用いて、使用者に付与されたラベルに基づく学習を行なう。これにより、識別関数fを求める。この学習結果は、システム使用者である医師のIDとともに、第2の学習結果として記憶部13に格納される。
 [S104の処理の詳細]
 次に、図4を用いて、図3に示すS104の処理について具体例を挙げて説明する。
 学習処理装置10は、S102で求めた第1の学習結果と、S103で求めた第2の学習結果とを記憶部13から取得する。ここで、第1の学習結果は、複数の経験豊富な医師の診断により得られた第1の識別関数群f (x)であり、第2の学習結果は、システム使用者の医師の診断により得られた第2の識別関数f(x)である。
 また、学習処理装置10は、S101で算出した各症例データに対する特徴量ベクトルx(i=1~N)の値を取得する。そして、学習処理装置10は、比較分類部152において、第1の識別関数群f (x)と第2の識別関数f(x)とを用いて、各症例データを分類する(S201)。これにより、各症例データは、図5に示すように分類される。
 図5の横軸においては、n種の第1の識別関数f (x)~f (x)全てで正常とされ、且つ正常であることが確定している症例を正常、全てで緑内障とされ、且つ緑内障であることが確定している症例を緑内障としている。更に、n種の第1の識別関数で1つでも確定診断結果と異なる結果が得られた症例を困難症例と分類している。また、図5の縦軸においては、第2の識別関数f(x)に基づく識別結果が示されており、各症例は全部で6種類のカテゴリに分類される。
 ここで、症例群m1は、経験者(複数の経験豊富な医師)とシステム使用者(本システムを使用する医師)とがともに、正常と診断した症例群である。また、症例群m6は、経験者とシステム使用者とがともに、緑内障と診断した症例群である。症例群m2及びm5は、経験者の間でも意見のわかれる症例群であり、診断の難しい症例群(第3のカテゴリ)といえる。
 これに対し、症例群m3は、経験者全てが緑内障と診断しているが、システム使用者は正常と診断している症例群である。つまり、システム使用者が緑内障を見落としている症例群となる。この症例群m3をFalse Negative症例群(以下、FN症例群と呼ぶ)とする。逆に、症例群m4は、経験者全てが正常と診断しているが、システム使用者は緑内障と診断している症例群である。つまり、本システムの使用者によるFalse Positive症例群(以下、FP症例群と呼ぶ)となる。
 図4の説明に戻り、症例データの分類が済むと、学習処理装置10は、分析部153において、第1の識別関数群f (x)と第2の識別関数f(x)とに差異があるか否かの判断を行なう。具体的には、症例群m3(FN)及び症例群m4(FP)に分類された症例群が両者の差異となる。症例群m3(FN)及び症例群m4(FP)に分類された症例がなければ、両者の識別関数には差異がないとする。
 判断の結果、差異がなければ(S202でNO)、この処理は終了する。一方、差異があれば(S202でYES)、学習処理装置10は、分析部153において、分析処理を行なう(S203)。
 ここで、分析処理においては、以下、(1)及び(2)の関係に着目する。
 1)症例群m3(FN)と症例群m1(正常)、
 2)症例群m4(FP)と症例群m6(緑内障)
 症例群m3(FN)及び症例群m1(正常)に分類された症例は、第2の識別関数fでは、正常と診断されているが、第1の識別関数群f では、症例群m1は正常、症例群m3は緑内障と診断されている。すなわち、システム使用者となる医師が、正確に診断を行なった症例群が症例群m1(第1のカテゴリ)であり、誤診断を行なった症候群が症例群m3(第2のカテゴリ)である。
 学習処理装置10は、分析部153において、症例群m3及び症例群m1を参照し、症例群m3と症例群m1との分離要因となる特徴量を求める。例えば、フィッシャーの判別分析法を用いて、特徴量空間上の2クラスのパターン分布から、この2クラスを識別するのに最適な一次元軸を求める。なお、フィッシャーの判別分析法に限られず、例えば、決定木やロジスティック回帰分析などの手法を用いてもよい。
 ここで、分析部153は、症例群m3及び症例群m1に対してフィッシャーの判別分析を適応する。これにより、「式1」に示す変換行列を求める。
Figure JPOXMLDOC01-appb-I000001
 ここで、μは各症例群における特徴量ベクトルの平均ベクトルであり、Sはクラス内変動行列である。症例群m3及び症例群m1に分類された各症例に対する特徴量ベクトルをxとすると、クラス内変動行列Sは「式2」のように示される。
Figure JPOXMLDOC01-appb-I000002
 フィッシャーの判別分析法により変換行列M31が求まる。変換行列M31により変換された特徴量空間は、クラス内変動・クラス間変動比を最大にする一次元空間となる。なお、ここでは説明を省略するが、症例群m4及び症例群m6に対しても、上述した処理を実施し、変換行列M46を求める。
 変換行列が求まると、学習処理装置10は、分析部153において、M31の要素の中で絶対値が最も大きな要素を求め、その要素に対応する特徴量を最重要特徴量とする。また、モダリティ毎にM31の各要素の2乗和をとる。そして、この値をモダリティ毎に比較し、最も大きな値となったモダリティを最重要モダリティとする。これは、当該医師の診断を補助するのに重要となる検査情報を特定するために行なわれる。なお、M46に対しても、上記同様に最重要特徴量及び最重要モダリティを求める。
 分析処理が済むと、学習処理装置10は、当該分析結果等をデータベース40に向けて送信する。具体的には、S101で設定した特徴量のセットやパターン認識のパラメータ、S102で求めた第1の学習結果、S103で求めた第2の学習結果及び医師(システム使用者)のID、S104で求めた分析結果、等をデータベース40に格納する(S204)。
 次に、図6を用いて、図1に示す診断支援装置50の機能的な構成の一例について説明する。診断支援装置50は、学習結果取得部51と、入力部52と、記憶部53と、表示処理部54と、出力部55と、臨床データ取得部56と、制御部57とを具備して構成される。
 入力部52は、医師(使用者)を識別する情報や、使用者の指示を装置内に入力する。学習結果取得部51は、データベース40から学習結果を取得する。具体的には、第1の学習結果と、第2の学習結果とをデータベース40から取得する。
 臨床データ取得部56は、診断対象となる患者の臨床データを臨床データ取得装置20から取得する。記憶部53は、各種情報を記憶する。制御部57は、診断支援装置50を統括制御する。表示処理部54は、表示画面を生成し、それをモニタに表示する。出力部55は、データベース40等に向けて各種情報を出力する。
 ここで、制御部57には、表示情報決定部571と、臨床データ識別部572とが具備される。
 表示情報決定部571は、臨床データ表示時に画面上に表示する表示情報を決める。表示情報とは、臨床データの表示に際して、検査結果の内のいずれを表示するかを示す情報や、いずれのモダリティにより検査された情報を表示するかを示す情報等である。また、表示情報には、その検査結果をどのように表示するかを示す情報や、その他、注意喚起等を促す情報等も含まれる。なお、どのような表示情報を表示するかは、分析部153による分析結果に基づいて決められる。
 表示情報決定部571には、比較分類部61が設けられる。比較分類部61では、経験者による学習結果(以下、第1の学習結果と呼ぶ)とシステム使用者による学習結果(以下、第2の学習結果と呼ぶ)とを用いて、特徴量空間を複数のカテゴリに分類する。そして、表示情報決定部571は、その分類されたカテゴリ毎に表示情報を決める。
 臨床データ識別部572は、臨床データ取得部56により取得された臨床データを分析し、上述した比較分類部61により分類されたいずれのカテゴリに当該臨床データが分類されるのかを識別する。具体的には、臨床データに基づいて各特徴量の値を算出し、当該臨床データの特徴量ベクトルxを求める。これにより、当該臨床データがいずれの症例に分類されるのかを識別する。
 次に、図7を用いて、図1に示す診断支援装置50における処理の流れの一例について説明する。ここでは、緑内障の診断支援を行なう時の処理の流れについて説明する。
 医師は、まず、入力部52を介して自身の医師IDを入力する。これにより、診断支援装置50は、医師(使用者)のIDを取得し、それを記憶部53に格納する(S301)。
 診断支援装置50は、学習結果取得部51において、学習処理装置10がデータべース40に格納した情報を取得する。具体的には、S101で設定された特徴量のセットやパターン認識のパラメータ、S102で求められた第1の学習結果(第1の識別関数群f (x))を取得する。また、学習結果取得部51は、S301で取得したIDに基づいて当該医師によりS103で行なわれた第2の学習結果(第2の識別関数f(x))を取得するとともに、当該第2の学習結果に基づいてS104で求められた当該使用者の分析結果を取得する(S302)。
 これら情報の取得が済むと、診断支援装置50は、表示情報決定部571において、第1の識別関数群f (x)と、第2の識別関数f(x)とを用いて、図8に示すように、特徴量空間を複数のカテゴリ(この場合、6つ)に分類する。
 ここで、第1の識別関数群f (x)及び第2の識別関数f(x)に差異がなければ、カテゴリR3とカテゴリR2とを合わせてカテゴリR2とし、カテゴリR3は存在しないものとする。また、カテゴリR4とカテゴリR5とを合わせてカテゴリR5とし、カテゴリR4は存在しないものとする。両関数に差異があれば、S302で取得した情報(具体的には、S201の処理結果)に基づいてR3(FN症例群、m3)及びR4(FP症例群、m4)のいずれかに分類された症例があるか否かを判断する。判断の結果、FN症例群がなければ、カテゴリR3とカテゴリR2とを合わせてカテゴリR2とし、カテゴリR3は存在しないものとする。また、FP症例群がなければ、カテゴリR4とカテゴリR5とを合わせてカテゴリR5とし、カテゴリR4は存在しないものとする。
 次に、診断支援装置50は、表示情報決定部571において、カテゴリR3又はカテゴリR4が存在するか否かを判断する。判断の結果、いずれかのカテゴリが存在すれば、S302で取得した情報(具体的には、S203の処理結果)に基づいて、R3及びR4に対応する最重要特徴量及び最重要モダリティを記憶部53から取得する。
 次に、診断支援装置50は、表示情報決定部571において、複数のカテゴリ(R1~R6)各々に対する表示情報を決める(S303)。具体的には、予め設けられた複数の表示情報の中からカテゴリ各々に対応した表示情報を決める。例えば、カテゴリR1に対しては、緑内障でない症例を表示する時の表示情報を設定し、カテゴリR6に対しては、緑内障である症例を表示する時の表示情報を設定する。また、カテゴリR2又はR5に対しては、経験のある医師でも診断が困難な症例を表示する時の表示情報を設定し、カテゴリR3又はR4に対しては、S203で求められた最重要特徴量及び最重要モダリティに基づく情報を表示する時の表示情報を設定する。更に、各モダリティに関する分析結果を含む情報を表示する時の表示情報や、特徴量各々に対する正常例の分布やばらつきの度合いなどを含む情報を表示する時の表示情報等も選択される。
 各カテゴリに対する表示情報が決まると、診断支援装置50は、臨床データ取得部56において、臨床データ取得装置20から臨床データを取得する(S304)。具体的には、臨床データ取得装置20に対して検査結果の送信を要求し、眼底画像、OCTによる3D画像、視野計による視野感度の測定結果、眼圧、隅角、視力、眼軸長の情報を含む臨床データを取得し、それを記憶部53に格納する。
 診断支援装置50は、臨床データ識別部572において、S304で取得した臨床データに基づいて各特徴量の値を算出し、当該臨床データの特徴量ベクトルxを求める。そして、S102で求められた第1の識別関数群f (x)と、S103で求められた第2の識別関数f(x)とを用いて、この算出された特徴量ベクトルに対して識別処理を実施する。これにより、取得した臨床データの症例が、図8に示す特徴量空間のいずれのカテゴリに属するのかを識別する(S305)。
 診断支援装置50は、表示処理部54において、臨床データ識別部572による識別結果と、表示情報決定部571により決められた表示情報とに基づいて臨床データを表示する。すなわち、臨床データが分類されたカテゴリに設定された表示情報に基づいて表示画面を生成し、それをモニタに表示する(S306)。
 診断が終わると、医師は、入力部52を介して、当該臨床データをデータベース40に格納するか否かを指示する。ここで、格納が指示された場合(S307でYES)、診断支援装置50は、出力部55において、医師のIDと臨床データの情報や分析結果等をデータベース40に送信する(S308)。更に、医師による診断結果(診断ラベル)を当該臨床データと対応付けてデータベース40に格納する。
 その後、医師は、入力部52を介して、診断を終了するか否かを指示する。ここで、医師により診断の終了を指示する旨の操作が行なわれた場合(S309でYES)、診断支援装置50は、この処理を終了する。一方、診断の継続を指示する旨の操作が行なわれた場合(S309でNO)、S304の処理に戻る。
 ここで、S306でモニタに表示される表示画面について例を挙げて説明する。
 緑内障でないと識別し易い症例(カテゴリR1に分類された臨床データ)を表示する場合、例えば、全体の一覧性がよい眼底画像が中心に表示され、その黄斑部の中央を撮像したOCTの断層像がその横に表示される。視野計の結果は、感度低下が見られないことが予測されるので、OCT断層像の下方に表示される。また、臨床データの値の表も画面内に表示される。全体的に画像データを中心にし、必要以上の分析結果を表示しない画面構成となることが望ましい。
 また、緑内障であると識別し易い症例(カテゴリR6に分類された臨床データ)を表示する場合、神経線維欠損の検出結果や、視神経乳頭辺縁の陥凹の測定結果(C/D比など)が眼底画像内に表示される。更に、OCTによる神経線維層の層厚マップの全体像が表示される。視野計の測定結果は、感度分布のマップとともに、視野異常の程度を表す指標に基づく分析結果を並べて表示する。ここで、視野異常の程度を分析する手法は、種々知られているが、例えば、アンダーソンの分類などを用いればよい。また、緑内障の症例を表示する場合は、多治見スタディによる判定基準などに基づいたカテゴリ分類を行なうことも望ましい。
 次に、緑内障であると識別するのが困難な症例(カテゴリR2又はR5に分類された臨床データ)を表示する場合、上述したカテゴリR6時の表示に加えて、診断が困難であることを示すアラート(注意喚起)を表示する。更に、このような症例の表示に際しては、上述した特徴量以外にも、例えば、スリットランプによる眼底所見などの情報も重要になると考えられる。そこで、学習に用いた特徴量を表示するとともに、一般的な専門医が着眼する点に関する情報も表示することが望ましい。
 次に、FN症例群又はFP症例群(カテゴリR3又はR4に分類された症例)を表示する場合、上述した最重要特徴量、最重要モダリティに基づいて表示画面が構成される。一般に、眼底画像の読影に経験豊富であったとしても、OCT画像の読影に不慣れであったり、視野計の新しい解析モードに対して不慣れであったりすることが考えられる。ここで、例えば、最重要特徴量が、神経線維層の層厚に関する特徴量であり、最重要モダリティが、OCTである場合を考える。この場合、神経線維層の層厚の黄斑周辺の層厚マップに加えて、正常時の層厚分布とそのばらつきに関するデータとを表示する。更に、検討症例の正常分布からのずれが大きく見られる箇所の指摘、当該大きなずれが見られる箇所の断層像の表示などを行なう。
 また、例えば、眼圧は、様々な因子から影響を受けることが知られている。そのため、最重要特徴量が眼圧であれば、揺らぎに関するデータを表示する。例えば、年齢、性差、人種、屈折の影響や、測定時に座位である場合と仰臥位である場合とのばらつきの差などに関するデータの表示を行なってもよい。
 上述した説明では、様々な特徴量やモダリティに対して、どのような表示を行なうかについていくつか例を挙げたが、当然、必要な情報が変わればそれに応じて表示画面も変更する。例えば、眼圧のばらつきに関するデータは、新しい調査結果の発表が行なわれれば、それに応じて内容を変更する。
 以上説明したように実施形態1によれば、複数の経験豊富な医師の診断パターンと、本システムを利用する医師の診断パターンとを比較し、その差異を分析する。そして、その分析結果に基づいて診断画面の表示内容を変更する。これにより、例えば、複数の医師が同じ症例を診断する場合に、その症例に対して診断ミスの多い医師に対しては、その間違いをカバーする情報を表示し、そうでない医師に対しては、通常の表示を行なうことができる。
 (実施形態2)
 次に、実施形態2について説明する。実施形態1においては、各モダリティを単位として診断画面を表示する場合を例に挙げて説明した。これに対して、実施形態2においては、同じモダリティでも複数の異なる撮影結果や解析結果等がある点に注目する。例えば、OCTというモダリティでは、黄斑部の撮影もあれば、視神経乳頭周辺の撮影もある。また、眼底カメラというモダリティでは、眼底画像内の視神経乳頭部の解析もあれば、神経線維欠損の解析もある。
 そこで、実施形態2においては、最重要モダリティを更に分類し、最重要撮像箇所又は最重要解析箇所を求める。具体的には、実施形態1とは、S203の処理が相違する。
 ここで、実施形態2に係わる学習処理装置10は、分析部153において、変換行列M31の要素の中でその絶対値が最も大きな要素を求め、その要素に対応する特徴量を最重要特徴量とする。また、対応する撮像箇所毎にM31の各要素の2乗和をとる。そして、2乗和が最も大きくなる撮像箇所を最重要撮像箇所とする。例えば、黄斑部を撮像したOCT画像と、視神経乳頭部を撮像したOCT画像とがあれば、黄斑部の特徴量に対応するM31の各要素2乗和と、視神経乳頭部の特徴量に対応するM31の各要素2乗和とをそれぞれ算出する。
 また、例えば、眼底画像の解析時には、視神経乳頭部の解析、眼底上半部の神経線維欠損の解析、眼底下半部の神経線維欠損の解析など、複数の解析箇所が考えられる。そのため、各解析箇所に関連する特徴量と対応するM31の各要素2乗和を求め、解析箇所毎にそれらの値を比較する。そして、2乗和が最も大きくなる解析箇所を最重要解析箇所とする。なお、M46に対しても、上記同様に最重要特徴量と、最重要撮像箇所又は最重要解析箇所とを求める。
 これに伴って診断支援装置50では、S302及びS303の処理が実施形態1と相違する。S302の処理では、最重要モダリティの取得に留まらず、当該モダリティの最重要撮像箇所又は最重要解析箇所を取得する。具体的には、R3又はR4に分類された症例があれば、診断支援装置50は、最重要特徴量、最重要撮像箇所又は最重要解析箇所を取得する。
 また、S303の処理では、診断支援装置50は、表示情報決定部571において、複数のカテゴリ(R1~R6)毎に表示情報を決める。具体的には、カテゴリR1、R2、R5、R6は、実施形態1同様の表示情報が設定されるが、カテゴリR3には、最重要特徴量、最重要撮像箇所又は最重要解析箇所に対応した表示情報が設定される。
 以上説明したように実施形態2によれば、モダリティのみではなく、当該モダリティによる撮像箇所又は解析箇所に基づく表示を行なう。そのため、例えば、OCTというモダリティであっても、特に、視神経乳頭部の情報を優先させて表示等することができる。
 (実施形態3)
 次に、実施形態3について説明する。実施形態1においては、複数の経験豊富な医師の診断パターンと、本システムを利用する医師の診断パターンとの差異を分析する際に、FP症例群及びFN症例群を一つの集合として取り扱っていた。しかし、例えば、緑内障を見落とす場合(FN症例群)の見落としの要因は、複数存在する。そのため、FN症例群は、その中でも更にクラス分けするべきである。
 そこで、実施形態3においては、特定のカテゴリ内の症例群(FP症例群、FN症例群)に対してクラスタリング処理を行なう。これにより、それぞれの症例群の内部構造を反映した最重要特徴量及び最重要モダリティを求める。
 ここで、まず、図9を用いて、実施形態3に係わる学習処理装置10の機能的な構成の一例について説明する。なお、実施形態1を説明した図2と同一の構成には、同一の番号を付し、その説明については省略する。
 学習処理装置10の制御部15には、クラスタリング部154が新たに設けられる。クラスタリング部154は、FP症例群及びFN症例群を更に分類する。クラスタリングには、例えば、k-Means法や混合正規分布を用いた手法等を採用すればよい。
 次に、図10を用いて、実施形態3に係わる学習処理装置10における処理の流れの一例について説明する。ここでは、実施形態1を説明した図3と相違する点について説明する。
 学習処理装置10は、実施形態1同様に、各症例データを分類する(S401)。その後、学習処理装置10は、比較分類部152において、第1の識別関数群f (x)と第2の識別関数f(x)とに差異があるか否かの判断を行なう。
 判断の結果、差異があれば(S402でYES)、学習処理装置10は、クラスタリング部154において、クラスタリング処理を行なう(S403)。具体的には、症例群m3及び症例群m4をそれぞれk個、k個のクラスタに分類する。この結果、m3-1~m3-k、m4-1~m4-kが得られる。
 ここで、クラスタの数kは、症例群m3の特徴量空間内での分布に応じて決める。例えば、k-Means法を用いて、k=2から値を1づつ増加させながらクラスタリングを行なう。初期値に応じて収束結果が変動しない、症例群m3の特徴量ベクトル、各クラスタへ割り振られる症例数が少なくとも5症例存在する、等の条件を設け、クラスタ数の最大値を設定する。
 その後、クラスタ数と、症例群m3内の各サンプルが割り振られたクラスタの平均ベクトルとの距離の二乗和の関係を求める。そして、クラスタの増加によって大幅な減少がみられるクラスタ数を選択する。
 クラスタリング処理が終了すると、学習処理装置10は、分析部153において、分析処理を行なう(S404)。ここで、分析処理においては、症例群m3(FN)をm3-1~m3-kのk個のクラスタで置き換え、症例群m4(FP)をm4-1~m4-kのk個のクラスタで置き換える。
 具体的には、
 1-1)症例群m3(FN)-1と症例群m1(正常)、
 1-2)症例群m3(FN)-2と症例群m1(正常)、
 ・・・、
 1-k)症例群m3(FN)-kと症例群m1(正常)
 また、
 2-1)症例群m4(FP)-1と症例群m6(緑内障)、
 2-2)症例群m4(FP)-2と症例群m6(緑内障)、
 ・・・、
 2-k)症例群m4(FP)―kと症例群m6(緑内障)
 となる。
 学習処理装置10は、分析部153において、1-1)~1-k)、2-1~2-k)に対して上記実施形態1同様の分析を実施する。これにより、変換行列M31-1~M31-k、M46-1~M46-kを分析結果として取得する。
 変換行列が求まると、学習処理装置10は、分析部153において、実施形態1同様に、M31-1の要素の中で絶対値が最も大きな要素を求め、その要素に対応する特徴量を最重要特徴量とする。また、モダリティ毎にM31-1の各要素の2乗和をとる。そして、この値をモダリティ毎に比較し、最も大きな値となったモダリティを最重要モダリティとする。同様に、全ての変換行列M31-1~M31-k、M46-1~M46-kに対して最重要特徴量及び最重要モダリティを求める。なお、M46-1に対しても、上記同様にして最重要特徴量及び最重要モダリティを求める。
 このようにして分析結果が得られると、学習処理装置10は、クラスタ毎の最重要特徴量と最重要モダリティとしてその分析結果を記憶部13に格納する。なお、勿論、実施形態2のように、最重要特徴量と、最重要撮像部位又は最重要解析部位とを求めるようにしてもよい。
 次に、実施形態3に係わる診断支援装置50における処理の流れの一例について説明する。なお、診断支援装置50の処理の流れは、実施形態1を説明した図7と同様となるため、ここでは、図7を参照して相違点について説明する。
 実施形態1同様にしてS302における学習結果等の取得が済むと、診断支援装置50は、表示情報決定部571において、図8に示すように、特徴量空間を複数のカテゴリ(この場合、6つ)に分類する。そして、実施形態1同様に、カテゴリの合体等を行なう。このカテゴリ合体等の結果、カテゴリR3(FN症例群)に該当する特徴量空間があれば、カテゴリR3を、S403で説明したk個のクラスタのいずれかに分類する。また、カテゴリR4(FP症例群)も、カテゴリR3同様に、k個のクラスタに分類する。
 次に、診断支援装置50は、表示情報決定部571において、カテゴリR3又はカテゴリR4が存在するか否かを判断する。判断の結果、いずれかのカテゴリが存在すれば、カテゴリR3とその各クラスタ(R3-1~R3-k)、カテゴリR4とその各クラスタ(R4-1~R4-k)とに対応する最重要特徴量及び最重要モダリティを取得する。
 次に、診断支援装置50は、表示情報決定部571において、複数のカテゴリ各々に対する表示情報を決める(S303)。すなわち、4種類のカテゴリ(R1、R2、R5、R6)と、2種類のカテゴリ及びそれぞれに属するクラスタ(R3-1~R3-k、R4-1~R4-k)に対する表示情報を決める。カテゴリR3の各クラスタ(R3-1~R3-k)及びカテゴリR4の各クラス(R4-1~R4-k)に対しては、最重要特徴量及び最重要モダリティに対応する表示情報を設定する。
 各カテゴリに対する表示情報が決まると、診断支援装置50は、臨床データを取得し(S304)、当該臨床データの特徴量ベクトルxを求める。これにより、取得した臨床データの症例が、図8に示す特徴量空間(6分類及び対応するクラスタ内)のいずれに属するのかを識別する(S305)。ここで、クラスタの識別法は、例えば、S403でk-Means手法が用いられていれば、各クラスタの平均ベクトルの内、最も距離の近いクラスタに当該症例を分類する。
 その後、診断支援装置50は、表示処理部54において、臨床データ識別部572による識別結果と、表示情報決定部571により決められた表示情報とに基づいて臨床データを表示する。すなわち、臨床データが分類されたカテゴリに設定された表示情報に基づいて表示画面を生成し、それをモニタに表示する(S306)。なお、以降の処理は、実施形態1と同様であるため、その説明については省略する。
 以上説明したように実施形態3によれば、診断ミス(FP、FN)を起こす可能性の高い症例を診断する場合に、より最適な診断画面を表示することができる。
 以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
 例えば、上述した説明(図7、図10等)では、診断支援装置50において、診断の都度、カテゴリ識別処理やクラスタリング処理を行なう構成となっていたが、これに限られない。例えば、一度行なったカテゴリ識別やクラスタリングの結果を保持し、それ以降においては、その結果を取得して診断支援を行なうように構成してもよい。
 また、上述した診断支援システムでは、学習処理装置10と、診断支援装置50と、臨床データ取得装置20と、データベース40とを含むんで構成されていたが、必ずしもこのような構成を採る必要はない。すなわち、システム内におけるいずれかの装置にその全部若しくは一部の機能が実現されていればよい。例えば、学習処理装置10と診断支援装置50とが一つの装置(情報処理装置)として実現されてもよいし、また、3つ以上の装置として実現されてもよい。
 (その他の実施例)
 また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。
 本願は、2009年6月3日提出の日本国特許出願特願2009-134297を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。

Claims (9)

  1.  症例データに対する複数の医師による診断結果に基づく第1の学習結果と、該症例データに対する特定の医師による診断結果に基づく第2の学習結果とを算出する学習手段と、
     前記第1の学習結果と前記第2の学習結果との比較に基づいて前記特定の医師の診断に関する特徴を分析する分析手段と、
     前記分析結果に基づいて患者の検査により得られた臨床データの表示情報を決定する決定手段と
     を具備することを特徴とする診断支援システム。
  2.  医師を識別する識別情報を入力する入力手段と、
     症例データに対する複数の医師による診断結果に基づく第1の学習結果と、該症例データに対する前記入力手段により入力された識別情報に対応する医師による診断結果に基づく第2の学習結果とを算出する学習手段と、
     前記第1の学習結果と前記第2の学習結果との比較に基づいて前記入力手段により入力された識別情報に対応する医師の診断に関する特徴を分析する分析手段と、
     患者の検査により得られた臨床データを取得する臨床データ取得手段と、
     前記分析結果に基づいて前記臨床データの表示情報を決定する決定手段と、
     前記決定手段により決定された表示情報に基づく表示画面を表示器に表示する表示処理手段と
     を具備することを特徴とする診断支援システム。
  3.  前記第1の学習結果と前記第2の学習結果とを用いて前記症例データを複数のカテゴリに分類する分類手段と、
     前記臨床データの特徴量と前記症例データの特徴量とに基づいて該臨床データが前記分類手段により分類された前記カテゴリのいずれに属するかを識別する識別手段と
     を更に具備し、
     前記分類手段は、
     前記入力手段により入力された識別情報に対応する医師が正確に診断を行なった症例群が属する第1のカテゴリと、診断を誤った症例群が属する第2のカテゴリとを含む複数のカテゴリに前記症例データを分類し、
     前記分析手段は、
     前記第1のカテゴリと前記第2のカテゴリとに分類された症例群に基づいて、前記入力手段により入力された識別情報に対応する医師の診断を補助するのに重要となる検査情報を特定し、
     前記決定手段は、
     前記識別手段により前記臨床データが前記第2のカテゴリに属すると識別された場合、前記分析手段により特定された前記検査情報に基づいて前記表示情報を決める
     ことを特徴とする請求項2記載の診断支援システム。
  4.  前記分類手段により前記第2のカテゴリに分類された症例データを複数のクラスタに分類するクラスタリング手段
     を更に具備し、
     前記識別手段は、
     前記臨床データ取得手段により取得された前記臨床データが前記第2のカテゴリに属する場合に、前記臨床データの特徴量と前記症例データの特徴量とに基づいて該臨床データが前記複数のクラスタ内のいずれに属するかを識別し、
     前記決定手段は、
     前記識別手段により前記臨床データが前記第2のカテゴリに属すると識別された場合、前記第2のカテゴリのクラスタに対応して前記分析手段により特定された前記検査情報に基づいて前記表示情報を決める
     ことを特徴とする請求項3記載の診断支援システム。
  5.  前記分類手段は、
     前記症例データに対する複数の医師による診断結果に基づく前記第1の学習結果を用いて該複数の医師による診断の結果がわかれた症例群が属する第3のカテゴリに前記症例データを分類し、
     前記分析手段は、
     前記第3のカテゴリに分類された症例群に基づいて、前記入力手段により入力された識別情報に対応する医師の診断を補助するのに重要となる検査情報を特定し、
     前記決定手段は、
     前記識別手段により前記臨床データが前記第3のカテゴリに属すると識別された場合、前記分析手段により特定された前記検査情報に基づいて前記表示情報を決める
     ことを特徴とする請求項3記載の診断支援システム。
  6.  前記臨床データは、
     前記患者に対して複数のモダリティを用いて検査した複数の検査結果を含み、
     前記検査情報は、
     前記複数の検査結果の内のいずれかを示す情報、前記複数のモダリティの内のいずれにより検査されたかを示す情報、前記モダリティによる検査により得られた複数の撮像箇所又は撮像箇所の内のいずれかを示す情報、の少なくとも1つを含む
     ことを特徴とする請求項3から5いずれか1項に記載の診断支援システム。
  7.  診断支援システムの診断支援方法であって、
     学習手段が、症例データに対する複数の医師による診断結果に基づく第1の学習結果と、該症例データに対する特定の医師による診断結果に基づく第2の学習結果とを算出する工程と、
     分析手段が、前記第1の学習結果と前記第2の学習結果との比較に基づいて前記特定の医師の診断に関する特徴を分析する工程と、
     決定手段が、前記分析結果に基づいて患者の検査により得られた臨床データの表示情報を決定する工程と
     を含むことを特徴とする診断支援システムの診断支援方法。
  8.  医師を識別する識別情報を入力する入力手段と、
     症例データに対する複数の医師による診断結果に基づく第1の学習結果と、該症例データに対する前記入力手段により入力された識別情報に対応する特定の医師による診断結果に基づく第2の学習結果とを算出する学習手段と、
     前記第1の学習結果と前記第2の学習結果との比較に基づいて前記特定の医師の診断に関する特徴を分析する分析手段と
     を具備することを特徴とする情報処理装置。
  9.  医師を識別する識別情報を入力する入力手段と、
     患者の検査により得られた臨床データを取得する臨床データ取得手段と、
     症例データに対する複数の医師による診断結果に基づく第1の学習結果と、該症例データに対する前記入力手段により入力された識別情報に対応する特定の医師による診断結果に基づく第2の学習結果との比較により前記特定の医師の診断に関する特徴を分析した結果に基づいて前記臨床データの表示情報を決定する決定手段と、
     前記決定手段により決定された表示情報に基づく表示画面を表示器に表示する表示処理手段と
     を具備することを特徴とする情報処理装置。
PCT/JP2010/001989 2009-06-03 2010-03-19 診断支援システム及びその診断支援方法、情報処理装置 WO2010140288A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/893,989 US20110022553A1 (en) 2009-06-03 2010-09-29 Diagnosis support system, diagnosis support method therefor, and information processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-134297 2009-06-03
JP2009134297A JP5538749B2 (ja) 2009-06-03 2009-06-03 診断支援システム及びその診断支援方法、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/893,989 Continuation US20110022553A1 (en) 2009-06-03 2010-09-29 Diagnosis support system, diagnosis support method therefor, and information processing apparatus

Publications (1)

Publication Number Publication Date
WO2010140288A1 true WO2010140288A1 (ja) 2010-12-09

Family

ID=43297431

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/001989 WO2010140288A1 (ja) 2009-06-03 2010-03-19 診断支援システム及びその診断支援方法、情報処理装置

Country Status (3)

Country Link
US (1) US20110022553A1 (ja)
JP (1) JP5538749B2 (ja)
WO (1) WO2010140288A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5652227B2 (ja) * 2011-01-25 2015-01-14 ソニー株式会社 画像処理装置および方法、並びにプログラム
WO2012141240A1 (ja) * 2011-04-13 2012-10-18 興和株式会社 視野計
JP6661144B2 (ja) * 2015-07-21 2020-03-11 Necソリューションイノベータ株式会社 学習支援装置、学習支援方法およびプログラム
JP2018014059A (ja) * 2016-07-22 2018-01-25 株式会社トプコン 医療情報処理システム及び医療情報処理方法
JP6983871B2 (ja) 2016-08-25 2021-12-17 ノボ・ノルデイスク・エー/エス 基礎インスリン滴定のスターターキット
EP3549133A1 (en) * 2016-11-29 2019-10-09 Novo Nordisk A/S Starter kit for basal rate titration
JP7078948B2 (ja) * 2017-06-27 2022-06-01 株式会社トプコン 眼科情報処理システム、眼科情報処理方法、プログラム、及び記録媒体
JP7043633B2 (ja) * 2018-05-31 2022-03-29 コンプティア 適応コンピテンシーアセスメントモデルのためのシステム及び方法
JP7478518B2 (ja) * 2019-05-22 2024-05-07 キヤノンメディカルシステムズ株式会社 読影支援装置および読影支援方法
CN111582404B (zh) * 2020-05-25 2024-03-26 腾讯科技(深圳)有限公司 内容分类方法、装置及可读存储介质
JP2021051776A (ja) * 2020-12-15 2021-04-01 株式会社トプコン 医療情報処理システム及び医療情報処理方法
CN113488187B (zh) * 2021-08-03 2024-02-20 南通市第二人民医院 一种麻醉意外案例收集分析方法及系统
JP7370419B1 (ja) 2022-04-28 2023-10-27 フジテコム株式会社 データ収集装置、信号発生位置特定システム、データ収集方法、信号発生位置特定方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259486A (ja) * 1993-03-09 1994-09-16 Toshiba Corp 医用診断支援システム
JP2000276587A (ja) * 1999-01-22 2000-10-06 Fuji Photo Film Co Ltd 異常陰影検出処理方法およびシステム
JP2004305551A (ja) * 2003-04-09 2004-11-04 Konica Minolta Medical & Graphic Inc 医用画像読影システム
JP2006171184A (ja) * 2004-12-14 2006-06-29 Toshiba Corp 技能評価システムおよび技能評価方法
JP2008217426A (ja) * 2007-03-05 2008-09-18 Fujifilm Corp 症例登録システム
JP2009075951A (ja) * 2007-09-21 2009-04-09 Fujifilm Corp 評価管理システム及び評価管理装置及び評価管理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5235510A (en) * 1990-11-22 1993-08-10 Kabushiki Kaisha Toshiba Computer-aided diagnosis system for medical use
EP0616290B1 (en) * 1993-03-01 2003-02-05 Kabushiki Kaisha Toshiba Medical information processing system for supporting diagnosis.
JP3703858B2 (ja) * 1993-09-30 2005-10-05 シスメックス株式会社 帰属度判別装置
JP2852866B2 (ja) * 1994-03-30 1999-02-03 株式会社学習情報通信システム研究所 コンピュータによる画像診断学習支援方法
JP4480508B2 (ja) * 2004-08-02 2010-06-16 富士通株式会社 診断支援プログラムおよび診断支援装置
JP2007286767A (ja) * 2006-04-13 2007-11-01 Canon Inc 画像検索システム、及び、画像検索サーバ及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
US10318709B2 (en) * 2007-12-21 2019-06-11 Koninklijke Philips N.V. Method and system for cross-modality case-based computer-aided diagnosis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259486A (ja) * 1993-03-09 1994-09-16 Toshiba Corp 医用診断支援システム
JP2000276587A (ja) * 1999-01-22 2000-10-06 Fuji Photo Film Co Ltd 異常陰影検出処理方法およびシステム
JP2004305551A (ja) * 2003-04-09 2004-11-04 Konica Minolta Medical & Graphic Inc 医用画像読影システム
JP2006171184A (ja) * 2004-12-14 2006-06-29 Toshiba Corp 技能評価システムおよび技能評価方法
JP2008217426A (ja) * 2007-03-05 2008-09-18 Fujifilm Corp 症例登録システム
JP2009075951A (ja) * 2007-09-21 2009-04-09 Fujifilm Corp 評価管理システム及び評価管理装置及び評価管理方法

Also Published As

Publication number Publication date
JP5538749B2 (ja) 2014-07-02
JP2010282366A (ja) 2010-12-16
US20110022553A1 (en) 2011-01-27

Similar Documents

Publication Publication Date Title
JP5538749B2 (ja) 診断支援システム及びその診断支援方法、プログラム
JP5923445B2 (ja) 緑内障の組み合わせ解析
Park et al. Comparison of glaucoma diagnostic capabilities of Cirrus HD and Stratus optical coherence tomography
Yousefi et al. Glaucoma progression detection using structural retinal nerve fiber layer measurements and functional visual field points
Hoeft et al. Morphometric spatial patterns differentiating boys with fragile X syndrome, typically developing boys, and developmentally delayed boys aged 1 to 3 years
US20180061049A1 (en) Systems and methods for analyzing in vivo tissue volumes using medical imaging data
Zahia et al. Dyslexia detection using 3D convolutional neural networks and functional magnetic resonance imaging
US9524304B2 (en) Systems and methods for diagnosing inherited retinal diseases
US20200151871A1 (en) Application of deep learning for medical imaging evaluation
Brederoo et al. Reproducibility of visual-field asymmetries: Nine replication studies investigating lateralization of visual information processing
Schmidt et al. Interpreting PET scans by structured patient data: a data mining case study in dementia research
US20230162362A1 (en) Method and system for estimating early progression of dementia from human head images
Alexandrescu et al. Confocal scanning laser ophthalmoscopy in glaucoma diagnosis and management
Kishida et al. Diminished single-stimulus response in vmPFC to favorite people in children diagnosed with autism spectrum disorder
CN112890815A (zh) 一种基于深度学习的孤独症辅助评估系统和方法
Goldbaum et al. Using unsupervised learning with independent component analysis to identify patterns of glaucomatous visual field defects
Huang et al. A structure-related fine-grained deep learning system with diversity data for universal glaucoma visual field grading
Murugan et al. An abnormality detection of retinal fundus images by deep convolutional neural networks
Brusini Global Glaucoma Staging System (GGSS): a new method to simultaneously assess the severity of both functional and structural damage in glaucoma
Zuo et al. Deep Learning-based Eye-Tracking Analysis for Diagnosis of Alzheimer's Disease Using 3D Comprehensive Visual Stimuli
Li et al. A face image classification method of autistic children based on the two-phase transfer learning
Paunksnis et al. The use of information technologies for diagnosis in ophthalmology
KR102591797B1 (ko) 치매조기진단 시스템 및 이를 이용한 치매조기진단 방법
CN111436212A (zh) 用于医学成像评估的深度学习的应用
Tripoliti et al. ProMiSi Architecture-A Tool for the Estimation of the Progression of Multiple Sclerosis Disease using MRI

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10783076

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10783076

Country of ref document: EP

Kind code of ref document: A1