WO2018211687A1 - コンピュータシステム、被験者診断方法及び支援プログラム - Google Patents

コンピュータシステム、被験者診断方法及び支援プログラム Download PDF

Info

Publication number
WO2018211687A1
WO2018211687A1 PCT/JP2017/018839 JP2017018839W WO2018211687A1 WO 2018211687 A1 WO2018211687 A1 WO 2018211687A1 JP 2017018839 W JP2017018839 W JP 2017018839W WO 2018211687 A1 WO2018211687 A1 WO 2018211687A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
image
result
analysis
diagnosis
Prior art date
Application number
PCT/JP2017/018839
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
佳雄 奥村
寛 江内田
美華 坂口
榮三朗 末岡
Original Assignee
株式会社オプティム
国立大学法人佐賀大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム, 国立大学法人佐賀大学 filed Critical 株式会社オプティム
Priority to PCT/JP2017/018839 priority Critical patent/WO2018211687A1/ja
Publication of WO2018211687A1 publication Critical patent/WO2018211687A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]

Definitions

  • the present invention relates to a computer system for diagnosing a subject, a subject diagnosis method, and a support program.
  • Non-Patent Document 1 disease is determined by analyzing image data by deep learning or the like.
  • Non-Patent Document 1 the disease or symptom is determined only by the acquired image data, and a plurality of data resources are not analyzed and predicted.
  • the present invention relates to a computer system and subject that analyze a correlation between possible prediction results (for example, diseases and symptoms) from image analysis and a plurality of data resources, and perform prediction with higher accuracy than analysis of a single image.
  • An object is to provide a diagnostic method and a support program.
  • the present invention provides the following solutions.
  • the present invention is a computer system for diagnosing a subject, Subject image acquisition means for acquiring a subject image of the subject; Subject image analysis means for image analysis of the obtained subject image; Subject information acquisition means for acquiring subject information of the subject; Subject information analysis means for analyzing the obtained subject information; Correlation analysis means for analyzing the correlation between the image analysis result and the analysis result; Subject diagnosis means for diagnosing the subject based on the analyzed correlation result;
  • a computer system is provided.
  • a computer system for diagnosing a subject obtains a subject image of the subject, analyzes the obtained subject image, obtains subject information of the subject, and analyzes the obtained subject information.
  • the correlation between the image analysis result and the analysis result is analyzed, and the subject is diagnosed based on the analyzed correlation result.
  • the present invention is a computer system category, but the same actions and effects according to the category are exhibited in other categories such as the subject diagnosis method and the support program.
  • a computer system for analyzing a correlation between possible prediction results from image analysis and a plurality of data resources, and performing prediction with higher accuracy than analysis of a single image Can be provided.
  • FIG. 1 is a diagram showing an outline of the subject diagnosis system 1.
  • FIG. 2 is an overall configuration diagram of the subject diagnosis system 1.
  • FIG. 3 is a functional block diagram of the computer 10.
  • FIG. 4 is a flowchart showing the image analysis learning process executed by the computer 10.
  • FIG. 5 is a flowchart showing a subject information analysis learning process executed by the computer 10.
  • FIG. 6 is a flowchart showing a subject diagnosis process executed by the computer 10. It is.
  • FIG. 1 is a diagram for explaining an outline of a subject diagnosis system 1 which is a preferred embodiment of the present invention.
  • the subject diagnosis system 1 is a computer system that includes a computer 10 and diagnoses a subject.
  • the subject here may be a patient to be diagnosed or a healthy person who undergoes a medical examination.
  • the computer 10 includes various imaging devices such as a visible light camera, an X-ray camera, MRI (Magnetic Resonance Imaging), CT (Computed Tomography), ultrasound (ultrasound imaging diagnostic device), or PET (Positron Emission Tomography) (not shown).
  • imaging devices such as a visible light camera, an X-ray camera, MRI (Magnetic Resonance Imaging), CT (Computed Tomography), ultrasound (ultrasound imaging diagnostic device), or PET (Positron Emission Tomography) (not shown).
  • a computer (not shown) in which electronic medical records and the like are stored, a measuring device that measures vital data, a testing device that performs various tests, a computing device connected to a terminal device held by a doctor or a subject, etc. It is.
  • the computer 10 acquires a subject image of a subject (step S01).
  • the computer 10 acquires at least one of a fundus image, an X-ray image, an MRI image or a CT scan image, an ultrasound image, or a PET image as a subject image.
  • a fundus image is acquired.
  • the computer 10 performs image analysis on the acquired subject image (step S02).
  • the computer 10 analyzes the feature amount (luminance, color, particle, shape, etc.) of the subject image.
  • the computer 10 analyzes the optic nerve, retina, capillaries, and the like from the fundus image, analyzes the color and size of the optic nerve, the retina reflex, and the clogging of the blood vessel, and performs the Key Swagner degree, arteriosclerotic change, hypertension. Analysis of changes, diabetic changes, etc.
  • the computer 10 learns by associating the subject image stored in advance with the diagnosis result performed on the subject image, and based on the learned result, image analysis is performed on the subject image obtained this time. Good.
  • the computer 10 acquires subject information of the subject (step S03).
  • the computer 10 acquires at least one of past history described in the electronic medical record, vital data obtained from measurement results such as a thermometer, a blood pressure monitor, and an electrocardiogram, or a blood test result as subject information. In the following description, it is assumed that vital data has been acquired.
  • the computer 10 analyzes the acquired subject information (step S04).
  • the computer 10 may be, for example, temporary abnormal values due to physical condition, cataracts, macular diseases such as macular degeneration and central chorioretinopathy, retinal diseases such as retinitis pigmentosa and retinal detachment, glaucoma, hypertension, arteriosclerosis, Analyze whether the subject falls under symptoms such as diabetes, kidney disease such as nephrosclerosis and renal failure, brain disease such as stroke and cerebral infarction, or heart disease such as angina pectoris and myocardial infarction.
  • the computer 10 may learn by associating the subject information stored in advance with the diagnosis result performed on the subject information, and analyze the subject information acquired this time based on the learned result.
  • the computer 10 analyzes the correlation between the image analysis result and the analysis result (step S05). For example, when the computer 10 obtains the result of image analysis as a result of the analysis of the heart disease as a result of the analysis, the result of the capillary result is black and the black part is obtained as a result of the analysis. Analyze.
  • the computer 10 diagnoses the subject based on the analyzed correlation result (step S06). For example, the computer 10 determines that the subject's disease name is diabetes based on the analyzed correlation result.
  • FIG. 2 is a diagram showing a system configuration of the subject diagnosis system 1 which is a preferred embodiment of the present invention.
  • the subject diagnosis system 1 is a computer system that includes a computer 10 and a public line network (Internet network, third, fourth generation communication network, etc.) 5 and diagnoses a subject.
  • the computer 10 is the above-described computing device having the functions described later.
  • FIG. 3 is a functional block diagram of the computer 10.
  • the computer 10 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), etc. as the control unit 11, and a device for enabling communication with other devices as the communication unit 12. For example, a WiFi (Wireless Fidelity) compatible device compliant with IEEE 802.11 is provided.
  • the computer 10 also includes a data storage unit such as a hard disk, a semiconductor memory, a recording medium, or a memory card as the storage unit 13. Further, the computer 10 includes, as the processing unit 14, a device for executing various processes such as image processing, state diagnosis, and learning process.
  • control unit 11 reads a predetermined program, thereby realizing a subject image acquisition module 20, a diagnosis result acquisition module 21, and a subject information acquisition module 22 in cooperation with the communication unit 12. Further, in the computer 10, the control unit 11 reads a predetermined program, thereby realizing the storage module 30 in cooperation with the storage unit 13. Further, in the computer 10, the control unit 11 reads a predetermined program, so that the learning module 40, the image analysis module 41, the subject information analysis module 42, the correlation analysis module 43, and the diagnosis module cooperate with the processing unit 14. 44 is realized.
  • FIG. 4 is a flowchart of the image analysis learning process executed by the computer 10. Processing executed by each module described above will be described together with this processing.
  • the subject image acquisition module 20 acquires a subject image of the subject (step S10).
  • the subject image acquired by the subject image acquisition module 20 is, for example, at least one of a fundus image, an X-ray image, an MRI image, a CT scan image, an ultrasound image, or a PET image.
  • the subject image acquisition module 20 may acquire these subject images from the corresponding imaging device, or may acquire them via a computer or the like (not shown). In the following description, the subject image acquisition module 20 will be described as acquiring a fundus image as the subject image.
  • the subject image acquisition module 20 may acquire a subject image from a database or the like stored in an external computer (not shown).
  • the storage module 30 stores the subject image (step S11).
  • the storage module 30 includes the identifier of the subject who acquired the subject image this time (name of subject, insurer number, preset reference number, identifier that can uniquely identify other subjects, etc.), subject image, and the like. Are stored in association with each other. Note that the storage module 30 may store only the subject image.
  • the diagnosis result acquisition module 21 acquires the diagnosis result of the subject corresponding to the subject image acquired this time (step S12).
  • the diagnostic result acquisition module 21 acquires a diagnostic result from, for example, an external computer (not shown) that stores an electronic medical record, a terminal device held by a doctor who diagnoses the subject, or the like.
  • the diagnosis result in the present embodiment is, for example, identification of disease name, identification of symptoms, identification of necessary treatment, and the like.
  • the learning module 40 learns the subject image stored in the storage module 30 and the diagnosis result acquired by the diagnosis result acquisition module 21 in association with each other (step S13). In step S13, the learning module 40 learns at least one of the above-described fundus image, X-ray image, MRI image, CT scan image, ultrasound image, or PET image in association with the diagnosis result.
  • the storage module 30 stores the learned result (step S14).
  • the subject diagnosis system 1 executes the above-described image analysis learning process a sufficient number of times and stores the learning result.
  • FIG. 5 is a diagram illustrating a flowchart of the subject information analysis learning process executed by the computer 10. Processing executed by each module described above will be described together with this processing.
  • the subject information acquisition module 22 acquires subject information of the subject (step S20).
  • the subject information acquired by the subject information acquisition module 22 is, for example, past data described in an electronic medical record, vital data obtained from measurement results such as a thermometer, a sphygmomanometer, or an electrocardiogram, or a blood test result. At least one.
  • the subject information acquisition module 22 may acquire these subject information from various corresponding devices or the like, or may acquire via a computer or the like not shown. In the following description, the subject information acquisition module 22 will be described as acquiring vital data as subject information.
  • the storage module 30 stores subject information (step S21).
  • the storage module 30 associates the identifier of the subject who acquired the subject information this time (the subject's name, insurer number, preset reference number, other identifier that can uniquely identify the subject, etc.) and the subject information.
  • the storage module 30 may store only subject information.
  • the diagnosis result acquisition module 21 acquires the diagnosis result of the subject corresponding to the subject information acquired this time (step S22).
  • the diagnosis result acquisition module 21 acquires a diagnosis result from, for example, an external computer (not shown) that stores an electronic medical record or the like, a terminal device held by a doctor who diagnoses a subject, or the like.
  • the diagnosis result in the present embodiment is, for example, identification of disease name, identification of symptoms, identification of necessary treatment, and the like.
  • the learning module 40 learns the subject information stored in the storage module 30 and the diagnosis result acquired by the diagnosis result acquisition module 21 in association with each other (step S23).
  • the learning module 40 associates at least one of the past history described in the electronic medical record, the vital data obtained from the measurement results of the thermometer, the blood pressure monitor, the electrocardiogram or the like or the result of the blood test with the diagnosis result. Learn with it.
  • the storage module 30 stores the learned result (step S24).
  • the subject diagnosis system 1 performs the subject information analysis learning process described above a sufficient number of times, and stores the learning result.
  • the above is the learning process for subject information analysis.
  • FIG. 6 is a diagram illustrating a flowchart of a subject diagnosis process executed by the computer 10. Processing executed by each module described above will be described together with this processing.
  • the subject diagnosis system 1 is described as diagnosing a subject based on fundus images and vital data.
  • the subject image acquisition module 20 acquires a subject image of the subject (step S30).
  • the subject image acquired by the subject image acquisition module 20 is, for example, at least one of a fundus image, an X-ray image, an MRI image, a CT scan image, an ultrasound image, or a PET image.
  • the subject image acquisition module 20 may acquire these subject images from the corresponding imaging device, or may acquire them via a computer or the like (not shown).
  • the image analysis module 41 performs image analysis on the acquired subject image (step S31).
  • step S31 the subject image is image-analyzed based on the result learned by the learning module 40.
  • the image analysis module 41 analyzes the feature amount (luminance, color, particle, shape, etc.) of the subject image acquired this time.
  • the image analysis module 41 analyzes a plurality of candidates such as image parts and features necessary for making a diagnosis from the learning result. For example, the image analysis module 41 analyzes the RGB values of the subject image.
  • the image analysis module 41 analyzes the shape by executing edge extraction or the like.
  • the image analysis module 41 for example, analyzes the optic nerve, retina, capillaries, etc.
  • the image analysis module 41 is not necessarily limited to identifying a disease name or symptom as a result of image analysis, and may only obtain information for diagnosis described later. For example, the image analysis module 41 may obtain preliminary information for diagnosis from the result of image analysis.
  • the subject information acquisition module 22 acquires subject information of the subject (step S32).
  • the subject information acquisition module 22 obtains at least one of the past history described in the electronic medical record, vital data obtained from measurement results such as a thermometer, a sphygmomanometer, and an electrocardiogram, or a blood test result as subject information. get.
  • the subject information acquisition module 22 may acquire these subject information from various corresponding devices or the like, or may acquire via a computer or the like not shown.
  • the subject information analysis module 42 analyzes the acquired subject information (step S33). In step S33, the subject information analysis module 42 analyzes the subject information based on the result learned by the learning module 40. The subject information analysis module 42 analyzes a plurality of candidates for subject information necessary for making a diagnosis from the learned result.
  • the subject information analysis module 42 includes, for example, temporary abnormal values due to physical condition, cataract, macular degeneration, central chorioretinopathy, age-related macular degeneration, macular degeneration, macular diseases such as macular hole, etc.
  • Retinal diseases such as retinitis pigmentosa and retinal detachment, glaucoma, hypertension, arteriosclerosis, diabetes, kidney diseases such as nephrosclerosis and renal failure, brain diseases such as stroke and cerebral infarction, or hearts such as angina and myocardial infarction Analyzes whether or not the subject falls under a symptom such as a disease.
  • the subject information analysis module 42 acquires vital data as subject information, for example, and analyzes that there is a suspicion of heart disease as a symptom corresponding to the vital data.
  • the subject information analysis module 42 is not necessarily limited to identifying a disease name or symptom as a result of analysis, but may only obtain information for diagnosis described later. For example, the subject information analysis module 42 may obtain preliminary information for diagnosis from the analysis result.
  • the correlation analysis module 43 analyzes the correlation between the result of image analysis by the image analysis module 41 and the result of analysis by the subject information analysis module 42 (step S34).
  • step S34 for example, the correlation analysis module 43 analyzes the result of image analysis performed by the image analysis module 41 and the analysis result of the capillary blood vessel color black and three black spots, and the subject information analysis module 42 analyzes the result.
  • the correlation analysis module 43 analyzes the correlation as a score. That is, the correlation analysis module 43 evaluates as a score how much the diagnosis obtained from the analysis result and the diagnosis obtained from the analysis result have a correlation.
  • the correlation analysis module 43 evaluates the degree of correlation between the diagnosis results of the respective items obtained as a result of the analysis and the diagnosis results of the respective items obtained as a result of the analysis.
  • the correlation analysis module 43 evaluates a high correlation as a high score, and evaluates a low correlation as a low score.
  • the diagnosis module 44 diagnoses the subject based on the analyzed correlation result (step S35).
  • the diagnosis module 44 specifies the disease name of the subject based on the combination of the diagnosis results having the highest score as the result of the analyzed correlation. For example, the diagnosis module 44 specifies the disease name that the subject this time is diabetic based on the result of the image analysis described above, the result of the subject information analysis described above, and the result of the correlation analysis. .
  • the learning module 40 learns the diagnosis result of this time in association with the subject image and the subject information (step S36).
  • the storage module 30 stores the learned result (step S37).
  • the computer 10 performs a diagnosis in consideration of the result learned this time at the subsequent diagnosis.
  • the computer 10 may transmit the diagnosis result to a terminal device or the like held by a doctor or a subject (not shown).
  • the diagnosis result may be transmitted to this terminal device.
  • a specific treatment method, information such as a map or contact information of the nearest medical institution, and various types of information such as a risk level may be transmitted together with the diagnosis result.
  • the terminal device that has received the various types of information may notify the various types of information by display or voice.
  • the means and functions described above are realized by a computer (including a CPU, an information processing apparatus, and various terminals) reading and executing a predetermined program.
  • the program is provided, for example, in a form (SaaS: Software as a Service) provided from a computer via a network.
  • the program is provided in a form recorded on a computer-readable recording medium such as a flexible disk, CD (CD-ROM, etc.), DVD (DVD-ROM, DVD-RAM, etc.).
  • the computer reads the program from the recording medium, transfers it to the internal storage device or the external storage device, stores it, and executes it.
  • the program may be recorded in advance in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided from the storage device to a computer via a communication line.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】画像解析と複数のデータリソースとから、起こりえる予測結果の相関関係を解析し、単体の画像の解析よりも高度な精度の予測を行うコンピュータシステム、被験者診断方法及び支援プログラムを提供することを目的とする。 【解決手段】被験者を診断するコンピュータシステムは、前記被験者の被験者画像を取得し、取得した前記被験者画像を画像解析し、前記被験者の被験者情報を取得し、取得した前記被験者情報を分析し、前記画像解析した結果と、前記分析した結果との相関関係を分析し、分析した前記相関関係の結果に基づいて、前記被験者を診断する。

Description

コンピュータシステム、被験者診断方法及び支援プログラム
 本発明は、被験者を診断するコンピュータシステム、被験者診断方法及び支援プログラムに関する。
 近年、人工知能で画像診断を行うことが知られている(非特許文献1参照)。この方法では、ディープラーニング等で画像データを解析して、病気を判定する。
LPTech、"人工知能で正確な画像診断を行う「Enlitic」、平成28年9月15日、[平成28年12月22日検索]、インターネット<URL://https://lp-tech.net/articles/TXrrN>
 しかしながら、非特許文献1の構成では、取得できた画像データのみで病気や症状を判定するものであり、複数のデータリソースを解析して、予測を行うものではなかった。
 本発明は、画像解析と複数のデータリソースとから、起こりえる予測結果(例えば、病気や症状)の相関関係を解析し、単体の画像の解析よりも高度な精度の予測を行うコンピュータシステム、被験者診断方法及び支援プログラムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 本発明は、被験者を診断するコンピュータシステムであって、
 前記被験者の被験者画像を取得する被験者画像取得手段と、
 取得した前記被験者画像を画像解析する被験者画像解析手段と、
 前記被験者の被験者情報を取得する被験者情報取得手段と、
 取得した前記被験者情報を分析する被験者情報分析手段と、
 前記画像解析した結果と、前記分析した結果との相関関係を分析する相関関係分析手段と、
 分析した前記相関関係の結果に基づいて、前記被験者を診断する被験者診断手段と、
 を備えることを特徴とするコンピュータシステムを提供する。
 本発明によれば、被験者を診断するコンピュータシステムは、前記被験者の被験者画像を取得し、取得した前記被験者画像を画像解析し、前記被験者の被験者情報を取得し、取得した前記被験者情報を分析し、前記画像解析した結果と、前記分析した結果との相関関係を分析し、分析した前記相関関係の結果に基づいて、前記被験者を診断する。
 本発明は、コンピュータシステムのカテゴリであるが、被験者診断方法及び支援プログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
 本発明によれば、画像解析と複数のデータリソースとから、起こりえる予測結果の相関関係を解析し、単体の画像の解析よりも高度な精度の予測を行うコンピュータシステム、被験者診断方法及び支援プログラムを提供することが可能となる。
図1は、被験者診断システム1の概要を示す図である。 図2は、被験者診断システム1の全体構成図である。 図3は、コンピュータ10の機能ブロック図である。 図4は、コンピュータ10が実行する画像解析用学習処理を示すフローチャートである。 図5は、コンピュータ10が実行する被験者情報分析用学習処理を示すフローチャートである。 図6は、コンピュータ10が実行する被験者診断処理を示すフローチャートである。である。
 以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
 [被験者診断システム1の概要]
 本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である被験者診断システム1の概要を説明するための図である。被験者診断システム1は、コンピュータ10から構成され、被験者を診断するコンピュータシステムである。ここでの被験者は、診断される患者であってよいし、検診を受診する健常者であってよい。
 コンピュータ10は、図示していない可視光カメラ、X線カメラ、MRI(Magnetic Resonanse Imaging)、CT(Computed Tomography)、超音波(超音波画像診断装置)又はPET(Positron Emission Tomography)等の各種撮像装置等や、電子カルテ等が記憶された図示していないコンピュータ、バイタルデータを計測する計測装置、各種検査を実行する検査装置、医師又は被験者が保有する端末装置等に通信可能に接続された計算装置である。
 はじめに、コンピュータ10は、被験者の被験者画像を取得する(ステップS01)。コンピュータ10は、被験者画像として、眼底画像、レントゲン画像、MRI画像又はCTスキャン画像、超音波画像又はPET画像、の少なくとも一つを取得する。以下の説明において、眼底画像を取得したものとして説明する。
 コンピュータ10は、取得した被験者画像を画像解析する(ステップS02)。コンピュータ10は、被験者画像の特徴量(輝度、色彩、粒子、形状等)を解析する。コンピュータ10は、例えば、眼底画像から、視神経、網膜、毛細血管等を解析し、視神経の色と大きさ、網膜の反射、血管のつまりを分析し、キースワグナー度、動脈硬化性変化、高血圧性変化、糖尿病性変化等について解析する。なお、コンピュータ10は、予め記憶した被験者画像と、この被験者画像に対して行われた診断結果とを対応付けて学習し、学習した結果に基づいて、今回取得した被験者画像を画像解析してもよい。
 コンピュータ10は、被験者の被験者情報を取得する(ステップS03)。コンピュータ10は、被験者情報として、電子カルテに記載された過去履歴、体温計や血圧計や心電図等の計測結果から得られたバイタルデータ又は血液検査の結果の少なくとも一つを取得する。以下の説明において、バイタルデータを取得したものとして説明する。
 コンピュータ10は、取得した被験者情報を分析する(ステップS04)。コンピュータ10は、例えば、体調による一時的な異常値、白内障、黄斑部変性や中心性脈絡網膜症等の黄斑部疾患、網膜色素変性症や網膜剥離等の網膜疾患、緑内障、高血圧、動脈硬化、糖尿病、腎硬化症や腎不全等の腎臓疾患、脳卒中や脳梗塞等の脳疾患又は狭心症や心筋梗塞等の心疾患等の症状に被験者が該当するか否かを分析する。なお、コンピュータ10は、予め記憶した被験者情報とこの被験者情報に対して行われた診断結果とを対応付けて学習し、学習した結果に基づいて、今回取得した被験者情報を分析してもよい。
 コンピュータ10は、画像解析した結果と、分析した結果との相関関係を分析する(ステップS05)。コンピュータ10は、例えば、画像解析の結果として、毛細結果の色が黒い、黒い箇所は3か所等の結果を取得し、分析した結果として、心疾患の症状を取得した場合、これらの相関関係を分析する。
 コンピュータ10は、分析した相関関係の結果に基づいて、被験者を診断する(ステップS06)。コンピュータ10は、例えば、分析した相関関係の結果に基づいて、被験者の病名を糖尿病であると決定する。
 以上が、被験者診断システム1の概要である。
 [被験者診断システム1のシステム構成]
 図2に基づいて、本発明の好適な実施形態である被験者診断システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である被験者診断システム1のシステム構成を示す図である。被験者診断システム1は、コンピュータ10、公衆回線網(インターネット網や、第3、第4世代通信網等)5から構成され、被験者を診断するコンピュータシステムである。
 コンピュータ10は、後述の機能を備えた上述した計算装置である。
 [各機能の説明]
 図3に基づいて、本発明の好適な実施形態である被験者診断システム1の機能について説明する。図3は、コンピュータ10の機能ブロック図を示す図である。
 コンピュータ10は、制御部11として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部12として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイスを備える。また、コンピュータ10は、記憶部13として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、コンピュータ10は、処理部14として、画像処理、状態診断、学習処理等の各種処理を実行するためのデバイス等を備える。
 コンピュータ10において、制御部11が所定のプログラムを読み込むことにより、通信部12と協働して、被験者画像取得モジュール20、診断結果取得モジュール21、被験者情報取得モジュール22を実現する。また、コンピュータ10において、制御部11が所定のプログラムを読み込むことにより、記憶部13と協働して、記憶モジュール30を実現する。また、コンピュータ10において、制御部11が所定のプログラムを読み込むことにより、処理部14と協働して、学習モジュール40、画像解析モジュール41、被験者情報分析モジュール42、相関関係分析モジュール43、診断モジュール44を実現する。
 [画像解析用学習処理]
 図4に基づいて、被験者診断システム1が実行する画像解析用学習処理について説明する。図4は、コンピュータ10が実行する画像解析用学習処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
 被験者画像取得モジュール20は、被験者の被験者画像を取得する(ステップS10)。ステップS10において、被験者画像取得モジュール20が取得する被験者画像とは、例えば、眼底画像、レントゲン画像、MRI画像、CTスキャン画像、超音波画像又はPET画像の少なくとも一つである。被験者画像取得モジュール20は、これらの被験者画像を、対応する撮像装置から取得してもよいし、図示していないコンピュータ等を介して取得してもよい。以下の説明において、被験者画像取得モジュール20は、被験者画像として、眼底画像を取得するものとして説明する。
 なお、被験者画像取得モジュール20は、図示していない外部コンピュータ等に記憶されたデータベース等から、被験者画像を取得してもよい。
 記憶モジュール30は、被験者画像を記憶する(ステップS11)。ステップS11において、記憶モジュール30は、今回被験者画像を取得した被験者の識別子(被験者の氏名、保険者番号、予め設定された整理番号、その他の被験者を一意に特定可能な識別子等)と、被験者画像とを対応付けて記憶する。なお、記憶モジュール30は、被験者画像のみを記憶してもよい。
 診断結果取得モジュール21は、今回取得した被験者画像に該当する被験者の診断結果を取得する(ステップS12)。ステップS12において、診断結果取得モジュール21は、例えば、電子カルテ等を記憶する図示していない外部コンピュータや、被験者を診断する医師が保有する端末装置等から、診断結果を取得する。本実施形態における診断結果とは、例えば、病名の特定、症状の特定、必要な処置の特定等である。
 学習モジュール40は、記憶モジュール30が記憶した被験者画像と、診断結果取得モジュール21が取得した診断結果とを対応付けて学習する(ステップS13)。ステップS13において、学習モジュール40は、上述した眼底画像、レントゲン画像、MRI画像、CTスキャン画像、超音波画像又はPET画像の少なくとも一つを診断結果と対応付けて学習する。
 記憶モジュール30は、学習した結果を、記憶する(ステップS14)。
 被験者診断システム1は、上述した画像解析用学習処理を、十分な回数実行し、学習した結果を記憶する。
 以上が、画像解析用学習処理である。
 [被験者情報分析用学習処理]
 図5に基づいて、被験者診断システム1が実行する被験者情報分析用学習処理について説明する。図5は、コンピュータ10が実行する被験者情報分析用学習処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
 被験者情報取得モジュール22は、被験者の被験者情報を取得する(ステップS20)。ステップS20において、被験者情報取得モジュール22が取得する被験者情報とは、例えば、電子カルテに記載された過去履歴、体温計や血圧計や心電図等の計測結果から得られたバイタルデータ又は血液検査の結果の少なくとも一つである。被験者情報取得モジュール22は、これらの被験者情報を、対応する各種装置等から取得してもよいし、図示していないコンピュータ等を介して取得してもよい。以下の説明において、被験者情報取得モジュール22は、被験者情報として、バイタルデータを取得するものとして説明する。
 記憶モジュール30は、被験者情報を記憶する(ステップS21)。記憶モジュール30は、今回被験者情報を取得した被験者の識別子(被験者の氏名、保険者番号、予め設定された整理番号、その他の被験者を一意に特定可能な識別子等)と、被験者情報とを対応付けて記憶する。なお、記憶モジュール30は、被験者情報のみを記憶してもよい。
 診断結果取得モジュール21は、今回取得した被験者情報に該当する被験者の診断結果を取得する(ステップS22)。ステップS22において、診断結果取得モジュール21は、例えば、電子カルテ等を記憶する図示していない外部コンピュータや、被験者を診断する医師が保有する端末装置等から、診断結果を取得する。本実施形態における診断結果とは、例えば、病名の特定、症状の特定、必要な処置の特定等である。
 学習モジュール40は、記憶モジュール30が記憶した被験者情報と、診断結果取得モジュール21が取得した診断結果とを対応付けて学習する(ステップS23)。ステップS23において、学習モジュール40は、上述した電子カルテに記載された過去履歴、体温計や血圧計や心電図等の計測結果から得られたバイタルデータ又は血液検査の結果の少なくとも一つを診断結果と対応付けて学習する。
 記憶モジュール30は、学習した結果を、記憶する(ステップS24)。
 被験者診断システム1は、上述した被験者情報分析用学習処理を、十分な回数実行し、学習した結果を記憶する。
 以上が、被験者情報分析用学習処理である。
 [被験者診断処理]
 図6に基づいて、被験者診断システム1が実行する被験者診断処理について説明する。図6は、コンピュータ10が実行する被験者診断処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。なお、以下の説明において、被験者診断システム1は、眼底画像及びバイタルデータに基づいて被験者を診断するものとして説明する。
 被験者画像取得モジュール20は、被験者の被験者画像を取得する(ステップS30)。ステップS30において、被験者画像取得モジュール20が取得する被験者画像とは、例えば、眼底画像、レントゲン画像、MRI画像、CTスキャン画像、超音波画像又はPET画像の少なくとも一つである。被験者画像取得モジュール20は、これらの被験者画像を、対応する撮像装置から取得してもよいし、図示していないコンピュータ等を介して取得してもよい。
 画像解析モジュール41は、取得した被験者画像を画像解析する(ステップS31)。ステップS31において、学習モジュール40が学習した結果に基づいて、被験者画像を画像解析する。画像解析モジュール41は、今回取得した被験者画像の特徴量(輝度、色彩、粒子、形状等)を解析する。画像解析モジュール41は、学習した結果から、診断を下すために必要な画像の部位や特徴等の複数の候補を解析する。画像解析モジュール41は、例えば、被験者画像のRGB値を解析する。また、画像解析モジュール41は、エッジ抽出等を実行することにより、形状を解析する。画像解析モジュール41は、例えば、眼底画像から、視神経、網膜、毛細血管等を解析し、視神経の色と大きさ、網膜の反射、血管のつまりを分析し、キースワグナー度、動脈硬化性変化、高血圧性変化、糖尿病性変化等について解析する。画像解析モジュール41は、画像解析の結果として、必ずしも病名や症状の特定を行うものに限らず、後述する診断のための情報を得ることのみであってもよい。例えば、画像解析モジュール41は、診断のための予備情報を画像解析の結果から得てもよい。
 被験者情報取得モジュール22は、被験者の被験者情報を取得する(ステップS32)。ステップS32において、被験者情報取得モジュール22は、被験者情報として、電子カルテに記載された過去履歴、体温計や血圧計や心電図等の計測結果から得られたバイタルデータ又は血液検査の結果の少なくとも一つを取得する。被験者情報取得モジュール22は、これらの被験者情報を、対応する各種装置等から取得してもよいし、図示していないコンピュータ等を介して取得してもよい。
 被験者情報分析モジュール42は、取得した被験者情報を分析する(ステップS33)。ステップS33において、被験者情報分析モジュール42は、学習モジュール40が学習した結果に基づいて、被験者情報を分析する。被験者情報分析モジュール42は、学習した結果から、診断を下すために必要な被験者情報の複数の候補を分析する。被験者情報分析モジュール42は、例えば、被験者情報が、体調による一時的な異常値、白内障、黄斑部変性や中心性脈絡網膜症、加齢黄斑変性、黄斑上膜、黄斑円孔等の黄斑部疾患、網膜色素変性や網膜剥離等の網膜疾患、緑内障、高血圧、動脈硬化、糖尿病、腎硬化症や腎不全等の腎臓疾患、脳卒中や脳梗塞等の脳疾患又は狭心症や心筋梗塞等の心疾患等の症状に被験者が該当するか否かを分析する。被験者情報分析モジュール42は、例えば、被験者情報として、バイタルデータを取得し、このバイタルデータに該当する症状として、心疾患の疑いがあると分析する。被験者情報分析モジュール42は、分析の結果として、必ずしも、病名や症状の特定を行うものに限らず、後述する診断のための情報を得ることのみであってもよい。例えば、被験者情報分析モジュール42は、診断のための予備情報を分析の結果から得てもよい。
 相関関係分析モジュール43は、画像解析モジュール41が画像解析した結果と、被験者情報分析モジュール42が分析した結果との相関関係を分析する(ステップS34)。ステップS34において、例えば、相関関係分析モジュール43は、画像解析モジュール41が画像解析した結果として、毛細血管の色が黒い、黒い箇所が3か所の解析結果と、被験者情報分析モジュール42が分析した結果として、心疾患の症状の疑いがあるとの分析結果との相関関係を分析する。ここで、相関関係分析モジュール43は、相関関係をスコアとして分析する。すなわち、相関関係分析モジュール43は、解析結果から得られた診断と、分析結果から得られた診断とがどの程度相関があるかをスコアとして評価する。相関関係分析モジュール43は、上述した画像解析の結果得られた各項目の診断結果の其々に対して、分析の結果得られた各項目の診断結果との相関の程度を評価する。相関関係分析モジュール43は、相関関係が高いものを高スコアとして評価し、相関関係が低いものを低スコアとして評価する。
 診断モジュール44は、分析した相関関係の結果に基づいて、被験者を診断する(ステップS35)。ステップS35において、診断モジュール44は、分析した相関関係の結果として、スコアが最も高い評価の診断結果の組み合わせに基づいて、被験者の病名を特定する。例えば、診断モジュール44は、上述した画像解析の結果と、上述した被験者情報の分析の結果と、その相関関係の分析の結果とに基づいて、今回の被験者は、糖尿病であると病名を特定する。
 学習モジュール40は、今回の診断結果を被験者画像と被験者情報とに対応付けて学習する(ステップS36)。
 記憶モジュール30は、学習した結果を記憶する(ステップS37)。コンピュータ10は、次以降の診断の際に、今回学習した結果も加味した診断を行う。
 なお、コンピュータ10は、診断結果を、図示してない医師又は被験者が保有する端末装置等に送信してもよい。この場合、予め登録された端末装置からの要求や診断の結果、異常が発見された場合等において、この端末装置に対して、診断結果を送信すればよい。このとき、診断結果とともに、具体的な処置の方法、最寄りの医療機関の地図や連絡先等の情報、危険度等の各種情報を合わせて送信してもよい。この各種情報を受信した端末装置は、各種情報を表示又は音声等により通知してもよい。
 以上が、被験者診断処理である。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態で提供される。また、プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 1 被験者診断システム10 コンピュータ

Claims (6)

  1.  被験者を診断するコンピュータシステムであって、
     前記被験者の被験者画像を取得する被験者画像取得手段と、
     取得した前記被験者画像を画像解析する被験者画像解析手段と、
     前記被験者の被験者情報を取得する被験者情報取得手段と、
     取得した前記被験者情報を分析する被験者情報分析手段と、
     前記画像解析した結果と、前記分析した結果との相関関係を分析する相関関係分析手段と、
     分析した前記相関関係の結果に基づいて、前記被験者を診断する被験者診断手段と、
     を備えることを特徴とするコンピュータシステム。
  2.  前記被験者画像解析手段は、予め記憶した被験者画像と診断結果とを対応付けて学習し、学習した結果に基づいて、前記被験者画像を画像解析する、
     ことを特徴とする請求項1に記載のコンピュータシステム。
  3.  前記被験者情報分析手段は、予め記憶した被験者情報と診断結果とを対応付けて学習し、学習した結果に基づいて、前記被験者情報を分析する、
     ことを特徴とする請求項1に記載のコンピュータシステム。
  4.  前記被験者画像解析手段は、予め記憶した眼底画像、レントゲン画像、MRI画像、CTスキャン画像、超音波画像又はPET画像の少なくとも一つを診断結果と対応付けて学習し、
     前記被験者情報分析手段は、予め記憶した電子カルテ、バイタルデータ又は血液検査の少なくとも一つを診断結果と対応付けて学習する、
     ことを特徴とする請求項1に記載のコンピュータシステム。
  5.  被験者を診断する被験者診断方法であって、
     前記被験者の被験者画像を取得するステップと、
     取得した前記被験者画像を画像解析するステップと、
     前記被験者の被験者情報を取得するステップと、
     取得した前記被験者情報を分析するステップと、
     前記画像解析した結果と、前記分析した結果との相関関係を分析するステップと、
     分析した前記相関関係の結果に基づいて、前記被験者を診断するステップと、
     を備えることを特徴とする被験者診断方法。
  6.  被験者を診断するコンピュータシステムに、
     前記被験者の被験者画像を取得するステップ、
     取得した前記被験者画像を画像解析するステップ、
     前記被験者の被験者情報を取得するステップ、
     取得した前記被験者情報を分析するステップ、
     前記画像解析した結果と、前記分析した結果との相関関係を分析するステップ、
     分析した前記相関関係の結果に基づいて、前記被験者を診断するステップ、
     を実行させるための支援プログラム。
PCT/JP2017/018839 2017-05-19 2017-05-19 コンピュータシステム、被験者診断方法及び支援プログラム WO2018211687A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/018839 WO2018211687A1 (ja) 2017-05-19 2017-05-19 コンピュータシステム、被験者診断方法及び支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/018839 WO2018211687A1 (ja) 2017-05-19 2017-05-19 コンピュータシステム、被験者診断方法及び支援プログラム

Publications (1)

Publication Number Publication Date
WO2018211687A1 true WO2018211687A1 (ja) 2018-11-22

Family

ID=64273493

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/018839 WO2018211687A1 (ja) 2017-05-19 2017-05-19 コンピュータシステム、被験者診断方法及び支援プログラム

Country Status (1)

Country Link
WO (1) WO2018211687A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020241772A1 (ja) * 2019-05-31 2020-12-03 国立大学法人京都大学 情報処理装置、スクリーニング装置、情報処理方法、スクリーニング方法、及びプログラム
WO2020241836A1 (ja) * 2019-05-31 2020-12-03 国立大学法人京都大学 情報処理装置、スクリーニング装置、情報処理方法、スクリーニング方法、及びプログラム
WO2022038819A1 (ja) * 2020-08-21 2022-02-24 雅文 中山 検査結果推定装置、プログラム及びプログラム記憶媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158776A (ja) * 2014-02-24 2015-09-03 株式会社東芝 医用情報参照装置及び医用診断支援システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158776A (ja) * 2014-02-24 2015-09-03 株式会社東芝 医用情報参照装置及び医用診断支援システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020241772A1 (ja) * 2019-05-31 2020-12-03 国立大学法人京都大学 情報処理装置、スクリーニング装置、情報処理方法、スクリーニング方法、及びプログラム
WO2020241836A1 (ja) * 2019-05-31 2020-12-03 国立大学法人京都大学 情報処理装置、スクリーニング装置、情報処理方法、スクリーニング方法、及びプログラム
WO2022038819A1 (ja) * 2020-08-21 2022-02-24 雅文 中山 検査結果推定装置、プログラム及びプログラム記憶媒体
JP2022035870A (ja) * 2020-08-21 2022-03-04 雅文 中山 検査結果推定装置およびプログラム
JP7152724B2 (ja) 2020-08-21 2022-10-13 雅文 中山 機械学習装置、プログラム、及び検査結果推定装置

Similar Documents

Publication Publication Date Title
Niemeijer et al. Automated detection and differentiation of drusen, exudates, and cotton-wool spots in digital color fundus photographs for diabetic retinopathy diagnosis
US20220165418A1 (en) Image-based detection of ophthalmic and systemic diseases
Sánchez et al. Evaluation of a computer-aided diagnosis system for diabetic retinopathy screening on public data
Trucco et al. Validating retinal fundus image analysis algorithms: issues and a proposal
JP7143862B2 (ja) 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム
Beltrán et al. Computational techniques for eye movements analysis towards supporting early diagnosis of Alzheimer’s disease: a review
Abdel-Ghafar et al. Progress towards automated detection and characterization of the optic disc in glaucoma and diabetic retinopathy
EP2465062A2 (en) Glaucoma combinatorial analysis
US20220157470A1 (en) Method and system for identifying subjects who are potentially impacted by a medical condition
WO2018211687A1 (ja) コンピュータシステム、被験者診断方法及び支援プログラム
JP6433632B1 (ja) コンピュータシステム、被験者診断支援方法及びプログラム
CN105678075A (zh) 一种血细胞形态分析物联检测诊断方法及平台
Aliahmad et al. Zone specific fractal dimension of retinal images as predictor of stroke incidence
CN109770881A (zh) 一种基于血压的健康监测方法及血压测量装置
Adhikari et al. Resting-state co-activation patterns as promising candidates for prediction of Alzheimer’s disease in aged mice
Huang et al. Detecting glaucoma from multi-modal data using probabilistic deep learning
Liebmann et al. Rationale and development of an OCT-based method for detection of glaucomatous optic neuropathy
EP4104749A1 (en) Diagnosis assisting device, and diagnosis assisting system and program
JPWO2018179219A1 (ja) コンピュータシステム、動物診断方法及びプログラム
Medeiros How should diagnostic tests be evaluated in glaucoma?
Kainuma et al. Assessing the efficacy of a tongue image analyzing system (TIAS) for the objective diagnosis of static blood: An observational, retrospective, single‐center study of Japanese Kampo medicine
Danis et al. Imaging of diabetic retinopathy and diabetic macular edema
Grau et al. Teleglaucoma using a new smartphone-based tool for visual field assessment
KR20210157444A (ko) 머신러닝 기반 조현병 진단 방법 및 그 시스템
US20220192491A1 (en) Ophthalmic cart and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17910287

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17910287

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP