JP5538749B2 - 診断支援システム及びその診断支援方法、プログラム - Google Patents

診断支援システム及びその診断支援方法、プログラム Download PDF

Info

Publication number
JP5538749B2
JP5538749B2 JP2009134297A JP2009134297A JP5538749B2 JP 5538749 B2 JP5538749 B2 JP 5538749B2 JP 2009134297 A JP2009134297 A JP 2009134297A JP 2009134297 A JP2009134297 A JP 2009134297A JP 5538749 B2 JP5538749 B2 JP 5538749B2
Authority
JP
Japan
Prior art keywords
case data
case
diagnosis support
learning result
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009134297A
Other languages
English (en)
Other versions
JP2010282366A (ja
Inventor
恵子 米沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009134297A priority Critical patent/JP5538749B2/ja
Priority to PCT/JP2010/001989 priority patent/WO2010140288A1/ja
Priority to US12/893,989 priority patent/US20110022553A1/en
Publication of JP2010282366A publication Critical patent/JP2010282366A/ja
Application granted granted Critical
Publication of JP5538749B2 publication Critical patent/JP5538749B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Description

本発明は、診断支援システム及びその診断支援方法、情報処理装置に関する。
近年、様々な計測機器が医療現場で用いられるようになっている。これらの機器は、計測精度やデータ処理能力の向上により、莫大な情報量のデータを静止画や動画として生成する。そのため、それらデータに基づき診断を行なう読影医の負荷は、甚大なものとなっている。また、読影医の絶対数が少ないことがこのような負荷の増大の一要因となっており、読影医の育成は急務であるともいわれている。
診断支援(以下、CADと略す)技術が脚光を浴びている。CADでは、例えば、X線CTデータや、脳のMRIデータを用いて読影の支援を行なう。読影医の育成に関しては、特許文献1に示すように、患者の画像情報や外科的及び内科的所見を表示し、学習者に傷病名を解答させる教育支援システムが知られている。この教育支援システムでは、正解が付けられた症例データに基づいて、学習者に正しい答えを表示する。これにより、学習者は、多くの症例に対する専門医の診断結果を学ぶことができる。
特開平5−25748号公報
一般に、上述したシステムは、経験が豊富な医師に対しても、経験が浅い医師に対しても、同じ正解を表示し、経験等に応じた教育支援は行なっていない。また、例えば、眼科の場合、複数のモダリティによる分析結果を統合して診断を行なうが、この場合にも、各モダリティに対する分析結果の表示の割合は同一となる。
すなわち、従来のシステムでは、学習者が苦手としているモダリティに対してもそうでないモダリティに対しても画一的な教育支援を行なうだけであり、学習者に応じた教育支援を行なっていない。
本発明は、上記課題に鑑みてなされたものであり、医師個々の診断パターンを予め学習しておき、当該学習結果に基づいて診断スキルに応じた診断画面を各医師に対して表示するようにした技術を提供することを目的とする。
上記課題を解決するため、本発明の一態様による診断支援システムは、症例データに対する複数の医師による診断結果に基づく第1の学習結果と、前記症例データに対する特定の医師による診断結果に基づく第2の学習結果とを取得する取得手段と、
前記症例データのうち前記第1の学習結果と前記第2の学習結果とが一致する第1の症例データと、前記症例データのうち第1の学習結果と第2の学習結果とが一致しない第2の症例データとを取得するデータ取得手段と、
前記第1の症例データと前記第2の症例データとを分ける要因を取得する要因取得手段と、
することを特徴とする。
本発明によれば、医師個々の診断パターンを予め学習しておき、当該学習結果に基づいて診断スキルに応じた診断画面を各医師に対して表示する。
本発明の一実施の形態に係わる診断支援システムの全体構成の一例を示す図。 図1に示す学習処理装置10の機能的な構成の一例を示す図。 図1に示す学習処理装置10における処理の流れの一例を示すフローチャート。 図3に示すS104の処理の流れの一例を示すフローチャート。 症例データの分類の一例を示す図である。 図1に示す診断支援装置50の機能的な構成の一例を示す図。 図1に示す診断支援装置50における処理の流れの一例を示すフローチャート。 症例データの分類の一例を示す図である。 実施形態3に係わる学習処理装置10の機能的な構成の一例を示す図。 実施形態3に係わる学習処理装置10における処理の流れの一例を示すフローチャート。
以下、本発明に係わる診断支援システム及びその診断支援方法、情報処理装置の一実施の形態について添付図面を参照して詳細に説明する。
(実施形態1)
図1は、本発明の一実施の形態に係わる診断支援システムの全体構成の一例を示す図である。なお、本実施形態においては、緑内障の診断支援を行なう場合を例に挙げて説明する。
この診断支援システムには、LAN(Local Area Network)等で構成されたネットワーク30を介して、学習処理装置10と、診断支援装置50と、臨床データ取得装置20と、データベース40とが接続されている。なお、各装置は、通信が行なえればよく、必ずしもネットワーク30を介して接続される必要はない。例えば、USB(Universal Serial Bus)やIEEE1394等を介して接続されていもよいし、また、WAN(Wide Area Network)を介して接続されていてもよい。
ここで、データベース40は、各種データを格納する。データベース40には、症例データベース41が含まれる。症例データベース41には、疾患部を含むことが分かっているデータ、及びそのような疾患部を含まないデータ(所見なし)等、複数の症例データが格納される。ここで、各症例データには、複数のモダリティ(例えば、眼底カメラ、OCT(Optical Coherence Tomograph)、視野計)を用いた検査結果が含まれる。具体的には、眼底カメラで撮影した眼底画像、OCTにより黄斑部及び視神経乳頭部の断層像を撮影した3D画像、視野計による視野感度の測定結果、被検眼の眼圧、隅角、視力、眼軸長の値等が含まれる。
学習処理装置10は、医師の診断パターンを学習し、当該医師の診断の特徴を分析する。そして、その分析結果等をデータベース40に格納する。
臨床データ取得装置20は、臨床データを取得する。臨床データには、上述した症例データ同様に、複数のモダリティ(例えば、眼底カメラ、OCT、視野計)を用いた検査結果が含まれる。臨床データ取得装置20では、診断支援装置50からの指示に応じて、被検眼の撮影や視野感度、眼圧、隅角等の測定を実施し、当該測定により得られた画像やその他の情報を診断支援装置50に送信する。
診断支援装置50は、医師が診断に用いる装置である。診断支援装置50では、医師による診断が行なわれる際に、当該医師の診断の特徴を示す学習結果をデータベース40から取得するとともに、診断対象となる患者の臨床データを臨床データ取得装置20から取得する。そして、当該医師が間違いやすい症例の診断に際しては、その間違いをカバーするために重要となる情報を臨床データに基づいて表示する。これにより、医師各々の診断スキルに応じた診断支援を行なう。
なお、上記説明した、学習処理装置10、診断支援装置50、臨床データ取得装置20、データベース40等には、コンピュータが組み込まれている。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、キーボード、マウス、ディスプレイ、ボタン又はタッチパネル等の入出力手段、等も具備される。これら各構成手段は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
図2を用いて、図1に示す学習処理装置10の機能的な構成の一例について説明する。学習処理装置10は、症例データ取得部11と、入力部12と、記憶部13と、表示処理部14と、出力部16と、制御部15とを具備して構成される。
症例データ取得部11は、症例データベース41から症例データを取得する。入力部12は、医師(使用者)を識別する識別情報や、使用者の指示を装置内に入力する。記憶部13は、各種情報を記憶する。制御部15は、学習処理装置10を統括制御する。表示処理部14は、表示画面を生成し、それをモニタ(表示器)に表示する。出力部16は、データベース40等に向けて各種情報を出力する。
ここで、制御部15には、学習部151と、比較分類部152と、分析部153とが具備される。学習部151は、症例データ取得部11により取得された症例データに基づいて、当該症例データを識別するために必要な特徴量のセットを求める。また、パターン認識手法のパラメータの設定も行なう。そして、この特徴量のセット、パターン認識手法のパラメータ等を用いて、複数の経験豊富な医師(経験者)や本システムを使用する医師の診断パターンを学習する。
比較分類部152は、経験者による学習結果(以下、第1の学習結果と呼ぶ)とシステム使用者による学習結果(以下、第2の学習結果と呼ぶ)とを比較し、その比較結果に基づいて症例データベース41内の各症例を分類する。例えば、緑内障診断の場合であれば、緑内障であると識別し易い症例、緑内障でないと識別し易い症例(すなわち、正常)、緑内障であると識別するのが困難な症例、等に各症例を分類する。
分析部153は、経験者による学習結果(以下、第1の学習結果と呼ぶ)とシステム使用者による学習結果(以下、第2の学習結果と呼ぶ)とに基づいて、当該使用者の診断の特徴(診断スキル)を分析する。
次に、図3を用いて、図1に示す学習処理装置10における処理の流れの一例について説明する。ここでは、学習結果を作成する時の処理の流れについて説明する。
この処理が始まると、学習処理装置10は、症例データ取得部11において、診断ラベル(診断結果を示す情報)付きの症例データを症例データベース41から取得する。そして、学習処理装置10は、学習部151において、当該診断ラベル付きの症例データに基づいて、特徴量のセットを決めるとともに、パターン認識手法のパラメータ等を設定し、それら情報を記憶部13に格納する(S101)。この処理は、症例データベース41に格納された全ての症例データに対して行なわれる。
ここで、学習処理装置10は、学習部151において、複数の経験豊富な医師(経験者)が症例データに付与した診断ラベルに基づいて、第1の識別関数群を求める(S102)。このとき、特徴量セットやパターン認識手法のパラメータは、S101で設定された値を用いる。
次に、学習処理装置10は、学習部151において、本システムを使用する医師(システム使用者)が症例データに付与した診断ラベルに基づいて、第2の識別関数を求める(S103)。第2の識別関数は、医師を識別する情報(例えば、各医師のID)とともに記憶部13に格納される。なお、このときの特徴量セットやパターン認識手法のパラメータは、S101で設定された値を用いる。
学習処理装置10は、比較分類部152において、S102で求めた第1の識別関数と、S103で求めた第2の識別関数とに基づき、経験者とシステム使用者との学習結果を比較する。そして、その比較結果に基づいて症例データベース41内の症例を分類する。この分類が済むと、学習処理装置10は、分析部153において、分類結果に基づいて、第1の識別関数及び第2の識別関数の差異を分析する。そして、その分析結果等をデータベース40に格納する(S104)。その後、この処理を終了する。
[S101の処理の詳細]
ここで、図3に示すS101の処理について具体例を挙げて説明する。
ここで、症例データベース41には、緑内障であることが既知である症例Nglaucoma例と、正常な症例Nnormal例とが格納されている。なお、緑内障であることが既知である症例とは、例えば、専門医により緑内障と診断された後、継続的に経過観察され、緑内障であることが確定した症例を指す。
学習処理装置10は、症例データ取得部11において、症例データベース41から全ての症例データを取得し、記憶部13に格納する。続いて、学習処理装置10は、学習部151において、当該取得した症例データを用いてパターン認識による識別学習を行なう。パターン認識に用いる特徴量は、例えば、眼底画像であれば、視神経乳頭部の陥凹に対応するカップ/ディスク比(C/D比)やリム/ディスク比(R/D比)、神経線維層の欠損に対応する神経線維層に沿った色ヒストグラムなどの値が挙げられる。また、例えば、OCTによる3D画像であれば、黄斑周辺を9つのセクターに分割しそれぞれの領域で測定した神経線維層の層厚さ、視野測定であれば、MD値(Mean Deviation)やTD値(Total Deviation)などが挙げられる。
パターン認識には、例えば、SVM(Support Vector Machine)を用いればよい。なお、この手法以外にも、クラス分類が可能な手法であればよい。例えば、SVM以外でも、ニューラルネットワーク、ベイジアンネットワーク、混合正規分布などを用いたパラメトリックな手法によりクラス分類してもよい。
また、評価法としては、例えば、10 fold cross validation法を用いればよい。緑内障症例、正常症例をそれぞれ10分割して、緑内障症例の9グループと正常症例の9グループとを用いて学習し、その結果で残りの症例の識別を行なう処理を繰り返す。10 fold cross validation法により正解率((緑内障症例を緑内障と識別する症例数+正常症例を正常と識別する症例数)/全症例数)を評価し、その正解率が最も高くなるようにパターン認識手法のパラメータを決定する。
ここで、次元削減手法を用いて複数の特徴量の中から症例の識別に有効な特徴量を選択する。例えば、後進法と呼ばれる次元削減手法を用いる。後進法では、全ての特徴量を用いた状態から一つずつ特徴量を減らしていく。これにより、識別精度を評価する手法(Sequential Backward Search法)である。但し、この手法に限られない。例えば、これとは逆に特徴量を一つずつ加えていくことによって精度の変化を調べる前進法(Sequential Forward Search法)や、識別器によらない次元削減手法として知られる主成分分析法を用いてもよい。
10 fold cross validation法により全ての特徴量を用いてパラメータを調整した後、後進法を用いて次元削減を行なう。その後、導出されたパラメータの値をその値周辺で変化させて、正答率の変化を確認する。この処理を繰り返すことにより、最終的な特徴量のセット、パターン認識手法のパラメータを決定する。
このように学習部151では、症例データベース41から取得した症例データに基づいて、特徴量のセットを決め、学習モデルを設定するために必要となるパラメータ(カーネルやパラメータ)を設定する。これらパラメータ等は、上述した通り、記憶部13に格納される。なお、この処理では、症例データベース41に格納された全ての症例データに対して特徴量のセットを算出する。そして、症例毎の特徴量ベクトルx(i=1〜N)を記憶部13に格納する。
[S102の処理の詳細]
次に、図3に示すS102の処理の具体的内容に関して説明する。ここでは、緑内障診断の経験が豊富な医師(経験者)がシステム使用者であるとする。
この処理が始まると、学習処理装置10は、症例データ取得部11において、症例データベース41から症例データを取得し、それを記憶部13に格納する。この取得した症例データは、記憶部13への格納と同時に表示処理部14を介してモニタに表示される。使用者は、モニタに表示された症例に対して緑内障であるか否かを診断し、その診断結果を入力する。この診断結果は、入力部12を介して装置内に診断ラベルとして入力され、症例データと対応付けて記憶部13に格納される。
全ての症例データのラベル付けが終わると、学習処理装置10は、学習部151において、S101で設定した各症例の特徴量セット、パターン認識手法のパラメータを用いて、経験者が付与した診断ラベルに基づく学習を行なう。これにより、識別関数fを求める。
ここでの学習は、複数の経験豊富な医師による診断に基づいて行われ、これにより、各医師の識別関数が求められる。n人の医師各々に対応する識別関数をf 〜f とする。この学習結果は、第1の学習結果として記憶部13に格納される。
(S103の処理の詳細)
次に、図3に示すS103の処理について具体例を挙げて説明する。ここでは、本システムを使用する医師(経験豊富であっても、そうでなくても良い)をシステム使用者とする。
この処理が始まると、学習処理装置10は、入力部12において、医師を識別する識別情報(各医師に対して付与されたID情報)を取得する。また、学習処理装置10は、症例データ取得部11において、症例データベース41から症例データを取得し、それを記憶部13に格納する。この取得した症例データは、記憶部13への格納と同時に表示処理部14を介してモニタに表示される。使用者である医師は、モニタに表示された症例に対して緑内障であるか否かを診断し、その診断結果を入力する。この診断結果は、入力部12を介して装置内に診断ラベルとして入力され、症例データと対応付けて記憶部13に格納される。
全ての症例データのラベル付けが終わると、学習処理装置10は、学習部151において、S101で設定した各症例の特徴量セット、パターン認識手法のパラメータを用いて、使用者に付与されたラベルに基づく学習を行なう。これにより、識別関数fを求める。この学習結果は、システム使用者である医師のIDとともに、第2の学習結果として記憶部13に格納される。
[S104の処理の詳細]
次に、図4を用いて、図3に示すS104の処理について具体例を挙げて説明する。
学習処理装置10は、S102で求めた第1の学習結果と、S103で求めた第2の学習結果とを記憶部13から取得する。ここで、第1の学習結果は、複数の経験豊富な医師の診断により得られた第1の識別関数群f (x)であり、第2の学習結果は、システム使用者の医師の診断により得られた第2の識別関数f(x)である。
また、学習処理装置10は、S101で算出した各症例データに対する特徴量ベクトルx(i=1〜N)の値を取得する。そして、学習処理装置10は、比較分類部152において、第1の識別関数群f (x)と第2の識別関数f(x)とを用いて、各症例データを分類する(S201)。これにより、各症例データは、図5に示すように分類される。
図5の横軸においては、n種の第1の識別関数f (x)〜f (x)全てで正常とされ、且つ正常であることが確定している症例を正常、全てで緑内障とされ、且つ緑内障であることが確定している症例を緑内障としている。更に、n種の第1の識別関数で1つでも確定診断結果と異なる結果が得られた症例を困難症例と分類している。また、図5の縦軸においては、第2の識別関数f(x)に基づく識別結果が示されており、各症例は全部で6種類のカテゴリに分類される。
ここで、症例群m1は、経験者(複数の経験豊富な医師)とシステム使用者(本システムを使用する医師)とがともに、正常と診断した症例群である。また、症例群m6は、経験者とシステム使用者とがともに、緑内障と診断した症例群である。症例群m2及びm5は、経験者の間でも意見のわかれる症例群であり、診断の難しい症例群(第3のカテゴリ)といえる。
これに対し、症例群m3は、経験者全てが緑内障と診断しているが、システム使用者は正常と診断している症例群である。つまり、システム使用者が緑内障を見落としている症例群となる。この症例群m3をFalse Negative症例群(以下、FN症例群と呼ぶ)とする。逆に、症例群m4は、経験者全てが正常と診断しているが、システム使用者は緑内障と診断している症例群である。つまり、本システムの使用者によるFalse Positive症例群(以下、FP症例群と呼ぶ)となる。
図4の説明に戻り、症例データの分類が済むと、学習処理装置10は、分析部153において、第1の識別関数群f (x)と第2の識別関数f(x)とに差異があるか否かの判断を行なう。具体的には、症例群m3(FN)及び症例群m4(FP)に分類された症例群が両者の差異となる。症例群m3(FN)及び症例群m4(FP)に分類された症例がなければ、両者の識別関数には差異がないとする。
判断の結果、差異がなければ(S202でNO)、この処理は終了する。一方、差異があれば(S202でYES)、学習処理装置10は、分析部153において、分析処理を行なう(S203)。
ここで、分析処理においては、以下、(1)及び(2)の関係に着目する。
1)症例群m3(FN)と症例群m1(正常)、
2)症例群m4(FP)と症例群m6(緑内障)
症例群m3(FN)及び症例群m1(正常)に分類された症例は、第2の識別関数fでは、正常と診断されているが、第1の識別関数群f では、症例群m1は正常、症例群m3は緑内障と診断されている。すなわち、システム使用者となる医師が、正確に診断を行なった症例群が症例群m1(第1のカテゴリ)であり、誤診断を行なった症候群が症例群m3(第2のカテゴリ)である。
学習処理装置10は、分析部153において、症例群m3及び症例群m1を参照し、症例群m3と症例群m1との分離要因となる特徴量を求める。例えば、フィッシャーの判別分析法を用いて、特徴量空間上の2クラスのパターン分布から、この2クラスを識別するのに最適な一次元軸を求める。なお、フィッシャーの判別分析法に限られず、例えば、決定木やロジスティック回帰分析などの手法を用いてもよい。
ここで、分析部153は、症例群m3及び症例群m1に対してフィッシャーの判別分析を適応する。これにより、「式1」に示す変換行列を求める。
Figure 0005538749
ここで、μは各症例群における特徴量ベクトルの平均ベクトルであり、Sはクラス内変動行列である。症例群m3及び症例群m1に分類された各症例に対する特徴量ベクトルをxとすると、クラス内変動行列Sは「式2」のように示される。
Figure 0005538749
フィッシャーの判別分析法により変換行列M31が求まる。変換行列M31により変換された特徴量空間は、クラス内変動・クラス間変動比を最大にする一次元空間となる。なお、ここでは説明を省略するが、症例群m4及び症例群m6に対しても、上述した処理を実施し、変換行列M46を求める。
変換行列が求まると、学習処理装置10は、分析部153において、M31の要素の中で絶対値が最も大きな要素を求め、その要素に対応する特徴量を最重要特徴量とする。また、モダリティ毎にM31の各要素の2乗和をとる。そして、この値をモダリティ毎に比較し、最も大きな値となったモダリティを最重要モダリティとする。これは、当該医師の診断を補助するのに重要となる検査情報を特定するために行なわれる。なお、M46に対しても、上記同様に最重要特徴量及び最重要モダリティを求める。
分析処理が済むと、学習処理装置10は、当該分析結果等をデータベース40に向けて送信する。具体的には、S101で設定した特徴量のセットやパターン認識のパラメータ、S102で求めた第1の学習結果、S103で求めた第2の学習結果及び医師(システム使用者)のID、S104で求めた分析結果、等をデータベース40に格納する(S204)。
次に、図6を用いて、図1に示す診断支援装置50の機能的な構成の一例について説明する。診断支援装置50は、学習結果取得部51と、入力部52と、記憶部53と、表示処理部54と、出力部55と、臨床データ取得部56と、制御部57とを具備して構成される。
入力部52は、医師(使用者)を識別する情報や、使用者の指示を装置内に入力する。学習結果取得部51は、データベース40から学習結果を取得する。具体的には、第1の学習結果と、第2の学習結果とをデータベース40から取得する。
臨床データ取得部56は、診断対象となる患者の臨床データを臨床データ取得装置20から取得する。記憶部53は、各種情報を記憶する。制御部57は、診断支援装置50を統括制御する。表示処理部54は、表示画面を生成し、それをモニタに表示する。出力部55は、データベース40等に向けて各種情報を出力する。
ここで、制御部57には、表示情報決定部571と、臨床データ識別部572とが具備される。
表示情報決定部571は、臨床データ表示時に画面上に表示する表示情報を決める。表示情報とは、臨床データの表示に際して、検査結果の内のいずれを表示するかを示す情報や、いずれのモダリティにより検査された情報を表示するかを示す情報等である。また、表示情報には、その検査結果をどのように表示するかを示す情報や、その他、注意喚起等を促す情報等も含まれる。なお、どのような表示情報を表示するかは、分析部153による分析結果に基づいて決められる。
表示情報決定部571には、比較分類部61が設けられる。比較分類部61では、経験者による学習結果(以下、第1の学習結果と呼ぶ)とシステム使用者による学習結果(以下、第2の学習結果と呼ぶ)とを用いて、特徴量空間を複数のカテゴリに分類する。そして、表示情報決定部571は、その分類されたカテゴリ毎に表示情報を決める。
臨床データ識別部572は、臨床データ取得部56により取得された臨床データを分析し、上述した比較分類部61により分類されたいずれのカテゴリに当該臨床データが分類されるのかを識別する。具体的には、臨床データに基づいて各特徴量の値を算出し、当該臨床データの特徴量ベクトルxを求める。これにより、当該臨床データがいずれの症例に分類されるのかを識別する。
次に、図7を用いて、図1に示す診断支援装置50における処理の流れの一例について説明する。ここでは、緑内障の診断支援を行なう時の処理の流れについて説明する。
医師は、まず、入力部52を介して自身の医師IDを入力する。これにより、診断支援装置50は、医師(使用者)のIDを取得し、それを記憶部53に格納する(S301)。
診断支援装置50は、学習結果取得部51において、学習処理装置10がデータべース40に格納した情報を取得する。具体的には、S101で設定された特徴量のセットやパターン認識のパラメータ、S102で求められた第1の学習結果(第1の識別関数群f (x))を取得する。また、学習結果取得部51は、S301で取得したIDに基づいて当該医師によりS103で行なわれた第2の学習結果(第2の識別関数f(x))を取得するとともに、当該第2の学習結果に基づいてS104で求められた当該使用者の分析結果を取得する(S302)。
これら情報の取得が済むと、診断支援装置50は、表示情報決定部571において、第1の識別関数群f (x)と、第2の識別関数f(x)とを用いて、図8に示すように、特徴量空間を複数のカテゴリ(この場合、6つ)に分類する。
ここで、第1の識別関数群f (x)及び第2の識別関数f(x)に差異がなければ、カテゴリR3とカテゴリR2とを合わせてカテゴリR2とし、カテゴリR3は存在しないものとする。また、カテゴリR4とカテゴリR5とを合わせてカテゴリR5とし、カテゴリR4は存在しないものとする。両関数に差異があれば、S302で取得した情報(具体的には、S201の処理結果)に基づいてR3(FN症例群、m3)及びR4(FP症例群、m4)のいずれかに分類された症例があるか否かを判断する。判断の結果、FN症例群がなければ、カテゴリR3とカテゴリR2とを合わせてカテゴリR2とし、カテゴリR3は存在しないものとする。また、FP症例群がなければ、カテゴリR4とカテゴリR5とを合わせてカテゴリR5とし、カテゴリR4は存在しないものとする。
次に、診断支援装置50は、表示情報決定部571において、カテゴリR3又はカテゴリR4が存在するか否かを判断する。判断の結果、いずれかのカテゴリが存在すれば、S302で取得した情報(具体的には、S203の処理結果)に基づいて、R3及びR4に対応する最重要特徴量及び最重要モダリティを記憶部53から取得する。
次に、診断支援装置50は、表示情報決定部571において、複数のカテゴリ(R1〜R6)各々に対する表示情報を決める(S303)。具体的には、予め設けられた複数の表示情報の中からカテゴリ各々に対応した表示情報を決める。例えば、カテゴリR1に対しては、緑内障でない症例を表示する時の表示情報を設定し、カテゴリR6に対しては、緑内障である症例を表示する時の表示情報を設定する。また、カテゴリR2又はR5に対しては、経験のある医師でも診断が困難な症例を表示する時の表示情報を設定し、カテゴリR3又はR4に対しては、S203で求められた最重要特徴量及び最重要モダリティに基づく情報を表示する時の表示情報を設定する。更に、各モダリティに関する分析結果を含む情報を表示する時の表示情報や、特徴量各々に対する正常例の分布やばらつきの度合いなどを含む情報を表示する時の表示情報等も選択される。
各カテゴリに対する表示情報が決まると、診断支援装置50は、臨床データ取得部56において、臨床データ取得装置20から臨床データを取得する(S304)。具体的には、臨床データ取得装置20に対して検査結果の送信を要求し、眼底画像、OCTによる3D画像、視野計による視野感度の測定結果、眼圧、隅角、視力、眼軸長の情報を含む臨床データを取得し、それを記憶部53に格納する。
診断支援装置50は、臨床データ識別部572において、S304で取得した臨床データに基づいて各特徴量の値を算出し、当該臨床データの特徴量ベクトルxを求める。そして、S102で求められた第1の識別関数群f (x)と、S103で求められた第2の識別関数f(x)とを用いて、この算出された特徴量ベクトルに対して識別処理を実施する。これにより、取得した臨床データの症例が、図8に示す特徴量空間のいずれのカテゴリに属するのかを識別する(S305)。
診断支援装置50は、表示処理部54において、臨床データ識別部572による識別結果と、表示情報決定部571により決められた表示情報とに基づいて臨床データを表示する。すなわち、臨床データが分類されたカテゴリに設定された表示情報に基づいて表示画面を生成し、それをモニタに表示する(S306)。
診断が終わると、医師は、入力部52を介して、当該臨床データをデータベース40に格納するか否かを指示する。ここで、格納が指示された場合(S307でYES)、診断支援装置50は、出力部55において、医師のIDと臨床データの情報や分析結果等をデータベース40に送信する(S308)。更に、医師による診断結果(診断ラベル)を当該臨床データと対応付けてデータベース40に格納する。
その後、医師は、入力部52を介して、診断を終了するか否かを指示する。ここで、医師により診断の終了を指示する旨の操作が行なわれた場合(S309でYES)、診断支援装置50は、この処理を終了する。一方、診断の継続を指示する旨の操作が行なわれた場合(S309でNO)、S304の処理に戻る。
ここで、S306でモニタに表示される表示画面について例を挙げて説明する。
緑内障でないと識別し易い症例(カテゴリR1に分類された臨床データ)を表示する場合、例えば、全体の一覧性がよい眼底画像が中心に表示され、その黄斑部の中央を撮像したOCTの断層像がその横に表示される。視野計の結果は、感度低下が見られないことが予測されるので、OCT断層像の下方に表示される。また、臨床データの値の表も画面内に表示される。全体的に画像データを中心にし、必要以上の分析結果を表示しない画面構成となることが望ましい。
また、緑内障であると識別し易い症例(カテゴリR6に分類された臨床データ)を表示する場合、神経線維欠損の検出結果や、視神経乳頭辺縁の陥凹の測定結果(C/D比など)が眼底画像内に表示される。更に、OCTによる神経線維層の層厚マップの全体像が表示される。視野計の測定結果は、感度分布のマップとともに、視野異常の程度を表す指標に基づく分析結果を並べて表示する。ここで、視野異常の程度を分析する手法は、種々知られているが、例えば、アンダーソンの分類などを用いればよい。また、緑内障の症例を表示する場合は、多治見スタディによる判定基準などに基づいたカテゴリ分類を行なうことも望ましい。
次に、緑内障であると識別するのが困難な症例(カテゴリR2又はR5に分類された臨床データ)を表示する場合、上述したカテゴリR6時の表示に加えて、診断が困難であることを示すアラート(注意喚起)を表示する。更に、このような症例の表示に際しては、上述した特徴量以外にも、例えば、スリットランプによる眼底所見などの情報も重要になると考えられる。そこで、学習に用いた特徴量を表示するとともに、一般的な専門医が着眼する点に関する情報も表示することが望ましい。
次に、FN症例群又はFP症例群(カテゴリR3又はR4に分類された症例)を表示する場合、上述した最重要特徴量、最重要モダリティに基づいて表示画面が構成される。一般に、眼底画像の読影に経験豊富であったとしても、OCT画像の読影に不慣れであったり、視野計の新しい解析モードに対して不慣れであったりすることが考えられる。ここで、例えば、最重要特徴量が、神経線維層の層厚に関する特徴量であり、最重要モダリティが、OCTである場合を考える。この場合、神経線維層の層厚の黄斑周辺の層厚マップに加えて、正常時の層厚分布とそのばらつきに関するデータとを表示する。更に、検討症例の正常分布からのずれが大きく見られる箇所の指摘、当該大きなずれが見られる箇所の断層像の表示などを行なう。
また、例えば、眼圧は、様々な因子から影響を受けることが知られている。そのため、最重要特徴量が眼圧であれば、揺らぎに関するデータを表示する。例えば、年齢、性差、人種、屈折の影響や、測定時に座位である場合と仰臥位である場合とのばらつきの差などに関するデータの表示を行なってもよい。
上述した説明では、様々な特徴量やモダリティに対して、どのような表示を行なうかについていくつか例を挙げたが、当然、必要な情報が変わればそれに応じて表示画面も変更する。例えば、眼圧のばらつきに関するデータは、新しい調査結果の発表が行なわれれば、それに応じて内容を変更する。
以上説明したように実施形態1によれば、複数の経験豊富な医師の診断パターンと、本システムを利用する医師の診断パターンとを比較し、その差異を分析する。そして、その分析結果に基づいて診断画面の表示内容を変更する。これにより、例えば、複数の医師が同じ症例を診断する場合に、その症例に対して診断ミスの多い医師に対しては、その間違いをカバーする情報を表示し、そうでない医師に対しては、通常の表示を行なうことができる。
(実施形態2)
次に、実施形態2について説明する。実施形態1においては、各モダリティを単位として診断画面を表示する場合を例に挙げて説明した。これに対して、実施形態2においては、同じモダリティでも複数の異なる撮影結果や解析結果等がある点に注目する。例えば、OCTというモダリティでは、黄斑部の撮影もあれば、視神経乳頭周辺の撮影もある。また、眼底カメラというモダリティでは、眼底画像内の視神経乳頭部の解析もあれば、神経線維欠損の解析もある。
そこで、実施形態2においては、最重要モダリティを更に分類し、最重要撮像箇所又は最重要解析箇所を求める。具体的には、実施形態1とは、S203の処理が相違する。
ここで、実施形態2に係わる学習処理装置10は、分析部153において、変換行列M31の要素の中でその絶対値が最も大きな要素を求め、その要素に対応する特徴量を最重要特徴量とする。また、対応する撮像箇所毎にM31の各要素の2乗和をとる。そして、2乗和が最も大きくなる撮像箇所を最重要撮像箇所とする。例えば、黄斑部を撮像したOCT画像と、視神経乳頭部を撮像したOCT画像とがあれば、黄斑部の特徴量に対応するM31の各要素2乗和と、視神経乳頭部の特徴量に対応するM31の各要素2乗和とをそれぞれ算出する。
また、例えば、眼底画像の解析時には、視神経乳頭部の解析、眼底上半部の神経線維欠損の解析、眼底下半部の神経線維欠損の解析など、複数の解析箇所が考えられる。そのため、各解析箇所に関連する特徴量と対応するM31の各要素2乗和を求め、解析箇所毎にそれらの値を比較する。そして、2乗和が最も大きくなる解析箇所を最重要解析箇所とする。なお、M46に対しても、上記同様に最重要特徴量と、最重要撮像箇所又は最重要解析箇所とを求める。
これに伴って診断支援装置50では、S302及びS303の処理が実施形態1と相違する。S302の処理では、最重要モダリティの取得に留まらず、当該モダリティの最重要撮像箇所又は最重要解析箇所を取得する。具体的には、R3又はR4に分類された症例があれば、診断支援装置50は、最重要特徴量、最重要撮像箇所又は最重要解析箇所を取得する。
また、S303の処理では、診断支援装置50は、表示情報決定部571において、複数のカテゴリ(R1〜R6)毎に表示情報を決める。具体的には、カテゴリR1、R2、R5、R6は、実施形態1同様の表示情報が設定されるが、カテゴリR3には、最重要特徴量、最重要撮像箇所又は最重要解析箇所に対応した表示情報が設定される。
以上説明したように実施形態2によれば、モダリティのみではなく、当該モダリティによる撮像箇所又は解析箇所に基づく表示を行なう。そのため、例えば、OCTというモダリティであっても、特に、視神経乳頭部の情報を優先させて表示等することができる。
(実施形態3)
次に、実施形態3について説明する。実施形態1においては、複数の経験豊富な医師の診断パターンと、本システムを利用する医師の診断パターンとの差異を分析する際に、FP症例群及びFN症例群を一つの集合として取り扱っていた。しかし、例えば、緑内障を見落とす場合(FN症例群)の見落としの要因は、複数存在する。そのため、FN症例群は、その中でも更にクラス分けするべきである。
そこで、実施形態3においては、特定のカテゴリ内の症例群(FP症例群、FN症例群)に対してクラスタリング処理を行なう。これにより、それぞれの症例群の内部構造を反映した最重要特徴量及び最重要モダリティを求める。
ここで、まず、図9を用いて、実施形態3に係わる学習処理装置10の機能的な構成の一例について説明する。なお、実施形態1を説明した図2と同一の構成には、同一の番号を付し、その説明については省略する。
学習処理装置10の制御部15には、クラスタリング部154が新たに設けられる。クラスタリング部154は、FP症例群及びFN症例群を更に分類する。クラスタリングには、例えば、k−Means法や混合正規分布を用いた手法等を採用すればよい。
次に、図10を用いて、実施形態3に係わる学習処理装置10における処理の流れの一例について説明する。ここでは、実施形態1を説明した図3と相違する点について説明する。
学習処理装置10は、実施形態1同様に、各症例データを分類する(S401)。その後、学習処理装置10は、比較分類部152において、第1の識別関数群f (x)と第2の識別関数f(x)とに差異があるか否かの判断を行なう。
判断の結果、差異があれば(S402でYES)、学習処理装置10は、クラスタリング部154において、クラスタリング処理を行なう(S403)。具体的には、症例群m3及び症例群m4をそれぞれk個、k個のクラスタに分類する。この結果、m3−1〜m3−k、m4−1〜m4−kが得られる。
ここで、クラスタの数kは、症例群m3の特徴量空間内での分布に応じて決める。例えば、k−Means法を用いて、k=2から値を1づつ増加させながらクラスタリングを行なう。初期値に応じて収束結果が変動しない、症例群m3の特徴量ベクトル、各クラスタへ割り振られる症例数が少なくとも5症例存在する、等の条件を設け、クラスタ数の最大値を設定する。
その後、クラスタ数と、症例群m3内の各サンプルが割り振られたクラスタの平均ベクトルとの距離の二乗和の関係を求める。そして、クラスタの増加によって大幅な減少がみられるクラスタ数を選択する。
クラスタリング処理が終了すると、学習処理装置10は、分析部153において、分析処理を行なう(S404)。ここで、分析処理においては、症例群m3(FN)をm3−1〜m3−kのk個のクラスタで置き換え、症例群m4(FP)をm4−1〜m4−kのk個のクラスタで置き換える。
具体的には、
1−1)症例群m3(FN)−1と症例群m1(正常)、
1−2)症例群m3(FN)−2と症例群m1(正常)、
・・・、
1−k)症例群m3(FN)−kと症例群m1(正常)
また、
2−1)症例群m4(FP)−1と症例群m6(緑内障)、
2−2)症例群m4(FP)−2と症例群m6(緑内障)、
・・・、
2−k)症例群m4(FP)―kと症例群m6(緑内障)
となる。
学習処理装置10は、分析部153において、1−1)〜1−k)、2−1〜2−k)に対して上記実施形態1同様の分析を実施する。これにより、変換行列M31−1〜M31−k、M46−1〜M46−kを分析結果として取得する。
変換行列が求まると、学習処理装置10は、分析部153において、実施形態1同様に、M31−1の要素の中で絶対値が最も大きな要素を求め、その要素に対応する特徴量を最重要特徴量とする。また、モダリティ毎にM31−1の各要素の2乗和をとる。そして、この値をモダリティ毎に比較し、最も大きな値となったモダリティを最重要モダリティとする。同様に、全ての変換行列M31−1〜M31−k、M46−1〜M46−kに対して最重要特徴量及び最重要モダリティを求める。なお、M46−1に対しても、上記同様にして最重要特徴量及び最重要モダリティを求める。
このようにして分析結果が得られると、学習処理装置10は、クラスタ毎の最重要特徴量と最重要モダリティとしてその分析結果を記憶部13に格納する。なお、勿論、実施形態2のように、最重要特徴量と、最重要撮像部位又は最重要解析部位とを求めるようにしてもよい。
次に、実施形態3に係わる診断支援装置50における処理の流れの一例について説明する。なお、診断支援装置50の処理の流れは、実施形態1を説明した図7と同様となるため、ここでは、図7を参照して相違点について説明する。
実施形態1同様にしてS302における学習結果等の取得が済むと、診断支援装置50は、表示情報決定部571において、図8に示すように、特徴量空間を複数のカテゴリ(この場合、6つ)に分類する。そして、実施形態1同様に、カテゴリの合体等を行なう。このカテゴリ合体等の結果、カテゴリR3(FN症例群)に該当する特徴量空間があれば、カテゴリR3を、S403で説明したk個のクラスタのいずれかに分類する。また、カテゴリR4(FP症例群)も、カテゴリR3同様に、k個のクラスタに分類する。
次に、診断支援装置50は、表示情報決定部571において、カテゴリR3又はカテゴリR4が存在するか否かを判断する。判断の結果、いずれかのカテゴリが存在すれば、カテゴリR3とその各クラスタ(R3−1〜R3−k)、カテゴリR4とその各クラスタ(R4−1〜R4−k)とに対応する最重要特徴量及び最重要モダリティを取得する。
次に、診断支援装置50は、表示情報決定部571において、複数のカテゴリ各々に対する表示情報を決める(S303)。すなわち、4種類のカテゴリ(R1、R2、R5、R6)と、2種類のカテゴリ及びそれぞれに属するクラスタ(R3−1〜R3−k、R4−1〜R4−k)に対する表示情報を決める。カテゴリR3の各クラスタ(R3−1〜R3−k)及びカテゴリR4の各クラス(R4−1〜R4−k)に対しては、最重要特徴量及び最重要モダリティに対応する表示情報を設定する。
各カテゴリに対する表示情報が決まると、診断支援装置50は、臨床データを取得し(S304)、当該臨床データの特徴量ベクトルxを求める。これにより、取得した臨床データの症例が、図8に示す特徴量空間(6分類及び対応するクラスタ内)のいずれに属するのかを識別する(S305)。ここで、クラスタの識別法は、例えば、S403でk−Means手法が用いられていれば、各クラスタの平均ベクトルの内、最も距離の近いクラスタに当該症例を分類する。
その後、診断支援装置50は、表示処理部54において、臨床データ識別部572による識別結果と、表示情報決定部571により決められた表示情報とに基づいて臨床データを表示する。すなわち、臨床データが分類されたカテゴリに設定された表示情報に基づいて表示画面を生成し、それをモニタに表示する(S306)。なお、以降の処理は、実施形態1と同様であるため、その説明については省略する。
以上説明したように実施形態3によれば、診断ミス(FP、FN)を起こす可能性の高い症例を診断する場合に、より最適な診断画面を表示することができる。
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
例えば、上述した説明(図7、図10等)では、診断支援装置50において、診断の都度、カテゴリ識別処理やクラスタリング処理を行なう構成となっていたが、これに限られない。例えば、一度行なったカテゴリ識別やクラスタリングの結果を保持し、それ以降においては、その結果を取得して診断支援を行なうように構成してもよい。
なお、上述した学習処理装置10、診断支援装置50等における処理を、これら装置に内蔵されたコンピュータにインストールされたプログラムにより実施するように構成してもよい。このプログラムは、ネットワーク等の通信手段により提供することは勿論、CD−ROM等の記録媒体に格納して提供することも可能である。
また、上述した診断支援システムでは、学習処理装置10と、診断支援装置50と、臨床データ取得装置20と、データベース40とを含むんで構成されていたが、必ずしもこのような構成を採る必要はない。すなわち、システム内におけるいずれかの装置にその全部若しくは一部の機能が実現されていればよい。例えば、学習処理装置10と診断支援装置50とが一つの装置(情報処理装置)として実現されてもよいし、また、3つ以上の装置として実現されてもよい。

Claims (14)

  1. 症例データに対する複数の医師による診断結果に基づく第1の学習結果と、前記症例データに対する特定の医師による診断結果に基づく第2の学習結果とを取得する取得手段と、
    前記症例データのうち前記第1の学習結果と前記第2の学習結果とが一致する第1の症例データと、前記症例データのうち第1の学習結果と第2の学習結果とが一致しない第2の症例データとを取得するデータ取得手段と、
    前記第1の症例データと前記第2の症例データとを分ける要因を取得する要因取得手段と、
    することを特徴とする診断支援システム。
  2. 前記要因を表示部に表示させる表示制御手段を更に有することを特徴とする請求項1に記載の診断支援システム。
  3. 前記要因は、前記第1の症例データと前記第2の症例データとを分ける複数の要素のうち最も大きな値を持つ要素に対応する特徴量であることを特徴とする請求項1または請求項2に記載の診断支援システム。
  4. 前記要因は、前記症例データを取得したモダリティ毎に算出された前記第1の症例データと前記第2の症例データとを分ける複数の要素の和のうち、前記要素の和が最大となるモダリティであることを特徴とする請求項1または請求項2に記載の診断支援システム。
  5. 前記要素は、前記第1の症例データと前記第2の症例データとを分けるための処理に用いた変換行列に含まれることを特徴とする請求項3または請求項4に記載の診断支援システム。
  6. 医師を識別する識別情報を入力する入力手段を更に備え、
    前記第2の学習結果は前記識別情報に対応する医師による診断結果に基づくことを特徴とする請求項1乃至5のいずれか1項に記載の診断支援システム。
  7. 前記第1の学習結果と前記第2の学習結果とを用いて前記症例データを複数のカテゴリに分類する分類手段と、
    患者の検査により得られた臨床データが前記分類手段により分類された前記カテゴリのいずれに属するかを識別する識別手段と
    を更に有し、
    前記複数のカテゴリは、前記第1の学習結果と前記第2の学習結果とが一致する第1のカテゴリと、前記第1の学習結果と前記第2の学習結果とが一致しない第2のカテゴリを含み、
    前記識別手段によって前記臨床データが前記第2のカテゴリに属すると識別された場合に、前記表示制御手段は前記要因を前記表示部に表示させることを特徴とする請求項2に記載の診断支援システム。
  8. 前記識別手段によって前記臨床データが前記第1のカテゴリに属すると識別された場合に、前記表示制御手段は前記要因とは異なる情報を表示させることを特徴とする請求項7に記載の診断支援システム。
  9. 前記分類手段により前記第2のカテゴリに分類された症例データを複数のクラスタに分類するクラスタリング手段
    を更に具備し、
    前記識別手段は、
    記臨床データが前記第2のカテゴリに属する場合に、前記臨床データが前記複数のクラスタ内のいずれに属するかを識別し、
    前記表示制御手段は、
    前記識別手段により前記臨床データが属すると識別されたクラスタに対応した前記要因を前記表示部に表示させることを特徴とする請求項記載の診断支援システム。
  10. 前記要因は、前記症例データを取得したモダリティ毎に算出された前記第1の症例データと前記第2の症例データとを分ける複数の要素の和のうち最大の和となるモダリティによって撮像された箇所であることを特徴とする請求項4に記載の診断支援システム。
  11. 前記要因は、前記第1の症例データと前記第2の症例データとを分ける複数の要素間における比較結果に基づいて定められた要素に対応する特徴量であることを特徴とする請求項1または請求項2に記載の診断支援システム。
  12. 前記要因は、前記症例データを取得したモダリティ毎に算出された前記第1の症例データと前記第2の症例データとを分ける複数の要素の和をモダリティ間で比較した比較結果により定められたモダリティであることを特徴とする請求項1または請求項2に記載の診断支援システム。
  13. 診断支援システムの診断支援方法であって、
    例データに対する複数の医師による診断結果に基づく第1の学習結果と、前記症例データに対する特定の医師による診断結果に基づく第2の学習結果とを取得する取得工程と、
    前記症例データのうち前記第1の学習結果と前記第2の学習結果とが一致する第1の症例データと、前記症例データのうち第1の学習結果と第2の学習結果とが一致しない第2の症例データとを取得するデータ取得工程と、
    前記第1の症例データと前記第2の症例データとを分ける要因を取得する要因取得工程と、
    有することを特徴とする診断支援システムの診断支援方法。
  14. 請求項13記載の診断支援方法の各工程をコンピュータに実行させることを特徴とするプログラム。
JP2009134297A 2009-06-03 2009-06-03 診断支援システム及びその診断支援方法、プログラム Expired - Fee Related JP5538749B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009134297A JP5538749B2 (ja) 2009-06-03 2009-06-03 診断支援システム及びその診断支援方法、プログラム
PCT/JP2010/001989 WO2010140288A1 (ja) 2009-06-03 2010-03-19 診断支援システム及びその診断支援方法、情報処理装置
US12/893,989 US20110022553A1 (en) 2009-06-03 2010-09-29 Diagnosis support system, diagnosis support method therefor, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009134297A JP5538749B2 (ja) 2009-06-03 2009-06-03 診断支援システム及びその診断支援方法、プログラム

Publications (2)

Publication Number Publication Date
JP2010282366A JP2010282366A (ja) 2010-12-16
JP5538749B2 true JP5538749B2 (ja) 2014-07-02

Family

ID=43297431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009134297A Expired - Fee Related JP5538749B2 (ja) 2009-06-03 2009-06-03 診断支援システム及びその診断支援方法、プログラム

Country Status (3)

Country Link
US (1) US20110022553A1 (ja)
JP (1) JP5538749B2 (ja)
WO (1) WO2010140288A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7370419B1 (ja) 2022-04-28 2023-10-27 フジテコム株式会社 データ収集装置、信号発生位置特定システム、データ収集方法、信号発生位置特定方法、及びプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5652227B2 (ja) * 2011-01-25 2015-01-14 ソニー株式会社 画像処理装置および方法、並びにプログラム
EP2698098A4 (en) * 2011-04-13 2014-10-29 Kowa Co campimeter
JP6661144B2 (ja) * 2015-07-21 2020-03-11 Necソリューションイノベータ株式会社 学習支援装置、学習支援方法およびプログラム
JP2018014059A (ja) * 2016-07-22 2018-01-25 株式会社トプコン 医療情報処理システム及び医療情報処理方法
JP6983871B2 (ja) 2016-08-25 2021-12-17 ノボ・ノルデイスク・エー/エス 基礎インスリン滴定のスターターキット
CN110012675B (zh) * 2016-11-29 2024-02-27 诺和诺德股份有限公司 用于基础率滴定的起始套件
JP7078948B2 (ja) * 2017-06-27 2022-06-01 株式会社トプコン 眼科情報処理システム、眼科情報処理方法、プログラム、及び記録媒体
EP3814922A4 (en) * 2018-05-31 2022-02-16 Comptia SYSTEM AND PROCEDURES FOR AN ADAPTIVE COMPETENCE ASSESSMENT MODEL
JP7478518B2 (ja) * 2019-05-22 2024-05-07 キヤノンメディカルシステムズ株式会社 読影支援装置および読影支援方法
CN111582404B (zh) * 2020-05-25 2024-03-26 腾讯科技(深圳)有限公司 内容分类方法、装置及可读存储介质
JP2021051776A (ja) * 2020-12-15 2021-04-01 株式会社トプコン 医療情報処理システム及び医療情報処理方法
CN113488187B (zh) * 2021-08-03 2024-02-20 南通市第二人民医院 一种麻醉意外案例收集分析方法及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5235510A (en) * 1990-11-22 1993-08-10 Kabushiki Kaisha Toshiba Computer-aided diagnosis system for medical use
EP0973116A1 (en) * 1993-03-01 2000-01-19 Kabushiki Kaisha Toshiba Medical information processing system for supporting diagnosis
JPH06259486A (ja) * 1993-03-09 1994-09-16 Toshiba Corp 医用診断支援システム
JP3703858B2 (ja) * 1993-09-30 2005-10-05 シスメックス株式会社 帰属度判別装置
JP2852866B2 (ja) * 1994-03-30 1999-02-03 株式会社学習情報通信システム研究所 コンピュータによる画像診断学習支援方法
JP4104036B2 (ja) * 1999-01-22 2008-06-18 富士フイルム株式会社 異常陰影検出処理方法およびシステム
JP2004305551A (ja) * 2003-04-09 2004-11-04 Konica Minolta Medical & Graphic Inc 医用画像読影システム
JP4480508B2 (ja) * 2004-08-02 2010-06-16 富士通株式会社 診断支援プログラムおよび診断支援装置
JP2006171184A (ja) * 2004-12-14 2006-06-29 Toshiba Corp 技能評価システムおよび技能評価方法
JP2007286767A (ja) * 2006-04-13 2007-11-01 Canon Inc 画像検索システム、及び、画像検索サーバ及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
JP2008217426A (ja) * 2007-03-05 2008-09-18 Fujifilm Corp 症例登録システム
JP5140359B2 (ja) * 2007-09-21 2013-02-06 富士フイルム株式会社 評価管理システム及び評価管理装置及び評価管理方法
JP5647522B2 (ja) * 2007-12-21 2014-12-24 コーニンクレッカ フィリップス エヌ ヴェ クロスモダリティによる事例ベースのコンピュータ支援診断のための方法及びシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7370419B1 (ja) 2022-04-28 2023-10-27 フジテコム株式会社 データ収集装置、信号発生位置特定システム、データ収集方法、信号発生位置特定方法、及びプログラム

Also Published As

Publication number Publication date
WO2010140288A1 (ja) 2010-12-09
JP2010282366A (ja) 2010-12-16
US20110022553A1 (en) 2011-01-27

Similar Documents

Publication Publication Date Title
JP5538749B2 (ja) 診断支援システム及びその診断支援方法、プログラム
Tong et al. Application of machine learning in ophthalmic imaging modalities
Burlina et al. Use of deep learning for detailed severity characterization and estimation of 5-year risk among patients with age-related macular degeneration
Loh et al. Automated detection of ADHD: Current trends and future perspective
JP5923445B2 (ja) 緑内障の組み合わせ解析
Yousefi et al. Glaucoma progression detection using structural retinal nerve fiber layer measurements and functional visual field points
Park et al. Comparison of glaucoma diagnostic capabilities of Cirrus HD and Stratus optical coherence tomography
Hoeft et al. Morphometric spatial patterns differentiating boys with fragile X syndrome, typically developing boys, and developmentally delayed boys aged 1 to 3 years
Zahia et al. Dyslexia detection using 3D convolutional neural networks and functional magnetic resonance imaging
US10733727B2 (en) Application of deep learning for medical imaging evaluation
US9524304B2 (en) Systems and methods for diagnosing inherited retinal diseases
Schmidt et al. Interpreting PET scans by structured patient data: a data mining case study in dementia research
Cai et al. Clinical correlates of computationally derived visual field defect archetypes in patients from a glaucoma clinic
US20230162362A1 (en) Method and system for estimating early progression of dementia from human head images
Alexandrescu et al. Confocal scanning laser ophthalmoscopy in glaucoma diagnosis and management
CN112890815A (zh) 一种基于深度学习的孤独症辅助评估系统和方法
Goldbaum et al. Using unsupervised learning with independent component analysis to identify patterns of glaucomatous visual field defects
Murugan et al. An abnormality detection of retinal fundus images by deep convolutional neural networks
Zuo et al. Deep Learning-based Eye-Tracking Analysis for Diagnosis of Alzheimer's Disease Using 3D Comprehensive Visual Stimuli
Xia et al. Dynamic viewing pattern analysis: towards large-scale screening of children with ASD in remote areas
Li et al. A face image classification method of autistic children based on the two-phase transfer learning
Kooner et al. Glaucoma diagnosis through the integration of optical coherence tomography/angiography and machine learning diagnostic models
Tobin et al. A probabilistic framework for content-based diagnosis of retinal disease
Paunksnis et al. The use of information technologies for diagnosis in ophthalmology
KR102591797B1 (ko) 치매조기진단 시스템 및 이를 이용한 치매조기진단 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140404

R151 Written notification of patent or utility model registration

Ref document number: 5538749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430

LAPS Cancellation because of no payment of annual fees