JP6545591B2 - Diagnosis support apparatus, method and computer program - Google Patents
Diagnosis support apparatus, method and computer program Download PDFInfo
- Publication number
- JP6545591B2 JP6545591B2 JP2015189885A JP2015189885A JP6545591B2 JP 6545591 B2 JP6545591 B2 JP 6545591B2 JP 2015189885 A JP2015189885 A JP 2015189885A JP 2015189885 A JP2015189885 A JP 2015189885A JP 6545591 B2 JP6545591 B2 JP 6545591B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- data
- diagnosis
- discriminator
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、被験者に関する被験者データに基づいて診断支援を行う技術に関する。 The present invention relates to a technology for performing diagnosis support based on subject data on a subject.
骨シンチグラムを用いて被験者の診断支援装置を行う技術が知られている。既存の画像診断支援装置では、骨シンチグラムのホットスポット(薬剤が集積した高カウント領域)が癌転移であるか否かの判定をANN(人工ニューラルネットワーク)を用い、医師が診断を支援するための情報を出力している(例えば、特許文献1)。 There is known a technique for performing a diagnostic support device for a subject using a bone scintigram. The existing diagnostic imaging support system uses ANN (Artificial Neural Network) to determine whether the hot spot of bone scintigram (high count area where drug is accumulated) is cancer metastasis, and the doctor supports diagnosis Is output (for example, Patent Document 1).
ANNのような機械学習アルゴリズムに基づく判別機を診断支援装置に用いる場合、学習済みのアルゴリズムを備える判別機の状態が異なれば、同じ入力に対しても異なる出力がなされることがある。例えば、同じ学習アルゴリズムを用いた場合でも、あるデータセットを使って学習した判別機と、それとは異なるデータセットを使って学習した判別機とでは、同じ値を入力したときに同じ出力が得られるとは限らない。同様に、二つの判別機の学習アルゴリズムが互いに異なるときは、同じデータセットで学習をさせた場合であっても、同じ入力に対して常に同じ出力をするわけではない。 When a discriminator based on a machine learning algorithm such as ANN is used for a diagnosis support apparatus, different outputs may be made to the same input if the discriminator having the learned algorithm has a different state. For example, even if the same learning algorithm is used, the same output can be obtained when the same value is input between a classifier trained using one data set and a classifier trained using a different data set. Not necessarily. Similarly, when the learning algorithms of the two discriminators are different from each other, even if they are trained with the same data set, they do not always produce the same output for the same input.
つまり、ある被験者の状態を判定する場合に、診断支援情報として出力される情報が判別機の学習アルゴリズムや、学習に用いたデータセットに依存することになり、診断支援情報としての精度及び安定性に課題がある。 That is, when determining the state of a certain subject, the information output as diagnosis support information depends on the learning algorithm of the discriminator or the data set used for learning, and the accuracy and stability as the diagnosis support information There is a problem with
そこで、本発明の目的は、機械学習アルゴリズムを用いた診断支援において、その精度を向上させることである。 Therefore, an object of the present invention is to improve the accuracy in diagnosis support using a machine learning algorithm.
本発明の別の目的は、機械学習アルゴリズムを用いた診断支援において、安定した診断支援のための情報を提供することである。 Another object of the present invention is to provide information for stable diagnosis support in diagnosis support using a machine learning algorithm.
本発明の一つの実施態様に従うコンピュータプログラムは、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、前記コンピュータプログラムが前記診断支援装置に実行されると、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現する。 A computer program according to one embodiment of the present invention is a computer program for a diagnosis support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the computer program serving as a diagnosis support apparatus A first discriminator including a learned algorithm which has been trained on the first machine learning algorithm with the first data set, and wherein the first discriminator receives an input of the subject data and outputs a first discriminant result A second discriminator including: a first discriminator and a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set; The second discriminator and the first discriminator for receiving an input of the subject data and outputting a second discrimination result Fruit and in response to the second determination result, to realize a determining unit for outputting the diagnosis support information is information for supporting a diagnosis of a subject, to the diagnosis support apparatus.
本発明の別の実施態様に従うコンピュータプログラムは、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、前記コンピュータプログラムが前記診断支援装置に実行されると、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現する。 A computer program according to another embodiment of the present invention is a computer program for a diagnosis support apparatus that receives subject data, which is data related to a subject, and supports diagnosis of the subject, wherein the computer program is a diagnostic support apparatus. A first discriminator including a learned algorithm which has been trained on the first machine learning algorithm with the first data set, and wherein the first discriminator receives an input of the subject data and outputs a first discriminant result A second machine learning algorithm different from the first discriminator and the first machine learning algorithm, the second data set different from the first data set, or the first data set A second discriminator including a learned algorithm learned in step The second discriminator, which outputs the second discrimination result, and diagnosis support information, which is information for assisting the diagnosis of the subject according to the first discrimination result and the second discrimination result And a judgment device for outputting the above information in the diagnosis support apparatus.
好適な実施態様では、前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であってもよい。前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報であってもよい。 In a preferred embodiment, the first and second determination results may be a probability as to whether or not the subject is in a predetermined state. The diagnosis support information may be information for supporting a diagnosis, which is the probability of whether the subject is in the predetermined state or whether the subject is in the predetermined state.
好適な実施態様では、前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであってもよい。前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報であってもよい。 In a preferred embodiment, the first and second determination results may be whether or not the subject is in a predetermined state. The diagnosis support information may be information for supporting diagnosis of whether the subject is in the predetermined state.
好適な実施態様では、前記診断支援情報と、前記第1及び第2の判別結果を表示装置に表示させる手段を、さらに前記診断支援装置に実現させてもよい。 In a preferred embodiment, the diagnosis support apparatus may further realize means for causing the display device to display the diagnosis support information and the first and second determination results.
好適な実施態様では、前記診断支援情報と、前記診断支援情報の信頼度を表示装置に表示させる手段を、さらに前記診断支援装置に実現させてもよい。 In a preferred embodiment, the diagnosis support apparatus may further realize means for displaying the diagnosis support information and the reliability of the diagnosis support information on a display device.
好適な実施態様では、前記第1の機械学習アルゴリズムは、人工ニューラルネットワークであってもよい。 In a preferred embodiment, the first machine learning algorithm may be an artificial neural network.
好適な実施態様では、前記被験者データは、骨シンチグラムから得られたデータであってもよい。 In a preferred embodiment, the subject data may be data obtained from a bone scintigram.
好適な実施態様では、再判定要求を受け付ける受付手段を、さらに前記診断支援装置に実現させてもよい。そして、前記受付手段が再判定要求を受け付けたときは、前記被験者データ及び前記被験者の特徴を示す特徴データに基づいて、前記第1の判別機及び前記第2の判別機が新たな第1及び第2の判別結果を出力し、前記判断機が、新たな診断支援情報を出力するようにしてもよい。 In a preferred embodiment, the diagnosis support apparatus may further realize reception means for receiving a re-determination request. Then, when the receiving means receives the re-determination request, the first discriminator and the second discriminator respectively add new first and second discriminators based on the subject data and the characteristic data indicating the characteristics of the subject. The second determination result may be output, and the determination device may output new diagnosis support information.
本発明のさらに別の実施態様に従う、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置は、機械学習アルゴリズムに所定のデータセットで学習させた学習済みアルゴリズムを有する判別機を含み、前記被験者データの入力に基づく前記判別機の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判定手段と、前記診断支援情報を表示装置に表示させる表示手段と、再判定要求を受け付ける受付手段と、を備える。前記受付手段が再判定要求を受け付けたときは、前記判定手段は、前記被験者データ及び前記被験者の特徴を示す特徴データに基づく前記判別機の判別結果に応じて、新たな前記被験者の診断を支援する情報を出力する。 According to yet another embodiment of the present invention, a diagnostic support apparatus for receiving subject data that is data on a subject and supporting diagnosis of the subject is a discrimination having a learned algorithm learned by a machine learning algorithm using a predetermined data set. Determining means for outputting diagnosis support information which is information for supporting the diagnosis of the subject according to the discrimination result of the discriminator based on the input of the subject data, and a display device for displaying the diagnosis support information. And a receiving unit for receiving the re-determination request. When the reception means receives the re-determination request, the determination means supports a new diagnosis of the subject according to the discrimination result of the discriminator based on the subject data and the characteristic data indicating the characteristic of the subject. Output information.
以下、本発明の一実施形態に係る診断支援装置について、図面を参照して説明する。以下に説明する本発明の実施形態では、本発明に係る診断支援装置の一態様として、被験者の画像データを被験者データとして用いて診断支援情報を生成する画像処理装置を例に説明する。 Hereinafter, a diagnosis support apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the embodiment of the present invention described below, as an aspect of the diagnosis support apparatus according to the present invention, an image processing apparatus that generates diagnosis support information using image data of a subject as test subject data will be described as an example.
図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。同図に示すように、画像処理装置1は、画像処理装置本体10と、キーボード、タッチパネル、ポインティングデバイスなどの入力装置4と、液晶ディスプレイなどの表示装置5とを有する。画像処理装置本体10は、修正部20と、正規化部30と、表示制御部60と、記憶部70とを有する。表示制御部60は、調整部40と、変換部50と、生成部80とを有する。
FIG. 1 is a block diagram showing the configuration of an
画像処理装置本体10は、例えば汎用的なコンピュータシステムにより構成され、以下に説明する画像処理装置本体10内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータシステムは、メモリとマイクロプロセッサを有する。記憶部70は、メモリにより実現されても良い。このコンピュータプログラムは、コンピュータ読み取り可能な記録媒体に格納されて配布されることができる。
The image processing apparatus
記憶部70は、撮像画像記憶部15と、検査データ記憶部17と、修正画像記憶部25と、正規化画像記憶部35と、特徴データ記憶部36と、調整画像記憶部45とを有する。撮像画像記憶部15は、撮像された骨シンチグラムである撮像画像を記憶する。骨シンチグラムは、被験者の体内の放射性薬剤の分布状態が撮像された画像である。撮像画像セットは、或る患者の或る検査により撮像された、前面像の撮像画像と後面像の撮像画像とのペアである。本実施形態において、骨シンチグラム内の各ピクセルの値(画素値)は、画像を撮影する前に人間の体内に注入された放射性物質(放射性同位体:ラジオアイソトープ)からの放射強度を示すカウント値である。また、撮像画像記憶部15は、検査日時、前面又は後面を示す情報、基準視野等を含む撮像条件データを、撮像画像に関連付けて記憶する。検査データ記憶部17は、被験者の特徴量を示すデータで、例えば、被験者の画像を用いた検査以外の検査から得られたデータを検査データとして記憶してもよい。検査データは、例えば、被験者のTNM分類(悪性腫瘍の病期分類の指標)、腫瘍マーカーの値、病理検査の結果、遺伝子検査(リスク遺伝子の発現)の結果、性別、年齢、家族歴等の問診データを含んでもよい。
The
図2は、画像処理装置1の動作を示すフローチャートである。このフローは、検査により撮像画像セットが撮像画像記憶部15へ保存される度に実行されても良いし、或る患者の複数の撮像画像セットが撮像画像記憶部15へ保存された状態で、診察や解析のために実行されても良い。
FIG. 2 is a flowchart showing the operation of the
修正部20は、撮像画像記憶部15に格納されている撮像画像を予め定められた規格に従って修正し、その結果である修正画像を修正画像記憶部25へ保存する(S20)。
The
その後、正規化部30は、修正画像記憶部25に格納されている修正画像から骨格部位やホットスポット等の特徴を検出し、その結果である特徴データを修正画像に関連付けて特徴データ記憶部36へ保存する。更に、正規化部30は、特徴データに基づいて修正画像を正規化し、その結果である正規化画像を正規化画像記憶部35へ保存する(S30)。
After that, the
その後、表示制御部60は、正規化画像記憶部35に格納されている正規化画像を調整して配置することにより表示画面を生成し、表示画面を表示装置5に表示させ(S60)、このフローを終了する。
Thereafter, the
表示制御部60において、調整部40は、正規化画像記憶部35に格納されている正規化画像のサイズを調整し、その結果である調整画像記憶部45へ保存する。変換部50は、調整画像記憶部45に格納されている調整画像の画素値をグレースケールの濃度に変換する。生成部80は、調整画像を時系列に従って配置することにより表示画面を生成し、表示装置5に表示させる。
In the
なお、生成部80は、特徴データ記憶部36に格納されている特徴データを、調整画像に関連付けて表示画面内に配置しても良い。
The
画像処理装置1によれば、撮像された複数の骨シンチグラムにおいて、撮影条件の違いの影響を低減することができる。また、複数の骨シンチグラムを時系列に従って表示装置5に表示させることにより、読影者は複数の骨シンチグラムの経時変化を判断することが容易になる。
According to the
以下、修正部20の詳細について説明する。
Hereinafter, the details of the
図3は、修正部20の動作を示すフローチャートである。前述のS20において、修正部20はこのフローを実行する。
FIG. 3 is a flowchart showing the operation of the
修正部20は、撮像画像記憶部15から撮像画像セットを読み出し、読み出された撮像画像セットが予め定められた規格を満たすか否かを判定する(S2020)。
The
例えば、修正部20は、撮像画像セット内の全ピクセルのカウント値から評価値を計算し、その評価値が規格範囲内であれば、撮像画像セットが予め定められた規格を満たすと判定する。評価値は例えば、前画像及び後画像の全ピクセルのカウント値の合計に基づいて計算される。より好適な評価値は、(前画像の全ピクセルのカウント値の合計+後画像の全ピクセルのカウント値の合計)/2で表される。規格範囲は例えば、標準撮像条件下で撮像された複数の撮像画像セットを格納する撮像画像データベースに基づいて決定される。即ち、修正部20は、撮像画像セットの評価値が規格範囲内であれば、その撮像画像セットが標準撮像条件下で撮像されたものであると判定する。規格範囲の下限は例えば、撮像画像データベース内の各撮像画像セットから計算された評価値の最小値より小さく、規格範囲の上限は例えば、撮像画像データベース各撮像画像セットから計算された評価値の最大値より大きい。実際の撮像画像データベースに基づいて決定された規格範囲において、下限は例えば1,200,000であり、上限は例えば、2,200,000である。
For example, the
撮像画像セットが規格を満たす場合(S2020:Yes)、修正部20は、撮影画像セットを修正せずに修正画像セットとして修正画像記憶部25へ保存し(S2030)、このフローを終了する。
If the captured image set satisfies the standard (S2020: Yes), the
撮像画像セットが規格を満たさない場合(S2020:No)、修正部20は、評価値に基づいてスケーリングファクタを計算し、撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより修正画像セットを生成して修正画像記憶部25へ保存し(S2040)、このフローを終了する。スケーリングファクタは例えば、(基準評価値/評価値)で表される。規格を満たさないと判定された撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより、その結果である修正画像セットの評価値は基準評価値になる。基準評価値は、規格範囲内の値である。実際の撮像画像データベースに基づいて決定された基準評価値は例えば、1,800,000である。
If the captured image set does not satisfy the standard (S2020: No), the
修正部20は、修正画像に対応する撮像条件データを撮像画像記憶部15から読み出し、修正画像に関連付けて修正画像記憶部25へ保存する。
The
修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の統計量に基づいて規格範囲及び基準評価値を決定しても良い。例えば、修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の平均値及び標準偏差を用い、(平均値−標準偏差)を規格範囲の下限とし、(平均値+標準偏差)を規格範囲の上限とし、(平均値)を基準評価値としても良い。
The
以上が修正部20の動作である。
The above is the operation of the
以上に説明したように、修正部20は、カウント値が規格外であると判定された撮像画像セットを、規格を満たすように修正することができる。言い換えれば、標準撮像条件下で撮影されていない撮像画像セットのカウント値を、標準撮像条件下で撮影された撮像画像セットのカウント値の範囲内に修正することができる。これにより、その後の処理の精度を向上させることができる。
As described above, the
以下、正規化部30について説明する。
The
正規化部30は、修正画像記憶部25から修正画像セットを読み出す。以下の説明において、修正画像を骨シンチグラムや患者画像と呼ぶことがある。
The
図4は、正規化部30の構成を示すブロック図である。正規化部30は、入力画像メモリ105と、形状識別部110と、注釈付画像メモリ115と、ホットスポット検出部120と、第1ホットスポットメモリ125と、ホットスポット特徴抽出部130と、第2ホットスポットメモリ135と、第1判定部140と、第3ホットスポットメモリ145と、患者特徴抽出部150と、患者特徴メモリ155と、第2判定部160とを有する。
FIG. 4 is a block diagram showing the configuration of the
入力画像メモリ105は、骨シンチグラムセットを格納する。一回の診断により得られる骨シンチグラムセットは、患者の正面から撮像した前面像と、患者の背面から撮像した後面像とを有する。
The
形状識別部110は、入力画像メモリ105に接続されており、骨シンチグラムセットに含まれる骨格の解剖学的構造を識別する。形状識別部110は、予め定義された骨格モデルを有する。骨格モデルは少なくとも一つの解剖学的部位(セグメント)を有する。各部位は、一般的な骨格の解剖学的部分を表す。骨格モデルは、骨シンチグラムセットの骨格に合うように調整される。
The
注釈付画像メモリ115は、形状識別部110に接続されており、注釈付画像セットを格納する。注釈付画像セットは、形状識別部110からの、骨シンチグラムセットの異なる複数の骨格部位に対応する複数の解剖学的構造に関する情報に基づく。
The annotated
ホットスポット検出部120は、注釈付画像メモリ115に接続されており、注釈付画像セットの高強度領域を検出する。ホットスポット検出部120の一つの形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する閾値走査部を有する。好適なホットスポット検出部120は、形状識別部110により定義された異なる複数の解剖学的部位に対する異なる複数の閾値を有する。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状と位置を決定する。
The
ホットスポット検出部120の別の形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する画像正規化フィルタリング部を有しても良い。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状、テクスチャ、幾何学的形状を決定する。好適なホットスポット特徴のセット内の各特徴の詳細は、第1判定部140の入力の具体例として後述される。
Another form of
検出された高強度領域、所謂「ホットスポット」に関して、以上のように生成される情報は、第1ホットスポットメモリ125に格納される。
Information generated as described above regarding the detected high intensity area, so-called "hot spot" is stored in the first
ホットスポット特徴抽出部130は、第1ホットスポットメモリ125に接続されており、ホットスポット検出部120により検出された各ホットスポットのホットスポット特徴のセットを抽出する。抽出されたホットスポット特徴のデータは、第2ホットスポットメモリ135に格納される。
The hot spot
第1判定部140は、被験者が所定の状態であるか否かを判定する。例えば、第1判定部140は、第2ホットスポットメモリ135に接続されており、ホットスポットセットの各ホットスポットが癌転移(以下、単に転移という場合がある)であるか否かを判定する(ホットスポットの転移判定)。第1判定部140は、ホットスポット特徴抽出部130により生成されたホットスポットセットの各ホットスポットの特徴が供給される。ホットスポットの転移判定は、ホットスポット特徴抽出部130により抽出されたホットスポット特徴セットデータに基づく。この判定の結果は、第3ホットスポットメモリ145に格納される。
The
ここで、ホットスポットの転移判定の結果は、ホットスポットが転移であるか否かを示す確率(0〜1)であってもよいし、2値化された値、すなわち「yes、ホットスポットが転移である」に対応する値(例えば「1」)、または「no、ホットスポットが転移でない」に対応する値(例えば「0」)であってもよい。第1判定部140が出力する判定結果は、医師が診断をするための診断支援情報として表示装置5に出力されてもよい。
Here, the result of the hot spot transition determination may be a probability (0 to 1) indicating whether the hot spot is a transition or not, or a binarized value, that is, “yes, the hot spot is It may be a value (eg, “1”) corresponding to “is a transition” or a value (eg, “0”) corresponding to “no, a hotspot is not a transition”. The determination result output by the
第1判定部140は、例えば、機械学習アルゴリズムを用いて実現されてもよい。機械学習アルゴリズムとしては、例えば、人工ニューラルネットワーク(Artificial Neural Network,ANN)、サポートベクターマシン(Support Vector Machine,SVM)、線形判別分析(Linear Discriminant Analysis,LDA)などを用いることができる。また、機械学習アルゴリズムは、教師あり学習、教師なし学習及び半教師あり学習など、どのような学習方法のアルゴリズムであってもよい。第1判定部140は、各機械学習アルゴリズムをそれぞれの方法で学習させた学習済みアルゴリズムを含む構成で実現されてもよい。例えば、第1判定部140は、学習済みアルゴリズムで実現されている単一または複数の判別機を含んでもよい。
The
第1判定部140は、解剖学的部位ごとに部位別判定部1400を有していてもよい。或る部位内の各ホットスポットは、その部位のホットスポットを処理するように構成された部位別判定部1400により順次処理される。
The
図5は、第1判定部140に含まれる部位別の部位別判定部1400の構成の一例を示すブロック図である。部位別判定部1400は、2以上の判別機C(C1〜C3)と一つの判断機Dを有してもよい。なお、図5の例では、部位別判定部1400は判別機Cを3つ有しているが、2つまたは4つ以上有していてもよい。
FIG. 5 is a block diagram showing an example of the configuration of the part-by-
各判別機Cは、被験者が所定の状態であるか否かの確率を出力するようにしてもよいし、被験者が所定の状態であるか否かを出力するようにしてもよい。例えば、各判別機Cは、それぞれが所定の入力に基づいてホットスポットが転移であるか否かを判定してもよい。各判別機Cは、それぞれが算出したホットスポットが転移であるか否かの確率(判別結果)を判断機Dへ出力してもよい。各判別機Cは、その確率に応じてホットスポットが転移であるか否かの判定結果を出力してもよい。 Each discriminator C may output the probability of whether the subject is in the predetermined state or may output whether the subject is in the predetermined state. For example, each classifier C may determine whether the hotspot is a transition based on a predetermined input. Each classifier C may output the probability (discrimination result) as to whether or not the hotspot calculated by each is a transition to the judgment device D. Each classifier C may output the determination result as to whether or not the hot spot is a transition according to the probability.
判断機Dは、各判別機Cの判別結果に応じて、被験者が所定の状態であるか否かの診断を支援する情報を出力する。本実施形態では、判断機Dは、ホットスポットが転移であるか否かを判定する。判断機Dの判定結果が第1判定部140の判定結果として出力される。複数の判別機Cの判別結果に基づいて判断機Dが判定を行うことで、個別の判別機Cの特性に依存しない判定を行うことができ、診断支援の精度が向上する。同様に、複数の判別機Cの出力に基づいて判断機Dの出力が定まることから、個別の判別機Cの特性に依存せず、安定した出力が得られる。
In accordance with the determination result of each of the classifiers C, the determinator D outputs information for assisting in the diagnosis of whether the subject is in a predetermined state. In the present embodiment, the judging device D judges whether the hot spot is a transition. The determination result of the determination device D is output as the determination result of the
ここで、各判別機Cが学習済みアルゴリズムで構成されていてもよい。判別機C1、C2、C3は、共通の学習アルゴリズムを異なるデータセットで学習させた学習済みアルゴリズムでよい。データセットは、例えば、以下のような第1〜第3のデータセットでもよい。すなわち、第1のデータセットは正常(ホットスポットは転移でない)と診断された被験者データを多く含むデータセット、第2のデータセットは異常(ホットスポットは転移である)と診断された被験者データを多く含むデータセット、第3のデータセットは正常と診断された被験者データと異常と診断された被験者データとがほぼ同数のデータセットでもよい。例えば、判別機C1が第1のアルゴリズムを第1のデータセットで学習させた学習済みアルゴリズム、判別機C2が第1のアルゴリズムを第2のデータセットで学習させた学習済みアルゴリズム、判別機C3が第1のアルゴリズムを第3のデータセットで学習させた学習済みアルゴリズムであってもよい。これにより、3つの判別機C1〜3は異なる特性を有するようになる。 Here, each classifier C may be configured by a learned algorithm. The classifiers C1, C2, C3 may be learned algorithms obtained by learning common learning algorithms with different data sets. The data set may be, for example, first to third data sets as follows. That is, the first data set is a data set including many subject data diagnosed as normal (hot spot is not a metastasis), and the second data set is subject data diagnosed as abnormal (a hot spot is a metastasis). The data set including a large number, and the third data set may be approximately the same number of data sets as the subject data diagnosed as normal and the subject data diagnosed as abnormal. For example, a learned algorithm in which the discriminator C1 learned the first algorithm with the first data set, a learned algorithm in which the discriminator C2 learned the first algorithm with the second data set, the discriminator C3 It may be a learned algorithm in which the first algorithm is trained on the third data set. As a result, the three classifiers C1 to C3 have different characteristics.
あるいは、判別機C1、C2、C3のいずれか一つが他の二つと異なる学習アルゴリズムでもよいし、判別機C1、C2、C3のすべてが異なる学習アルゴリズムでもよい。学習アルゴリズムが異なる場合、学習に用いるデータセットは共通であってもよい。例えば、判別機C1が第1のアルゴリズムをいずれか一つのデータセット(例えば第1のデータセット)で学習させた学習済みアルゴリズム、判別機C2が第1のアルゴリズムと異なる第2のアルゴリズムを共通のデータセットで学習させた学習済みアルゴリズム、判別機C3が第1及び第2のアルゴリズムと異なる第3のアルゴリズムをさらに共通のデータセットで学習させた学習済みアルゴリズムであってもよい。この場合も、3つの判別機C1〜3は異なる特性を有するようになる。 Alternatively, any one of the classifiers C1, C2, and C3 may be a learning algorithm different from the other two, or all of the classifiers C1, C2, and C3 may be different learning algorithms. If the learning algorithm is different, the data set used for learning may be common. For example, a learned algorithm in which the discriminator C1 learns the first algorithm with any one data set (for example, the first data set), and a discriminator C2 shares a second algorithm different from the first algorithm. It may be a learned algorithm learned in the data set, or a learned algorithm in which the discriminator C3 further learns the third algorithm different from the first and second algorithms in the common data set. Also in this case, the three classifiers C1 to C3 have different characteristics.
判断機Dは、以下のようにして、ホットスポットが転移であるか否かを判定してもよい。例えば、各判別機Cの出力値が0〜1であれば、それらに基づく統計値(例えば平均値、中央値等)を算出し、それを判断機Dの出力値としてもよい。あるいは、判断機Dが算出したその統計値をさらに所定の閾値で転移でないことを示す「0」または転移であることを示す「1」に2値化して、判断機Dの出力値としてもよい。これらの処理を行う際に、各判別機Cの出力に所定の重み付けをしてから行ってもよい。 The judging device D may judge whether or not the hot spot is a transition as follows. For example, when the output value of each discriminator C is 0 to 1, statistical values (for example, average value, median value, etc.) based on them may be calculated and used as the output value of the judgment device D. Alternatively, the statistical value calculated by the judgment device D may be further binarized into “0” indicating that it is not a transition at a predetermined threshold value or “1” indicating that it is a transition, and used as the output value of the judgment device D. . When performing these processes, the outputs of the respective classifiers C may be subjected to predetermined weighting.
また、判断機Dは、各判別機Cの出力値である0〜1を所定の閾値で転移でないことを示す「0」または転移であることを示す「1」に2値化した後、「0」と「1」の数に応じて判断機Dの出力を「0」または「1」に定めてもよい。このとき各判別機Cの出力値を2値化する閾値はすべて同じでもよいし、異なっていてもよい。
In addition, the judging
さらに、判断機Dは3つ以上の階級に離散化して、その一つの階級を出力値としてもよい。例えば、判断機Dが0〜1の値を所定の閾値で四つの階級に分ける場合、「確実に正常」、「おそらく正常」、「おそらく転移」、及び「確実に転移」にそれぞれ対応する値(例えば、0,1,2,3)を出力値としてもよい。 Furthermore, the judgment machine D may be discretized into three or more classes, and one class may be used as an output value. For example, when the judgment machine D divides the value of 0 to 4 into four classes at a predetermined threshold, values corresponding to "reliably normal", "probably normal", "probably metastasized", and "reliably metastasized" The output value may be (for example, 0, 1, 2, 3).
第1判定部140は、単一の判別機Cで構成されていてもよい。この場合、判断機Dは不要であり、単一の判別機Cが出力するホットスポットである確率をそのまま第1判定部140の出力としてもよい。判別機Cの出力が0〜1の数値であるとき、第1判定部140は、上述の判断機Dと同様の処理で出力値を2値化したり、3つ以上の階級に離散化したりしてもよい。
The
また、後述するように、読影者等から再判定要求を受けたときは、第1判定部140は、第2ホットスポットメモリ135のホットスポット特徴セットデータに加えて、検査データ記憶部17の検査データも入力として受け付けて、再判定を行うようにしてもよい。例えば、部位別判定部1400の判定機Cは、再判定の場合には、ホットスポット特徴セットデータと併せて検査データの入力を受け付けて、ホットスポットが転移であるか否かの再判定を行うようにしてもよい。このとき、判断機Dは、通常の場合と同様にしてホットスポットが転移であるか否の判定を行うようにしてもよい。あるいは、部位別判定部1400は検査データ専用の判別機Cを備えていてもよい。判断機Dは、通常の判定で用いる判別機Cに加えて、検査データ専用の判別機Cの出力に基づいて、ホットスポットが転移であるか否の判定を行うようにしてもよい。
Further, as described later, when a re-determination request is received from the image reader or the like, the
患者特徴抽出部150は、第2ホットスポットメモリ135及び第3ホットスポットメモリ145に接続されており、ホットスポット検出部120により検出されて第2ホットスポットメモリ135に格納されているホットスポットの数と、第3ホットスポットメモリ145に格納されている第1判定部140からのホットスポットの転移判定の結果の出力値とに基づいて、患者特徴セットを抽出する。患者特徴抽出部150は、ホットスポット特徴抽出部130からのデータと第1判定部140の出力のデータの両方を用いて計算を実行する。抽出された患者特徴のデータは、患者特徴メモリ155に格納される。好適な、抽出された特徴は、第2判定部160の入力の具体例として後述される。
The patient
第2判定部160は、被験者が所定の状態であるか否かを判定する。例えば、第2判定部160は、患者特徴メモリ155に接続されており、患者特徴抽出部150により抽出されて患者特徴メモリ155に格納されている患者特徴セットデータに基づいて、患者が少なくとも一つの癌転移を持っているか否かを判定する(患者の転移判定)。
The
第2判定部160は、第1判定部140と同じ構成であってもよいし、第1判定部140の一部であってもよい。
The
以下、正規化部30による骨シンチグラム分割方法(セグメンテーション)について説明する。
Hereinafter, the bone scintigram division method (segmentation) by the
図6は、正規化部30による骨シンチグラム分割方法を示すフローチャートである。前述のS30において、正規化部30はこのフローを実行する。
FIG. 6 is a flowchart showing the bone scintigram division method by the
骨シンチグラム分割方法は例えば、ASM(active shape model:アクティブ形状モデル)アプローチを用いて、腕(上肢)と脚(下肢)の下部(末端)を除く骨格の前面像と後面像の全体の輪郭抽出の実行を含む。腕と足の下部が転移に対して非常に稀な場所であり、それらは時々骨走査ルーチンで取得されていないので、骨格のこれらの部分を省くことは、問題にならない。説明のため、ASMは、画像内のオブジェクトを見つけるための統計的方法として定義されている。その方法は、学習画像セットに基づく統計モデルに基づいている。各学習画像において、オブジェクトの形状は、準備又は学習の段階中に人間のオペレータにより手動で決定される目標点により定義される。その後、オブジェクトに関する一般的形状を記述するために用いられる点分布モデルが、計算される。一般的形状は、本実施形態の場合と同様、例えば骨格のようなオブジェクトタイプの新規の例に対する他の画像を検索するために用いることができる。人間の骨格の解剖学的構造を記述するASMの学習のための方法が提供される。そのモデルは、以下の説明するステップを含む。 The bone scintigram segmentation method uses, for example, an active shape model (ASM) approach, and outlines the entire front and back surface images of the skeleton excluding the lower portions (ends) of the arms (upper limbs) and legs (lower legs) Includes the execution of the extraction. Omitting these parts of the skeleton is not a problem because the arms and lower legs are very rare places for metastasis and they are sometimes not obtained in bone scan routines. For purposes of explanation, ASM is defined as a statistical method for finding objects in an image. The method is based on a statistical model based on a set of training images. In each learning image, the shape of the object is defined by target points that are manually determined by human operators during the preparation or learning phase. Thereafter, a point distribution model used to describe the general shape of the object is calculated. The general shape can be used, as in the present embodiment, to search other images for new instances of object types, such as, for example, skeletons. A method is provided for learning ASM that describes the anatomical structure of the human skeleton. The model includes the steps described below.
最初のステップは例えば、骨格を8個の異なる学習セットに分割する(S205)。学習セットは、一貫したセグメンテーションを実現するために特に適している解剖学的部位に対応するように選択される。8個の異なる学習セットは以下に示される。
1)頭と脊椎の前面像に関する第1学習セット。
2)肋骨の前面像に関する第2学習セット。
3)腕の前面像に関する第3学習セット。
4)下半身の前面像に関する第4学習セット。
5)頭と脊椎の後面像に関する第5学習セット。
6)肋骨の後面像に関する第6学習セット。
7)腕の後面像に関する第7学習セット。
8)下半身の後面像に関する第8学習セット。
The first step, for example, divides the skeleton into eight different training sets (S205). The training set is selected to correspond to an anatomical site that is particularly suitable for achieving consistent segmentation. Eight different learning sets are shown below.
1) The first learning set on the front view of the head and spine.
2) The second learning set on the front view of the ribs.
3) The third learning set on the front view of the arm.
4) The 4th learning set on the front image of the lower body.
5) The fifth learning set on the posterior view of the head and spine.
6) The sixth learning set on the posterior view of the ribs.
7) The seventh learning set on the back view of the arm.
8) The eighth learning set on the lower back image of the lower body.
各学習セットは、多くの事例画像を提供する(S210)。各画像は、目標点のセットを用いて作成される。各目標点は、画像の特別な解剖学的または生物学的な点を表す座標ペアに関連付けられている。座標ペアは、対応する解剖学的/生物学的点を手動で特定することにより決定される(S215)。前面像では、以下の簡単に識別可能な解剖学的目標点が使用される。 Each learning set provides a number of case images (S210). Each image is created using a set of target points. Each target point is associated with a coordinate pair that represents a particular anatomical or biological point of the image. Coordinate pairs are determined by manually identifying corresponding anatomical / biological points (S215). In the frontal view, the following easily identifiable anatomical target points are used:
学習セットの統計量を取り込む前に、目標点の各セットは、8個の学習セットの夫々に対して異なる共通座標系に整列される。これは、非特許文献1に説明されているように、学習形状が互いにできるだけ近づくようにする、学習形状のスケーリング、回転、及び解釈により実現される。学習セットの統計量の検査により、学習セット内で観察される形状変化を含む2次元統計的ポイント分布モデルが得られる(S220)。この複数の骨格に亘る目標点(形状)の変化の統計的モデリングは、非特許文献1及び非特許文献2に説明されているように実行される。
Before capturing the training set statistics, each set of goal points is aligned to a different common coordinate system for each of the eight training sets. This is achieved by scaling, rotation, and interpretation of the learning shapes, as described in [1], to make the learning shapes as close together as possible. By examining the statistics of the learning set, a two-dimensional statistical point distribution model including shape changes observed in the learning set is obtained (S220). Statistical modeling of the change of the target point (shape) across the plurality of skeletons is performed as described in
形状変化の結果として得られる統計モデルは、骨格を分割するために患者画像に適用されることができる。平均形状から始め、形状モデルの可能な変化の範囲内の新たな形状は、生成された骨格が患者画像内に存在する構造に似るように、学習セットの形状に似て生成されることができる。この方法を用いて分割される前面体セグメントは例えば、頭蓋骨、顔首、脊椎、上部胸骨、下部胸骨、右腕、左腕、右肋骨、左肋骨、右肩、左肩、骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。後面体セグメントは例えば、頭蓋骨、首、上部脊椎、下部脊椎、背骨、右腕、左腕、右肋骨、左肋骨、右肩甲骨、左肩甲骨、股関節、下部骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。 A statistical model obtained as a result of the shape change can be applied to the patient image to segment the skeleton. Starting from the mean shape, a new shape within the range of possible changes of the shape model can be generated to resemble the shape of the learning set, so that the generated skeleton resembles the structure present in the patient image . The front body segment divided using this method is, for example, skull, face neck, spine, upper sternum, lower sternum, right arm, left arm, right rib, left rib, right shoulder, left shoulder, pelvis, bladder, right femur, And the left femur. The back surface segment includes, for example, skull, neck, upper spine, lower spine, spine, right arm, left arm, right rib, left rib, right scapula, left scapula, hip, lower pelvis, bladder, right femur, and left femur It may be
検索プロセスの最初のステップは、前面像の平均形状に対する開始位置を見つけることであっても良い。例えば、頭の最高点が選択されても良い。なぜなら、それは、テストにおいて、ロバストな開始位置であることが証明され、画像上部内で各水平行内の特定閾値より大きい強度を検査することにより簡単に見つけられるためである。 The first step of the search process may be to find a starting position for the average shape of the frontal view. For example, the highest point of the head may be selected. Because it is proved to be a robust starting position in the test, it can be easily found by examining the intensity in the upper part of the image which is greater than a certain threshold in each horizontal row.
次に、患者画像内の骨格に合う骨格形状モデルの事例の検索は、非特許文献1及び非特許文献2に記述されたアルゴリズムに従って実行される。
Next, the search for the case of the skeletal shape model fitting the skeleton in the patient image is performed according to the algorithm described in
以上の動作により、正規化部30は、骨シンチグラムセットから識別された骨格部位の領域、検出されたホットスポットの領域、ホットスポットの転移判定結果、患者の転移判定結果等を含む特徴データを、特徴データ記憶部36へ保存する。ここで、ホットスポットの転移判定結果を第1判定部140の判断機Dが算出する根拠となった各判別機Cの出力値も、ホットスポットの転移判定結果と関連づけて、特徴データ記憶部36に保存されるようにしてもよい。同様に、患者の転移判定結果を第2判定部160の判断機Dが算出する根拠となった各判別機Cの出力値も、患者の転移判定結果と関連づけて、特徴データ記憶部36に保存されるようにしてもよい。
By the above-described operation, the
以下、正規化部30による別の骨シンチグラム分割方法について説明する。
Hereinafter, another bone scintigram dividing method by the
別の骨シンチグラム分割方法が提供される。別の骨シンチグラム分割方法の目標は、前述の骨シンチグラム分割方法と同様、骨シンチグラム300内の骨格の異なる複数の解剖学的部位を認識して輪郭抽出することである。図7は、骨シンチグラムと骨格部位の一例を示す図である。この図に示されているように、骨格部位は、患者画像310に輪郭320を重ねることにより定義される。ここで述べた分割方法は、登録により表される分割である。
Another bone scintigram segmentation method is provided. The goal of another bone scintigram segmentation method is to recognize and delineate different anatomical parts of the skeleton in the
画像登録方法は、或る画像を別の画像の座標系に変換する。これらの画像が、同一のオブジェクトクラス、ここでは骨格、の実体を表すと仮定する。変換された画像はソース画像で表され、一方で変換されない画像はターゲット画像で表される。同一の画像座標が、ソース画像とターゲット画像に含まれているオブジェクトにおける同一の幾何学的/解剖学的位置に一致する場合、ソース画像とターゲット画像の座標系は、一致すると言える。登録による分割は、ソース画像に手動で定義された分割を用いることと、分割が定義されていない場合にソース画像をターゲット画像に登録することである。ソース画像の分割は、それによってターゲット画像に変換され、従ってターゲット画像の分割を生成する。 The image registration method transforms one image into the coordinate system of another image. Suppose that these images represent entities of the same object class, here skeleton. The transformed image is represented by the source image, while the non-transformed image is represented by the target image. If the same image coordinates coincide with the same geometric / anatomical position in the objects contained in the source and target images, the coordinate system of the source and target images can be said to coincide. Division by registration is to use division defined manually in the source image and to register the source image in the target image when division is not defined. The segmentation of the source image is thereby converted into the target image, thus producing a segmentation of the target image.
この形態におけるソース画像の分割は、基準健康患者の解剖学的構造を定義し、多角形のセットとして臨床検査の専門家により手動で描かれる。図8は、健康基準画像セットの一例である。健康基準画像セットは、「アトラス」と呼ばれる。ここで、健康基準画像セットは、健康基準画像400a及び健康基準画像400bを有する。健康基準画像400aは、患者の正面像或いは前面像を示し、一方で健康基準画像400bは、患者の背面像或いは後面像を示す。健康基準画像400a及び健康基準画像400b内のラベルを夫々参照すると、これらの領域は、(1,1)とラベリングされた前部及び後部の頭蓋骨401,402、(2,2)とラベリングされた前部及び後部の頸椎403、404、(3,3)とラベリングされた前部及び後部の胸椎405、406、(14)とラベリングされた前部胸骨407、(4,4)とラベリングされた前部及び後部の腰椎409、408、(11,5)とラベリングされた前部及び後部の仙骨411、410、(15,14)とラベリングされた前部及び後部の骨盤、(5,6,7,6)とラベリングされた前部及び後部の左右の肩甲骨、(17,16)とラベリングされた前部及び後部の左右の鎖骨、(7,8,9,8)とラベリングされた前部及び後部の左右の上腕骨、(9,10,11,10)とラベリングされた前部及び後部の左右の肋骨、及び(12,13,12,13)ラベリングされた前部及び後部の左右の大腿骨413、415、412、414を定義する。
The segmentation of the source image in this form defines the anatomy of the reference healthy patient and is manually drawn by the clinical exam specialist as a set of polygons. FIG. 8 is an example of a health reference image set. The health reference image set is called the "atlas". Here, the health reference image set includes a
健康基準画像セットは、正規化部30によりソース画像として常に用いられ、一方、検査される患者画像はターゲット画像として働く。その結果は、ターゲット画像の骨シンチグラム300に描かれているような骨格部位への分割である。下腕と下肢は、解析のために考慮されない。
The health reference image set is always used as a source image by the
ソース画像として用いられる健康基準画像セットは、典型的な画質と正常な外観及び解剖学的構造を有する健康患者の10個の現実の事例から構成される。事例画像のグループから計算された平均的な強度及び解剖学的構造を有する架空の正常な健康患者の前面像及び後面像を生成するアルゴリズムが用いられる。正規化部30は、非特許文献3で説明されているようなこのタスクを実行する。健康基準画像セットは、結果として得られる解剖学的構造が確かに正常健康外観を有するように見える場合の結果を示す。この解剖学的構造は、数人の患者の解剖学的構造の平均化の結果であり、横方向対称性が高いことを示す。
The health reference image set used as a source image consists of 10 real cases of a healthy patient with typical image quality and normal appearance and anatomy. An algorithm is used to generate front and back views of a fictitious normal healthy patient having an average intensity and anatomical structure calculated from a group of case images. The
以下、正規化部30による骨シンチグラムの正規化方法について説明する。
Hereinafter, the bone scintigram normalization method by the
前述のように、ホットスポット検出部120は、形状識別部110からの情報を用いる。ホットスポット検出部120の目的は二つである。その第1の目的は、前面及び後面の患者画像内のホットスポットを分けることである。ホットスポットは、高輝度の分離された画像部位であり、骨格内にある時に転移性疾患の指標であっても良い。その第2の目的は、画像の強度を、予め定義された基準レベルに調整することである。このような強度の調整は、画像の正規化を表す。ここでは、そのアルゴリズムを説明する。このアルゴリズムは、同時に、ホットスポットを分離し、正規化因子を推定する。また、このアルゴリズムは、前面像及び後面像で別々に実行される。以下、最初に適切な正規化の必要性が簡潔に説明され、続いてこのアルゴリズムが説明される。
As described above, the hot
複数の骨シンチグラムは、強度レベルにおいて、患者、研究、及びハードウェア構成により、大きく異なる。この差は増大傾向にあると推測され、ゼロの強度は全画像に対して共通の基準レベルであると推測される。従って、ソース画像をターゲット画像に関して正規化することは、ソース画像の強度をターゲット画像と等しいレベルにするスカラー因子を見つけることである。ここで、ソース画像内の骨格の健康部位の平均強度がターゲット画像内の対応する部位に等しい場合、二つの骨格画像の強度は等しいとして定義される。図9は、正規化部30による正規化方法を示すフローチャートである。このフローチャートに示されている正規化方法は、以下のステップを有する。
Multiple bone scintigrams vary widely at the intensity level depending on the patient, study, and hardware configuration. This difference is assumed to be on the rise, and an intensity of zero is assumed to be a common reference level for all images. Thus, normalizing the source image with respect to the target image is to find a scalar factor that makes the intensity of the source image equal to the target image. Here, the intensities of the two skeletal images are defined as equal if the average intensity of the skeletal healthy region in the source image is equal to the corresponding region in the target image. FIG. 9 is a flowchart showing a normalization method by the
1.骨格に対応する画像要素の同定(S510)。
2.画像に含まれるホットスポットの同定(S520)。
3.骨格要素からホットスポット要素を除去(S530)。
4.残りの(健康)要素の平均強度の計算(S540)。
5.適切な正規化因子の計算(S550)。
6.正規化因子を乗算することによるソース画像強度の調整(S560)。
1. Identification of an image element corresponding to a skeleton (S510).
2. Identification of hotspots included in the image (S520).
3. Remove hotspot elements from skeletal elements (S530).
4. Calculation of the average intensity of the remaining (health) factors (S540).
5. Calculation of appropriate normalization factor (S550).
6. Adjustment of source image intensity by multiplying normalization factor (S560).
S510は、前述のように、形状識別部110により得られる変換された解剖学的部位により提供される骨格に属する画像部位の情報を用いて実行される。多角形の部位は、骨格の夫々の部位に属する画像要素を定義するバイナリ画像マスクに変換される。
As described above, S510 is performed using the information of the image site belonging to the skeleton provided by the transformed anatomical site obtained by the
S520において、ホットスポットは、一つの画像フィルタリング演算と一つの閾値演算を用いて分割される。画像は、夫々の周囲に関する高強度の小さい部位を強調するDoG(difference-of-Gaussians)−BPF(band-pass filter)を用いてフィルタリングされる。フィルタリングされた画像は、その後、一定レベルで閾値判定され、その結果得られるバイナリ画像は、ホットスポット要素を定義する。 In S520, the hotspots are segmented using one image filtering operation and one threshold operation. Images are filtered using DoG (difference-of-Gaussians) -BPF (band-pass filter), which emphasizes small regions of high intensity with respect to their respective surroundings. The filtered image is then thresholded at a certain level, and the resulting binary image defines hotspot elements.
S530において、S510で計算された要素のうち、S520で計算されたホットスポット要素と一致する要素は、削除される。残りの要素は、健康骨格部位に対応すると推測される。 In S530, among the elements calculated in S510, elements corresponding to the hotspot element calculated in S520 are deleted. The remaining elements are presumed to correspond to healthy skeletal sites.
S540において、健康骨格要素の平均強度が計算される。この平均強度はAで表される。 At S540, the average strength of the health skeletal element is calculated. This average intensity is represented by A.
S550において、適切な正規化因子は、予め定義された基準強度レベルに関連して決定される。ここで、例えば、このレベルを1000に設定することができる。正規化因子Bは、(B=1000/A)のように計算される。 At S550, an appropriate normalization factor is determined in relation to a predefined reference intensity level. Here, for example, this level can be set to 1000. The normalization factor B is calculated as (B = 1000 / A).
S560において、ソース画像の強度は、Bを乗算することにより調整される。 At S560, the intensity of the source image is adjusted by multiplying B.
S520におけるホットスポット分割は、S550で計算された正規化因子により順次決定される画像の全体強度レベルに依存する。とは言え、S550で計算された正規化因子は、S520からのホットスポット分割に依存する。S520及びS550の結果が相互に依存しているので、S520からS560は例えば、S570において正規化因子におけるそれ以上の変化が発生しなくなるまで繰り返されても良い。広範に亘るテストでは、このプロセスが通常、3又は4回の繰り返しで収束することが示されている。 The hot spot segmentation in S520 depends on the overall intensity level of the image, which is sequentially determined by the normalization factor calculated in S550. Nevertheless, the normalization factor calculated in S550 depends on the hot spot split from S520. Because the results of S520 and S550 are interdependent, S520 to S560 may be repeated, for example, until no further change in the normalization factor occurs at S570. Extensive testing has shown that this process usually converges in three or four iterations.
図10は、正規化された骨シンチグラムセットの一例を示す図である。正規化画像600aは、正規化された骨シンチグラムセットの前面像を示し、正規化画像600bは、正規化された骨シンチグラムセットの後面像を示す。分割されたホットスポット620は、分割された画像610内に現れる濃いスポットとして正規化画像600a及び正規化画像600b内に示されている。従って、正規化部30は、癌転移を有するとしてこの患者を分類するだろう。
FIG. 10 is a diagram showing an example of a normalized bone scintigram set. The normalized image 600a shows a front view of the normalized bone scintigram set, and the normalized image 600b shows a back image of the normalized bone scintigram set. The
正規化部30は、前述の正規化方法による修正画像の正規化の結果を、正規化画像として正規化画像記憶部35へ保存する。
The
上記の説明における用語「点」は、画像内の少なくとも一つのピクセルを表すために使用されることがある。 The term "point" in the above description may be used to denote at least one pixel in an image.
以下、第1判定部140への入力の具体例について説明する。
Hereinafter, a specific example of the input to the
第1判定部140には、各ホットスポットの大きさ、形状、方向、局在性、及び強度分布を測定する以下の27の特徴が与えられる。
・骨格病変。2次元ホットスポット領域と、対応する骨格領域の2次元領域と、骨格全体に関する骨格部位により表される体積割合を表す係数とに基づいて、抽出されたホットスポット部位により占有される骨格体積の尺度。(ホットスポット領域/局所領域*係数)として計算される。
・相対面積。対応する骨格部位に対するホットスポット領域。画像解像度及びスキャナ視野に依存しない尺度。
・相対重心位置(2機能)。対応する骨格部位の境界ボックスに対する相対的重心位置。値は、0(上、左)から1(下、右)の範囲である。
・質量の相対中心(2機能)。重心の機能に似ているが、xとyの値を計算する場合にホットスポット部位の強度を考慮に入れる。
・相対高さ。対応する骨格部位の高さに対するホットスポットの高さ。
・相対幅。対応する骨格部位の幅に対するホットスポットの幅。
・最小強度。対応する正規化された画像上の全てのホットスポット要素から計算される最小強度。
・最大強度。対応する正規化された画像上の全てのホットスポット要素から計算される最大強度。
・強度の総和。対応する正規化された画像上の全てのホットスポット要素から計算される強度の総和。
・平均強度。対応する正規化された画像上の全てのホットスポット要素から計算される平均強度。
・強度の標準偏差。対応する正規化された画像上の全てのホットスポット要素から計算される強度の標準偏差。
・境界長。ピクセル単位で測定されるホットスポットの境界の長さ。
・堅実性。ホットスポット領域により表されるホットスポットの凸包領域の割合。
・偏心。0(円)から1(線)で表されるホットスポットの伸び。
・ホットスポットカウントの総数。骨格全体の全てのホットスポット内の強度の総和。
・部位におけるホットスポットカウントの数。現在のホットスポットに対応する骨格部位に含まれているホットスポットの強度の総和。
・総ホットスポット範囲。対応する画像内の骨格部位全体に対する、骨格部位全体内の全てのホットスポットの面積。
・部位におけるホットスポット範囲。骨格部位の面積に対する現在のホットスポットに対応する骨格部位内の全てのホットスポットの面積。
・ホットスポットの総数。骨格全体のホットスポットの数。
・部位におけるホットスポットの数。現在のホットスポットに対応する骨格部位内のホットスポットの数。
・ホットスポット局所性(2機能)。X座標は、形状識別部110のステップにおいて変換された基準解剖学的構造から計算される中間線に対して、0(最も内側)から1(最も遠位)の範囲に亘る。Y座標は、0(最も優れる)から1(最も劣る)の範囲に亘る。全ての尺度は、対応する骨格部位に相対的である。
・距離非対称性。現在のホットスポットの質量の相対的中心と、対側の骨格部位内のホットスポットの質量の鏡像相対的中心との間の最小ユークリッド距離。対応する対側骨格部位を自然に有している骨格領域に対してのみ計算される。
・範囲非対称性。現在のホットスポットと対側骨格部位内のホットスポットの範囲との間の範囲の最小差。
・強度非対称性。現在のホットスポットと対側骨格部位内のホットスポットの強度との間の強度の最小差。
The
-Skeletal lesions. A measure of the skeletal volume occupied by the extracted hot spot sites based on the two dimensional hot spot area, the corresponding two dimensional area of the skeletal area, and the coefficients representing the volume fraction represented by the skeletal site for the whole skeleton . Calculated as (Hot spot area / local area * coefficient).
Relative area. Hot spot area for the corresponding skeletal site. Scale independent of image resolution and scanner field of view.
-Relative center of gravity position (2 functions). Relative center of gravity relative to the bounding box of the corresponding skeletal site. Values range from 0 (top, left) to 1 (bottom, right).
• Relative center of mass (2 functions). Similar to the function of the center of gravity, but taking the intensity of the hotspot site into account when calculating the x and y values.
-Relative height. Hotspot height relative to the corresponding skeletal site height.
Relative width. The width of the hotspot relative to the width of the corresponding skeletal site.
・ Minimum strength. Minimum intensity calculated from all hotspot elements on the corresponding normalized image.
Maximum strength. Maximum intensity calculated from all hotspot elements on the corresponding normalized image.
Sum of intensities. Sum of intensities calculated from all hotspot elements on the corresponding normalized image.
Average strength. Average intensity calculated from all hotspot elements on the corresponding normalized image.
Standard deviation of intensity. Standard deviation of intensity calculated from all hotspot elements on the corresponding normalized image.
Boundary length. Hotspot boundary length measured in pixels.
・ Consistency. Percentage of the convex hull area of the hotspot represented by the hotspot area.
・ Eccentric. Hot spot elongation represented by 0 (circle) to 1 (line).
The total number of hotspot counts. Sum of intensities in all hotspots across the skeleton.
The number of hotspot counts at the site. Sum of intensities of hotspots contained in the skeletal site corresponding to the current hotspot.
Total hotspot range. The area of all hotspots within the entire skeletal site, relative to the entire skeletal site in the corresponding image.
Hot spot coverage at the site. The area of all hotspots in the scaffold site corresponding to the current hotspot relative to the area of the scaffold site.
The total number of hotspots. Number of hotspots across the skeleton.
The number of hotspots at the site. Number of hotspots in the skeletal site corresponding to the current hotspot.
Hot spot locality (two functions). The X coordinate ranges from 0 (innermost) to 1 (most distal) with respect to the midline calculated from the reference anatomical structure converted in the step of the
Distance asymmetry. Minimum Euclidean distance between the relative center of the current hotspot mass and the mirror image relative center of the hotspot mass in the contralateral skeletal site. It is calculated only for skeletal regions that naturally have corresponding contralateral skeletal sites.
Range asymmetry. The smallest difference in range between the current hotspot and the range of hotspots in the contralateral skeletal site.
Strength asymmetry. Minimum difference in intensity between the current hotspot and the intensity of the hotspot in the contralateral skeletal site.
また、第1判定部140には、さらに被験者の画像を用いた検査以外の検査から得られた検査データを与えることができる。
In addition, test data obtained from a test other than a test using an image of a subject can be given to the
以下、第2判定部160への入力の具体例について説明する。
Hereinafter, a specific example of the input to the
転移性疾患の有無に関係する患者レベルの診断を判定する第2判定部160は、以下に列挙された34の特徴を入力として用いる。第2判定部160により用いられる全ての機能は、第1判定部140により高い転移確率を有するとして分類されたホットスポットから計算される。
・総病変。骨格全体の骨格病変の総和。
・頭蓋骨病変。頭蓋骨部位内の骨格病変の総和。
・頸椎柱病変。頸椎部柱部位内の骨格病変の総和。
・胸部柱病変。胸部柱部位内の骨格病変の総和。
・腰椎柱病変。腰部列地域の骨格病変の総和。
・上肢病変。上肢部位の骨格病変の総和。
・下肢病変。下肢部位の骨格病変の総和。
・胸部病変。胸部部位の骨格病変の総和。
・骨盤病変。骨盤部位の骨格病変の総和。
・「高い」ホットスポットの総数。
・頭蓋骨部位内の「高い」ホットスポットの数。
・頸椎柱部位内の「高い」ホットスポットの数。
・胸部柱部位内の「高い」ホットスポットの数。
・腰部柱部位内の「高い」ホットスポットの数。
・上肢部位内の「高い」ホットスポットの数。
・下肢部位内の「高い」ホットスポットの数。
・胸部部位内の「高い」ホットスポットの数。
・骨盤部位内の「高い」ホットスポットの数。
・頭蓋骨部位における第1判定部140が算出した最大値。
・頸椎部位における第1判定部140が算出した最大値。
・胸椎部位における第1判定部140が算出した最大値。
・腰椎部位における第1判定部140が算出した最大値。
・仙骨部位における第1判定部140が算出した最大値。
・上腕骨部位における第1判定部140が算出した最大値。
・鎖骨部位における第1判定部140が算出した最大値。
・肩甲骨部位における第1判定部140が算出した最大値。
・大腿部位における第1判定部140が算出した最大値。
・胸骨部位における第1判定部140が算出した最大値。
・肋骨部位における第1判定部140が算出した最大値。
・肋骨部位における第1判定部140が算出した2番目に大きい値。
・肋骨部位における第1判定部140が算出した3番目に大きい値。
・骨盤部位における第1判定部140が算出した最大値。
・骨盤部位における第1判定部140が算出した2番目に大きい値。
・骨盤部位における第1判定部140が算出した3番目に大きい値。
The
Total lesions. Sum of skeletal lesions across the skeleton.
-Skull lesions. Sum of skeletal lesions within the skull region.
Cervical vertebral lesion. Sum of skeletal lesions within the cervical vertebral column area.
Chest lesion. Sum of skeletal lesions within the thoracic column site.
Lumbar vertebral lesion. Sum of skeletal lesions in the lumbar row area.
Upper extremity lesions. Sum of skeletal lesions at upper limb sites.
Lower extremity lesions. Sum of skeletal lesions at lower extremity.
Chest lesions. Sum of skeletal lesions at the chest site.
-Pelvic lesions. Sum of skeletal lesions at pelvic region.
The total number of "high" hotspots.
The number of "high" hotspots in the skull region.
The number of "high" hotspots within the cervical column.
The number of "high" hotspots in the chest column area.
The number of "high" hotspots in the lumbar post region.
The number of "high" hotspots in the upper limb site.
The number of "high" hotspots in the lower extremity area.
The number of "high" hotspots in the chest area.
The number of "high" hotspots in the pelvic area.
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The second largest value calculated by the
The third largest value calculated by the
The maximum value calculated by the
The second largest value calculated by the
The third largest value calculated by the
また、第2判定部160には、さらに被験者の画像を用いた検査以外の検査から得られた検査データを与えることができる。
Further, the
以上に説明したように、形状識別部110は、予め定義された骨格モデルを骨シンチグラムに合わせて変形させることにより、患者の体型に依らず、骨シンチグラム内の骨格部位を識別することができる。また、ホットスポット検出部120は、識別された骨格部位から予め定められた閾値より高いカウント値を有する領域であるホットスポットを検出することにより、異常集積を検出することができる。第1判定部140は、ホットスポット毎の癌転移の確率を計算するなどにより、ホットスポット毎に癌転移の判定をすることができる。第2判定部160は、患者の癌転移の確率を計算するなどにより、患者が癌転移を有するか否かを判定することができる。
As described above, the
以下の説明において、正規化されたカウント値を正規化カウント値と呼ぶ。図11は、正規化前の骨シンチグラムのカウント値の分布を示すヒストグラムである。正規化前の骨シンチグラム3010と骨シンチグラム3020とにおいて、健康骨格要素である正常骨領域(正常領域)のカウント値の分布は異なる。即ち、骨シンチグラム3010の正常骨領域の平均カウント値3011と、骨シンチグラム3020の正常骨領域の平均カウント値3021とは異なる。図12は、正規化後の骨シンチグラムの正規化カウント値の分布を示すヒストグラムである。骨シンチグラム3010が正規化された骨シンチグラム3030と、骨シンチグラム3020が正規化された骨シンチグラム3040とを示す。骨シンチグラム3030と骨シンチグラム3040において、正常骨領域の正規化カウント値の分布は重なる。また、正常骨領域の平均カウント値3011、3021は、正規化により、正規化カウント値における1000に変換される。
In the following description, the normalized count value is referred to as a normalized count value. FIG. 11 is a histogram showing the distribution of count values of bone scintigrams before normalization. In the
ホットスポット検出部120は、正規化画像に対応する撮像条件データを修正画像記憶部25から読み出し、正規化画像に関連付けて正規化画像記憶部35へ保存する。
The hot
ホットスポット検出部120は、骨格部位からホットスポットを除いた健康骨格要素を抽出し、骨シンチグラムを健康骨格要素の平均カウント値で正規化することにより、ホットスポットの影響を受けずに複数の骨シンチグラムの濃度を揃えることができる。
The hot
正規化部30は、予め設定された閾値を用いて、第1判定部140の出力であるホットスポットの転移確率を判定し、ホットスポットを高リスク部位と低リスク部位に分類し、分類結果を特徴データに含めてもよい。正規化部30は、全ての骨格部位の面積に対する高リスク部位の面積の割合であるBSI(bone scan index)を計算し、計算結果を特徴データに含めてもよい。また、正規化部30は、高リスク部位数を計算し、計算結果を特徴データに含めてもよい。
The
なお、正規化部30は、他の正規化方法を用いて正規化画像を生成しても良い。
In addition, the
以下、調整部40について説明する。
The
撮像画像内の患者の領域のサイズは、撮像する検出器(ガンマカメラ)および収集条件によって異なる。撮像画像内の各ピクセルにより表される領域の実サイズであるピクセルサイズは、(基準視野/マトリクスサイズ/拡大率)で表される。基準視野は、検出器の視野の正方形の一辺の長さである。マトリクスサイズは、撮像画像を構成するマトリクスのうち基準視野の一辺に対応するピクセル数である。骨シンチグラムにおける拡大率は通常1である。撮像条件データは、ピクセルサイズ、基準視野及びマトリクスサイズを含む。複数の骨シンチグラムの撮像において、検出器(ガンマカメラ)および収集条件の違いによる患者領域のサイズが互いに異なることにより、読影者は表示される複数の骨シンチグラムの間で部位の実サイズを比較することが困難になる。 The size of the area of the patient in the captured image depends on the detector (gamma camera) to be imaged and the acquisition conditions. The pixel size, which is the actual size of the area represented by each pixel in the captured image, is represented by (reference field of view / matrix size / magnification ratio). The reference field of view is the length of one side of the square of the field of view of the detector. The matrix size is the number of pixels corresponding to one side of the reference visual field in the matrix forming the captured image. The magnification in bone scintigrams is usually 1. The imaging condition data includes pixel size, reference field of view and matrix size. In imaging of multiple bone scintigrams, the size of the patient area due to differences in the detector (gamma camera) and collection conditions differs from each other, allowing the reader to see the actual size of the region among the displayed plurality of bone scintigrams. It becomes difficult to compare.
調整部40は、正規化画像記憶部35から正規化画像とそれに対応する撮像条件データとを読み出す。その後、調整部40は、正規化画像に対応する撮像条件データに基づいて、正規化画像が特定の基準視野になるように、例えばピクセルサイズの拡大又は縮小およびマトリクスサイズの変更を行うことにより、調整画像を生成し、調整画像を調整画像記憶部45へ保存する。これにより、調整画像の基準視野は一定になる。
The
調整部40は、調整画像に対応する撮像条件データを修正画像記憶部25から読み出し、調整画像に関連付けて調整画像記憶部45へ保存する。
The
特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最新の基準視野であっても良い。また、特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最も多い基準視野であっても良い。また、特定の基準視野は、予め設定された基準視野であっても良い。 The particular reference field of view may be the current reference field of view in the reference fields of view of the bone scintigrams. In addition, the specific reference visual field may be the most frequent reference visual field among the reference visual fields of a plurality of bone scintigrams. Also, the specific reference visual field may be a preset reference visual field.
調整部40によれば、複数の骨シンチグラムの基準視野が一定になることにより、読影者は表示される複数の骨シンチグラム内の領域の実サイズを比較することができる。
According to the
以下、変換部50について説明する。
Hereinafter, the
前述の正規化方法によれば、正規化カウント値を濃度として調整画像を表示することにより、正常骨領域のピクセルの濃度の範囲は揃えられる。但し、調整画像をそのまま表示しても、読影者による正常骨領域及びホットスポットの認識に適した濃度のスケールであるとは限らない。例えば、最大濃度に対応する正規化カウント値が高すぎると、正常骨領域のほとんどが白く表示され、読影者が表示された骨シンチグラム内の正常骨領域を認識できない場合がある。 According to the above-described normalization method, by displaying the adjusted image with the normalized count value as the density, the range of the density of the pixels of the normal bone area is aligned. However, even if the adjustment image is displayed as it is, it is not always the scale of the density suitable for the recognition of the normal bone area and the hot spot by the reader. For example, if the normalized count value corresponding to the maximum concentration is too high, most of the normal bone area may be displayed white and the reader may not be able to recognize the normal bone area in the displayed bone scintigram.
そこで、変換部50は、調整画像を表示する際、調整画像の正規化カウント値を適切なグレースケールの濃度に変換する。
Therefore, when displaying the adjusted image, the
変換部50は、特定の飽和基準値がグレースケールの最大濃度に変換されるように、スケールレンジを決定する。飽和基準値は、特定の最大基準値に所定のレンジ係数を乗算した値である。最大基準値は例えば、前述の撮像画像データベースにおける骨シンチグラムを前述の正規化方法により正規化して得られる正規化カウント値に基づいて決定される。最大基準値は例えば、撮像画像データベースにおける最大の正規化カウント値と同じか大きい。レンジ係数は、0より大きく1より小さい。より好適な飽和基準値は、1000より大きく、撮像画像データベースにおける最大の正規化カウント値より小さい。
The
図13は、スケールレンジを示す図である。この図において、横軸は調整画像のピクセルの正規化カウント値を示し、縦軸は調整画像のピクセルの濃度を示す。これにより、正規化カウント値がゼロであるピクセルの濃度は、ゼロの濃度で表示される。正規化カウント値が飽和基準値以上であるピクセルは、最大濃度で表示される。正規化カウント値がゼロより大きく飽和基準値より小さいピクセルは、その正規化カウント値に応じた階調、例えば直線階調またはログ階調等の曲線階調により表示される。 FIG. 13 is a diagram showing a scale range. In this figure, the horizontal axis shows the normalized count value of the pixels of the adjusted image, and the vertical axis shows the density of the pixels of the adjusted image. Thereby, the density of the pixel whose normalized count value is zero is displayed at the density of zero. Pixels with normalized count values above the saturation reference value are displayed at maximum density. Pixels whose normalized count value is larger than zero and smaller than the saturation reference value are displayed by gradations corresponding to the normalized count value, for example, curved gradations such as linear gradations or log gradations.
変換部50によれば、調整画像の正規化カウント値を適切なグレースケールの濃度に変換することにより、読影者は表示された骨シンチグラム内の正常骨領域及びホットスポットを容易に認識することができる。なお、変換部50は、読影者による入力装置4の操作に基づいて、レンジ係数又は飽和基準値を調整しても良い。
According to the
以下、生成部80について説明する。
Hereinafter, the
生成部80は、読影者による入力装置4の操作に基づいて、表示の対象となる患者と複数の検査日を特定する。調整画像記憶部45内の複数の調整画像から、特定された患者と検査日に対応する調整画像を選択する。生成部80は、表示装置5に表示するための表示画面を生成し、選択された調整画像を時系列に従って表示画面内に配置する。
The
図14は、第1の表示態様を示す画面である。第1の表示態様による表示画面は、前面像を配置するための領域である前面像領域8100と、後面像を配置するための後面像領域8200とを有する。この例では、3個の調整画像セットが選択されたとする。生成部80は、選択された複数の調整画像セット内の複数の前面像8511、8521、8531を、前面像領域8100内の水平方向に検査日時順に並べ、選択された調整画像セット内の複数の後面像8512、8522、8532を、後面像領域8200内の水平方向に検査日時順に並べる。即ち、より新しい前面像は、前面像領域8100内のより右へ配置され、即ち、より新しい後面像は、後面像領域8200内のより右へ配置される。この時、生成部80は、並べられた複数の前面像8511、8521、8531の水平方向の中心を前面像領域8100内の水平方向の中心8101に合わせ、並べられた複数の後面像8512、8522、8532の水平方向の中心を後面像領域8200内の水平方向の中心8201に合わせる。前面像領域8100と後面像領域8200は、左右に配置されても良いし、上下に配置されても良い。生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、ホットスポットの転移判定結果、患者の転移判定結果、BSI、高リスク部位数等を付しても良い。
FIG. 14 is a screen showing a first display mode. The display screen according to the first display mode has a
第1の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の夫々について、時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。 According to the first display mode, the reader can easily change the displayed bone scintigram over time by arranging the front image and the rear image in which the influence of the difference in the imaging conditions is reduced according to the time series. Can be grasped.
図15は、第2の表示態様を示す画面である。第2の表示態様による表示画面は、前面像と後面像のペアである調整画像セットを配置するための領域であるペア領域8300を有する。生成部80は、選択された調整画像セット8610、8620、8630を、領域8300内の水平方向に検査日時順に並べる。即ち、より新しい調整画像セットは、ペア領域8300内のより右へ配置される。この時、生成部80は、並べられた複数の調整画像セット8610、8620、8630の水平方向の中心をペア領域8300内の水平方向の中心8301に合わせる。ここで、調整画像セット8610は、前面像8511と後面像8512を有し、調整画像セット8620は、前面像8521と後面像8522を有し、調整画像セット8630は、前面像8531と後面像8532を有する。生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、ホットスポットの転移判定結果、患者の転移判定結果、BSI、高リスク部位数等を付しても良い。
FIG. 15 is a screen showing a second display mode. The display screen according to the second display mode has a
生成部80は、図14または図15の表示画面において、ホットスポットの転移判定及び患者の転移判定について、再判定要求を受け付けられるようにしてもよい。例えば、生成部80は、再判定要求の受付手段として、表示画面内に所定のボタンを表示させてもよい。例えば、読影者の入力装置4の操作に応じて、表示画面が再判定要求を受け付けると、正規化部30がホットスポットの転移判定及び/または患者の転移判定を改めて実行するようにしてもよい。
The
例えば、ホットスポットの転移確率または患者の転移確率が中間的な値(例えば0.4〜0.6の範囲)であるときは、転移であるか否かの診断を支援する情報として有効とは言えない。このような場合に、被験者についての新たな特徴量を追加データとして受け付けて、再判定を行うようにしてもよい。これは、第1判定部140及び第2判定部160が単一の判別機Cで構成されている場合、及び複数の判別機Cを含む場合のいずれでも共通である。好適には、新たな特徴量として検査データを用いてもよい。ホットスポットの転移判定及び/または患者の転移判定において、骨シンチグラム以外の検査データが転移判定の結果に大きく影響を及ぼすことがあるからである。
なお、再判定を行う場合、再判定前後のホットスポットの転移確率及び/または患者の転移確率を表示画面内に表示するようにしてもよい。再判定前後でホットスポットの転移確率または患者の転移確率が上昇したのか、または下降したのかは診断の支援において重要な情報となり得るからである。例えば、再判定後のホットスポットの転移確率または患者の転移確率が同じ0.5であったときでも、再判定前の転移確率から上昇して0.5となった場合と、下降して0.5となった場合とでは、意味が異なる。そのため、読影者が再判定後の転移確率のみを見て安易に判断してしまうことを避けることができる。
For example, when the transfer probability of the hotspot or the transfer probability of the patient is an intermediate value (for example, in the range of 0.4 to 0.6), it is effective as information supporting the diagnosis of whether or not it is a transfer. I can not say. In such a case, a new feature amount of the subject may be received as additional data to perform redetermination. This is common to both the case where the
In the case of performing redetermination, the transfer probability of the hotspot and / or the transfer probability of the patient before and after the redetermination may be displayed on the display screen. It is because whether the transfer probability of the hotspot or the transfer probability of the patient has increased or decreased before and after the redetermination can be important information for supporting the diagnosis. For example, even if the transfer probability of the hotspot after redetermination or the transfer probability of the patient is the same 0.5, the transfer probability before the redetermination increases to 0.5, and falls to 0 In the case of .5, the meaning is different. Therefore, it is possible to avoid that the reader is easily judged by seeing only the transfer probability after re-judgment.
一方、第1判定部140が複数の判別機Cを含む場合は、生成部80は、さらに、特徴データにおいて、ホットスポットの転移判定結果と関連づけられている個別の判別機Cの出力値も表示画面内に表示させてもよい。同様に、第2判定部160が複数の判別機Cを含む場合は、生成部80は、患者の転移判定結果と関連づけられている個別の判別機Cの出力値も表示画面内に表示させてもよい。
On the other hand, when the
このとき、個別の判別機Cの出力値はそれぞれの判定結果の信頼度を示すと考えられる。つまり、ホットスポットの転移確率または患者の転移確率が中間的な値ではなく、例えば0.2以下または0.8以上であったときでも、個別の判別機Cの出力値が異なれば、その確率の信頼度が異なることがある。例えば、患者の転移確率が同じ「0.8」であったときでも、3つの判別機Cの出力が、「1.0」、「0.7」、「0.4」である場合と、「0.8」、「0.8」、「0.8」である場合とでは、転移確率「0.8」の信頼度が異なると考えられる。そのため、読影者が転移確率と判別機Cの出力とを併せて見たときに必要と考えたときは、再判定要求の指示を受け付けられるようになっている。 At this time, the output value of the individual discriminator C is considered to indicate the reliability of each determination result. That is, even if the transfer probability of the hotspot or the transfer probability of the patient is not an intermediate value, for example, 0.2 or less or 0.8 or more, if the output value of the individual discriminator C is different, the probability May have different credibility. For example, even when the patient's metastasis probability is the same "0.8", the outputs of the three classifiers C are "1.0", "0.7" and "0.4", and The reliability of the transition probability "0.8" is considered to be different between "0.8", "0.8" and "0.8". Therefore, when the image reader considers it necessary when the transition probability and the output of the discriminator C are considered together, the instruction of the re-determination request can be accepted.
個別の判別機Cの出力値から算出した信頼度を表示してもよい。例えば、上記の例であれば、3つの判別機Cの出力値のバラツキによって、信頼度を定めてもよい。 The reliability calculated from the output value of the individual discriminator C may be displayed. For example, in the above example, the degree of reliability may be determined based on the variation of the output values of the three classifiers C.
さらに、生成部80は、第1判定部140及び第2判定部160を構成する判別機Cが単一であるか複数であるかにかかわらず、信頼度を別の方法で表示することもできる。第1判定部140の出力または第2判定部160の出力である、被験者が所定の状態であるか否かの確率は、その出力値がそのまま信頼度と関連する。特にホットスポットの転移確率または患者の転移確率が中間的な値であるときは信頼度が低いと考えられ、転移判定の結果とともに信頼度が低いことを示す表示をしてもよい。信頼度の表示は例えば、低信頼度、中信頼度、高信頼度のような複数の階級にわけ、その一つの階級を表示してもよい。階級は判別機Cまたは判断機Dの0〜1の出力値に応じて所定の閾値で任意にわけることができ、検査の目的などによってあらかじめ設定しておいてもよい。
Furthermore, the
また、生成部80は、被験者の第1判定部140への入力であるホットスポット特徴セットデータ及び第2判定部160への入力である患者特徴セットデータに基づいて、信頼度を表示することもできる。例えば、第1判定部140に入力するホットスポット特徴セットデータのうちの1つの特徴において、所定以上の精度の判定結果を出力する特徴の範囲はあらかじめ得ることができる。また、第2判定部160に入力する患者特徴セットデータのうちの1つの特徴において、所定以上の精度の判定結果を出力する特徴の範囲もあらかじめ得ることができる。つまり、入力する被験者の特徴があらかじめ定めた特徴の範囲内であれば、この特徴に基づいて算出される判定結果は所定以上の精度を有すると考えられ、これを信頼度として用いることができる。例えば、入力する被験者のホットスポット特徴セットデータまたは患者特徴セットデータにおける各特徴が、それぞれあらかじめ定めた特徴の範囲内であった数に応じて信頼度を表示してもよい。この例では、その数が多いほど信頼度が高く少ないほど信頼度が低い。また、例えば、入力する被験者のホットスポット特徴セットデータまたは患者特徴セットデータにおける各特徴のうち、特定の特徴があらかじめ定めた特徴の範囲内であるか否かに応じて信頼度を表示してもよい。この例では、特定の特徴があらかじめ定めた特徴の範囲内であれば信頼度は高く、あらかじめ定めた特徴の範囲内でなければ信頼度は低い。ここで、特定の特徴は判定結果へ及ぼす寄与の大きい変動要因であり、判定結果において特定の特徴があらかじめ定めた特徴の範囲内であるか否かが強く関連している。
In addition, the
第2の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の複数のペアを時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。 According to the second display mode, by arranging a plurality of pairs of front and back images in which the influence of the difference in the imaging condition is reduced according to the time series, the radiogram reader carries out the temporal change of the displayed bone scintigram It can be easily grasped.
生成部80は、読影者による入力装置4の操作に応じて、第1及び第2の表示態様の何れかを選択しても良い。
The
生成部80は、特徴データに示されている骨格部位の輪郭を、調整画像に重ねても良い。また、生成部80は、調整画像内の低リスク部位及び高リスク部位に夫々異なる色を付けても良い。
The
生成部80は、表示画面内の各調整画像に転移可能性、BSI、高リスク部位数等の特徴データを付すことにより、読影者は、特徴データの経時変化を知ることができる。
The
画像処理装置1は、調整画像を解析する解析部を有していても良い。この場合、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定の骨格部位を比較しても良い。また、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定のホットスポットの時系列を関連付けても良い。解析部が撮影条件の違いによる影響が低減された複数の調整画像を解析することにより、複数の撮像画像を解析する場合に比べて、解析の精度を向上させることができる。
The
画像処理装置1は、前述の撮像画像データベースを有していても良い。また、画像処理装置1は、撮像画像記憶部10に格納されている撮像画像のうち、所定条件を満たす撮像画像を撮像画像データベースへ登録しても良い。
The
上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。例えば、上述の実施形態では骨シンチグラムを対象としているが、これ以外にもCT、MRI、SPECT、PET、X線(レントゲン)などの画像を対象としても良い。 The embodiments of the present invention described above are exemplifications for explanation of the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can practice the present invention in various other aspects without departing from the scope of the present invention. For example, although bone scintigrams are used in the above-described embodiment, other images such as CT, MRI, SPECT, PET, and X-rays (X-rays) may be used.
1 :画像処理装置
4 :入力装置
5 :表示装置
10 :画像処理装置本体
15 :撮像画像記憶部
17 :検査データ記憶部
20 :修正部
25 :修正画像記憶部
30 :正規化部
35 :正規化画像記憶部
36 :特徴データ記憶部
40 :調整部
45 :調整画像記憶部
50 :変換部
60 :表示制御部
70 :記憶部
80 :生成部
1: Image processing device 4: Input device 5: Display device 10: Image processing device main body 15: Captured image storage unit 17: Examination data storage unit 20: Correction unit 25: Correction image storage unit 30: Normalization unit 35: Normalization Image storage unit 36: Feature data storage unit 40: Adjustment unit 45: Adjustment image storage unit 50: Conversion unit 60: Display control unit 70: Storage unit 80: Generation unit
Claims (15)
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、コンピュータプログラム。 A computer program for a diagnosis support apparatus that receives subject data that is data about a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set, the second discriminator receiving an input of the subject data The second discriminator which outputs the discrimination result of 2;
And a judgment device that outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results indicate whether the subject is in a predetermined state,
The computer program , wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、コンピュータプログラム。 A computer program for a diagnosis support apparatus that receives subject data that is data about a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; The second discriminator, which receives the input of the subject data and outputs a second discrimination result.
And a judgment device that outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results indicate whether the subject is in a predetermined state,
The computer program , wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備え、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、診断支援装置。 A diagnostic support device that receives subject data, which is data about a subject, and supports the diagnosis of the subject, comprising:
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set, the second discriminator receiving an input of the subject data The second discriminator which outputs the discrimination result of 2;
And a determination device that outputs diagnosis support information, which is information for supporting the diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results indicate whether the subject is in a predetermined state,
The diagnosis support apparatus, wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備え、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、診断支援装置。 A diagnostic support device that receives subject data, which is data about a subject, and supports the diagnosis of the subject, comprising:
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; The second discriminator, which receives the input of the subject data and outputs a second discrimination result.
And a determination device that outputs diagnosis support information, which is information for supporting the diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results indicate whether the subject is in a predetermined state,
The diagnosis support apparatus, wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、方法。 A diagnostic support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the method being performed by
The diagnosis support apparatus
A first discriminator including a learned algorithm in which the first machine learning algorithm is trained on the first data set;
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set;
A determination device that makes a determination according to the output of the first determination device and the output of the second determination device,
The first discriminator receives an input of the subject data and outputs a first discrimination result.
The second discriminator receives an input of the subject data and outputs a second discrimination result.
The judgment machine outputs diagnosis support information which is information for supporting diagnosis of the subject according to the first judgment result and the second judgment result .
The first and second determination results indicate whether the subject is in a predetermined state,
The method according to the present invention, wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、方法。 A diagnostic support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the method being performed by
The diagnosis support apparatus
A first discriminator including a learned algorithm in which the first machine learning algorithm is trained on the first data set;
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; 2 classifiers,
A determination device that makes a determination according to the output of the first determination device and the output of the second determination device,
The first discriminator receives an input of the subject data and outputs a first discrimination result.
The second discriminator receives an input of the subject data and outputs a second discrimination result.
The judgment machine outputs diagnosis support information which is information for supporting diagnosis of the subject according to the first judgment result and the second judgment result .
The first and second determination results indicate whether the subject is in a predetermined state,
The method according to the present invention, wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、コンピュータプログラム。 A computer program for a diagnosis support apparatus that receives subject data that is data about a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set, the second discriminator receiving an input of the subject data The second discriminator which outputs the discrimination result of 2;
And a judgment device that outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The computer program , wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether the subject is in the predetermined state or whether the subject is in the predetermined state .
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、コンピュータプログラム。 A computer program for a diagnosis support apparatus that receives subject data that is data about a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; The second discriminator, which receives the input of the subject data and outputs a second discrimination result.
And a judgment device that outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The computer program , wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether the subject is in the predetermined state or whether the subject is in the predetermined state .
前記受付手段が再判定要求を受け付けたときは、前記被験者データ及び前記被験者の特徴を示す特徴データに基づいて、前記第1の判別機及び前記第2の判別機が新たな第1及び第2の判別結果を出力し、前記判断機が新たな診断支援情報を出力する、請求項1、2、7〜10のいずれか一項に記載のコンピュータプログラム。 Causing the diagnosis support apparatus to further realize reception means for receiving a re-determination request;
When the receiving means receives the re-determination request, the first discriminator and the second discriminator respectively add new first and second discriminators based on the subject data and the feature data indicating the features of the subject. The computer program according to any one of claims 1, 2, 7 to 10, which outputs the result of the discrimination and the judgment unit outputs new diagnosis support information.
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備え、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、診断支援装置。 A diagnostic support device that receives subject data, which is data about a subject, and supports the diagnosis of the subject, comprising:
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set, the second discriminator receiving an input of the subject data The second discriminator which outputs the discrimination result of 2;
And a determination device that outputs diagnosis support information, which is information for supporting the diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The diagnosis support device, wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether or not the subject is in the predetermined state or in the predetermined state .
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備え、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、診断支援装置。 A diagnostic support device that receives subject data, which is data about a subject, and supports the diagnosis of the subject, comprising:
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; The second discriminator, which receives the input of the subject data and outputs a second discrimination result.
And a determination device that outputs diagnosis support information, which is information for supporting the diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The diagnosis support device, wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether or not the subject is in the predetermined state or in the predetermined state .
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、方法。 A diagnostic support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the method being performed by
The diagnosis support apparatus
A first discriminator including a learned algorithm in which the first machine learning algorithm is trained on the first data set;
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set;
A determination device that makes a determination according to the output of the first determination device and the output of the second determination device,
The first discriminator receives an input of the subject data and outputs a first discrimination result.
The second discriminator receives an input of the subject data and outputs a second discrimination result.
The judgment machine outputs diagnosis support information which is information for supporting diagnosis of the subject according to the first judgment result and the second judgment result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The method according to the present invention, wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether the subject is in the predetermined state or in the predetermined state .
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、方法。 A diagnostic support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the method being performed by
The diagnosis support apparatus
A first discriminator including a learned algorithm in which the first machine learning algorithm is trained on the first data set;
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; 2 classifiers,
A determination device that makes a determination according to the output of the first determination device and the output of the second determination device,
The first discriminator receives an input of the subject data and outputs a first discrimination result.
The second discriminator receives an input of the subject data and outputs a second discrimination result.
The judgment machine outputs diagnosis support information which is information for supporting diagnosis of the subject according to the first judgment result and the second judgment result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The method according to the present invention, wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether the subject is in the predetermined state or in the predetermined state .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015189885A JP6545591B2 (en) | 2015-09-28 | 2015-09-28 | Diagnosis support apparatus, method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015189885A JP6545591B2 (en) | 2015-09-28 | 2015-09-28 | Diagnosis support apparatus, method and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017067489A JP2017067489A (en) | 2017-04-06 |
JP6545591B2 true JP6545591B2 (en) | 2019-07-17 |
Family
ID=58492227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015189885A Active JP6545591B2 (en) | 2015-09-28 | 2015-09-28 | Diagnosis support apparatus, method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6545591B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113035327A (en) | 2016-10-27 | 2021-06-25 | 普罗热尼奇制药公司 | Network, decision support system and related Graphical User Interface (GUI) application for medical image analysis |
JP6875709B2 (en) | 2017-06-09 | 2021-05-26 | 株式会社Aiメディカルサービス | A computer-readable recording medium that stores a disease diagnosis support method, a diagnosis support system, a diagnosis support program, and this diagnosis support program using endoscopic images of the digestive organs. |
CN111655116A (en) | 2017-10-30 | 2020-09-11 | 公益财团法人癌研究会 | Image diagnosis support device, data collection method, image diagnosis support method, and image diagnosis support program |
JP7170000B2 (en) | 2018-01-24 | 2022-11-11 | 富士フイルム株式会社 | LEARNING SYSTEMS, METHODS AND PROGRAMS |
JP7154012B2 (en) * | 2018-02-05 | 2022-10-17 | 日本メジフィジックス株式会社 | Image processing program, image processing apparatus, and image processing method |
WO2019245009A1 (en) | 2018-06-22 | 2019-12-26 | 株式会社Aiメディカルサービス | Method of assisting disease diagnosis based on endoscope image of digestive organ, diagnosis assistance system, diagnosis assistance program, and computer-readable recording medium having said diagnosis assistance program stored thereon |
JP7037220B2 (en) | 2018-11-21 | 2022-03-16 | 株式会社Aiメディカルサービス | A computer-readable recording medium that stores a disease diagnosis support system using endoscopic images of the digestive organs, a method of operating the diagnosis support system, a diagnosis support program, and this diagnosis support program. |
WO2020144134A1 (en) | 2019-01-07 | 2020-07-16 | Exini Diagnostics Ab | Systems and methods for platform agnostic whole body image segmentation |
CN113710159A (en) | 2019-04-24 | 2021-11-26 | 普罗热尼奇制药公司 | System and method for automated and interactive analysis of bone scan images to detect metastasis |
US11900597B2 (en) | 2019-09-27 | 2024-02-13 | Progenics Pharmaceuticals, Inc. | Systems and methods for artificial intelligence-based image analysis for cancer assessment |
US11721428B2 (en) * | 2020-07-06 | 2023-08-08 | Exini Diagnostics Ab | Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions |
-
2015
- 2015-09-28 JP JP2015189885A patent/JP6545591B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017067489A (en) | 2017-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6545591B2 (en) | Diagnosis support apparatus, method and computer program | |
JP6013042B2 (en) | Image processing program, recording medium, image processing apparatus, and image processing method | |
JP6170284B2 (en) | Image processing program, recording medium, image processing apparatus, and image processing method | |
US7599539B2 (en) | Anatomic orientation in medical images | |
USRE47609E1 (en) | System for detecting bone cancer metastases | |
US6625303B1 (en) | Method for automatically locating an image pattern in digital images using eigenvector analysis | |
Peng et al. | Automated vertebra detection and segmentation from the whole spine MR images | |
US8139837B2 (en) | Bone number determination apparatus and recording medium having stored therein program | |
US9241634B2 (en) | Analytic morphomics: high speed medical image automated analysis method | |
EP2639763A1 (en) | Method, Apparatus and System for Localizing a Spine | |
Huang et al. | A set of image processing algorithms for computer-aided diagnosis in nuclear medicine whole body bone scan images | |
JP2009207727A (en) | Vertebral body position determining device, method, and program | |
Šajn et al. | Computerized segmentation of whole-body bone scintigrams and its use in automated diagnostics | |
KR102163701B1 (en) | Apparatus and method for classifying spine | |
JP2017198697A (en) | Image processing program, recording medium, image processing device, and image processing method | |
Al-Helo et al. | Segmentation of lumbar vertebrae from clinical CT using active shape models and GVF-snake | |
Šajn et al. | Computerized segmentation and diagnostics of whole-body bone scintigrams | |
Tabor et al. | An automatic recognition of the frontal sinus in x-ray images of skull | |
EP2890299B1 (en) | Analytic morphomics: high speed medical image automated analysis method | |
Wu et al. | A new hierarchical method for multi-level segmentation of bone in pelvic CT scans | |
JP3975668B2 (en) | Feature quantity correctness determination method and image processing apparatus | |
Desai et al. | Arytenoid cartilage feature point detection using laryngeal 3D CT images in Parkinson's disease | |
KR102218900B1 (en) | Apparatus and method for diagnosing disease | |
KR102196503B1 (en) | Apparatus and method for detecting the spine | |
Maity et al. | Feature extraction of bone scintigraphy for diagnosis of diseases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6545591 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |