JP6545591B2 - Diagnosis support apparatus, method and computer program - Google Patents

Diagnosis support apparatus, method and computer program Download PDF

Info

Publication number
JP6545591B2
JP6545591B2 JP2015189885A JP2015189885A JP6545591B2 JP 6545591 B2 JP6545591 B2 JP 6545591B2 JP 2015189885 A JP2015189885 A JP 2015189885A JP 2015189885 A JP2015189885 A JP 2015189885A JP 6545591 B2 JP6545591 B2 JP 6545591B2
Authority
JP
Japan
Prior art keywords
subject
data
diagnosis
discriminator
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015189885A
Other languages
Japanese (ja)
Other versions
JP2017067489A (en
Inventor
一公 河上
一公 河上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Toyama Chemical Co Ltd
Original Assignee
Fujifilm Toyama Chemical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Toyama Chemical Co Ltd filed Critical Fujifilm Toyama Chemical Co Ltd
Priority to JP2015189885A priority Critical patent/JP6545591B2/en
Publication of JP2017067489A publication Critical patent/JP2017067489A/en
Application granted granted Critical
Publication of JP6545591B2 publication Critical patent/JP6545591B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被験者に関する被験者データに基づいて診断支援を行う技術に関する。   The present invention relates to a technology for performing diagnosis support based on subject data on a subject.

骨シンチグラムを用いて被験者の診断支援装置を行う技術が知られている。既存の画像診断支援装置では、骨シンチグラムのホットスポット(薬剤が集積した高カウント領域)が癌転移であるか否かの判定をANN(人工ニューラルネットワーク)を用い、医師が診断を支援するための情報を出力している(例えば、特許文献1)。   There is known a technique for performing a diagnostic support device for a subject using a bone scintigram. The existing diagnostic imaging support system uses ANN (Artificial Neural Network) to determine whether the hot spot of bone scintigram (high count area where drug is accumulated) is cancer metastasis, and the doctor supports diagnosis Is output (for example, Patent Document 1).

特開2014−9945号公報JP, 2014-9945, A

Active shape models − their training and application, T. F. Cootes, C. J. Taylor, D. H. Cooper and J. Graham presented in Computer Vision and Image Understanding, Vol. 61, no. 1, pp. 38−59, 1995.Active shape models-their training and application, T. F. Cootes, C. J. Taylor, D. H. Cooper and J. Graham presented in Computer Vision and Image Understanding, Vol. 61, no. 1, pp. 38-59, 1995. Application of the Active Shape Model in a commercial medical device for bone densitometry, H. H. Thodberg and A. Rosholm presented in the Proceedings of the 12th British Machine Vision Conference, 43−52, 2001.Application of the Active Shape Model in a commercial medical device for bone densitometry, H. H. Thodberg and A. Rosholm presented in the Proceedings of the 12th British Machine Vision Conference, 43-52, 2001. Average brain models: A convergence study, Guimond A. Meunier J. Thirion J.−P presented in Computer Vision and Image Understanding, 77(2), pp.192−210, 2000.Average brain models: A convergence study, Guimond A. Meunier J. Thirion J. −P presented in Computer Vision and Image Understanding, 77 (2), pp. 192-210, 2000.

ANNのような機械学習アルゴリズムに基づく判別機を診断支援装置に用いる場合、学習済みのアルゴリズムを備える判別機の状態が異なれば、同じ入力に対しても異なる出力がなされることがある。例えば、同じ学習アルゴリズムを用いた場合でも、あるデータセットを使って学習した判別機と、それとは異なるデータセットを使って学習した判別機とでは、同じ値を入力したときに同じ出力が得られるとは限らない。同様に、二つの判別機の学習アルゴリズムが互いに異なるときは、同じデータセットで学習をさせた場合であっても、同じ入力に対して常に同じ出力をするわけではない。   When a discriminator based on a machine learning algorithm such as ANN is used for a diagnosis support apparatus, different outputs may be made to the same input if the discriminator having the learned algorithm has a different state. For example, even if the same learning algorithm is used, the same output can be obtained when the same value is input between a classifier trained using one data set and a classifier trained using a different data set. Not necessarily. Similarly, when the learning algorithms of the two discriminators are different from each other, even if they are trained with the same data set, they do not always produce the same output for the same input.

つまり、ある被験者の状態を判定する場合に、診断支援情報として出力される情報が判別機の学習アルゴリズムや、学習に用いたデータセットに依存することになり、診断支援情報としての精度及び安定性に課題がある。   That is, when determining the state of a certain subject, the information output as diagnosis support information depends on the learning algorithm of the discriminator or the data set used for learning, and the accuracy and stability as the diagnosis support information There is a problem with

そこで、本発明の目的は、機械学習アルゴリズムを用いた診断支援において、その精度を向上させることである。   Therefore, an object of the present invention is to improve the accuracy in diagnosis support using a machine learning algorithm.

本発明の別の目的は、機械学習アルゴリズムを用いた診断支援において、安定した診断支援のための情報を提供することである。   Another object of the present invention is to provide information for stable diagnosis support in diagnosis support using a machine learning algorithm.

本発明の一つの実施態様に従うコンピュータプログラムは、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、前記コンピュータプログラムが前記診断支援装置に実行されると、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現する。   A computer program according to one embodiment of the present invention is a computer program for a diagnosis support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the computer program serving as a diagnosis support apparatus A first discriminator including a learned algorithm which has been trained on the first machine learning algorithm with the first data set, and wherein the first discriminator receives an input of the subject data and outputs a first discriminant result A second discriminator including: a first discriminator and a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set; The second discriminator and the first discriminator for receiving an input of the subject data and outputting a second discrimination result Fruit and in response to the second determination result, to realize a determining unit for outputting the diagnosis support information is information for supporting a diagnosis of a subject, to the diagnosis support apparatus.

本発明の別の実施態様に従うコンピュータプログラムは、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、前記コンピュータプログラムが前記診断支援装置に実行されると、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現する。   A computer program according to another embodiment of the present invention is a computer program for a diagnosis support apparatus that receives subject data, which is data related to a subject, and supports diagnosis of the subject, wherein the computer program is a diagnostic support apparatus. A first discriminator including a learned algorithm which has been trained on the first machine learning algorithm with the first data set, and wherein the first discriminator receives an input of the subject data and outputs a first discriminant result A second machine learning algorithm different from the first discriminator and the first machine learning algorithm, the second data set different from the first data set, or the first data set A second discriminator including a learned algorithm learned in step The second discriminator, which outputs the second discrimination result, and diagnosis support information, which is information for assisting the diagnosis of the subject according to the first discrimination result and the second discrimination result And a judgment device for outputting the above information in the diagnosis support apparatus.

好適な実施態様では、前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であってもよい。前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報であってもよい。   In a preferred embodiment, the first and second determination results may be a probability as to whether or not the subject is in a predetermined state. The diagnosis support information may be information for supporting a diagnosis, which is the probability of whether the subject is in the predetermined state or whether the subject is in the predetermined state.

好適な実施態様では、前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであってもよい。前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報であってもよい。   In a preferred embodiment, the first and second determination results may be whether or not the subject is in a predetermined state. The diagnosis support information may be information for supporting diagnosis of whether the subject is in the predetermined state.

好適な実施態様では、前記診断支援情報と、前記第1及び第2の判別結果を表示装置に表示させる手段を、さらに前記診断支援装置に実現させてもよい。   In a preferred embodiment, the diagnosis support apparatus may further realize means for causing the display device to display the diagnosis support information and the first and second determination results.

好適な実施態様では、前記診断支援情報と、前記診断支援情報の信頼度を表示装置に表示させる手段を、さらに前記診断支援装置に実現させてもよい。   In a preferred embodiment, the diagnosis support apparatus may further realize means for displaying the diagnosis support information and the reliability of the diagnosis support information on a display device.

好適な実施態様では、前記第1の機械学習アルゴリズムは、人工ニューラルネットワークであってもよい。   In a preferred embodiment, the first machine learning algorithm may be an artificial neural network.

好適な実施態様では、前記被験者データは、骨シンチグラムから得られたデータであってもよい。   In a preferred embodiment, the subject data may be data obtained from a bone scintigram.

好適な実施態様では、再判定要求を受け付ける受付手段を、さらに前記診断支援装置に実現させてもよい。そして、前記受付手段が再判定要求を受け付けたときは、前記被験者データ及び前記被験者の特徴を示す特徴データに基づいて、前記第1の判別機及び前記第2の判別機が新たな第1及び第2の判別結果を出力し、前記判断機が、新たな診断支援情報を出力するようにしてもよい。   In a preferred embodiment, the diagnosis support apparatus may further realize reception means for receiving a re-determination request. Then, when the receiving means receives the re-determination request, the first discriminator and the second discriminator respectively add new first and second discriminators based on the subject data and the characteristic data indicating the characteristics of the subject. The second determination result may be output, and the determination device may output new diagnosis support information.

本発明のさらに別の実施態様に従う、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置は、機械学習アルゴリズムに所定のデータセットで学習させた学習済みアルゴリズムを有する判別機を含み、前記被験者データの入力に基づく前記判別機の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判定手段と、前記診断支援情報を表示装置に表示させる表示手段と、再判定要求を受け付ける受付手段と、を備える。前記受付手段が再判定要求を受け付けたときは、前記判定手段は、前記被験者データ及び前記被験者の特徴を示す特徴データに基づく前記判別機の判別結果に応じて、新たな前記被験者の診断を支援する情報を出力する。   According to yet another embodiment of the present invention, a diagnostic support apparatus for receiving subject data that is data on a subject and supporting diagnosis of the subject is a discrimination having a learned algorithm learned by a machine learning algorithm using a predetermined data set. Determining means for outputting diagnosis support information which is information for supporting the diagnosis of the subject according to the discrimination result of the discriminator based on the input of the subject data, and a display device for displaying the diagnosis support information. And a receiving unit for receiving the re-determination request. When the reception means receives the re-determination request, the determination means supports a new diagnosis of the subject according to the discrimination result of the discriminator based on the subject data and the characteristic data indicating the characteristic of the subject. Output information.

本実施形態に係る画像処理装置1の構成を示すブロック図である。It is a block diagram showing composition of image processing device 1 concerning this embodiment. 画像処理装置1の動作を示すフローチャートである。5 is a flowchart showing an operation of the image processing apparatus 1; 修正部20の動作を示すフローチャートである。5 is a flowchart showing an operation of the correction unit 20. 正規化部30の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a normalization unit 30. 第1判定部140の構成を示すブロック図である。FIG. 7 is a block diagram showing a configuration of a first determination unit 140. 正規化部30による骨シンチグラム分割方法を示すフローチャートである。It is a flowchart which shows the bone | frame scintigram division | segmentation method by the normalization part 30. FIG. 骨シンチグラムと骨格部位の一例を示す図である。It is a figure which shows an example of a bone | frame scintigram and frame | skeleton site | part. 健康基準画像セットの一例であるIt is an example of a health reference image set 正規化部30による正規化方法を示すフローチャートである。5 is a flowchart showing a normalization method by the normalization unit 30. 正規化された骨シンチグラムセットの一例を示す図である。It is a figure which shows an example of the normalized bone scintigram set. 正規化前の骨シンチグラムのカウント値の分布を示すヒストグラムである。It is a histogram which shows distribution of the count value of the bone scintigram before normalization. 正規化後の骨シンチグラムの正規化カウント値の分布を示すヒストグラムである。It is a histogram which shows distribution of the normalization count value of the bone scintigram after normalization. スケールレンジを示す図である。It is a figure which shows a scale range. 第1の表示態様を示す画面である。It is a screen which shows a 1st display mode. 第2の表示態様を示す画面である。It is a screen which shows a 2nd display mode.

以下、本発明の一実施形態に係る診断支援装置について、図面を参照して説明する。以下に説明する本発明の実施形態では、本発明に係る診断支援装置の一態様として、被験者の画像データを被験者データとして用いて診断支援情報を生成する画像処理装置を例に説明する。   Hereinafter, a diagnosis support apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the embodiment of the present invention described below, as an aspect of the diagnosis support apparatus according to the present invention, an image processing apparatus that generates diagnosis support information using image data of a subject as test subject data will be described as an example.

図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。同図に示すように、画像処理装置1は、画像処理装置本体10と、キーボード、タッチパネル、ポインティングデバイスなどの入力装置4と、液晶ディスプレイなどの表示装置5とを有する。画像処理装置本体10は、修正部20と、正規化部30と、表示制御部60と、記憶部70とを有する。表示制御部60は、調整部40と、変換部50と、生成部80とを有する。   FIG. 1 is a block diagram showing the configuration of an image processing apparatus 1 according to the present embodiment. As shown in the figure, the image processing apparatus 1 includes an image processing apparatus main body 10, an input device 4 such as a keyboard, a touch panel, and a pointing device, and a display device 5 such as a liquid crystal display. The image processing apparatus main body 10 includes a correction unit 20, a normalization unit 30, a display control unit 60, and a storage unit 70. The display control unit 60 includes an adjustment unit 40, a conversion unit 50, and a generation unit 80.

画像処理装置本体10は、例えば汎用的なコンピュータシステムにより構成され、以下に説明する画像処理装置本体10内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータシステムは、メモリとマイクロプロセッサを有する。記憶部70は、メモリにより実現されても良い。このコンピュータプログラムは、コンピュータ読み取り可能な記録媒体に格納されて配布されることができる。   The image processing apparatus main body 10 is configured by, for example, a general-purpose computer system, and individual components or functions in the image processing apparatus main body 10 described below are realized by executing a computer program, for example. The computer system has a memory and a microprocessor. The storage unit 70 may be realized by a memory. This computer program can be stored and distributed in a computer readable recording medium.

記憶部70は、撮像画像記憶部15と、検査データ記憶部17と、修正画像記憶部25と、正規化画像記憶部35と、特徴データ記憶部36と、調整画像記憶部45とを有する。撮像画像記憶部15は、撮像された骨シンチグラムである撮像画像を記憶する。骨シンチグラムは、被験者の体内の放射性薬剤の分布状態が撮像された画像である。撮像画像セットは、或る患者の或る検査により撮像された、前面像の撮像画像と後面像の撮像画像とのペアである。本実施形態において、骨シンチグラム内の各ピクセルの値(画素値)は、画像を撮影する前に人間の体内に注入された放射性物質(放射性同位体:ラジオアイソトープ)からの放射強度を示すカウント値である。また、撮像画像記憶部15は、検査日時、前面又は後面を示す情報、基準視野等を含む撮像条件データを、撮像画像に関連付けて記憶する。検査データ記憶部17は、被験者の特徴量を示すデータで、例えば、被験者の画像を用いた検査以外の検査から得られたデータを検査データとして記憶してもよい。検査データは、例えば、被験者のTNM分類(悪性腫瘍の病期分類の指標)、腫瘍マーカーの値、病理検査の結果、遺伝子検査(リスク遺伝子の発現)の結果、性別、年齢、家族歴等の問診データを含んでもよい。   The storage unit 70 includes a captured image storage unit 15, an inspection data storage unit 17, a corrected image storage unit 25, a normalized image storage unit 35, a feature data storage unit 36, and an adjustment image storage unit 45. The captured image storage unit 15 stores a captured image which is a captured bone scintigram. The bone scintigram is an image obtained by imaging the distribution of the radiopharmaceutical in the subject's body. The captured image set is a pair of a captured image of a front image and a captured image of a back image captured by a certain examination of a certain patient. In the present embodiment, the value (pixel value) of each pixel in the bone scintigram is a count indicating the radiation intensity from a radioactive substance (radioisotope: radioisotope) injected into the human body before taking an image. It is a value. Further, the captured image storage unit 15 stores imaging condition data including the examination date and time, information indicating the front surface or the back surface, a reference visual field and the like in association with the captured image. The test data storage unit 17 may be data indicating the feature amount of the subject, and may store, for example, data obtained from a test other than the test using the image of the subject as test data. Test data includes, for example, TNM classification of subjects (index of staging of malignancy), value of tumor marker, result of pathological test, result of genetic test (expression of risk gene), sex, age, family history, etc. It may include interview data.

図2は、画像処理装置1の動作を示すフローチャートである。このフローは、検査により撮像画像セットが撮像画像記憶部15へ保存される度に実行されても良いし、或る患者の複数の撮像画像セットが撮像画像記憶部15へ保存された状態で、診察や解析のために実行されても良い。   FIG. 2 is a flowchart showing the operation of the image processing apparatus 1. This flow may be executed each time a captured image set is stored in the captured image storage unit 15 by examination, or in a state where a plurality of captured image sets of a certain patient are stored in the captured image storage unit 15, It may be performed for medical examination or analysis.

修正部20は、撮像画像記憶部15に格納されている撮像画像を予め定められた規格に従って修正し、その結果である修正画像を修正画像記憶部25へ保存する(S20)。   The correction unit 20 corrects the captured image stored in the captured image storage unit 15 according to a predetermined standard, and stores the corrected image as a result in the corrected image storage unit 25 (S20).

その後、正規化部30は、修正画像記憶部25に格納されている修正画像から骨格部位やホットスポット等の特徴を検出し、その結果である特徴データを修正画像に関連付けて特徴データ記憶部36へ保存する。更に、正規化部30は、特徴データに基づいて修正画像を正規化し、その結果である正規化画像を正規化画像記憶部35へ保存する(S30)。   After that, the normalization unit 30 detects features such as skeletal parts and hot spots from the corrected image stored in the corrected image storage unit 25 and associates the feature data as a result with the corrected image to obtain a feature data storage unit 36. Save to Furthermore, the normalization unit 30 normalizes the corrected image based on the feature data, and stores the normalized image as a result thereof in the normalized image storage unit 35 (S30).

その後、表示制御部60は、正規化画像記憶部35に格納されている正規化画像を調整して配置することにより表示画面を生成し、表示画面を表示装置5に表示させ(S60)、このフローを終了する。   Thereafter, the display control unit 60 adjusts and arranges the normalized image stored in the normalized image storage unit 35 to generate a display screen, and causes the display device 5 to display the display screen (S60). End the flow

表示制御部60において、調整部40は、正規化画像記憶部35に格納されている正規化画像のサイズを調整し、その結果である調整画像記憶部45へ保存する。変換部50は、調整画像記憶部45に格納されている調整画像の画素値をグレースケールの濃度に変換する。生成部80は、調整画像を時系列に従って配置することにより表示画面を生成し、表示装置5に表示させる。   In the display control unit 60, the adjustment unit 40 adjusts the size of the normalized image stored in the normalized image storage unit 35, and stores the result in the adjusted image storage unit 45. The conversion unit 50 converts the pixel values of the adjusted image stored in the adjusted image storage unit 45 into gray scale density. The generation unit 80 generates a display screen by arranging the adjustment images in chronological order, and causes the display device 5 to display the display screen.

なお、生成部80は、特徴データ記憶部36に格納されている特徴データを、調整画像に関連付けて表示画面内に配置しても良い。   The generation unit 80 may arrange the feature data stored in the feature data storage unit 36 in the display screen in association with the adjustment image.

画像処理装置1によれば、撮像された複数の骨シンチグラムにおいて、撮影条件の違いの影響を低減することができる。また、複数の骨シンチグラムを時系列に従って表示装置5に表示させることにより、読影者は複数の骨シンチグラムの経時変化を判断することが容易になる。   According to the image processing apparatus 1, the influence of the difference in the imaging conditions can be reduced in the plurality of imaged bone scintigrams. Further, by displaying the plurality of bone scintigrams on the display device 5 in chronological order, the reader can easily judge the temporal change of the plurality of bone scintigrams.

以下、修正部20の詳細について説明する。   Hereinafter, the details of the correction unit 20 will be described.

図3は、修正部20の動作を示すフローチャートである。前述のS20において、修正部20はこのフローを実行する。   FIG. 3 is a flowchart showing the operation of the correction unit 20. In S20 described above, the correction unit 20 executes this flow.

修正部20は、撮像画像記憶部15から撮像画像セットを読み出し、読み出された撮像画像セットが予め定められた規格を満たすか否かを判定する(S2020)。   The correction unit 20 reads a captured image set from the captured image storage unit 15, and determines whether the read captured image set satisfies a predetermined standard (S2020).

例えば、修正部20は、撮像画像セット内の全ピクセルのカウント値から評価値を計算し、その評価値が規格範囲内であれば、撮像画像セットが予め定められた規格を満たすと判定する。評価値は例えば、前画像及び後画像の全ピクセルのカウント値の合計に基づいて計算される。より好適な評価値は、(前画像の全ピクセルのカウント値の合計+後画像の全ピクセルのカウント値の合計)/2で表される。規格範囲は例えば、標準撮像条件下で撮像された複数の撮像画像セットを格納する撮像画像データベースに基づいて決定される。即ち、修正部20は、撮像画像セットの評価値が規格範囲内であれば、その撮像画像セットが標準撮像条件下で撮像されたものであると判定する。規格範囲の下限は例えば、撮像画像データベース内の各撮像画像セットから計算された評価値の最小値より小さく、規格範囲の上限は例えば、撮像画像データベース各撮像画像セットから計算された評価値の最大値より大きい。実際の撮像画像データベースに基づいて決定された規格範囲において、下限は例えば1,200,000であり、上限は例えば、2,200,000である。   For example, the correction unit 20 calculates an evaluation value from the count value of all the pixels in the captured image set, and determines that the captured image set satisfies the predetermined standard if the evaluation value is within the standard range. The evaluation value is calculated, for example, based on the sum of the count values of all pixels in the previous and subsequent images. A more preferable evaluation value is represented by (sum of count values of all pixels of previous image + sum of count values of all pixels of post image) / 2. The specification range is determined based on, for example, a captured image database storing a plurality of captured image sets captured under standard imaging conditions. That is, if the evaluation value of the captured image set is within the standard range, the correction unit 20 determines that the captured image set is captured under standard imaging conditions. The lower limit of the standard range is, for example, smaller than the minimum value of the evaluation values calculated from each captured image set in the captured image database, and the upper limit of the standard range is, for example, the maximum of evaluation values calculated from each captured image set Greater than value In the standard range determined based on the actual captured image database, the lower limit is, for example, 1,200,000, and the upper limit is, for example, 2,200,000.

撮像画像セットが規格を満たす場合(S2020:Yes)、修正部20は、撮影画像セットを修正せずに修正画像セットとして修正画像記憶部25へ保存し(S2030)、このフローを終了する。   If the captured image set satisfies the standard (S2020: Yes), the correction unit 20 stores the captured image set as a corrected image set in the corrected image storage unit 25 without correcting it (S2030), and ends this flow.

撮像画像セットが規格を満たさない場合(S2020:No)、修正部20は、評価値に基づいてスケーリングファクタを計算し、撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより修正画像セットを生成して修正画像記憶部25へ保存し(S2040)、このフローを終了する。スケーリングファクタは例えば、(基準評価値/評価値)で表される。規格を満たさないと判定された撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより、その結果である修正画像セットの評価値は基準評価値になる。基準評価値は、規格範囲内の値である。実際の撮像画像データベースに基づいて決定された基準評価値は例えば、1,800,000である。   If the captured image set does not satisfy the standard (S2020: No), the correction unit 20 calculates a scaling factor based on the evaluation value, and generates a corrected image set by multiplying each pixel of the captured image set by the scaling factor Then, the image is stored in the corrected image storage unit 25 (S2040), and this flow is ended. The scaling factor is represented, for example, by (reference evaluation value / evaluation value). By multiplying each pixel of the captured image set which is determined not to meet the standard to the scaling factor, the evaluation value of the resulting corrected image set becomes a reference evaluation value. The reference evaluation value is a value within the standard range. The reference evaluation value determined based on the actual captured image database is, for example, 1,800,000.

修正部20は、修正画像に対応する撮像条件データを撮像画像記憶部15から読み出し、修正画像に関連付けて修正画像記憶部25へ保存する。   The correction unit 20 reads imaging condition data corresponding to the correction image from the captured image storage unit 15, associates the correction condition with the correction image, and stores the data in the correction image storage unit 25.

修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の統計量に基づいて規格範囲及び基準評価値を決定しても良い。例えば、修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の平均値及び標準偏差を用い、(平均値−標準偏差)を規格範囲の下限とし、(平均値+標準偏差)を規格範囲の上限とし、(平均値)を基準評価値としても良い。   The correction unit 20 may determine the standard range and the reference evaluation value based on the statistic of the evaluation value calculated from each captured image set in the captured image database. For example, the correction unit 20 uses (average value−standard deviation) as the lower limit of the standard range by using the average value and the standard deviation of the evaluation values calculated from each captured image set in the captured image database, (average value + standard Deviation) may be used as the upper limit of the standard range, and (average value) may be used as the reference evaluation value.

以上が修正部20の動作である。   The above is the operation of the correction unit 20.

以上に説明したように、修正部20は、カウント値が規格外であると判定された撮像画像セットを、規格を満たすように修正することができる。言い換えれば、標準撮像条件下で撮影されていない撮像画像セットのカウント値を、標準撮像条件下で撮影された撮像画像セットのカウント値の範囲内に修正することができる。これにより、その後の処理の精度を向上させることができる。   As described above, the correction unit 20 can correct the captured image set determined to have the count value out of the standard so as to satisfy the standard. In other words, the count value of a captured image set not captured under standard imaging conditions can be corrected within the range of the count value of a captured image set captured under standard imaging conditions. This can improve the accuracy of the subsequent processing.

以下、正規化部30について説明する。   The normalization unit 30 will be described below.

正規化部30は、修正画像記憶部25から修正画像セットを読み出す。以下の説明において、修正画像を骨シンチグラムや患者画像と呼ぶことがある。   The normalization unit 30 reads the corrected image set from the corrected image storage unit 25. In the following description, the corrected image may be referred to as a bone scintigram or a patient image.

図4は、正規化部30の構成を示すブロック図である。正規化部30は、入力画像メモリ105と、形状識別部110と、注釈付画像メモリ115と、ホットスポット検出部120と、第1ホットスポットメモリ125と、ホットスポット特徴抽出部130と、第2ホットスポットメモリ135と、第1判定部140と、第3ホットスポットメモリ145と、患者特徴抽出部150と、患者特徴メモリ155と、第2判定部160とを有する。   FIG. 4 is a block diagram showing the configuration of the normalization unit 30. As shown in FIG. The normalization unit 30 includes an input image memory 105, a shape identification unit 110, an annotated image memory 115, a hot spot detection unit 120, a first hot spot memory 125, a hot spot feature extraction unit 130, and a second function. A hot spot memory 135, a first determination unit 140, a third hot spot memory 145, a patient feature extraction unit 150, a patient feature memory 155, and a second determination unit 160.

入力画像メモリ105は、骨シンチグラムセットを格納する。一回の診断により得られる骨シンチグラムセットは、患者の正面から撮像した前面像と、患者の背面から撮像した後面像とを有する。   The input image memory 105 stores a bone scintigram set. The bone scintigram set obtained by one diagnosis has a front image taken from the front of the patient and a back image taken from the back of the patient.

形状識別部110は、入力画像メモリ105に接続されており、骨シンチグラムセットに含まれる骨格の解剖学的構造を識別する。形状識別部110は、予め定義された骨格モデルを有する。骨格モデルは少なくとも一つの解剖学的部位(セグメント)を有する。各部位は、一般的な骨格の解剖学的部分を表す。骨格モデルは、骨シンチグラムセットの骨格に合うように調整される。   The shape identification unit 110 is connected to the input image memory 105 and identifies the anatomical structure of the skeleton included in the bone scintigram set. The shape identification unit 110 has a skeleton model defined in advance. The skeletal model has at least one anatomical site (segment). Each site represents a common anatomical part of the skeleton. The skeletal model is tailored to the bone scintigram set skeleton.

注釈付画像メモリ115は、形状識別部110に接続されており、注釈付画像セットを格納する。注釈付画像セットは、形状識別部110からの、骨シンチグラムセットの異なる複数の骨格部位に対応する複数の解剖学的構造に関する情報に基づく。   The annotated image memory 115 is connected to the shape identification unit 110, and stores the annotated image set. The annotated image set is based on information from the shape identification unit 110 regarding the plurality of anatomical structures corresponding to different skeletal sites of the bone scintigram set.

ホットスポット検出部120は、注釈付画像メモリ115に接続されており、注釈付画像セットの高強度領域を検出する。ホットスポット検出部120の一つの形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する閾値走査部を有する。好適なホットスポット検出部120は、形状識別部110により定義された異なる複数の解剖学的部位に対する異なる複数の閾値を有する。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状と位置を決定する。   The hotspot detection unit 120 is connected to the annotated image memory 115 and detects a high intensity area of the annotated image set. One form of hotspot detection unit 120 has a threshold scan that scans the bone scintigram set and identifies pixels that exceed a certain threshold. The preferred hotspot detector 120 has different thresholds for different anatomical sites defined by the shape identifier 110. In this case, the hot spot feature extraction unit 130 extracts at least one hot spot feature for each hot spot, and determines the shape and position of each hot spot.

ホットスポット検出部120の別の形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する画像正規化フィルタリング部を有しても良い。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状、テクスチャ、幾何学的形状を決定する。好適なホットスポット特徴のセット内の各特徴の詳細は、第1判定部140の入力の具体例として後述される。   Another form of hotspot detection unit 120 may include an image normalization filtering unit that scans the bone scintigram set and identifies pixels above a certain threshold. In this case, the hot spot feature extraction unit 130 extracts at least one hot spot feature for each hot spot, and determines the shape, texture, and geometrical shape of each hot spot. Details of each feature in the set of suitable hotspot features are described later as a specific example of the input of the first determination unit 140.

検出された高強度領域、所謂「ホットスポット」に関して、以上のように生成される情報は、第1ホットスポットメモリ125に格納される。   Information generated as described above regarding the detected high intensity area, so-called "hot spot" is stored in the first hot spot memory 125.

ホットスポット特徴抽出部130は、第1ホットスポットメモリ125に接続されており、ホットスポット検出部120により検出された各ホットスポットのホットスポット特徴のセットを抽出する。抽出されたホットスポット特徴のデータは、第2ホットスポットメモリ135に格納される。   The hot spot feature extraction unit 130 is connected to the first hot spot memory 125, and extracts a set of hot spot features of each hot spot detected by the hot spot detection unit 120. The extracted hotspot feature data is stored in the second hotspot memory 135.

第1判定部140は、被験者が所定の状態であるか否かを判定する。例えば、第1判定部140は、第2ホットスポットメモリ135に接続されており、ホットスポットセットの各ホットスポットが癌転移(以下、単に転移という場合がある)であるか否かを判定する(ホットスポットの転移判定)。第1判定部140は、ホットスポット特徴抽出部130により生成されたホットスポットセットの各ホットスポットの特徴が供給される。ホットスポットの転移判定は、ホットスポット特徴抽出部130により抽出されたホットスポット特徴セットデータに基づく。この判定の結果は、第3ホットスポットメモリ145に格納される。   The first determination unit 140 determines whether the subject is in a predetermined state. For example, the first determination unit 140 is connected to the second hot spot memory 135, and determines whether each hot spot of the hot spot set is cancer metastasis (hereinafter, may be simply referred to as metastasis) (see below). Hot spot transition judgment). The first determination unit 140 is supplied with the feature of each hot spot of the hot spot set generated by the hot spot feature extraction unit 130. Hot spot transition determination is based on the hot spot feature set data extracted by the hot spot feature extraction unit 130. The result of this determination is stored in the third hotspot memory 145.

ここで、ホットスポットの転移判定の結果は、ホットスポットが転移であるか否かを示す確率(0〜1)であってもよいし、2値化された値、すなわち「yes、ホットスポットが転移である」に対応する値(例えば「1」)、または「no、ホットスポットが転移でない」に対応する値(例えば「0」)であってもよい。第1判定部140が出力する判定結果は、医師が診断をするための診断支援情報として表示装置5に出力されてもよい。   Here, the result of the hot spot transition determination may be a probability (0 to 1) indicating whether the hot spot is a transition or not, or a binarized value, that is, “yes, the hot spot is It may be a value (eg, “1”) corresponding to “is a transition” or a value (eg, “0”) corresponding to “no, a hotspot is not a transition”. The determination result output by the first determination unit 140 may be output to the display device 5 as diagnosis support information for a doctor to diagnose.

第1判定部140は、例えば、機械学習アルゴリズムを用いて実現されてもよい。機械学習アルゴリズムとしては、例えば、人工ニューラルネットワーク(Artificial Neural Network,ANN)、サポートベクターマシン(Support Vector Machine,SVM)、線形判別分析(Linear Discriminant Analysis,LDA)などを用いることができる。また、機械学習アルゴリズムは、教師あり学習、教師なし学習及び半教師あり学習など、どのような学習方法のアルゴリズムであってもよい。第1判定部140は、各機械学習アルゴリズムをそれぞれの方法で学習させた学習済みアルゴリズムを含む構成で実現されてもよい。例えば、第1判定部140は、学習済みアルゴリズムで実現されている単一または複数の判別機を含んでもよい。   The first determination unit 140 may be realized, for example, using a machine learning algorithm. As a machine learning algorithm, for example, an artificial neural network (ANN), a support vector machine (Support Vector Machine, SVM), a linear discriminant analysis (LDA), or the like can be used. Also, the machine learning algorithm may be an algorithm of any learning method such as supervised learning, unsupervised learning and semi-supervised learning. The first determination unit 140 may be realized by a configuration including a learned algorithm obtained by learning each machine learning algorithm by each method. For example, the first determination unit 140 may include one or more discriminators implemented by a learned algorithm.

第1判定部140は、解剖学的部位ごとに部位別判定部1400を有していてもよい。或る部位内の各ホットスポットは、その部位のホットスポットを処理するように構成された部位別判定部1400により順次処理される。   The first determination unit 140 may have a region-by-region determination unit 1400 for each anatomical region. Each hot spot in a certain site is sequentially processed by the site-specific determination unit 1400 configured to process the hot spot of the site.

図5は、第1判定部140に含まれる部位別の部位別判定部1400の構成の一例を示すブロック図である。部位別判定部1400は、2以上の判別機C(C1〜C3)と一つの判断機Dを有してもよい。なお、図5の例では、部位別判定部1400は判別機Cを3つ有しているが、2つまたは4つ以上有していてもよい。   FIG. 5 is a block diagram showing an example of the configuration of the part-by-part determination part 1400 included in the first determination part 140. As shown in FIG. The part-by-part determination unit 1400 may have two or more discriminators C (C1 to C3) and one discriminator D. In the example of FIG. 5, the part-by-part determination unit 1400 has three discriminators C, but may have two or four or more.

各判別機Cは、被験者が所定の状態であるか否かの確率を出力するようにしてもよいし、被験者が所定の状態であるか否かを出力するようにしてもよい。例えば、各判別機Cは、それぞれが所定の入力に基づいてホットスポットが転移であるか否かを判定してもよい。各判別機Cは、それぞれが算出したホットスポットが転移であるか否かの確率(判別結果)を判断機Dへ出力してもよい。各判別機Cは、その確率に応じてホットスポットが転移であるか否かの判定結果を出力してもよい。   Each discriminator C may output the probability of whether the subject is in the predetermined state or may output whether the subject is in the predetermined state. For example, each classifier C may determine whether the hotspot is a transition based on a predetermined input. Each classifier C may output the probability (discrimination result) as to whether or not the hotspot calculated by each is a transition to the judgment device D. Each classifier C may output the determination result as to whether or not the hot spot is a transition according to the probability.

判断機Dは、各判別機Cの判別結果に応じて、被験者が所定の状態であるか否かの診断を支援する情報を出力する。本実施形態では、判断機Dは、ホットスポットが転移であるか否かを判定する。判断機Dの判定結果が第1判定部140の判定結果として出力される。複数の判別機Cの判別結果に基づいて判断機Dが判定を行うことで、個別の判別機Cの特性に依存しない判定を行うことができ、診断支援の精度が向上する。同様に、複数の判別機Cの出力に基づいて判断機Dの出力が定まることから、個別の判別機Cの特性に依存せず、安定した出力が得られる。   In accordance with the determination result of each of the classifiers C, the determinator D outputs information for assisting in the diagnosis of whether the subject is in a predetermined state. In the present embodiment, the judging device D judges whether the hot spot is a transition. The determination result of the determination device D is output as the determination result of the first determination unit 140. By the determination device D making determination based on the determination results of the plurality of determination devices C, determination independent of the characteristics of the individual determination devices C can be performed, and the accuracy of diagnosis support is improved. Similarly, since the output of the determination device D is determined based on the outputs of the plurality of determination devices C, stable output can be obtained without depending on the characteristics of the individual determination devices C.

ここで、各判別機Cが学習済みアルゴリズムで構成されていてもよい。判別機C1、C2、C3は、共通の学習アルゴリズムを異なるデータセットで学習させた学習済みアルゴリズムでよい。データセットは、例えば、以下のような第1〜第3のデータセットでもよい。すなわち、第1のデータセットは正常(ホットスポットは転移でない)と診断された被験者データを多く含むデータセット、第2のデータセットは異常(ホットスポットは転移である)と診断された被験者データを多く含むデータセット、第3のデータセットは正常と診断された被験者データと異常と診断された被験者データとがほぼ同数のデータセットでもよい。例えば、判別機C1が第1のアルゴリズムを第1のデータセットで学習させた学習済みアルゴリズム、判別機C2が第1のアルゴリズムを第2のデータセットで学習させた学習済みアルゴリズム、判別機C3が第1のアルゴリズムを第3のデータセットで学習させた学習済みアルゴリズムであってもよい。これにより、3つの判別機C1〜3は異なる特性を有するようになる。   Here, each classifier C may be configured by a learned algorithm. The classifiers C1, C2, C3 may be learned algorithms obtained by learning common learning algorithms with different data sets. The data set may be, for example, first to third data sets as follows. That is, the first data set is a data set including many subject data diagnosed as normal (hot spot is not a metastasis), and the second data set is subject data diagnosed as abnormal (a hot spot is a metastasis). The data set including a large number, and the third data set may be approximately the same number of data sets as the subject data diagnosed as normal and the subject data diagnosed as abnormal. For example, a learned algorithm in which the discriminator C1 learned the first algorithm with the first data set, a learned algorithm in which the discriminator C2 learned the first algorithm with the second data set, the discriminator C3 It may be a learned algorithm in which the first algorithm is trained on the third data set. As a result, the three classifiers C1 to C3 have different characteristics.

あるいは、判別機C1、C2、C3のいずれか一つが他の二つと異なる学習アルゴリズムでもよいし、判別機C1、C2、C3のすべてが異なる学習アルゴリズムでもよい。学習アルゴリズムが異なる場合、学習に用いるデータセットは共通であってもよい。例えば、判別機C1が第1のアルゴリズムをいずれか一つのデータセット(例えば第1のデータセット)で学習させた学習済みアルゴリズム、判別機C2が第1のアルゴリズムと異なる第2のアルゴリズムを共通のデータセットで学習させた学習済みアルゴリズム、判別機C3が第1及び第2のアルゴリズムと異なる第3のアルゴリズムをさらに共通のデータセットで学習させた学習済みアルゴリズムであってもよい。この場合も、3つの判別機C1〜3は異なる特性を有するようになる。   Alternatively, any one of the classifiers C1, C2, and C3 may be a learning algorithm different from the other two, or all of the classifiers C1, C2, and C3 may be different learning algorithms. If the learning algorithm is different, the data set used for learning may be common. For example, a learned algorithm in which the discriminator C1 learns the first algorithm with any one data set (for example, the first data set), and a discriminator C2 shares a second algorithm different from the first algorithm. It may be a learned algorithm learned in the data set, or a learned algorithm in which the discriminator C3 further learns the third algorithm different from the first and second algorithms in the common data set. Also in this case, the three classifiers C1 to C3 have different characteristics.

判断機Dは、以下のようにして、ホットスポットが転移であるか否かを判定してもよい。例えば、各判別機Cの出力値が0〜1であれば、それらに基づく統計値(例えば平均値、中央値等)を算出し、それを判断機Dの出力値としてもよい。あるいは、判断機Dが算出したその統計値をさらに所定の閾値で転移でないことを示す「0」または転移であることを示す「1」に2値化して、判断機Dの出力値としてもよい。これらの処理を行う際に、各判別機Cの出力に所定の重み付けをしてから行ってもよい。   The judging device D may judge whether or not the hot spot is a transition as follows. For example, when the output value of each discriminator C is 0 to 1, statistical values (for example, average value, median value, etc.) based on them may be calculated and used as the output value of the judgment device D. Alternatively, the statistical value calculated by the judgment device D may be further binarized into “0” indicating that it is not a transition at a predetermined threshold value or “1” indicating that it is a transition, and used as the output value of the judgment device D. . When performing these processes, the outputs of the respective classifiers C may be subjected to predetermined weighting.

また、判断機Dは、各判別機Cの出力値である0〜1を所定の閾値で転移でないことを示す「0」または転移であることを示す「1」に2値化した後、「0」と「1」の数に応じて判断機Dの出力を「0」または「1」に定めてもよい。このとき各判別機Cの出力値を2値化する閾値はすべて同じでもよいし、異なっていてもよい。   In addition, the judging device D binarizes 0 to 1 which is the output value of each of the judging devices C into “0” indicating that it is not a transition at a predetermined threshold value or “1” indicating that it is a transition, “ The output of the judgment device D may be set to “0” or “1” according to the number of 0 ”and“ 1 ”. At this time, all the threshold values for binarizing the output value of each classifier C may be the same or different.

さらに、判断機Dは3つ以上の階級に離散化して、その一つの階級を出力値としてもよい。例えば、判断機Dが0〜1の値を所定の閾値で四つの階級に分ける場合、「確実に正常」、「おそらく正常」、「おそらく転移」、及び「確実に転移」にそれぞれ対応する値(例えば、0,1,2,3)を出力値としてもよい。   Furthermore, the judgment machine D may be discretized into three or more classes, and one class may be used as an output value. For example, when the judgment machine D divides the value of 0 to 4 into four classes at a predetermined threshold, values corresponding to "reliably normal", "probably normal", "probably metastasized", and "reliably metastasized" The output value may be (for example, 0, 1, 2, 3).

第1判定部140は、単一の判別機Cで構成されていてもよい。この場合、判断機Dは不要であり、単一の判別機Cが出力するホットスポットである確率をそのまま第1判定部140の出力としてもよい。判別機Cの出力が0〜1の数値であるとき、第1判定部140は、上述の判断機Dと同様の処理で出力値を2値化したり、3つ以上の階級に離散化したりしてもよい。   The first determination unit 140 may be configured of a single discriminator C. In this case, the judging device D is unnecessary, and the probability of being a hot spot outputted by a single judging device C may be used as the output of the first judging unit 140 as it is. When the output of the discriminator C is a numerical value of 0 to 1, the first determination unit 140 binarizes the output value or discretizes it into three or more classes in the same processing as the above-described discriminator D. May be

また、後述するように、読影者等から再判定要求を受けたときは、第1判定部140は、第2ホットスポットメモリ135のホットスポット特徴セットデータに加えて、検査データ記憶部17の検査データも入力として受け付けて、再判定を行うようにしてもよい。例えば、部位別判定部1400の判定機Cは、再判定の場合には、ホットスポット特徴セットデータと併せて検査データの入力を受け付けて、ホットスポットが転移であるか否かの再判定を行うようにしてもよい。このとき、判断機Dは、通常の場合と同様にしてホットスポットが転移であるか否の判定を行うようにしてもよい。あるいは、部位別判定部1400は検査データ専用の判別機Cを備えていてもよい。判断機Dは、通常の判定で用いる判別機Cに加えて、検査データ専用の判別機Cの出力に基づいて、ホットスポットが転移であるか否の判定を行うようにしてもよい。   Further, as described later, when a re-determination request is received from the image reader or the like, the first determination unit 140 inspects the inspection data storage unit 17 in addition to the hotspot feature set data of the second hotspot memory 135. Data may also be accepted as input and re-judged. For example, in the case of re-determination, the determination machine C of the part-by-part determination unit 1400 receives input of inspection data together with the hotspot feature set data, and re-determines whether or not the hotspot is a transition. You may do so. At this time, the determination device D may determine whether the hot spot is a transition as in the normal case. Alternatively, the part-by-part determination unit 1400 may include a discriminator C dedicated to examination data. In addition to the discriminator C used in the normal determination, the discriminator D may determine whether the hot spot is a transition based on the output of the discriminator C dedicated to inspection data.

患者特徴抽出部150は、第2ホットスポットメモリ135及び第3ホットスポットメモリ145に接続されており、ホットスポット検出部120により検出されて第2ホットスポットメモリ135に格納されているホットスポットの数と、第3ホットスポットメモリ145に格納されている第1判定部140からのホットスポットの転移判定の結果の出力値とに基づいて、患者特徴セットを抽出する。患者特徴抽出部150は、ホットスポット特徴抽出部130からのデータと第1判定部140の出力のデータの両方を用いて計算を実行する。抽出された患者特徴のデータは、患者特徴メモリ155に格納される。好適な、抽出された特徴は、第2判定部160の入力の具体例として後述される。   The patient feature extraction unit 150 is connected to the second hot spot memory 135 and the third hot spot memory 145, and the number of hot spots detected by the hot spot detection unit 120 and stored in the second hot spot memory 135 The patient feature set is extracted on the basis of the hot spot transition determination results from the first determination unit 140 stored in the third hot spot memory 145. The patient feature extraction unit 150 executes the calculation using both the data from the hot spot feature extraction unit 130 and the data of the output of the first determination unit 140. The extracted patient feature data is stored in the patient feature memory 155. A suitable extracted feature will be described later as a specific example of the input of the second determination unit 160.

第2判定部160は、被験者が所定の状態であるか否かを判定する。例えば、第2判定部160は、患者特徴メモリ155に接続されており、患者特徴抽出部150により抽出されて患者特徴メモリ155に格納されている患者特徴セットデータに基づいて、患者が少なくとも一つの癌転移を持っているか否かを判定する(患者の転移判定)。   The second determination unit 160 determines whether the subject is in a predetermined state. For example, the second determination unit 160 is connected to the patient feature memory 155, and based on the patient feature set data extracted by the patient feature extraction unit 150 and stored in the patient feature memory 155, at least one patient is selected. Determine whether or not to have cancer metastasis (patient's metastasis judgment).

第2判定部160は、第1判定部140と同じ構成であってもよいし、第1判定部140の一部であってもよい。   The second determination unit 160 may have the same configuration as the first determination unit 140, or may be part of the first determination unit 140.

以下、正規化部30による骨シンチグラム分割方法(セグメンテーション)について説明する。   Hereinafter, the bone scintigram division method (segmentation) by the normalization unit 30 will be described.

図6は、正規化部30による骨シンチグラム分割方法を示すフローチャートである。前述のS30において、正規化部30はこのフローを実行する。   FIG. 6 is a flowchart showing the bone scintigram division method by the normalization unit 30. In S30 described above, the normalization unit 30 executes this flow.

骨シンチグラム分割方法は例えば、ASM(active shape model:アクティブ形状モデル)アプローチを用いて、腕(上肢)と脚(下肢)の下部(末端)を除く骨格の前面像と後面像の全体の輪郭抽出の実行を含む。腕と足の下部が転移に対して非常に稀な場所であり、それらは時々骨走査ルーチンで取得されていないので、骨格のこれらの部分を省くことは、問題にならない。説明のため、ASMは、画像内のオブジェクトを見つけるための統計的方法として定義されている。その方法は、学習画像セットに基づく統計モデルに基づいている。各学習画像において、オブジェクトの形状は、準備又は学習の段階中に人間のオペレータにより手動で決定される目標点により定義される。その後、オブジェクトに関する一般的形状を記述するために用いられる点分布モデルが、計算される。一般的形状は、本実施形態の場合と同様、例えば骨格のようなオブジェクトタイプの新規の例に対する他の画像を検索するために用いることができる。人間の骨格の解剖学的構造を記述するASMの学習のための方法が提供される。そのモデルは、以下の説明するステップを含む。   The bone scintigram segmentation method uses, for example, an active shape model (ASM) approach, and outlines the entire front and back surface images of the skeleton excluding the lower portions (ends) of the arms (upper limbs) and legs (lower legs) Includes the execution of the extraction. Omitting these parts of the skeleton is not a problem because the arms and lower legs are very rare places for metastasis and they are sometimes not obtained in bone scan routines. For purposes of explanation, ASM is defined as a statistical method for finding objects in an image. The method is based on a statistical model based on a set of training images. In each learning image, the shape of the object is defined by target points that are manually determined by human operators during the preparation or learning phase. Thereafter, a point distribution model used to describe the general shape of the object is calculated. The general shape can be used, as in the present embodiment, to search other images for new instances of object types, such as, for example, skeletons. A method is provided for learning ASM that describes the anatomical structure of the human skeleton. The model includes the steps described below.

最初のステップは例えば、骨格を8個の異なる学習セットに分割する(S205)。学習セットは、一貫したセグメンテーションを実現するために特に適している解剖学的部位に対応するように選択される。8個の異なる学習セットは以下に示される。
1)頭と脊椎の前面像に関する第1学習セット。
2)肋骨の前面像に関する第2学習セット。
3)腕の前面像に関する第3学習セット。
4)下半身の前面像に関する第4学習セット。
5)頭と脊椎の後面像に関する第5学習セット。
6)肋骨の後面像に関する第6学習セット。
7)腕の後面像に関する第7学習セット。
8)下半身の後面像に関する第8学習セット。
The first step, for example, divides the skeleton into eight different training sets (S205). The training set is selected to correspond to an anatomical site that is particularly suitable for achieving consistent segmentation. Eight different learning sets are shown below.
1) The first learning set on the front view of the head and spine.
2) The second learning set on the front view of the ribs.
3) The third learning set on the front view of the arm.
4) The 4th learning set on the front image of the lower body.
5) The fifth learning set on the posterior view of the head and spine.
6) The sixth learning set on the posterior view of the ribs.
7) The seventh learning set on the back view of the arm.
8) The eighth learning set on the lower back image of the lower body.

各学習セットは、多くの事例画像を提供する(S210)。各画像は、目標点のセットを用いて作成される。各目標点は、画像の特別な解剖学的または生物学的な点を表す座標ペアに関連付けられている。座標ペアは、対応する解剖学的/生物学的点を手動で特定することにより決定される(S215)。前面像では、以下の簡単に識別可能な解剖学的目標点が使用される。   Each learning set provides a number of case images (S210). Each image is created using a set of target points. Each target point is associated with a coordinate pair that represents a particular anatomical or biological point of the image. Coordinate pairs are determined by manually identifying corresponding anatomical / biological points (S215). In the frontal view, the following easily identifiable anatomical target points are used:

学習セットの統計量を取り込む前に、目標点の各セットは、8個の学習セットの夫々に対して異なる共通座標系に整列される。これは、非特許文献1に説明されているように、学習形状が互いにできるだけ近づくようにする、学習形状のスケーリング、回転、及び解釈により実現される。学習セットの統計量の検査により、学習セット内で観察される形状変化を含む2次元統計的ポイント分布モデルが得られる(S220)。この複数の骨格に亘る目標点(形状)の変化の統計的モデリングは、非特許文献1及び非特許文献2に説明されているように実行される。   Before capturing the training set statistics, each set of goal points is aligned to a different common coordinate system for each of the eight training sets. This is achieved by scaling, rotation, and interpretation of the learning shapes, as described in [1], to make the learning shapes as close together as possible. By examining the statistics of the learning set, a two-dimensional statistical point distribution model including shape changes observed in the learning set is obtained (S220). Statistical modeling of the change of the target point (shape) across the plurality of skeletons is performed as described in Non-Patent Document 1 and Non-Patent Document 2.

形状変化の結果として得られる統計モデルは、骨格を分割するために患者画像に適用されることができる。平均形状から始め、形状モデルの可能な変化の範囲内の新たな形状は、生成された骨格が患者画像内に存在する構造に似るように、学習セットの形状に似て生成されることができる。この方法を用いて分割される前面体セグメントは例えば、頭蓋骨、顔首、脊椎、上部胸骨、下部胸骨、右腕、左腕、右肋骨、左肋骨、右肩、左肩、骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。後面体セグメントは例えば、頭蓋骨、首、上部脊椎、下部脊椎、背骨、右腕、左腕、右肋骨、左肋骨、右肩甲骨、左肩甲骨、股関節、下部骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。   A statistical model obtained as a result of the shape change can be applied to the patient image to segment the skeleton. Starting from the mean shape, a new shape within the range of possible changes of the shape model can be generated to resemble the shape of the learning set, so that the generated skeleton resembles the structure present in the patient image . The front body segment divided using this method is, for example, skull, face neck, spine, upper sternum, lower sternum, right arm, left arm, right rib, left rib, right shoulder, left shoulder, pelvis, bladder, right femur, And the left femur. The back surface segment includes, for example, skull, neck, upper spine, lower spine, spine, right arm, left arm, right rib, left rib, right scapula, left scapula, hip, lower pelvis, bladder, right femur, and left femur It may be

検索プロセスの最初のステップは、前面像の平均形状に対する開始位置を見つけることであっても良い。例えば、頭の最高点が選択されても良い。なぜなら、それは、テストにおいて、ロバストな開始位置であることが証明され、画像上部内で各水平行内の特定閾値より大きい強度を検査することにより簡単に見つけられるためである。   The first step of the search process may be to find a starting position for the average shape of the frontal view. For example, the highest point of the head may be selected. Because it is proved to be a robust starting position in the test, it can be easily found by examining the intensity in the upper part of the image which is greater than a certain threshold in each horizontal row.

次に、患者画像内の骨格に合う骨格形状モデルの事例の検索は、非特許文献1及び非特許文献2に記述されたアルゴリズムに従って実行される。   Next, the search for the case of the skeletal shape model fitting the skeleton in the patient image is performed according to the algorithm described in Non-Patent Document 1 and Non-Patent Document 2.

以上の動作により、正規化部30は、骨シンチグラムセットから識別された骨格部位の領域、検出されたホットスポットの領域、ホットスポットの転移判定結果、患者の転移判定結果等を含む特徴データを、特徴データ記憶部36へ保存する。ここで、ホットスポットの転移判定結果を第1判定部140の判断機Dが算出する根拠となった各判別機Cの出力値も、ホットスポットの転移判定結果と関連づけて、特徴データ記憶部36に保存されるようにしてもよい。同様に、患者の転移判定結果を第2判定部160の判断機Dが算出する根拠となった各判別機Cの出力値も、患者の転移判定結果と関連づけて、特徴データ記憶部36に保存されるようにしてもよい。   By the above-described operation, the normalization unit 30 performs feature data including the region of the skeletal region identified from the bone scintigram set, the region of the detected hot spot, the transition determination result of the hot spot, the transition determination result of the patient, and the like. , And stored in the feature data storage unit 36. Here, the output value of each classifier C, on which the determination device D of the first determination unit 140 calculates the hot spot transition determination result, is also associated with the hot spot transition determination result, and the feature data storage unit 36 May be stored in the Similarly, the output value of each classifier C, on which the determination machine D of the second determination unit 160 calculates the patient's metastasis determination result, is also stored in the feature data storage unit 36 in association with the patient's metastasis determination result. It may be done.

以下、正規化部30による別の骨シンチグラム分割方法について説明する。   Hereinafter, another bone scintigram dividing method by the normalization unit 30 will be described.

別の骨シンチグラム分割方法が提供される。別の骨シンチグラム分割方法の目標は、前述の骨シンチグラム分割方法と同様、骨シンチグラム300内の骨格の異なる複数の解剖学的部位を認識して輪郭抽出することである。図7は、骨シンチグラムと骨格部位の一例を示す図である。この図に示されているように、骨格部位は、患者画像310に輪郭320を重ねることにより定義される。ここで述べた分割方法は、登録により表される分割である。   Another bone scintigram segmentation method is provided. The goal of another bone scintigram segmentation method is to recognize and delineate different anatomical parts of the skeleton in the bone scintigram 300, similar to the bone scintigram segmentation method described above. FIG. 7 is a diagram showing an example of a bone scintigram and a skeletal site. As shown in this figure, a skeletal site is defined by overlaying the contour 320 on the patient image 310. The division method described here is a division represented by registration.

画像登録方法は、或る画像を別の画像の座標系に変換する。これらの画像が、同一のオブジェクトクラス、ここでは骨格、の実体を表すと仮定する。変換された画像はソース画像で表され、一方で変換されない画像はターゲット画像で表される。同一の画像座標が、ソース画像とターゲット画像に含まれているオブジェクトにおける同一の幾何学的/解剖学的位置に一致する場合、ソース画像とターゲット画像の座標系は、一致すると言える。登録による分割は、ソース画像に手動で定義された分割を用いることと、分割が定義されていない場合にソース画像をターゲット画像に登録することである。ソース画像の分割は、それによってターゲット画像に変換され、従ってターゲット画像の分割を生成する。   The image registration method transforms one image into the coordinate system of another image. Suppose that these images represent entities of the same object class, here skeleton. The transformed image is represented by the source image, while the non-transformed image is represented by the target image. If the same image coordinates coincide with the same geometric / anatomical position in the objects contained in the source and target images, the coordinate system of the source and target images can be said to coincide. Division by registration is to use division defined manually in the source image and to register the source image in the target image when division is not defined. The segmentation of the source image is thereby converted into the target image, thus producing a segmentation of the target image.

この形態におけるソース画像の分割は、基準健康患者の解剖学的構造を定義し、多角形のセットとして臨床検査の専門家により手動で描かれる。図8は、健康基準画像セットの一例である。健康基準画像セットは、「アトラス」と呼ばれる。ここで、健康基準画像セットは、健康基準画像400a及び健康基準画像400bを有する。健康基準画像400aは、患者の正面像或いは前面像を示し、一方で健康基準画像400bは、患者の背面像或いは後面像を示す。健康基準画像400a及び健康基準画像400b内のラベルを夫々参照すると、これらの領域は、(1,1)とラベリングされた前部及び後部の頭蓋骨401,402、(2,2)とラベリングされた前部及び後部の頸椎403、404、(3,3)とラベリングされた前部及び後部の胸椎405、406、(14)とラベリングされた前部胸骨407、(4,4)とラベリングされた前部及び後部の腰椎409、408、(11,5)とラベリングされた前部及び後部の仙骨411、410、(15,14)とラベリングされた前部及び後部の骨盤、(5,6,7,6)とラベリングされた前部及び後部の左右の肩甲骨、(17,16)とラベリングされた前部及び後部の左右の鎖骨、(7,8,9,8)とラベリングされた前部及び後部の左右の上腕骨、(9,10,11,10)とラベリングされた前部及び後部の左右の肋骨、及び(12,13,12,13)ラベリングされた前部及び後部の左右の大腿骨413、415、412、414を定義する。   The segmentation of the source image in this form defines the anatomy of the reference healthy patient and is manually drawn by the clinical exam specialist as a set of polygons. FIG. 8 is an example of a health reference image set. The health reference image set is called the "atlas". Here, the health reference image set includes a health reference image 400a and a health reference image 400b. The health reference image 400a shows a front view or a front view of the patient, while the health reference image 400b shows a back view or a rear view of the patient. Referring to the labels in the health reference image 400a and the health reference image 400b, respectively, these areas are labeled as the anterior and posterior skulls 401, 402, (2, 2) labeled (1, 1) The anterior and posterior cervical spines 403, 404, the anterior and posterior thoracic vertebrae 405, 406, labeled (3, 3), the anterior sternal bone 407, labeled (14), the label (4, 4) Anterior and posterior lumbar vertebrae 409, 408, anterior and posterior sacrum 411, 410, labeled (11, 5), anterior and posterior pelvis, labeled (15, 14), (5, 6, Front and rear left and right scapula labeled 7,6), front and rear left and right clavicle labeled (17,16), front labeled (7,8,9,8) Part and rear Left and right humerus, anterior and posterior left and right ribs labeled (9, 10, 11, 10), and (12, 13, 12, 13) labeled anterior and posterior left and right femurs 413 , 415, 412, 414 are defined.

健康基準画像セットは、正規化部30によりソース画像として常に用いられ、一方、検査される患者画像はターゲット画像として働く。その結果は、ターゲット画像の骨シンチグラム300に描かれているような骨格部位への分割である。下腕と下肢は、解析のために考慮されない。   The health reference image set is always used as a source image by the normalization unit 30, while the patient image to be examined acts as a target image. The result is the segmentation of the target image into skeletal sites as depicted in bone scintigram 300. The lower arm and lower leg are not considered for analysis.

ソース画像として用いられる健康基準画像セットは、典型的な画質と正常な外観及び解剖学的構造を有する健康患者の10個の現実の事例から構成される。事例画像のグループから計算された平均的な強度及び解剖学的構造を有する架空の正常な健康患者の前面像及び後面像を生成するアルゴリズムが用いられる。正規化部30は、非特許文献3で説明されているようなこのタスクを実行する。健康基準画像セットは、結果として得られる解剖学的構造が確かに正常健康外観を有するように見える場合の結果を示す。この解剖学的構造は、数人の患者の解剖学的構造の平均化の結果であり、横方向対称性が高いことを示す。   The health reference image set used as a source image consists of 10 real cases of a healthy patient with typical image quality and normal appearance and anatomy. An algorithm is used to generate front and back views of a fictitious normal healthy patient having an average intensity and anatomical structure calculated from a group of case images. The normalization unit 30 performs this task as described in Non-Patent Document 3. The health reference image set shows the results when the resulting anatomical structure does indeed appear to have a normal healthy appearance. This anatomical structure is a result of the averaging of the anatomical structures of several patients and shows high lateral symmetry.

以下、正規化部30による骨シンチグラムの正規化方法について説明する。   Hereinafter, the bone scintigram normalization method by the normalization unit 30 will be described.

前述のように、ホットスポット検出部120は、形状識別部110からの情報を用いる。ホットスポット検出部120の目的は二つである。その第1の目的は、前面及び後面の患者画像内のホットスポットを分けることである。ホットスポットは、高輝度の分離された画像部位であり、骨格内にある時に転移性疾患の指標であっても良い。その第2の目的は、画像の強度を、予め定義された基準レベルに調整することである。このような強度の調整は、画像の正規化を表す。ここでは、そのアルゴリズムを説明する。このアルゴリズムは、同時に、ホットスポットを分離し、正規化因子を推定する。また、このアルゴリズムは、前面像及び後面像で別々に実行される。以下、最初に適切な正規化の必要性が簡潔に説明され、続いてこのアルゴリズムが説明される。   As described above, the hot spot detection unit 120 uses the information from the shape identification unit 110. The purpose of the hotspot detection unit 120 is twofold. The first purpose is to separate the hotspots in the front and back patient images. Hot spots are isolated image sites of high intensity and may be indicative of metastatic disease when within the skeleton. Its second purpose is to adjust the intensity of the image to a predefined reference level. Such intensity adjustments represent image normalization. Here, the algorithm is described. The algorithm simultaneously isolates the hotspots and estimates the normalization factor. Also, this algorithm is performed separately on the front and back views. In the following, the need for proper normalization is first briefly described, and then this algorithm is described.

複数の骨シンチグラムは、強度レベルにおいて、患者、研究、及びハードウェア構成により、大きく異なる。この差は増大傾向にあると推測され、ゼロの強度は全画像に対して共通の基準レベルであると推測される。従って、ソース画像をターゲット画像に関して正規化することは、ソース画像の強度をターゲット画像と等しいレベルにするスカラー因子を見つけることである。ここで、ソース画像内の骨格の健康部位の平均強度がターゲット画像内の対応する部位に等しい場合、二つの骨格画像の強度は等しいとして定義される。図9は、正規化部30による正規化方法を示すフローチャートである。このフローチャートに示されている正規化方法は、以下のステップを有する。   Multiple bone scintigrams vary widely at the intensity level depending on the patient, study, and hardware configuration. This difference is assumed to be on the rise, and an intensity of zero is assumed to be a common reference level for all images. Thus, normalizing the source image with respect to the target image is to find a scalar factor that makes the intensity of the source image equal to the target image. Here, the intensities of the two skeletal images are defined as equal if the average intensity of the skeletal healthy region in the source image is equal to the corresponding region in the target image. FIG. 9 is a flowchart showing a normalization method by the normalization unit 30. The normalization method shown in this flow chart has the following steps.

1.骨格に対応する画像要素の同定(S510)。
2.画像に含まれるホットスポットの同定(S520)。
3.骨格要素からホットスポット要素を除去(S530)。
4.残りの(健康)要素の平均強度の計算(S540)。
5.適切な正規化因子の計算(S550)。
6.正規化因子を乗算することによるソース画像強度の調整(S560)。
1. Identification of an image element corresponding to a skeleton (S510).
2. Identification of hotspots included in the image (S520).
3. Remove hotspot elements from skeletal elements (S530).
4. Calculation of the average intensity of the remaining (health) factors (S540).
5. Calculation of appropriate normalization factor (S550).
6. Adjustment of source image intensity by multiplying normalization factor (S560).

S510は、前述のように、形状識別部110により得られる変換された解剖学的部位により提供される骨格に属する画像部位の情報を用いて実行される。多角形の部位は、骨格の夫々の部位に属する画像要素を定義するバイナリ画像マスクに変換される。   As described above, S510 is performed using the information of the image site belonging to the skeleton provided by the transformed anatomical site obtained by the shape identification unit 110. The polygon sites are converted into binary image masks that define the image elements that belong to each part of the skeleton.

S520において、ホットスポットは、一つの画像フィルタリング演算と一つの閾値演算を用いて分割される。画像は、夫々の周囲に関する高強度の小さい部位を強調するDoG(difference-of-Gaussians)−BPF(band-pass filter)を用いてフィルタリングされる。フィルタリングされた画像は、その後、一定レベルで閾値判定され、その結果得られるバイナリ画像は、ホットスポット要素を定義する。   In S520, the hotspots are segmented using one image filtering operation and one threshold operation. Images are filtered using DoG (difference-of-Gaussians) -BPF (band-pass filter), which emphasizes small regions of high intensity with respect to their respective surroundings. The filtered image is then thresholded at a certain level, and the resulting binary image defines hotspot elements.

S530において、S510で計算された要素のうち、S520で計算されたホットスポット要素と一致する要素は、削除される。残りの要素は、健康骨格部位に対応すると推測される。   In S530, among the elements calculated in S510, elements corresponding to the hotspot element calculated in S520 are deleted. The remaining elements are presumed to correspond to healthy skeletal sites.

S540において、健康骨格要素の平均強度が計算される。この平均強度はAで表される。   At S540, the average strength of the health skeletal element is calculated. This average intensity is represented by A.

S550において、適切な正規化因子は、予め定義された基準強度レベルに関連して決定される。ここで、例えば、このレベルを1000に設定することができる。正規化因子Bは、(B=1000/A)のように計算される。   At S550, an appropriate normalization factor is determined in relation to a predefined reference intensity level. Here, for example, this level can be set to 1000. The normalization factor B is calculated as (B = 1000 / A).

S560において、ソース画像の強度は、Bを乗算することにより調整される。   At S560, the intensity of the source image is adjusted by multiplying B.

S520におけるホットスポット分割は、S550で計算された正規化因子により順次決定される画像の全体強度レベルに依存する。とは言え、S550で計算された正規化因子は、S520からのホットスポット分割に依存する。S520及びS550の結果が相互に依存しているので、S520からS560は例えば、S570において正規化因子におけるそれ以上の変化が発生しなくなるまで繰り返されても良い。広範に亘るテストでは、このプロセスが通常、3又は4回の繰り返しで収束することが示されている。   The hot spot segmentation in S520 depends on the overall intensity level of the image, which is sequentially determined by the normalization factor calculated in S550. Nevertheless, the normalization factor calculated in S550 depends on the hot spot split from S520. Because the results of S520 and S550 are interdependent, S520 to S560 may be repeated, for example, until no further change in the normalization factor occurs at S570. Extensive testing has shown that this process usually converges in three or four iterations.

図10は、正規化された骨シンチグラムセットの一例を示す図である。正規化画像600aは、正規化された骨シンチグラムセットの前面像を示し、正規化画像600bは、正規化された骨シンチグラムセットの後面像を示す。分割されたホットスポット620は、分割された画像610内に現れる濃いスポットとして正規化画像600a及び正規化画像600b内に示されている。従って、正規化部30は、癌転移を有するとしてこの患者を分類するだろう。   FIG. 10 is a diagram showing an example of a normalized bone scintigram set. The normalized image 600a shows a front view of the normalized bone scintigram set, and the normalized image 600b shows a back image of the normalized bone scintigram set. The segmented hotspots 620 are shown in the normalized image 600 a and the normalized image 600 b as dark spots appearing in the segmented image 610. Thus, normalization unit 30 would classify this patient as having cancer metastasis.

正規化部30は、前述の正規化方法による修正画像の正規化の結果を、正規化画像として正規化画像記憶部35へ保存する。   The normalization unit 30 stores the result of normalization of the corrected image by the above-described normalization method in the normalized image storage unit 35 as a normalized image.

上記の説明における用語「点」は、画像内の少なくとも一つのピクセルを表すために使用されることがある。   The term "point" in the above description may be used to denote at least one pixel in an image.

以下、第1判定部140への入力の具体例について説明する。   Hereinafter, a specific example of the input to the first determination unit 140 will be described.

第1判定部140には、各ホットスポットの大きさ、形状、方向、局在性、及び強度分布を測定する以下の27の特徴が与えられる。
・骨格病変。2次元ホットスポット領域と、対応する骨格領域の2次元領域と、骨格全体に関する骨格部位により表される体積割合を表す係数とに基づいて、抽出されたホットスポット部位により占有される骨格体積の尺度。(ホットスポット領域/局所領域*係数)として計算される。
・相対面積。対応する骨格部位に対するホットスポット領域。画像解像度及びスキャナ視野に依存しない尺度。
・相対重心位置(2機能)。対応する骨格部位の境界ボックスに対する相対的重心位置。値は、0(上、左)から1(下、右)の範囲である。
・質量の相対中心(2機能)。重心の機能に似ているが、xとyの値を計算する場合にホットスポット部位の強度を考慮に入れる。
・相対高さ。対応する骨格部位の高さに対するホットスポットの高さ。
・相対幅。対応する骨格部位の幅に対するホットスポットの幅。
・最小強度。対応する正規化された画像上の全てのホットスポット要素から計算される最小強度。
・最大強度。対応する正規化された画像上の全てのホットスポット要素から計算される最大強度。
・強度の総和。対応する正規化された画像上の全てのホットスポット要素から計算される強度の総和。
・平均強度。対応する正規化された画像上の全てのホットスポット要素から計算される平均強度。
・強度の標準偏差。対応する正規化された画像上の全てのホットスポット要素から計算される強度の標準偏差。
・境界長。ピクセル単位で測定されるホットスポットの境界の長さ。
・堅実性。ホットスポット領域により表されるホットスポットの凸包領域の割合。
・偏心。0(円)から1(線)で表されるホットスポットの伸び。
・ホットスポットカウントの総数。骨格全体の全てのホットスポット内の強度の総和。
・部位におけるホットスポットカウントの数。現在のホットスポットに対応する骨格部位に含まれているホットスポットの強度の総和。
・総ホットスポット範囲。対応する画像内の骨格部位全体に対する、骨格部位全体内の全てのホットスポットの面積。
・部位におけるホットスポット範囲。骨格部位の面積に対する現在のホットスポットに対応する骨格部位内の全てのホットスポットの面積。
・ホットスポットの総数。骨格全体のホットスポットの数。
・部位におけるホットスポットの数。現在のホットスポットに対応する骨格部位内のホットスポットの数。
・ホットスポット局所性(2機能)。X座標は、形状識別部110のステップにおいて変換された基準解剖学的構造から計算される中間線に対して、0(最も内側)から1(最も遠位)の範囲に亘る。Y座標は、0(最も優れる)から1(最も劣る)の範囲に亘る。全ての尺度は、対応する骨格部位に相対的である。
・距離非対称性。現在のホットスポットの質量の相対的中心と、対側の骨格部位内のホットスポットの質量の鏡像相対的中心との間の最小ユークリッド距離。対応する対側骨格部位を自然に有している骨格領域に対してのみ計算される。
・範囲非対称性。現在のホットスポットと対側骨格部位内のホットスポットの範囲との間の範囲の最小差。
・強度非対称性。現在のホットスポットと対側骨格部位内のホットスポットの強度との間の強度の最小差。
The first determination unit 140 is provided with the following 27 features for measuring the size, shape, direction, localization, and intensity distribution of each hot spot.
-Skeletal lesions. A measure of the skeletal volume occupied by the extracted hot spot sites based on the two dimensional hot spot area, the corresponding two dimensional area of the skeletal area, and the coefficients representing the volume fraction represented by the skeletal site for the whole skeleton . Calculated as (Hot spot area / local area * coefficient).
Relative area. Hot spot area for the corresponding skeletal site. Scale independent of image resolution and scanner field of view.
-Relative center of gravity position (2 functions). Relative center of gravity relative to the bounding box of the corresponding skeletal site. Values range from 0 (top, left) to 1 (bottom, right).
• Relative center of mass (2 functions). Similar to the function of the center of gravity, but taking the intensity of the hotspot site into account when calculating the x and y values.
-Relative height. Hotspot height relative to the corresponding skeletal site height.
Relative width. The width of the hotspot relative to the width of the corresponding skeletal site.
・ Minimum strength. Minimum intensity calculated from all hotspot elements on the corresponding normalized image.
Maximum strength. Maximum intensity calculated from all hotspot elements on the corresponding normalized image.
Sum of intensities. Sum of intensities calculated from all hotspot elements on the corresponding normalized image.
Average strength. Average intensity calculated from all hotspot elements on the corresponding normalized image.
Standard deviation of intensity. Standard deviation of intensity calculated from all hotspot elements on the corresponding normalized image.
Boundary length. Hotspot boundary length measured in pixels.
・ Consistency. Percentage of the convex hull area of the hotspot represented by the hotspot area.
・ Eccentric. Hot spot elongation represented by 0 (circle) to 1 (line).
The total number of hotspot counts. Sum of intensities in all hotspots across the skeleton.
The number of hotspot counts at the site. Sum of intensities of hotspots contained in the skeletal site corresponding to the current hotspot.
Total hotspot range. The area of all hotspots within the entire skeletal site, relative to the entire skeletal site in the corresponding image.
Hot spot coverage at the site. The area of all hotspots in the scaffold site corresponding to the current hotspot relative to the area of the scaffold site.
The total number of hotspots. Number of hotspots across the skeleton.
The number of hotspots at the site. Number of hotspots in the skeletal site corresponding to the current hotspot.
Hot spot locality (two functions). The X coordinate ranges from 0 (innermost) to 1 (most distal) with respect to the midline calculated from the reference anatomical structure converted in the step of the shape identification unit 110. The Y coordinate ranges from 0 (best) to 1 (worst). All measures are relative to the corresponding skeletal site.
Distance asymmetry. Minimum Euclidean distance between the relative center of the current hotspot mass and the mirror image relative center of the hotspot mass in the contralateral skeletal site. It is calculated only for skeletal regions that naturally have corresponding contralateral skeletal sites.
Range asymmetry. The smallest difference in range between the current hotspot and the range of hotspots in the contralateral skeletal site.
Strength asymmetry. Minimum difference in intensity between the current hotspot and the intensity of the hotspot in the contralateral skeletal site.

また、第1判定部140には、さらに被験者の画像を用いた検査以外の検査から得られた検査データを与えることができる。   In addition, test data obtained from a test other than a test using an image of a subject can be given to the first determination unit 140.

以下、第2判定部160への入力の具体例について説明する。   Hereinafter, a specific example of the input to the second determination unit 160 will be described.

転移性疾患の有無に関係する患者レベルの診断を判定する第2判定部160は、以下に列挙された34の特徴を入力として用いる。第2判定部160により用いられる全ての機能は、第1判定部140により高い転移確率を有するとして分類されたホットスポットから計算される。
・総病変。骨格全体の骨格病変の総和。
・頭蓋骨病変。頭蓋骨部位内の骨格病変の総和。
・頸椎柱病変。頸椎部柱部位内の骨格病変の総和。
・胸部柱病変。胸部柱部位内の骨格病変の総和。
・腰椎柱病変。腰部列地域の骨格病変の総和。
・上肢病変。上肢部位の骨格病変の総和。
・下肢病変。下肢部位の骨格病変の総和。
・胸部病変。胸部部位の骨格病変の総和。
・骨盤病変。骨盤部位の骨格病変の総和。
・「高い」ホットスポットの総数。
・頭蓋骨部位内の「高い」ホットスポットの数。
・頸椎柱部位内の「高い」ホットスポットの数。
・胸部柱部位内の「高い」ホットスポットの数。
・腰部柱部位内の「高い」ホットスポットの数。
・上肢部位内の「高い」ホットスポットの数。
・下肢部位内の「高い」ホットスポットの数。
・胸部部位内の「高い」ホットスポットの数。
・骨盤部位内の「高い」ホットスポットの数。
・頭蓋骨部位における第1判定部140が算出した最大値。
・頸椎部位における第1判定部140が算出した最大値。
・胸椎部位における第1判定部140が算出した最大値。
・腰椎部位における第1判定部140が算出した最大値。
・仙骨部位における第1判定部140が算出した最大値。
・上腕骨部位における第1判定部140が算出した最大値。
・鎖骨部位における第1判定部140が算出した最大値。
・肩甲骨部位における第1判定部140が算出した最大値。
・大腿部位における第1判定部140が算出した最大値。
・胸骨部位における第1判定部140が算出した最大値。
・肋骨部位における第1判定部140が算出した最大値。
・肋骨部位における第1判定部140が算出した2番目に大きい値。
・肋骨部位における第1判定部140が算出した3番目に大きい値。
・骨盤部位における第1判定部140が算出した最大値。
・骨盤部位における第1判定部140が算出した2番目に大きい値。
・骨盤部位における第1判定部140が算出した3番目に大きい値。
The second determination unit 160 that determines a patient level diagnosis related to the presence or absence of metastatic disease uses as an input the 34 features listed below. All functions used by the second determination unit 160 are calculated from the hot spots classified by the first determination unit 140 as having high transfer probability.
Total lesions. Sum of skeletal lesions across the skeleton.
-Skull lesions. Sum of skeletal lesions within the skull region.
Cervical vertebral lesion. Sum of skeletal lesions within the cervical vertebral column area.
Chest lesion. Sum of skeletal lesions within the thoracic column site.
Lumbar vertebral lesion. Sum of skeletal lesions in the lumbar row area.
Upper extremity lesions. Sum of skeletal lesions at upper limb sites.
Lower extremity lesions. Sum of skeletal lesions at lower extremity.
Chest lesions. Sum of skeletal lesions at the chest site.
-Pelvic lesions. Sum of skeletal lesions at pelvic region.
The total number of "high" hotspots.
The number of "high" hotspots in the skull region.
The number of "high" hotspots within the cervical column.
The number of "high" hotspots in the chest column area.
The number of "high" hotspots in the lumbar post region.
The number of "high" hotspots in the upper limb site.
The number of "high" hotspots in the lower extremity area.
The number of "high" hotspots in the chest area.
The number of "high" hotspots in the pelvic area.
The maximum value calculated by the first determination unit 140 in the skull region.
The maximum value calculated by the first determination unit 140 in the cervical spine region.
The maximum value calculated by the first determination unit 140 in the thoracic spine region.
The maximum value calculated by the first determination unit 140 in the lumbar region.
The maximum value calculated by the first determination unit 140 at the sacrum region.
The maximum value calculated by the first determination unit 140 at the humeral region.
The maximum value calculated by the first determination unit 140 at the clavicle site.
The maximum value calculated by the first determination unit 140 at the scapula site.
The maximum value calculated by the first determination unit 140 at the thigh site.
The maximum value calculated by the first determination unit 140 in the sternum region.
The maximum value calculated by the first determination unit 140 at the rib site.
The second largest value calculated by the first determination unit 140 at the rib site.
The third largest value calculated by the first determination unit 140 at the rib site.
The maximum value calculated by the first determination unit 140 in the pelvic region.
The second largest value calculated by the first determination unit 140 in the pelvic region.
The third largest value calculated by the first determination unit 140 in the pelvic region.

また、第2判定部160には、さらに被験者の画像を用いた検査以外の検査から得られた検査データを与えることができる。   Further, the second determination unit 160 can further provide test data obtained from a test other than the test using the image of the subject.

以上に説明したように、形状識別部110は、予め定義された骨格モデルを骨シンチグラムに合わせて変形させることにより、患者の体型に依らず、骨シンチグラム内の骨格部位を識別することができる。また、ホットスポット検出部120は、識別された骨格部位から予め定められた閾値より高いカウント値を有する領域であるホットスポットを検出することにより、異常集積を検出することができる。第1判定部140は、ホットスポット毎の癌転移の確率を計算するなどにより、ホットスポット毎に癌転移の判定をすることができる。第2判定部160は、患者の癌転移の確率を計算するなどにより、患者が癌転移を有するか否かを判定することができる。   As described above, the shape identification unit 110 can identify the skeletal site in the bone scintigram regardless of the patient's body shape by deforming the predefined skeletal model in accordance with the bone scintigram. it can. In addition, the hot spot detection unit 120 can detect abnormal accumulation by detecting hot spots which are areas having count values higher than a predetermined threshold value from the identified skeletal region. The first determination unit 140 can determine cancer metastasis for each hotspot by calculating the probability of cancer metastasis for each hotspot. The second determination unit 160 can determine whether or not the patient has a cancer metastasis by calculating the probability of the patient's cancer metastasis.

以下の説明において、正規化されたカウント値を正規化カウント値と呼ぶ。図11は、正規化前の骨シンチグラムのカウント値の分布を示すヒストグラムである。正規化前の骨シンチグラム3010と骨シンチグラム3020とにおいて、健康骨格要素である正常骨領域(正常領域)のカウント値の分布は異なる。即ち、骨シンチグラム3010の正常骨領域の平均カウント値3011と、骨シンチグラム3020の正常骨領域の平均カウント値3021とは異なる。図12は、正規化後の骨シンチグラムの正規化カウント値の分布を示すヒストグラムである。骨シンチグラム3010が正規化された骨シンチグラム3030と、骨シンチグラム3020が正規化された骨シンチグラム3040とを示す。骨シンチグラム3030と骨シンチグラム3040において、正常骨領域の正規化カウント値の分布は重なる。また、正常骨領域の平均カウント値3011、3021は、正規化により、正規化カウント値における1000に変換される。   In the following description, the normalized count value is referred to as a normalized count value. FIG. 11 is a histogram showing the distribution of count values of bone scintigrams before normalization. In the bone scintigram 3010 and the bone scintigram 3020 before normalization, the distribution of the count value of the normal bone area (normal area) which is a healthy skeletal element is different. That is, the average count value 3011 of the normal bone area of the bone scintigram 3010 and the average count value 3021 of the normal bone area of the bone scintigram 3020 are different. FIG. 12 is a histogram showing the distribution of normalized count values of bone scintigrams after normalization. The bone scintigram 3030 is a normalized bone scintigram 3010, and the bone scintigram 3020 is a normalized bone scintigram 3040. In bone scintigram 3030 and bone scintigram 3040, the distribution of normalized count values of normal bone areas overlap. Also, the average count value 3011, 3021 of the normal bone area is converted to 1000 in the normalized count value by normalization.

ホットスポット検出部120は、正規化画像に対応する撮像条件データを修正画像記憶部25から読み出し、正規化画像に関連付けて正規化画像記憶部35へ保存する。   The hot spot detection unit 120 reads imaging condition data corresponding to the normalized image from the corrected image storage unit 25, associates the imaging condition data with the normalized image, and stores the data in the normalized image storage unit 35.

ホットスポット検出部120は、骨格部位からホットスポットを除いた健康骨格要素を抽出し、骨シンチグラムを健康骨格要素の平均カウント値で正規化することにより、ホットスポットの影響を受けずに複数の骨シンチグラムの濃度を揃えることができる。   The hot spot detection unit 120 extracts a healthy skeletal element from which the hot spot has been removed from the skeletal site, and normalizes the bone scintigram with the average count value of the healthy skeletal element, so that multiple spots are not affected by hot spots. The concentration of bone scintigram can be made uniform.

正規化部30は、予め設定された閾値を用いて、第1判定部140の出力であるホットスポットの転移確率を判定し、ホットスポットを高リスク部位と低リスク部位に分類し、分類結果を特徴データに含めてもよい。正規化部30は、全ての骨格部位の面積に対する高リスク部位の面積の割合であるBSI(bone scan index)を計算し、計算結果を特徴データに含めてもよい。また、正規化部30は、高リスク部位数を計算し、計算結果を特徴データに含めてもよい。   The normalization unit 30 determines the transfer probability of the hot spot which is the output of the first determination unit 140 using a threshold set in advance, classifies the hot spot into the high risk site and the low risk site, and classifies the result. It may be included in feature data. The normalization unit 30 may calculate a bone scan index (BSI), which is a ratio of the area of the high risk site to the area of all skeletal sites, and may include the calculation result in the feature data. In addition, the normalization unit 30 may calculate the number of high risk parts and include the calculation result in the feature data.

なお、正規化部30は、他の正規化方法を用いて正規化画像を生成しても良い。   In addition, the normalization part 30 may produce | generate a normalization image using the other normalization method.

以下、調整部40について説明する。   The adjustment unit 40 will be described below.

撮像画像内の患者の領域のサイズは、撮像する検出器(ガンマカメラ)および収集条件によって異なる。撮像画像内の各ピクセルにより表される領域の実サイズであるピクセルサイズは、(基準視野/マトリクスサイズ/拡大率)で表される。基準視野は、検出器の視野の正方形の一辺の長さである。マトリクスサイズは、撮像画像を構成するマトリクスのうち基準視野の一辺に対応するピクセル数である。骨シンチグラムにおける拡大率は通常1である。撮像条件データは、ピクセルサイズ、基準視野及びマトリクスサイズを含む。複数の骨シンチグラムの撮像において、検出器(ガンマカメラ)および収集条件の違いによる患者領域のサイズが互いに異なることにより、読影者は表示される複数の骨シンチグラムの間で部位の実サイズを比較することが困難になる。   The size of the area of the patient in the captured image depends on the detector (gamma camera) to be imaged and the acquisition conditions. The pixel size, which is the actual size of the area represented by each pixel in the captured image, is represented by (reference field of view / matrix size / magnification ratio). The reference field of view is the length of one side of the square of the field of view of the detector. The matrix size is the number of pixels corresponding to one side of the reference visual field in the matrix forming the captured image. The magnification in bone scintigrams is usually 1. The imaging condition data includes pixel size, reference field of view and matrix size. In imaging of multiple bone scintigrams, the size of the patient area due to differences in the detector (gamma camera) and collection conditions differs from each other, allowing the reader to see the actual size of the region among the displayed plurality of bone scintigrams. It becomes difficult to compare.

調整部40は、正規化画像記憶部35から正規化画像とそれに対応する撮像条件データとを読み出す。その後、調整部40は、正規化画像に対応する撮像条件データに基づいて、正規化画像が特定の基準視野になるように、例えばピクセルサイズの拡大又は縮小およびマトリクスサイズの変更を行うことにより、調整画像を生成し、調整画像を調整画像記憶部45へ保存する。これにより、調整画像の基準視野は一定になる。   The adjustment unit 40 reads the normalized image and the imaging condition data corresponding to the normalized image from the normalized image storage unit 35. After that, the adjustment unit 40 performs, for example, enlargement or reduction of the pixel size and change of the matrix size so that the normalized image becomes a specific reference visual field, based on the imaging condition data corresponding to the normalized image. An adjustment image is generated, and the adjustment image is stored in the adjustment image storage unit 45. Thereby, the reference visual field of the adjustment image becomes constant.

調整部40は、調整画像に対応する撮像条件データを修正画像記憶部25から読み出し、調整画像に関連付けて調整画像記憶部45へ保存する。   The adjustment unit 40 reads imaging condition data corresponding to the adjustment image from the correction image storage unit 25, stores the imaging condition data in the adjustment image storage unit 45 in association with the adjustment image.

特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最新の基準視野であっても良い。また、特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最も多い基準視野であっても良い。また、特定の基準視野は、予め設定された基準視野であっても良い。   The particular reference field of view may be the current reference field of view in the reference fields of view of the bone scintigrams. In addition, the specific reference visual field may be the most frequent reference visual field among the reference visual fields of a plurality of bone scintigrams. Also, the specific reference visual field may be a preset reference visual field.

調整部40によれば、複数の骨シンチグラムの基準視野が一定になることにより、読影者は表示される複数の骨シンチグラム内の領域の実サイズを比較することができる。   According to the adjustment unit 40, by making the reference visual fields of the plurality of bone scintigrams constant, the reader can compare the actual sizes of the regions in the plurality of displayed bone scintigrams.

以下、変換部50について説明する。   Hereinafter, the conversion unit 50 will be described.

前述の正規化方法によれば、正規化カウント値を濃度として調整画像を表示することにより、正常骨領域のピクセルの濃度の範囲は揃えられる。但し、調整画像をそのまま表示しても、読影者による正常骨領域及びホットスポットの認識に適した濃度のスケールであるとは限らない。例えば、最大濃度に対応する正規化カウント値が高すぎると、正常骨領域のほとんどが白く表示され、読影者が表示された骨シンチグラム内の正常骨領域を認識できない場合がある。   According to the above-described normalization method, by displaying the adjusted image with the normalized count value as the density, the range of the density of the pixels of the normal bone area is aligned. However, even if the adjustment image is displayed as it is, it is not always the scale of the density suitable for the recognition of the normal bone area and the hot spot by the reader. For example, if the normalized count value corresponding to the maximum concentration is too high, most of the normal bone area may be displayed white and the reader may not be able to recognize the normal bone area in the displayed bone scintigram.

そこで、変換部50は、調整画像を表示する際、調整画像の正規化カウント値を適切なグレースケールの濃度に変換する。   Therefore, when displaying the adjusted image, the conversion unit 50 converts the normalized count value of the adjusted image into an appropriate gray scale density.

変換部50は、特定の飽和基準値がグレースケールの最大濃度に変換されるように、スケールレンジを決定する。飽和基準値は、特定の最大基準値に所定のレンジ係数を乗算した値である。最大基準値は例えば、前述の撮像画像データベースにおける骨シンチグラムを前述の正規化方法により正規化して得られる正規化カウント値に基づいて決定される。最大基準値は例えば、撮像画像データベースにおける最大の正規化カウント値と同じか大きい。レンジ係数は、0より大きく1より小さい。より好適な飽和基準値は、1000より大きく、撮像画像データベースにおける最大の正規化カウント値より小さい。   The converter 50 determines the scale range such that a particular saturation reference value is converted to a gray scale maximum density. The saturation reference value is a value obtained by multiplying a specific maximum reference value by a predetermined range coefficient. The maximum reference value is determined based on, for example, a normalized count value obtained by normalizing the bone scintigram in the above-mentioned captured image database by the above-mentioned normalization method. The maximum reference value is, for example, equal to or larger than the maximum normalized count value in the captured image database. The range factor is greater than zero and less than one. The more preferred saturation reference value is greater than 1000 and less than the largest normalized count value in the captured image database.

図13は、スケールレンジを示す図である。この図において、横軸は調整画像のピクセルの正規化カウント値を示し、縦軸は調整画像のピクセルの濃度を示す。これにより、正規化カウント値がゼロであるピクセルの濃度は、ゼロの濃度で表示される。正規化カウント値が飽和基準値以上であるピクセルは、最大濃度で表示される。正規化カウント値がゼロより大きく飽和基準値より小さいピクセルは、その正規化カウント値に応じた階調、例えば直線階調またはログ階調等の曲線階調により表示される。   FIG. 13 is a diagram showing a scale range. In this figure, the horizontal axis shows the normalized count value of the pixels of the adjusted image, and the vertical axis shows the density of the pixels of the adjusted image. Thereby, the density of the pixel whose normalized count value is zero is displayed at the density of zero. Pixels with normalized count values above the saturation reference value are displayed at maximum density. Pixels whose normalized count value is larger than zero and smaller than the saturation reference value are displayed by gradations corresponding to the normalized count value, for example, curved gradations such as linear gradations or log gradations.

変換部50によれば、調整画像の正規化カウント値を適切なグレースケールの濃度に変換することにより、読影者は表示された骨シンチグラム内の正常骨領域及びホットスポットを容易に認識することができる。なお、変換部50は、読影者による入力装置4の操作に基づいて、レンジ係数又は飽和基準値を調整しても良い。   According to the conversion unit 50, the reader can easily recognize the normal bone area and the hot spot in the displayed bone scintigram by converting the normalized count value of the adjusted image into an appropriate gray scale density. Can. The converter 50 may adjust the range coefficient or the saturation reference value based on the operation of the input device 4 by the image reader.

以下、生成部80について説明する。   Hereinafter, the generation unit 80 will be described.

生成部80は、読影者による入力装置4の操作に基づいて、表示の対象となる患者と複数の検査日を特定する。調整画像記憶部45内の複数の調整画像から、特定された患者と検査日に対応する調整画像を選択する。生成部80は、表示装置5に表示するための表示画面を生成し、選択された調整画像を時系列に従って表示画面内に配置する。   The generation unit 80 specifies a patient to be displayed and a plurality of examination dates based on the operation of the input device 4 by the image reader. From the plurality of adjustment images in the adjustment image storage unit 45, the adjustment image corresponding to the identified patient and examination date is selected. The generation unit 80 generates a display screen to be displayed on the display device 5, and arranges the selected adjustment image in the display screen in chronological order.

図14は、第1の表示態様を示す画面である。第1の表示態様による表示画面は、前面像を配置するための領域である前面像領域8100と、後面像を配置するための後面像領域8200とを有する。この例では、3個の調整画像セットが選択されたとする。生成部80は、選択された複数の調整画像セット内の複数の前面像8511、8521、8531を、前面像領域8100内の水平方向に検査日時順に並べ、選択された調整画像セット内の複数の後面像8512、8522、8532を、後面像領域8200内の水平方向に検査日時順に並べる。即ち、より新しい前面像は、前面像領域8100内のより右へ配置され、即ち、より新しい後面像は、後面像領域8200内のより右へ配置される。この時、生成部80は、並べられた複数の前面像8511、8521、8531の水平方向の中心を前面像領域8100内の水平方向の中心8101に合わせ、並べられた複数の後面像8512、8522、8532の水平方向の中心を後面像領域8200内の水平方向の中心8201に合わせる。前面像領域8100と後面像領域8200は、左右に配置されても良いし、上下に配置されても良い。生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、ホットスポットの転移判定結果、患者の転移判定結果、BSI、高リスク部位数等を付しても良い。   FIG. 14 is a screen showing a first display mode. The display screen according to the first display mode has a front image area 8100 which is an area for arranging a front image, and a rear surface image area 8200 for arranging a rear image. In this example, it is assumed that three adjustment image sets are selected. The generation unit 80 arranges the plurality of front images 8511, 8521 and 8531 in the selected plurality of adjustment image sets in the horizontal direction in the front image area 8100 in order of inspection date and time, and selects the plurality of front images 8511, 8521 and 8531 in the selected adjustment image set. The rear surface images 8512, 8522 and 8532 are arranged in the horizontal direction in the rear surface image area 8200 in order of inspection date and time. That is, a newer front image is located to the right in front image area 8100, ie, a newer back image is located to the right in back image area 8200. At this time, the generation unit 80 aligns the horizontal centers of the plurality of front images 8511, 8521 and 8531 aligned with the horizontal center 8101 in the front image area 8100, and arranges the plurality of rear images 8512 and 8522 arranged. Align the horizontal center of 8532 with the horizontal center 8201 in the back surface image area 8200. The front image area 8100 and the rear image area 8200 may be disposed left and right, or may be disposed vertically. The generation unit 80 may attach an inspection date to each of the front image and the rear image in the display screen based on the imaging condition data associated with the adjusted image set. Furthermore, the generation unit 80 determines, for each of the front image and the back image in the display screen, the hotspot determination result, the patient determination result, the BSI, and the high risk based on the feature data associated with the adjusted image set. The number of parts may be attached.

第1の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の夫々について、時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。   According to the first display mode, the reader can easily change the displayed bone scintigram over time by arranging the front image and the rear image in which the influence of the difference in the imaging conditions is reduced according to the time series. Can be grasped.

図15は、第2の表示態様を示す画面である。第2の表示態様による表示画面は、前面像と後面像のペアである調整画像セットを配置するための領域であるペア領域8300を有する。生成部80は、選択された調整画像セット8610、8620、8630を、領域8300内の水平方向に検査日時順に並べる。即ち、より新しい調整画像セットは、ペア領域8300内のより右へ配置される。この時、生成部80は、並べられた複数の調整画像セット8610、8620、8630の水平方向の中心をペア領域8300内の水平方向の中心8301に合わせる。ここで、調整画像セット8610は、前面像8511と後面像8512を有し、調整画像セット8620は、前面像8521と後面像8522を有し、調整画像セット8630は、前面像8531と後面像8532を有する。生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、ホットスポットの転移判定結果、患者の転移判定結果、BSI、高リスク部位数等を付しても良い。   FIG. 15 is a screen showing a second display mode. The display screen according to the second display mode has a pair area 8300 which is an area for arranging a set of adjusted images which is a pair of front and back images. The generation unit 80 arranges the selected adjusted image set 8610, 8620, 8630 in the horizontal direction in the area 8300 in order of examination date and time. That is, a newer adjusted image set is placed more to the right in the pair area 8300. At this time, the generation unit 80 aligns the horizontal centers of the plurality of arranged adjustment image sets 8610, 8620, 8630 with the horizontal center 8301 in the pair area 8300. Here, the adjustment image set 8610 has a front image 8511 and a back surface image 8512, the adjustment image set 8620 has a front image 8521 and a back surface image 8522, and the adjustment image set 8630 has a front image 8531 and a back surface image 8532 Have. The generation unit 80 may attach an examination date to each of the adjustment image sets in the display screen based on the imaging condition data associated with the adjustment image set. Furthermore, for each of the adjusted image sets in the display screen, the generation unit 80 determines, based on the feature data associated with the adjusted image set, the hot spot metastasis determination result, the patient metastasis determination result, the BSI, and the number of high risk areas. You may attach an etc.

生成部80は、図14または図15の表示画面において、ホットスポットの転移判定及び患者の転移判定について、再判定要求を受け付けられるようにしてもよい。例えば、生成部80は、再判定要求の受付手段として、表示画面内に所定のボタンを表示させてもよい。例えば、読影者の入力装置4の操作に応じて、表示画面が再判定要求を受け付けると、正規化部30がホットスポットの転移判定及び/または患者の転移判定を改めて実行するようにしてもよい。   The generation unit 80 may receive a re-determination request for the determination of the transition of the hotspot and the determination of the transition of the patient on the display screen of FIG. 14 or 15. For example, the generation unit 80 may display a predetermined button on the display screen as a means for receiving the redetermination request. For example, when the display screen receives a re-determination request according to the operation of the input device 4 by the image reader, the normalization unit 30 may perform again the transition determination of the hot spot and / or the transition determination of the patient. .

例えば、ホットスポットの転移確率または患者の転移確率が中間的な値(例えば0.4〜0.6の範囲)であるときは、転移であるか否かの診断を支援する情報として有効とは言えない。このような場合に、被験者についての新たな特徴量を追加データとして受け付けて、再判定を行うようにしてもよい。これは、第1判定部140及び第2判定部160が単一の判別機Cで構成されている場合、及び複数の判別機Cを含む場合のいずれでも共通である。好適には、新たな特徴量として検査データを用いてもよい。ホットスポットの転移判定及び/または患者の転移判定において、骨シンチグラム以外の検査データが転移判定の結果に大きく影響を及ぼすことがあるからである。
なお、再判定を行う場合、再判定前後のホットスポットの転移確率及び/または患者の転移確率を表示画面内に表示するようにしてもよい。再判定前後でホットスポットの転移確率または患者の転移確率が上昇したのか、または下降したのかは診断の支援において重要な情報となり得るからである。例えば、再判定後のホットスポットの転移確率または患者の転移確率が同じ0.5であったときでも、再判定前の転移確率から上昇して0.5となった場合と、下降して0.5となった場合とでは、意味が異なる。そのため、読影者が再判定後の転移確率のみを見て安易に判断してしまうことを避けることができる。
For example, when the transfer probability of the hotspot or the transfer probability of the patient is an intermediate value (for example, in the range of 0.4 to 0.6), it is effective as information supporting the diagnosis of whether or not it is a transfer. I can not say. In such a case, a new feature amount of the subject may be received as additional data to perform redetermination. This is common to both the case where the first determination unit 140 and the second determination unit 160 are configured by a single discriminator C, and the case where the plurality of discriminators C are included. Preferably, inspection data may be used as a new feature amount. This is because test data other than bone scintigram may greatly influence the result of metastasis judgment in the judgment of metastasis of a hotspot and / or the judgment of metastasis of a patient.
In the case of performing redetermination, the transfer probability of the hotspot and / or the transfer probability of the patient before and after the redetermination may be displayed on the display screen. It is because whether the transfer probability of the hotspot or the transfer probability of the patient has increased or decreased before and after the redetermination can be important information for supporting the diagnosis. For example, even if the transfer probability of the hotspot after redetermination or the transfer probability of the patient is the same 0.5, the transfer probability before the redetermination increases to 0.5, and falls to 0 In the case of .5, the meaning is different. Therefore, it is possible to avoid that the reader is easily judged by seeing only the transfer probability after re-judgment.

一方、第1判定部140が複数の判別機Cを含む場合は、生成部80は、さらに、特徴データにおいて、ホットスポットの転移判定結果と関連づけられている個別の判別機Cの出力値も表示画面内に表示させてもよい。同様に、第2判定部160が複数の判別機Cを含む場合は、生成部80は、患者の転移判定結果と関連づけられている個別の判別機Cの出力値も表示画面内に表示させてもよい。   On the other hand, when the first determination unit 140 includes a plurality of classifiers C, the generation unit 80 further displays, in the feature data, the output values of the individual classifiers C associated with the transition determination result of the hotspot. It may be displayed in the screen. Similarly, when the second determination unit 160 includes a plurality of discriminators C, the generation unit 80 also displays the output value of the individual discriminator C associated with the transition determination result of the patient in the display screen. It is also good.

このとき、個別の判別機Cの出力値はそれぞれの判定結果の信頼度を示すと考えられる。つまり、ホットスポットの転移確率または患者の転移確率が中間的な値ではなく、例えば0.2以下または0.8以上であったときでも、個別の判別機Cの出力値が異なれば、その確率の信頼度が異なることがある。例えば、患者の転移確率が同じ「0.8」であったときでも、3つの判別機Cの出力が、「1.0」、「0.7」、「0.4」である場合と、「0.8」、「0.8」、「0.8」である場合とでは、転移確率「0.8」の信頼度が異なると考えられる。そのため、読影者が転移確率と判別機Cの出力とを併せて見たときに必要と考えたときは、再判定要求の指示を受け付けられるようになっている。   At this time, the output value of the individual discriminator C is considered to indicate the reliability of each determination result. That is, even if the transfer probability of the hotspot or the transfer probability of the patient is not an intermediate value, for example, 0.2 or less or 0.8 or more, if the output value of the individual discriminator C is different, the probability May have different credibility. For example, even when the patient's metastasis probability is the same "0.8", the outputs of the three classifiers C are "1.0", "0.7" and "0.4", and The reliability of the transition probability "0.8" is considered to be different between "0.8", "0.8" and "0.8". Therefore, when the image reader considers it necessary when the transition probability and the output of the discriminator C are considered together, the instruction of the re-determination request can be accepted.

個別の判別機Cの出力値から算出した信頼度を表示してもよい。例えば、上記の例であれば、3つの判別機Cの出力値のバラツキによって、信頼度を定めてもよい。   The reliability calculated from the output value of the individual discriminator C may be displayed. For example, in the above example, the degree of reliability may be determined based on the variation of the output values of the three classifiers C.

さらに、生成部80は、第1判定部140及び第2判定部160を構成する判別機Cが単一であるか複数であるかにかかわらず、信頼度を別の方法で表示することもできる。第1判定部140の出力または第2判定部160の出力である、被験者が所定の状態であるか否かの確率は、その出力値がそのまま信頼度と関連する。特にホットスポットの転移確率または患者の転移確率が中間的な値であるときは信頼度が低いと考えられ、転移判定の結果とともに信頼度が低いことを示す表示をしてもよい。信頼度の表示は例えば、低信頼度、中信頼度、高信頼度のような複数の階級にわけ、その一つの階級を表示してもよい。階級は判別機Cまたは判断機Dの0〜1の出力値に応じて所定の閾値で任意にわけることができ、検査の目的などによってあらかじめ設定しておいてもよい。   Furthermore, the generation unit 80 can display the reliability by another method regardless of whether the number of the discriminator C configuring the first determination unit 140 and the second determination unit 160 is single or plural. . The probability as to whether or not the subject is in a predetermined state, which is the output of the first determination unit 140 or the output of the second determination unit 160, is directly related to the reliability of the output value. In particular, when the transfer probability of the hot spot or the transfer probability of the patient is an intermediate value, the reliability may be considered to be low, and it may be displayed that the reliability is low together with the result of the transfer determination. The indication of reliability may be divided into a plurality of classes such as, for example, low reliability, medium reliability, and high reliability, and one of the classes may be displayed. The class can be arbitrarily divided by a predetermined threshold value according to the output value of 0 to 1 of the discriminator C or the discriminator D, and may be set in advance according to the purpose of inspection or the like.

また、生成部80は、被験者の第1判定部140への入力であるホットスポット特徴セットデータ及び第2判定部160への入力である患者特徴セットデータに基づいて、信頼度を表示することもできる。例えば、第1判定部140に入力するホットスポット特徴セットデータのうちの1つの特徴において、所定以上の精度の判定結果を出力する特徴の範囲はあらかじめ得ることができる。また、第2判定部160に入力する患者特徴セットデータのうちの1つの特徴において、所定以上の精度の判定結果を出力する特徴の範囲もあらかじめ得ることができる。つまり、入力する被験者の特徴があらかじめ定めた特徴の範囲内であれば、この特徴に基づいて算出される判定結果は所定以上の精度を有すると考えられ、これを信頼度として用いることができる。例えば、入力する被験者のホットスポット特徴セットデータまたは患者特徴セットデータにおける各特徴が、それぞれあらかじめ定めた特徴の範囲内であった数に応じて信頼度を表示してもよい。この例では、その数が多いほど信頼度が高く少ないほど信頼度が低い。また、例えば、入力する被験者のホットスポット特徴セットデータまたは患者特徴セットデータにおける各特徴のうち、特定の特徴があらかじめ定めた特徴の範囲内であるか否かに応じて信頼度を表示してもよい。この例では、特定の特徴があらかじめ定めた特徴の範囲内であれば信頼度は高く、あらかじめ定めた特徴の範囲内でなければ信頼度は低い。ここで、特定の特徴は判定結果へ及ぼす寄与の大きい変動要因であり、判定結果において特定の特徴があらかじめ定めた特徴の範囲内であるか否かが強く関連している。   In addition, the generation unit 80 may also display the reliability based on the hotspot feature set data which is an input to the first determination unit 140 of the subject and the patient feature set data which is an input to the second determination unit 160. it can. For example, in one feature of the hotspot feature set data input to the first determination unit 140, the range of the feature for outputting the determination result of the predetermined accuracy or more can be obtained in advance. In addition, in one feature of the patient feature set data input to the second determination unit 160, a range of features for outputting a determination result with a predetermined accuracy or more can be obtained in advance. That is, if the feature of the subject to be input is within the range of the predetermined feature, the determination result calculated based on this feature is considered to have a predetermined accuracy or more, and this can be used as the reliability. For example, the degree of reliability may be displayed according to the number of each feature in the hotspot feature set data or patient feature set data of the input subject being within the range of the feature defined in advance. In this example, the higher the number, the higher the reliability, and the lower the reliability. Also, for example, among the features in the hotspot feature set data or patient feature set data of the subject to be input, the reliability may be displayed depending on whether or not the specific feature is within a predetermined feature range. Good. In this example, the reliability is high if the specific feature is within a predetermined range of features, and low if it is not within a predetermined range of features. Here, the specific feature is a variation factor having a large contribution to the determination result, and it is strongly related whether or not the specific feature is within the range of the predetermined feature in the determination result.

第2の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の複数のペアを時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。   According to the second display mode, by arranging a plurality of pairs of front and back images in which the influence of the difference in the imaging condition is reduced according to the time series, the radiogram reader carries out the temporal change of the displayed bone scintigram It can be easily grasped.

生成部80は、読影者による入力装置4の操作に応じて、第1及び第2の表示態様の何れかを選択しても良い。   The generation unit 80 may select one of the first and second display modes in accordance with the operation of the input device 4 by the image reader.

生成部80は、特徴データに示されている骨格部位の輪郭を、調整画像に重ねても良い。また、生成部80は、調整画像内の低リスク部位及び高リスク部位に夫々異なる色を付けても良い。   The generation unit 80 may superimpose the contour of the skeletal portion shown in the feature data on the adjustment image. In addition, the generation unit 80 may add different colors to the low risk area and the high risk area in the adjusted image.

生成部80は、表示画面内の各調整画像に転移可能性、BSI、高リスク部位数等の特徴データを付すことにより、読影者は、特徴データの経時変化を知ることができる。   The generation unit 80 adds the feature data such as the transferability, the BSI, and the number of high risk parts to each adjusted image in the display screen, so that the reader can know the temporal change of the feature data.

画像処理装置1は、調整画像を解析する解析部を有していても良い。この場合、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定の骨格部位を比較しても良い。また、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定のホットスポットの時系列を関連付けても良い。解析部が撮影条件の違いによる影響が低減された複数の調整画像を解析することにより、複数の撮像画像を解析する場合に比べて、解析の精度を向上させることができる。   The image processing apparatus 1 may have an analysis unit that analyzes the adjusted image. In this case, the analysis unit may use feature data in the feature data storage unit 36 to compare specific skeletal parts in adjusted images obtained in a plurality of inspections. In addition, the analysis unit may use the feature data in the feature data storage unit 36 to associate the time series of specific hot spots in the adjusted image obtained by the plurality of examinations. By analyzing the plurality of adjustment images in which the analysis unit has reduced the influence of the difference in the imaging conditions, the accuracy of the analysis can be improved as compared to the case of analyzing the plurality of captured images.

画像処理装置1は、前述の撮像画像データベースを有していても良い。また、画像処理装置1は、撮像画像記憶部10に格納されている撮像画像のうち、所定条件を満たす撮像画像を撮像画像データベースへ登録しても良い。   The image processing apparatus 1 may have the above-described captured image database. Further, the image processing apparatus 1 may register a captured image that satisfies a predetermined condition among the captured images stored in the captured image storage unit 10 in the captured image database.

上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。例えば、上述の実施形態では骨シンチグラムを対象としているが、これ以外にもCT、MRI、SPECT、PET、X線(レントゲン)などの画像を対象としても良い。   The embodiments of the present invention described above are exemplifications for explanation of the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can practice the present invention in various other aspects without departing from the scope of the present invention. For example, although bone scintigrams are used in the above-described embodiment, other images such as CT, MRI, SPECT, PET, and X-rays (X-rays) may be used.

1 :画像処理装置
4 :入力装置
5 :表示装置
10 :画像処理装置本体
15 :撮像画像記憶部
17 :検査データ記憶部
20 :修正部
25 :修正画像記憶部
30 :正規化部
35 :正規化画像記憶部
36 :特徴データ記憶部
40 :調整部
45 :調整画像記憶部
50 :変換部
60 :表示制御部
70 :記憶部
80 :生成部
1: Image processing device 4: Input device 5: Display device 10: Image processing device main body 15: Captured image storage unit 17: Examination data storage unit 20: Correction unit 25: Correction image storage unit 30: Normalization unit 35: Normalization Image storage unit 36: Feature data storage unit 40: Adjustment unit 45: Adjustment image storage unit 50: Conversion unit 60: Display control unit 70: Storage unit 80: Generation unit

Claims (15)

被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、コンピュータプログラム。
A computer program for a diagnosis support apparatus that receives subject data that is data about a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set, the second discriminator receiving an input of the subject data The second discriminator which outputs the discrimination result of 2;
And a judgment device that outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results indicate whether the subject is in a predetermined state,
The computer program , wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、コンピュータプログラム。
A computer program for a diagnosis support apparatus that receives subject data that is data about a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; The second discriminator, which receives the input of the subject data and outputs a second discrimination result.
And a judgment device that outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results indicate whether the subject is in a predetermined state,
The computer program , wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置であって、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備え
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、診断支援装置。
A diagnostic support device that receives subject data, which is data about a subject, and supports the diagnosis of the subject, comprising:
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set, the second discriminator receiving an input of the subject data The second discriminator which outputs the discrimination result of 2;
And a determination device that outputs diagnosis support information, which is information for supporting the diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results indicate whether the subject is in a predetermined state,
The diagnosis support apparatus, wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置であって、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備え
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、診断支援装置。
A diagnostic support device that receives subject data, which is data about a subject, and supports the diagnosis of the subject, comprising:
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; The second discriminator, which receives the input of the subject data and outputs a second discrimination result.
And a determination device that outputs diagnosis support information, which is information for supporting the diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results indicate whether the subject is in a predetermined state,
The diagnosis support apparatus, wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置が行う方法であって、
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、方法。
A diagnostic support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the method being performed by
The diagnosis support apparatus
A first discriminator including a learned algorithm in which the first machine learning algorithm is trained on the first data set;
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set;
A determination device that makes a determination according to the output of the first determination device and the output of the second determination device,
The first discriminator receives an input of the subject data and outputs a first discrimination result.
The second discriminator receives an input of the subject data and outputs a second discrimination result.
The judgment machine outputs diagnosis support information which is information for supporting diagnosis of the subject according to the first judgment result and the second judgment result .
The first and second determination results indicate whether the subject is in a predetermined state,
The method according to the present invention, wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置が行う方法であって、
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、方法。
A diagnostic support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the method being performed by
The diagnosis support apparatus
A first discriminator including a learned algorithm in which the first machine learning algorithm is trained on the first data set;
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; 2 classifiers,
A determination device that makes a determination according to the output of the first determination device and the output of the second determination device,
The first discriminator receives an input of the subject data and outputs a first discrimination result.
The second discriminator receives an input of the subject data and outputs a second discrimination result.
The judgment machine outputs diagnosis support information which is information for supporting diagnosis of the subject according to the first judgment result and the second judgment result .
The first and second determination results indicate whether the subject is in a predetermined state,
The method according to the present invention, wherein the diagnosis support information is information for supporting diagnosis of whether the subject is in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、コンピュータプログラム。
A computer program for a diagnosis support apparatus that receives subject data that is data about a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set, the second discriminator receiving an input of the subject data The second discriminator which outputs the discrimination result of 2;
And a judgment device that outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The computer program , wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether the subject is in the predetermined state or whether the subject is in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、コンピュータプログラム。
A computer program for a diagnosis support apparatus that receives subject data that is data about a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; The second discriminator, which receives the input of the subject data and outputs a second discrimination result.
And a judgment device that outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The computer program , wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether the subject is in the predetermined state or whether the subject is in the predetermined state .
前記診断支援情報と、前記第1及び第2の判別結果を表示装置に表示させる手段を、さらに前記診断支援装置に実現させる請求項1、2、7、または8に記載のコンピュータプログラム。   9. The computer program according to claim 1, further comprising means for causing the diagnosis support apparatus to implement means for causing the display device to display the diagnosis support information and the first and second determination results. 前記診断支援情報と、前記診断支援情報の信頼度を表示装置に表示させる手段を、さらに前記診断支援装置に実現させる請求項1、2、7、または8に記載のコンピュータプログラム。   9. The computer program according to claim 1, further comprising means for causing the diagnosis support apparatus to implement means for causing the display device to display the diagnosis support information and the reliability of the diagnosis support information. 再判定要求を受け付ける受付手段を、さらに前記診断支援装置に実現させ、
前記受付手段が再判定要求を受け付けたときは、前記被験者データ及び前記被験者の特徴を示す特徴データに基づいて、前記第1の判別機及び前記第2の判別機が新たな第1及び第2の判別結果を出力し、前記判断機が新たな診断支援情報を出力する、請求項1、2、7〜10のいずれか一項に記載のコンピュータプログラム。
Causing the diagnosis support apparatus to further realize reception means for receiving a re-determination request;
When the receiving means receives the re-determination request, the first discriminator and the second discriminator respectively add new first and second discriminators based on the subject data and the feature data indicating the features of the subject. The computer program according to any one of claims 1, 2, 7 to 10, which outputs the result of the discrimination and the judgment unit outputs new diagnosis support information.
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置であって、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備え
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、診断支援装置。
A diagnostic support device that receives subject data, which is data about a subject, and supports the diagnosis of the subject, comprising:
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set, the second discriminator receiving an input of the subject data The second discriminator which outputs the discrimination result of 2;
And a determination device that outputs diagnosis support information, which is information for supporting the diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The diagnosis support device, wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether or not the subject is in the predetermined state or in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置であって、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備え
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、診断支援装置。
A diagnostic support device that receives subject data, which is data about a subject, and supports the diagnosis of the subject, comprising:
A first discriminator including a learned algorithm in which a first machine learning algorithm is learned by a first data set, the first discriminator receiving an input of the subject data and outputting a first discrimination result. And the
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; The second discriminator, which receives the input of the subject data and outputs a second discrimination result.
And a determination device that outputs diagnosis support information, which is information for supporting the diagnosis of the subject, according to the first determination result and the second determination result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The diagnosis support device, wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether or not the subject is in the predetermined state or in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置が行う方法であって、
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、方法。
A diagnostic support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the method being performed by
The diagnosis support apparatus
A first discriminator including a learned algorithm in which the first machine learning algorithm is trained on the first data set;
A second discriminator including a learned algorithm in which the first machine learning algorithm is learned with a second data set different from the first data set;
A determination device that makes a determination according to the output of the first determination device and the output of the second determination device,
The first discriminator receives an input of the subject data and outputs a first discrimination result.
The second discriminator receives an input of the subject data and outputs a second discrimination result.
The judgment machine outputs diagnosis support information which is information for supporting diagnosis of the subject according to the first judgment result and the second judgment result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The method according to the present invention, wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether the subject is in the predetermined state or in the predetermined state .
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置が行う方法であって、
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力し、
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、方法。
A diagnostic support apparatus that receives subject data that is data related to a subject and supports diagnosis of the subject, the method being performed by
The diagnosis support apparatus
A first discriminator including a learned algorithm in which the first machine learning algorithm is trained on the first data set;
A second machine learning algorithm different from the first machine learning algorithm, and a learned algorithm obtained by learning the second data set different from the first data set or the second data set different from the first data set; 2 classifiers,
A determination device that makes a determination according to the output of the first determination device and the output of the second determination device,
The first discriminator receives an input of the subject data and outputs a first discrimination result.
The second discriminator receives an input of the subject data and outputs a second discrimination result.
The judgment machine outputs diagnosis support information which is information for supporting diagnosis of the subject according to the first judgment result and the second judgment result .
The first and second determination results are probabilities of whether or not the subject is in a predetermined state,
The method according to the present invention, wherein the diagnosis support information is information for supporting a diagnosis, which is a probability of whether the subject is in the predetermined state or in the predetermined state .
JP2015189885A 2015-09-28 2015-09-28 Diagnosis support apparatus, method and computer program Active JP6545591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015189885A JP6545591B2 (en) 2015-09-28 2015-09-28 Diagnosis support apparatus, method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015189885A JP6545591B2 (en) 2015-09-28 2015-09-28 Diagnosis support apparatus, method and computer program

Publications (2)

Publication Number Publication Date
JP2017067489A JP2017067489A (en) 2017-04-06
JP6545591B2 true JP6545591B2 (en) 2019-07-17

Family

ID=58492227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015189885A Active JP6545591B2 (en) 2015-09-28 2015-09-28 Diagnosis support apparatus, method and computer program

Country Status (1)

Country Link
JP (1) JP6545591B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113035327A (en) 2016-10-27 2021-06-25 普罗热尼奇制药公司 Network, decision support system and related Graphical User Interface (GUI) application for medical image analysis
JP6875709B2 (en) 2017-06-09 2021-05-26 株式会社Aiメディカルサービス A computer-readable recording medium that stores a disease diagnosis support method, a diagnosis support system, a diagnosis support program, and this diagnosis support program using endoscopic images of the digestive organs.
CN111655116A (en) 2017-10-30 2020-09-11 公益财团法人癌研究会 Image diagnosis support device, data collection method, image diagnosis support method, and image diagnosis support program
JP7170000B2 (en) 2018-01-24 2022-11-11 富士フイルム株式会社 LEARNING SYSTEMS, METHODS AND PROGRAMS
JP7154012B2 (en) * 2018-02-05 2022-10-17 日本メジフィジックス株式会社 Image processing program, image processing apparatus, and image processing method
WO2019245009A1 (en) 2018-06-22 2019-12-26 株式会社Aiメディカルサービス Method of assisting disease diagnosis based on endoscope image of digestive organ, diagnosis assistance system, diagnosis assistance program, and computer-readable recording medium having said diagnosis assistance program stored thereon
JP7037220B2 (en) 2018-11-21 2022-03-16 株式会社Aiメディカルサービス A computer-readable recording medium that stores a disease diagnosis support system using endoscopic images of the digestive organs, a method of operating the diagnosis support system, a diagnosis support program, and this diagnosis support program.
WO2020144134A1 (en) 2019-01-07 2020-07-16 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
CN113710159A (en) 2019-04-24 2021-11-26 普罗热尼奇制药公司 System and method for automated and interactive analysis of bone scan images to detect metastasis
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11721428B2 (en) * 2020-07-06 2023-08-08 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions

Also Published As

Publication number Publication date
JP2017067489A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6545591B2 (en) Diagnosis support apparatus, method and computer program
JP6013042B2 (en) Image processing program, recording medium, image processing apparatus, and image processing method
JP6170284B2 (en) Image processing program, recording medium, image processing apparatus, and image processing method
US7599539B2 (en) Anatomic orientation in medical images
USRE47609E1 (en) System for detecting bone cancer metastases
US6625303B1 (en) Method for automatically locating an image pattern in digital images using eigenvector analysis
Peng et al. Automated vertebra detection and segmentation from the whole spine MR images
US8139837B2 (en) Bone number determination apparatus and recording medium having stored therein program
US9241634B2 (en) Analytic morphomics: high speed medical image automated analysis method
EP2639763A1 (en) Method, Apparatus and System for Localizing a Spine
Huang et al. A set of image processing algorithms for computer-aided diagnosis in nuclear medicine whole body bone scan images
JP2009207727A (en) Vertebral body position determining device, method, and program
Šajn et al. Computerized segmentation of whole-body bone scintigrams and its use in automated diagnostics
KR102163701B1 (en) Apparatus and method for classifying spine
JP2017198697A (en) Image processing program, recording medium, image processing device, and image processing method
Al-Helo et al. Segmentation of lumbar vertebrae from clinical CT using active shape models and GVF-snake
Šajn et al. Computerized segmentation and diagnostics of whole-body bone scintigrams
Tabor et al. An automatic recognition of the frontal sinus in x-ray images of skull
EP2890299B1 (en) Analytic morphomics: high speed medical image automated analysis method
Wu et al. A new hierarchical method for multi-level segmentation of bone in pelvic CT scans
JP3975668B2 (en) Feature quantity correctness determination method and image processing apparatus
Desai et al. Arytenoid cartilage feature point detection using laryngeal 3D CT images in Parkinson's disease
KR102218900B1 (en) Apparatus and method for diagnosing disease
KR102196503B1 (en) Apparatus and method for detecting the spine
Maity et al. Feature extraction of bone scintigraphy for diagnosis of diseases

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190619

R150 Certificate of patent or registration of utility model

Ref document number: 6545591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250