JP6013042B2 - Image processing program, recording medium, image processing apparatus, and image processing method - Google Patents

Image processing program, recording medium, image processing apparatus, and image processing method Download PDF

Info

Publication number
JP6013042B2
JP6013042B2 JP2012144230A JP2012144230A JP6013042B2 JP 6013042 B2 JP6013042 B2 JP 6013042B2 JP 2012144230 A JP2012144230 A JP 2012144230A JP 2012144230 A JP2012144230 A JP 2012144230A JP 6013042 B2 JP6013042 B2 JP 6013042B2
Authority
JP
Japan
Prior art keywords
image
evaluation value
unit
value
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012144230A
Other languages
Japanese (ja)
Other versions
JP2014009945A (en
Inventor
明泰 菊池
明泰 菊池
一公 河上
一公 河上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exini Diagnostics AB
Original Assignee
Exini Diagnostics AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exini Diagnostics AB filed Critical Exini Diagnostics AB
Priority to JP2012144230A priority Critical patent/JP6013042B2/en
Publication of JP2014009945A publication Critical patent/JP2014009945A/en
Application granted granted Critical
Publication of JP6013042B2 publication Critical patent/JP6013042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、被験者の体内の放射性薬剤の分布状態を撮像した画像を処理する技術に関する。   The present invention relates to a technique for processing an image obtained by imaging a distribution state of a radiopharmaceutical in a body of a subject.

従来、被験者の体内の放射性薬剤の分布状態を撮像した画像、例えば骨シンチグラフィの画像(以下、骨シンチグラムと称する)に基づいて診断を行う場合、医師等の読影者が画像を目視で確認して、放射性薬剤が異常に集積している箇所を特定し、これに基づいて診断が行われている。この場合、正しい診断をくだせるか否かは読影者の経験に依存してしまう。   Conventionally, when making a diagnosis based on an image obtained by imaging the distribution state of a radiopharmaceutical in a subject's body, for example, a bone scintigraphy image (hereinafter referred to as a bone scintigram), a doctor or other interpreter visually confirms the image Then, the location where the radiopharmaceutical is abnormally accumulated is specified, and the diagnosis is performed based on this. In this case, whether or not a correct diagnosis can be made depends on the experience of the interpreter.

そこで、時間的に連続したデジタル医用画像の間でサブトラクションを行って経時変化を強調することにより、診断の精度を高める技術が知られている(例えば特許文献1)。また、同一被験者の骨シンチグラムにおいて、過去に撮影した画像(過去画像)と今回撮影した画像(現在画像)との差分画像を生成し、読影者を支援する技術が知られている(例えば特許文献2)。   Thus, a technique is known in which the accuracy of diagnosis is improved by performing subtraction between digital medical images that are temporally continuous to emphasize temporal changes (for example, Patent Document 1). In addition, a technique for generating a difference image between an image captured in the past (past image) and an image captured this time (current image) in a bone scintigram of the same subject to assist an image reader is known (for example, a patent) Reference 2).

特許4130661号公報Japanese Patent No. 4130661 国際公開WO2007/062135 A2International Publication WO2007 / 062135 A2

A new computer−based decision−support system for the interpretation of bone scans by Sadik M. et al published in Nuclear Medicine Communication nr. 27: pp. 417−423.A new computer-based decision-support system for the impression of bone scan by Sadik M.A. et al published in Nucleic Medicine Communication nr. 27: pp. 417-423. Active shape models − their training and application, T. F. Cootes, C. J. Taylor, D. H. Cooper and J. Graham presented in Computer Vision and Image Understanding, Vol. 61, no. 1, pp. 38−59, 1995.Active shape models-tear training and application, T.A. F. Cootes, C.I. J. et al. Taylor, D.D. H. Cooper and J.M. Graham presented in Computer Vision and Image Understanding, Vol. 61, no. 1, pp. 38-59, 1995. Application of the Active Shape Model in a commercial medical device for bone densitometry, H. H. Thodberg and A. Rosholm presented in the Proceedings of the 12th British Machine Vision Conference, 43−52, 2001.Application of the Active Shape Model in a commercial medical device for bone densitometry, H.C. H. Thodberg and A.M. Rosholm presented in the Processings of the 12th British Machine Vision Conference, 43-52, 2001. Average brain models: A convergence study, Guimond A. Meunier J. Thirion J.−P presented in Computer Vision and Image Understanding, 77(2), pp.192−210, 2000.Average brain models: A convergence study, Guimond A. Meunier J.M. Tillion J. -P presented in Computer Vision and Image Understanding, 77 (2), pp. 192-210, 2000. Non−Rigid Registration using Morphons, A. Wrangsjo, J. Pettersson, H. Knutsson presented in Proceedings of the 14th Scandinavian conference on image analysis (SCIA’05), Joensuu June 2005.Non-Rigid Registration using Morphons, A.R. Wrangsjo, J .; Petersson, H.C. Knutsson presented in Proceedings of the 14th Scandinavian conference on image analysis (SCIA'05), Joensuu June 2005. Morphons: Segmentation using Elastic Canvas and Paint on Priors, H. Knutsson, M. Andersson presented in ICIP 2005, Genova, Italy, September 2005.Morphons: Segmentation using Elastic Canvas and Paint on Priors, H.M. Knutsson, M.M. Andersson presented in ICIP 2005, Genova, Italy, September 2005.

同一被験者について長期間に亘る複数の検査を行う場合、検査によって検出器の種類や被験者の体調や放射性薬剤の投与量等の撮像条件が異なる場合がある。この場合、例えば、複数の画像における同等の異常が、大きく異なる画素値で表される場合がある。従って、これら複数の画像が並べて表示されたとしても、読影者がそれらの画像を比較して適切な判断をすることは容易ではない。   When performing a plurality of examinations over a long period of time on the same subject, imaging conditions such as the type of detector, the physical condition of the subject, and the dose of the radiopharmaceutical may differ depending on the examination. In this case, for example, an equivalent abnormality in a plurality of images may be represented by greatly different pixel values. Therefore, even if these multiple images are displayed side by side, it is not easy for an image interpreter to compare these images and make an appropriate determination.

そこで、本発明の目的は、被験者の体内の放射性薬剤の分布状態を撮像した複数の画像の撮像条件が異なる場合であっても、それらの画像を精度高く比較できるように読影者に情報提供することである。   Therefore, an object of the present invention is to provide information to an image reader so that the images can be compared with high accuracy even when the imaging conditions of a plurality of images obtained by imaging the distribution state of the radiopharmaceutical in the subject's body are different. That is.

本発明の一つの実施態様に従う画像処理プログラムは、被験者の体内の放射性薬剤の分布状態を撮像した画像を記憶するコンピュータのための画像処理プログラムであって、前記画像内の画素値に基づいて評価値を計算する計算ステップと、前記評価値が特定範囲外であるか否かを判定する判定ステップと、前記評価値が前記特定範囲外である場合、前記画像内の画素値を前記評価値に基づいて変更する変更ステップと、をコンピュータに実行させる。   An image processing program according to one embodiment of the present invention is an image processing program for a computer that stores an image obtained by imaging a distribution state of a radiopharmaceutical in a body of a subject, and is evaluated based on a pixel value in the image. A calculation step for calculating a value; a determination step for determining whether or not the evaluation value is outside a specific range; and if the evaluation value is outside the specific range, a pixel value in the image is set as the evaluation value. And making the computer execute a change step that changes based on the change step.

好適な実施形態では、前記変更ステップは、前記評価値が前記特定範囲外である場合、前記変更された画像の評価値が前記特定範囲内の特定値になるように前記画像の画素値を変更してもよい。   In a preferred embodiment, when the evaluation value is outside the specific range, the changing step changes the pixel value of the image so that the evaluation value of the changed image becomes a specific value within the specific range. May be.

好適な実施形態では、前記特定範囲及び前記特定値は、複数の画像に基づいて夫々計算された複数の評価値に基づいて決定されてもよい。   In a preferred embodiment, the specific range and the specific value may be determined based on a plurality of evaluation values respectively calculated based on a plurality of images.

好適な実施形態では、前記計算ステップは、前記画像内の画素値の総和に基づいて前記評価値を計算してもよい。   In a preferred embodiment, the calculating step may calculate the evaluation value based on a sum of pixel values in the image.

好適な実施形態では、前記計算ステップは、前記画像内の特定の領域の画素値の総和に基づいて前記評価値を計算してもよい。   In a preferred embodiment, the calculating step may calculate the evaluation value based on a sum of pixel values of a specific region in the image.

好適な実施形態では、前記画像は、骨シンチグラムであり、前記被験者の前面像及び後面像を含んでもよい。   In a preferred embodiment, the image is a bone scintigram and may include an anterior and posterior image of the subject.

好適な実施形態では、前記計算ステップは、前記前面像内の画素値と前記後面像内の画素値とに基づいて前記評価値を計算し、前記変更ステップは、前記評価値が前記特定範囲外である場合、前記前面像内の画素値と前記後面像内の画素値とを前記評価値に基づいて変更してもよい。   In a preferred embodiment, the calculating step calculates the evaluation value based on a pixel value in the front image and a pixel value in the rear image, and the changing step includes determining that the evaluation value is outside the specific range. In this case, the pixel value in the front image and the pixel value in the rear image may be changed based on the evaluation value.

好適な実施形態では、更に、前記画像を含む複数の画像を正規化する正規化ステップと、前記正規化された複数の画像を撮像された時刻に対応させて配置することにより表示画像を生成し、表示装置に前記表示画像を表示させる表示制御ステップと、をコンピュータに実行させてもよい。   In a preferred embodiment, a normalization step of normalizing a plurality of images including the image, and generating a display image by arranging the normalized plurality of images corresponding to the time when the images were captured. A display control step for displaying the display image on a display device may be executed by a computer.

好適な実施形態では、前記コンピュータは、前記複数の画像の視野のサイズに関するサイズ情報を記憶し、前記表示制御ステップは、前記サイズ情報に基づいて、前記表示画像内の前記正規化された複数の画像の視野を合わせてもよい。   In a preferred embodiment, the computer stores size information related to a size of a field of view of the plurality of images, and the display control step is configured to determine the normalized plurality of normalized images in the display image based on the size information. The field of view of the image may be matched.

好適な実施形態では、前記表示制御ステップは、別の被験者の体内の放射性薬剤の分布状態が撮像された画像が正規化された画像内の最大の画素値に基づいて決定された基準値を用い、前記正規化された複数の画像における前記基準値以下の画素値を、グレースケールに変換してもよい。   In a preferred embodiment, the display control step uses a reference value determined based on a maximum pixel value in an image obtained by normalizing an image obtained by imaging a distribution state of a radiopharmaceutical in another subject's body. The pixel values not more than the reference value in the normalized images may be converted to gray scale.

好適な実施形態では、前記表示制御ステップは、前記表示画像内の第1領域内に、前記正規化された複数の画像ペアの中の前面像を前記複数の時刻の順に配置し、前記表示画像内の第2領域内に、前記正規化された複数の画像ペアの中の後面像を前記複数の時刻の順に配置してもよい。   In a preferred embodiment, the display control step arranges front images in the normalized image pairs in the first region in the display image in the order of the plurality of times, and the display image. In the second region, rear images of the normalized image pairs may be arranged in the order of the times.

好適な実施形態では、前記表示制御ステップは、前記表示画像内に、前記正規化された複数の画像ペアを前記複数の時刻の順に配置してもよい。   In a preferred embodiment, the display control step may arrange the plurality of normalized image pairs in the display image in the order of the plurality of times.

好適な実施形態では、前記正規化ステップは、前記複数の画像の夫々から健康な領域である正常領域を検出し、前記正常領域の画素値に基づいて、前記正常領域を含む画像の画素値を正規化してもよい。   In a preferred embodiment, the normalizing step detects a normal region that is a healthy region from each of the plurality of images, and calculates a pixel value of the image including the normal region based on a pixel value of the normal region. You may normalize.

好適な実施形態では、前記正規化ステップは、前記複数の画像の夫々の中の骨格部位を識別し、前記骨格部位の中から前記正常領域を検出してもよい。   In a preferred embodiment, the normalizing step may identify a skeletal site in each of the plurality of images and detect the normal region from the skeletal site.

好適な実施形態では、前記正規化ステップは、前記複数の画像の夫々から複数の領域を検出し、前記検出された複数の領域の中から、健康でない領域である異常領域と前記正常領域とを検出してもよい。   In a preferred embodiment, the normalizing step detects a plurality of regions from each of the plurality of images, and selects an abnormal region that is an unhealthy region and the normal region from the plurality of detected regions. It may be detected.

好適な実施形態では、前記正規化ステップは、前記複数の画像の夫々について、前記正常領域の画素値の平均値を計算し、前記正常領域を含む画像の画素値を前記平均値で除算することにより前記正常領域を含む画像の画素値を正規化してもよい。   In a preferred embodiment, the normalizing step calculates an average value of pixel values of the normal area for each of the plurality of images, and divides a pixel value of an image including the normal area by the average value. The pixel value of the image including the normal area may be normalized by

好適な実施形態では、前記正規化ステップは、前記骨格部位の中から画素値が所定条件を満たす特定領域を検出し、前記骨格部位のうち前記特定領域を除いた領域を前記正常領域として検出してもよい。   In a preferred embodiment, the normalizing step detects a specific region in which a pixel value satisfies a predetermined condition from the skeletal region, and detects a region excluding the specific region from the skeleton region as the normal region. May be.

好適な実施形態では、前記正規化ステップは、前記骨格部位の中から画素値が所定閾値を超える領域を前記特定領域として検出してもよい。   In a preferred embodiment, the normalizing step may detect, as the specific region, a region where a pixel value exceeds a predetermined threshold value from the skeleton region.

本実施形態に係る画像処理装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus 1 which concerns on this embodiment. 画像処理装置1の動作を示すフローチャートである。3 is a flowchart showing an operation of the image processing apparatus 1. 修正部20の動作を示すフローチャートである。4 is a flowchart showing the operation of the correction unit 20. 正規化部30の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a normalization unit 30. FIG. 正規化部30による骨シンチグラム分割方法を示すフローチャートである。3 is a flowchart showing a bone scintigram dividing method by a normalization unit 30. 骨シンチグラムと骨格部位の一例を示す図である。It is a figure which shows an example of a bone scintigram and a skeleton part. 健康基準画像セットの一例であるIt is an example of a health reference image set 正規化部30による正規化方法を示すフローチャートである。4 is a flowchart illustrating a normalization method performed by a normalization unit 30. 正規化された骨シンチグラムセットの一例を示す図である。It is a figure which shows an example of the normalized bone scintigram set. 正規化前の骨シンチグラムのカウント値の分布を示すヒストグラムである。It is a histogram which shows distribution of the count value of the bone scintigram before normalization. 正規化後の骨シンチグラムの正規化カウント値の分布を示すヒストグラムである。It is a histogram which shows distribution of the normalization count value of the bone scintigram after normalization. 骨シンチグラムにおける高強度領域の平均画素値の順位と高強度領域の平均画素値との関係の一例を示す図である。It is a figure which shows an example of the relationship between the order | rank of the average pixel value of a high intensity | strength area | region in a bone scintigram, and the average pixel value of a high intensity | strength area | region. スケールレンジを示す図である。It is a figure which shows a scale range. 第1の表示態様を示す画面である。It is a screen which shows a 1st display mode. 第2の表示態様を示す画面である。It is a screen which shows a 2nd display mode.

以下、本発明の一実施形態に係る画像処理装置について、図面を参照して説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。同図に示すように、画像処理装置1は、画像処理装置本体10と、キーボード、タッチパネル、ポインティングデバイスなどの入力装置4と、液晶ディスプレイなどの表示装置5とを有する。画像処理装置本体10は、修正部20と、正規化部30と、表示制御部60と、記憶部70とを有する。表示制御部60は、調整部40と、変換部50と、生成部80とを有する。   FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus 1 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 1 includes an image processing apparatus main body 10, an input device 4 such as a keyboard, a touch panel, and a pointing device, and a display device 5 such as a liquid crystal display. The image processing apparatus main body 10 includes a correction unit 20, a normalization unit 30, a display control unit 60, and a storage unit 70. The display control unit 60 includes an adjustment unit 40, a conversion unit 50, and a generation unit 80.

画像処理装置本体10は、例えば汎用的なコンピュータシステムにより構成され、以下に説明する画像処理装置本体10内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータシステムは、メモリとマイクロプロセッサを有する。記憶部70は、メモリにより実現されても良い。このコンピュータプログラムは、コンピュータ読み取り可能な記録媒体に格納されて配布されることができる。   The image processing apparatus main body 10 is configured by, for example, a general-purpose computer system, and individual components or functions in the image processing apparatus main body 10 described below are realized by, for example, executing a computer program. The computer system has a memory and a microprocessor. The storage unit 70 may be realized by a memory. The computer program can be stored and distributed in a computer-readable recording medium.

記憶部70は、撮像画像記憶部15と、修正画像記憶部25と、正規化画像記憶部35と、特徴データ記憶部36と、調整画像記憶部45とを有する。撮像画像記憶部15は、撮像された骨シンチグラムである撮像画像を記憶する。骨シンチグラムは、被験者の体内の放射性薬剤の分布状態が撮像された画像である。撮像画像セットは、或る患者の或る検査により撮像された、前面像の撮像画像と後面像の撮像画像とのペアである。本実施形態において、骨シンチグラム内の各ピクセルの値(画素値)は、画像を撮影する前に人間の体内に注入された放射性物質(放射性同位体:ラジオアイソトープ)からの放射強度を示すカウント値である。また、撮像画像記憶部15は、検査日時、前面又は後面を示す情報、基準視野等を含む撮像条件データを、撮像画像に関連付けて記憶する。   The storage unit 70 includes a captured image storage unit 15, a corrected image storage unit 25, a normalized image storage unit 35, a feature data storage unit 36, and an adjustment image storage unit 45. The captured image storage unit 15 stores a captured image that is a captured bone scintigram. The bone scintigram is an image obtained by imaging the distribution state of the radiopharmaceutical in the body of the subject. The captured image set is a pair of a captured image of a front image and a captured image of a rear image captured by a certain examination of a certain patient. In this embodiment, the value (pixel value) of each pixel in the bone scintigram is a count indicating the radiation intensity from a radioactive substance (radioisotope: radioisotope) injected into the human body before taking an image. Value. In addition, the captured image storage unit 15 stores imaging condition data including the inspection date and time, information indicating the front or rear surface, a reference visual field, and the like in association with the captured image.

図2は、画像処理装置1の動作を示すフローチャートである。このフローは、検査により撮像画像セットが撮像画像記憶部15へ保存される度に実行されても良いし、或る患者の複数の撮像画像セットが撮像画像記憶部15へ保存された状態で、診察や解析のために実行されても良い。   FIG. 2 is a flowchart showing the operation of the image processing apparatus 1. This flow may be executed every time a captured image set is stored in the captured image storage unit 15 by an examination, or a plurality of captured image sets of a certain patient are stored in the captured image storage unit 15. It may be performed for examination or analysis.

修正部20は、撮像画像記憶部15に格納されている撮像画像を予め定められた規格に従って修正し、その結果である修正画像を修正画像記憶部25へ保存する(S20)。   The correction unit 20 corrects the captured image stored in the captured image storage unit 15 in accordance with a predetermined standard, and stores the corrected image as a result in the corrected image storage unit 25 (S20).

その後、正規化部30は、修正画像記憶部25に格納されている修正画像から骨格部位やホットスポット等の特徴を検出し、その結果である特徴データを修正画像に関連付けて特徴データ記憶部36へ保存する。更に、正規化部30は、特徴データに基づいて修正画像を正規化し、その結果である正規化画像を正規化画像記憶部35へ保存する(S30)。   Thereafter, the normalization unit 30 detects features such as a skeletal region and a hot spot from the corrected image stored in the corrected image storage unit 25, and associates the resulting feature data with the corrected image to the feature data storage unit 36. Save to Further, the normalizing unit 30 normalizes the corrected image based on the feature data, and stores the normalized image as a result in the normalized image storage unit 35 (S30).

その後、表示制御部60は、正規化画像記憶部35に格納されている正規化画像を調整して配置することにより表示画面を生成し、表示画面を表示装置5に表示させ(S60)、このフローを終了する。   Thereafter, the display control unit 60 generates a display screen by adjusting and arranging the normalized images stored in the normalized image storage unit 35, and causes the display device 5 to display the display screen (S60). End the flow.

表示制御部60において、調整部40は、正規化画像記憶部35に格納されている正規化画像のサイズを調整し、その結果である調整画像記憶部45へ保存する。変換部50は、調整画像記憶部45に格納されている調整画像の画素値をグレースケールの濃度に変換する。生成部80は、調整画像を時系列に従って配置することにより表示画面を生成し、表示装置5に表示させる。   In the display control unit 60, the adjustment unit 40 adjusts the size of the normalized image stored in the normalized image storage unit 35 and stores it in the adjusted image storage unit 45 as a result. The conversion unit 50 converts the pixel value of the adjusted image stored in the adjusted image storage unit 45 into a gray scale density. The generation unit 80 generates a display screen by arranging the adjustment images in time series and causes the display device 5 to display the display screen.

なお、生成部80は、特徴データ記憶部36に格納されている特徴データを、調整画像に関連付けて表示画面内に配置しても良い。   Note that the generation unit 80 may arrange the feature data stored in the feature data storage unit 36 in the display screen in association with the adjustment image.

画像処理装置1によれば、撮像された複数の骨シンチグラムにおいて、撮影条件の違いの影響を低減することができる。また、複数の骨シンチグラムを時系列に従って表示装置5に表示させることにより、読影者は複数の骨シンチグラムの経時変化を判断することが容易になる。   According to the image processing apparatus 1, it is possible to reduce the influence of differences in imaging conditions in a plurality of captured bone scintigrams. In addition, by displaying a plurality of bone scintigrams on the display device 5 according to a time series, it becomes easy for an image interpreter to determine temporal changes of the plurality of bone scintigrams.

以下、修正部20の詳細について説明する。   Details of the correction unit 20 will be described below.

図3は、修正部20の動作を示すフローチャートである。前述のS20において、修正部20はこのフローを実行する。   FIG. 3 is a flowchart showing the operation of the correction unit 20. In S20 described above, the correction unit 20 executes this flow.

修正部20は、撮像画像記憶部15から撮像画像セットを読み出し、読み出された撮像画像セットが予め定められた規格を満たすか否かを判定する(S2020)。   The correction unit 20 reads the captured image set from the captured image storage unit 15 and determines whether or not the read captured image set satisfies a predetermined standard (S2020).

例えば、修正部20は、撮像画像セット内の特定の領域のピクセルのカウント値から評価値を計算し、その評価値が規格範囲内であれば、撮像画像セットが予め定められた規格を満たすと判定する。評価値は例えば、前画像及び後画像の全ピクセルのカウント値の合計に基づいて計算される。より好適な評価値は、(前画像の全ピクセルのカウント値の合計+後画像の全ピクセルのカウント値の合計)/2で表される。規格範囲は例えば、標準撮像条件下で撮像された複数の撮像画像セットを格納する撮像画像データベースに基づいて決定される。即ち、修正部20は、撮像画像セットの評価値が規格範囲内であれば、その撮像画像セットが標準撮像条件下で撮像されたものであると判定する。規格範囲の下限は例えば、撮像画像データベース内の各撮像画像セットから計算された評価値の最小値より小さく、規格範囲の上限は例えば、撮像画像データベース各撮像画像セットから計算された評価値の最大値より大きい。実際の撮像画像データベースに基づいて決定された規格範囲において、下限は例えば1,200,000であり、上限は例えば、2,200,000である。   For example, the correction unit 20 calculates an evaluation value from the count value of pixels in a specific area in the captured image set, and if the evaluation value is within a standard range, the captured image set satisfies a predetermined standard. judge. The evaluation value is calculated based on, for example, the sum of the count values of all pixels in the previous image and the subsequent image. A more preferable evaluation value is represented by (sum of count values of all pixels of the previous image + sum of count values of all pixels of the subsequent image) / 2. The standard range is determined based on, for example, a captured image database that stores a plurality of captured image sets captured under standard imaging conditions. That is, if the evaluation value of the captured image set is within the standard range, the correcting unit 20 determines that the captured image set is captured under the standard imaging condition. The lower limit of the standard range is, for example, smaller than the minimum value of the evaluation value calculated from each captured image set in the captured image database, and the upper limit of the standard range is, for example, the maximum of the evaluation value calculated from each captured image set in the captured image database. Greater than value. In the standard range determined based on the actual captured image database, the lower limit is, for example, 1,200,000, and the upper limit is, for example, 2,200,000.

撮像画像セットが規格を満たす場合(S2020:Yes)、修正部20は、撮影画像セットを修正せずに修正画像セットとして修正画像記憶部25へ保存し(S2030)、このフローを終了する。   When the captured image set satisfies the standard (S2020: Yes), the correcting unit 20 stores the captured image set in the corrected image storage unit 25 as a corrected image set without correcting (S2030), and ends this flow.

撮像画像セットが規格を満たさない場合(S2020:No)、修正部20は、評価値に基づいてスケーリングファクタを計算し、撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより修正画像セットを生成して修正画像記憶部25へ保存し(S2040)、このフローを終了する。スケーリングファクタは例えば、(基準評価値/評価値)で表される。規格を満たさないと判定された撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより、その結果である修正画像セットの評価値は基準評価値になる。基準評価値は、規格範囲内の値である。実際の撮像画像データベースに基づいて決定された基準評価値は例えば、1,800,000である。   When the captured image set does not satisfy the standard (S2020: No), the correction unit 20 calculates a scaling factor based on the evaluation value, and generates a corrected image set by multiplying each pixel of the captured image set by the scaling factor. And it preserve | saves to the correction image memory | storage part 25 (S2040), and complete | finishes this flow. The scaling factor is expressed by, for example, (reference evaluation value / evaluation value). By multiplying each pixel of the captured image set determined not to satisfy the standard by the scaling factor, the evaluation value of the modified image set as a result becomes the reference evaluation value. The reference evaluation value is a value within the standard range. The reference evaluation value determined based on the actual captured image database is 1,800,000, for example.

修正部20は、修正画像に対応する撮像条件データを撮像画像記憶部15から読み出し、修正画像に関連付けて修正画像記憶部25へ保存する。   The correction unit 20 reads the imaging condition data corresponding to the corrected image from the captured image storage unit 15 and stores it in the corrected image storage unit 25 in association with the corrected image.

ここで、修正部20の変形例について説明する。   Here, a modification of the correction unit 20 will be described.

修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の統計量に基づいて規格範囲及び基準評価値を決定しても良い。   The correction unit 20 may determine the standard range and the reference evaluation value based on the statistic of the evaluation value calculated from each captured image set in the captured image database.

第1の変形例において、修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の平均値及び標準偏差SDを計算する。更に修正部20は、評価値の平均値を基準評価値とし、(平均値−所定偏差)を規格範囲の下限とし、(平均値+所定偏差)を規格範囲の上限とする。所定偏差は例えば、SDや2SD等、SDに基づいて決定される。   In the first modification, the correction unit 20 calculates the average value and the standard deviation SD of the evaluation values calculated from each captured image set in the captured image database. Furthermore, the correction unit 20 sets the average value of the evaluation values as the reference evaluation value, sets (average value−predetermined deviation) as the lower limit of the standard range, and sets (average value + predetermined deviation) as the upper limit of the standard range. The predetermined deviation is determined based on SD such as SD or 2SD.

第2の変形例において、修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値を大きい順に並べて評価値の中央値を検出する。このとき、修正部20は、評価値の中央値を基準評価値とし、中央値から所定数だけ下位に位置する評価値を規格範囲の下限とし、中央値から所定数だけ上位に位置する評価値を規格範囲の上限とする。所定数は例えば、撮像画像データベース内の撮像画像セット数(症例数)に所定割合を乗じた値である。所定割合は例えば、25%である。   In the second modification, the correcting unit 20 arranges the evaluation values calculated from the respective captured image sets in the captured image database in descending order to detect the median evaluation value. At this time, the correction unit 20 sets the median value of the evaluation values as the reference evaluation value, sets the evaluation value positioned lower than the median by a predetermined number as the lower limit of the standard range, and sets the evaluation value positioned higher than the median as the predetermined value. Is the upper limit of the standard range. The predetermined number is, for example, a value obtained by multiplying the number of captured image sets (number of cases) in the captured image database by a predetermined ratio. The predetermined ratio is, for example, 25%.

第3の変形例において、修正部20は、評価値の中央値を基準評価値とし、中央値から所定偏差だけ低い評価値を規格範囲の下限とし、中央値から所定偏差だけ高い評価値を規格範囲の上限とする。所定偏差は例えば、SDや2SD等、SDに基づいて決定される。   In the third modification, the correction unit 20 sets the median evaluation value as the reference evaluation value, sets the evaluation value lower than the median by a predetermined deviation as the lower limit of the standard range, and standardizes the evaluation value higher than the median by the predetermined deviation. The upper limit of the range. The predetermined deviation is determined based on SD such as SD or 2SD.

また、第4及び第5の変形例において、評価値は、前画像及び後画像の中の特定の骨領域内のピクセルのカウント値の合計に基づいて計算される。この場合、修正部20は、撮像画像セットから特定の骨領域を検出しても良いし、予め設定された骨領域を用いても良い。より好適な評価値は、(前画像の特定の骨領域内のカウント値の合計+後画像の特定の骨領域内のカウント値の合計)/2で表される。   In the fourth and fifth modified examples, the evaluation value is calculated based on the sum of the count values of the pixels in the specific bone region in the previous image and the subsequent image. In this case, the correction unit 20 may detect a specific bone region from the captured image set, or may use a preset bone region. A more preferable evaluation value is represented by (sum of count values in a specific bone region of the previous image + sum of count values in a specific bone region of the subsequent image) / 2.

第4の変形例において、修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の平均値、最大値、最小値を計算する。修正部20は、評価値の平均値を基準評価値とし、評価値の最小値を規格範囲の下限とし、評価値の最大値を規格範囲の上限とする。   In the fourth modification, the correction unit 20 calculates the average value, the maximum value, and the minimum value of the evaluation values calculated from each captured image set in the captured image database. The correction unit 20 sets the average value of the evaluation values as the reference evaluation value, sets the minimum value of the evaluation values as the lower limit of the standard range, and sets the maximum value of the evaluation values as the upper limit of the standard range.

第5の変形例において、修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の平均値及び標準偏差SDを計算する。このとき、修正部20は、評価値の平均値を基準評価値とし、平均値から所定偏差を減じた値を規格範囲の下限とし、平均値に所定偏差を加えた値を規格範囲の上限とする。所定偏差は例えば、SDや2SD等、SDに基づいて決定される。   In the fifth modification, the correction unit 20 calculates the average value and the standard deviation SD of the evaluation values calculated from each captured image set in the captured image database. At this time, the correction unit 20 sets the average value of the evaluation values as the reference evaluation value, sets the value obtained by subtracting the predetermined deviation from the average value as the lower limit of the standard range, and sets the value obtained by adding the predetermined deviation to the average value as the upper limit of the standard range. To do. The predetermined deviation is determined based on SD such as SD or 2SD.

以上が修正部20の動作である。   The above is the operation of the correction unit 20.

以上に説明したように、修正部20は、カウント値が規格外であると判定された撮像画像セットを、規格を満たすように修正することができる。言い換えれば、標準撮像条件下で撮影されていない撮像画像セットのカウント値を、標準撮像条件下で撮影された撮像画像セットのカウント値の範囲内に修正することができる。これにより、その後の処理の精度を向上させることができる。   As described above, the correction unit 20 can correct the captured image set whose count value is determined to be out of the standard so as to satisfy the standard. In other words, the count value of the captured image set that is not captured under the standard imaging condition can be corrected within the range of the count value of the captured image set that is captured under the standard imaging condition. Thereby, the accuracy of subsequent processing can be improved.

以下、正規化部30について説明する。   Hereinafter, the normalization unit 30 will be described.

正規化部30は、修正画像記憶部25から修正画像セットを読み出す。以下の説明において、修正画像を骨シンチグラムや患者画像と呼ぶことがある。   The normalization unit 30 reads the corrected image set from the corrected image storage unit 25. In the following description, the corrected image may be called a bone scintigram or a patient image.

図4は、正規化部30の構成を示すブロック図である。正規化部30は、入力画像メモリ105と、形状識別部110と、注釈付画像メモリ115と、ホットスポット検出部120と、第1ホットスポットメモリ125と、ホットスポット特徴抽出部130と、第2ホットスポットメモリ135と、第1ANN部140と、第3ホットスポットメモリ145と、患者特徴抽出部150と、患者特徴メモリ155と、第2ANN部160とを有する。ここで、ANNとは、人工ニューラルネットワーク(artificial neural network)である。   FIG. 4 is a block diagram showing a configuration of the normalization unit 30. As shown in FIG. The normalization unit 30 includes an input image memory 105, a shape identification unit 110, an annotated image memory 115, a hot spot detection unit 120, a first hot spot memory 125, a hot spot feature extraction unit 130, a second It has a hot spot memory 135, a first ANN unit 140, a third hot spot memory 145, a patient feature extraction unit 150, a patient feature memory 155, and a second ANN unit 160. Here, ANN is an artificial neural network.

入力画像メモリ105は、骨シンチグラムセットを格納する。一回の診断により得られる骨シンチグラムセットは、患者の正面から撮像した前面像と、患者の背面から撮像した後面像とを有する。   The input image memory 105 stores a bone scintigram set. The bone scintigram set obtained by one diagnosis has a front image captured from the front of the patient and a rear image captured from the back of the patient.

形状識別部110は、入力画像メモリ105に接続されており、骨シンチグラムセットに含まれる骨格の解剖学的構造を識別する。形状識別部110は、予め定義された骨格モデルを有する。骨格モデルは少なくとも一つの解剖学的部位(セグメント)を有する。各部位は、一般的な骨格の解剖学的部分を表す。骨格モデルは、骨シンチグラムセットの骨格に合うように調整される。   The shape identifying unit 110 is connected to the input image memory 105 and identifies the anatomical structure of the skeleton included in the bone scintigram set. The shape identifying unit 110 has a predefined skeleton model. The skeletal model has at least one anatomical site (segment). Each site represents a general skeletal anatomical part. The skeletal model is adjusted to fit the skeleton of the bone scintigram set.

注釈付画像メモリ115は、形状識別部110に接続されており、注釈付画像セットを格納する。注釈付画像セットは、形状識別部110からの、骨シンチグラムセットの異なる複数の骨格部位に対応する複数の解剖学的構造に関する情報に基づく。   The annotated image memory 115 is connected to the shape identifying unit 110 and stores an annotated image set. The annotated image set is based on information regarding a plurality of anatomical structures corresponding to a plurality of skeletal parts having different bone scintigram sets from the shape identification unit 110.

ホットスポット検出部120は、注釈付画像メモリ115に接続されており、注釈付画像セットの高強度領域を検出する。ホットスポット検出部120の一つの形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する閾値走査部を有する。好適なホットスポット検出部120は、形状識別部110により定義された異なる複数の解剖学的部位に対する異なる複数の閾値を有する。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状と位置を決定する。   The hot spot detection unit 120 is connected to the annotated image memory 115 and detects a high intensity region of the annotated image set. One form of hot spot detector 120 has a threshold scan that scans the bone scintigram set and identifies pixels that exceed a certain threshold. The preferred hot spot detector 120 has different thresholds for different anatomical sites defined by the shape identifier 110. In this case, the hot spot feature extraction unit 130 extracts at least one hot spot feature for each hot spot, and determines the shape and position of each hot spot.

ホットスポット検出部120の別の形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する画像正規化フィルタリング部を有しても良い。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状、テクスチャ、幾何学的形状を決定する。好適なホットスポット特徴のセット内の各特徴の詳細は、第1ANN部140の入力の具体例として後述される。   Another form of hot spot detection unit 120 may include an image normalization filtering unit that scans the bone scintigram set and identifies pixels that exceed a certain threshold. In this case, the hot spot feature extraction unit 130 extracts at least one hot spot feature for each hot spot, and determines the shape, texture, and geometric shape of each hot spot. Details of each feature within the preferred set of hot spot features will be described below as a specific example of the input of the first ANN unit 140.

検出された高強度領域、所謂「ホットスポット」に関して、以上のように生成される情報は、第1ホットスポットメモリ125に格納される。   Regarding the detected high intensity region, so-called “hot spot”, information generated as described above is stored in the first hot spot memory 125.

ホットスポット特徴抽出部130は、第1ホットスポットメモリ125に接続されており、ホットスポット検出部120により検出された各ホットスポットのホットスポット特徴のセットを抽出する。抽出されたホットスポット特徴は、第2ホットスポットメモリ135に格納される。   The hot spot feature extraction unit 130 is connected to the first hot spot memory 125 and extracts a set of hot spot features of each hot spot detected by the hot spot detection unit 120. The extracted hot spot feature is stored in the second hot spot memory 135.

第1ANN部140は、第2ホットスポットメモリ135に接続されており、ホットスポットセットの各ホットスポットが転移(癌転移、骨転移)である尤度(ホットスポットの転移可能性)を計算する。第1ANN部140は、ホットスポット特徴抽出部130により生成されたホットスポットセットの各ホットスポットの特徴が供給される。尤度計算は、ホットスポット特徴抽出部130により抽出されたホットスポット特徴セットに基づく。尤度計算の結果は、第3ホットスポットメモリ145に格納される。   The first ANN unit 140 is connected to the second hot spot memory 135, and calculates the likelihood (hot spot metastasis possibility) that each hot spot of the hot spot set is metastasis (cancer metastasis, bone metastasis). The first ANN unit 140 is supplied with the features of each hot spot of the hot spot set generated by the hot spot feature extracting unit 130. The likelihood calculation is based on the hot spot feature set extracted by the hot spot feature extraction unit 130. The result of the likelihood calculation is stored in the third hot spot memory 145.

好ましくは、第1ANN部140内に、各解剖学的部位に対して学習したANNが配置されている。或る部位内の各ホットスポットは、その部位からのホットスポットを処理するように配置されたANNにより順次処理される。   Preferably, the ANN learned for each anatomical part is arranged in the first ANN unit 140. Each hot spot within a site is processed sequentially by an ANN arranged to process hot spots from that site.

患者特徴抽出部150は、第2ホットスポットメモリ135及び第3ホットスポットメモリ145に接続されており、ホットスポット検出部120により検出されて第2ホットスポットメモリ135に格納されているホットスポットの数と、第3ホットスポットメモリ145に格納されている第1ANN部140からの尤度の出力値とに基づいて、患者特徴セットを抽出する。患者特徴抽出部150は、ホットスポット特徴抽出部130からのデータと第1ANN部140の出力のデータの両方を用いて計算を実行する。抽出された患者特徴は、患者特徴メモリ155に格納される。好適な、抽出された特徴は、第2ANN部160の入力の具体例として後述される。   The patient feature extraction unit 150 is connected to the second hot spot memory 135 and the third hot spot memory 145, and the number of hot spots detected by the hot spot detection unit 120 and stored in the second hot spot memory 135. The patient feature set is extracted based on the likelihood output value from the first ANN unit 140 stored in the third hot spot memory 145. The patient feature extraction unit 150 performs calculation using both the data from the hot spot feature extraction unit 130 and the data output from the first ANN unit 140. The extracted patient feature is stored in the patient feature memory 155. A suitable extracted feature will be described later as a specific example of the input of the second ANN unit 160.

第2ANN部160は、患者特徴メモリ155に接続されており、患者特徴抽出部150により抽出されて患者特徴メモリ155に格納されている患者特徴セットに基づいて、患者が少なくとも一つの癌転移を持っている転移可能性(患者の転移可能性)を計算する。正規化部30は、オプションで閾値判定部165を有してもよい。閾値判定部165の一つの形態は、第2ANN部160から出力された尤度が予め定義された閾値を超える場合に「yes、患者が少なくとも一つの癌転移を持っている」に対応する値を出力すること、及び第2ANN部160から出力された尤度が予め定義された閾値を超えない場合に「no、患者は癌転移を持っていない」に対応する値を出力することにより、「yes又はno」判定を行う。別のオプションの形態の閾値判定部165は、出力を四つの診断の一つに階級分けする。四つの診断とは、「確実に正常」、「おそらく正常」、「おそらく転移」、及び「確実に転移」である。   The second ANN unit 160 is connected to the patient feature memory 155, and the patient has at least one cancer metastasis based on the patient feature set extracted by the patient feature extraction unit 150 and stored in the patient feature memory 155. Calculate the metastatic potential (patient metastasis potential). The normalization unit 30 may optionally include a threshold determination unit 165. One form of the threshold determination unit 165 has a value corresponding to “yes, the patient has at least one cancer metastasis” when the likelihood output from the second ANN unit 160 exceeds a predefined threshold. "Yes, the patient does not have cancer metastasis" when the likelihood output from the second ANN unit 160 does not exceed a predefined threshold value, and "yes" Or “no” determination. Another optional form of threshold determination unit 165 classifies the output into one of four diagnoses. The four diagnoses are “definitely normal”, “probably normal”, “probably metastasized”, and “definitely metastatic”.

これらの形態を用いて行われたテストは、上記の形態の何れかに基づく正規化部30が良く動作したことを示す。上記の形態の一つにおいて、感度は90%まで測定され、特異度も90%まで測定された。このテスト方法は、非特許文献1に説明されているテスト方法と同一である。   Tests performed using these forms indicate that the normalization unit 30 based on any of the above forms worked well. In one of the above forms, the sensitivity was measured up to 90% and the specificity was measured up to 90%. This test method is the same as the test method described in Non-Patent Document 1.

上記のオプションの形態において、性能は、出力値を4個の診断の一つに階級分けするために用いられる閾値に相当する3個の設定において測定された。これらの設定における感度及び特異度は次の通りである。
・確実に正常/おそらく正常:感度95.1%、特異度70.0%
・おそらく正常/おそらく転移:感度90.2%、特異度87.3%
・おそらく転移/確実に転移:感度88.0%、特異度90.1%
In the optional form described above, performance was measured at three settings corresponding to the threshold used to classify the output value into one of four diagnoses. The sensitivity and specificity in these settings are as follows.
Certainly normal / probably normal: sensitivity 95.1%, specificity 70.0%
Probably normal / probably metastatic: sensitivity 90.2%, specificity 87.3%
Probably metastases / definitely metastases: sensitivity 88.0%, specificity 90.1%

以下、正規化部30による骨シンチグラム分割方法(セグメンテーション)について説明する。   Hereinafter, a bone scintigram dividing method (segmentation) by the normalization unit 30 will be described.

図5は、正規化部30による骨シンチグラム分割方法を示すフローチャートである。前述のS30において、正規化部30はこのフローを実行する。   FIG. 5 is a flowchart showing a bone scintigram dividing method by the normalization unit 30. In S30 described above, the normalization unit 30 executes this flow.

骨シンチグラム分割方法は例えば、ASM(active shape model:アクティブ形状モデル)アプローチを用いて、腕(上肢)と脚(下肢)の下部(末端)を除く骨格の前面像と後面像の全体の輪郭抽出の実行を含む。腕と足の下部が転移に対して非常に稀な場所であり、それらは時々骨走査ルーチンで取得されていないので、骨格のこれらの部分を省くことは、問題にならない。説明のため、ASMは、画像内のオブジェクトを見つけるための統計的方法として定義されている。その方法は、学習画像セットに基づく統計モデルに基づいている。各学習画像において、オブジェクトの形状は、準備又は学習の段階中に人間のオペレータにより手動で決定される目標点により定義される。その後、オブジェクトに関する一般的形状を記述するために用いられる点分布モデルが、計算される。一般的形状は、本実施形態の場合と同様、例えば骨格のようなオブジェクトタイプの新規の例に対する他の画像を検索するために用いることができる。人間の骨格の解剖学的構造を記述するASMの学習のための方法が提供される。そのモデルは、以下の説明するステップを含む。   The bone scintigram division method uses, for example, an ASM (active shape model) approach, and the entire outline of the front and back images of the skeleton excluding the arms (upper limbs) and the lower parts (ends) of the legs (lower limbs). Includes performing extraction. Omitting these parts of the skeleton is not a problem because the lower arms and legs are very rare places for metastases and they are sometimes not acquired in the bone scanning routine. For illustration purposes, ASM is defined as a statistical method for finding objects in an image. The method is based on a statistical model based on a learning image set. In each learning image, the shape of the object is defined by target points that are determined manually by a human operator during the preparation or learning phase. A point distribution model is then calculated that is used to describe the general shape for the object. The general shape can be used to search for other images for a new example of an object type, such as a skeleton, as in the present embodiment. A method is provided for learning ASM that describes the anatomy of the human skeleton. The model includes the steps described below.

最初のステップは例えば、骨格を8個の異なる学習セットに分割する(S205)。学習セットは、一貫したセグメンテーションを実現するために特に適している解剖学的部位に対応するように選択される。8個の異なる学習セットは以下に示される。
1)頭と脊椎の前面像に関する第1学習セット。
2)肋骨の前面像に関する第2学習セット。
3)腕の前面像に関する第3学習セット。
4)下半身の前面像に関する第4学習セット。
5)頭と脊椎の後面像に関する第5学習セット。
6)肋骨の後面像に関する第6学習セット。
7)腕の後面像に関する第7学習セット。
8)下半身の後面像に関する第8学習セット。
The first step, for example, divides the skeleton into 8 different learning sets (S205). The learning set is selected to correspond to an anatomical site that is particularly suitable for achieving consistent segmentation. Eight different learning sets are shown below.
1) The first learning set for the frontal image of the head and spine.
2) A second learning set for the frontal image of the ribs.
3) A third learning set for the frontal image of the arm.
4) A fourth learning set for the front image of the lower body.
5) A fifth learning set for the posterior image of the head and spine.
6) A sixth learning set for the posterior image of the ribs.
7) A seventh learning set related to the rear image of the arm.
8) The 8th learning set regarding the rear image of the lower body.

各学習セットは、多くの事例画像を提供する(S210)。各画像は、目標点のセットを用いて作成される。各目標点は、画像の特別な解剖学的または生物学的な点を表す座標ペアに関連付けられている。座標ペアは、対応する解剖学的/生物学的点を手動で特定することにより決定される(S215)。前面像では、以下の簡単に識別可能な解剖学的目標点が使用される。   Each learning set provides many case images (S210). Each image is created using a set of target points. Each target point is associated with a coordinate pair that represents a particular anatomical or biological point of the image. A coordinate pair is determined by manually identifying the corresponding anatomical / biological point (S215). In the front view, the following easily identifiable anatomical target points are used:

学習セットの統計量を取り込む前に、目標点の各セットは、8個の学習セットの夫々に対して異なる共通座標系に整列される。これは、非特許文献2に説明されているように、学習形状が互いにできるだけ近づくようにする、学習形状のスケーリング、回転、及び解釈により実現される。学習セットの統計量の検査により、学習セット内で観察される形状変化を含む2次元統計的ポイント分布モデルが得られる(S220)。この複数の骨格に亘る目標点(形状)の変化の統計的モデリングは、非特許文献2及び非特許文献3に説明されているように実行される。   Prior to capturing the learning set statistics, each set of target points is aligned to a different common coordinate system for each of the eight learning sets. This is realized by scaling, rotation, and interpretation of learning shapes that make the learning shapes as close as possible to each other, as described in Non-Patent Document 2. By examining the statistics of the learning set, a two-dimensional statistical point distribution model including the shape change observed in the learning set is obtained (S220). The statistical modeling of the change of the target point (shape) across the plurality of skeletons is performed as described in Non-Patent Document 2 and Non-Patent Document 3.

形状変化の結果として得られる統計モデルは、骨格を分割するために患者画像に適用されることができる。平均形状から始め、形状モデルの可能な変化の範囲内の新たな形状は、生成された骨格が患者画像内に存在する構造に似るように、学習セットの形状に似て生成されることができる。この方法を用いて分割される前面体セグメントは例えば、頭蓋骨、顔首、脊椎、上部胸骨、下部胸骨、右腕、左腕、右肋骨、左肋骨、右肩、左肩、骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。後面体セグメントは例えば、頭蓋骨、首、上部脊椎、下部脊椎、背骨、右腕、左腕、右肋骨、左肋骨、右肩甲骨、左肩甲骨、股関節、下部骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。   The statistical model resulting from the shape change can be applied to the patient image to segment the skeleton. Starting with an average shape, new shapes within the range of possible changes in the shape model can be generated similar to the shape of the learning set so that the generated skeleton resembles the structure present in the patient image. . The frontal body segment divided using this method is, for example, skull, face neck, spine, upper sternum, lower sternum, right arm, left arm, right rib, left rib, right shoulder, left shoulder, pelvis, bladder, right femur, And the left femur. The posterior segment includes, for example, the skull, neck, upper spine, lower spine, spine, right arm, left arm, right rib, left rib, right shoulder blade, left shoulder blade, hip joint, lower pelvis, bladder, right femur, and left femur It may be.

検索プロセスの最初のステップは、前面像の平均形状に対する開始位置を見つけることであっても良い。例えば、頭の最高点が選択されても良い。なぜなら、それは、テストにおいて、ロバストな開始位置であることが証明され、画像上部内で各水平行内の特定閾値より大きい強度を検査することにより簡単に見つけられるためである。   The first step in the search process may be to find a starting position for the average shape of the front image. For example, the highest point of the head may be selected. This is because it proves to be a robust starting position in the test and can be easily found by examining the intensity above a certain threshold in each horizontal line within the top of the image.

次に、患者画像内の骨格に合う骨格形状モデルの事例の検索は、非特許文献2及び非特許文献3に記述されたアルゴリズムに従って実行される。   Next, the search for the case of the skeleton shape model that matches the skeleton in the patient image is executed according to the algorithm described in Non-Patent Document 2 and Non-Patent Document 3.

以上の動作により、正規化部30は、骨シンチグラムセットから識別された骨格部位の領域、検出されたホットスポットの領域、ホットスポットの転移可能性、患者の転移可能性等を含む特徴データを、特徴データ記憶部36へ保存する。   Through the above operation, the normalization unit 30 obtains feature data including the region of the skeletal site identified from the bone scintigram set, the region of the detected hot spot, the possibility of metastasis of the hot spot, the possibility of metastasis of the patient, etc. The feature data is stored in the feature data storage unit 36.

以下、正規化部30による別の骨シンチグラム分割方法について説明する。   Hereinafter, another bone scintigram division method by the normalization unit 30 will be described.

別の骨シンチグラム分割方法が提供される。別の骨シンチグラム分割方法の目標は、前述の骨シンチグラム分割方法と同様、骨シンチグラム300内の骨格の異なる複数の解剖学的部位を認識して輪郭抽出することである。図6は、骨シンチグラムと骨格部位の一例を示す図である。この図に示されているように、骨格部位は、患者画像310に輪郭320を重ねることにより定義される。ここで述べた分割方法は、登録により表される分割である。   Another bone scintigram segmentation method is provided. The goal of another bone scintigram segmentation method is to recognize and extract contours from a plurality of different anatomical parts of the skeleton in the bone scintigram 300, similar to the bone scintigram segmentation method described above. FIG. 6 is a diagram showing an example of a bone scintigram and a skeleton part. As shown in this figure, the skeletal site is defined by overlaying a contour 320 on the patient image 310. The division method described here is a division represented by registration.

画像登録方法は、或る画像を別の画像の座標系に変換する。これらの画像が、同一のオブジェクトクラス、ここでは骨格、の実体を表すと仮定する。変換された画像はソース画像で表され、一方で変換されない画像はターゲット画像で表される。同一の画像座標が、ソース画像とターゲット画像に含まれているオブジェクトにおける同一の幾何学的/解剖学的位置に一致する場合、ソース画像とターゲット画像の座標系は、一致すると言える。登録による分割は、ソース画像に手動で定義された分割を用いることと、分割が定義されていない場合にソース画像をターゲット画像に登録することである。ソース画像の分割は、それによってターゲット画像に変換され、従ってターゲット画像の分割を生成する。   The image registration method converts an image into a coordinate system of another image. Assume that these images represent entities of the same object class, here a skeleton. The transformed image is represented by the source image, while the untransformed image is represented by the target image. If the same image coordinates match the same geometric / anatomical position in the objects contained in the source and target images, it can be said that the coordinate systems of the source and target images match. The division by registration is to use a manually defined division for the source image and to register the source image to the target image when no division is defined. The source image segment is thereby converted to the target image, thus producing a target image segment.

この形態におけるソース画像の分割は、基準健康患者の解剖学的構造を定義し、多角形のセットとして臨床検査の専門家により手動で描かれる。図7は、健康基準画像セットの一例である。健康基準画像セットは、「アトラス」と呼ばれる。ここで、健康基準画像セットは、健康基準画像400a及び健康基準画像400bを有する。健康基準画像400aは、患者の正面像或いは前面像を示し、一方で健康基準画像400bは、患者の背面像或いは後面像を示す。健康基準画像400a及び健康基準画像400b内のラベルを夫々参照すると、これらの領域は、(1,1)とラベリングされた前部及び後部の頭蓋骨401,402、(2,2)とラベリングされた前部及び後部の頸椎403、404、(3,3)とラベリングされた前部及び後部の胸椎405、406、(14)とラベリングされた前部胸骨407、(4,4)とラベリングされた前部及び後部の腰椎409、408、(11,5)とラベリングされた前部及び後部の仙骨411、410、(15,14)とラベリングされた前部及び後部の骨盤、(5,6,7,6)とラベリングされた前部及び後部の左右の肩甲骨、(17,16)とラベリングされた前部及び後部の左右の鎖骨、(7,8,9,8)とラベリングされた前部及び後部の左右の上腕骨、(9,10,11,10)とラベリングされた前部及び後部の左右の肋骨、及び(12,13,12,13)ラベリングされた前部及び後部の左右の大腿骨413、415、412、414を定義する。   The segmentation of the source image in this form defines the reference healthy patient's anatomy and is manually drawn by the laboratory specialist as a set of polygons. FIG. 7 is an example of a health reference image set. The health reference image set is called “Atlas”. Here, the health reference image set includes a health reference image 400a and a health reference image 400b. The health reference image 400a shows a front image or a front image of the patient, while the health reference image 400b shows a back image or a rear image of the patient. Referring to the labels in the health reference image 400a and health reference image 400b, respectively, these regions were labeled with the front and rear skulls 401, 402, (2, 2) labeled (1,1). Labeled with anterior and posterior cervical vertebrae 403, 404, (3, 3) and anterior and posterior thoracic vertebrae 405, 406, (14) and anterior sternum 407, (4, 4). Anterior and posterior pelvis labeled with anterior and posterior lumbar vertebrae 409, 408, (11, 5) and anterior and posterior sacrum 411, 410, (15, 14), (5, 6, 7,6) labeled anterior and posterior left and right shoulder blades, (17,16) labeled anterior and posterior left and right clavicles, anterior labeled (7,8,9,8) Part and rear Left and right humerus, (9,10,11,10) labeled anterior and posterior left and right ribs and (12,13,12,13) labeled anterior and posterior left and right femurs 413 415, 412, and 414 are defined.

健康基準画像セットは、正規化部30によりソース画像として常に用いられ、一方、検査される患者画像はターゲット画像として働く。その結果は、ターゲット画像の骨シンチグラム300に描かれているような骨格部位への分割である。下腕と下肢は、解析のために考慮されない。   The health reference image set is always used as a source image by the normalization unit 30, while the patient image to be examined serves as a target image. The result is a segmentation of the target image into skeletal sites as depicted in the bone scintigram 300. Lower arms and lower limbs are not considered for analysis.

ソース画像として用いられる健康基準画像セットは、典型的な画質と正常な外観及び解剖学的構造を有する健康患者の10個の現実の事例から構成される。事例画像のグループから計算された平均的な強度及び解剖学的構造を有する架空の正常な健康患者の前面像及び後面像を生成するアルゴリズムが用いられる。正規化部30は、非特許文献4で説明されているようなこのタスクを実行する。健康基準画像セットは、結果として得られる解剖学的構造が確かに正常健康外観を有するように見える場合の結果を示す。この解剖学的構造は、数人の患者の解剖学的構造の平均化の結果であり、横方向対称性が高いことを示す。   The health reference image set used as the source image consists of 10 real cases of healthy patients with typical image quality and normal appearance and anatomy. An algorithm is used to generate an anterior and posterior image of a fictitious normal healthy patient having an average intensity and anatomy calculated from a group of case images. The normalization unit 30 performs this task as described in Non-Patent Document 4. The health reference image set shows the result when the resulting anatomy does indeed appear to have a normal health appearance. This anatomy is the result of averaging the anatomy of several patients, indicating high lateral symmetry.

この登録方法は、非特許文献5及び非特許文献6に示されているMorphon(形態単位)登録方法の改良である。この方法は、前面像及び後面像の両方が与えられる場合の、骨格画像の分割の目的のためにロバスト性を高めるために改良される。以下にこの改良の詳細を示す。   This registration method is an improvement of the Morphoon (form unit) registration method shown in Non-Patent Document 5 and Non-Patent Document 6. This method is improved to increase robustness for the purpose of skeletal image segmentation where both front and back images are given. Details of this improvement are shown below.

本実施形態に含まれるMorphon登録方法の改良は、一つの画像変換を決定するための同じオブジェクトの複数の画像を用いるためのシステムからなる。特に、我々は、前面及び後面の骨格画像を同時に用いる。この改良の目標は、この方法のロバスト性を高めることである。この改良の説明のために、オリジナルのMorphon登録方法の必要な部分が最初に説明され、続いてこの改良が説明される。   The Morpho registration method improvement included in this embodiment consists of a system for using multiple images of the same object to determine a single image transformation. In particular, we use the front and back skeleton images simultaneously. The goal of this improvement is to increase the robustness of the method. For a description of this improvement, the necessary parts of the original Morpho registration method will be described first, followed by a description of this improvement.

Morphon登録方法内で用いられる所謂変異ベクトル場生成についての以下の説明は、記法を導入し、この改良を見やすくすることに努めている。より完全な扱いは、非特許文献5及び非特許文献6に説明されている。   The following description of the so-called mutated vector field generation used within the Morphoon registration method introduces a notation and strives to make this improvement easier to see. More complete treatment is described in Non-Patent Document 5 and Non-Patent Document 6.

Morphon登録方法は、反復を続ける。各反復は、ソース画像をターゲット画像との一致に近づける。これは、各ソース画像要素(ピクセル又はボクセル)の小さい変位に相当する。反復中のこのような変位の全ての集合は、各ベクトルが対応する画像要素の変位を示す場合のソース画像として、同じサイズのベクトル場内に収集される。このベクトル場は、4個の複素フィルタを用いて決定される。各フィルタは、或る方向の画像内の線とエッジを取り込む。4個のフィルタに対応する方向は、垂直、水平、左上から右下への対角線、及び右上から左下への対角線である。これらのフィルタの一つによる画像のフィルタリングは、位相及び大きさに分けられることができる複素応答を生成する。フーリエシフト定理のために、フィルタリングされたソース画像及びターゲット画像の間の特定の点における位相差は、オブジェクトをフィルタの方向内のその点に一致させるために必要な空間シフトに比例する。各画像点における位相及び大きさが4個のフィルタの全ての方向に対して計算された場合、変位ベクトルは、各点における最小二乗問題を解くことにより見つけられる。この大きさは、各変位推定の確実性の尺度を導出するために用いられることができる。確実性は、重みのセットとして最小二乗問題に組み込まれることができる。結果の重み付き最小二乗問題は、次式で表される。   The Morphoon registration method continues to iterate. Each iteration brings the source image closer to matching the target image. This corresponds to a small displacement of each source image element (pixel or voxel). All such sets of displacements during the iteration are collected in a vector field of the same size as the source image where each vector indicates the displacement of the corresponding image element. This vector field is determined using four complex filters. Each filter captures lines and edges in the image in a certain direction. The directions corresponding to the four filters are vertical, horizontal, diagonal from upper left to lower right, and diagonal from upper right to lower left. Filtering the image with one of these filters produces a complex response that can be divided into phase and magnitude. Due to the Fourier shift theorem, the phase difference at a particular point between the filtered source and target images is proportional to the spatial shift required to match the object to that point in the direction of the filter. If the phase and magnitude at each image point is calculated for all directions of the four filters, the displacement vector can be found by solving the least squares problem at each point. This magnitude can be used to derive a measure of certainty for each displacement estimate. Certainty can be incorporated into the least squares problem as a set of weights. The resulting weighted least squares problem is

ここで、vは得られた2行1列の変位ベクトルであり、niはi番目のフィルタの方向であり、viはi番目のフィルタに対応する位相差であり、wiはi番目のフィルタの大きさから得られる確実性尺度である。   Here, v is the obtained 2 × 1 displacement vector, ni is the direction of the i th filter, vi is the phase difference corresponding to the i th filter, and wi is the i th filter. It is a certainty measure obtained from the size.

この方法の改良は、変位の一つのベクトル場の推定のための複数画像を用いることで構成されている。各画像は、前述のように別々にフィルタリングされ、各画像に対する4個の複素応答の結果を得る。重み付き最小二乗問題は、次式を与える全画像を含むように拡張される。   This method improvement consists of using multiple images for the estimation of one vector field of displacement. Each image is filtered separately as described above to obtain four complex response results for each image. The weighted least squares problem is extended to include the entire image giving

ここで、kは画像の数(骨シンチグラムの場合は2)である。これの効果は、データポイントの数に2次元変位vの推定内の画像の数を掛け、問題がより良く定義されることである。この改良は、更に確実性尺度により説明される。単一画像を入力として用いると、低い確実性尺度に対応する結果の変位ベクトル場の部位は、十分に定義されない。複数画像が与えられると、少なくとも一つの画像は、関連する全ての部位に十分な確実性を提供することができる見込みがある。   Here, k is the number of images (2 in the case of a bone scintigram). The effect of this is that the problem is better defined by multiplying the number of data points by the number of images in the estimate of the two-dimensional displacement v. This improvement is further explained by a certainty measure. Using a single image as input, the resulting displacement vector field portion corresponding to a low certainty measure is not well defined. Given multiple images, at least one image is likely to be able to provide sufficient certainty for all relevant sites.

以下、正規化部30による骨シンチグラムの正規化方法について説明する。   Hereinafter, the normalization method of the bone scintigram by the normalization part 30 is demonstrated.

前述のように、ホットスポット検出部120は、形状識別部110からの情報を用いる。ホットスポット検出部120の目的は二つである。その第1の目的は、前面及び後面の患者画像内のホットスポットを分けることである。ホットスポットは、高輝度の分離された画像部位であり、骨格内にある時に転移性疾患の指標であっても良い。その第2の目的は、画像の強度を、予め定義された基準レベルに調整することである。このような強度の調整は、画像の正規化を表す。ここでは、そのアルゴリズムを説明する。このアルゴリズムは、同時に、ホットスポットを分離し、正規化因子を推定する。また、このアルゴリズムは、前面像及び後面像で別々に実行される。以下、最初に適切な正規化の必要性が簡潔に説明され、続いてこのアルゴリズムが説明される。   As described above, the hot spot detection unit 120 uses information from the shape identification unit 110. The hot spot detection unit 120 has two purposes. Its primary purpose is to separate hot spots in the front and back patient images. A hot spot is a high-intensity separated image site and may be an indicator of metastatic disease when in the skeleton. Its second purpose is to adjust the intensity of the image to a predefined reference level. Such intensity adjustment represents normalization of the image. Here, the algorithm will be described. This algorithm simultaneously isolates hot spots and estimates normalization factors. This algorithm is also executed separately for the front and rear images. In the following, the need for proper normalization will be briefly described first, followed by a description of this algorithm.

複数の骨シンチグラムは、強度レベルにおいて、患者、研究、及びハードウェア構成により、大きく異なる。この差は増大傾向にあると推測され、ゼロの強度は全画像に対して共通の基準レベルであると推測される。従って、ソース画像をターゲット画像に関して正規化することは、ソース画像の強度をターゲット画像と等しいレベルにするスカラー因子を見つけることである。ここで、ソース画像内の骨格の健康部位の平均強度がターゲット画像内の対応する部位に等しい場合、二つの骨格画像の強度は等しいとして定義される。図8は、正規化部30による正規化方法を示すフローチャートである。このフローチャートに示されている正規化方法は、以下のステップを有する。   Multiple bone scintigrams vary greatly in intensity levels depending on patient, study, and hardware configuration. This difference is presumed to be increasing and zero intensity is presumed to be a common reference level for all images. Thus, normalizing the source image with respect to the target image is to find a scalar factor that makes the intensity of the source image equal to the target image. Here, if the average intensity of the healthy part of the skeleton in the source image is equal to the corresponding part in the target image, the intensity of the two skeleton images is defined as equal. FIG. 8 is a flowchart showing a normalization method performed by the normalization unit 30. The normalization method shown in this flowchart has the following steps.

1.骨格に対応する画像要素の同定(S510)。
2.画像に含まれるホットスポットの同定(S520)。
3.骨格要素からホットスポット要素を除去(S530)。
4.残りの(健康)要素の平均強度の計算(S540)。
5.適切な正規化因子の計算(S550)。
6.正規化因子を乗算することによるソース画像強度の調整(S560)。
1. Identification of image elements corresponding to the skeleton (S510).
2. Identification of hot spots included in the image (S520).
3. The hot spot element is removed from the skeleton element (S530).
4). Calculation of the average intensity of the remaining (health) elements (S540).
5. Calculation of an appropriate normalization factor (S550).
6). Adjusting the source image intensity by multiplying by a normalization factor (S560).

S510は、前述のように、形状識別部110により得られる変換された解剖学的部位により提供される骨格に属する画像部位の情報を用いて実行される。多角形の部位は、骨格の夫々の部位に属する画像要素を定義するバイナリ画像マスクに変換される。   As described above, S510 is executed using the information on the image part belonging to the skeleton provided by the converted anatomical part obtained by the shape identifying unit 110. Polygonal parts are converted into binary image masks that define image elements belonging to the respective parts of the skeleton.

S520において、ホットスポットは、一つの画像フィルタリング演算と一つの閾値演算を用いて分割される。画像は、夫々の周囲に関する高強度の小さい部位を強調するDoG(difference-of-Gaussians)−BPF(band-pass filter)を用いてフィルタリングされる。フィルタリングされた画像は、その後、一定レベルで閾値判定され、その結果得られるバイナリ画像は、ホットスポット要素を定義する。   In S520, the hot spot is divided using one image filtering operation and one threshold operation. Images are filtered using a DoG (difference-of-Gaussians) -BPF (band-pass filter) that emphasizes small areas of high intensity with respect to their surroundings. The filtered image is then thresholded at a certain level and the resulting binary image defines hot spot elements.

S530において、S510で計算された要素のうち、S520で計算されたホットスポット要素と一致する要素は、削除される。残りの要素は、健康骨格部位に対応すると推測される。   In S530, among the elements calculated in S510, elements that match the hot spot element calculated in S520 are deleted. The remaining elements are assumed to correspond to healthy skeletal sites.

S540において、健康骨格要素の平均強度が計算される。この平均強度はAで表される。   In S540, the average strength of the health skeleton element is calculated. This average intensity is represented by A.

S550において、適切な正規化因子は、予め定義された基準強度レベルに関連して決定される。ここで、例えば、このレベルを1000に設定することができる。正規化因子Bは、(B=1000/A)のように計算される。   In S550, an appropriate normalization factor is determined in relation to a predefined reference intensity level. Here, for example, this level can be set to 1000. The normalization factor B is calculated as (B = 1000 / A).

S560において、ソース画像の強度は、Bを乗算することにより調整される。   In S560, the intensity of the source image is adjusted by multiplying B.

S520におけるホットスポット分割は、S550で計算された正規化因子により順次決定される画像の全体強度レベルに依存する。とは言え、S550で計算された正規化因子は、S520からのホットスポット分割に依存する。S520及びS550の結果が相互に依存しているので、S520からS560は例えば、S570において正規化因子におけるそれ以上の変化が発生しなくなるまで繰り返されても良い。広範に亘るテストでは、このプロセスが通常、3又は4回の繰り返しで収束することが示されている。   Hot spot segmentation in S520 depends on the overall intensity level of the image, which is sequentially determined by the normalization factor calculated in S550. Nonetheless, the normalization factor calculated in S550 depends on the hot spot split from S520. Since the results of S520 and S550 are interdependent, S520 to S560 may be repeated, for example, until no further change in normalization factor occurs in S570. Extensive testing has shown that this process usually converges in 3 or 4 iterations.

図9は、正規化された骨シンチグラムセットの一例を示す図である。正規化画像600aは、正規化された骨シンチグラムセットの前面像を示し、正規化画像600bは、正規化された骨シンチグラムセットの後面像を示す。分割されたホットスポット620は、分割された画像610内に現れる濃いスポットとして正規化画像600a及び正規化画像600b内に示されている。従って、正規化部30は、癌転移を有するとしてこの患者を分類するだろう。   FIG. 9 is a diagram showing an example of a normalized bone scintigram set. The normalized image 600a shows a front image of the normalized bone scintigram set, and the normalized image 600b shows a rear image of the normalized bone scintigram set. The divided hot spots 620 are shown in the normalized image 600 a and the normalized image 600 b as dark spots that appear in the divided image 610. Therefore, normalizer 30 will classify this patient as having cancer metastasis.

正規化部30は、前述の正規化方法による修正画像の正規化の結果を、正規化画像として正規化画像記憶部35へ保存する。   The normalization unit 30 stores the result of normalization of the corrected image by the above-described normalization method in the normalized image storage unit 35 as a normalized image.

前述の第2ANN部160は、第1ANN部140と同じであっても良いし、第1ANN部140の一部であっても良い。   The second ANN unit 160 described above may be the same as the first ANN unit 140 or may be a part of the first ANN unit 140.

上記の説明における用語「点」は、画像内の少なくとも一つのピクセルを表すために使用されることがある。   The term “point” in the above description may be used to represent at least one pixel in the image.

以下、第1ANN部140への入力の具体例について説明する。   Hereinafter, a specific example of input to the first ANN unit 140 will be described.

第1ANN部140には、各ホットスポットの大きさ、形状、方向、局在性、及び強度分布を測定する以下の27の特徴が与えられる。   The first ANN unit 140 is provided with the following 27 features for measuring the size, shape, direction, localization, and intensity distribution of each hot spot.

・骨格病変。2次元ホットスポット領域と、対応する骨格領域の2次元領域と、骨格全体に関する骨格部位により表される体積割合を表す係数とに基づいて、抽出されたホットスポット部位により占有される骨格体積の尺度。(ホットスポット領域/局所領域*係数)として計算される。
・相対面積。対応する骨格部位に対するホットスポット領域。画像解像度及びスキャナ視野に依存しない尺度。
・相対重心位置(2機能)。対応する骨格部位の境界ボックスに対する相対的重心位置。値は、0(上、左)から1(下、右)の範囲である。
・質量の相対中心(2機能)。重心の機能に似ているが、xとyの値を計算する場合にホットスポット部位の強度を考慮に入れる。
・相対高さ。対応する骨格部位の高さに対するホットスポットの高さ
・相対幅。対応する骨格部位の幅に対するホットスポットの幅。
・最小強度。対応する正規化された画像上の全てのホットスポット要素から計算される最小強度。
・最大強度。対応する正規化された画像上の全てのホットスポット要素から計算される最大強度。
・強度の総和。対応する正規化された画像上の全てのホットスポット要素から計算される強度の総和。
・平均強度。対応する正規化された画像上の全てのホットスポット要素から計算される平均強度。
・強度の標準偏差。対応する正規化された画像上の全てのホットスポット要素から計算される強度の標準偏差。
・境界長。ピクセル単位で測定されるホットスポットの境界の長さ。
・堅実性。ホットスポット領域により表されるホットスポットの凸包領域の割合。
・偏心。0(円)から1(線)で表されるホットスポットの伸び。
・ホットスポットカウントの総数。骨格全体の全てのホットスポット内の強度の総和。
・部位におけるホットスポットカウントの数。現在のホットスポットに対応する骨格部位に含まれているホットスポットの強度の総和。
・総ホットスポット範囲。対応する画像内の骨格部位全体に対する、骨格部位全体内の全てのホットスポットの面積。
・部位におけるホットスポット範囲。骨格部位の面積に対する現在のホットスポットに対応する骨格部位内の全てのホットスポットの面積。
・ホットスポットの総数。骨格全体のホットスポットの数。
・部位におけるホットスポットの数。現在のホットスポットに対応する骨格部位内のホットスポットの数。
・ホットスポット局所性(2機能)。X座標は、形状識別部110のステップにおいて変換された基準解剖学的構造から計算される中間線に対して、0(最も内側)から1(最も遠位)の範囲に亘る。Y座標は、0(最も優れる)から1(最も劣る)の範囲に亘る。全ての尺度は、対応する骨格部位に相対的である。
・距離非対称性。現在のホットスポットの質量の相対的中心と、対側の骨格部位内のホットスポットの質量の鏡像相対的中心との間の最小ユークリッド距離。対応する対側骨格部位を自然に有している骨格領域に対してのみ計算される。
・範囲非対称性。現在のホットスポットと対側骨格部位内のホットスポットの範囲との間の範囲の最小差。
・強度非対称性。現在のホットスポットと対側骨格部位内のホットスポットの強度との間の強度の最小差。
-Skeletal lesions. A measure of the skeletal volume occupied by the extracted hot spot site based on the 2D hot spot region, the 2D region of the corresponding skeletal region, and a coefficient representing the volume fraction represented by the skeletal site for the entire skeleton. . Calculated as (hot spot area / local area * coefficient).
• Relative area. Hot spot area for the corresponding skeletal site. Scale independent of image resolution and scanner field of view.
-Relative barycentric position (2 functions). Relative barycentric position relative to the bounding box of the corresponding skeletal part. Values range from 0 (upper, left) to 1 (lower, right).
• Relative center of mass (2 functions). Similar to the function of the center of gravity, but takes into account the intensity of the hot spot site when calculating the x and y values.
-Relative height. The height and relative width of the hot spot relative to the height of the corresponding skeletal site. The width of the hot spot relative to the width of the corresponding skeletal site.
・ Minimum strength. The minimum intensity calculated from all hot spot elements on the corresponding normalized image.
・ Maximum strength. Maximum intensity calculated from all hot spot elements on the corresponding normalized image.
・ Total strength. The sum of the intensities calculated from all hot spot elements on the corresponding normalized image.
・ Average strength. The average intensity calculated from all hot spot elements on the corresponding normalized image.
・ Standard deviation of intensity. Standard deviation of the intensity calculated from all hot spot elements on the corresponding normalized image.
・ Boundary length. The length of the hotspot boundary measured in pixels.
・ Consistency. The percentage of the convex hull area of the hot spot represented by the hot spot area.
・ Eccentricity. The elongation of the hot spot represented by 0 (circle) to 1 (line).
・ Total number of hot spot counts. Sum of intensities in all hot spots across the skeleton.
• Number of hot spot counts at the site. Sum of hot spot intensities contained in the skeleton corresponding to the current hot spot.
-Total hot spot range. The area of all hot spots in the entire skeletal site relative to the entire skeletal site in the corresponding image.
-Hot spot range at the site. The area of all hot spots in the skeletal site corresponding to the current hot spot for the area of the skeletal site.
・ Total number of hot spots. Number of hot spots across the skeleton.
-The number of hot spots at the site. The number of hot spots in the skeletal site corresponding to the current hot spot.
Hot spot locality (2 functions). The X coordinate ranges from 0 (innermost) to 1 (most distal) with respect to the midline calculated from the reference anatomical structure converted in the step of the shape identification unit 110. The Y coordinate ranges from 0 (best) to 1 (worst). All measures are relative to the corresponding skeletal site.
• Distance asymmetry. Minimum Euclidean distance between the relative center of mass of the current hot spot and the mirror image of the mass of the hot spot in the contralateral skeletal region. It is calculated only for skeleton regions that naturally have corresponding contralateral skeleton sites.
• Range asymmetry. The minimum difference in range between the current hot spot and the range of hot spots in the contralateral skeletal site.
-Strength asymmetry. The minimum difference in intensity between the current hot spot and the intensity of the hot spot in the contralateral skeletal region.

以下、第2ANN部160への入力の具体例について説明する。   Hereinafter, a specific example of input to the second ANN unit 160 will be described.

転移性疾患の有無に関係する患者レベルの診断を判定する第2ANN部160は、以下に列挙された34の特徴を入力として用いる。第2ANN部160により用いられる全ての機能は、第1ANN部140により高い転移可能性を有するとして分類されたホットスポットから計算される。
・総病変。骨格全体の骨格病変の総和。
・頭蓋骨病変。頭蓋骨部位内の骨格病変の総和。
・頸椎柱病変。頸椎部柱部位内の骨格病変の総和。
・胸部柱病変。胸部柱部位内の骨格病変の総和。
・腰椎柱病変。腰部列地域の骨格病変の総和。
・上肢病変。上肢部位の骨格病変の総和。
・下肢病変。下肢部位の骨格病変の総和。
・胸部病変。胸部部位の骨格病変の総和。
・骨盤病変。骨盤部位の骨格病変の総和。
・「高い」ホットスポットの総数。
・頭蓋骨部位内の「高い」ホットスポットの数。
・頸椎柱部位内の「高い」ホットスポットの数。
・胸部柱部位内の「高い」ホットスポットの数。
・腰部柱部位内の「高い」ホットスポットの数。
・上肢部位内の「高い」ホットスポットの数。
・下肢部位内の「高い」ホットスポットの数。
・胸部部位内の「高い」ホットスポットの数。
・骨盤部位内の「高い」ホットスポットの数。
・頭蓋骨部位における第1ANN部140からの最大ANN出力。
・頸椎部位における第1ANN部140からの最大ANN出力。
・胸椎部位における第1ANN部140からの最大ANN出力。
・腰椎部位における第1ANN部140からの最大ANN出力。
・仙骨部位における第1ANN部140からの最大ANN出力。
・上腕骨部位における第1ANN部140からの最大ANN出力。
・鎖骨部位における第1ANN部140からの最大ANN出力。
・肩甲骨部位における第1ANN部140からの最大ANN出力。
・大腿部位における第1ANN部140からの最大ANN出力。
・胸骨部位における第1ANN部140からの最大ANN出力。
・肋骨部位における第1ANN部140からの最大ANN出力。
・肋骨部位における第1ANN部140からの2番目に高いANN出力。
・肋骨部位における第1ANN部140からの3番目に高いANN出力。
・骨盤部位における第1ANN部140からの最大ANN出力。
・骨盤部位における第1ANN部140からの2番目に高いANN出力。
・骨盤部位における第1ANN部140からの3番目に高いANN出力。
The second ANN unit 160 that determines a patient level diagnosis related to the presence or absence of a metastatic disease uses the 34 features listed below as inputs. All functions used by the second ANN unit 160 are calculated from hot spots classified as having a high transferability by the first ANN unit 140.
・ Total lesions. Sum of skeletal lesions across the skeleton.
-Skull lesions. Sum of skeletal lesions within the skull region.
-Cervical spine lesions. Sum of skeletal lesions in the cervical spine column.
-Thoracic column lesions. Sum of skeletal lesions in the thoracic column.
・ Lumbar spine lesions. Sum of skeletal lesions in the lumbar region.
-Upper limb lesions. Sum of skeletal lesions in the upper limbs.
-Lower limb lesions. Sum of skeletal lesions in the lower limbs.
-Chest lesions. Sum of skeletal lesions in the chest region.
・ Pelvic lesions. Sum of skeletal lesions in the pelvic region.
• Total number of “high” hotspots.
• The number of “high” hot spots in the skull area.
• Number of “high” hot spots in the cervical spine region.
• Number of “high” hot spots in the chest column area.
• Number of “high” hot spots in the lumbar column area.
• Number of “high” hot spots in the upper limb region.
• Number of “high” hot spots in the lower limb area.
• Number of “high” hot spots in the chest area.
• Number of “high” hot spots in the pelvic region.
-Maximum ANN output from the first ANN unit 140 in the skull region.
-Maximum ANN output from the first ANN unit 140 at the cervical vertebra site.
-Maximum ANN output from the first ANN unit 140 at the thoracic vertebra site.
-Maximum ANN output from the first ANN unit 140 at the lumbar region.
-Maximum ANN output from the first ANN unit 140 in the sacral region.
The maximum ANN output from the first ANN unit 140 at the humerus part.
-Maximum ANN output from the 1st ANN part 140 in a clavicle part.
-Maximum ANN output from the first ANN section 140 at the scapula site.
-Maximum ANN output from the first ANN unit 140 in the thigh region.
-Maximum ANN output from the first ANN unit 140 in the sternum region.
-Maximum ANN output from the first ANN unit 140 at the rib site.
The second highest ANN output from the first ANN unit 140 at the rib site.
The third highest ANN output from the first ANN unit 140 at the rib site.
-Maximum ANN output from the first ANN unit 140 in the pelvic region.
The second highest ANN output from the first ANN section 140 at the pelvic region.
The third highest ANN output from the first ANN section 140 at the pelvic region.

以上に説明したように、形状識別部110は、予め定義された骨格モデルを骨シンチグラムに合わせて変形させることにより、患者の体型に依らず、骨シンチグラム内の骨格部位を識別することができる。また、ホットスポット検出部120は、識別された骨格部位から予め定められた閾値より高いカウント値を有する領域であるホットスポットを検出することにより、異常集積を検出することができる。第1ANN部140は、ホットスポット毎の転移可能性を計算することができる。第2ANN部160は、患者の転移可能性を計算することができる。患者の転移可能性は、ANN値と呼ばれることがある。   As described above, the shape identifying unit 110 can identify a skeletal part in a bone scintigram regardless of the patient's body shape by deforming a predefined skeleton model according to the bone scintigram. it can. Further, the hot spot detection unit 120 can detect abnormal accumulation by detecting a hot spot that is a region having a count value higher than a predetermined threshold value from the identified skeleton site. The first ANN unit 140 can calculate the transfer possibility for each hot spot. The second ANN unit 160 may calculate a patient's metastasis probability. The patient's metastatic potential is sometimes referred to as the ANN value.

以下の説明において、正規化されたカウント値を正規化カウント値と呼ぶ。図10は、正規化前の骨シンチグラムのカウント値の分布を示すヒストグラムである。正規化前の骨シンチグラム3010と骨シンチグラム3020とにおいて、健康骨格要素である正常骨領域(正常領域)のカウント値の分布は異なる。即ち、骨シンチグラム3010の正常骨領域の平均カウント値3011と、骨シンチグラム3020の正常骨領域の平均カウント値3021とは異なる。図11は、正規化後の骨シンチグラムの正規化カウント値の分布を示すヒストグラムである。骨シンチグラム3010が正規化された骨シンチグラム3030と、骨シンチグラム3020が正規化された骨シンチグラム3040とを示す。骨シンチグラム3030と骨シンチグラム3040において、正常骨領域の正規化カウント値の分布は重なる。また、正常骨領域の平均カウント値3011、3021は、正規化により、正規化カウント値における1000に変換される。   In the following description, the normalized count value is referred to as a normalized count value. FIG. 10 is a histogram showing the distribution of count values of the bone scintigram before normalization. The distribution of count values of normal bone regions (normal regions) that are healthy skeletal elements differs between the bone scintigram 3010 and the bone scintigram 3020 before normalization. That is, the average count value 3011 of the normal bone region of the bone scintigram 3010 is different from the average count value 3021 of the normal bone region of the bone scintigram 3020. FIG. 11 is a histogram showing the distribution of normalized count values of the normalized bone scintigram. A bone scintigram 3030 with normalized bone scintigram 3010 and a bone scintigram 3040 with normalized bone scintigram 3020 are shown. In the bone scintigram 3030 and the bone scintigram 3040, the distribution of normalized count values of normal bone regions overlap. Further, the average count values 3011 and 3021 of the normal bone region are converted into 1000 in the normalized count value by normalization.

ホットスポット検出部120は、正規化画像に対応する撮像条件データを修正画像記憶部25から読み出し、正規化画像に関連付けて正規化画像記憶部35へ保存する。   The hot spot detection unit 120 reads out the imaging condition data corresponding to the normalized image from the modified image storage unit 25 and stores it in the normalized image storage unit 35 in association with the normalized image.

ホットスポット検出部120は、骨格部位からホットスポットを除いた健康骨格要素を抽出し、骨シンチグラムを健康骨格要素の平均カウント値で正規化することにより、ホットスポットの影響を受けずに複数の骨シンチグラムの濃度を揃えることができる。   The hot spot detection unit 120 extracts a healthy skeletal element from which a hot spot is removed from a skeletal part, and normalizes the bone scintigram with an average count value of the healthy skeletal element, thereby not affecting the hot spot. The bone scintigram concentration can be made uniform.

正規化部30は、予め設定された閾値を用いて、第1ANN部140の出力であるホットスポットの転移可能性を判定し、ホットスポットを高リスク部位と低リスク部位に分類し、分類結果を特徴データに含めてもよい。正規化部30は、全ての骨格部位の面積に対する高リスク部位の面積の割合であるBSI(bone scan index)を計算し、計算結果を特徴データに含めてもよい。また、正規化部30は、高リスク部位数を計算し、計算結果を特徴データに含めてもよい。   The normalization unit 30 determines a hot spot transfer possibility that is an output of the first ANN unit 140 using a preset threshold value, classifies the hot spot into a high risk site and a low risk site, and determines the classification result. It may be included in the feature data. The normalization unit 30 may calculate a BSI (bone scan index) that is a ratio of the area of the high-risk part to the area of all the skeletal parts, and include the calculation result in the feature data. In addition, the normalization unit 30 may calculate the number of high-risk parts and include the calculation result in the feature data.

なお、正規化部30は、他の正規化方法を用いて正規化画像を生成しても良い。   The normalizing unit 30 may generate a normalized image using another normalization method.

以下、正規化部30による別の正規化方法の一例として特許文献2に記載の方法について説明する。   Hereinafter, a method described in Patent Document 2 will be described as an example of another normalization method performed by the normalization unit 30.

正規化部30は、各画像の正常骨組織の平均画素値を用いてその画像を正規化する。まず正規化部30は、骨シンチグラムのヒストグラムと複数の閾値とを用いて、全ての異常領域(異常集積)と幾つかの正常領域(正常集積)を含む複数の高強度領域を識別する。次に正規化部30は、異常領域と正常領域を区別するための閾画素値に対応する転移点を決定するために、複数の高強度領域の夫々の平均画素値を計算する。次に正規化部30は、複数の高強度領域を平均画素値の順位に基づいてソートする。   The normalization unit 30 normalizes the image using the average pixel value of the normal bone tissue of each image. First, the normalization unit 30 uses a bone scintigram histogram and a plurality of threshold values to identify a plurality of high-intensity regions including all abnormal regions (abnormal accumulation) and several normal regions (normal accumulation). Next, the normalization unit 30 calculates an average pixel value of each of the plurality of high-intensity regions in order to determine a transition point corresponding to the threshold pixel value for distinguishing between the abnormal region and the normal region. Next, the normalization unit 30 sorts the plurality of high intensity regions based on the rank of the average pixel value.

図12は、骨シンチグラムにおける高強度領域の平均画素値の順位と高強度領域の平均画素値との関係の一例を示す図である。この図において、横軸は、各高強度領域の平均画素値の順位を示し、縦軸は、各高強度領域の平均画素値を示し、曲線上の各点は、高強度領域に対応する。次に正規化部30は、この曲線の傾きが大きく変化する転移点を検出する。転移点は、異常領域と正常領域の境界を示す。また、異常領域に比べて、正常領域の平均画素値のばらつきは小さい。次に正規化部30は、転移点の平均画素値より高い平均画素値を有する高強度領域を選択して異常領域とする。また、正規化部30は、転移点の平均画素値以下の平均画素値を有する幾つかの高強度領域を選択して正常領域とする。ここで、正規化部30は、正常領域として、平均画素値が転移点の平均画素値以下且つ所定の閾値より大きい高強度領域を選択しても良いし、転移点の平均画素値から下へ所定の数の高強度領域を選択しても良い。   FIG. 12 is a diagram illustrating an example of the relationship between the rank of the average pixel value of the high intensity region and the average pixel value of the high intensity region in the bone scintigram. In this figure, the horizontal axis indicates the rank of the average pixel value of each high intensity region, the vertical axis indicates the average pixel value of each high intensity region, and each point on the curve corresponds to the high intensity region. Next, the normalizing unit 30 detects a transition point at which the slope of the curve changes greatly. The transition point indicates the boundary between the abnormal region and the normal region. In addition, the variation in the average pixel value in the normal area is smaller than that in the abnormal area. Next, the normalization unit 30 selects a high intensity region having an average pixel value higher than the average pixel value of the transition point as an abnormal region. In addition, the normalization unit 30 selects several high-intensity regions having an average pixel value equal to or lower than the average pixel value at the transition point and sets them as normal regions. Here, the normalization unit 30 may select a high-intensity region whose average pixel value is less than or equal to the average pixel value of the transition point and greater than a predetermined threshold as the normal region, or downward from the average pixel value of the transition point. A predetermined number of high intensity regions may be selected.

次に正規化部30は、転移点から下位へ向かって所定の領域数の正常領域を選択し、選択された正常領域の平均画素値の平均値Pを計算する。所定の領域数は、例えば5である。次に正規化部30は、正規化因子Fを計算する。Fは例えば、k/Pである。ここで、kは例えば、正規化カウント値における1000とすれば良い。次に正規化部30は、正規化因子Fと骨シンチグラムの画素値との積を計算して正規化画像内の画素値とすることにより、正規化画像を生成する。   Next, the normalization unit 30 selects a predetermined number of normal areas from the transition point to the lower side, and calculates an average value P of average pixel values of the selected normal areas. The predetermined number of areas is, for example, 5. Next, the normalization unit 30 calculates a normalization factor F. F is, for example, k / P. Here, k may be set to 1000 in the normalized count value, for example. Next, the normalization unit 30 generates a normalized image by calculating the product of the normalization factor F and the pixel value of the bone scintigram to obtain the pixel value in the normalized image.

この正規化方法によれば、正規化部30は、高強度領域である異常領域と正常領域を識別し、正常領域の平均画素値に基づいて、骨シンチグラムを正規化して正規化画像を生成する。これにより、異常領域の影響を受けずに複数の骨シンチグラムの画素値を揃えることができる。   According to this normalization method, the normalization unit 30 identifies an abnormal region and a normal region that are high-intensity regions, and generates a normalized image by normalizing the bone scintigram based on the average pixel value of the normal region. To do. Thereby, the pixel values of a plurality of bone scintigrams can be aligned without being affected by the abnormal region.

以下、調整部40について説明する。   Hereinafter, the adjustment unit 40 will be described.

撮像画像内の患者の領域のサイズは、撮像する検出器(ガンマカメラ)および収集条件によって異なる。撮像画像内の各ピクセルにより表される領域の実サイズであるピクセルサイズは、(基準視野/マトリクスサイズ/拡大率)で表される。基準視野は、検出器の視野の正方形の一辺の長さである。マトリクスサイズは、撮像画像を構成するマトリクスのうち基準視野の一辺に対応するピクセル数である。骨シンチグラムにおける拡大率は通常1である。撮像条件データは、ピクセルサイズ、基準視野及びマトリクスサイズを含む。複数の骨シンチグラムの撮像において、検出器(ガンマカメラ)および収集条件の違いによる患者領域のサイズが互いに異なることにより、読影者は表示される複数の骨シンチグラムの間で部位の実サイズを比較することが困難になる。   The size of the region of the patient in the captured image varies depending on the detector (gamma camera) to be imaged and the acquisition conditions. The pixel size that is the actual size of the region represented by each pixel in the captured image is represented by (reference field of view / matrix size / magnification ratio). The reference field is the length of one side of the detector field square. The matrix size is the number of pixels corresponding to one side of the reference visual field in the matrix constituting the captured image. The magnification in bone scintigram is usually 1. The imaging condition data includes a pixel size, a reference visual field, and a matrix size. When imaging multiple bone scintigrams, the size of the patient area differs depending on the detector (gamma camera) and acquisition conditions, allowing the reader to determine the actual size of the region between the multiple bone scintigrams displayed. It becomes difficult to compare.

調整部40は、正規化画像記憶部35から正規化画像とそれに対応する撮像条件データとを読み出す。その後、調整部40は、正規化画像に対応する撮像条件データに基づいて、正規化画像が特定の基準視野になるように、例えばピクセルサイズの拡大又は縮小およびマトリクスサイズの変更を行うことにより、調整画像を生成し、調整画像を調整画像記憶部45へ保存する。これにより、調整画像の基準視野は一定になる。   The adjustment unit 40 reads the normalized image and the imaging condition data corresponding to the normalized image from the normalized image storage unit 35. Thereafter, the adjustment unit 40 performs, for example, enlargement or reduction of the pixel size and change of the matrix size so that the normalized image becomes a specific reference visual field based on the imaging condition data corresponding to the normalized image. An adjusted image is generated, and the adjusted image is stored in the adjusted image storage unit 45. Thereby, the reference visual field of the adjusted image becomes constant.

調整部40は、調整画像に対応する撮像条件データを修正画像記憶部25から読み出し、調整画像に関連付けて調整画像記憶部45へ保存する。   The adjustment unit 40 reads out the imaging condition data corresponding to the adjustment image from the corrected image storage unit 25 and stores it in the adjustment image storage unit 45 in association with the adjustment image.

特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最新の基準視野であっても良い。また、特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最も多い基準視野であっても良い。また、特定の基準視野は、予め設定された基準視野であっても良い。   The specific reference field may be the latest reference field among the reference fields of a plurality of bone scintigrams. The specific reference visual field may be the largest reference visual field among the reference visual fields of a plurality of bone scintigrams. Further, the specific reference visual field may be a preset reference visual field.

調整部40によれば、複数の骨シンチグラムの基準視野が一定になることにより、読影者は表示される複数の骨シンチグラム内の領域の実サイズを比較することができる。   According to the adjustment unit 40, the reference field of view of the plurality of bone scintigrams becomes constant, so that the image interpreter can compare the actual sizes of the regions in the plurality of displayed bone scintigrams.

以下、変換部50について説明する。   Hereinafter, the conversion unit 50 will be described.

前述の正規化方法によれば、正規化カウント値を濃度として調整画像を表示することにより、正常骨領域のピクセルの濃度の範囲は揃えられる。但し、調整画像をそのまま表示しても、読影者による正常骨領域及びホットスポットの認識に適した濃度のスケールであるとは限らない。例えば、最大濃度に対応する正規化カウント値が高すぎると、正常骨領域のほとんどが白く表示され、読影者が表示された骨シンチグラム内の正常骨領域を認識できない場合がある。   According to the normalization method described above, by displaying the adjusted image using the normalized count value as the density, the density ranges of the pixels in the normal bone region are made uniform. However, even if the adjustment image is displayed as it is, it is not necessarily a density scale suitable for recognition of a normal bone region and a hot spot by an image interpreter. For example, if the normalized count value corresponding to the maximum density is too high, most of the normal bone region is displayed in white, and the image interpreter may not be able to recognize the normal bone region in the displayed bone scintigram.

そこで、変換部50は、調整画像を表示する際、調整画像の正規化カウント値を適切なグレースケールの濃度に変換する。   Therefore, when displaying the adjusted image, the conversion unit 50 converts the normalized count value of the adjusted image into an appropriate gray scale density.

変換部50は、特定の飽和基準値がグレースケールの最大濃度に変換されるように、スケールレンジを決定する。飽和基準値は、特定の最大基準値に所定のレンジ係数を乗算した値である。最大基準値は例えば、前述の撮像画像データベースにおける骨シンチグラムを前述の正規化方法により正規化して得られる正規化カウント値に基づいて決定される。最大基準値は例えば、撮像画像データベースにおける最大の正規化カウント値と同じか大きい。レンジ係数は、0より大きく1より小さい。より好適な飽和基準値は、1000より大きく、撮像画像データベースにおける最大の正規化カウント値より小さい。   The conversion unit 50 determines the scale range so that the specific saturation reference value is converted to the maximum gray scale density. The saturation reference value is a value obtained by multiplying a specific maximum reference value by a predetermined range coefficient. For example, the maximum reference value is determined based on a normalized count value obtained by normalizing a bone scintigram in the above-described captured image database by the above-described normalization method. The maximum reference value is, for example, the same or larger than the maximum normalized count value in the captured image database. The range coefficient is greater than 0 and less than 1. A more preferable saturation reference value is larger than 1000 and smaller than the maximum normalized count value in the captured image database.

図13は、スケールレンジを示す図である。この図において、横軸は調整画像のピクセルの正規化カウント値を示し、縦軸は調整画像のピクセルの濃度を示す。これにより、正規化カウント値がゼロであるピクセルの濃度は、ゼロの濃度で表示される。正規化カウント値が飽和基準値以上であるピクセルは、最大濃度で表示される。正規化カウント値がゼロより大きく飽和基準値より小さいピクセルは、その正規化カウント値に応じた階調、例えば直線階調またはログ階調等の曲線階調により表示される。   FIG. 13 is a diagram illustrating the scale range. In this figure, the horizontal axis indicates the normalized count value of the pixel of the adjusted image, and the vertical axis indicates the density of the pixel of the adjusted image. Thereby, the density of the pixel whose normalized count value is zero is displayed as zero density. Pixels whose normalized count value is greater than or equal to the saturation reference value are displayed at the maximum density. Pixels having a normalized count value greater than zero and less than the saturation reference value are displayed with a gradation corresponding to the normalized count value, for example, a curve gradation such as a linear gradation or a log gradation.

変換部50によれば、調整画像の正規化カウント値を適切なグレースケールの濃度に変換することにより、読影者は表示された骨シンチグラム内の正常骨領域及びホットスポットを容易に認識することができる。なお、変換部50は、読影者による入力装置4の操作に基づいて、レンジ係数又は飽和基準値を調整しても良い。   According to the conversion unit 50, by interpreting the normalized count value of the adjusted image into an appropriate gray scale density, the image interpreter can easily recognize the normal bone region and the hot spot in the displayed bone scintigram. Can do. Note that the conversion unit 50 may adjust the range coefficient or the saturation reference value based on the operation of the input device 4 by the interpreter.

以下、生成部80について説明する。   Hereinafter, the generation unit 80 will be described.

生成部80は、読影者による入力装置4の操作に基づいて、表示の対象となる患者と複数の検査日を特定する。調整画像記憶部45内の複数の調整画像から、特定された患者と検査日に対応する調整画像を選択する。生成部80は、表示装置5に表示するための表示画面を生成し、選択された調整画像を時系列に従って表示画面内に配置する。   The generation unit 80 identifies a patient to be displayed and a plurality of examination dates based on the operation of the input device 4 by a radiogram interpreter. The adjustment image corresponding to the specified patient and the examination date is selected from the plurality of adjustment images in the adjustment image storage unit 45. The production | generation part 80 produces | generates the display screen for displaying on the display apparatus 5, and arrange | positions the selected adjustment image in a display screen according to a time series.

図14は、第1の表示態様を示す画面である。第1の表示態様による表示画面は、前面像を配置するための領域である前面像領域8100と、後面像を配置するための後面像領域8200とを有する。この例では、3個の調整画像セットが選択されたとする。生成部80は、選択された複数の調整画像セット内の複数の前面像8511、8521、8531を、前面像領域8100内の水平方向に検査日時順に並べ、選択された調整画像セット内の複数の後面像8512、8522、8532を、後面像領域8200内の水平方向に検査日時順に並べる。即ち、より新しい前面像は、前面像領域8100内のより右へ配置され、即ち、より新しい後面像は、後面像領域8200内のより右へ配置される。この時、生成部80は、並べられた複数の前面像8511、8521、8531の水平方向の中心を前面像領域8100内の水平方向の中心8101に合わせ、並べられた複数の後面像8512、8522、8532の水平方向の中心を後面像領域8200内の水平方向の中心8201に合わせる。前面像領域8100と後面像領域8200は、左右に配置されても良いし、上下に配置されても良い。生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、転移可能性、BSI、高リスク部位数等を付しても良い。   FIG. 14 is a screen showing the first display mode. The display screen according to the first display mode includes a front image area 8100 that is an area for arranging a front image, and a rear image area 8200 for arranging a rear image. In this example, it is assumed that three adjustment image sets are selected. The generation unit 80 arranges the plurality of front images 8511, 8521, and 8531 in the selected plurality of adjustment image sets in the horizontal direction in the front image region 8100 in the order of the inspection date and time, and sets the plurality of images in the selected adjustment image set. The rear images 8512, 8522, and 8532 are arranged in the horizontal direction in the rear image area 8200 in the order of the inspection date. That is, the newer front image is placed more to the right in the front image area 8100, that is, the newer rear image is placed to the right in the rear image area 8200. At this time, the generation unit 80 aligns the horizontal center of the plurality of arranged front images 8511, 8521, and 8531 with the horizontal center 8101 in the front image region 8100, and arranges a plurality of arranged rear images 8512, 8522. , 8532 in the horizontal direction is aligned with the horizontal center 8201 in the rear image area 8200. The front image area 8100 and the rear image area 8200 may be arranged on the left and right, or may be arranged on the top and bottom. The generation unit 80 may attach an examination date to each of the front image and the rear image in the display screen based on the imaging condition data associated with the adjustment image set. Further, the generation unit 80 may attach the possibility of transfer, the BSI, the number of high-risk parts, etc. to each of the front image and the rear image in the display screen based on the feature data associated with the adjustment image set. .

第1の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の夫々について、時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。   According to the first display mode, the image reader can easily change the displayed bone scintigram over time by arranging each of the front image and the rear image in which the influence due to the difference in imaging conditions is reduced in time series. Can grasp.

図15は、第2の表示態様を示す画面である。第2の表示態様による表示画面は、前面像と後面像のペアである調整画像セットを配置するための領域であるペア領域8300を有する。生成部80は、選択された調整画像セット8610、8620、8630を、領域8300内の水平方向に検査日時順に並べる。即ち、より新しい調整画像セットは、ペア領域8300内のより右へ配置される。この時、生成部80は、並べられた複数の調整画像セット8610、8620、8630の水平方向の中心をペア領域8300内の水平方向の中心8301に合わせる。ここで、調整画像セット8610は、前面像8511と後面像8512を有し、調整画像セット8620は、前面像8521と後面像8522を有し、調整画像セット8630は、前面像8531と後面像8532を有する。生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、転移可能性、BSI、高リスク部位数等を付しても良い。   FIG. 15 is a screen showing the second display mode. The display screen according to the second display mode includes a pair area 8300 that is an area for arranging an adjustment image set that is a pair of a front image and a rear image. The generation unit 80 arranges the selected adjustment image sets 8610, 8620, 8630 in the horizontal direction in the area 8300 in the order of examination date and time. That is, the newer adjusted image set is arranged more right in the pair area 8300. At this time, the generation unit 80 matches the horizontal center of the plurality of adjusted image sets 8610, 8620, and 8630 arranged with the horizontal center 8301 in the pair region 8300. Here, the adjustment image set 8610 includes a front image 8511 and a rear image 8512, the adjustment image set 8620 includes a front image 8521 and a rear image 8522, and the adjustment image set 8630 includes a front image 8531 and a rear image 8532. Have The generation unit 80 may assign an examination date to each of the adjustment image sets in the display screen based on the imaging condition data associated with the adjustment image set. Furthermore, the generation unit 80 may attach the possibility of transfer, the BSI, the number of high-risk parts, etc. to each of the adjusted image sets in the display screen based on the feature data associated with the adjusted image set.

第2の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の複数のペアを時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。   According to the second display mode, by arranging a plurality of pairs of the front image and the rear image in which the influence due to the difference in the photographing conditions is reduced according to the time series, the image reader can change the displayed bone scintigram over time. It can be easily grasped.

生成部80は、読影者による入力装置4の操作に応じて、第1及び第2の表示態様の何れかを選択しても良い。   The generation unit 80 may select one of the first and second display modes according to the operation of the input device 4 by the image interpreter.

生成部80は、特徴データに示されている骨格部位の輪郭を、調整画像に重ねても良い。また、生成部80は、調整画像内の低リスク部位及び高リスク部位に夫々異なる色を付けても良い。   The generation unit 80 may superimpose the outline of the skeletal part indicated in the feature data on the adjustment image. Further, the generation unit 80 may add different colors to the low risk part and the high risk part in the adjusted image.

生成部80は、表示画面内の各調整画像に転移可能性、BSI、高リスク部位数等の特徴データを付すことにより、読影者は、特徴データの経時変化を知ることができる。   The generation unit 80 attaches feature data such as the possibility of transfer, BSI, and the number of high-risk parts to each adjustment image in the display screen, so that the radiogram interpreter can know the temporal change of the feature data.

画像処理装置1は、調整画像を解析する解析部を有していても良い。この場合、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定の骨格部位を比較しても良い。また、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定のホットスポットの時系列を関連付けても良い。解析部が撮影条件の違いによる影響が低減された複数の調整画像を解析することにより、複数の撮像画像を解析する場合に比べて、解析の精度を向上させることができる。   The image processing apparatus 1 may include an analysis unit that analyzes the adjusted image. In this case, the analysis unit may compare specific skeleton parts in the adjusted images obtained by the plurality of examinations using the feature data in the feature data storage unit 36. Further, the analysis unit may use the feature data in the feature data storage unit 36 to associate time series of specific hot spots in the adjusted images obtained by a plurality of examinations. By analyzing the plurality of adjusted images in which the influence due to the difference in the imaging conditions is reduced by the analysis unit, it is possible to improve the accuracy of the analysis as compared with the case of analyzing the plurality of captured images.

画像処理装置1は、前述の撮像画像データベースを有していても良い。また、画像処理装置1は、撮像画像記憶部10に格納されている撮像画像のうち、所定条件を満たす撮像画像を撮像画像データベースへ登録しても良い。   The image processing apparatus 1 may have the above-described captured image database. The image processing apparatus 1 may register a captured image satisfying a predetermined condition among the captured images stored in the captured image storage unit 10 in the captured image database.

用語について説明する。計算ステップ及び判定ステップは例えば、処理S2020に対応する。変更ステップは例えば、処理S2040に対応する。特定範囲は例えば、規格範囲に対応する。特定値は例えば、基準評価値に対応する。記憶手段は例えば、記憶部70に対応する。計算手段と判定手段と変更手段は例えば、修正部20に対応する。正規化手段は例えば、正規化部30に対応する。表示制御手段は例えば、表示制御部60に対応する。変更手段は例えば、修正部20に対応する。特定領域は例えば、ホットスポットに対応する。サイズ情報は例えば、撮像条件データに対応する。基準値は例えば、飽和基準値に対応する。第1領域は例えば、前面像領域8100に対応する。第2領域は例えば、後面像領域8200に対応する。別の被験者の体内の放射性薬剤の分布状態が撮像された画像、別の画像ペアは例えば、撮像画像データベースに対応する。特定範囲は例えば、規格範囲に対応する。特定値は例えば、基準評価値に対応する。正規化ステップは例えば、処理S30に対応する。表示制御ステップは例えば、処理S60に対応する。   Terminology will be explained. The calculation step and the determination step correspond to, for example, the process S2020. The change step corresponds to, for example, the process S2040. The specific range corresponds to the standard range, for example. The specific value corresponds to the reference evaluation value, for example. The storage unit corresponds to the storage unit 70, for example. The calculation unit, the determination unit, and the change unit correspond to the correction unit 20, for example. The normalizing means corresponds to the normalizing unit 30, for example. The display control means corresponds to the display control unit 60, for example. The changing means corresponds to the correcting unit 20, for example. The specific area corresponds to, for example, a hot spot. The size information corresponds to, for example, imaging condition data. The reference value corresponds to a saturation reference value, for example. The first region corresponds to the front image region 8100, for example. The second region corresponds to the rear image region 8200, for example. An image obtained by imaging the distribution state of the radiopharmaceutical in the body of another subject, another image pair, for example, corresponds to a captured image database. The specific range corresponds to the standard range, for example. The specific value corresponds to the reference evaluation value, for example. The normalization step corresponds to, for example, the process S30. The display control step corresponds to, for example, the process S60.

上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。例えば、上述の実施形態では骨シンチグラムを対象としているが、これ以外にもCT、MRI、SPECT、PET、X線(レントゲン)などの画像を対象としても良い。   The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention. For example, in the above-described embodiment, the target is a bone scintigram, but other images such as CT, MRI, SPECT, PET, and X-rays (X-rays) may be used.

1 :画像処理装置
4 :入力装置
5 :表示装置
10 :画像処理装置本体
15 :撮像画像記憶部
20 :修正部
25 :修正画像記憶部
30 :正規化部
35 :正規化画像記憶部
36 :特徴データ記憶部
40 :調整部
45 :調整画像記憶部
50 :変換部
60 :表示制御部
70 :記憶部
80 :生成部
1: Image processing device 4: Input device 5: Display device 10: Image processing device body 15: Captured image storage unit 20: Correction unit 25: Correction image storage unit 30: Normalization unit 35: Normalized image storage unit 36: Features Data storage unit 40: Adjustment unit 45: Adjustment image storage unit 50: Conversion unit 60: Display control unit 70: Storage unit 80: Generation unit

Claims (11)

被験者の体内の放射性薬剤の分布状態を撮像した画像を記憶するコンピュータのための画像処理プログラムであって、
前記画像内の画素値に基づいて評価値を計算する計算ステップと、
前記評価値が特定範囲外であるか否かを判定する判定ステップと、
前記評価値が前記特定範囲外である場合、前記画像内の画素値を前記評価値に基づいて変更することで得られる修正画像を格納し、前記評価値が前記特定範囲内である場合、前記画像を前記修正画像として格納する変更ステップと、
前記修正画像内の解剖学的部位を識別するセグメンテーションステップと、
をコンピュータに実行させる画像処理プログラム。
An image processing program for a computer that stores an image obtained by imaging a distribution state of a radiopharmaceutical in a subject's body,
A calculation step of calculating an evaluation value based on a pixel value in the image;
A determination step of determining whether or not the evaluation value is outside a specific range;
When the evaluation value is outside the specific range, a modified image obtained by changing all pixel values in the image based on the evaluation value is stored, and when the evaluation value is within the specific range, A changing step of storing the image as the modified image ;
A segmentation step for identifying anatomical sites in the modified image;
An image processing program for causing a computer to execute.
前記変更ステップは、前記評価値が前記特定範囲外である場合、前記変更された画像の評価値が前記特定範囲内の特定値になるように前記画像の画素値を変更する、
請求項1に記載の画像処理プログラム。
In the changing step, when the evaluation value is outside the specific range, the pixel value of the image is changed so that the evaluation value of the changed image becomes a specific value within the specific range.
The image processing program according to claim 1.
前記特定範囲及び前記特定値は、複数の画像に基づいて夫々計算された複数の評価値に基づいて決定される、
請求項2に記載の画像処理プログラム。
The specific range and the specific value are determined based on a plurality of evaluation values respectively calculated based on a plurality of images.
The image processing program according to claim 2.
前記計算ステップは、前記画像内の画素値の総和に基づいて前記評価値を計算する、
請求項1〜3のいずれかに記載の画像処理プログラム。
The calculating step calculates the evaluation value based on a sum of pixel values in the image;
The image processing program according to claim 1.
前記計算ステップは、前記画像内の特定の領域の画素値の総和に基づいて前記評価値を計算する、
請求項1〜3のいずれかに記載の画像処理プログラム。
The calculating step calculates the evaluation value based on a sum of pixel values of a specific region in the image.
The image processing program according to claim 1.
前記画像は、骨シンチグラムであり、前記被験者の前面像及び後面像を含む、
請求項1〜5のいずれかに記載の画像処理プログラム。
The image is a bone scintigram and includes a front image and a back image of the subject.
The image processing program according to claim 1.
前記計算ステップは、前記前面像内の画素値と前記後面像内の画素値とに基づいて前記評価値を計算し、
前記変更ステップは、前記評価値が前記特定範囲外である場合、前記前面像内の画素値と前記後面像内の画素値とを前記評価値に基づいて変更する、
請求項6に記載の画像処理プログラム。
The calculating step calculates the evaluation value based on a pixel value in the front image and a pixel value in the rear image,
In the changing step, when the evaluation value is outside the specific range, the pixel value in the front image and the pixel value in the rear image are changed based on the evaluation value.
The image processing program according to claim 6.
更に、
前記修正画像を含む複数の修正画像を正規化する正規化ステップと、
前記正規化された複数の画像を撮像された時刻に対応させて配置することにより表示画像を生成し、表示装置に前記表示画像を表示させる表示制御ステップと、
をコンピュータに実行させる、
請求項1〜7のいずれかに記載の画像処理プログラム。
Furthermore,
A normalization step of normalizing the plurality of modified image including the modified image,
A display control step of generating a display image by arranging the plurality of normalized images corresponding to the time when the images were captured, and displaying the display image on a display device;
To run on a computer,
The image processing program according to claim 1.
請求項1〜8のいずれかに記載の画像処理プログラムを格納した記録媒体。   A recording medium storing the image processing program according to claim 1. 被験者の体内の放射性薬剤の分布状態を撮像した画像を記憶する記憶手段と、
前記画像内の画素値に基づいて評価値を計算する計算手段と、
前記評価値が特定範囲外であるか否かを判定する判定手段と、
前記評価値が前記特定範囲外である場合、前記画像内の画素値を前記評価値に基づいて変更することで得られる修正画像を格納し、前記評価値が前記特定範囲内である場合、前記画像を前記修正画像として格納する変更手段と、
前記修正画像内の解剖学的部位を識別するセグメンテーション手段と、
を備える画像処理装置。
Storage means for storing an image obtained by imaging the distribution state of the radiopharmaceutical in the subject's body;
Calculating means for calculating an evaluation value based on a pixel value in the image;
Determination means for determining whether or not the evaluation value is outside a specific range;
When the evaluation value is outside the specific range, a modified image obtained by changing all pixel values in the image based on the evaluation value is stored, and when the evaluation value is within the specific range, Changing means for storing the image as the modified image ;
Segmentation means for identifying anatomical sites in the modified image;
An image processing apparatus comprising:
被験者の体内の放射性薬剤の分布状態を撮像した画像を記憶する画像処理装置が、
前記画像内の画素値に基づいて評価値を計算する計算ステップと、
前記評価値が特定範囲外であるか否かを判定する判定ステップと、
前記評価値が前記特定範囲外である場合、前記画像内の画素値を前記評価値に基づいて変更することで得られる修正画像を格納し、前記評価値が前記特定範囲内である場合、前記画像を前記修正画像として格納する変更ステップと、
前記修正画像内の解剖学的部位を識別するセグメンテーションステップと、
を行う画像処理方法。
An image processing apparatus for storing an image obtained by imaging a distribution state of a radiopharmaceutical in a subject's body,
A calculation step of calculating an evaluation value based on a pixel value in the image;
A determination step of determining whether or not the evaluation value is outside a specific range;
When the evaluation value is outside the specific range, a modified image obtained by changing all pixel values in the image based on the evaluation value is stored, and when the evaluation value is within the specific range, A changing step of storing the image as the modified image ;
A segmentation step for identifying anatomical sites in the modified image;
An image processing method.
JP2012144230A 2012-06-27 2012-06-27 Image processing program, recording medium, image processing apparatus, and image processing method Active JP6013042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012144230A JP6013042B2 (en) 2012-06-27 2012-06-27 Image processing program, recording medium, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012144230A JP6013042B2 (en) 2012-06-27 2012-06-27 Image processing program, recording medium, image processing apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2014009945A JP2014009945A (en) 2014-01-20
JP6013042B2 true JP6013042B2 (en) 2016-10-25

Family

ID=50106795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012144230A Active JP6013042B2 (en) 2012-06-27 2012-06-27 Image processing program, recording medium, image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP6013042B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11321844B2 (en) 2020-04-23 2022-05-03 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11386988B2 (en) 2020-04-23 2022-07-12 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11424035B2 (en) 2016-10-27 2022-08-23 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications
US11534125B2 (en) 2019-04-24 2022-12-27 Progenies Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
US11544407B1 (en) 2019-09-27 2023-01-03 Progenics Pharmaceuticals, Inc. Systems and methods for secure cloud-based medical image upload and processing
US11564621B2 (en) 2019-09-27 2023-01-31 Progenies Pharmacenticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11657508B2 (en) 2019-01-07 2023-05-23 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
US11721428B2 (en) 2020-07-06 2023-08-08 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11948283B2 (en) 2019-04-24 2024-04-02 Progenics Pharmaceuticals, Inc. Systems and methods for interactive adjustment of intensity windowing in nuclear medicine images

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6445265B2 (en) * 2014-07-08 2018-12-26 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing method
US10366479B2 (en) 2015-07-14 2019-07-30 Nihon Medi-Physics Co. Ltd. Technique for normalizing scintigraphy image
EP3514756A1 (en) * 2018-01-18 2019-07-24 Koninklijke Philips N.V. Medical analysis method for predicting metastases in a test tissue sample
TW201941220A (en) * 2018-03-09 2019-10-16 日商日本醫事物理股份有限公司 Diagnosis support device, program, learned model, and learning device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561753B2 (en) * 2004-01-09 2009-07-14 The Boeing Company System and method for comparing images with different contrast levels
US20080298657A1 (en) * 2005-11-23 2008-12-04 Junji Shiraishi Computer-Aided Method for Detection of Interval Changes in Successive Whole-Body Bone Scans and Related Computer Program Program Product and System
JP2009085652A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Calibration method for nuclear medicine diagnostic apparatus
JP5266463B2 (en) * 2008-12-10 2013-08-21 国立大学法人 宮崎大学 Medical image processing apparatus and method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11424035B2 (en) 2016-10-27 2022-08-23 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications
US11894141B2 (en) 2016-10-27 2024-02-06 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications
US11657508B2 (en) 2019-01-07 2023-05-23 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
US11941817B2 (en) 2019-01-07 2024-03-26 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
US11534125B2 (en) 2019-04-24 2022-12-27 Progenies Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
US11937962B2 (en) 2019-04-24 2024-03-26 Progenics Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
US11948283B2 (en) 2019-04-24 2024-04-02 Progenics Pharmaceuticals, Inc. Systems and methods for interactive adjustment of intensity windowing in nuclear medicine images
US11564621B2 (en) 2019-09-27 2023-01-31 Progenies Pharmacenticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11544407B1 (en) 2019-09-27 2023-01-03 Progenics Pharmaceuticals, Inc. Systems and methods for secure cloud-based medical image upload and processing
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11321844B2 (en) 2020-04-23 2022-05-03 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11386988B2 (en) 2020-04-23 2022-07-12 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11721428B2 (en) 2020-07-06 2023-08-08 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions

Also Published As

Publication number Publication date
JP2014009945A (en) 2014-01-20

Similar Documents

Publication Publication Date Title
JP6013042B2 (en) Image processing program, recording medium, image processing apparatus, and image processing method
JP6170284B2 (en) Image processing program, recording medium, image processing apparatus, and image processing method
JP6545591B2 (en) Diagnosis support apparatus, method and computer program
USRE47609E1 (en) System for detecting bone cancer metastases
US7599539B2 (en) Anatomic orientation in medical images
US6625303B1 (en) Method for automatically locating an image pattern in digital images using eigenvector analysis
Wang et al. Evaluation and comparison of anatomical landmark detection methods for cephalometric x-ray images: a grand challenge
US9241634B2 (en) Analytic morphomics: high speed medical image automated analysis method
WO2010095508A1 (en) Midline determining device and program
KR102163701B1 (en) Apparatus and method for classifying spine
JP2009207727A (en) Vertebral body position determining device, method, and program
JP2017198697A (en) Image processing program, recording medium, image processing device, and image processing method
Al-Helo et al. Segmentation of lumbar vertebrae from clinical CT using active shape models and GVF-snake
Ling et al. Semi-automated vertebral segmentation of human spine in MRI images
Wu et al. A new hierarchical method for multi-level segmentation of bone in pelvic CT scans
Šajn et al. Computerized segmentation and diagnostics of whole-body bone scintigrams
EP2890299B1 (en) Analytic morphomics: high speed medical image automated analysis method
Ribeiro et al. Detection of vertebral compression fractures in lateral lumbar X-ray images
Liu et al. Research of Scoliosis Detection Method Based on Kinect
KR102196503B1 (en) Apparatus and method for detecting the spine
KR102218900B1 (en) Apparatus and method for diagnosing disease
Desai et al. Arytenoid cartilage feature point detection using laryngeal 3D CT images in Parkinson's disease
US20230326017A1 (en) System and method for automatically measuring spinal parameters
Tang et al. Scoliosis Detection Based on Feature Extraction from Region-of-Interest.
Zhou et al. Automated measurement of bone-mineral-density (BMD) values of vertebral bones based on X-ray torso CT images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160921

R150 Certificate of patent or registration of utility model

Ref document number: 6013042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250