JP2023143875A - 医療用画像解析方法 - Google Patents

医療用画像解析方法 Download PDF

Info

Publication number
JP2023143875A
JP2023143875A JP2023047867A JP2023047867A JP2023143875A JP 2023143875 A JP2023143875 A JP 2023143875A JP 2023047867 A JP2023047867 A JP 2023047867A JP 2023047867 A JP2023047867 A JP 2023047867A JP 2023143875 A JP2023143875 A JP 2023143875A
Authority
JP
Japan
Prior art keywords
image
analysis
medical image
analysis method
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023047867A
Other languages
English (en)
Other versions
JP7531648B2 (ja
Inventor
ツァン,ハン-ウェイ
Han-Wei Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biomedica Corp
Original Assignee
Biomedica Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from TW111111490A external-priority patent/TWI814307B/zh
Priority claimed from TW111111491A external-priority patent/TWI828096B/zh
Application filed by Biomedica Corp filed Critical Biomedica Corp
Publication of JP2023143875A publication Critical patent/JP2023143875A/ja
Application granted granted Critical
Publication of JP7531648B2 publication Critical patent/JP7531648B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対応する部分が損傷を受けているかどうかを判断することができる医療用画像解析方法を提供する。【解決手段】医療用画像を取得し、前記医療用画像における少なくとも1つの検出領域を選択し、前記検出領域におけるターゲット画像に対して画像標準化処理を行って解析対象画像を取得し、前記解析対象画像を画像分類モデルに入力することにより、疾患分析結果を獲得する。【選択図】図1

Description

本発明は医療用画像解析方法に関し、特にニューラルネットワークモデルを用いた医療用画像解析方法に関する。
一般に骨密度計として知られる二重エネルギーX線吸収測定装置(dual energy x-ray absorptiometry,DXA)は、2つのエネルギーのX線を生成できる。
異なるエネルギーのX線は、異なる媒体によって異なる方法で減衰される。媒体の密度が高いほどX線の減衰が大きくなる。このようにして、身体の様々な部位の骨密度を検出することができる。
しかし、DXAの測定時間は通常15分から20分間必要となり、設備費も通常のX線装置に比べて高いので、公的検査の普及には繋がらなかった。
更に、医学的疾患の検出には組織スライス画像(イメージ)の分析が必要になることが多く、塗抹検査から得られた細胞サンプルから疾患の種類と重症度を分析できる。しかし、手作業で確認するのは手間がかかる上に、判断ミスも起こり易いという問題がある。
本発明は上述した問題に鑑みて以下の構成を備える。即ち、
コンピュータによって実行される医療用画像解析方法であって、前記医療用画像解析方法は、
医療用画像を取得し、
前記医療用画像における少なくとも1つの検出領域を選択し、
前記検出領域におけるターゲット画像に対して画像標準化処理を行って解析対象画像を取得し、
前記解析対象画像を画像分類モデルに入力することにより、疾患分析結果を獲得する
ことを特徴とする医療用画像解析方法。
前記画像分類モデルにはトリプレット損失モデルが含まれる
ことを特徴とする請求項1に記載の医療用画像解析方法。
前記トリプレット損失モデルの出力結果を、主成分分析によって削減し、座標ドロップポイントに変換し、
前記座標ドロップポイントに所在するグループ範囲に基づいて、前記解析対象画像が所属する分析タイプを取得する
ことを特徴とする請求項2に記載の医療用画像解析方法。
全ての前記複数の解析対象画像の前記分析タイプを統合することにより、前記疾患分析結果を獲得する
ことを特徴とする請求項3に記載の医療用画像解析方法。
前記画像分類モデルは畳み込みニューラルネットワークとトリプレット損失モデルを含み、前記医療用画像解析方法は更に、
前記解析対象画像を前記畳み込みニューラルネットワークに入力し、前記畳み込みニューラルネットワークからの出力から特徴ベクトルを取得し、
前記特徴ベクトルを前記トリプレット損失モデルに入力し、
前記トリプレット損失モデルの出力結果を、主成分分析によって削減し、座標ドロップポイントに変換し、
前記座標ドロップポイントに所在するグループ範囲に基づいて、前記解析対象画像が所属する分析タイプを取得することを含む
ことを特徴とする請求項1に記載の医療用画像解析方法。
全ての前記複数の解析対象画像の前記分析タイプを統合することにより、前記疾患分析結果を獲得する
ことを特徴とする請求項5に記載の医療用画像解析方法。
前記画像分類モデルを介して抽出された複数の特徴を、リスク値を取得するために、リスク値予測モデルに入力する
ことを特徴とする請求項5に記載の医療用画像解析方法。
前記複数の特徴を前記リスク値予測モデルに入力する前に、更に、前記複数の特徴に対して正規化を行うことを含む
ことを特徴とする請求項7に記載の医療用画像解析方法。
前記リスク値予測モデルは多層パーセプトロンである
ことを特徴とする請求項7に記載の医療用画像解析方法。
前記検出領域を選択はオブジェクト検出モデルによって実現されるものである
ことを特徴とする請求項1に記載の医療用画像解析方法。
前記解析対象画像を前記画像分類モデルに入力するステップは、
各前記解析対象画像を前記画像分類モデルにそれぞれ入力して、前記解析対象画像を分析タイプにそれぞれ分類し、
前記複数の解析対象画像に対応する前記分析タイプにおける多い方を、前記前記疾患分析結果とすることが含まれる
ことを特徴とする請求項1に記載の医療用画像解析方法。
前記医療用画像の品質が要件を満たしているか確認する場合、前記医療用画像はX線画像である
ことを特徴とする請求項1に記載の医療用画像解析方法。
本発明の実施形態の医療用画像解析方法によれば、医療用画像に基づいて可能性のある疾患を自動的に解析することができる。また、本発明の複数の実施形態によれば、リスク値を更に分析することができる。
本発明の医療用画像解析方法の第1の実施形態を説明するフローチャートである。 本発明の実施形態による画像標準化処理の詳細なフローチャートである。 本発明の他の実施形態による画像標準化処理の詳細なフローチャートである。 本発明の実施形態による画像分類処理の詳細なフローチャートである。 本発明の他の実施形態による画像分類処理の詳細内フローチャートである。 本発明の他の実施形態による画像分類処理の詳細なフローチャートである。 本発明の実施形態によるリスク値予測の詳細なフローチャートである。 本発明の第2の実施形態によるリスク値予測の詳細なフローチャートである。 本発明の第3の実施形態によるリスク値予測の詳細なフローチャートである。 本発明の第4の実施形態によるリスク値予測の詳細なフローチャートである。 本発明の他の実施形態による医療用画像解析方法の第1の実施形態を説明するフローチャートである。 要件に適合したX線画像を示した図である。 要件に適合しないX線画像を示した図である。 他の要件に適合しないX線画像を示した図である。
図1を参照して説明する。ここで、図1は本発明の医療用画像解析方法の第1の実施形態を説明するフローチャートである。まず、医療用画像を取得する(ステップ100)。特定する患者の疾患の種類に応じて、対応する医療用画像を使用することができる。例えば、X線画像は骨粗鬆症の特定に使用され、パップスミア画像は子宮頸癌の特定に使用され、骨髄塗抹の画像は血液の癌の特定に使用される。
本実施形態では、骨粗鬆症を識別するために使用されるX線画像は、脊椎のX線画像、大腿骨のX線画像、鎖骨のX線画像、又は中手骨のX線画像である。
本発明では、脊椎のX線画像、大腿骨のX線画像、鎖骨のX線画像、又は中手骨のX線画像の特徴を分析することにより、骨の損失によって引き起こされる微妙な組織構造の変化に基づいて、対応する部分が損傷を受けているかどうかを判断することができる。
X線画像は、X線診断装置、移動式X線装置、又はX線装置の巡回車両を利用することにより取得される。装置コストと測定時間は、従来のデュアルエネルギーのX線吸収測定装置よりも低くできる。
ステップ200において、医療用画像内の少なくとも1つの検出領域が選択される。例えば、大腿骨のX線画像の場合、大腿骨頸部が検出領域として使用される。
また、本実施形態では、ステップ200では、更にユーザが検出領域を一周するためのユーザインターフェースを提供する。
本実施形態では、ステップ200は、オブジェクト(物体)検出モデルを利用することにより実施される。オブジェクト検出モデルは、たとえば、Mask R-CNN、YOLO等のモデルにすることができる。
オブジェクト検出モデルは事前にトレーニングする必要がある。複数のサンプル画像と、検出ターゲット(例:大腿骨頸部、細胞)を含む対応するラベル付き領域をオブジェクト検出モデルに入力することにより、オブジェクト検出モデルは、大腿X線画像の大腿骨頸部又はスミア(Smear)画像の個々の細胞を検出するようにトレーニングされる。
ステップ300では、分析対象の画像である解析対象画像を取得するために、検出領域内のターゲット画像に対して画像標準化(正規化)処理が実行される。
説明の都合上、画像標準化処理の詳細な流れは後段で行う。画像標準化により、画像分類モデルへの入力に適した適切なサイズで細部が鮮明な画像を取得できる。
ステップ400では、解析対象画像を画像分類モデルに入力する。次に、ステップ500では、画像分類モデルの出力に基づいて疾患分析結果を得る。
画像分類モデルはニューラルネットワークモデルであり、具体的な実現の方法については後段で詳しく説明する。疾患分析結果は、例えば、特定の疾患(骨粗鬆症、子宮頸癌、血液癌等)が存在するかどうか、又は特定の疾患の持続期間の更なる推定であっても良い。
本実施形態では、検出領域のサイズは、ニューラルネットワークモデルの入力仕様に基づいて決定される。たとえば、ニューラルネットワークモデルに入力するのに適した画像サイズが224ピクセルの正方形である場合、検出領域のサイズも224ピクセルの正方形となる。
図2を参照して説明する。ここで図2は、本発明の実施形態による画像標準化処理の詳細なフローチャートである。画像標準化処理ステップ300は、画像鮮鋭化処理(ステップ301)、(ステップ302)、及びスケーリング(ステップ303)を含む。
ステップ301では、鮮鋭化(Sharpen)処理又は等化処理(ヒストグラム等化など)を使用して、画像の詳細をより鮮明にすることができる。
シャープニング又はイコライジングの前に、カラーのターゲット画像をグレースケール画像に変換するグレースケール処理も含まれる。なお、ターゲット画像が既にグレースケール画像の場合は、グレースケール処理を行う必要はない。
ステップ302では、ターゲット画像に対してクロッピングが実行される。ターゲット画像のサイズが前述のニューラルネットワークモデルに必要とされるサイズを満たさない場合、ターゲット画像は対応するサイズに切断(トリミング)される。例えば、ターゲット画像が長方形の場合には、短手方向の寸法を基準に長手方向における長さをトリミングして正方形の画像を得ても良い。
ステップ303では、ステップ302で処理された画像サイズが前述のニューラルネットワークモデルのサイズを満たさない場合、スケーリング(比率を縮小又は拡大すること)して、前述のニューラルネットワークモデルに必要とされるサイズを取得する。上述のステップ301~303により、ターゲット画像に対して前処理をした後、解析対象画像を得ることができる。
図3を参照して説明する。ここで、図3は本発明の他の実施形態による画像標準化処理の詳細なフローチャートである。図2と比較すると、本実施形態の画像標準化処理は、高テクスチャ特徴領域を計算するステップ(ステップ313)と、範囲サンプリングのステップ(ステップ314)を更に含む。なお、ステップ311、312、及び315は、それぞれステップ301、302、及び303と同様なので、ここでは説明を繰り返さない。
ステップ313では、エッジ検出アルゴリズムを使用して、画像内のテクスチャを検出する。エッジ検出アルゴリズムは、例えば、Cannyアルゴリズム、Sobelアルゴリズム等であり得る。特に骨粗鬆症の識別のために、骨組織が最も多い領域をステップ313で発見できる。
ステップ314では、ステップ313で発見した骨組織が最も多い領域の中心に基づいて特定の範囲を拡張し、ステップ400では、検出領域と同じサイズの複数の領域画像が特定の範囲内でランダムにサンプリングされ、これらの領域画像が画像分類モデルに入力される。
ここでは、サンプリングされた領域画像がニューラルネットワークモデルの必要なサイズを満たしているので、ステップ315は省略しても良い。
図4を参照して説明する。ここで、図4は本発明の実施形態による画像分類処理の詳細なフローチャートである。ステップ401では、前述の解析対象画像又は領域画像が画像分類モデルに入力される。
ここで、画像分類モデルはトリプレット損失 (Triplet Loss)モデルである。トリプレット損失モデルは、多様性の少ないデータセットをトレーニングするために使用される。入力データには、アンカー (Anchor)の例や、ポジティブ(Positive)の例や、ネガティブ (Negative)の例が含まれる。
モデルを最適化することで、アンカーの例とポジティブの例の距離がアンカーの例とネガティブの例の距離よりも短くなり、サンプルの類似度の計算を実現できる。
アンカーの例は、サンプルセット内でランダムに選択されたサンプルであり、ポジティブの例とアンカーの例は同じクラスのサンプルに属し、ネガティブの例とアンカーの例は異なるクラスのサンプルに属する。このようにして、トリプレット損失モデルを通じて画像の特徴をグループ化できる。
例えば、骨粗鬆症を伴う集団と骨粗鬆症を伴わない集団とを区別する。前述の子宮頸癌と血液癌の識別では、解析対象画像や局所画像内の個々の細胞をグループ化し、異なる種類の細胞を識別する。ここで、各解析対象画像又は各領域画像は、個々の細胞画像を1つのみ有する。
ステップ402において、トリプレット損失モデルの出力は、主成分分析(Principal Component Analysis,PCA)によって次元が削減される。主成分分析は、特徴空間内のデータの射影軸を見つけることができ、射影後にこのデータグループの最大変異量を取得できる。
このようにして、次元数を効果的に減らすことができるが、全体的な変異量としては決して多くの量は減らない。このように、主成分分析を用いてグループ化の結果の次元を削減し、各グループの分布座標情報を取得することができる。
ステップ401と402の後、解析対象画像又はトリプレット損失モデルに入力された領域画像を座標ドロップポイントに変換することができる。
ステップ403では、トレーニング過程で得られた各グループの分布座標情報に基づいて、座標がどのグループの範囲に属するかを判断し、画像がどのグループ(または分析タイプ)に属するかを取得する。
ステップ404は、全ての分析タイプを統合することである。ここで、全ての分析タイプを統合することとは、同一の医療用画像に対応する解析対象画像ごと、又は撮影された領域画像ごとに得られた解析タイプを統合することをいう。
例えば、同じ医療用画像に対して3つの領域画像がキャプチャされた場合、3つの領域画像は前述のステップ401から403を経た後、それぞれ分析タイプを取得する。ステップ404では、3つの分析タイプが統合され、ステップ500では、統合された結果に基づいて疾患分析結果が得られる。
具体的には、分析タイプの多さ(多数決)に基づいて疾患分析結果を求めている。例えば、3つの分析タイプが、骨粗鬆症を患っている2つのタイプと、骨粗鬆症を患っていない1つのタイプである場合、疾患分析結果は、多数決によって骨粗鬆症を患っていると特定される。
他の例として、合計N個の細胞の個体の解析対象画像(又は領域画像)が同じ医療用画像に取り込まれ、前述のステップ401~403の後、ステップ404において、N個の個々の細胞をK個の細胞のタイプにグループ化することによって、様々な細胞タイプの個々の細胞数を数えることができ、ステップ500では、これらの細胞タイプの対応する数に基づいて疾患タイプを識別できる。
図5を参照して説明する。ここで、図5は本発明の他の実施形態による画像分類処理の詳細内フローチャートである。
図4との違いは、本実施形態が畳み込みニューラルネットワーク(Convolutional Neural Networks,CNN)を画像分類モデルとして使用することである。画像分類モデルは、たとえば、ディープ残差ネットワーク(Deep residual network,ResNet)、グーグルLeネット(GoogleLeNet)、デンスネット(DenseNet)等である。
モデルをトレーニングする場合、トレーニングサンプルとして医療用画像を前述の方法に基づいて取得し、解析対象画像又は領域画像を取得し、医療用画像の解析タイプをマークしてモデルに入力する。
畳み込みニューラルネットワークの最終層は、抽出された特徴に基づいて可能なクラスの確率を予測するための加重分類器 (例えばXGBoost、重み分類器)である。
このため、予測判断する際には、識別対象の医療用画像を前述の方法で解析対象画像又は領域画像に入力し(ステップ411)、予測解析タイプを得ることができる(ステップ412)。ステップ413は、前述のステップ404と同様なので、ここでは説明を繰り返さない。
次に、図6を参照して説明する。ここで図6は本発明の他の実施形態による画像分類処理の詳細なフローチャートである。図4と図5との違いは、本実施形態の画像分類モデルがトリプレット損失モデルと畳み込みニューラルネットワークを同時に含むことであり、トリプレット損失モデルは、この畳み込みニューラルネットワークの後に接続され、本実施形態では、畳み込みニューラルネットワークの末端には加重分類器は存在しない。
ステップ421では、解析対象画像が畳み込みニューラルネットワークに入力される。ここでの畳み込みニューラルネットワークには加重分類器が存在しないため、出力は特徴ベクトルとなる。
ステップ422では、特徴ベクトルは、トリプレット損失モデルに入力されるため、トリプレット損失モデルは、特徴ベクトルに基づいて解析対象画像をグループ化する。
以降のステップ423~425は、それぞれ前述のステップ402~404と同様である。したがって、ステップ500では、統合結果に基づいて疾患分析結果を得ることができる。
図7を参照して説明する。ここで、図7は本発明の実施形態によるリスク値予測の詳細なフローチャートである。前述の図5の例から続き、本実施形態では、畳み込みニューラルネットワークによって抽出された特徴を再利用することもできる。
抽出された特徴を他のニューラルネットワークモデル(ここではリスク値予測モデルと呼ぶ)に入力する(ステップ700)。 ここで、リスク値予測モデルは、多層パーセプトロン(Multilayer perceptron,MLP)であってもよい。
トレーニング中に、トレーニングサンプルに対応する抽出された特徴とそれに対応するリスク値がリスク値予測モデルに入力されるため、予測と判定を行うとき、リスク値は、識別されるサンプルの抽出された特徴に基づいて予測され、予測リスク値を得ることができる(ステップ800)。
骨粗鬆症識別の適用において、リスク値は、例えば、Tスコア(T-scores)パラメータ又は骨折リスク評価(Fracture Risk Assessment,FRAX)パラメータであり得る。
子宮頸癌の識別の適用では、リスク値は、細胞診の等級付け値又は疾患の経過 (子宮頸癌の軽度の前癌病変(Low-Grade Squamous Intraepithelial Lesion,LSIL);重度の前癌病変(High-Grade Squamous Intraepithelial Lesion ,HSIL)等) であり、表1に示すように重症度を表すことができる。
本実施形態では、畳み込みニューラルネットワークから抽出された特徴に加えて、他の特徴をリスク予測モデルに入力することもできる。例えば、個人データ(性別、年齢など)、身体データ(ボディマス指数(BMI)、身長、体重等)、医療情報(病歴(例えば糖尿病、高血圧))等の特徴である。これらの特徴は、ユーザインターフェースを介してユーザが入力するか、医療記録データベースを読み取ることによって取得できる。
図8を参照して説明する。本発明の第2の実施形態によるリスク値予測の詳細なフローチャートである。図7との差異は、ステップ700の前に、ステップ600も実行されることである。ここで、ステップ600は、抽出された特徴を0と1の間の値の範囲に正規化することである。
図9を参照して説明する。ここで、図9は本発明の第3の実施形態によるリスク値予測の詳細なフローチャートである。上述した図7と同様に、トリプレット損失モデルによって抽出された特徴も再利用でき、これらの抽出された特徴は、前述のリスク値予測モデルに入力することができる(ステップ700)。なお、ステップ800は上述の通りなので、ここでは説明を繰り返さない。
本実施形態では、トリプレット損失モデルから抽出された特徴に加えて、他の特徴もリスク予測モデルに入力することができる。例えば、個人データ(性別、年齢など)、身体データ(ボディマス指数(BMI)、身長、体重等)、医療情報(病歴(例えば糖尿病、高血圧))等の特徴である。なお、これらの特徴は、ユーザインターフェースを介してユーザが入力するか、医療記録データベースを読み取ることによって取得できる。
図10を参照して説明する。ここで、図10本発明の第4の実施形態によるリスク値予測の詳細なフローチャートである。上述した図8と同様に、ステップ700の前に、抽出された特徴を0と1の間の数値範囲に正規化するステップ600も実行される。
次に、図11を参照して説明する。ここで、図11は本発明の他の実施形態による医療用画像解析方法の第1の実施形態を説明するフローチャートである。図1との違いとしては、図11はX線画像である医療用画像を解析して骨密度解析結果を得るものであり、ステップ101を更に含む点にある。
ステップ101では、X線画像の品質(画質)が要件を満たしているかが確認される。要件が満たしている場合(はい)は次のステップに進み、そうでない場合(いいえ)にはプロセスを終了する。
具体的には、このステップでは、キャニー(canny)、フォーカス(focus)、ソーベル(Sobel)、ラプラシアン(Laplacian)等のオペレーター関数を使用して、X線画像の画質を確認できる。
例えば、しきい値(閾値)を設定することができ、しきい値と比較したX線画像に対して前述の演算子関数の1つを実行した結果に基づいて、このしきい値よりも低い場合は、要件が満たされていることを意味する。
たとえば、Sobel 演算子は、水平方向と垂直方向の勾配を計算でき、高すぎるグラデーション値の場合には、イメージに過度のノイズが含まれていることを示す。
図12Aと図12Bを参照して説明する。ここで、図12Aは要件に適合したX線画像を示した図であり、図12Bは要件に適合しないX線画像を示した図である。図12Aとは異なり、図12Bからは、画像にノイズポイントが多すぎることが分かる。一方、図12C他の要件に適合しないX線画像を示した図であるが、図12Cでは、複数の水平に延伸する線(テクスチャ)を含んでしまっていることが分かる。
このようにして、X線画像のテクスチャが十分に鮮明であるかどうかを検出することにより、その後の判定結果でエラーを回避するのに十分な鮮明な画像を選び出すことができる。
本実施形態では、複数の演算子関数を使用することができ、各演算子関数はしきい値に対応し、これらの演算子関数の計算結果が全て対応するしきい値よりも低い場合、X線画像の画質は要件を満たしていると判断される。
上記の医療用画像解析方法は、コンピュータプログラム製品をコンピュータにロードして実行することにより実現される。コンピュータ プログラム製品は、複数のプログラム命令で構成され、非一時的なコンピュータが読み取り可能な記録媒体に格納される。
ここで、コンピュータは、例えば、パーソナルコンピュータ、サーバ、並びにコンピューティング機能を備えた他のコンピューティング装置であっても良い。コンピュータは、一般に、処理ユニット(中央処理装置、グラフィック処理装置等)、メモリ、記憶媒体(ハードディスク等)、入出力インターフェース、ネットワークインターフェース等のハードウェア資源を有する。
本実施形態では、コンピュータは、医療用画像記憶システム(例えば、Picture archiving and communication system,PACS)又は医療用検出機器と接続して、医療用画像を得ることができる。
以上のように、本発明の実施形態の医療用画像解析方法によれば、医療用画像に基づいて可能性のある疾患を自動的に解析することができる。また、本発明の複数の実施形態によれば、リスク値を更に分析することができる。
100 ステップ
200 検出領域の選択ステップ
300 ステップ
301~303 ステップ
311~315 ステップ
400~404 ステップ
411~413 ステップ
421~425 ステップ
500 ステップ
600 ステップ
700 ステップ
800 ステップ

Claims (12)

  1. コンピュータによって実行される医療用画像解析方法であって、前記医療用画像解析方法は、
    医療用画像を取得し、
    前記医療用画像における少なくとも1つの検出領域を選択し、
    前記検出領域におけるターゲット画像に対して画像標準化処理を行って解析対象画像を取得し、
    前記解析対象画像を画像分類モデルに入力することにより、疾患分析結果を獲得する
    ことを特徴とする医療用画像解析方法。
  2. 前記画像分類モデルにはトリプレット損失モデルが含まれる
    ことを特徴とする請求項1に記載の医療用画像解析方法。
  3. 前記トリプレット損失モデルの出力結果を、主成分分析によって削減し、座標ドロップポイントに変換し、
    前記座標ドロップポイントに所在するグループ範囲に基づいて、前記解析対象画像が所属する分析タイプを取得する
    ことを特徴とする請求項2に記載の医療用画像解析方法。
  4. 全ての前記複数の解析対象画像の前記分析タイプを統合することにより、前記疾患分析結果を獲得する
    ことを特徴とする請求項3に記載の医療用画像解析方法。
  5. 前記画像分類モデルは畳み込みニューラルネットワークとトリプレット損失モデルを含み、前記医療用画像解析方法は更に、
    前記解析対象画像を前記畳み込みニューラルネットワークに入力し、前記畳み込みニューラルネットワークからの出力から特徴ベクトルを取得し、
    前記特徴ベクトルを前記トリプレット損失モデルに入力し、
    前記トリプレット損失モデルの出力結果を、主成分分析によって削減し、座標ドロップポイントに変換し、
    前記座標ドロップポイントに所在するグループ範囲に基づいて、前記解析対象画像が所属する分析タイプを取得することを含む
    ことを特徴とする請求項1に記載の医療用画像解析方法。
  6. 全ての前記複数の解析対象画像の前記分析タイプを統合することにより、前記疾患分析結果を獲得する
    ことを特徴とする請求項5に記載の医療用画像解析方法。
  7. 前記画像分類モデルを介して抽出された複数の特徴を、リスク値を取得するために、リスク値予測モデルに入力する
    ことを特徴とする請求項5に記載の医療用画像解析方法。
  8. 前記複数の特徴を前記リスク値予測モデルに入力する前に、更に、前記複数の特徴に対して正規化を行うことを含む
    ことを特徴とする請求項7に記載の医療用画像解析方法。
  9. 前記リスク値予測モデルは多層パーセプトロンである
    ことを特徴とする請求項7に記載の医療用画像解析方法。
  10. 前記検出領域を選択はオブジェクト検出モデルによって実現されるものである
    ことを特徴とする請求項1に記載の医療用画像解析方法。
  11. 前記解析対象画像を前記画像分類モデルに入力するステップは、
    各前記解析対象画像を前記画像分類モデルにそれぞれ入力して、前記解析対象画像を分析タイプにそれぞれ分類し、
    前記複数の解析対象画像に対応する前記分析タイプにおける多い方を、前記疾患分析結果とすることが含まれる
    ことを特徴とする請求項1に記載の医療用画像解析方法。
  12. 前記医療用画像の品質が要件を満たしているか確認する場合、前記医療用画像はX線画像である
    ことを特徴とする請求項1に記載の医療用画像解析方法。
JP2023047867A 2022-03-25 2023-03-24 医療用画像解析方法 Active JP7531648B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
TW111111490A TWI814307B (zh) 2022-03-25 2022-03-25 醫學影像分析方法
TW111111490 2022-03-25
TW111111491A TWI828096B (zh) 2022-03-25 2022-03-25 X光影像分析方法
TW111111491 2022-03-25

Publications (2)

Publication Number Publication Date
JP2023143875A true JP2023143875A (ja) 2023-10-06
JP7531648B2 JP7531648B2 (ja) 2024-08-09

Family

ID=88096172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023047867A Active JP7531648B2 (ja) 2022-03-25 2023-03-24 医療用画像解析方法

Country Status (2)

Country Link
US (1) US20230306591A1 (ja)
JP (1) JP7531648B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173200B (zh) * 2023-11-03 2024-02-02 成都数之联科技股份有限公司 一种图像分割方法、装置、设备和介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10799189B2 (en) 2017-11-22 2020-10-13 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
US11449717B2 (en) 2020-03-12 2022-09-20 Fujifilm Business Innovation Corp. System and method for identification and localization of images using triplet loss and predicted regions
JPWO2021221008A1 (ja) 2020-04-28 2021-11-04

Also Published As

Publication number Publication date
US20230306591A1 (en) 2023-09-28
JP7531648B2 (ja) 2024-08-09

Similar Documents

Publication Publication Date Title
WO2022268102A1 (zh) 基于深度学习的癌症预后生存预测方法、设备及存储介质
Pratiwi et al. Mammograms classification using gray-level co-occurrence matrix and radial basis function neural network
CN108464840B (zh) 一种乳腺肿块自动检测方法及系统
WO2018120942A1 (zh) 一种多模型融合自动检测医学图像中病变的系统及方法
US11275976B2 (en) Medical image assessment with classification uncertainty
Islam et al. An efficient automatic mass classification method in digitized mammograms using artificial neural network
WO2011137411A1 (en) Probability density function estimator
CN113261012B (zh) 处理图像的方法、装置及系统
US20230368381A1 (en) System and method for detecting and classifying abnormal cells
WO2020066257A1 (ja) 分類装置、分類方法、プログラム、ならびに、情報記録媒体
KR102600401B1 (ko) 분류 및 분할을 이용한 의료 영상 분석 방법, 장치 및 컴퓨터 프로그램
JP7531648B2 (ja) 医療用画像解析方法
CN113269799A (zh) 一种基于深度学习的宫颈细胞分割方法
Avizenna et al. Classification of brain magnetic resonance images based on statistical texture
CN117315379B (zh) 面向深度学习的医学影像分类模型公平性评估方法及装置
Zhou et al. Improved breast lesion detection in mammogram images using a deep neural network
TWI828096B (zh) X光影像分析方法
TWI814307B (zh) 醫學影像分析方法
Kiran et al. AI-Powered Radiology: Enhancing Efficiency and Accuracy in Knee Osteoarthritis Diagnosis through Automated Bone Segmentation
CN113870194A (zh) 深层特征和浅层lbp特征融合的乳腺肿瘤超声图像处理装置
CN116862825A (zh) 医学影像分析方法
CN116862824A (zh) X光影像分析方法
AlShowarah Breast Cancer Detection System using Deep Learning Based on Fusion Features and Statistical Operations.
Africano et al. A new benchmark and method for the evaluation of chest wall detection in digital mammography
CN115148365B (zh) 用于预测中枢神经系统生殖细胞肿瘤预后的方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240730

R150 Certificate of patent or registration of utility model

Ref document number: 7531648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150