JP2023530023A - 深層学習に基づく脊椎mri映像キーポイント検出方法 - Google Patents

深層学習に基づく脊椎mri映像キーポイント検出方法 Download PDF

Info

Publication number
JP2023530023A
JP2023530023A JP2022578644A JP2022578644A JP2023530023A JP 2023530023 A JP2023530023 A JP 2023530023A JP 2022578644 A JP2022578644 A JP 2022578644A JP 2022578644 A JP2022578644 A JP 2022578644A JP 2023530023 A JP2023530023 A JP 2023530023A
Authority
JP
Japan
Prior art keywords
spine
vertebra
vertebrae
edge
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022578644A
Other languages
English (en)
Other versions
JP7489732B2 (ja
Inventor
▲剛▼ ▲劉▼
友怡 ▲鄭▼
向前 方
成▲龍▼ ▲馬▼
▲興▼ ▲趙▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Publication of JP2023530023A publication Critical patent/JP2023530023A/ja
Application granted granted Critical
Publication of JP7489732B2 publication Critical patent/JP7489732B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は深層学習に基づく脊椎MRI映像キーポイント検出方法と称される発明を提供する。【解決手段】本発明は深層学習に基づく脊椎MRI映像キーポイント検出方法を開示し、該方法は、まず、深層目標検出ネットワークを利用して、位置決めされた脊椎MRI映像における椎骨を検出して、S1(尾骨1)に位置決めされた脊椎を識別し、次に脊椎の構造情報を組み合わせて偽陽性の検出結果をフィルタリングし及び各々の椎骨の細粒度タグを判断する。その後、キーポイント検出ネットワークを利用してそれぞれ各々の椎骨の上下境界UA、UM、UP、LA、LM、LPの合計6つのキーポイントを検出し、次にエッジ情報を組み合わせて各椎骨のキーポイント位置を補正することを決定し、最後に、対話型の可視化MRI脊椎画像キーポイント自動注釈ソフトウェアに開発することができる。本発明は脊椎MRI映像のキーポイントを自動的に抽出することができ、医用画像分析、医療支援等の面で高い応用価値がある。【選択図】図2

Description

本発明はコンピュータビジョン、人工知能の分野に属し、特に深層学習に基づく脊椎MRI映像キーポイント検出方法に関する。
人工知能技術は最近数年に医療分野において広く応用されており、その中のコンピュータビジョンは医療画像分析において高い応用潜在力がある。本発明は脊椎MRI映像キーポイント検出に対するものであり、従来の脊椎MRI映像のキーポイント検出の仕事は専門家が手動で注釈することに依存することが多い。手動注釈効率が低く、専門家の主観からの影響が比較的大きく、特に大規模データの処理・分析の場合に適用されない。現在、人工知能技術を利用して検出してみる方法は画像の下地層特徴を利用することが多く、例えば、論文(Ebrahimi S,Angelini E,Gajny L,et al.Lumbar spine posterior corner detection in X-rays using Haar-based features[C]//2016 IEEE 13th international symposium on biomedical imaging (ISBI).IEEE,2016:180-183.)においてHarr特徴を利用して椎骨の角点を検出するが、このような方法は画像の下地層特徴のみを利用し、ロバスト性が比較的低く、一部の特定のシーンのみに適用され、複雑で変わりやすい医療シーンに適用されない。本発明は高品質のデータセットを作成し及び深層学習の優れた学習能力を利用してよりロバストで正確な脊椎MRI映像キーポイント検出方法を実現する。
本発明は以下の技術案により実現される。深層学習に基づく脊椎MRI映像キーポイント検出方法であって、 脊椎MRI映像を訓練済みの目標検出ネットワークに入力して、各椎骨の位置情報、及びS1であるかどうかの粗粒度タグを取得するステップ1と、 ステップ1において取得されたすべての椎骨及び位置決めされたS1位置を利用して、脊椎自体の生理学的構造情報を組み合わせて偽陽性の検出結果をフィルタリングし及び各椎骨の属する細粒度タグを識別するステップ2と、 ステップ2において検出されて取得された椎骨及びその周囲の一部の領域を切り出して、訓練済みのキーポイント検出ネットワークに入力して各々の椎骨の上下境界UA、UM、UP、LA、LM、LPの合計6つのキーポイントの位置情報を検出するステップ3と、 訓練された分割ネットワークを利用してステップ2において取得された椎骨を分割してエッジ情報を取得し、且つステップ4において取得されたエッジ情報に基づいてステップ3において取得されたキーポイントの位置情報を補正して、最終的なキーポイントの予測結果を取得するステップ4と、を含む。
更に、前記ステップ1において、椎骨の粗粒度タグはS1及びNS1であり(S1とは尾骨1を指し、NS1とは尾骨1以外のすべての他の椎骨を指す)、前記目標検出ネットワークはYOLOv3である。
更に、前記ステップ2は、 検出されたS1を位置決めとする椎骨を採用して、各椎骨の中心の画像における高さを計算して図心の高さに基づいて、検出された椎骨をソートするサブステップ1)と、 人体脊椎の生理学的構造情報に基づいて、下から上まで順に、検出された各々の椎骨に対応のS1、L5、L4、L3、L2、L1、T12、T11等の細粒度タグを割り当てるサブステップ2)と、 椎骨のアスペクト比及び上側エッジの高さを計算して、閾値要件を満たすかどうかによってこの偽陽性の目標をフィルタリングするサブステップ3)と、により実現される。
更に、アスペクト比の閾値は1.6であり、上側エッジの高さの閾値は5である。
更に、前記ステップ4は具体的に、 椎骨エッジ分割ネットワークを構築し、椎骨エッジ分割ネットワークがダウンサンプリング部分とアップサンプリング部分とからなり、ダウンサンプリング部分の構造が完全接続層を除去したresnet50であり、アップサンプリング部分が対応の4つの段階のアップサンプリング畳み込みブロックで構成され、アップサンプリング畳み込みブロックの構造がupsampling->conv->bn->reluであるサブステップ(4.1)と、 椎骨エッジ分割ネットワークを訓練し、先にキーポイント注釈情報を利用して粗粒度の分割データセットを作成して椎骨エッジ分割ネットワークを事前訓練し、次に1つの正確な細粒度の分割データセットを構築して分割ネットワークを更に訓練するサブステップ(4.2)と、 分割結果を取得した後、CRF、及びエッジで画像勾配が比較的大きい特徴を利用して分割結果を更に補正して、より正確なエッジ分割情報を取得するサブステップ(4.3)と、を含む。
更に、前記サブステップ(4.3)は具体的に、 2つのキーポイントのリンクの延長線を描き、椎骨エッジ分割ネットワークを利用して椎骨エッジ情報を取得し、延長線と椎骨エッジの最も遠い箇所との交点を補正後のキーポイント座標とするサブステップ(4.3.1)と、 ステップ2において取得されたタグを組み合わせて最終的なキーポイントの予測結果を取得するサブステップ(4.3.2)と、を含む。
本発明の有益な効果は以下の通りである。本発明は深層学習技術を利用して脊椎MRI映像のキーポイント検出を実現し、繁雑な手動注釈を回避し、医者の負担を軽減する。専門家による手動注釈に比べて、本発明は医者の主観的な要素からの影響を回避することができ、大規模のデータを大量処理することもでき、更なる脊椎MRI映像分析にデータ基礎を提供し、本発明の方法は対話型の可視化MRI脊椎画像キーポイント自動注釈ソフトウェアに開発されることができ、取得されたキーポイント検出結果から椎間板の高さ指数及び腰椎前弯角を計算することができる。
図1は本発明に係る検出キーポイントの模式図である。 図2は本発明の全体フローチャートである。 図3は本発明に係るキーポイント矯正の模式図である。
以下、図面に基づいて本発明を詳しく説明する。
図1を参照し、本発明における訓練ットワークのデータセットはいずれも自己作成されたデータセットであり、脊椎キーポイントはいずれも医者・専門家で注釈されたものであり、検出されたキーポイントは各々の椎骨の上下境界UA、UM、UP、LA、LM、LPの合計6つのキーポイントである。モデル訓練の基本プロセスは、 1、脊椎MRI映像を収集して一部の映像を初期データセットとしてランダムに抽出し、 2、データセットを注釈又は補正し、且つ注釈済みのデータセットを利用してモデルを訓練し、 3、訓練済みのモデルを利用して新たに収集された脊椎MRI映像を予測し、且つデータセットに追加し、 4、モデルの精度が使用要件を満たすまで、ステップ2、3を繰り返す。
図2において説明される目標検出ネットワークはYOLOv3であることが好ましく、本方法は訓練過程において椎骨がS1であるかどうかによって椎骨をS1及びNS1(尾骨1及び非尾骨1)の2つの類別に分けて粗粒度タグ情報とする。検出ネットワークを訓練するデータセットはオリジナルのデータセットから構築されたものであり、各椎骨のキーポイント注釈に基づいて椎骨の包囲枠及び粗粒度類別タグを計算してYOLOv3ネットワークを訓練する。
脊椎MRI画像における椎骨の位置及びS1であるかどうかの粗粒度類別情報を取得した後、本方法は脊椎の構造情報を利用して偽陽性の予測結果をフィルタリングして各々の椎骨の属する類別を決定し、具体的な手順は、S1を位置決めとする椎骨を採用して、各椎骨の中心の画像における高さを計算して図心の高さに基づいて検出された椎骨をソートし、その後、人体脊椎の生理学的構造情報に基づいて、下から上まで順に検出された各々の椎骨に対応のS1、L5、L4、L3、L2、L1、T12、T11等のタグを割り当てる。ピクチャの最上方には椎骨が完全に撮影されていない場合がある恐れがあり、本方法は椎骨のアスペクト比を計算して中心の高さが閾値要件を満たすかどうかによってこのような目標をフィルタリングし、椎骨のアスペクト比が目標検出結果に基づいて計算されてもよい。
図2において説明されるキーポイント検出ネットワークはU型ネットワーク又は積層砂漏れネットワーク(Stacked Hourglass Network)であることが好ましく、訓練データはオリジナルの画像から切り出した椎骨画像、及び周囲の一部の画像がキーポイントに対応するヒートマップであり、キーポイント検出ネットワークの訓練過程においてオンラインハードサンプルマイニング方法を利用する。
オリジナルのデータ注釈過程において一定の誤差があり、該誤差に起因して注釈されたキーポイント位置での脊椎エッジに一定の誤差がある。本方法は脊椎のエッジ情報を利用して検出されたキーポイント結果を更に補正する。まず、本方法は椎骨エッジを分割するための1つのU型の深層畳み込みニューラルネットワークを椎骨エッジ分割ネットワークとして訓練し、該椎骨エッジ分割ネットワークがダウンサンプリング部分とアップサンプリング部分とからなる。ダウンサンプリング部分の構造は完全接続層を除去したResnet50であり、アップサンプリング部分は対応の4つの段階のアップサンプリング畳み込みブロックで構成され、アップサンプリング畳み込みブロックの構造はupsampling->conv->bn->reluである。椎骨エッジ分割ネットワークの精度を向上させるために、本方法はまずキーポイント注釈情報を利用して粗粒度の分割データセットを作成して椎骨エッジ分割ネットワークを事前訓練し、次に1つの正確な細粒度の分割データセットを構築して分割ネットワークを更に訓練する。本方法は更に条件付確率場CRF及びエッジで画像勾配が比較的大きい特徴を利用して分割結果を更に補正して、より正確なエッジ分割情報を取得する。椎骨エッジ分割ネットワークを利用して椎骨エッジ情報を取得した後、本方法はエッジ情報を利用して検出されたキーポイントを補正し、図3に示すように、本方法はUA-LAリンク、UM-LMリンク、UP-LPリンクに沿って椎骨エッジに向かって延長線を描き、延長線と椎骨エッジの最も遠い箇所との交点を補正後のUA、LA、UM、LM、UP、LP座標とする。データセット作成プロセスの効率を向上させ及び医療人が容易に使用できるようにするために、上記方法を対話型の可視化自動検出注釈ソフトウェアに開発する。
ネットワーク訓練が完了した後に脊椎MRI映像キーポイント検出プロセス全体に応用されることができ、本発明に説明される技術案に基づいて、本発明は脊椎MRI映像キーポイント検出プロセスに対して以下のステップを行う必要がある。
ステップ1では、脊椎MRI映像を訓練済みの目標検出ネットワークYOLOv3に入力して(Redmon J,Farhadi A.Yolov3:An incremental improvement[J].arXiv preprint arXiv:1804.02767,2018.)、各椎骨の位置情報、及びS1であるかどうかの粗粒度タグを取得する。
ステップ2では、ステップ1において取得されたすべての椎骨及び位置決めされたS1位置を利用して、脊椎自体の生理学的構造情報を組み合わせて偽陽性の検出結果をフィルタリングし及び各椎骨の属する細粒度タグを識別する。
1)検出されたS1を位置決めとする椎骨を採用して、各椎骨の中心の画像における高さを計算して、図心の高さに基づいて、検出された椎骨をソートする。
2)人体脊椎の生理学的構造情報に基づいて、下から上まで順に検出された各々の椎骨に、対応のS1、L5、L4、L3、L2、L1、T12、T11等の細粒度タグを割り当てる。
3)椎骨のアスペクト比及び上側エッジの高さを計算して、閾値要件を満たすかどうかによってこの偽陽性の目標をフィルタリングする。アスペクト比の閾値は1.6であり、上側エッジの高さの閾値は5である。
ステップ3では、ステップ2において検出されて取得された椎骨及びその周囲の一部の領域を切り出して、訓練済みのキーポイント検出ネットワークに入力して、各々の椎骨の上下境界UA、UM、UP、LA、LM、LPの合計6つのキーポイントのヒートマップを検出する。ヒートマップにおけるキーポイントの座標を抽出することは、論文(Zhang F,Zhu X,Dai H,et al.Distribution-aware coordinate representation for human pose estimation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.2020:7093-7102.)における方法を用いてもよいが、それに限らない。
ステップ4では、訓練された分割ネットワークを利用してステップ2において取得された椎骨を分割してエッジ情報を取得し、且つステップ4において取得されたエッジ情報に基づいて、ステップ3において取得されたキーポイントの位置情報を補正する。
1)椎骨エッジ分割ネットワークを利用して椎骨エッジ情報を取得する。
2)本方法はUA-LAリンク、UM-LMリンク、UP-LPリンクに沿って椎骨エッジに向かって延長線を描き、延長線と椎骨エッジの最も遠い箇所との交点を補正後のUA、LA、UM、、LM、UP、LP座標とする。
3)ステップ2において取得されたタグを組み合わせて最終的なキーポイントの予測結果を出力する。
上記プロセスに基づいて対話型の可視化MRI脊椎画像キーポイント自動注釈ソフトウェアを開発し、且つキーポイント検出結果に基づいて椎間板の高さ指数及び腰椎前弯角を計算する。
以上の説明は本発明の主な内容であり、本発明の明細書及び図面の内容を利用して行われる等価構造又は等価プロセス変換、又は他の関連技術分野に直接又は間接的に応用されるものは、いずれも同様に本発明の特許保護範囲内に含まれる。

Claims (4)

  1. 深層学習に基づく脊椎MRI映像キーポイント検出方法であって、以下のステップ1~4を含み、 前記ステップ1では、脊椎MRI映像を訓練済みの目標検出ネットワークに入力して、各椎骨の位置情報、及びS1であるかどうかの粗粒度タグを取得し、 前記ステップ2では、ステップ1において取得されたすべての椎骨及び位置決めされたS1位置を利用して、脊椎自体の生理学的構造情報を組み合わせて偽陽性の検出結果をフィルタリングして、各椎骨の属する細粒度タグを識別し、 前記ステップ3では、ステップ2において検出されて取得された椎骨及びその周囲の一部の領域を切り出して、訓練済みのキーポイント検出ネットワークに入力して、各々の椎骨の上下境界UA、UM、UP、LA、LM、LPの合計6つのキーポイントの位置情報を検出し、 前記ステップ4では、訓練された分割ネットワークを利用してステップ2において取得された椎骨を分割してエッジ情報を取得し、且つステップ4において取得されたエッジ情報に基づいて、ステップ3において取得されたキーポイントの位置情報を補正して、最終的なキーポイントの予測結果を取得し、 前記ステップ4は以下のサブステップ(4.1)~(4.3)を含み、 前記サブステップ(4.1)では、椎骨エッジ分割ネットワークを構築し、椎骨エッジ分割ネットワークがダウンサンプリング部分とアップサンプリング部分とからなり、ダウンサンプリング部分の構造が完全接続層を除去したresnet50であり、アップサンプリング部分が対応の4つの段階のアップサンプリング畳み込みブロックで構成され、アップサンプリング畳み込みブロックの構造がupsampling->conv->bn->reluであり、 前記サブステップ(4.2)では、椎骨エッジ分割ネットワークを訓練し、先にキーポイント注釈情報を利用して粗粒度の分割データセットを作成して、椎骨エッジ分割ネットワークを事前訓練し、次に1つの正確な細粒度の分割データセットを構築して分割ネットワークを更に訓練し、 前記サブステップ(4.3)では、分割結果を取得した後、条件付確率場、及びエッジで画像勾配が比較的大きい特徴を利用して分割結果を更に補正して、より正確なエッジ分割情報を取得し、 前記サブステップ(4.3)は以下のサブステップ(4.3.1)~(4.3.2)を含み、 前記サブステップ(4.3.1)では、2つのキーポイントのリンクの延長線を描き、椎骨エッジ分割ネットワークを利用して椎骨エッジ情報を取得し、延長線と椎骨エッジの最も遠い箇所との交点を補正後のキーポイント座標とし、 前記サブステップ(4.3.2)では、ステップ2において取得されたタグを組み合わせて、最終的なキーポイントの予測結果を出力する ことを特徴とする深層学習に基づく脊椎MRI映像キーポイント検出方法。
  2. 前記ステップ1において、椎骨の粗粒度タグはS1及びNS1であり、S1とは尾骨1を指し、NS1とは尾骨1以外のすべての他の椎骨を指し、前記目標検出ネットワークはYOLOv3である ことを特徴とする請求項1に記載の深層学習に基づく脊椎MRI映像キーポイント検出方法。
  3. 前記ステップ2は、以下のサブステップ(2.1)~(2.3)により実現され、 前記サブステップ(2.1)では、検出されたS1を位置決めとする椎骨を採用して、各椎骨の中心の画像における高さを計算して、図心の高さに基づいて、検出された椎骨をソートし、 前記サブステップ(2.2)では、人体脊椎の生理学的構造情報に基づいて、下から上まで順に、検出された各々の椎骨に対応のS1、L5、L4、L3、L2、L1、T12、T11の細粒度タグを割り当て、 前記サブステップ(2.3)では、椎骨のアスペクト比及び上側エッジの高さを計算して、閾値要件を満たすかどうかによって偽陽性の目標をフィルタリングする ことを特徴とする請求項1に記載の深層学習に基づく脊椎MRI映像キーポイント検出方法。
  4. アスペクト比の閾値は1.6であり、上側エッジの高さの閾値は5である ことを特徴とする請求項3に記載の深層学習に基づく脊椎MRI映像キーポイント検出方法。
JP2022578644A 2020-08-17 2021-08-16 深層学習に基づく脊椎mri映像キーポイント検出方法 Active JP7489732B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010824727.7 2020-08-17
CN202010824727.7A CN112184617B (zh) 2020-08-17 2020-08-17 一种基于深度学习的脊椎mri影像关键点检测方法
PCT/CN2021/112874 WO2022037548A1 (zh) 2020-08-17 2021-08-16 一种基于深度学习的脊椎mri影像关键点检测方法

Publications (2)

Publication Number Publication Date
JP2023530023A true JP2023530023A (ja) 2023-07-12
JP7489732B2 JP7489732B2 (ja) 2024-05-24

Family

ID=73919631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022578644A Active JP7489732B2 (ja) 2020-08-17 2021-08-16 深層学習に基づく脊椎mri映像キーポイント検出方法

Country Status (3)

Country Link
JP (1) JP7489732B2 (ja)
CN (1) CN112184617B (ja)
WO (1) WO2022037548A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112184617B (zh) * 2020-08-17 2022-09-16 浙江大学 一种基于深度学习的脊椎mri影像关键点检测方法
CN112700448B (zh) * 2021-03-24 2021-06-08 成都成电金盘健康数据技术有限公司 一种脊椎图像分割与识别方法
CN113392872A (zh) * 2021-04-30 2021-09-14 上海市第六人民医院 一种基于人工智能辅助的椎体骨折阅片方法及系统
CN113963251A (zh) * 2021-11-26 2022-01-21 山东省计算中心(国家超级计算济南中心) 一种海洋生物检测方法、系统和设备
US20230169644A1 (en) * 2021-11-30 2023-06-01 Pong Yuen Holdings Limited Computer vision system and method for assessing orthopedic spine condition
CN114549396A (zh) * 2021-12-28 2022-05-27 河海大学 一种基于图神经网络的脊椎交互式与自动分割细化方法
CN114494192B (zh) * 2022-01-26 2023-04-25 西南交通大学 一种基于深度学习的胸腰椎骨折识别分割与检测定位方法
CN114581395A (zh) * 2022-02-28 2022-06-03 四川大学 一种基于深度学习的脊椎医学图像的关键点检测方法
CN114881930B (zh) * 2022-04-07 2023-08-18 重庆大学 基于降维定位的3d目标检测方法、装置、设备和存储介质
CN116309591B (zh) * 2023-05-19 2023-08-25 杭州健培科技有限公司 一种医学影像3d关键点检测方法、模型训练方法及装置
CN116797597B (zh) * 2023-08-21 2023-11-17 邦世科技(南京)有限公司 一种基于三阶段全网络的脊柱退行性疾病全检测方法及系统
CN117474906B (zh) * 2023-12-26 2024-03-26 合肥吉麦智能装备有限公司 基于脊柱x光图像匹配的术中x光机复位方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5620668B2 (ja) 2009-10-26 2014-11-05 学校法人北里研究所 椎間板変性の評価装置及びプログラム
US9763636B2 (en) * 2013-09-17 2017-09-19 Koninklijke Philips N.V. Method and system for spine position detection
CN106780520B (zh) * 2015-11-18 2021-04-13 周兴祥 一种mri腰椎图像中椎骨的自动提取方法
WO2018104322A1 (en) * 2016-12-08 2018-06-14 Koninklijke Philips N.V. Simplified navigation of spinal medical imaging data
JP7120560B2 (ja) 2017-07-03 2022-08-17 株式会社リコー 診断支援システム、診断支援方法及び診断支援プログラム
JP7135473B2 (ja) 2018-01-31 2022-09-13 株式会社リコー 医用画像処理装置、医用画像処理方法、プログラム及び医用画像処理システム
US10902587B2 (en) * 2018-05-31 2021-01-26 GE Precision Healthcare LLC Methods and systems for labeling whole spine image using deep neural network
CN109523523B (zh) * 2018-11-01 2020-05-05 郑宇铄 基于fcn神经网络和对抗学习的椎体定位识别分割方法
CN109919903B (zh) * 2018-12-28 2020-08-07 上海联影智能医疗科技有限公司 一种脊椎检测定位标记方法、系统及电子设备
CN110599508B (zh) * 2019-08-01 2023-10-27 平安科技(深圳)有限公司 基于人工智能的脊柱影像处理方法及相关设备
CN110415291A (zh) * 2019-08-07 2019-11-05 清华大学 图像处理方法及相关设备
CN110866921A (zh) * 2019-10-17 2020-03-06 上海交通大学 基于自训练和切片传播的弱监督脊椎椎体分割方法和系统
CN111402269A (zh) * 2020-03-17 2020-07-10 东北大学 一种基于改进的FC-DenseNets的椎管分割方法
CN112184617B (zh) * 2020-08-17 2022-09-16 浙江大学 一种基于深度学习的脊椎mri影像关键点检测方法

Also Published As

Publication number Publication date
WO2022037548A1 (zh) 2022-02-24
CN112184617B (zh) 2022-09-16
CN112184617A (zh) 2021-01-05
JP7489732B2 (ja) 2024-05-24

Similar Documents

Publication Publication Date Title
JP2023530023A (ja) 深層学習に基づく脊椎mri映像キーポイント検出方法
Gao et al. Classification of CT brain images based on deep learning networks
Yan et al. 3D context enhanced region-based convolutional neural network for end-to-end lesion detection
WO2020253629A1 (zh) 检测模型训练方法、装置、计算机设备和存储介质
Rouzrokh et al. A deep learning tool for automated radiographic measurement of acetabular component inclination and version after total hip arthroplasty
CN110021025B (zh) 感兴趣区域的匹配和显示方法、装置、设备及存储介质
CN109345527B (zh) 一种基于MaskRcnn的膀胱肿瘤检测方法
Zhang et al. Automated semantic segmentation of red blood cells for sickle cell disease
WO2022001571A1 (zh) 一种基于超像素图像相似度的计算方法
Xu et al. An improved faster R-CNN algorithm for assisted detection of lung nodules
CN112308822B (zh) 基于深度卷积神经网络的椎间盘ct图像检测方法
Han et al. Automated pathogenesis-based diagnosis of lumbar neural foraminal stenosis via deep multiscale multitask learning
Hogeweg et al. Clavicle segmentation in chest radiographs
Lee et al. FingerNet: Deep learning-based robust finger joint detection from radiographs
JP2021002338A (ja) 画像セグメンテーション及び識別のための方法及びシステム
CN112862824A (zh) 新型冠状病毒肺炎病灶检测方法、系统、装置和存储介质
Zhang et al. Dual encoder fusion u-net (defu-net) for cross-manufacturer chest x-ray segmentation
Xue et al. Detection and localization of hand fractures based on GA_Faster R-CNN
Pan et al. SMILE: Cost-sensitive multi-task learning for nuclear segmentation and classification with imbalanced annotations
Du et al. Real-time lesion detection of cardiac coronary artery using deep neural networks
Goutham et al. Automatic localization of landmarks in cephalometric images via modified U-Net
Fazilov et al. Patch-based lesion detection using deep learning method on small mammography dataset
Li et al. Deformation and refined features based lesion detection on chest X-ray
AU2019204365C1 (en) Method and System for Image Segmentation and Identification
Khalid et al. Automated Cobb’s Angle Measurement for Scoliosis Diagnosis Using Deep Learning Technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240507

R150 Certificate of patent or registration of utility model

Ref document number: 7489732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150