JP2021149145A - 画像処理プログラム、画像処理装置、及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP2021149145A
JP2021149145A JP2020045198A JP2020045198A JP2021149145A JP 2021149145 A JP2021149145 A JP 2021149145A JP 2020045198 A JP2020045198 A JP 2020045198A JP 2020045198 A JP2020045198 A JP 2020045198A JP 2021149145 A JP2021149145 A JP 2021149145A
Authority
JP
Japan
Prior art keywords
image
lung field
pixel
value
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020045198A
Other languages
English (en)
Inventor
康貴 森脇
Yasutaka Moriwaki
康貴 森脇
浩明 武部
Hiroaki Takebe
浩明 武部
信浩 宮▲崎▼
Nobuhiro Miyazaki
信浩 宮▲崎▼
孝之 馬場
Takayuki Baba
孝之 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020045198A priority Critical patent/JP2021149145A/ja
Priority to EP21153276.7A priority patent/EP3882819A1/en
Priority to US17/166,819 priority patent/US11925492B2/en
Publication of JP2021149145A publication Critical patent/JP2021149145A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】体の画像に含まれる複数の部位を区別する。【解決手段】コンピュータは、体の画像の所定方向における画素列から、体の第1部位又は第2部位に対応する複数の連続する画素を抽出し、複数の連続する画素それぞれの画素値の統計値を求める。コンピュータは、統計値に基づいて、第1部位又は第2部位のうち、複数の連続する画素に対応する部位を特定する。【選択図】図4

Description

本発明は、画像処理に関する。
コンピュータ断層撮影(Computed Tomography,CT)画像を用いて症例を診断する画像診断では、びまん性肺疾患等のように、病変が広い範囲にわたって複数の領域に分布する症例の診断が難しいと言われている。医師は、そのような症例を診断する際に、過去に確定診断が行われた類似症例を参考にして、病名の候補を絞り込んでいる。
しかし、過去の類似症例を検索する作業は時間がかかり、医師にとって大きな負担となっている。そこで、過去の症例から類似する症例のCT画像を自動的に検索し、検索結果を提示することで、医師の診断業務を支援する類似症例画像検索技術が提案されている(例えば、特許文献1及び非特許文献1を参照)。CT画像の画素値は、CT値と呼ばれることもある。
この類似症例画像検索技術では、医用画像より抽出された臓器領域が複数の領域に分割され、複数の領域それぞれの病変を示す画素の個数が計数される。そして、領域毎の病変を示す画素の個数を記憶した記憶部を参照して、病変を示す画素の個数の類似度に応じた類似症例画像が特定される。
CT画像に関連して、実質臓器と管腔臓器の分類も知られている(例えば、非特許文献2を参照)。各臓器のCT値も知られている(例えば、非特許文献3を参照)。医用ボリュームデータからレンダリングにより3次元投影画像を生成する診断画像生成装置、及びロスト肺野領域も含めた肺野領域全体をCT画像から抽出する肺野領域抽出方法も知られている(例えば、特許文献2及び特許文献3を参照)。
特開2018−151791号公報 特開2016−182454号公報 特開2008−253293号公報
"CT検査におけるAIを活用した類似症例検索技術を開発"、[online]、2017年6月23日、株式会社富士通研究所プレスリリース、[令和2年1月8日検索]、インターネット<URL:http://pr.fujitsu.com/jp/news/2017/06/23.html> "臓器"、[online]、健康用語WEB事典、[令和2年2月26日検索]、インターネット<URL:https://health.joyplot.com/HealthWordsWiki/?%E8%87%93%E5%99%A8> "2014年放射線科専門医問題&解答解説[基礎1−5]"、[online]、2015年1月29日、画像診断まとめ、[令和2年2月26日検索]、インターネット<URL:https://xn--o1qq22cjlllou16giuj.jp/archives/21373>
上述した従来の類似症例画像検索技術によれば、肺野の複数のスライス各々のCT画像から特徴量を抽出し、抽出された特徴量を組み合わせた結果を病変の立体的な分布として定量化することで、分布が類似する症例を検索することができる。このとき、肺野の大きさの個人差を考慮するため、肺野の上端及び下端の位置が計算され、上端から下端までの複数のCT画像の中から抽出された所定枚数のCT画像について、特徴量抽出が行われる。
このため、肺野の上端及び下端の計算結果が本来の正しい位置から大きくずれている場合、病変の立体的な分布を正確に計算することが困難になる。したがって、肺野の上端及び下端の計算精度は、肺野の病変の立体的な分布の計算精度に大きな影響を与える。
例えば、身体の複数のスライスのCT画像から、肺野の断面形状を示すコロナル画像を生成することで、肺野の上端及び下端の位置を計算することができる。しかしながら、CT画像内に、肺野領域と肺野以外の臓器の領域とが混在している場合、正確な肺野の断面形状を示すコロナル画像を生成することは困難である。この場合、CT画像から肺野領域のみを抽出してコロナル画像を生成することが望ましい。
なお、かかる問題は、肺野の断面形状を示すコロナル画像を生成する場合に限らず、CT画像内に複数の異なる身体部位が混在している場合において生ずるものである。また、かかる問題は、人体のCT画像に限らず、人間又は動物の体の部位を含む様々な画像において生ずるものである。
1つの側面において、本発明は、体の画像に含まれる複数の部位を区別することを目的とする。
1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
コンピュータは、体の画像の所定方向における画素列から、体の第1部位又は第2部位に対応する複数の連続する画素を抽出し、複数の連続する画素それぞれの画素値の統計値を求める。コンピュータは、統計値に基づいて、第1部位又は第2部位のうち、複数の連続する画素に対応する部位を特定する。
1つの側面によれば、体の画像に含まれる複数の部位を区別することができる。
正確なコロナル画像を生成できるCT画像を示す図である。 正確なコロナル画像を生成することが困難なCT画像を示す図である。 画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理装置の具体例を示す機能的構成図である。 画像処理を示す図である。 処理対象CT画像を示す図である。 学習モードの画像処理のフローチャートである。 運用モードの画像処理のフローチャートである。 コロナル画像生成処理のフローチャートである。 画素値計算処理のフローチャートである。 情報処理装置のハードウェア構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
肺野のスライスのCT画像には、肺野領域以外に、胃、大腸等の肺野以外の臓器の空洞部分に対応する領域が存在することがある。非特許文献2に記載されているように、肺野は、働きを持った細胞が密に結合してできる実質臓器であり、胃及び大腸は、摂取した食物等の物質を通すために管状になった管腔臓器である。
非特許文献3に記載されているように、CT値は、X線が人体を通過するときに減弱する割合を表し、空気のCT値は、−1000HUと定められている。胃、大腸等の管腔臓器の中身は空洞(空気)であるため、管腔臓器のCT値は、ほぼ−1000HUとなる。一方、肺野は実質臓器であり、中身が完全に空洞ではないため、肺野のCT値は、−1000HUよりも大きな値となる。骨、筋肉、血管、脂肪等の他の部位のCT値は、肺野のCT値よりもさらに大きな値となる。
肺野のスライスのCT画像において、身体の左右方向の座標をx座標とし、身体の前後方向の座標をy座標とする。CT画像が次の条件a及び条件bのいずれも満たさない場合、又はCT画像が条件aのみを満たす場合、肺野のCT値の特徴を利用して、複数のスライスそれぞれのCT画像から、正確な肺野のコロナル画像を生成することができる。
条件a:CT画像内に肺野領域と管腔臓器の空洞部分に対応する領域Wとが存在し、かつ、領域Wのx座標の範囲が肺野領域のx座標の範囲と重なっている。
条件b:上肺野から下肺野へ向かってCT画像を順番に選択していくと、肺野領域が含まれなくなったCT画像内にも、領域Wが連続して含まれている。
図1は、正確なコロナル画像を生成できるCT画像の例を示している。図1(a)は、条件a及び条件bのいずれも満たさないCT画像101の例を示している。x座標は、身体の左右方向の座標を表し、y座標は、身体の前後方向の座標を表す。円形領域102は、CT画像を生成するCT装置のFOV(Field of View)を表す。円形領域102内のy軸に平行な破線は、同じx座標を有する複数の画素を表す。
下肺野のスライスのCT画像101内には、左肺の肺野領域111及び右肺の肺野領域112が含まれており、管腔臓器の空洞部分の領域は含まれていない。この場合、コンピュータは、破線が示すx軸上の各位置において、同じx座標を有する複数の画素のCT値の最小値103を求め、コロナル画像の平面上の対応する位置に最小値103をプロットする。管腔臓器の空洞部分の領域が含まれていないため、肺野領域111又は肺野領域112のx座標の範囲において、最小値103は、肺野領域111又は肺野領域112のCT値を表す。
コンピュータは、複数のスライスそれぞれのCT画像について、同様の処理を繰り返すことで、左肺の肺野領域121及び右肺の肺野領域122を含む、コロナル画像を生成する。そして、コンピュータは、コロナル画像を解析することで、肺野の下端123の位置を計算する。
図1(b)は、条件aを満たし、かつ、条件bを満たさないCT画像131の例を示している。下肺野のスライスのCT画像131内には、左肺の肺野領域141及び右肺の肺野領域142に加えて、管腔臓器の空洞部分の領域143が含まれており、領域143のx座標の範囲が肺野領域142のx座標の範囲と重なっている。しかし、上肺野から下肺野へ向かってCT画像を順番に選択していくと、肺野領域が含まれなくなったCT画像内には、管腔臓器の空洞部分の領域も含まれない。
この場合、コンピュータは、図1(a)の場合と同様の処理を繰り返すことで、左肺の肺野領域151及び右肺の肺野領域152を含む、コロナル画像を生成する。領域143のx座標の範囲において、CT値の最小値は、肺野領域142ではなく、領域143のCT値を表す。しかし、領域143のCT値は肺野領域142のCT値と類似しているため、コロナル画像に含まれる肺野領域152の形状に大きな影響を及ぼすことはない。そして、コンピュータは、コロナル画像を解析することで、肺野の下端153の位置を計算する。
図2は、条件a及び条件bの両方を満たすため、正確なコロナル画像を生成することが困難なCT画像の例を示している。図2(a)は、肺野領域と管腔臓器の空洞部分に対応する領域とを含むCT画像201の例を示している。下肺野のスライスのCT画像201内には、左肺の肺野領域211及び右肺の肺野領域212に加えて、管腔臓器の空洞部分の領域213が含まれており、領域213のx座標の範囲が肺野領域212のx座標の範囲と重なっている。この場合、領域213のx座標の範囲において、CT値の最小値は、肺野領域212ではなく、領域213のCT値を表す。
図2(b)は、管腔臓器の空洞部分に対応する領域を含み、かつ、肺野領域を含まないCT画像231の例を示している。CT画像231は、CT画像201よりもさらに下部のスライスのCT画像である。CT画像231内には、管腔臓器の空洞部分の領域241が含まれており、肺野領域は含まれていない。この場合、領域241のx座標の範囲において、CT値の最小値は、領域241のCT値を表す。
コンピュータは、図1(a)及び図1(b)の場合と同様の処理を繰り返すことで、左肺の肺野領域221及び右肺の肺野領域222を含む、コロナル画像を生成する。しかし、上肺野から下肺野へ向かってCT画像を順番に選択していくと、肺野領域が含まれなくなったCT画像231内にも、管腔臓器の空洞部分の領域241が連続して含まれている。このため、肺野領域222の形状には、管腔臓器の形状に対応する凸部223が含まれており、コロナル画像から計算される肺野の下端224の位置は、実際の下端よりも低くなる。
図3は、実施形態の画像処理装置の機能的構成例を示している。図3の画像処理装置301は、記憶部311及び特定部312を含む。記憶部311は、体の画像321を記憶する。特定部312は、画像321に対する画像処理を行う。
図4は、図3の画像処理装置301が行う画像処理の例を示すフローチャートである。まず、特定部312は、画像321の所定方向における画素列から、体の第1部位又は第2部位に対応する複数の連続する画素を抽出し(ステップ401)、複数の連続する画素それぞれの画素値の統計値を求める(ステップ402)。そして、特定部312は、統計値に基づいて、第1部位又は第2部位のうち、複数の連続する画素に対応する部位を特定する(ステップ403)。
図3の画像処理装置301によれば、体の画像に含まれる複数の部位を区別することができる。
図5は、図3の画像処理装置301の具体例を示している。図5の画像処理装置501は、記憶部511、取得部512、特定部513、生成部514、学習部515、及び決定部516を含む。記憶部511及び特定部513は、図3の記憶部311及び特定部312にそれぞれ対応する。
CT装置502は、医療機関に設置され、患者のCT画像を撮影する。画像処理装置501とCT装置502は、通信ネットワークを介して互いに通信することができる。
図6は、図5の画像処理装置501が行う画像処理の例を示している。画像処理装置501は、学習モード及び運用モードの2種類の動作モードを有する。学習モードにおいて、画像処理装置501は、例えば、以下の手順で、コロナル画像から肺野領域を抽出する抽出モデル524を生成する。
P1:取得部512は、CT装置502から複数の患者それぞれの学習用CT画像521を取得して、記憶部511に格納する。学習用CT画像521は、肺野を含む身体のスライスのCT画像であり、患者毎に、複数のスライスに対応する複数の学習用CT画像521が取得される。特定部513は、各学習用CT画像521内の肺野に対応する肺野領域を特定する。生成部514は、各患者の複数の学習用CT画像521それぞれの肺野領域から、肺野の断面形状を示す学習用コロナル画像522を生成して、記憶部511に格納する。
P2:ユーザは、各患者の学習用コロナル画像522に対して、肺野領域を示すアノテーション601を付加する。
P3:生成部514は、学習用コロナル画像522に付加されたアノテーション601に基づいて、学習用コロナル画像522内の肺野領域を示す正解領域情報523を生成し、記憶部511に格納する。
P4:学習部515は、複数の患者の学習用コロナル画像522及び正解領域情報523を学習モデルに学習させることで、学習済みモデルである抽出モデル524を生成して、記憶部511に格納する。
運用モードにおいて、画像処理装置501は、例えば、以下の手順で、肺野の上端及び下端を決定する。
P11:取得部512は、CT装置502から診断対象の患者の複数のCT画像525を取得して、記憶部511に格納する。CT画像525は、図3の画像321の一例である。特定部513は、各CT画像525内の肺野領域を特定し、生成部514は、複数のCT画像525それぞれの肺野領域から、肺野のコロナル画像526を生成して、記憶部511に格納する。
P12:決定部516は、抽出モデル524を用いて、コロナル画像526から肺野領域を抽出し、抽出された肺野領域を示す領域情報527を生成して、記憶部511に格納する。
P13:決定部516は、領域情報527が示す肺野領域の画像を解析することで、肺野の上端611及び下端612を決定し、上端611及び下端612を示す位置情報528を生成して、記憶部511に格納する。
次に、手順P11においてCT画像525内の肺野領域を特定する処理について説明する。手順P1において学習用CT画像521内の肺野領域を特定する処理についても、手順P11と同様である。
特定部513は、肺野領域のCT値と、管腔臓器の空洞部分に対応する領域WのCT値との違いを利用して、肺野領域と領域Wとを区別する。肺野は、第1部位の一例であり、管腔臓器は、第2部位の一例である。非特許文献3の記載等から、次のような医学的知見が得られる。
肺野領域のCT値:約−1000HU〜約−500HU
領域WのCT値:約−1000HU
軟組織、骨等のCT値:約100HU〜約1000HU
上記の医学的知見によれば、肺野領域のCT値は領域WのCT値よりも大きくなることが想定される。しかし、個別の画素のCT値を比較した場合、たまたま肺野領域のCT値が領域WのCT値よりも小さくなる可能性もある。そこで、特定部513は、判定対象の領域に含まれる複数の画素のCT値の統計値を求め、統計値に基づいて、判定対象の領域が肺野領域又は領域Wのいずれであるかを特定する。
手順P11において、画像処理装置501は、例えば、以下の手順で、CT画像525内の肺野領域を特定し、複数のCT画像525それぞれの肺野領域から、肺野のコロナル画像526を生成する。
P21:特定部513は、CT画像525に対する二値化処理を行って、各領域の輪郭を抽出する。二値化処理の閾値T1としては、例えば、−100HU〜0HUの範囲のCT値が用いられる。特定部513は、内部面積が最大の領域以外の領域に属する画素のCT値を、所定値に変換することで、処理対象CT画像を生成する。所定値としては、例えば、閾値T1以上のCT値が用いられる。
図7は、処理対象CT画像の例を示している。変換前のCT画像701には、左肺の肺野領域711、右肺の肺野領域712、及び管腔臓器の空洞部分の領域712が含まれている。CT画像701に対する二値化処理により、肺野領域711、肺野領域712、及び領域713の輪郭に加えて、それらの領域を含む身体領域702の輪郭も抽出される。身体領域702は、内部面積が最大の領域に対応するため、身体領域702の外側の領域に属する画素のCT値が所定値に変換されて、処理対象CT画像703が生成される。
P22:特定部513は、処理対象CT画像の1つのx座標を選択し、選択されたx座標の位置において、y軸に平行な直線の方向における画素列を特定する。y軸に平行な直線の方向は、所定方向の一例である。
P23:特定部513は、特定された画素列から、肺野領域又は領域Wに対応する部分画素列を抽出する。特定部513は、例えば、画素列に含まれる各画素のCT値を閾値T2と比較する。そして、特定部513は、閾値T2以下のCT値を有し、かつ、連続している複数の画素を、肺野領域又は領域Wに対応する部分画素列として抽出する。
閾値T2は、上記の医学的知見に基づいて決定してもよく、実際のCT画像のCT値に対する統計処理によって決定してもよい。統計処理を用いる場合、肺野領域、領域W、及びその他の部位のCT値を収集することで、収集されたCT値の分布から、肺野領域及び領域WのCT値のグループと、その他の部位のCT値のグループとを分離する、閾値T2を決定することができる。閾値T2としては、例えば、−500HU〜100HUの範囲のCT値が用いられる。閾値T2は、第2閾値の一例である。
このような閾値T2を用いることで、肺野領域又は領域Wに対応する部分画素列を精度良く抽出することができる。
P24:特定部513は、抽出された部分画素列毎に、部分画素列に含まれる複数の画素それぞれのCT値の統計値Vを求める。統計値Vとしては、平均値、中央値、最頻値等を用いることができる。
P25:特定部513は、統計値Vを閾値T3と比較する。閾値T3は、閾値T2よりも小さなCT値である。特定部513は、統計値Vが閾値T3よりも大きい場合、部分画素列が肺野領域に対応すると判定し、統計値Vが閾値T3以下である場合、部分画素列が領域Wに対応すると判定する。そして、特定部513は、肺野領域に対応すると判定された部分画素列を、肺野領域の一部として特定する。
閾値T3は、上記の医学的知見に基づいて決定してもよく、実際のCT画像のCT値に対する統計処理によって決定してもよい。統計処理を用いる場合、肺野領域及び領域WのCT値を収集することで、収集されたCT値の分布から、肺野領域のCT値のグループと、領域WのCT値のグループとを分離する、閾値T3を決定することができる。閾値T3としては、例えば、−1000HU〜−900HUの範囲のCT値が用いられる。閾値T3は、第1閾値の一例である。
部分画素列のCT値の統計値Vを閾値T3と比較することで、部分画素列が肺野領域又は領域Wのいずれに対応するかを、精度良く判定することができる。
P26:生成部514は、画素列から肺野領域に対応する1つ以上の部分画素列が抽出された場合、それらの部分画素列を選択し、選択された部分画素列に含まれる複数の画素それぞれのCT値の最小値を求める。そして、生成部514は、コロナル画像526の平面において、CT画像525のスライスと画素列のx座標とに対応する位置に、最小値をプロットする。
P27:画像処理装置501は、手順P22〜手順P26の処理を、処理対象CT画像のすべてのx座標について繰り返す。
P28:画像処理装置501は、手順P21〜手順P27の処理を、診断対象の患者のすべてのスライスに対応するCT画像525について繰り返す。これにより、診断対象の患者のコロナル画像526が生成される。
このような画像処理によれば、CT画像525内の肺野領域の画素と領域Wの画素とが区別され、肺野領域のCT値のみを用いてコロナル画像526が生成される。これにより、領域WのCT値が計算上無視されるため、領域Wの影響を排除して正確なコロナル画像526を生成することができる。さらに、正確なコロナル画像526を用いることで、肺野の上端及び下端の正確な位置を求めることが可能になる。
なお、CT画像525内の肺野領域と領域Wとを区別するだけでよく、コロナル画像526を生成する必要がない場合は、手順P22において、CT画像525内の任意の方向を所定方向として用いることができる。この場合、所定方向は、x軸に平行な方向であってもよく、x軸と所定の角度で交差する方向であってもよい。
図8は、図5の画像処理装置501が行う学習モードの画像処理の例を示すフローチャートである。まず、画像処理装置501は、q人(qは2以上の整数)の患者のいずれかを示す制御変数rに0を設定する。そして、取得部512は、CT装置502から、r番目の患者のn枚(nは2以上の整数)の学習用CT画像521を取得する(ステップ801)。
次に、画像処理装置501は、n枚の学習用CT画像521それぞれの肺野領域から、肺野の学習用コロナル画像522を生成する(ステップ802)。そして、ユーザは、学習用コロナル画像522にアノテーションを付加し、生成部514は、付加されたアノテーションに基づいて、学習用コロナル画像522内の肺野領域を示す正解領域情報523を生成する(ステップ803)。
次に、画像処理装置501は、rを1だけインクリメントし(ステップ804)、r<qである場合、ステップ801〜ステップ804の処理を繰り返す。
ステップ804においてrがqに達した場合、学習部515は、0番目〜q−1番目の患者の学習用コロナル画像522及び正解領域情報523を学習モデルに学習させることで、抽出モデル524を生成する(ステップ805)。
図9は、図5の画像処理装置501が行う運用モードの画像処理の例を示すフローチャートである。まず、取得部512は、CT装置502から、診断対象の患者のn枚のCT画像525を取得する(ステップ901)。そして、画像処理装置501は、n枚のCT画像525それぞれの肺野領域から、肺野のコロナル画像526を生成する(ステップ902)。
次に、決定部516は、抽出モデル524を用いて、コロナル画像526から肺野領域を抽出し、抽出された肺野領域を示す領域情報527を生成する(ステップ903)。そして、決定部516は、領域情報527を用いて肺野の上端及び下端を決定し、上端及び下端を示す位置情報528を生成する(ステップ904)。
図10は、図9のステップ902におけるコロナル画像生成処理の例を示すフローチャートである。図8のステップ802におけるコロナル画像生成処理についても、図10のコロナル画像生成処理と同様である。
まず、画像処理装置501は、n枚のCT画像525のいずれかを示す制御変数iに0を設定する。そして、特定部513は、i番目のCT画像525を選択し(ステップ1001)、選択されたCT画像525に対する二値化処理を行って、i番目の処理対象CT画像を生成する(ステップ1002)。
処理対象CT画像内の画素の位置(x,y)は、xmax個(xmaxは2以上の整数)のx座標と、ymax個(ymaxは2以上の整数)のy座標とを用いて、記述される。この場合、xmaxは処理対象CT画像の幅を表し、ymaxは処理対象CT画像の高さを表す。
一方、コロナル画像526内の画素の位置(x,y)は、xmax個のx座標とn個のy座標とを用いて記述される。コロナル画像526のx座標としては、処理対象CT画像と同じx座標が用いられる。コロナル画像526のy座標は、n枚のCT画像525のいずれかのスライスに対応する。この場合、xmaxはコロナル画像526の幅を表し、nはコロナル画像526の高さを表す。
次に、画像処理装置501は、コロナル画像526のx座標を示す制御変数jに0を設定する。そして、生成部514は、コロナル画像526内の位置(j,i)における画素の画素値p[j][i]を求め、コロナル画像526の平面上にp[j][i]をプロットする(ステップ1003)。
次に、画像処理装置501は、jを1だけインクリメントし(ステップ1004)、j<xmaxである場合、ステップ1003及びステップ1004の処理を繰り返す。ステップ1004においてjがxmaxに達した場合、画像処理装置501は、iを1だけインクリメントする(ステップ1005)。i<nである場合、画像処理装置501は、ステップ1001〜ステップ1005の処理を繰り返す。ステップ1005においてiがnに達した場合、画像処理装置501は、処理を終了する。
図11は、図10のステップ1003における画素値計算処理の例を示すフローチャートである。図11の画素値計算処理では、配列buf及び配列numが用いられる。配列bufは、肺野領域又は領域Wに対応する1つの部分画素列のCT値を格納する可変長配列である。配列numは、肺野領域に対応する1つ又は複数の部分画素列のCT値を格納する可変長配列である。配列buf及び配列numの長さの初期値は0である。
まず、特定部513は、処理対象CT画像のy座標を示す制御変数kに0を設定し、処理対象CT画像内の位置(j,k)における画素のCT値c[j][k]を、閾値T2と比較する(ステップ1101)。
c[j][k]>T2である場合(ステップ1101,YES)、特定部513は、配列bufの長さlength(buf)をチェックする(ステップ1102)。length(buf)=0である場合(ステップ1102,YES)、特定部513は、kを1だけインクリメントし(ステップ1103)、k<ymaxである場合、ステップ1101以降の処理を繰り返す。
c[j][k]≦T2である場合(ステップ1101,NO)、特定部513は、c[j][k]を配列bufに追加する(ステップ1104)。これにより、肺野領域又は領域Wに対応する画素のCT値が配列bufに追加され、length(buf)が1だけインクリメントされる。そして、特定部513は、ステップ1103以降の処理を行う。
length(buf)>0である場合(ステップ1102,NO)、特定部513は、配列bufに含まれる1つ以上のCT値の統計値Vを求め、統計値Vを閾値T3と比較する(ステップ1105)。V>T3である場合(ステップ1105,YES)、特定部513は、配列bufに含まれる1つ以上のCT値を配列numに追加する(ステップ1106)。これにより、肺野領域に対応する部分画素列のCT値が配列numに追加される。
次に、特定部513は、配列bufを初期化する(ステップ1107)。これにより、length(buf)=0となる。そして、特定部513は、ステップ1103以降の処理を行う。V≦T3である場合(ステップ1105,NO)、特定部513は、ステップ1106の処理をスキップして、ステップ1107以降の処理を行う。これにより、領域Wに対応する部分画素列のCT値が無視される。
ステップ1103においてkがymaxに達した場合、生成部514は、配列numに含まれる1つ以上のCT値の最小値を求めて、p[j][i]に設定する(ステップ1108)。なお、配列numにCT値が格納されていない場合、生成部514は、閾値T2以上の所定値をp[j][i]に設定する。
画像処理装置501は、図10のコロナル画像生成処理を用いて、肺野のコロナル画像526の代わりに、管腔臓器のコロナル画像を生成することもできる。管腔臓器のコロナル画像を生成する場合、図11のステップ1105における判定条件“V>T3?”が、“V<T3?”に変更される。
したがって、特定部513は、V<T3である場合、配列bufに含まれる1つ以上のCT値を配列numに追加し(ステップ1106)、V≧T3である場合、ステップ1106の処理をスキップする。これにより、領域Wに対応する1つ又は複数の部分画素列のCT値が、配列numに格納される。
画像処理装置501は、CT画像以外の医用画像に対して同様の画像処理を行うことで、医用画像内の領域に対応する部位を特定することもできる。CT画像以外の医用画像としては、MRI(Magnetic Resonance Imaging)画像、超音波画像等が用いられる。
図3の画像処理装置301及び図5の画像処理装置501の構成は一例に過ぎず、画像処理装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図5の画像処理装置501において、学習用CT画像521及びCT画像525が事前に記憶部511に格納されている場合は、取得部512を省略することができる。別の画像処理装置により抽出モデル524が生成され、記憶部511に格納されている場合は、学習部515を省略することができる。肺野の上端及び下端を決定する必要がない場合は、決定部516を省略することができる。
図4及び図8〜図11のフローチャートは一例に過ぎず、画像処理装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図8の画像処理において、学習用CT画像521が事前に記憶部511に格納されている場合は、ステップ801の処理を省略することができる。別の画像処理装置により抽出モデル524が生成され、記憶部511に格納されている場合は、図8の画像処理を省略することができる。
図9の画像処理において、CT画像525が事前に記憶部511に格納されている場合は、ステップ901の処理を省略することができる。抽出モデル524を用いずに、コロナル画像526から肺野の上端及び下端を決定する場合は、ステップ903の処理を省略することができる。肺野の上端及び下端を決定する必要がない場合は、ステップ903及びステップ904の処理を省略することができる。
図1、図2、及び図7に示したCT画像は一例に過ぎず、CT画像は、患者及び身体部位に応じて変化する。図1、図2、及び図6に示したコロナル画像は一例に過ぎず、コロナル画像は、CT画像に応じて変化する。
図12は、図3の画像処理装置301及び図5の画像処理装置501として用いられる情報処理装置(コンピュータ)のハードウェア構成例を示している。図12の情報処理装置は、CPU(Central Processing Unit)1201、メモリ1202、入力装置1203、出力装置1204、補助記憶装置1205、媒体駆動装置1206、及びネットワーク接続装置1207を含む。これらの構成要素はハードウェアであり、バス1208により互いに接続されている。図5のCT装置502は、ネットワーク接続装置1207に接続されていてもよい。
メモリ1202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1202は、図3の記憶部311又は図5の記憶部511として用いることができる。
CPU1201(プロセッサ)は、例えば、メモリ1202を利用してプログラムを実行することにより、図3の特定部312として動作する。CPU1201は、メモリ1202を利用してプログラムを実行することにより、図5の取得部512、特定部513、生成部514、学習部515、及び決定部516としても動作する。
入力装置1203は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1204は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、領域情報527又は位置情報528であってもよい。
補助記憶装置1205は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1205は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1205にプログラム及びデータを格納しておき、それらをメモリ1202にロードして使用することができる。補助記憶装置1205は、図3の記憶部311又は図5の記憶部511として用いることができる。
媒体駆動装置1206は、可搬型記録媒体1209を駆動し、その記録内容にアクセスする。可搬型記録媒体1209は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1209は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1209にプログラム及びデータを格納しておき、それらをメモリ1202にロードして使用することができる。
このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1202、補助記憶装置1205、又は可搬型記録媒体1209のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置1207は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1207を介して受信し、それらをメモリ1202にロードして使用することができる。
情報処理装置は、ネットワーク接続装置1207を介して、ユーザ端末からCT画像525及び処理要求を受信し、領域情報527又は位置情報528をユーザ端末へ送信することもできる。
なお、情報処理装置が図12のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、情報処理装置がユーザ端末から処理要求を受信する場合は、入力装置1203及び出力装置1204を省略してもよい。可搬型記録媒体1209又は通信ネットワークを使用しない場合は、媒体駆動装置1206又はネットワーク接続装置1207を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図12を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
体の画像の所定方向における画素列から、前記体の第1部位又は第2部位に対応する複数の連続する画素を抽出し、
前記複数の連続する画素それぞれの画素値の統計値を求め、
前記統計値に基づいて、前記第1部位又は前記第2部位のうち、前記複数の連続する画素に対応する部位を特定する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記2)
前記複数の連続する画素に対応する部位を特定する処理は、前記統計値と第1閾値とを比較した結果に基づいて、前記複数の連続する画素に対応する部位を特定する処理を含むことを特徴とする付記1記載の画像処理プログラム。
(付記3)
前記複数の連続する画素を抽出する処理は、前記所定方向における画素列に含まれる複数の画素それぞれの画素値と、第2閾値とを比較した結果に基づいて、前記複数の連続する画素を抽出する処理を含むことを特徴とする付記1又は2記載の画像処理プログラム。
(付記4)
前記第1部位は肺野であり、
前記第2部位は前記肺野以外の部位であり、
前記画像処理プログラムは、
前記体の複数のスライス各々のコンピュータ断層撮影画像を、前記体の画像として用い、前記コンピュータ断層撮影画像内の複数の画素列各々を、前記所定方向における画素列として用いて、前記複数の連続する画素に対応する部位を特定することで、前記複数の画素列のうち、前記肺野に対応する画素を含む画素列の位置を特定し、
前記複数のスライス各々のコンピュータ断層撮影画像において特定された、前記肺野に対応する画素を含む画素列の位置に基づいて、前記肺野のコロナル画像を生成し、
前記コロナル画像を用いて、前記肺野の上端及び下端を決定する、
処理を前記コンピュータにさらに実行させることを特徴とする付記1乃至3のいずれか1項に記載の画像処理プログラム。
(付記5)
体の画像を記憶する記憶部と、
前記画像の所定方向における画素列から、前記体の第1部位又は第2部位に対応する複数の連続する画素を抽出し、前記複数の連続する画素それぞれの画素値の統計値を求め、前記統計値に基づいて、前記第1部位又は前記第2部位のうち、前記複数の連続する画素に対応する部位を特定する特定部と、
を備えることを特徴とする画像処理装置。
(付記6)
前記特定部は、前記統計値と第1閾値とを比較した結果に基づいて、前記複数の連続する画素に対応する部位を特定することを特徴とする付記5記載の画像処理装置。
(付記7)
前記特定部は、前記所定方向における画素列に含まれる複数の画素それぞれの画素値と、第2閾値とを比較した結果に基づいて、前記複数の連続する画素を抽出することを特徴とする付記5又は6記載の画像処理装置。
(付記8)
前記第1部位は肺野であり、
前記第2部位は前記肺野以外の部位であり、
前記特定部は、前記体の複数のスライス各々のコンピュータ断層撮影画像を、前記体の画像として用い、前記コンピュータ断層撮影画像内の複数の画素列各々を、前記所定方向における画素列として用いて、前記複数の連続する画素に対応する部位を特定することで、前記複数の画素列のうち、前記肺野に対応する画素を含む画素列の位置を特定し、
前記画像処理装置は、
前記複数のスライス各々のコンピュータ断層撮影画像において特定された、前記肺野に対応する画素を含む画素列の位置に基づいて、前記肺野のコロナル画像を生成する生成部と、
前記コロナル画像を用いて、前記肺野の上端及び下端を決定する決定部と、
をさらに備えることを特徴とする付記6乃至7のいずれか1項に記載の画像処理装置。
(付記9)
体の画像の所定方向における画素列から、前記体の第1部位又は第2部位に対応する複数の連続する画素を抽出し、
前記複数の連続する画素それぞれの画素値の統計値を求め、
前記統計値に基づいて、前記第1部位又は前記第2部位のうち、前記複数の連続する画素に対応する部位を特定する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(付記10)
前記複数の連続する画素に対応する部位を特定する処理は、前記統計値と第1閾値とを比較した結果に基づいて、前記複数の連続する画素に対応する部位を特定する処理を含むことを特徴とする付記9記載の画像処理方法。
(付記11)
前記複数の連続する画素を抽出する処理は、前記所定方向における画素列に含まれる複数の画素それぞれの画素値と、第2閾値とを比較した結果に基づいて、前記複数の連続する画素を抽出する処理を含むことを特徴とする付記9又は10記載の画像処理方法。
(付記12)
前記第1部位は肺野であり、
前記第2部位は前記肺野以外の部位であり、
前記コンピュータは、
前記体の複数のスライス各々のコンピュータ断層撮影画像を、前記体の画像として用い、前記コンピュータ断層撮影画像内の複数の画素列各々を、前記所定方向における画素列として用いて、前記複数の連続する画素に対応する部位を特定することで、前記複数の画素列のうち、前記肺野に対応する画素を含む画素列の位置を特定し、
前記複数のスライス各々のコンピュータ断層撮影画像において特定された、前記肺野に対応する画素を含む画素列の位置に基づいて、前記肺野のコロナル画像を生成し、
前記コロナル画像を用いて、前記肺野の上端及び下端を決定する、
処理をさらに実行することを特徴とする付記9乃至11のいずれか1項に記載の画像処理方法。
101、131、201、231、525、701 CT画像
102 円形領域
103 最小値
111、112、121、122、141、142、151、152、211、212、221、222、711、712 肺野領域
123、153、224、612 下端
143、213、241、713 領域
223 凸部
301、501 画像処理装置
311、511 記憶部
312、513 特定部
321 画像
502 CT装置
512 取得部
514 生成部
515 学習部
516 決定部
521 学習用CT画像
522 学習用コロナル画像
523 正解領域情報
524 抽出モデル
526 コロナル画像
527 領域情報
528 位置情報
601 アノテーション
611 上端
702 身体領域
703 処理対象CT画像
1201 CPU
1202 メモリ
1203 入力装置
1204 出力装置
1205 補助記憶装置
1206 媒体駆動装置
1207 ネットワーク接続装置
1208 バス
1209 可搬型記録媒体

Claims (6)

  1. 体の画像の所定方向における画素列から、前記体の第1部位又は第2部位に対応する複数の連続する画素を抽出し、
    前記複数の連続する画素それぞれの画素値の統計値を求め、
    前記統計値に基づいて、前記第1部位又は前記第2部位のうち、前記複数の連続する画素に対応する部位を特定する、
    処理をコンピュータに実行させるための画像処理プログラム。
  2. 前記複数の連続する画素に対応する部位を特定する処理は、前記統計値と第1閾値とを比較した結果に基づいて、前記複数の連続する画素に対応する部位を特定する処理を含むことを特徴とする請求項1記載の画像処理プログラム。
  3. 前記複数の連続する画素を抽出する処理は、前記所定方向における画素列に含まれる複数の画素それぞれの画素値と、第2閾値とを比較した結果に基づいて、前記複数の連続する画素を抽出する処理を含むことを特徴とする請求項1又は2記載の画像処理プログラム。
  4. 前記第1部位は肺野であり、
    前記第2部位は前記肺野以外の部位であり、
    前記画像処理プログラムは、
    前記体の複数のスライス各々のコンピュータ断層撮影画像を、前記体の画像として用い、前記コンピュータ断層撮影画像内の複数の画素列各々を、前記所定方向における画素列として用いて、前記複数の連続する画素に対応する部位を特定することで、前記複数の画素列のうち、前記肺野に対応する画素を含む画素列の位置を特定し、
    前記複数のスライス各々のコンピュータ断層撮影画像において特定された、前記肺野に対応する画素を含む画素列の位置に基づいて、前記肺野のコロナル画像を生成し、
    前記コロナル画像を用いて、前記肺野の上端及び下端を決定する、
    処理を前記コンピュータにさらに実行させることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理プログラム。
  5. 体の画像を記憶する記憶部と、
    前記画像の所定方向における画素列から、前記体の第1部位又は第2部位に対応する複数の連続する画素を抽出し、前記複数の連続する画素それぞれの画素値の統計値を求め、前記統計値に基づいて、前記第1部位又は前記第2部位のうち、前記複数の連続する画素に対応する部位を特定する特定部と、
    を備えることを特徴とする画像処理装置。
  6. 体の画像の所定方向における画素列から、前記体の第1部位又は第2部位に対応する複数の連続する画素を抽出し、
    前記複数の連続する画素それぞれの画素値の統計値を求め、
    前記統計値に基づいて、前記第1部位又は前記第2部位のうち、前記複数の連続する画素に対応する部位を特定する、
    処理をコンピュータが実行することを特徴とする画像処理方法。
JP2020045198A 2020-03-16 2020-03-16 画像処理プログラム、画像処理装置、及び画像処理方法 Withdrawn JP2021149145A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020045198A JP2021149145A (ja) 2020-03-16 2020-03-16 画像処理プログラム、画像処理装置、及び画像処理方法
EP21153276.7A EP3882819A1 (en) 2020-03-16 2021-01-25 Image processing program, image processing apparatus, and image processing method
US17/166,819 US11925492B2 (en) 2020-03-16 2021-02-03 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020045198A JP2021149145A (ja) 2020-03-16 2020-03-16 画像処理プログラム、画像処理装置、及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2021149145A true JP2021149145A (ja) 2021-09-27

Family

ID=74236069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020045198A Withdrawn JP2021149145A (ja) 2020-03-16 2020-03-16 画像処理プログラム、画像処理装置、及び画像処理方法

Country Status (3)

Country Link
US (1) US11925492B2 (ja)
EP (1) EP3882819A1 (ja)
JP (1) JP2021149145A (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320923A (ja) * 1995-05-26 1996-12-03 Toshiba Medical Eng Co Ltd 異常陰影自動検出システム
US7379572B2 (en) * 2001-10-16 2008-05-27 University Of Chicago Method for computer-aided detection of three-dimensional lesions
JP2008253293A (ja) 2007-03-30 2008-10-23 Fujifilm Corp Ct画像からの肺野領域抽出方法
JP5976293B2 (ja) * 2010-10-08 2016-08-23 東芝メディカルシステムズ株式会社 画像処理装置及び画像処理方法
JP5990834B2 (ja) 2014-03-28 2016-09-14 株式会社日立製作所 診断画像生成装置および診断画像生成方法
JP6204544B2 (ja) 2016-07-26 2017-09-27 株式会社日立製作所 診断画像生成装置
JP6855850B2 (ja) 2017-03-10 2021-04-07 富士通株式会社 類似症例画像検索プログラム、類似症例画像検索装置及び類似症例画像検索方法
US10685258B2 (en) * 2018-06-15 2020-06-16 Shimadzu Corporation Image processing apparatus, program, and radiographic imaging apparatus
US10621728B2 (en) * 2018-06-26 2020-04-14 Sony Corporation Internal organ localization in computed tomography (CT) images
JP7185477B2 (ja) * 2018-10-12 2022-12-07 株式会社Pfu 画像処理装置、制御方法及び制御プログラム

Also Published As

Publication number Publication date
US20210287369A1 (en) 2021-09-16
EP3882819A1 (en) 2021-09-22
US11925492B2 (en) 2024-03-12

Similar Documents

Publication Publication Date Title
JP6947759B2 (ja) 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法
JP6542004B2 (ja) 医用画像処理装置、および医用画像処理システム
US8380013B2 (en) Case image search apparatus, method and computer-readable recording medium
JP6490985B2 (ja) 医用画像処理装置および医用画像処理システム
JP5222082B2 (ja) 情報処理装置およびその制御方法、データ処理システム
JP4800129B2 (ja) 医用画像表示処理装置、及び、医用画像表示処理プログラム
US20070237380A1 (en) Three-dimensional medical image display device equipped with pre-processing system implementing clinical protocol
US11501439B2 (en) Diagnosis support apparatus and X-ray CT apparatus
Valanarasu et al. Learning to segment brain anatomy from 2D ultrasound with less data
JP6301277B2 (ja) 診断補助画像生成装置および診断補助画像生成方法、並びに、診断補助画像生成プログラム
JP2024009342A (ja) 文書作成支援装置、方法およびプログラム
JP6258084B2 (ja) 医用画像表示装置、医用画像表示システムおよび医用画像表示プログラム
JP4651271B2 (ja) コンピュータ援用患者診断決定支援システム
JP2021149145A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
WO2021187483A1 (ja) 文書作成支援装置、方法およびプログラム
JP7270453B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2004174220A (ja) 画像処理装置、画像処理方法、及び当該画像処理方法をコンピュータに実行させるプログラムを格納する記録媒体
JP2019107453A (ja) 画像処理装置及び画像処理方法
Kolárik et al. Detecting the Absence of Lung Sliding in Ultrasound Videos Using 3D Convolutional Neural Networks
Geng et al. Exploring Structural Information for Semantic Segmentation of Ultrasound Images
US20220084206A1 (en) Information processing apparatus, information processing method, and non-transitory storage medium
Yasarla et al. Learning to segment brain anatomy from 2d ultrasound with less data
JP7252366B2 (ja) 物体検出装置、物体検出方法およびプログラム
US20230368880A1 (en) Learning apparatus, learning method, trained model, and program
KR102132564B1 (ko) 진단 장치 및 진단 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20231030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231030