JP2021097864A - 画像判定装置、画像判定方法及びプログラム - Google Patents

画像判定装置、画像判定方法及びプログラム Download PDF

Info

Publication number
JP2021097864A
JP2021097864A JP2019231092A JP2019231092A JP2021097864A JP 2021097864 A JP2021097864 A JP 2021097864A JP 2019231092 A JP2019231092 A JP 2019231092A JP 2019231092 A JP2019231092 A JP 2019231092A JP 2021097864 A JP2021097864 A JP 2021097864A
Authority
JP
Japan
Prior art keywords
image
segmentation
determination
extracted
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019231092A
Other languages
English (en)
Other versions
JP2021097864A5 (ja
JP7404857B2 (ja
Inventor
拓也 山村
Takuya Yamamura
拓也 山村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019231092A priority Critical patent/JP7404857B2/ja
Priority to US17/127,066 priority patent/US11803970B2/en
Publication of JP2021097864A publication Critical patent/JP2021097864A/ja
Publication of JP2021097864A5 publication Critical patent/JP2021097864A5/ja
Application granted granted Critical
Publication of JP7404857B2 publication Critical patent/JP7404857B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】判定対象となる医用画像について適切なポジショニングで撮影されたかどうかの判定を高精度に行うことのできる画像判定装置、画像判定方法及びプログラムを提供する。【解決手段】医用画像の画像データを取得して、当該医用画像に含まれる解剖学的な構造物を領域抽出した抽出画像(セグメンテーション画像)を生成し、この抽出画像又は抽出画像を画像変換した変換画像の少なくともいずれかに基づいて、機械学習により特徴量を算出し、この特徴量に関する学習結果に基づいて、医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを自動的に判定する。【選択図】図7

Description

本発明は、画像判定装置、画像判定方法及びプログラムに関するものである。
従来、病院等の医療施設では、X線画像をはじめとする放射線画像が数多く撮影されている。これらの放射線画像は、人の体内の様々な部位の病変組織や異常を非侵食的に検出し、病気の診断を行う際に用いられる。
これらの放射線画像の撮影では、撮影前に撮影対象である部位を直接確認することが困難であり、撮影対象となる人の姿勢、体格等の個人差や動き等により、しばしば、診断の対象とする部位が正常に撮影されていないという状況が発生する。
この場合に、適正に撮影されたか否かの判断を後の診断時等に行ったのでは、撮影画像が不良である場合に、後日改めて撮影を行わなければならず、被験者である患者に負担を掛けてしまう。
そこで、従来、撮影された放射線画像のデジタルデータを読み取って撮影位置が適正であるか否かを判断する装置がある。
例えば、特許文献1には、放射線画像の照射野内で当該照射野の境界に接する部分領域の画像データから所定の特徴量を抽出し、所定の学習アルゴリズムによる特徴量に関する学習結果に基づいて、特定部位の一部が放射線画像から欠落しているか否かを判定する技術が開示されている。
また例えば、特許文献2には、医用画像を解析して解剖学的な構造物を複数抽出し、抽出した構造物の抽出結果に基づいて医用画像の撮影時におけるポジショニングの複数の評価項目を評価し、各評価項目別に点数化する技術が開示されている。
また適用分野は異なるが、例えば、特許文献3には、タイヤ画像に畳み込みニューラルネットワークを適用することによって、タイヤの品種やタイヤ状態を判別する技術が開示されている。
特開2011−255061号公報 特開2010−51456号公報 特開2019−35626号公報
しかしながら、特許文献1に記載の技術は、医用画像が診断に適するものであるか否かの判断を、画像中に対象部位の一部が写っていない欠落や欠損の有無について行うものである。
この点、医用画像が診断に適さない写損と判断されるべきケースは対象部位の欠落や欠損の場合に限定されない。
また、特定部位の一部が放射線画像から欠落しているか否かの判断に機械学習を取り入れているが、特徴量の抽出に機械学習を用いるものではない。
また、特許文献2に記載の技術では、構造物の抽出結果から算出される特徴量を、事前に開発者等の人が介在して設定している。
このため、解析パラメーターが個別のケースに限定されてしまい、様々な部位やパターンにロバストに対応することはできない。
さらに、特許文献3に記載の技術では、深層学習(Deep Learning)を用いて処理を行っているが、深層学習によって判定対象となる画像から直接クラス分類を行っている。
このため、教師データが多く用意できる場合には深層学習の効果を発揮して適切に特徴量を抽出し、精度の高い判定結果を得ることができるが、教師データが少ない場合は深層学習での特徴抽出を適切に行うことができず、判定精度が低下してしまう。
医用画像分野において、人体の個別の部位の関心領域(画像が診断に適したものか否かを判断する基準となる部分、「解剖学的な構造物」)の教師データを多く収集することは難しいことが予測され、少ない教師データに基づいても精度の高い判定結果を得ることのできる構成が望まれる。
本発明は以上のような事情に鑑みてなされたものであり、判定対象となる医用画像について適切なポジショニングで撮影されたかどうかの判定を高精度に行うことのできる画像判定装置、画像判定方法及びプログラムを提供することを目的とする。
請求項1記載の発明は、画像判定装置において、
被験者の診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得する画像取得手段と、
前記医用画像に含まれる解剖学的な構造物を領域抽出した抽出画像を生成するセグメンテーション手段と、
前記抽出画像を画像変換して変換画像を生成する画像変換手段と、
前記抽出画像又は前記変換画像の少なくともいずれかに基づいて、機械学習により特徴量を算出する特徴量抽出手段と、
前記特徴量に関する学習結果に基づいて、前記医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを自動的に判定する判定手段と、
を備えたことを特徴とする。
請求項9記載の発明は、画像判定方法であって、
診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得する画像取得工程と、
前記医用画像から解剖学的な構造物を領域抽出した抽出画像を生成するセグメンテーション工程と、
前記抽出画像と前記医用画像の撮影時におけるポジショニングの良否に関するクラスとを対応付けて教師データとする教師データ準備工程と、
前記教師データ準備工程において用意された複数の前記教師データについて、畳み込みニューラルネットワークで学習し、前記畳み込みニューラルネットワークのパラメーターを設定するパラメーター設定工程と、
被験者の診断対象領域を含む部位を放射線撮影する実撮影により取得された前記医用画像の画像データを判定対象とし、
前記セグメンテーション工程において、前記実撮影において取得された前記医用画像から抽出画像を領域抽出して、当該画像データを前記パラメーター設定工程において設定されたパラメーターを有する前記畳み込みニューラルネットワークに入力し、前記判定対象の前記医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを判定する判定工程と、
を含むことを特徴とする。
請求項10記載の発明は、プログラムであって、
コンピューターを、
被験者の診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得する画像取得手段、
前記医用画像から解剖学的な構造物を領域抽出した抽出画像を生成するセグメンテーション手段、
前記抽出画像を画像変換して変換画像を生成する画像変換手段、
前記抽出画像又は前記変換画像の少なくともいずれかに基づいて、機械学習により特徴量を算出する特徴量抽出手段、
前記特徴量に関する学習結果に基づいて、前記医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを自動的に判定する判定手段、
として機能させることを特徴とする。
本発明の構成をとることで、判定対象となる医用画像について適切なポジショニングで撮影されたかどうかの判定を高精度に行うことが可能となる。
本実施形態における画像判定装置としての画像処理装置の要部構成を表す要部ブロック図である。 (a)は、膝側面の画像の解剖学的な構造物を説明するための模式図であり、(b)は、適切なポジショニングで撮影された膝側面の画像の例であり、(c)は、不適切なポジショニングで撮影された膝側面の画像の例である。 本実施形態における画像判定処理を示すフローチャートである。 図3に示す機械学習を用いたポジショニング判定処理を示すフローチャートである。 図4に示すセグメンテーション処理の詳細を示すフローチャートである。 セグメンテーション用のニューラルネットワークを構築する際に用いられる教師データ群の例を示す図である。 図4に示すクラス分類処理の詳細を説明する説明図である。 クラス分類用のニューラルネットワークを構築する際に用いられる教師データ群の例を示す図である。 ポジショニング判定処理の結果表示画面の一例を示す画面例である。 セグメンテーション画像を表示するセグメンテーション表示画面の一例を示す画面例である。 (a)は、膝正面の画像の解剖学的な構造物を説明するための模式図であり、(b)は、(a)に示すb部分のセグメンテーション画像の例であり、(c)は、(a)に示すc部分のセグメンテーション画像の例である。 (a)は、適切なポジショニングで撮影された膝正面の画像の例であり、(b)は、不適切なポジショニングで撮影された膝正面の画像の例である。
以下、本発明に係る画像判定装置、画像判定方法、及びプログラムの一実施形態について図面を参照しつつ説明する。
なお、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、本発明の範囲を以下の実施形態及び図示例に限定するものではない。
図1は、本実施形態における画像処理装置の要部構成を示す要部ブロック図である。
本実施形態において画像処理装置1は、被験者の診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得して、当該医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かの判定を行う画像判定装置として機能するものである。
病院等の医療施設では、X線画像をはじめとする放射線画像(医用画像)が数多く撮影されている。これらの医用画像は、例えば、肺や頭部といった人の体内の様々な部位の病変組織や異常を非侵食的に検出し、病気の診断を行う際に用いられる。
こうした医用画像の撮影では、撮影を行う操作者は、被曝防止のために撮影室とは別の部屋(前室等)から撮影指示を行うようになっている。このため、撮影直前に撮影対象である部位の状況(例えば位置や向き等)を直接確認することが困難である。また、同様の理由から撮影時に介護人が付き添うことができない。このため、撮影対象となる人が適切な姿勢を維持することができなかったり、撮影までの間に動いてしまうことにより、診断対象となる部位が正常に撮影されない場合がある。また、体格等の個人差により、同じように撮影しても写り方が大きく異なる場合もある。
特に、膝側面に代表される四肢の撮影では、放射線(X線)の入射角度や患者の対象部位の傾かせ方等によって写り方が大きく異なる。このため、撮影時のポジショニングが難しく、写損(撮影失敗)と判断されて再撮影となる割合が高くなる。
再撮影が必要とされる場合、被験者である患者に後日再来を求めるのは負担となる。このため、再撮影が必要か否かは、できるだけ撮影後すぐに確認できることが好ましい。
撮影画像が写損であるか否かの判断は診断の対象となる部位によって異なるが、例えば膝側面の場合、図2(a)に示す内側顆αと外側顆βのずれ部分(ずれ部分の幅、ずれ量d)の程度によって画像の適否(画像診断に使用できるか否か)が判別される。一般的には内側顆αと外側顆βとのずれ部分の幅(ずれ量d)が7mm以上程度である場合に写損であるとの判定している。
図2(b)は、上記の基準で見た場合に正常と判断される膝側面の画像の例であり、図2(c)は、上記の基準で見た場合に写損と判断される膝側面の画像の例である。
しかし、撮影画像が再撮影が必要となる写損であるか否かの判断は画像上明確とはいえず、判断が難しい。
そこで本実施形態の画像処理装置1は、撮影された画像が診断に適した正しいポジショニングで撮影されたものであるか否か(すなわち、写損にあたらないか否か)を機械学習の手法を導入することで、高精度に行うことを可能にする。
図1に示すように、本実施形態の画像処理装置1は、制御部11、記憶部12、操作部13、表示部14、通信部15等を備えており、これらの各部は、バス16により相互に接続されている。
制御部11は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)等により構成されるコンピューターである。
制御部11のCPUは、操作部13の操作に応じて、記憶部12(例えば記憶部12内のプログラムを記憶する図示しない記憶領域)に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAMの作業領域に展開し、展開されたプログラムに従って、後述する画像判定処理等の画像処理を始めとする各種処理を実行し、画像処理装置1各部の動作を集中制御する。また、CPUは、バス16を介して他の構成部から信号やデータを受け取ったり、制御信号や命令を送ったりする。
また、特に本実施形態において制御部11は、被験者の診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得する画像取得手段、医用画像から解剖学的な構造物を領域抽出した抽出画像(セグメンテーション画像)を生成するセグメンテーション手段、抽出画像を画像変換して変換画像を生成する画像変換手段、抽出画像又は変換画像の少なくともいずれかに基づいて、機械学習により特徴量を算出する特徴量抽出手段、特徴量に関する学習結果に基づいて、医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを自動的に判定する判定手段等、として機能する。
制御部11のこれらの機能は、制御部11のCPUと記憶部12に記憶されたプログラムとの協働によって実現される。
なお、これら各機能の詳細については、後述する。
記憶部12は、SSD(Solid State Drive)等の不揮発性の半導体メモリーやハードディスク(HDD:Hard Disk Drive)等により構成される。記憶部12は、着脱可能なフラッシュメモリ等を含んでもよい。
記憶部12は、制御部11において各種画像処理等を実行するためのプログラムを始めとする各種プログラムや、プログラムによる処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。記憶部12に記憶されている各種プログラムは、コンピューターにより読取可能なプログラムコードの形態で格納され、制御部11は、当該プログラムコードに従った動作を逐次実行する。
本実施形態では、医用画像についてポジショニングを判定するためのプログラムが記憶部12に格納されており、制御部11は当該プログラムにしたがってポジショニング判定処理を含む画像判定処理を行う。
また、本実施形態の記憶部12には、機械学習において参照される各種の教師データ(例えば図6におけるセグメンテーション用の教師データ群12a、図8におけるクラス分類用の教師データ群12b参照)等が記憶されている。
操作部13は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードや、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部11に出力する。また、操作部13は、表示部14の表示画面にタッチパネルを備えてもよく、この場合、タッチパネルを介して入力された指示信号が制御部11に出力される。
表示部14は、例えばLCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニターにより構成されている。
表示部14は、制御部11から入力される表示信号の指示に従って、画面上に各種の画像や関連情報等のデータ等(例えば図9に示すポジショニング判定処理の結果表示画面14a、図10に示すセグメンテーション表示画面14b)の各種表示を行う。
通信部15は、LANアダプターやモデムやTA等を備え、通信ネットワークに接続された各装置との間のデータ送受信を制御する。通信部15は、例えばネットワークカード等の通信用のインターフェイスを備えるものであってもよい。
図示を省略するが、本実施形態の画像処理装置1には、図示しない各種の通信ネットワーク等を介してHIS(Hospital Information System;病院情報システム)やRIS(Radiology Information System;放射線科情報システム)、PACS(Picture Archiving and Communication System)等が接続されている。
通信部15は、外部装置との間で各種データを送受信可能となっており、例えば外部の撮影装置で撮影された画像データ(医用画像の放射線画像データ)等は、この通信部15を介して画像処理装置1に入力される。入力された画像データ等は、適宜記憶部12等に保存される。
次に、本実施形態のポジショニング判定処理を含む画像判定処理の動作について説明する。
図3は、制御部11(制御部11のCPU等)による画像判定処理の制御手順を示したフローチャートである。この画像判定処理は、例えば、ユーザーによる操作部13の開始指示操作に基づく入力信号により開始される。
図3に示すように、画像判定処理が開始されると、制御部11のCPUは、先ず、被験者の診断対象領域を含む部位を放射線撮影した医用画像の画像データ(判定対象となる実撮影において取得された医用画像の画像データ)を記憶部12から読み込む(ステップS1)。
本実施形態において、この画像データは、放射線画像撮影装置等で撮影された後に、例えば明度やコントラストの調整といった初期補正がなされて記憶部12に保存されたものである。なお、制御部11に入力される画像データは特に限定されない。各種補正等の処理が施されていないデータであってもよいし、グリッド補正やゲイン補正など各種補正処理、階調処理やダイナミックレンジ圧縮処理、エッジ強調等のエンハンスメント処理を行ったものでもよい。また適宜間引く等の縮小処理や回転処理等の各種補間処理や、幾何学変換を行った画像データであってもよい。またプレ曝射(本画像取得前に行われる低い線量での曝射)によって取得された画像データでもよい。さらに、画像データは連写された静止画像の中の1枚等であってもよいし、静止画像のデータに限定されず動画像データから切り出されたものであってもよい。
判定対象の画像データが読み込まれると、制御部11のCPUは、当該画像データに基づく医用画像を画像の関連情報や操作メニュー等とともに表示部14に表示させる(ステップS2)。なお、表示部14に表示させることは必須ではない。
また、制御部11のCPUは、当該読み込まれた画像データが、被写体である人体の特定部位(被験者の診断対象である部位)が診断を行うのに適したポジショニングで撮影された医用画像であるか否かを判別するポジショニング判定処理を行う(ステップS3)。
本実施形態において、このCPU(制御部11)によるポジショニング判定処理は、機械学習を用いたものが採用される。
ここで、ポジショニング判定処理(図3におけるステップS3)について、図4から図8等を参照しつつ詳細に説明する。
図4は、ポジショニング判定処理の内容を説明したフローチャートである。
図4に示すように、本実施形態では、ポジショニング判定処理としてまずセグメンテーション処理(ステップS11)を行い、次いで、セグメンテーション処理(ステップS11)の結果を踏まえてクラス分類処理(ステップS12)を行う。
画像データに対するセグメンテーション処理とは、広くは画像を領域分割することをいうが、本実施形態では、画像全体から注目する領域を抽出すること、特に制御部11において取得された医用画像から、ポジショニングの良否判断を行う際に注目される(基準とされる)「解剖学的な構造物」を領域抽出した抽出画像(セグメンテーション画像)を生成する処理を意味する。
ここで領域抽出の対象となる「解剖学的な構造物」は、ポジショニングの良否判断の対象となる医用画像によって異なり、例えば、医用画像が膝側面の画像である場合には、膝側面の画像に現れる内側顆α・外側顆β、又は内側顆αと外側顆βとのずれ部分(図2(a)においてずれ量dで示されるずれ部分の幅)等が「解剖学的な構造物」とされる。
なお、本実施形態では、内側顆αと外側顆βとのずれ部分を、ポジショニングの良否判断を行う際の基準となる(すなわち、領域抽出の対象となる)「解剖学的な構造物」とする場合を例として説明する。
なお、いかなる部分を領域抽出の対象となる「解剖学的な構造物」とするかは、画像の種類、撮影対象等に応じて適宜設定される。
セグメンテーション処理には各種の手法があり、いずれの手法を用いてもよい。
例えば大津の二値化法等のアルゴリズムを用いたセグメンテーション処理では、画素値に所定の閾値を設けて、閾値を超える領域と超えない領域とに画像を分割する。
しかし二値化法では、画像のコントラストによって精度が大きく左右され、また放射線撮影を行った際の管電圧や被写体厚が違う等、各種条件の異なる画像が入力された場合に適切にセグメンテーションを行うことができない場合がある。
この点、例えば動的輪郭(snakes)を使用してイメージのセグメント化を行うSnakes法、領域の内部、外部をLevel set関数によって表現するLevel set法、深層学習(Deep Learning)に基づく方法等を用いることで二値化法よりも高精度のセグメンテーション処理を行うことが可能である。
このうち、特に深層学習(Deep Learning)を用いた場合には、画像のコントラスト等を加味した学習を行い、これに基づいたセグメンテーション処理を行うことができる。このため、ロバスト性に優れたセグメンテーション処理を実現することが期待でき、好ましい。
なお、画像データに対するセグメンテーション処理には、個別の物体を区別するInstance-aware Segmentationと、同一クラスの物体であれば個を区別しないSemantic Segmentation(セマンティックセグメンテーション)があるが、いずれを用いても構わない。
以下の実施形態では、一例として、画素単位で各画素の意義を予測し解析するセマンティックセグメンテーションの手法を採用する場合について説明する。セマンティックセグメンテーションでは、画像内の全ピクセルをピクセルごと(1画素ごと)に分類することで、領域分割、領域抽出を行う。
画像のセグメンテーション(セマンティックセグメンテーション)処理に特化したニューラルネットワーク(以下において単に「ネットワーク」ともいう)としては、Seg−Net、U−Net等がある。いずれもCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)を用いたものであり、エンコーダーとデコーダー両方の仕組みをもち、画像をピクセル単位で意味のある集合に分割していくセグメンテーション処理を行う。
なお、画像のセグメンテーション処理に適用されるニューラルネットワークは、Seg−Net、U−Netに限定されず、各種のネットワークを適宜適用することが可能である。
図5は、本実施形態におけるセグメンテーション処理の手法を説明するフローチャートである。図5では、深層学習によるセグメンテーション(セマンティックセグメンテーション)処理を行う場合を例示している。
セグメンテーション処理に深層学習に基づく手法を用いる場合には、予め深層学習を行って、処理に用いるニューラルネットワークを構築しておく。
本実施形態では、判定対象の画像データが入力されると、制御部11は、深層学習が終了しているか否かを判断する(ステップS21)。そして、深層学習が十分に終了していない場合(ステップS21;NO)には、教師データを複数用意し(ステップS22)、これら複数の教師データ(図6の教師データ群12a参照)を、例えば記憶部12に記憶させる。
図6は、記憶部に記憶されている教師データ群の一例を示す図である。
図6に示すように、教師データ群12aは、訓練入力画像(訓練用の入力画像のデータ)と当該画像から正しく内側顆α・外側顆βのずれ部分等の「解剖学的な構造物」を領域抽出した正解データ(セグメンテーション結果としての正解画像のデータ)とのセットからなる。
教師データ群12aとして多くの教師データが用意されるほど深層学習の効果が高まり構築されるニューラルネットワークの精度が向上する。また、教師データ群12aを構成する教師データ(各教師データの訓練入力画像)は、撮影時の放射線量、放射線の入射角度、被験者の性別、年齢、体格等、各種の異なる条件下で取得された画像データであることが好ましい。各種条件下で撮影された画像を広く用いることによって、各種の入力画像に対応可能な、よりロバスト性に優れたニューラルネットワークを構築することが期待できる。
なお、セグメンテーション処理において、画像にネットワークを適用する領域抽出を行う前に、不要なノイズ部分を取り除くためや、計算時間の短縮等のために、適宜各種画像変換処理(ステップS23)を行うことが好ましい。
画像変換処理の一例としてはトリミングがある。この場合には、セグメンテーション処理を行う前に、関心領域(例えば、内側顆α・外側顆βを含む膝関節周辺)をもとの画像からトリミングし、トリミング後の画像(変換画像)に対してセグメンテーション処理を行う。トリミングの手法については特に限定されず、手動で関心領域を設定してもよいし、自動で関心領域を設定して切り出してもよい。
次いで、用意された複数の教師データについて畳み込みニューラルネットワークで学習し、畳み込みニューラルネットワークのパラメーターを設定する。
具体的には、まず、もとの訓練入力画像又は画像変換処理を行った場合には変換後の訓練入力画像に、セグメンテーション用のニューラルネットワークを適用し、画素の少なくとも一部を1又は複数のセマンティックな予測と関連付けることによって、画像に対して、セマンティックセグメンテーションを実行する。これにより画像から所望の領域を分割する、領域抽出が行われ(ステップS24)、抽出画像(セグメンテーション画像)が生成される。
そして、制御部11は必要に応じて学習パラメーターを更新し(ステップS25)、更新されたパラメーターでセグメンテーションニューラルネットワーク(セグメンテーション用のニューラルネットワーク)を構築する(ステップS26)。
さらに、制御部11はテスト用に用意された入力画像データと正解データとのセット等を用いて、入力画像から正しい正解データ(「解剖学的な構造物」を領域抽出したセグメンテーション画像のデータ)を得ることができるかどうかのテストを行い、学習後のセグメンテーションニューラルネットワークのセグメンテーション精度を確認する(ステップS27)。
なお、精度が足りないような場合には、ネットワークの構成を変えたり(例えば畳み込み層の数を変更(増減)する、適用するネットワークの種類を変更する等)、パラメーターを修正したり、教師データを増やしてさらに学習を行う等により適宜対応する。
他方、深層学習が十分に終了していると制御部11が判断する場合(ステップS21;YES)には、判定対象画像を適宜画像変換処理(ステップS28)した上で、もとの判定対象画像又は画像変換処理を行った場合には変換後の判定対象画像に、学習済みのセグメンテーション用のニューラルネットワークを適用し、「解剖学的な構造物」の領域抽出を行い(ステップS29)、抽出画像(セグメンテーション画像)を生成する。
なお、ステップS23やステップS28に示した画像変換処理は必須ではなく、この処理を省略してもよい。
判定対象画像について領域抽出が行われると、次に、制御部11は抽出された抽出画像(セグメンテーション画像)についてクラス分類処理を行う(図4におけるステップS12)。
図7は、クラス分類処理の内容を説明するための説明図である。
図7に示すように、判定対象画像(又はここからトリミング等することで生成された変換画像)からセグメンテーション処理を行うことによって領域抽出されたセグメンテーション画像にクラス分類用の畳み込みニューラルネットワークを適用する。
本実施形態に例示するクラス分類用の畳み込みニューラルネットワークは、セグメンテーション処理によって領域抽出された「解剖学的な構造物」(内側顆α・外側顆βのずれ部分等)の画像(判定対象画像のセグメンテーション画像)をクラスA、クラスB、クラスCの3つに分類するものである。
なお、クラス分類用の畳み込みニューラルネットワークもセグメンテーション用のニューラルネットワークと同様に深層学習(Deep Learning)によって構築されるものである。すなわち、予め深層学習を行うことによって、クラス分類処理に用いるニューラルネットワークを構築しておく。
そして、図示は省略するが、クラス分類用の畳み込みニューラルネットワークについても、図5に示したセグメンテーション用のニューラルネットワークと同様に、深層学習が終了しているか否かを制御部11が判断し、深層学習が十分に終了していない場合には、教師データを複数用意してさらに学習を行わせる。これら複数の教師データ(教師データ群12b)は、例えば記憶部12に記憶される。
図8は、記憶部に記憶される教師データ群の一例を示した図である。
図8に示すように、クラス分類用の教師データ群12bは、「解剖学的な構造物」が領域抽出されたセグメンテーション画像(抽出画像)と、各セグメンテーション画像の正しいクラス分類とが対応付けられたものである。
クラス分類用の教師データ群12bとしてより多くのデータが用意されるほど深層学習の効果が高まり構築されるニューラルネットワークの精度が向上する。また、教師データ群12bには、各種条件下で撮影された画像に基づくデータを広く含めることによって、各種のセグメンテーション画像が入力された際にも適切なクラスに分類することが可能な、よりロバスト性に優れたニューラルネットワークを構築することが期待できる。
クラス分類用の畳み込みニューラルネットワークは、図7に示すように、特徴抽出部と分類部とを有している。
特徴抽出部は、畳み込み層とプーリング層とを備え、セグメンテーション処理で領域抽出された画像(図7においてセグメンテーション画像)から特徴量を抽出する。特徴量の抽出は畳み込み層においてカーネル(フィルター)を掛けて畳み込み操作を行うことで行われる。すなわち、畳み込み層では、元の画像(ここではセグメンテーション画像)にフィルターを掛けることで当該画像の特徴点を凝縮する。またプーリング層では特徴の空間サイズを縮小する。特徴抽出部を構成する畳み込み層及びプーリング層の層構成(すなわち、畳み込み層とプーリング層とを何層繰り返すか等)は特に限定されず、適宜調整される。
分類部は、全結合層と出力層とを備え、全結合層でピクセルの値を一次元に展開し、その後全結合層の各ユニット同士を結合して出力層に送る。
分類部では、特徴抽出部において抽出された特徴量に基づいてセグメンテーション画像を2以上のクラスに分類する。
出力層のユニット数は、分類するクラスの数を表しており、本実施形態のように膝側面の画像を分類する場合は膝側面画像の写損レベルの水準数(すなわち、完全に写損と認定され再撮影が必須となるレベルから、多少のずれはあるが再撮影せずに診断に用いることも可能である軽微な写損レベル、又は写損に該当しないレベルまでの段階数)に等しい。例えば本実施形態のようにクラスA、クラスB、クラスCの3クラスに分類する場合には、出力層のユニット数は3つとなる。
なお本実施形態では、3クラスに分類する例を示しているが、分類するクラス数は2つ以上であればよく、例えば2クラスでもよいし、4クラスや5クラス、又はそれ以上に分類するもの等であってもよい。
なお、クラス分類用の畳み込みニューラルネットワークの上記特徴抽出部における特徴量抽出のパラメーターや、全結合層のユニット同士を結合する際のパラメーター(重み付け;weight)等は、教師データを用いた深層学習(Deep Learning)によって求められるものである。
パラメーターは、学習を繰り返すことで適宜更新され、クラス分類用の畳み込みニューラルネットワークは、学習により更新されたパラメーターにより構築される。
分類部では、「解剖学的な構造物」である内側顆α・外側顆βのずれ部分等(ずれ部分のずれ量d等)のレベルを判定・分類し、判定結果を確率(クラススコア)の形で出力層から出力する。
例えば図7では、クラス分類の対象である判定対象画像のセグメンテーション画像について、クラス分類用の畳み込みニューラルネットワークを適用した結果、クラスAである確率が5%、クラスBである確率が10%、クラスCである確率が85%とのクラス分類結果が示された場合を例示している。
以上のような判定処理(機械学習を用いたポジショニング判定処理、図3におけるステップS3)が完了すると、図3に戻り、制御部11は、ニューラルネットワークを用いて導き出された判定結果が、判定対象画像を不良とするものであるか否か、すなわち写損であって再撮影が必要とされるようなものであるか否かを判断する(図3のステップS4)。
例えば、クラスAに分類された場合には診断画像として使用することができる程度の軽微なレベルであり、クラスB、クラスCの順に写損レベルがひどくなり、クラスCでは再撮影が必要とされるレベルであるような場合、図7に示したクラス分類結果が出力された場合には、再撮影が必要な写損である確率が85%であることから制御部11は、「判定結果が判定対象画像を不良とするものである」と判断する。
なお、いずれのクラスに分類される確率が何%である場合に、判定結果が判定対象画像を不良とするものであると判断するか、制御部11の判断の基準・閾値は、適宜設定可能である。例えば80%を超える確率(クラススコア)が示されたクラスがある場合には当該画像はそのクラスに属する画像であると判断してもよい。
判定結果が、判定対象画像を不良とするものである場合(ステップS4;YES)には、制御部11は、表示部14にポジショニング判定処理の結果を告知する表示画面(図9において結果表示画面14a)を表示させる(ステップS5)。この場合、表示部14は、判定手段としてのクラス分類用の畳み込みニューラルネットワークの判定結果を表示する結果表示手段として機能する。
図9は、ポジショニング判定処理の結果表示画面の一例を示す図である。
結果表示画面14aの表示内容やレイアウト等は特に限定されないが、図9ではクラス分類の判定結果が確率(クラススコア)で表示される例を示している。
また、制御部11は、判定結果が判定対象画像を不良とするものであるか否かに関わらず、判定処理の対象となった抽出画像としてのセグメンテーション画像を表示部14に表示させてもよい(図10においてセグメンテーション表示画面14b)。この場合には、表示部14は、抽出画像を表示する画像表示手段として機能する。
図10は、セグメンテーション表示画面の一例を示す図である。
セグメンテーション表示画面14bにおいてセグメンテーション画像をどのように表示させるかは特に限定されないが、図10では、判定対象画像にセグメンテーション画像(図中斜線網掛けで示した部分)を重畳させて表示する場合を例示している。
セグメンテーション画像のみを表示させてもよいが、判定対象画像にセグメンテーション画像を重畳させることで、より分かりやすく見やすい画像とすることができる。
表示部14に結果表示画面14aやセグメンテーション表示画面14bを表示させることは必須ではないが、結果表示画面14aやセグメンテーション表示画面14bを表示部14に表示させてユーザー(例えば医師や技師等)に示すことによって、判定手段としてのクラス分類用の畳み込みニューラルネットワークの判定結果の確からしさを示すことができる。また、その後当該判定対象画像を写損として再撮影を行うか否かの最終的な判断を人が行う場合にも、有効な判断材料とすることができる。
判定手段としてのクラス分類用の畳み込みニューラルネットワークによる判定結果が判定対象画像を不良であるとするもので、その判定結果を表示部14に表示させた場合や、判定手段としてのクラス分類用の畳み込みニューラルネットワークによる判定結果が判定対象画像を不良ではないとするものである場合(ステップS4;NO)には、制御部11は、当該判定対象画像を有効(“OK”)とするか写損(“NG”)とするかについてユーザー(例えば医師や技師等)に確認を求め、“OK”又は“NG”の判断が入力されたか否かを判断する(ステップS6)。
確認を求める手法は特に限定されないが、例えば表示部14に、OKボタン(画像の正常確認ボタン)やNGボタン(画像の不良確認ボタン)、又はその両方を表示させて、いずれかのボタンを操作するようにユーザーに促すメッセージを表示させる。
ユーザーによりいずれのボタンも操作されない場合(ステップS6;NO)には、制御部11は待機して“OK”又は“NG”の判断が入力されたか否かの判断を繰り返す。
他方、ユーザーによりいずれかのボタンが操作された場合(ステップS6;YES)には、制御部11はさらに、ユーザーにより入力操作が判定対象画像を有効(“OK”)とするものであるか否かを判断し(ステップS7)、“OK”との判断が入力された場合(“OK”との判断を示す操作信号が入力された場合、ステップS7;YES)には、OKフラグをONとして(当該画像にフラグ“OK”を設定して、ステップS8)、処理を終了する。
また、“NG”との判断(判定対象画像を写損とする判断)が入力された場合(“NG”との判断を示す操作信号が入力された場合、ステップS7;NO)には、NGフラグをONとして(当該画像にフラグ“NG”を設定して、ステップS9)、処理を終了する。
なお、判定対象画像について“NG”との判断がされた場合(すなわち、画像にフラグ“NG”が設定された場合)には、当該判定対象画像の画像データを専用のディレクトリに移動させることとしてもよいし、当該画像データを消去することとしてもよい。
また、“OK”との判断は積極的に示されなくてもよい。例えば、NGボタンのみが用意され、所定時間当該NGボタンの入力操作が行われない場合には、“OK”と判断されたものとみなして、次の判定対象画像に対するポジショニング判定や、次の撮影処理等、他の処理に移行してもよい。
このような画像判定処理を行うことで、判定対象画像が診断画像とするのに適したポジショニングで撮影されたものであるか否かを正確に判定することが可能となる。
以上のように、本実施形態の画像処理装置1によれば、制御部11が、被験者の診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得し、当該医用画像に含まれる解剖学的な構造物を領域抽出した抽出画像(セグメンテーション画像)を生成し、この抽出画像を画像変換して変換画像を生成し、抽出画像又は変換画像の少なくともいずれかに基づいて、機械学習により特徴量を算出して、この特徴量に関する学習結果に基づいて、医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを自動的に判定する。
このように、ポジショニングの適否を判定する前に、その判定対象となる部分を抽出(セグメンテーション)することにより、ポジショニング判定を効率的に行うことができる。
また、このようにクラス分類処理の前にセグメンテーションを行い、セグメンテーション画像から、機械学習(深層学習;Deep Learning)により特徴抽出及びクラス分類を行うことで、個別のケースに限定されずに適用することができ、また教師データが少ない場合でも効果的に、高い判別精度でポジショニングの適否を判定することができる。
そして、ポジショニング判定を機械学習を用いて自動的に行うことにより、目視しただけでは判断しづらいポジショニング判定(適切なポジショニングで撮影された、診断に適した医用画像であるか否かの判定)を高精度に行うことができる。
また機械学習を用いることにより、各種の条件で撮影された画像にもロバストに対応することが可能である。
また本実施形態では、制御部11がセグメンテーション画像を生成するセグメンテーション手段として機能する場合にも、機械学習を用いる。
このため、高精度のセグメンテーションを行うことができ、ポジショニングの判定対象を的確に切り出すことが可能である。
また本実施形態では、セグメンテーション画像を生成する際に、画像全体から必要箇所を切り出すトリミング等の画像処理を施した処理画像を用いる。
これにより、セグメンテーション処理をより迅速・適切に行うことができる。
また本実施形態では、クラス分類用のニューラルネットワークを適用した結果得られる判定結果を結果表示画面14aとして表示部14に表示させる。
このため、ユーザーがニューラルネットワークによる判定処理の確からしさを容易に確認することができる。
また本実施形態では、抽出画像であるセグメンテーション画像を表示部14のセグメンテーション表示画面14bに表示させる。
このため、ユーザーが判定対象画像の適否を判断しやすく、ニューラルネットワークによる判定処理の確からしさを容易に確認することができる。
また本実施形態では、クラス分類用のニューラルネットワークを適用した結果得られる判定結果は、2クラス以上に分類された分類結果である。
このため、少なくとも判定対象の医用画像が、再撮影が必要な写損であるか否かの分類結果を得ることができる。
また、本実施形態のように3クラス以上に分類した場合には、単なる画像の適否のみでなく、適否のレベル(程度)を示すことができる。
また本実施形態において、判定対象となる医用画像は膝側面の画像である。
膝側面の撮影では、放射線の入射角度や患者の対象部位の傾かせ方等によって写り方が大きく異なる。また、関節や骨が複雑に存在する部位であり、撮影された医用画像が写損にあたるか否かの判断が難しい。
この点、このような部位を撮影した画像でも、機械学習を用いたポジショニング判定を行うことで適切に写損であるか否かの判定を行うことができる。
また本実施形態のようにポジショニングの判定対象となる医用画像が膝側面の画像である場合には、膝側面の画像に現れる内側顆α、外側顆β、又は内側顆αと外側顆βとのずれ部分を、画像が写損にあたるか否かを判定する際のポイントとなる部分である「解剖学的な構造物」とする。
これにより、撮影方向や角度等様々な条件下で撮影された画像についても適切にポジショニング判定を行うことができる。
なお、以上本発明の実施形態について説明したが、本発明は、上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
例えば、上記実施形態では、膝側面の画像がポジショニングの判定対象となる医用画像である場合を例示したが、ポジショニングの判定対象となる医用画像はこれに限定されない。
例えば、図11(a)、図11(b)、図11(c)及び図12(a)、図12(b)では、ポジショニングの判定対象となる医用画像が膝正面の画像である場合を例示している。
膝正面の画像についてポジショニングの判定を行う場合、膝蓋骨(図11(a)において膝蓋骨b)の位置や関節腔(図11(a)において関節腔c)の現れ方が重要である。
すなわち、膝蓋骨bが膝の真ん中に出ており、関節腔cがつぶれることなく明確に現れている場合に適切なポジショニングで撮影された画像であると判断される。
このため、判定対象が膝正面の画像の場合には、膝蓋骨b及び関節腔cを、画像が写損にあたるか否かを判定する際のポイント(基準)となる部分である「解剖学的な構造物」とする。
なお、このように画像が写損にあたるか否かを判定する際のポイント(基準)となる部分である「解剖学的な構造物」が複数ある場合(図11(a)に示す膝正面の画像の例では膝蓋骨b及び関節腔c)には、複数場箇所それぞれについてセグメンテーション処理を行い、その複数箇所のセグメンテーション結果に基づいて、クラス分類処理を行う。
例えば図11(b)は、膝蓋骨bのセグメンテーション画像の例であり、図11(c)は、関節腔cのセグメンテーション画像の例である。
この場合、クラス分類用のニューラルネットワークも各構造物(例えば膝蓋骨b及び関節腔c)について構築し、それぞれについてクラス分類処理を行う。そして、各構造物についてのクラス分類処理の結果に基づいて、制御部11が、当該判定対象画像について写損とするか否か(診断画像としての適否)の判断を行う。
膝正面の画像の場合には、膝部分を真正面から撮影することが好ましく、前述のように、膝蓋骨bが膝の正面に位置して周りの骨からはみ出さない位置に配置され、関節腔c(膝の上の骨と下の骨との間の関節)がつぶれずに明確に現れている場合に、適切なポジショニングで撮影された診断に適した画像であると判断される。
例えば図12(a)は、適切なポジショニングで撮影されたと判断される画像の例である。これに対して図12(b)は、膝蓋骨bが膝の正面からずれて周囲の骨の背後からはみ出して見えており、関節腔cの一部がつぶれてしまっており、不適切なポジショニングで撮影されたものと判断される画像の例である。この場合には、写損として再撮影が必要となる。
なお、本発明の画像判定装置、画像判定方法及びプログラムを適用可能な判定対象画像は、膝側面や膝正面の画像に限定されない。例えば胸部、腹部等の上半身の画像、肩や腕の画像等、人体各部の撮影画像(医用画像)について適用可能である。
各画像については、それぞれ各部位に特化した「解剖学的な構造物」(当該画像が写損にあたるか否かを判定する際のポイント(基準)となる部分)が設定され、それぞれについてセグメンテーション処理及びクラス分類処理を行う。
これにより、各部位の画像について適切なポジショニング判定を行うことができる。
また、本実施形態では、画像判定装置としての画像処理装置1が、医用画像が診断に適したポジショニングで撮影されたものであるか否かを判定する場合について説明したが、画像処理装置1による判定はこれに限定されない。
画像処理装置1は、医用画像が診断に適したものであるかを判定する際の基準となる部分(解剖学的な構造物)をセグメンテーション処理によって領域抽出し、抽出された抽出画像(セグメンテーション画像)について機械学習の手法を用いてクラス分類することで画像の良否・適否を判定するものであればよく、ポジショニングの適否以外の事項を考慮して画像判定を行うものでもよい。
また、セグメンテーション処理及びクラス分類処理で用いられる畳み込みニューラルネットワークの構成は上記実施形態で示したものに例示したものに限定されない。
例えば特徴抽出部においてはフィルターの数だけ特徴マップが出力されるが、この特徴マップ1つに対して1つのクラスを対応させて分類するGlobal Average Poolingを用いてもよい。この手法では分類部において全結合層を用いずにクラス分類が行われる。
1 画像処理装置
11 制御部
12 記憶部
12a,b 教師データ群
13 操作部
14 表示部
14a 結果表示画面
14b セグメンテーション表示画面

Claims (10)

  1. 被験者の診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得する画像取得手段と、
    前記医用画像に含まれる解剖学的な構造物を領域抽出した抽出画像を生成するセグメンテーション手段と、
    前記抽出画像を画像変換して変換画像を生成する画像変換手段と、
    前記抽出画像又は前記変換画像の少なくともいずれかに基づいて、機械学習により特徴量を算出する特徴量抽出手段と、
    前記特徴量に関する学習結果に基づいて、前記医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを自動的に判定する判定手段と、
    を備えたことを特徴とする画像判定装置。
  2. 前記セグメンテーション手段は、機械学習を用いて前記抽出画像を生成するものであることを特徴とする請求項1に記載の画像判定装置。
  3. 前記画像取得手段により取得された前記画像データに画像処理を施して処理画像を生成する画像処理手段を備え、
    前記セグメンテーション手段は、前記処理画像を用いて前記抽出画像を生成することを特徴とする請求項1又は請求項2に記載の画像判定装置。
  4. 前記判定手段の判定結果を表示する結果表示手段を備えることを特徴とする請求項1から請求項3のいずれか一項に記載の画像判定装置。
  5. 前記抽出画像を表示する画像表示手段を備えることを特徴とする請求項1から請求項4のいずれか一項に記載の画像判定装置。
  6. 前記判定手段の判定結果は、2クラス以上に分類された分類結果であることを特徴とする請求項1から請求項5のいずれか一項に記載の画像判定装置。
  7. 前記医用画像は膝側面の画像であることを特徴とする請求項1から請求項6のいずれか一項に記載の画像判定装置。
  8. 前記解剖学的な構造物は膝側面の画像に現れる内側顆、外側顆、又は内側顆と外側顆とのずれ部分であることを特徴とする請求項1から請求項7のいずれか一項に記載の画像判定装置。
  9. 診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得する画像取得工程と、
    前記医用画像から解剖学的な構造物を領域抽出した抽出画像を生成するセグメンテーション工程と、
    前記抽出画像と前記医用画像の撮影時におけるポジショニングの良否に関するクラスとを対応付けて教師データとする教師データ準備工程と、
    前記教師データ準備工程において用意された複数の前記教師データについて、畳み込みニューラルネットワークで学習し、前記畳み込みニューラルネットワークのパラメーターを設定するパラメーター設定工程と、
    被験者の診断対象領域を含む部位を放射線撮影する実撮影により取得された前記医用画像の画像データを判定対象とし、
    前記セグメンテーション工程において、前記実撮影において取得された前記医用画像から抽出画像を領域抽出して、当該画像データを前記パラメーター設定工程において設定されたパラメーターを有する前記畳み込みニューラルネットワークに入力し、前記判定対象の前記医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを判定する判定工程と、
    を含むことを特徴とする画像判定方法。
  10. コンピューターを、
    被験者の診断対象領域を含む部位を放射線撮影した医用画像の画像データを取得する画像取得手段、
    前記医用画像から解剖学的な構造物を領域抽出した抽出画像を生成するセグメンテーション手段、
    前記抽出画像を画像変換して変換画像を生成する画像変換手段、
    前記抽出画像又は前記変換画像の少なくともいずれかに基づいて、機械学習により特徴量を算出する特徴量抽出手段、
    前記特徴量に関する学習結果に基づいて、前記医用画像が診断を行うのに適したポジショニングで撮影されたものであるか否かを自動的に判定する判定手段、
    として機能させることを特徴とするプログラム。
JP2019231092A 2019-12-23 2019-12-23 画像判定装置、画像判定方法及びプログラム Active JP7404857B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019231092A JP7404857B2 (ja) 2019-12-23 2019-12-23 画像判定装置、画像判定方法及びプログラム
US17/127,066 US11803970B2 (en) 2019-12-23 2020-12-18 Image judgment device, image judgment method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019231092A JP7404857B2 (ja) 2019-12-23 2019-12-23 画像判定装置、画像判定方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2021097864A true JP2021097864A (ja) 2021-07-01
JP2021097864A5 JP2021097864A5 (ja) 2022-02-21
JP7404857B2 JP7404857B2 (ja) 2023-12-26

Family

ID=76439313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231092A Active JP7404857B2 (ja) 2019-12-23 2019-12-23 画像判定装置、画像判定方法及びプログラム

Country Status (2)

Country Link
US (1) US11803970B2 (ja)
JP (1) JP7404857B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4230143A1 (en) * 2022-02-22 2023-08-23 Shimadzu Corporation X-ray imaging apparatus and imaging position correction method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007105264A (ja) * 2005-10-14 2007-04-26 Fujifilm Corp 医用画像判定装置、医用画像判定方法およびそのプログラム
JP2019093137A (ja) * 2017-11-22 2019-06-20 ゼネラル・エレクトリック・カンパニイ 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法
US20190287241A1 (en) * 2016-07-19 2019-09-19 Volpara Health Technologies Limited System and apparatus for clinical decision optimisation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001079823A2 (en) * 2000-04-17 2001-10-25 Leroy Dean Chapman Diffraction enhanced x-ray imaging of articular cartilage
JP4624841B2 (ja) * 2005-04-13 2011-02-02 オリンパスメディカルシステムズ株式会社 画像処理装置および当該画像処理装置における画像処理方法
JP5145169B2 (ja) * 2008-08-27 2013-02-13 富士フイルム株式会社 医用画像の撮影支援装置及びプログラム
JP5145170B2 (ja) 2008-08-27 2013-02-13 富士フイルム株式会社 医用画像の評価装置
JP5488229B2 (ja) 2010-06-11 2014-05-14 コニカミノルタ株式会社 ポジショニング判定装置、画像処理装置、及び、プログラム
US9646229B2 (en) * 2012-09-28 2017-05-09 Siemens Medical Solutions Usa, Inc. Method and system for bone segmentation and landmark detection for joint replacement surgery
US20170365047A1 (en) * 2016-06-15 2017-12-21 General Electric Company Artifact management in imaging
US10074038B2 (en) * 2016-11-23 2018-09-11 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
JP7132701B2 (ja) 2017-08-10 2022-09-07 株式会社ブリヂストン タイヤ画像の認識方法及びタイヤ画像の認識装置
US10521705B2 (en) * 2017-11-14 2019-12-31 Adobe Inc. Automatically selecting images using multicontext aware ratings
US11170545B2 (en) * 2018-01-24 2021-11-09 New York University Systems and methods for diagnostic oriented image quality assessment
US10910099B2 (en) * 2018-02-20 2021-02-02 Siemens Healthcare Gmbh Segmentation, landmark detection and view classification using multi-task learning
US11227384B2 (en) * 2019-02-11 2022-01-18 International Business Machines Corporation Methods and systems for determining a diagnostically unacceptable medical image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007105264A (ja) * 2005-10-14 2007-04-26 Fujifilm Corp 医用画像判定装置、医用画像判定方法およびそのプログラム
US20190287241A1 (en) * 2016-07-19 2019-09-19 Volpara Health Technologies Limited System and apparatus for clinical decision optimisation
JP2019093137A (ja) * 2017-11-22 2019-06-20 ゼネラル・エレクトリック・カンパニイ 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
安田 優、佐藤久弥、大澤三和、高橋寛治、野田主税、崔 昌五、助崎文雄、中澤靖夫: "膝関節側面撮影における再撮影率減少を目的とした補助具の提案", 日本放射線技術学会雑誌, vol. 69巻10号, JPN6023028729, October 2013 (2013-10-01), pages 1140 - 1145, ISSN: 0005103809 *

Also Published As

Publication number Publication date
US20210192731A1 (en) 2021-06-24
JP7404857B2 (ja) 2023-12-26
US11803970B2 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
JP4911029B2 (ja) 異常陰影候補検出方法、異常陰影候補検出装置
US9710907B2 (en) Diagnosis support system using panoramic radiograph and diagnosis support program using panoramic radiograph
KR102062539B1 (ko) 딥러닝 기반의 요추 질환 보조 진단 방법
JP6830082B2 (ja) 歯科分析システムおよび歯科分析x線システム
EP3457356A1 (en) Method and apparatus for fully automated segmentation of joint using patient-specific optimal thresholding and watershed algorithm
CN112804943A (zh) 学习完成模型的制作方法、亮度调整方法以及图像处理装置
JP4938427B2 (ja) 脳出血部位体積計算装置
US20170091411A1 (en) Systems and methods for serial treatment of a muscular-skeletal deformity
JP6967983B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11475568B2 (en) Method for controlling display of abnormality in chest x-ray image, storage medium, abnormality display control apparatus, and server apparatus
JP2019208832A (ja) 歯科分析システムおよび歯科分析x線システム
Lee et al. Retinal atlas statistics from color fundus images
JP7404857B2 (ja) 画像判定装置、画像判定方法及びプログラム
US10083503B2 (en) Image area specification device and method, and X-ray image processing device and method
US10089728B2 (en) Radiation-image processing device and method
JP2006334140A (ja) 異常陰影候補の表示方法及び医用画像処理システム
KR20230050253A (ko) 흉막 삼출의 검출 방법 및 이를 위한 장치
US20220245797A1 (en) Information processing apparatus, information processing method, and information processing program
JP7135759B2 (ja) 画像処理装置及びプログラム
US10475180B2 (en) Radiation-image processing device and method
JP2020168173A (ja) 動態解析装置、動態解析システム及びプログラム
JP2015131057A (ja) 画像処理装置、およびプログラム
KR102389628B1 (ko) 의료영상의 병변 특징에 따른 영상처리 장치 및 방법
US20220245925A1 (en) Information processing apparatus, information processing method, and information processing program
JP7370694B2 (ja) 医用情報処理装置及び医用情報処理方法、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7404857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150