JPWO2020110775A1 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2020110775A1
JPWO2020110775A1 JP2020558347A JP2020558347A JPWO2020110775A1 JP WO2020110775 A1 JPWO2020110775 A1 JP WO2020110775A1 JP 2020558347 A JP2020558347 A JP 2020558347A JP 2020558347 A JP2020558347 A JP 2020558347A JP WO2020110775 A1 JPWO2020110775 A1 JP WO2020110775A1
Authority
JP
Japan
Prior art keywords
segmentation
image
unit
image processing
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020558347A
Other languages
English (en)
Other versions
JP7114737B2 (ja
Inventor
ディーパック ケシュワニ
嘉郎 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020110775A1 publication Critical patent/JPWO2020110775A1/ja
Application granted granted Critical
Publication of JP7114737B2 publication Critical patent/JP7114737B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

医用画像のセグメンテーションにおける誤りを抑制し得る画像処理装置、画像処理方法、及びプログラムを提供する。深層学習を適用して、医用画像(200)の局所の特徴に基づき医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション部(42)と、深層学習を適用して、医用画像を医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類部(46)と、を備え、セグメンテーション部は、低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する。

Description

本発明は画像処理装置、画像処理方法、及びプログラムに係り、特に医用画像のセグメンテーションに関する。
深層学習を用いた解剖学的特徴に基づく医用画像のセグメンテーションが知られている。医用画像のセグメンテーションは、ピクセル又はボクセルの周辺の局所領域の特徴に基づき、ピクセル等を特定のクラスに分類する。
特許文献1は、被検体の医用画像から傷病部位の検出を行うシステムが記載されている。同文献に記載のシステムは、別々の方式を用いて生成された二種類の医用画像に対して傷病部位の特徴を指定し、指定された特徴に対応する領域等を傷病部位として検出する。
特許文献2は、医用画像を取得し、医用画像の画像特性を取得し、画像特性に依存して医用画像をカテゴリ化し、カテゴリに依存してセグメンテーションアルゴリズムを選択し、選択されたセグメンテーションアルゴリズムを用いて医用画像をセグメント化するシステムが記載されている。
特許文献3は、画像分類用のCNN(Convolutional Neural Network)が記載されている。同文献に記載のCNNは、画像データを受信し、粗いカテゴリCNNを用いて、画像の粗いカテゴリ又は粗いカテゴリの重みを決定し、一以上の精密カテゴリCNNを用いて画像の精密カテゴリを決定する分類モジュールを備える。
特許文献4は、第一階層の機械学習認識装置と第二階層の機械学習認識装置と階層的に接続したシステムが記載されている。同文献に記載の第二階層の機械学習認識装置は、第一階層の機械学習認識装置における中間層のデータを入力としている。
特表2009−502230号公報 特表2014−502169号公報 特表2017−538195号公報 国際公開第2017/187516号
しかしながら、医用画像のセグメンテーションにおいて、分類したクラスに誤りが発生することがあり得る。例えば、局所的な大きさの領域の情報に基づくセグメンテーションを実施した場合、不正確でノイズの多いセグメンテーションの結果が生成されることが懸念される。
具体的には、肺のGGOパターンは、正常な肺よりも高いCT値を持つ領域として定義される。一方、IPF患者は呼吸を十分にすることができないため、IPF患者の肺のCT値は高くなり、局所的な大きさの領域のみの情報に基づくセグメンテーションを実施した場合に、正常な肺の領域がGGCパターンとして認識されてしまうことがある。
すなわち、CT値のみを用いて正常な肺領域であるか又はGGO領域であるかを判定することは困難である。なお、GGOは擦りガラス影を表す英語表記であるGround Glass Opacityの省略語である。CTはコンピュータ断層撮影を表す英語表記であるComputed Tomographyの省略語である。
特許文献1に記載のシステムは、医用画像から特定の傷病部位を検出するものである。すなわち、特許文献1は医用画像の全体の特徴から医用画像の傷病名を特定するクラシフィケーションを開示するものであって、医用画像をピクセルごとに特定のクラスに分類するセグメンテーションを開示ものではない。
特許文献2に記載のシステムは、医用画像のセグメンテーションを実施する際に、医用画像の画像特性に基づきセグメンテーションアルゴリズムを選択しているが、セグメンテーションアルゴリズムがピクセル等の局所領域の特徴に基づきセグメンテーションを実施する場合は、セグメンテーションの結果に誤りが生じ得る。
特許文献3には、医用画像の処理に関する記載はなく、また、画像をピクセルごとに特定のクラスに分類するセグメンテーションに関する記載はない。特許文献4についても同様である。
本発明はこのような問題点に鑑みてなされたもので、医用画像のセグメンテーションにおける誤りを抑制し得る画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、次の発明態様を提供する。
第1態様に係る画像処理装置は、深層学習を適用して、医用画像の局所の特徴に基づき医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション部と、深層学習を適用して、医用画像を医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類部と、を備え、セグメンテーション部は、低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する画像処理装置である。
第1態様によれば、グローバル特徴部の低次層と重みを共有した低次層を有するセグメンテーション部を用いて医用画像のセグメンテーションが実施される。これにより、グローバル特徴が反映されたセグメンテーションが実施され、医用画像のセグメンテーションにおけるクラスの分類の誤りを抑制し得る。
医用画像を取得する医用画像取得部を備える態様が好ましい。取得した医用画像を記憶する医用画像記憶部を備える態様が好ましい。
セグメンテーション部は、医用画像から局所領域の特徴を抽出し、局所の特徴ごとに分類した特徴量マップを生成し得る。
局所領域又は局所は、一ピクセルから構成される態様が含まれ得る。局所領域ごと又は局所ごとは、ピクセルごとの概念が含まれ得る。
第一低次層は、セグメンテーション部の中間層のうち、入力層の次層を含む一以上の層を適用し得る。第二低次層は、グローバル特徴分類部の中間層のうち、医用画像から特徴を抽出する際に、セグメンテーション部の第一低次層と同じ特徴を抽出する層を適用し得る。
第2態様は、第1態様の画像処理装置において、セグメンテーション部は、クラスとして病変を適用する構成としてもよい。
第2態様によれば、医用画像の病変を抽出するセグメンテーションを実施し得る。
病変は、正常な人体組織と区別し得る特徴を有する画像パターンを適用し得る。
第3態様は、第1態様又は第2態様のいずれか一態様の画像処理装置において、グローバル特徴分類部は、グローバル特徴として疾患名を適用する構成としてもよい。
第3態様によれば、医用画像に対応する疾患名が反映されたセグメンテーションが実施される。
第4態様は、第1態様から第3態様のいずれか一態様の画像処理装置において、グローバル特徴分類部は、グローバル特徴として医用画像の撮像条件を適用する構成としてもよい。
第4態様によれば、医用画像に対応する撮像条件が反映されたセグメンテーションが実施される。
グローバル特徴分類部は、一つの医用画像について、異なる複数の種類のグローバル特徴を適用してもよい。
第5態様は、第1態様から第4態様のいずれか一態様の画像処理装置において、セグメンテーション部は、医用画像の特徴を圧縮する第一エンコーダ部、及び第一エンコーダ部を用いて圧縮した医用画像の特徴を復元するデコーダ部を備え、グローバル特徴分類部は、医用画像の特徴を圧縮する第二エンコーダ部を備え、セグメンテーション部は、第一低次層の重みとして第一エンコーダ部に適用される重みを、第二エンコーダ部に適用される重みと共有する構成としてもよい。
第5態様によれば、セグメンテーション部は、ノイズ等が含まれる不要な次元が削減された医用画像の特徴を抽出し得る。
第6態様は、第5態様の画像処理装置において、第一エンコーダ部の出力画像よりも圧縮させた第二エンコーダ部の出力画像を、第一エンコーダ部の出力画像に対応して伸長させる変換部と、第一エンコーダ部の出力画像と変換部の出力画像とを結合する結合部と、を備えた構成としてもよい。
第6態様によれば、第二エンコーダ部の出力画像を第一エンコーダ部の出力画像に対応して伸長させる。これにより、第一エンコーダ部の出力画像と第二エンコーダ部の出力画像とを結合し得る。
第7態様は、第6態様の画像処理装置において、第二エンコーダ部は、一次元の特徴ベクトルを出力する出力部よりも前段の中間層であり、前記第一エンコーダ部と重みを非共有の中間層の出力画像を前記変換部へ送信する構成としてもよい。
第7態様によれば、出力部よりも前段の中間層の出力画像は、第二エンコーダ部の出力部から出力される一次元ベクトルに対して情報量が落ちていない。これにより、一定の情報量が維持された出力画像を伸長し、第一エンコーダ部の出力画像へ結合し得る。
第8態様は、第6態様又は第7態様の画像処理装置において、変換部は、前記変換部の入力画像及び前記結合部の出力画像を学習セットとして学習を実施した深層学習器を適用する構成としてもよい。
第8態様によれば、変換部及び結合部の処理を高精度化し得る。
第9態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、セグメンテーション部は、グローバル特徴分類部と重みを共有した層について、セグメンテーション部のセグメンテーション結果、グローバル特徴分類部の分類結果、及びセグメンテーション部に入力される医用画像を学習セットとして学習を実施した深層学習器を適用する構成としてもよい。
第9態様によれば、グローバル特徴を参照してロバスト性を向上させたセグメンテーション部を実現し得る。
第10態様は、第9態様の画像処理装置において、セグメンテーション部は、グローバル特徴分類部と重みを共有しない層について、医用画像及びセグメンテーション部を適用したセグメンテーション結果を学習セットとして再学習を実施した深層学習器を適用する構成としてもよい。
第10態様によれば、効率的なセグメンテーション部の再学習を実施し得る。
第11態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、グローバル特徴分類部は、前記セグメンテーション部と重みを共有した層について、前記グローバル特徴分類部の入力画像及び前記グローバル特徴分類部の分類結果をセットとして学習を実施した深層学習器を適用する構成としてもよい。
第11態様によれば、学習セットの情報量が抑制された効率のよい学習が可能となる。
第12の態様に係る画像処理方法は、深層学習を適用して、医用画像の局所の特徴に基づき医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション工程と、深層学習を適用して、医用画像を医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類工程と、を含み、セグメンテーション工程は、セグメンテーション部の低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する画像処理方法である。
第12態様によれば、第1態様と同様の効果を得ることが可能である。
第12態様において、第2態様から第11態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う画像処理方法の構成要素として把握することができる。
第13態様に係るプログラムは、コンピュータに、深層学習を適用して、医用画像の局所の特徴に基づき医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション機能、及び深層学習を適用して、医用画像を医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類機能を実現させるプログラムであって、セグメンテーション機能は、セグメンテーション部における低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有するプログラムである。
第13態様によれば、第1態様と同様の効果を得ることが可能である。
第13態様において、第2態様から第11態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。
本発明によれば、グローバル特徴部の低次層と重みを共有した低次層を有するセグメンテーション部を用いて医用画像のセグメンテーションが実施される。これにより、グローバル特徴が反映されたセグメンテーションが実施され、医用画像のセグメンテーションにおけるクラスの分類の誤りを抑制し得る。
図1は実施形態に係る医療情報システムの概略構成図である。 図2は図1に示す画像処理装置の機能ブロック図である。 図3は図1に示す画像処理装置のハードウェアの構成を示すブロック図である。 図4は第一実施形態に係る画像処理装置に適用されるニューラルネットワークの模式図である。 図5は図4に示す第一エンコーダ部の一例を示す模式図である。 図6は第一実施形態に係る画像処理装置に適用される畳み込みニューラルネットワークの模式図である。 図7は第二実施形態に係る画像処理装置に適用されるニューラルネットワークの模式図である。 図8は第二実施形態に係る画像処理装置に適用される畳み込みニューラルネットワークの模式図である。 図9は疾患名と病変との対応関係を示すテーブルの一例を示す図である。
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略することとする。
[医用画像処理システムの全体構成]
図1は実施形態に係る医療情報システムの概略構成図である。医療情報システム10は、画像処理装置12、モダリティ14、及び画像データベース16を備える。画像処理装置12、モダリティ14、及び画像データベース16は、ネットワーク18を介して通信可能に接続される。
画像処理装置12は、医療機関に具備されるコンピュータを適用可能である。画像処理装置12は、入力装置としてマウス20及びキーボード22が接続される。また、画像処理装置12は表示装置24が接続される。
モダリティ14は、被写体の検査対象部位を撮像し、医用画像を生成する撮像装置である。モダリティ14の例として、X線撮像装置、CT装置、MRI装置、PET装置、超音波装置、及び平面X線検出器を用いたCR装置が挙げられる。モダリティ14として内視鏡装置を適用してもよい。
なお、MRIは磁気共鳴画像を表すMagnetic Resonance Imagingの省略語である。PET装置は陽電子放射断層撮影を表すPositron Emission Tomographyの省略語である。平面X線検出器はFPD(flat panel detector)と呼ばれることがある。CRはコンピュータX線撮影装置を表すComputed Radiographyの省略語である。
医用画像のフォーマットは、DICOM規格を適用可能である。医用画像は、DICOM規格において規定された付帯情報が付加されてもよい。なお、DICOMはDigital Imaging and COmmunicationsin Medicineの省略語である。
ここで、本明細書おける画像という用語には、写真等の画像自身の意味の他に、画像を表す信号である画像データの意味が含まれ得る。
画像データベース16は、大容量ストレージ装置を備えるコンピュータを適用可能である。コンピュータはデータベース管理システムの機能を提供するソフトウェアが組み込まれる。データベース管理システムは、DBMS(Data Base Management System)と呼ばれることがある。
ネットワーク18は、LAN(Local Area Network)を適用可能である。ネットワーク18はWAN(Wide Area Network)を適用してもよい。ネットワーク18の通信プロトコルは、DICOM規格を適用可能である。なお、ネットワーク18は公衆回線網に接続可能に構成されてもよいし、専用回線網に接続可能に構成されてもよい。ネットワーク18は、有線でもよいし、無線でもよい。
[画像処理装置]
〔画像処理装置の機能〕
図2は図1に示す画像処理装置の機能ブロック図である。図2に示す画像処理装置12は、深層学習等を適用して医用画像のセグメンテーションマスクを生成する。医用画像のセグメンテーションの一例として、肺組織を気管支拡張症、蜂巣肺、すりガラス影、網状肺、及び線状肺など、正常な組織と区別し得る組織である病変に分類する例が挙げられる。
セグメンテーションされた医用画像は、病変ごとの体積計算等に利用される。病変ごとの体積変化は、間質性肺疾患等の肺疾患の進行の指標となる。
本実施形態では、画像処理装置12として、肺のCT画像が入力された場合に、肺のCT画像における各ピクセルが、医学的に知られている画像パターンであるクラスに属するか否かを自動的に分類する判別装置を説明する。医学的に知られている画像パターンの例として、先に列挙した病変が挙げられる。
画像処理装置12は、画像取得部40、セグメンテーションネットワーク42、及びクラシフィケーションネットワーク46を備える。画像処理装置12は、記憶部50、表示制御部60、及び入力制御部62を備える。
画像取得部40、セグメンテーションネットワーク42、クラシフィケーションネットワーク46、記憶部50、表示制御部60、及び入力制御部62は、バス52を介して通信可能に接続される。以下、画像処理装置12の各部について詳細に説明する。
画像取得部40は処理対象の医用画像を取得する。画像処理装置12は、取得した医用画像を記憶部50へ記憶する。図2には画像データベース16から医用画像を取得する態様を例示する。
画像取得部40は図1に示すモダリティ14から医用画像を取得してもよいし、ネットワーク18を経由して図示しないストレージ装置から医用画像を取得してもよい。また、画像取得部40は情報記憶媒体を介して医用画像を取得してもよい。
セグメンテーションネットワーク42は、特徴量抽出部70及びセグメンテーションマスク生成部74を備える。セグメンテーションネットワーク42は、画像取得部40を用いて取得した医用画像に対してセグメンテーションを実施するニューラルネットワークである。実施形態に示すセグメンテーションネットワーク42は、セグメンテーション部の一例である。
すなわち、セグメンテーションネットワーク42は、医用画像におけるピクセルごとの特徴量を抽出し、ピクセルごとの特徴量であるローカル特徴に基づき、各ピクセルの分類を実施し、医用画像のセグメンテーションマスクを生成する。セグメンテーションマスクは符号210を付して図4に示す。
なお、複数の連続するピクセルは医用画像の局所領域を構成する。すなわち、セグメンテーションネットワーク42は、医用画像の局所領域ごとのローカル特徴に基づき、局所領域ごとに分類を実施し得る。以下、ピクセルごとの処理は、局所領域ごとの処理と読み替えが可能である。
本実施形態ではローカル特徴として病変を例示する。本明細書における病変は、病変パターン及び所見等と呼ばれる場合がある。
クラシフィケーションネットワーク46は、医用画像の全体の特徴を表すグローバル特徴を適用して、医用画像を分類するニューラルネットワークである。実施形態に示すクラシフィケーションネットワーク46は、グローバル特徴分類部の一例である。
医用画像のグローバル特徴は、入力装置21を用いて入力された情報を適用してもよいし、医用画像の付帯情報を適用してもよい。本実施形態は、グローバル特徴の例として、疾患名及び医用画像の撮像条件を示す。グローバル特徴は一つ以上であれば種類数に制限はない。
記憶部50は画像処理装置12における各種データを記憶する。記憶部50は、画像記憶部80、セグメンテーションマスク記憶部84、グローバル特徴記憶部86、及びプログラム記憶部88を備える。記憶部50は、複数の記憶装置を適用してもよいし、複数の記憶領域に区画された一つの記憶装置を適用してもよい。記憶部50は画像処理装置12の外部に具備される一つ以上の記憶装置を適用してもよい。
画像記憶部80は、画像取得部40を用いて取得した医用画像を記憶する。セグメンテーションマスク記憶部84はセグメンテーションの結果として生成されるセグメンテーションマスクを記憶する。グローバル特徴記憶部86はクラシフィケーションネットワーク46を用いて分類される医用画像ごとのグローバル特徴を記憶する。
プログラム記憶部88は画像処理装置12において実行される各種プログラムが記憶される。画像処理装置12は、図3に示すハードウェアを用いて各種プログラムを実行して、画像処理装置12の各種機能を実現する。
表示制御部60は、表示装置24を用いて表示させる情報を表す信号を、表示装置24へ送信する。表示装置24を用いて表示させる情報の一例として、セグメンテーションが実施された医用画像を表す分類マップが挙げられる。
分類マップは、入力されたに医用画像に対して適用して、セグメンテーションマスクを生成し得る。セグメンテーションマスク記憶部84はセグメンテーションの結果として分類マップを記憶してもよい。
入力制御部62は、入力装置21から送信される入力情報を表す信号を、画像処理装置12に適用される形式の信号に変換する。入力情報を表す信号は装置各部へ適宜送信される。
〔画像処理部のハードウェア構成〕
〈全体構成〉
図3は図1に示す画像処理装置のハードウェアの構成を示すブロック図である。画像処理装置12は、図3に示すハードウェアを用いて規定のプログラムを実行し、各種機能を実現し得る。
画像処理装置12は、プロセッサ100、メモリ102、ストレージ装置104、ネットワークコントローラ106、及び電源装置108を備える。また、画像処理装置12は、ディスプレイコントローラ110、入出力インターフェース112、及び入力コントローラ114を備える。
プロセッサ100、メモリ102、ストレージ装置104、ネットワークコントローラ106、ディスプレイコントローラ110、入出力インターフェース112、及び入力コントローラ114は、バス52を介してデータ通信が可能に接続される。
〈プロセッサ〉
プロセッサ100は、画像処理装置12の全体制御部、各種演算部、及び記憶制御部として機能する。プロセッサ100は、メモリ102に具備されるROM(read only memory)に記憶されるプログラムを実行する。
プロセッサ100は、ネットワークコントローラ106を介して外部の記憶装置からダウンロードされたプログラムを実行してもよい。外部の記憶装置は、ネットワーク18を介して画像処理装置12と通信可能に接続されていてもよい。
プロセッサ100は、メモリ102に具備されるRAM(random access memory)を演算領域とし、各種プログラムと協働して各種処理を実行する。これにより、画像処理装置12の各種機能が実現される。
プロセッサ100は、ストレージ装置104からのデータの読み出し、及びストレージ装置104へのデータの書き込みを制御する。プロセッサ100は、ネットワークコントローラ106を介して、外部の記憶装置から各種データを取得してもよい。プロセッサ100は、取得した各種データを用いて、演算等の各種処理を実行可能である。
プロセッサ100は、一つ又は二つ以上のデバイスが含まれてもよい。プロセッサ100の例として、FPGA(Field Programmable Gate Array)及びPLD(Programmable Logic Device)等が挙げられる。FPGA及びPLDは、製造後に回路構成を変更し得るデバイスである。
プロセッサ100の他の例として、ASIC(Application Specific Integrated Circuit)が挙げられる。ASICは、特定の処理を実行させるために専用に設計された回路構成を備える。
プロセッサ100は、同じ種類の二つ以上のデバイスを適用可能である。例えば、プロセッサ100は二つ以上のFPGAを用いてもよいし、二つ以上のPLDを用いてもよい。プロセッサ100は、異なる種類の二つ以上デバイスを適用してもよい。例えば、プロセッサ100は一つ以上のFPGAと一つ以上のASICとを適用してもよい。
複数のプロセッサ100を備える場合、複数のプロセッサ100は一つのデバイスを用いて構成してもよい。複数のプロセッサ100を一つのデバイスで構成する一例として、一つ以上のCPU(Central Processing Unit)とソフトウェアとの組合せを用いて一つのプロセッサを構成し、このプロセッサが複数のプロセッサ100として機能する形態がある。なお、本明細書におけるソフトウェアはプログラムと同義である。
CPUに代わり又はCPUと併用して、画像処理に特化したデバイスであるGPU(Graphics Processing Unit)を適用してもよい。複数のプロセッサ100が一つのデバイスを用いて構成される代表例として、コンピュータが挙げられる。
一つのデバイスを用いて複数のプロセッサ100を構成する他の例として、複数のプロセッサ100を含むシステム全体の機能を一つのICチップで実現するデバイスを使用する形態が挙げられる。複数のプロセッサ100を含むシステム全体の機能を一つのICチップで実現するデバイスの代表例として、SoC(System On Chip)が挙げられる。なお、ICは、Integrated Circuitの省略語である。
このように、プロセッサ100は、ハードウェア的な構造として、各種のデバイスを一つ以上用いて構成される。
〈メモリ〉
メモリ102は、図示しないROM、及び図示しないRAMを備える。ROMは、画像処理装置12において実行される各種プログラムを記憶する。ROMは、各種プログラムの実行に用いられるパラメータ、及びファイル等を記憶する。RAMは、データの一時記憶領域、及びプロセッサ100のワーク領域等として機能する。
〈ストレージ装置〉
ストレージ装置104は、各種データを非一時的に記憶する。ストレージ装置104は、画像処理装置12の外部に外付けされてもよい。ストレージ装置104に代わり、又はこれと併用して、大容量の半導体メモリ装置を適用してもよい。
〈ネットワークコントローラ〉
ネットワークコントローラ106は、外部装置との間のデータ通信を制御する。データ通信の制御は、データ通信のトラフィックの管理が含まれてもよい。ネットワークコントローラ106を介して接続されるネットワーク18は、LAN(Local Area Network)などの公知のネットワークを適用し得る。
〈電源装置〉
電源装置108は、UPS(Uninterruptible Power Supply)などの大容量型の電源装置が適用される。電源装置108は停電等に起因して商用電源が遮断された際に、画像処理装置12へ電源を供給する。
〈ディスプレイコントローラ〉
ディスプレイコントローラ110は、プロセッサ100から送信される指令信号に基づいて表示装置24を制御するディスプレイドライバーとして機能する。
〈入出力インターフェース〉
入出力インターフェース112は、画像処理装置12と外部機器とを通信可能に接続する。入出力インターフェース112は、USB(Universal Serial Bus)などの通信規格を適用し得る。
〈入力コントローラ〉
入力コントローラ114は、入力装置21を用いて入力された信号の形式を画像処理装置12の処理に適した形式に変換する。入力コントローラ114を介して入力装置21から入力された情報は、プロセッサ100を介して各部へ送信される。
なお、図3に示す画像処理装置12のハードウェア構成は一例であり、適宜、追加、削除、及び変更が可能である。
〔第一実施形態に係るセグメンテーションの詳細な説明〕
次に、第一実施形態に係る医用画像のセグメンテーションについて説明する。例えば、肺のCT画像から一つ以上の病変を抽出するセグメンテーションは、熟練した観察者でも非常に困難な作業である。一方、疾患名及び撮像の際の呼吸の状態等のグローバル情報を使用した場合、グローバル情報と病変との関連付けを利用して、セグメンテーションマスクから特定の病変の存在を除外することが可能である。
そこで、病変が適用されるローカル情報と、疾患名等が適用されるグローバル情報とを組み合わせた学習セットを用いて学習を実施した判別装置を適用して、良好なロバスト性を有する医用画像のセグメンテーションを実施し得る。
図4は第一実施形態に係る画像処理装置に適用されるニューラルネットワークの模式図である。セグメンテーションネットワーク42は、医用画像である肺のCT画像200のセグメンテーションを実施して、セグメンテーションマスク210を生成する。なお、以下の説明では、肺のCT画像200はCT画像200と記載する。
セグメンテーションネットワーク42は、第一エンコーダ部220及びデコーダ部222を備える。CT画像200は、図2に示す画像取得部40を介して第一エンコーダ部220の入力画像として設定される。
セグメンテーションネットワーク42の入力として設定されたCT画像200は、第一低次層220A及び第一高次層220Bの処理を経て、デコーダ部222の入力として設定される。セグメンテーションネットワーク42の第一エンコーダ部220の第一低次層220Aは、クラシフィケーションネットワーク46の第二エンコーダ部230の第二低次層230A及び第三エンコーダ部240の第三低次層240Aのそれぞれと重みを共有する。なお、重みはウエイト、パラメータ、及び係数等と呼ばれる場合があり得る。
すなわち、第一エンコーダ部220の第一低次層220Aと、第二エンコーダ部230の第二低次層230Aとは、同一の重みを適用してCT画像200の処理を実施する。換言すると、第一エンコーダ部220の第一低次層220Aと、第二エンコーダ部230の第二低次層230Aとは、CT画像200に対して同一の処理を実施し、同一の処理結果を生成する。第一エンコーダ部220の第一低次層220Aと、第三エンコーダ部240の第三低次層240Aとについても同様である。
第一エンコーダ部220及びデコーダ部222は、畳み込みフィルタと活性化ユニットとを組み合わせて構成される。第一エンコーダ部220は、CT画像200から低解像度の特徴量マップを生成する。すなわち、第一エンコーダ部220の第一高次層220Bは、第一低次層220Aの処理結果に対して、セグメンテーションに特化した処理を実施して特徴量マップを生成する。
デコーダ部222は、第一エンコーダ部220を用いて生成した特徴量マップをCT画像200と同じサイズに変換する。セグメンテーションネットワーク42から出力されるセグメンテーションマスク210は、ピクセルごとの病変が存在する確率を表す確率マップを適用し得る。
図5は図4に示す第一エンコーダ部の一例を示す模式図である。図5に示す第一エンコーダ部220の出力部224は、CT画像200における病変を表す特徴量マップを出力する。
図5には、特徴量マップに適用されるCT画像200における病変を列挙した病変情報202を示す。図4に示すデコーダ部222は、特徴量マップをCT画像200と同じサイズに変換したセグメンテーションマスク210を出力する。
ここでいう同じという概念は、完全同一に限定されない。例えば、処理が可能な範囲の違いを有するサイズを、同じサイズに含めることが可能である。本明細書における同じ及び同一という概念は、特に説明をしない場合は上記の概念を適用する。
図4に示すクラシフィケーションネットワーク46は、複数のニューラルネットワークを備える。複数のニューラルネットワークとして、第二エンコーダ部230を備えるニューラルネットワーク、及び第三エンコーダ部240を備えるニューラルネットワークを例示する。クラシフィケーションネットワーク46は、異なるグローバル特徴が適用される三つ以上のエンコーダを備えてもよいし、一つのエンコーダを備えてもよい。
クラシフィケーションネットワーク46は、医用画像の全体の特徴を表すグローバル特徴を出力する。第二エンコーダ部230は、グローバル特徴として疾患名が適用される。すなわち、第二エンコーダ部230の第二高次層230Bは、第二低次層230Aの処理結果に対して、第二エンコーダ部230に適用されるクラシフィケーションに特化した処理を実施して、CT画像200の疾患名を抽出する。第二出力層232は、CT画像200の疾患名を出力する。
図4には、疾患名の例として、特発性肺線維症、サルコイドーシス、非特異性間質性肺炎を図示する。なお、図4に示すIPFは、特発性肺線維症を表す英語表記であるIdiopathic Pulmonary Fibrosisの省略語である。NSIPは、非特異性間質性肺炎を表す英語表記であるNonspecific interstitial pneumo- niaの省略語である。
第三エンコーダ部240は、グローバル特徴としてCT画像200を撮像する際の呼吸条件が適用される。第三エンコーダ部240の第三高次層240Bは、第三低次層240Aの処理結果に対して、第三エンコーダ部240に適用されるクラシフィケーションに特化した処理を実施して、CT画像200を撮像する際の呼吸条件を抽出する。第三出力層242は、CT画像200を撮像する際の呼吸条件を出力する。図4には、CT画像200を撮像における呼吸条件として、呼気及び吸気を例示する。
第二エンコーダ部230及び第三エンコーダ部240は、第一エンコーダ部220と同様に、畳み込みフィルタと活性化ユニットとを組み合わせて構成される。セグメンテーションネットワーク42の出力が確率マップであるのに対して、クラシフィケーションネットワーク46の出力は、CT画像200の全体に対応するグローバル特徴の存在確率を表す確率ベクトルである。
すなわち、第二エンコーダ部230の第二出力層232は、CT画像200の全体に対応する疾患名の存在確率を出力する。また、第三エンコーダ部240の第三出力層242は、CT画像200の全体に対応する撮像の際における呼吸条件の存在確率を出力する。
クラシフィケーションネットワーク46は、セグメンテーションネットワーク42におけるデコーダ部222を使用せず、全結合層を適用して低解像度の特徴量マップを一次元の特徴ベクトルに変換する。
セグメンテーションネットワーク42の学習に適用されるセグメンテーションの誤差は、セグメンテーションネットワーク42から出力されるセグメンテーションマスク210と、セグメンテーションの正解データとの比較から計算される。
クラシフィケーションネットワーク46の学習に適用されるクラシフィケーションの誤差は、クラシフィケーションの結果であるグローバル特徴と、クラシフィケーションの正解データとの比較から計算される。
セグメンテーションネットワーク42及びクラシフィケーションネットワーク46の総誤差は、セグメンテーションネットワーク42及びクラシフィケーションネットワーク46のそれぞれの誤差を使用して計算される。
セグメンテーションネットワーク42の重み及びクラシフィケーションネットワーク46の重みは、バックプロパゲーションを適用して更新される。このように、画像処理装置12は、ピクセルごとの特徴を表すローカル特徴と、医用画像全体の特徴を表すグローバル特徴とを一括して学習し得る。
例えば、セグメンテーションネットワーク42の再学習の際に、クラシフィケーションネットワーク46と重みを共有した層は、セグメンテーションの結果、クラシフィケーションの結果、及びCT画像200を学習セットとし得る。
一方、セグメンテーションネットワーク42の低次層の重みとクラシフィケーションネットワーク46の低次層の重みが共有されるように、セグメンテーションネットワーク42、及びクラシフィケーションネットワーク46の再学習を個別に実施してもよい。
セグメンテーションネットワーク42の再学習の際に、クラシフィケーションネットワーク46と重みを共有していない層は、セグメンテーションの結果及びCT画像200を学習セットとし得る。
再学習が実施されたセグメンテーションネットワーク42は、セグメンテーション部のセグメンテーション結果、グローバル特徴分類部の分類結果、及び入力医用画像を学習セットとして再学習を実施した深層学習器の一例である。
クラシフィケーションネットワーク46に適用される第二エンコーダ部230及び第三エンコーダ部240は、同一の構成を適用し得る。第二エンコーダ部230及び第三エンコーダ部240は、異なる構成を適用してもよい。
〔畳み込みニューラルネットワークの適用例〕
図6は第一実施形態に係る画像処理装置に適用される畳み込みニューラルネットワークの模式図である。畳み込みニューラルネットワークは、英語表記であるConvolutional Neural Networkの省略語を用いてCNNと表現される場合があり得る。なお、説明の簡素化のために、図6では図5に示すクラシフィケーションネットワーク46のうち第三エンコーダ部240の図示を省略する。
符号DはCT画像200のアキシャル数を表す。なお、図6の簡素化のために、CT画像200の処理を模式的に示す部分ではアキシャル数Dの図示を省略する。図8も同様である。
符号HはCT画像200の縦方向のサイズを表す。符号WはCT画像200の横方向のサイズを表す。H×WはCT画像200のサイズを表す。CT画像200のサイズは画素数を適用し得る。例えば、Hは縦方向の画素数と、Wは横方向の画素数とし得る。
セグメンテーションネットワーク42の第一エンコーダ部220は、入力層2200、第一中間層2201、第二中間層2202、及び第三中間層2203を備える。第一中間層2201、第二中間層2202、及び第三中間層2203を総称して中間層と呼ぶ場合がある。中間層は畳み込み層とプーリング層とを繰り返す構成を適用し得る。
第一中間層2201は、入力層2200を介して取得したCT画像200を畳み込む。第一中間層2201は、(H/2)×(W/2)のサイズを有する画像を生成する。
同様に、第二中間層2202は、第一中間層2201から出力された画像を畳み込み、(H/4)×(W/4)のサイズを有する画像を生成する。
更に、第三中間層2203は、第二中間層2202から出力された画像を畳み込み、(H/8)×(W/8)のサイズを有する画像を生成する。図6に示す第一中間層2201、第二中間層2202、及び第三中間層2203は、図4に示す第一低次層220Aに相当する。なお、図6では図4に示す第一高次層220Bの図示を省略する。
デコーダ部222は、第五中間層2205及び出力層2210を備える。図示を省略するが、デコーダ部222は第五中間層2205の前段に図示しない第四中間層を備える。
デコーダ部222は、第一エンコーダ部220の出力画像をCT画像200と同じサイズに変換する。例えば、第五中間層2205は、(H/2)×(W/2)のサイズを有する画像を、H×Wのサイズを有する画像に変換する。
クラシフィケーションネットワーク46の第二エンコーダ部230は、入力層2300、第一中間層2301、第二中間層2302、第三中間層2303、第四中間層2304、第五中間層2305、及び出力層2310を備える。
第一中間層2301、第二中間層2302、及び第三中間層2303は、図4に示す第二低次層230A及び第三低次層240Aに相当する。第四中間層2304及び第五中間層2305は、図4に示す第二高次層230B及び第三高次層240Bに相当する。また、図6に示すクラシフィケーションネットワーク46の出力層2310は図5に示す第二出力層232に相当する。
第二エンコーダ部230の第一中間層2301から第三中間層2303までは、第一エンコーダ部220の第一中間層2201から第三中間層2303までと同様のシーケンスを適用して畳み込みを実施する。一方、第二エンコーダ部230の第四中間層2304及び第五中間層2305は、第二エンコーダ部230に適用されるクラシフィケーションに特化したシーケンスを適用して畳み込みを実施する。
出力層2310は全結合層を適用して、CT画像200のグローバル特徴を表す一次元ベクトルを出力する。図6に示す出力層2310は、CT画像200のグローバル特徴らしさを表す確率ベクトル260を出力する。図6に示す確率ベクトル260は、IPFである確率が60.5パーセント、COP(Cryptogenic Organizing Pneumonia)である確率が20.2パーセント、LIP(Iymphocyitc interstitiaI pneumonia)である確率が10パーセントであることを表す。
図6に示すように、セグメンテーションネットワーク42の第一中間層2201は、クラシフィケーションネットワーク46の第一中間層2301と重みを共有する。また、セグメンテーションネットワーク42の第二中間層2202は、クラシフィケーションネットワーク46の第二中間層2302と重みを共有する。
更に、セグメンテーションネットワーク42の第三中間層2203は、クラシフィケーションネットワーク46の第三中間層2303と重みを共有する。すなわち、セグメンテーションネットワーク42の低次層は、クラシフィケーションネットワーク46の低次層と重みを共有する。
すなわち、セグメンテーションネットワーク42の中間層の少なくとも一部は、クラシフィケーションネットワーク46の対応する中間層と重みを共有する。例えば、セグメンテーションネットワーク42の中間層は、同じ畳み込みを実施するクラシフィケーションネットワーク46の中間層と重みを共有し得る。
CT画像200から病変を抽出する場合と、CT画像200から疾患名を抽出する場合とは、入力層により近い中間層では同じ特徴に注目する。そこで、セグメンテーションネットワーク42の入力層により近い中間層である低次層において、クラシフィケーションネットワーク46の低次層と重みを共有する。これにより、CT画像200のセグメンテーションにおいて、CT画像200のグローバル特徴の抽出に適用される情報を利用することができ、CT画像200のセグメンテーションのロバスト性を向上し得る。
各ネットワークにおける低次層は、実験及びシミュレーション等を適用して規定し得る。すなわち、重みを共有する層を適宜変更しながら、良好な結果が得られた場合に重みを共有した一以上の層を低次層として規定し得る。
また、セグメンテーションネットワーク42の再学習を実施する際に、ローカル情報とグローバル情報とを一緒に学習する。これにより、セグメンテーションネットワーク42はより高いロバスト性を確保し得る。
[第一実施形態に係る画像処理装置の作用効果]
上記の如く構成された第一実施形態に係る画像処理装置12によれば、以下の作用効果を得ることが可能である。
〔1〕
セグメンテーションネットワーク42の第一エンコーダ部220は、クラシフィケーションネットワーク46の第二エンコーダ部230及び第三エンコーダ部240の少なくともいずれかと重みを共有する。これにより、セグメンテーションネットワーク42は、クラシフィケーションネットワーク46に適用される医用画像の特徴抽出が利用でき、セグメンテーションのロバスト性を向上し得る。
〔2〕
セグメンテーションネットワーク42の再学習の際に、セグメンテーションネットワーク42に適用されるローカル情報と、クラシフィケーションネットワーク46に適用されるグローバル情報とを一緒に学習する。これにより、セグメンテーションネットワーク42はより高いロバスト性を確保し得る。
〔3〕
セグメンテーションネットワーク42の低次層は、クラシフィケーションネットワーク46の低次層と重みを共有する。これにより、クラシフィケーションネットワーク46の低次層において抽出される医用画像の特徴をセグメンテーションネットワーク42の低次層が利用し得る。
[第二実施形態に係る画像処理装置]
〔第二実施形態に係るセグメンテーションの詳細な説明〕
図7は第二実施形態に係る画像処理装置に適用されるニューラルネットワークの模式図である。図7に示すセグメンテーションネットワーク42Aは、第一エンコーダ部220とデコーダ部222との間に結合部226を備える。
結合部226は、第一エンコーダ部220の出力画像と第二エンコーダ部230出力画像とを結合する。また、結合部226は、第一エンコーダ部220の出力画像と第三エンコーダ部240の出力画像とを結合する。
結合部226は、出力画像をデコーダ部222へ送信する。デコーダ部222は、入力画像のサイズ変換を実施して、CT画像200と同じサイズのセグメンテーションマスク210を生成する。
セグメンテーションの誤差は、クラシフィケーションの誤差、及びセグメンテーションとクラシフィケーションとの総誤差は、第一実施形態に係る画像処理装置12と同様に計算される。
セグメンテーションネットワーク42Aの重み及びクラシフィケーションネットワーク46の重みは、バックプロパゲーションを適用して更新される。第二実施形態に係る画像処理装置は、第一実施形態に係る画像処理装置12と同様に、ピクセルごとの特徴を表すローカル特徴と、医用画像全体の特徴を表すグローバル特徴とを一括して学習し得る。
もちろん、セグメンテーションネットワーク42Aの低次層の重みとクラシフィケーションネットワーク46の低次層の重みが共有されるように、セグメンテーションネットワーク42A、及びクラシフィケーションネットワーク46の再学習を個別に実施してもよい。
〔畳み込みニューラルネットワークの適用例〕
図8は第二実施形態に係る画像処理装置に適用される畳み込みニューラルネットワークの模式図である。第二エンコーダ部230の第五中間層2305の出力画像は、アップサンプリング部2400へ送信される。なお、第五中間層2305は、一次元の特徴ベクトルを出力する出力部よりも前段の中間層であり、第一エンコーダ部と重みを非共有の中間層の一例である。
アップサンプリング部2400は、第五中間層2305の出力画像のサイズ変換を実施して、第五中間層2305の出力画像を第三中間層2203の出力画像と同じサイズに変換する。アップサンプリング部2400はサイズ変換がされた第五中間層2305の出力画像を結合部226へ送信する。
結合部226は、第三中間層2203の出力画像とアップサンプリング部2400の出力画像とを結合させ、結合させた画像をデコーダ部222の第四中間層2204へ送信する。デコーダ部222は、結合部226の出力画像のサイズ変換を実施して、CT画像200と同じサイズを有するセグメンテーションマスク210を生成する。
クラシフィケーションネットワーク46の高次層の出力画像は、セグメンテーションネットワーク42に適用される画像よりも圧縮させており、小サイズである。そこで、アップサンプリング部2400は、クラシフィケーションネットワーク46の出力画像を拡大させる。結合部226は、サイズを変換したクラシフィケーションネットワーク46の高次層の出力画像とセグメンテーションネットワーク42の第一エンコーダ部220の出力画像とを結合する。
なお、実施形態に示すアップサンプリング部2400は、第二エンコーダ部の出力画像を第一エンコーダ部の出力画像に対応して伸長させる変換部の一例である。
本実施形態では、第五中間層2305の出力画像をアップサンプリング部2400へ送信する態様を例示したが、第四中間層2304など、第二エンコーダ部230の第二低次層230Aの出力画像であり、出力層2310よりも前段の層の出力画像をアップサンプリング部2400へ送信してもよい。
出力層2310よりも前段の層である第五中間層2305等の出力画像は、出力層2310から出力される一次元特徴ベクトルと比較して情報量が落ちていないので、一定の情報量が維持された画像を、第一エンコーダ部220の出力画像と結合させることが可能となる。
アップサンプリング部2400の入力画像は、学習を用いて規定し得る。すなわち、各中間層の出力画像と、結合部226から出力される画像とを学習セットとして学習を実施して、アップサンプリング部2400の入力画像を出力させる中間層を規定し得る。
[第二実施形態に係る画像処理装置の作用効果]
上記の如く構成された第二実施形態に係る画像処理装置によれば、以下の作用効果を得ることが可能である。
〔1〕
セグメンテーションネットワーク42の第一エンコーダ部220の出力画像と、クラシフィケーションネットワーク46の第二エンコーダ部230の出力画像とを結合する結合部226を備える。これにより、クラシフィケーションネットワーク46が抽出した医用画像の特徴を用いた、セグメンテーションネットワーク42の医用画像のセグメンテーションが可能となる。
〔2〕
第二エンコーダ部230の出力画像を、セグメンテーションネットワーク42の第一エンコーダ部220の出力画像と同じサイズに変換するアップサンプリング部2400を備える。これにより、第一エンコーダ部220の出力画像と第二エンコーダ部230の出力画像との結合が可能となる。
〔3〕
第二エンコーダ部230の出力層2310よりも前段の中間層であり、第一エンコーダ部220の中間層と重みが非共有の中間層の出力画像に対してアップサンプリングを実施し、第一エンコーダ部220の出力画像と結合させる。これにより、一定の情報量が維持された第二エンコーダ部230の中間層の出力画像をアップサプリングして、第一エンコーダ部220の出力画像と結合させることが可能となる。
[ローカル特徴とグローバル特徴との対応関係]
図9は疾患名と病変との対応関係を示すテーブルの一例を示す図である。図9に示すテーブル250は、図1に示す画像データベース16に記憶し得る。
医用画像のグローバル特徴である疾患名と、医用画像の局所領域の特徴である病変とは密接な関係がある。図9に示すように、疾患名にごとに存在し得る病変、及び疾患名にごとに存在し得ない病変がある。
図9に示すテーブル250を参照して、セグメンテーションネットワーク42を学習させることで、セグメンテーションネットワーク42のロバスト性を向上し得る。CT画像200のグローバル情報としてIPF以外の疾患名が抽出された場合を考える。IPFに特有の蜂巣肺をローカル特徴として抽出しないように、セグメンテーションネットワーク42を構成し得る。
なお、図9に示すRAは関節リウマチの英語表記である、Rheumatoid arthritisの省略語である。SScは、全身性強皮症の英語表記である、Systemic sclerosisの省略語である。PSSは、進行性全身性強皮症の英語表記である、Progressive Systemic Sclerosisの省略語である。
OPは、器質性肺炎の英語表記である、Organizing Pneumoniaの省略語である。COPは、特発性器質性肺炎の英語表記である、Cryptogenic Organizing Pneumoniaの省略語である。
DIPは、剥離性間質性肺炎の英語表記である、DesquamativeInterstitial Pneumoniaeの省略語である。CNPAは、慢性壊死性肺アスペルギルス症の英語表記である、Chronic Necrotizing Pulmonary Aspergillosisの省略語である。IPFは、特発性肺線維症の英語表記である、Idiopathic Pulmonary Fibrosisの省略語である。UIPは、通常型間質性肺炎の英語表記である、Usual Interstitial Pneumoniaの省略語である。
[画像処理方法への適用例]
第一実施形態に画像処理装置12及び第二実施形態に係る画像処理装置は、画像処理装置12等における各部に対応する工程を含む画像処理方法として構成可能である。
CT画像200のセグメンテーションを実施する画像処理方法は、CT画像200を取得する医用画像取得工程を含み得る。画像処理方法は、CT画像200のクラシフィケーションを実施するクラシフィケーション工程を含み得る。CT画像200のセグメンテーションを実施するセグメンテーション工程は、第一低次層の重みをクラシフィケーション工程における第二低次層の重みと共有する。
セグメンテーション工程は、CT画像200の特徴を圧縮してCT画像200のピクセルごとの特徴を抽出する第一エンコード工程を含み得る。セグメンテーション工程は、第一エンコード工程において抽出した特徴を復元してセグメンテーションマスクを生成するデコード工程を含み得る。クラシフィケーション工程は、CT画像200の特徴を圧縮してCT画像200の全体の特徴を抽出する第二エンコード工程を含み得る。
画像処理方法は、クラシフィケーション工程における中間層の出力画像をセグメンテーション工程における中間層の出力画像のサイズに変換する変換工程を含み得る。また、画像処理方法は、変換工程の出力画像をセグメンテーション工程における中間層の出力画像に結合する結合工程を含み得る。なお、実施形態に示すクラシフィケーション工程は、グローバル特徴分類工程の一例である。
[プログラムへの適用例]
第一実施形態に画像処理装置12及び第二実施形態に係る画像処理装置は、コンピュータを用いて、画像処理装置12等における各部に対応する機能を実現させるプログラムとして構成可能である。
各部に対応する機能の例として、CT画像200を取得する医用画像取得機能、CT画像200のクラシフィケーションを実施するクラシフィケーション機能が挙げられる。また、各部に対応する機能の例として、CT画像200のセグメンテーションを実施するセグメンテーション機能であり、第一低次層の重みをクラシフィケーション機能における第二低次層の重みと共有するセグメンテーション機能が挙げられる。
セグメンテーション機能は、CT画像200の特徴を圧縮してCT画像200のピクセルごとの特徴を抽出する第一エンコード機能を備え得る。セグメンテーション機能は、第一エンコード機能を用いて抽出した特徴を復元してセグメンテーションマスクを生成するデコード機能を備え得る。
クラシフィケーション機能は、CT画像200の特徴を圧縮してCT画像200の全体の特徴を抽出する第二エンコード機能を備え得る。
更に、各部に対応する機能の例として、クラシフィケーションネットワーク46中間層の出力画像を、セグメンテーションネットワーク42における中間層の出力画像と同じサイズに変換する変換機能が挙げられる。
更に、各部に対応する機能の例として、変換機能を用いて変換した画像をセグメンテーションネットワーク42における中間層の出力画像に結合する結合機能が挙げられる。なお、実施形態に示すクラシフィケーション機能は、グローバル特徴分類機能の一例である。
[他の医用画像への適用例]
本実施形態では、医用画像として肺のCT画像を例示したが、脳、胃、及び腸など肺以外の臓器の医用画像を用いてもよい。また、医用画像は二次元画像に限定されない。医用画像は三次元画像でもよい。三次元画像の場合、ボクセルごとの特徴に基づくセグメンテーションが実施される。
〔グローバル特徴の変形例〕
本実施形態では、グローバル特徴として疾患名及び撮像の際の呼吸条件を例示したが、グローバル特徴は、クラスのセグメンテーションと関連する特徴又はクラス分類に影響する特徴等を表す情報であればよい。例えば、体格、年齢、性別、及び既往症等の被検体に関する情報をグローバル特徴として適用してもよい。体格は、身長及び体重等の身体のサイズ表す情報を適用し得る。
〔クラスの変形例〕
本実施形態では、セグメンテーションのクラスとして病変を例示したが、クラスは炎症、腫瘍、及び非腫瘍等の画像パターンの特徴等を適用し得る。また、医用画像を生成するモダリティごとに標準分類が存在する場合は、モダリティごとの標準分類をクラスに適用し得る。
また、セグメンテーションはマルチクラス分類を適用し得る。マルチクラス分類は、ピクセルごとに、複数のクラスのそれぞれのクラスらしさを表す確率をピクセルごとに算出する。
[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素、及び適用例等で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
10 医療情報システム
12 画像処理装置
14 モダリティ
16 画像データベース
18 ネットワーク
20 マウス
21 入力装置
22 キーボード
24 表示装置
40 画像取得部
42 セグメンテーションネットワーク
42A セグメンテーションネットワーク
46 クラシフィケーションネットワーク
50 記憶部
52 バス
60 表示制御部
62 入力制御部
70 特徴量抽出部
74 セグメンテーションマスク生成部
80 画像記憶部
84 セグメンテーションマスク記憶部
86 グローバル特徴記憶部
88 プログラム記憶部
100 プロセッサ
102 メモリ
104 ストレージ装置
106 ネットワークコントローラ
108 電源装置
110 ディスプレイコントローラ
112 入出力インターフェース
114 入力コントローラ
200 CT画像
210 セグメンテーションマスク
220 第一エンコーダ部
222 デコーダ部
224 出力部
226 結合部
230 第二エンコーダ部
232 第二出力層
240 第三エンコーダ部
242 第三出力層
250 テーブル
2200 入力層
2201 第一中間層
2202 第二中間層
2203 第三中間層
2204 第四中間層
2205 第五中間層
2210 出力層
2300 入力層
2301 第一中間層
2302 第二中間層
2303 第三中間層
2304 第四中間層
2305 第五中間層
2310 出力層
2400 アップサンプリング部
第1態様によれば、グローバル特徴分類部の低次層と重みを共有した低次層を有するセグメンテーション部を用いて医用画像のセグメンテーションが実施される。これにより、グローバル特徴が反映されたセグメンテーションが実施され、医用画像のセグメンテーションにおけるクラスの分類の誤りを抑制し得る。
第7態様によれば、出力部よりも前段の中間層の出力画像は、第二エンコーダ部の出力部から出力される一次元の特徴ベクトルに対して情報量が落ちていない。これにより、一定の情報量が維持された出力画像を伸長し、第一エンコーダ部の出力画像へ結合し得る。
第11態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、グローバル特徴分類部は、前記セグメンテーション部と重みを共有した層について、前記グローバル特徴分類部の入力画像及び前記グローバル特徴分類部の分類結果を学習セットとして学習を実施した深層学習器を適用する構成としてもよい。
本発明によれば、グローバル分類特徴部の低次層と重みを共有した低次層を有するセグメンテーション部を用いて医用画像のセグメンテーションが実施される。これにより、グローバル特徴が反映されたセグメンテーションが実施され、医用画像のセグメンテーションにおけるクラスの分類の誤りを抑制し得る。
第一中間層2301、第二中間層2302、及び第三中間層2303は、図4に示す第二低次層230A及び第三低次層240Aに相当する。第四中間層2304及び第五中間層2305は、図4に示す第二高次層230B及び第三高次層240Bに相当する。また、図6に示すクラシフィケーションネットワーク46の出力層2310は図に示す第二出力層232に相当する。
第二エンコーダ部230の第一中間層2301から第三中間層2303までは、第一エンコーダ部220の第一中間層2201から第三中間層203までと同様のシーケンスを適用して畳み込みを実施する。一方、第二エンコーダ部230の第四中間層2304及び第五中間層2305は、第二エンコーダ部230に適用されるクラシフィケーションに特化したシーケンスを適用して畳み込みを実施する。
出力層2310は全結合層を適用して、CT画像200のグローバル特徴を表す一次元の特徴ベクトルを出力する。図6に示す出力層2310は、CT画像200のグローバル特徴らしさを表す確率ベクトル260を出力する。図6に示す確率ベクトル260は、IPFである確率が60.5パーセント、COP(Cryptogenic Organizing Pneumonia)である確率が20.2パーセント、LIP(Iymphocyitc interstitiaI pneumonia)である確率が10パーセントであることを表す。
セグメンテーションの誤差、クラシフィケーションの誤差、及びセグメンテーションとクラシフィケーションとの総誤差は、第一実施形態に係る画像処理装置12と同様に計算される。
〔3〕
第二エンコーダ部230の出力層2310よりも前段の中間層であり、第一エンコーダ部220の中間層と重みが非共有の中間層の出力画像に対してアップサンプリングを実施し、第一エンコーダ部220の出力画像と結合させる。これにより、一定の情報量が維持された第二エンコーダ部230の中間層の出力画像をアップサプリングして、第一エンコーダ部220の出力画像と結合させることが可能となる。
図9に示すテーブル250を参照して、セグメンテーションネットワーク42を学習させることで、セグメンテーションネットワーク42のロバスト性を向上し得る。CT画像200のグローバル特徴としてIPF以外の疾患名が抽出された場合を考える。IPFに特有の蜂巣肺をローカル特徴として抽出しないように、セグメンテーションネットワーク42を構成し得る。
また、セグメンテーションはマルチクラス分類を適用し得る。マルチクラス分類は、複数のクラスのそれぞれのクラスらしさを表す確率をピクセルごとに算出する。

Claims (14)

  1. 深層学習を適用して、医用画像の局所の特徴に基づき前記医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション部と、
    深層学習を適用して、前記医用画像を前記医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類部と、
    を備え、
    前記セグメンテーション部は、低次層である第一低次層の重みを、前記グローバル特徴分類部における低次層である第二低次層と共有する画像処理装置。
  2. 前記セグメンテーション部は、前記クラスとして病変を適用する請求項1に記載の画像処理装置。
  3. 前記グローバル特徴分類部は、前記グローバル特徴として疾患名を適用する請求項1又は2に記載の画像処理装置。
  4. 前記グローバル特徴分類部は、前記グローバル特徴として医用画像の撮像条件を適用する請求項1から3のいずれか一項に記載の画像処理装置。
  5. 前記セグメンテーション部は、前記医用画像の特徴を圧縮する第一エンコーダ部、及び前記第一エンコーダ部を用いて圧縮した医用画像の特徴を復元するデコーダ部を備え、
    前記グローバル特徴分類部は、前記医用画像の特徴を圧縮する第二エンコーダ部を備え、
    前記セグメンテーション部は、前記第一低次層の重みとして前記第一エンコーダ部に適用される重みを、前記第二エンコーダ部に適用される重みと共有する請求項1から4のいずれか一項に記載の画像処理装置。
  6. 前記第一エンコーダ部の出力画像よりも圧縮させた前記第二エンコーダ部の出力画像を、前記第一エンコーダ部の出力画像に対応して伸長させる変換部と、
    第一エンコーダ部の出力画像と前記変換部の出力画像とを結合する結合部と、
    を備えた請求項5に記載の画像処理装置。
  7. 前記第二エンコーダ部は、一次元の特徴ベクトルを出力する出力部よりも前段の中間層であり、前記第一エンコーダ部と重みを非共有の中間層の出力画像を前記変換部へ送信する請求項6に記載の画像処理装置。
  8. 前記変換部は、前記変換部の入力画像及び前記結合部の出力画像を学習セットとして学習を実施した深層学習器を適用する請求項6又は7に記載の画像処理装置。
  9. 前記セグメンテーション部は、前記グローバル特徴分類部と重みを共有した層について、前記セグメンテーション部のセグメンテーション結果、前記グローバル特徴分類部の分類結果、及び前記セグメンテーション部に入力される前記医用画像を学習セットとして学習を実施した深層学習器を適用する請求項1から8のいずれか一項に記載の画像処理装置。
  10. 前記セグメンテーション部は、前記グローバル特徴分類部と重みを共有しない層について、前記医用画像及び前記セグメンテーション部を適用したセグメンテーション結果を学習セットとして再学習を実施した深層学習器を適用する請求項9に記載の画像処理装置。
  11. 前記グローバル特徴分類部は、前記セグメンテーション部と重みを共有した層について、前記グローバル特徴分類部の入力画像及び前記グローバル特徴分類部の分類結果をセットとして学習を実施した深層学習器を適用する請求項1から8のいずれか一項に記載の画像処理装置。
  12. 深層学習を適用して、医用画像の局所の特徴に基づき前記医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション工程と、
    深層学習を適用して、前記医用画像を前記医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類工程と、
    を含み、
    前記セグメンテーション工程は、セグメンテーション部の低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する画像処理方法。
  13. コンピュータに、
    深層学習を適用して、医用画像の局所の特徴に基づき前記医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション機能、及び
    深層学習を適用して、前記医用画像を前記医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類機能を実現させるプログラムであって、
    前記セグメンテーション機能は、セグメンテーション部における低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有するプログラム。
  14. 非一時的かつコンピュータ読取可能な記憶媒体であって、前記記憶媒体に格納された指令がコンピュータによって読み取られた場合に、
    深層学習を適用して、医用画像の局所の特徴に基づき前記医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション機能と、
    深層学習を適用して、前記医用画像を前記医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類機能と、を含む画像処理機能であって、
    前記セグメンテーション機能は、セグメンテーション部における低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する、画像処理機能をコンピュータに実行させる記憶媒体。
JP2020558347A 2018-11-30 2019-11-15 画像処理装置、画像処理方法、及びプログラム Active JP7114737B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018225020 2018-11-30
JP2018225020 2018-11-30
PCT/JP2019/044868 WO2020110775A1 (ja) 2018-11-30 2019-11-15 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020110775A1 true JPWO2020110775A1 (ja) 2021-10-14
JP7114737B2 JP7114737B2 (ja) 2022-08-08

Family

ID=70852978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558347A Active JP7114737B2 (ja) 2018-11-30 2019-11-15 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11983879B2 (ja)
JP (1) JP7114737B2 (ja)
WO (1) WO2020110775A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11842497B2 (en) * 2020-12-09 2023-12-12 Elekta Limited Automatic contour adaptation using neural networks
CN113421276B (zh) * 2021-07-02 2023-07-21 深圳大学 一种图像处理方法、装置及存储介质
CN115187819B (zh) * 2022-08-23 2023-05-16 北京医准智能科技有限公司 图像分类模型的训练方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018175226A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像分類装置、方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738683B2 (en) 2005-07-22 2010-06-15 Carestream Health, Inc. Abnormality detection in medical images
JP5307605B2 (ja) 2009-04-10 2013-10-02 アイカ工業株式会社 水性樹脂組成物およびそれを用いた接着方法
WO2012056362A1 (en) 2010-10-25 2012-05-03 Koninklijke Philips Electronics N.V. System for the segmentation of a medical image
US9767385B2 (en) * 2014-08-12 2017-09-19 Siemens Healthcare Gmbh Multi-layer aggregation for object detection
US10387773B2 (en) 2014-10-27 2019-08-20 Ebay Inc. Hierarchical deep convolutional neural network for image classification
US10049451B2 (en) * 2015-12-02 2018-08-14 The Cleveland Clinic Foundation Automated lesion segmentation from MRI images
JP6714690B2 (ja) 2016-04-26 2020-06-24 株式会社日立製作所 情報処理システム、情報処理システムの運用方法、および機械学習演算器
US9589374B1 (en) * 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US10846326B2 (en) * 2016-11-30 2020-11-24 Optim Corporation System and method for controlling camera and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018175226A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像分類装置、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SATOSHI IIZUKA EA AL: "Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image", ACM TRANSACTIONS ON GRAPHICS (TOG), vol. 35, no. 4, JPN6022013557, July 2016 (2016-07-01), pages 110, ISSN: 0004744701 *

Also Published As

Publication number Publication date
US20210272290A1 (en) 2021-09-02
WO2020110775A1 (ja) 2020-06-04
JP7114737B2 (ja) 2022-08-08
US11983879B2 (en) 2024-05-14

Similar Documents

Publication Publication Date Title
JP7118606B2 (ja) 医用画像処理装置及び医用画像処理プログラム
Gang et al. Dimensionality reduction in deep learning for chest X-ray analysis of lung cancer
US10304198B2 (en) Automatic medical image retrieval
US10580159B2 (en) Coarse orientation detection in image data
EP3611699A1 (en) Image segmentation using deep learning techniques
Rehman et al. A region-based deep level set formulation for vertebral bone segmentation of osteoporotic fractures
US11983879B2 (en) Image processing apparatus, image processing method, and program
US10803354B2 (en) Cross-modality image synthesis
US20190131012A1 (en) Image search device, image search method, and image search program
US10685438B2 (en) Automated measurement based on deep learning
JP2018175226A (ja) 医用画像分類装置、方法およびプログラム
JP7101809B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11327773B2 (en) Anatomy-aware adaptation of graphical user interface
US11854190B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
CN107980149A (zh) 用于脊椎标记的方法、装置和系统
JP7444382B2 (ja) 画像符号化装置、方法およびプログラム、画像復号化装置、方法およびプログラム、画像処理装置、学習装置、方法およびプログラム、並びに類似画像検索装置、方法およびプログラム
US9286688B2 (en) Automatic segmentation of articulated structures
US20210212647A1 (en) Estimating bone mineral density from plain radiograph by assessing bone texture with deep learning
Lee et al. MGB-net: orbital bone segmentation from head and neck CT images using multi-graylevel-bone convolutional networks
Al-Antari et al. A rapid deep learning computer-aided diagnosis to simultaneously detect and classify the novel COVID-19 pandemic
US11989880B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
WO2023276432A1 (ja) 画像検索装置、方法およびプログラム
US20230368880A1 (en) Learning apparatus, learning method, trained model, and program
WO2022137855A1 (ja) 情報処理装置、方法およびプログラム
US20240127613A1 (en) Disease label creation device, disease label creation method, disease label creation program, learning device, and disease detection model

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220727

R150 Certificate of patent or registration of utility model

Ref document number: 7114737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150