JP2020151450A - 画像識別方法及び画像識別装置 - Google Patents

画像識別方法及び画像識別装置 Download PDF

Info

Publication number
JP2020151450A
JP2020151450A JP2019139550A JP2019139550A JP2020151450A JP 2020151450 A JP2020151450 A JP 2020151450A JP 2019139550 A JP2019139550 A JP 2019139550A JP 2019139550 A JP2019139550 A JP 2019139550A JP 2020151450 A JP2020151450 A JP 2020151450A
Authority
JP
Japan
Prior art keywords
image
pixels
partial
identification method
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019139550A
Other languages
English (en)
Other versions
JP6810212B2 (ja
Inventor
哲▲渝▼ 林
zhe-yu Lin
哲▲渝▼ 林
昭源 林
Zhao-Yuan Lin
昭源 林
玉潔 ▲黄▼
玉潔 ▲黄▼
Yu-Jie Huang
益生 趙
Yi-Sheng Chao
益生 趙
駿鵬 許
Chun-Peng Hsu
駿鵬 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wistron Corp
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Publication of JP2020151450A publication Critical patent/JP2020151450A/ja
Application granted granted Critical
Publication of JP6810212B2 publication Critical patent/JP6810212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、識別の性能及び精度を改善しうる画像識別方法及び画像識別装置を提供する。【解決手段】本発明は画像識別方法及び画像識別装置を提供する。画像識別方法は、複数の画素を有する第1のコンピュータ断層撮影(CT)画像を取出すステップと、第1の画素から複数の第2の画素を取出すとともにこれらの第2の画素に基づいて第2のCT画像を生ぜしめるステップと、第2のCT画像に関してコントラスト増強アルゴリズムを実行して第2のCT画像のコントラストを調整するステップと、第1の対象を有する第1の画像領域を第2のCT画像において識別して第3のCT画像を生ぜしめるステップと、第3のCT画像を複数の部分画像に分割し、各部分画像において第1の対象に対応する特定の画像領域のみを保留するステップと、部分画像を第4のCT画像内に組込むステップと、第4のCT画像に基づいて第1の対象の種類を識別するステップとを具えるものである。【選択図】図2

Description

本発明は、識別方法及び識別装置に関するものであり、特に画像識別方法及び画像識別装置に関するものである。
近年、肝疾患を患っている患者数が増大し続けている。一般に、放射線科医師は、患者のコンピュータ断層撮影(CT)画像を取得した後に、この疾患に関する診断を下すようにしている。しかし、医療人材やその他の関連資源(リソース)が制限されている為、診断処理に多大な時間を要するおそれがある。その上、ある種の疾患はより経験豊富な放射線科医師により診断する必要がある。従って、現在の放射線科医師数を考慮すると、肝疾患のある患者数が増大することに対処するのが困難となる可能性がある。
現在、腫瘍部位を検出する多くのシステムが存在するが、これらのシステムの多くは胸部おける結節を検出するために提供されており、肺又は腹腔における腫瘍を検出する製品は市場で入手できない。幾つかの研究が肺腫瘍検出における努力に供せられているが、これらの研究は肝細胞癌(HCC)の検出のみに向けられており、その精度は未だに商業化基準を満足していない。更に、数十種類の肝疾患が有り、従って、単に一種類の疾患を検出することは実際の症状に適用するのに充分ではないことは明らかである。
従って、本発明は、上述した技術問題に対処する画像識別方法及び画像識別装置を提供するものである。
本発明の一実施例によれば画像識別方法を提供する。この識別方法は、第1のコンピュータ断層撮影(CT)画像であって、この第1のCT画像が複数の第1の画素を有し、これら第1の画素の各々がチャネルバリューを有するとともに、これら第1の画素の各々のチャネルバリューは第1の範囲内に入っている当該第1のCT画像を取出すステップと、
前記第1の画素から複数の第2の画素を取出すとともにこれらの第2の画素に基づいて第2のCT画像を生ぜしめるステップであって、前記第2の画素の各々のチャネルバリューは前記第1の範囲よりも小さい第2の範囲内に入っているものである当該ステップと、前記第2のCT画像に関してコントラスト増強アルゴリズムを実行して前記第2のCT画像のコントラストを調整するようにするステップと、第1の対象を有する第1の画像領域を前記第2のCT画像において識別して第3のCT画像を生ぜしめるステップと、前記第3のCT画像を複数の部分画像に分割し、これら部分画像の各々において前記第1の対象に対応する特定の画像領域のみを保留するようにするステップと、前記部分画像を第4のCT画像内に組込むステップと、前記第4のCT画像に基づいて前記第1の対象の種類を識別するステップとを具えるものである。
本発明の一実施例によれば画像識別装置を提供する。この画像識別装置は、記憶回路とプロセッサとを有している。記憶回路は複数のモジュールを記憶する。プロセッサは記憶回路に結合されているとともに、モジュールをアクセスして以下のステップ、すなわち、第1のコンピュータ断層撮影(CT)画像であって、この第1のCT画像が複数の第1の画素を有し、これら第1の画素の各々がチャネルバリューを有するとともに、これら第1の画素の各々のチャネルバリューは第1の範囲内に入っている当該第1のCT画像を取出すステップと、前記第1の画素から複数の第2の画素を取出すとともにこれらの第2の画素に基づいて第2のCT画像を生ぜしめるステップであって、前記第2の画素の各々のチャネルバリューは前記第1の範囲よりも小さい第2の範囲内に入っているものである当該ステップと、前記第2のCT画像に関してコントラスト増強アルゴリズムを実行して前記第2のCT画像のコントラストを調整するステップと、第1の対象を有する第1の画像領域を前記第2のCT画像において識別して第3のCT画像を生ぜしめるステップと、前記第3のCT画像を複数の部分画像に分割し、これら部分画像の各々において前記第1の対象に対応する特定の画像領域のみを保留するステップと、前記部分画像を第4のCT画像内に組込むステップと、前記第4のCT画像に基づいて前記第1の対象の種類(対象タイプ)を識別するステップとを実行するものである。
上述したことに基づくに、本発明の実施例による画像識別方法及び画像識別装置は、第1の画像領域、第1の対象に対応する特定の画像領域及び第1の対象の種類を見いだす識別を、チャネル値が第1の範囲内に入らない画素を排除するとともにコントラスト増強アルゴリズムを実行した後に順次に実行しうるものである。従って、識別の性能及び精度をより一層好ましいものとしうる。
本発明の上述した及びその他の特徴や利点を理解しうるようにするために、図面に開示した幾つかの実施例を以下に詳細に説明する。
添付図面は、本発明の更なる理解を提供するために開示したものであり、本明細書の一部に含まれ且つこの一部を構成するものである。これらの添付図面は、本発明の実施例を開示するとともに、解説と相俟って本発明の原理を説明する作用をするものである。
図1は、本発明の一実施例による画像識別装置を示す線図である。 図2は、本発明の一実施例による画像識別方法を示す流れ図である。 図3は、本発明の一実施例による使用シナリオを示す図である。 図4は、本発明の一実施例による他の使用シナリオを示す図である。
本発明により提起した好適実施例を以下で詳細に参照するに、その内の数例を添付図面に示してある。添付図面及び説明においては同じ又は類似の部分を参照するのに可能な限り同じ参照符号を用いている。
手短に言うと、本発明の実施例による画像識別装置は、特定のコンピュータ断層撮影(CT)画像に関し識別を実行してこの特定の画像における特定の対象を見いだし、更に特定のCT画像を取出した後にこの特定の対象の種類を識別しうるものである。一実施例では、本発明の画像識別装置は、CT画像に関する識別を実行してCT画像における腫瘍を見いだし、更にCT画像を取出した後に腫瘍の種類を決定することができる。説明を容易にするために、以下では、画像識別装置が画像識別を実行する目標を、患者から取得した腹部CT画像とし、この腹部CT画像に基づいて画像識別装置により実行する関連の識別処理を以下で詳細に説明する。
図1を参照するに、この図1は本発明の一実施例による画像識別装置を示す線図である。この図1では、画像識別装置100が記憶回路102及びプロセッサ104を有している。他の実施例では、画像識別装置100は、パーソナルコンピュータ、ラップトップコンピュータ、ワークステーション、サーバ、スマートデバイス、又はCT画像を解析及び処理しうるその他のデバイスとすることができる。しかし、本発明はこれらに限定されるものではない。
記憶回路102は例えば、如何なる種類の固定の又は移動可能なランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリ、ハードドライブ、その他の同様なデバイス、又はこれらのデバイスの組合せとすることができ、この記憶回路102は複数のプログラムコード又はモジュールを記憶する作用を行いうる。
プロセッサ104は記憶回路102に結合されており、汎用のプロセッサ、特定の目的のプロセッサ、伝統的なプロセッサ、デジタル信号プロセッサ、複数のマイクロプロセッサ、デジタル信号プロセッサコアを含む1つ以上のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、如何なる他の種類の集積回路、状態機械(ステートマシン)、ARM(Advanced RISC Machine )ベースのプロセッサ、又は同様な製品とすることができる。
本発明の実施例では、プロセッサ104が記憶回路102に記録されたモジュール及びプログラムコードをアクセスして本発明の画像識別方法を実現するようにしうる。この点における詳細は以下で説明する。
図2を参照するに、この図2は本発明の一実施例による画像識別方法を示す流れ図である。この実施例の方法は図1の画像識別装置100により実行しうる。以下では、図2に示すそれぞれのステップの詳細を図1に示す構成要素を参照して説明する。更に、図2の概念をより一層明瞭に説明するために、図3に示すシナリオをも参照して説明を行う。しかし、図3は単に一例として作用するものであり、本発明の可能な実施例に関する制限を行うものと解釈されるものではないことを銘記すべきである。
プロセッサ104は、最初にステップS201において、第1のCT画像310を取出すことができる。この実施例では、第1のCT画像310は、例えば、患者の腹腔から取出した腹部のCT画像である。更に、本発明のこの実施例による画像識別装置100は、第1のCT画像310に対し特定の前処理を実行した後に、種々の深層学習(ディープラーニング)モデルを用いることにより、前処理された画像中に肝臓と、肝臓内の腫瘍と、腫瘍の種類とを見いだすようにしうる。しかし、本発明はこのことに限定されるものではない。
第1のCT画像310は複数の第1の画素を有するようにしうる。更に、正常なCT画像の特性に基づくに、これら第1の画素の各々はチャネルバリューを有し、このチャネルバリューは第1の範囲内に入っている。この実施例では、チャネルバリューは、例えば、ハンスフィールド単位(HU)値であり、HU値は通常−2048〜30000の範囲(すなわち、第1の範囲)内に入っている。しかし、本発明はこのことに限定されるものではない。
しかしながら、次の関連する識別処理を実行するには、プロセッサ104にとってHU値のこの第1の範囲はあまりにも広すぎる。従って、プロセッサ104は第1の画素の幾つかをステップS220を介して実行し、次の識別処理の性能を改善するようにしうる。
ステップS220では、プロセッサ104により第1の画素から複数の第2の画素を取出すとともに、これらの第2の画素に基づいて第2のCT画像を生ぜしめるようにすることができる。これら第2の画素の各々のチャネルバリューは第2の範囲内に入っており、この第2の範囲は第1の範囲よりも小さいものである。一実施例では、プロセッサ104により第1の画素から複数の第3の画素を取出すようにすることができ、これら第3の画素の各々のチャネルバリューは第2の範囲に入っていないものである。更に、プロセッサ104は第1のCT画像から第3の画素を排除して、第2の画素を含む第2のCT画像320のみを生ぜしめるようにする。要するに、プロセッサ104は、上述した小さな第2の範囲を規定した後に、第1のCT画像310においてチャネルバリューが第2の範囲に入っていない第3の画素を除外して、チャネルバリューが第2の範囲内に入る第2の画素のみを第1のCT画像内に維持させ、これにより第2のCT画像320を形成するようにすることができる。
他の実施例では、第2の範囲を必要に応じて設計者により設定しうる。一実施例では、肝臓及び腫瘍に対応するHU値は通常−70〜200の範囲内に入っている為、プロセッサ104は第2の範囲を−70〜200の範囲として規定することができる。しかし、本発明はこれに限定されるものではない。他の実施例では、プロセッサ104は、1つ以上の他の第2の範囲に基づいて他の第2のCT画像を生ぜしめるように構成することもできる。換言すれば、これらの他の第2のCT画像の各々には、チャネルバリューが特定の範囲内に入っている画素を含めるようにもすることができる。一実施例では、放射線科医師による現実的な変更及び検査後に肝臓及び腫瘍をより一層識別可能となりうるようにするHU値に応じて、上述した1つ以上の他の第2の範囲を決定するようにしうる。しかし、本発明はこのことに限定されるものではない。
プロセッサ104は、次にステップS230において、第2のCT画像320に関してコントラスト増強アルゴリズムを実行して、第2のCT画像320のコントラストを調整するようにしうる。一実施例では、コントラスト増強アルゴリズムに、例えば、ヒストグラム平坦化アルゴリズム又はその他の同様なアルゴリズムを含めることができる。しかし、本発明はこれに限定されるものではない。具体的には、第2のCT画像320に関してコントラスト増強アルゴリズムを実行した後に、肝臓及び腫瘍に相当する画像領域間のコントラストを増大させて、腫瘍がより一層識別可能となるようにしうる。しかし、本発明はこのことに限定されるものではない。
上述したことによれば、本発明の実施例では、チャネルバリューが第1の範囲内に入っていない画素を除外し且つコントラスト増強アルゴリズムを実行するような前処理を介することにより、以下で実行する画像識別(例えば、腫瘍の識別)の性能が高められる。
プロセッサ104は、次にステップS240において、第2のCT画像320内で第1の画像領域330aを識別して第3のCT画像330を生ぜしめるようにしうる。図3では、第1の画像領域330aを、例えば、腫瘍を有する肝臓の画像領域とすることができ、第1の画像領域330aは第1の対象OB1を有しうる。この実施例では、第1の対象OB1は、例えば、肝臓内に位置する腫瘍である。しかし、本発明はこれに限定されるものではない。一実施例では、プロセッサ104により第2のCT画像320を第1の深層学習モデルに入力させ、この第1の深層学習モデルに応じて第2のCT画像320内に第1の画像領域330aを見いだすようにしうる。次に、プロセッサ104により第1の画像領域330aに属さない第2の画素を第2のCT画像320から除外して、第3のCT画像330を生ぜしめるようにしうる。
一実施例では、畳み込みニューラルネットワーク(CNN)のフレームワークに基づくUnet モデル又はその他の同様なモデルを採用することにより第1の深層学習モデルを実現するようにしうる。しかし、本発明はこのことに限定されるものではない。更に、第1の深層学習モデルは、第1の画像領域330aを見いだすのに用いる前に最初に、特定の関心領域(ROI)が付されているトレーニング画像でトレーニングして、これらトレーニング画像を介してROIの特性を学習するようにすることができる。従って、この実施例では、第1の深層学習モデルが第1の画像領域330a(すなわち、腫瘍を有する肝臓の画像領域)を識別しうるようにするために、腫瘍をROIとして有する肝臓の画像である複数のトレーニング画像に基づいてこの第1の深層学習モデルを最初に学習し、腫瘍を有する肝臓の画像領域の特性を見いだすようにすることができる。
プロセッサ104は、次にステップS250において、第3のCT画像330を複数の部分画像330bに分割し、これら部分画像330bの各々における第1の対象OB1に対応する特定の画像領域のみを保留するようにしうる。一実施例では、プロセッサ104により、これら部分画像のうちの第1の部分画像を第2の深層学習モデル内に入力させて、この第2の深層学習モデルに基づいてこの第1の部分画像内の第1の対象OB1に対応する特定の画像領域を見いだすようにすることができる。更に、これら部分画像の各々は複数の特定の画素を有している。プロセッサ104は、次に、特定の画像領域に属さない特定の画素を第1の部分画像から除外し、この第1の部分画像が第1の対象OB1に対応する特定の画像領域のみを含むようにすることができる。
一実施例では、プロセッサ104は予め決定した寸法に応じて第3のCT画像330を部分画像330bに均等に分割するようにしうる。例えば、第3のCT画像330の寸法が512×512であり、予め決定した寸法が64×64であるものとすると、プロセッサ104は予め決定した寸法に応じて第3のCT画像330を64個の部分画像330bに均等に分割するようにしうる。部分画像330bの各々の寸法は予め決定した寸法(すなわち、64×64)である。しかし、本発明はこれに限定されるものではない。これに加え、プロセッサ104は更に、第3のCT画像330における部分画像330bの分布個所を記録するようにしうる。例えば、部分画像330bの各々の分布個所は第3のCT画像330における部分画像330bの各々の座標として表すことができる。しかし、本発明はこのことに限定されるものではない。
プロセッサ104は、次に、64個のそれぞれの部分画像330bを第2の深層学習モデル内に入力させて、この第2の深層学習モデルに応じてこれら部分画像330bの各々における第1の対象OB1に対応する特定の画像領域を見いだすようにすることができる。プロセッサ104は、次に、第1の対象OB1に対応しない特定の画素を部分画像330bの各々から除外し、この第1の対象OB1に対応する特定の画像領域のみがこれら部分画像330bの各々に維持されるようにすることができる。要するに、プロセッサ104は、腫瘍が見いだされない肝臓領域を部分画像330bの各々から除外することができる。しかし、本発明はこのことに限定されるものではない。
一実施例では、CNNのフレームワークに基づくUnet モデル又はその他の同様なモデルを採用することにより第2の深層学習モデルを実現するようにしうる。しかし、本発明はこのことに限定されるものではない。更に、第2の深層学習モデルは、第1の対象OB1に対応する特定の画像領域を見いだすのに用いる前に最初に、特定の関心領域(ROI)が付されているトレーニング画像でトレーニングして、これらトレーニング画像を介してROIの特性を学習するようにすることができる。従って、この実施例では、第2の深層学習モデルが第1の対象OB1(例えば、腫瘍の画像領域)に対応する特定の画像領域を見いだしうるようにするために、腫瘍がROIとして設定されているトレーニング部分画像(トレーニング部分画像の寸法は部分画像330bの寸法に一致させることができる)に基づいてこの第2の深層学習モデルが最初に学習して、腫瘍を有する画像領域の特性を見いだすようにすることができる。一実施例では、例えば、ROI(例えば、腫瘍)が付されている肝臓のトレーニング画像を均等に分割することにより、トレーニング部分画像が得られるようにすることができる。
第2の深層学習モデルのトレーニングのためのデータ量は、肝臓のトレーニング画像をトレーニング部分画像に分割することにより増大させることができ、これにより学習効果をより一層好ましいものとすることができる。更に、トレーニング部分画像は小さくなる為、トレーニングに際し第2の深層学習モデルに必要とするパラメータも減少される。従って、トレーニングの困難性が減少し、識別精度が増大する。
プロセッサ104は、ステップS260において、部分画像330bを第4のCT画像340内に組込むことができる。この実施例では、プロセッサ104は第3のCT画像330内の(第1の対象OB1に対応する特定の画像領域のみを有する)部分画像330bの分布個所に応じてこれら部分画像330bを第4のCT画像340内に組込むようにすることができる。更に、第3のCT画像330内の部分画像330bの各々の分布個所は第4のCT画像340内の分布個所に一致する。
図3によれば、考慮中の部分画像330bは第1の対象OB1に対応する特定の画像領域のみを有している為、それぞれの部分画像330bを第4のCT画像340内に組込んだ後には、この第4のCT画像340は第1の対象OB1(すなわち、腫瘍)のみを有するようになる。
プロセッサ104は、次にステップS270において、第4のCT画像340に基づいて第1の対象OB1の種類を識別することができる。この実施例では、プロセッサ104により、第4のCT画像340を第3の深層学習モデル内に入力させ、この第3の深層学習モデルに応じて第1の対象OB1の種類(例えば、腫瘍の種類(腫瘍タイプ))を識別するようにすることができる。
一実施例では、CNNのフレームワークに基づくNASnet モデル又はその他の同様なモデルを採用することにより第3の深層学習モデルを実現するようにしうる。しかし、本発明はこのことに限定されるものではない。更に、第1の対象OB1の種類を見いだすのに第3の深層学習モデルを用いる前に、特定の関心領域(ROI)が付されているトレーニング画像でこの第3の深層学習モデルを最初にトレーニングして、これらトレーニング画像を介してROIの特性を学習するようにすることができる。従って、この実施例では、第3の深層学習モデルが第1の対象OB1の種類(例えば、腫瘍の種類)を識別しうるようにするために、トレーニング画像として1つ以上の特定の腫瘍の種類(例えば、肝細胞癌(HCC)、血管腫又は限局性結節性過形成(FNH)腫瘍)に対応する腫瘍画像に基づいて、この第3の深層学習モデルが最初に学習して、対応する特性を学習するようにしうる。
上述したことに基づくに、本発明の実施例による画像識別方法及び画像識別装置は、第1の画像領域(例えば、腫瘍を有する肝臓画像領域)、第1の対象に対応する特定の画像領域(例えば、肝臓画像領域内に位置する腫瘍領域)及び第1の対象の種類(例えば、腫瘍の種類)を見いだす識別を、CT画像に関する前処理操作後の種々の深層学習モデルに応じて順次に実行することができる。従って、識別の性能及び精度をより一層好ましいものとしうる。
図4を参照するに、この図4は、本発明の一実施例による他の使用シナリオを示す図である。この実施例では、サーバ410は、例えば、医療用画像管理システム(PACS)であり、図3に示す第1のCT画像310のような種々の医療用画像を記憶することができるものである。
一実施例では、患者に特定の病気(例えば、HCC、FNH、等)があるか否かを医師420が第1のCT画像310に基づいて診断しようとする場合、この医師420は対応する要求をそのクライアントコンピュータを介してサーバ410に送信することができる。その後、サーバ410はこの要求に応答して第1のCT画像310を画像識別装置100に送信することができ、この画像識別装置100は本発明の実施例の教えに応じて第1のCT画像310に関して前処理及び識別等のような関連の操作を実行し、第1の対象OB1(例えば、腫瘍)の種類(例えば、腫瘍の種類)を学習するようにすることができる。次いで画像識別装置100は、最初の第1のCT画像310と、関連の識別結果とをクライアントコンピュータに戻し、医師420が診断を行う時を判断するようにしうる。
これに加え、画像識別装置100は更に、第1の対象OB1を最初の第1のCT画像310上に半透明の画像層としてオーバーレイさせて、医師420が画像をより一層便利に調査しうるようにすることができる。しかし、本発明はこのことに限定されるものではない。
上述したことを考慮するに、本発明の実施例による画像識別方法及び画像識別装置は、第1の画像領域(例えば、腫瘍を有する肝臓画像領域)、第1の対象に対応する特定の画像領域(例えば、肝臓画像領域内に位置する腫瘍領域)及び第1の対象の種類(例えば、腫瘍の種類)を見いだす識別を、CT画像に関する前処理操作(例えば、チャネルバリューが第1の範囲内に入っていない画素を排除したり、コントラスト増強アルゴリズムを実行したりする操作)後の種々の深層学習モデルに応じて順次に実行することができる。従って、識別の性能及び精度をより一層好ましいものとしうる。
加えるに、本発明の実施例を介して識別される腫瘍は関連の医師が更に検討するために提供しうるものである。従って、病気の診断効率を更に高めることができる。
当業者にとって明らかなように、本発明の範囲又は精神に逸脱することなしに本発明の構造に種々の変形及び変更を行うことができるものである。上述したことを考慮するに、本発明は、本発明の変形及び変更が本発明の特許請求の範囲及びこれらの等価の範囲内に入る限り、これらの変形及び変更に及ぶことを意図するものである。
本発明の実施例による画像識別方法及び画像識別装置は、識別の性能及び精度を改善しうるものである。
100:画像識別装置
102:記憶回路
104:プロセッサ
310:第1のCT画像
320:第2のCT画像
330:第3のCT画像
330a:第1の画像領域
330b:部分画像
340:第4のCT画像
410:サーバ
420:医師
OB1:第1の対象
S210〜S270:ステップ

Claims (5)

  1. 第1のコンピュータ断層撮影(CT)画像であって、この第1のCT画像が複数の第1の画素を有し、これら第1の画素の各々がチャネルバリューを有するとともに、これら第1の画素の各々のチャネルバリューは第1の範囲内に入っている当該第1のCT画像を取出すステップと、
    前記第1の画素から複数の第2の画素を取出すとともにこれらの第2の画素に基づいて第2のCT画像を生ぜしめるステップであって、前記第2の画素の各々のチャネルバリューは前記第1の範囲よりも小さい第2の範囲内に入っているものである当該ステップと、
    前記第2のCT画像に関してコントラスト増強アルゴリズムを実行して前記第2のCT画像のコントラストを調整するステップと、
    第1の対象を有する第1の画像領域を前記第2のCT画像において識別して第3のCT画像を生ぜしめるステップと、
    前記第3のCT画像を複数の部分画像に分割し、これら部分画像の各々において前記第1の対象に対応する特定の画像領域のみを保留するステップと、
    前記部分画像を第4のCT画像内に組込むステップと、
    前記第4のCT画像に基づいて前記第1の対象の種類を識別するステップと
    を具える画像識別方法。
  2. 請求項1に記載の画像識別方法において、前記第1の画素から複数の第2の画素を取出すとともにこれらの第2の画素に基づいて第2のCT画像を生ぜしめる前記ステップが、
    複数の第3の画素であって、これら第3の画素の各々のチャネルバリューは前記第2の範囲に入っていないこれら第3の画素を前記第1の画素から見いだすステップと、
    これら第3の画素を前記第1のCT画像から除外して、第2の画素のみを有する前記第2のCT画像を生ぜしめるステップと
    を具える画像識別方法。
  3. 請求項1に記載の画像識別方法において、前記第1の画像領域を前記第2のCT画像において識別して前記第3のCT画像を生ぜしめる前記ステップが、
    前記第2のCT画像を第1の深層学習モデルに入力させて、この第1の深層学習モデルに応じてこの第2のCT画像内で前記第1の画像領域を見いだすステップと、
    この第1の画像領域に属さない前記第2の画像を前記第2のCT画像から除外して、前記第3のCT画像を生ぜしめるステップと
    を具え、
    前記部分画像の各々において前記第1の対象に対応する前記特定の画像領域のみを保留する前記ステップが、
    前記部分画像の各々が複数の特定の画素を有しているこれら部分画像のうちの第1の部分画像を第2の深層学習モデルに入力させて、この第2の深層学習モデルに応じてこの第1の部分画像内で前記第1の対象に対応する前記特定の画像領域を見いだすステップと、
    この特定の画像領域に属さない前記特定の画素を前記第1の部分画像から除外して、この第1の部分画像が前記第1の対象に対応する前記特定の画像領域のみを有するようにするステップと
    を具え、
    前記第3のCT画像を前記部分画像に分割する前記ステップが、
    前記第3のCT画像を予め決定した寸法に応じて前記部分画像に均等に分割するとともに、前記第3のCT画像におけるこれら部分画像の第1の分布個所を記録するステップ
    を具え、
    前記部分画像を前記第4のCT画像内に組込む前記ステップが、
    前記第3のCT画像内の前記部分画像の前記第1の分布個所に応じて前記部分画像を前記第4のCT画像内に組込むようにし、前記第3のCT画像における前記部分画像の各々の前記第1の分布個所は前記第4のCT画像における第2の分布個所に対応するようにするステップ
    を具える画像識別方法。
  4. 請求項3に記載の画像識別方法において、前記第4のCT画像に基づいて前記第1の対象の種類を識別する前記ステップが、
    前記第4のCT画像を第3の深層学習モデルに入力させて、この第3の深層学習モデルに応じて前記第1の対象の種類を識別するようにするステップ
    を具える画像識別方法。
  5. 複数のモジュールを記憶する非一過性の記憶回路と、
    この非一過性の記憶回路に結合され、前記モジュールを実行して以下のステップ、すなわち、
    第1のコンピュータ断層撮影(CT)画像であって、この第1のCT画像が複数の第1の画素を有し、これら第1の画素の各々がチャネルバリューを有するとともに、これら第1の画素の各々のチャネルバリューは第1の範囲内に入っている当該第1のCT画像を取出すステップ、
    前記第1の画素から複数の第2の画素を取出すとともにこれらの第2の画素に基づいて第2のCT画像を生ぜしめるステップであって、前記第2の画素の各々のチャネルバリューは前記第1の範囲よりも小さい第2の範囲内に入っているものである当該ステップ、
    前記第2のCT画像に関してコントラスト増強アルゴリズムを実行して前記第2のCT画像のコントラストを調整するステップ、
    第1の対象を有する第1の画像領域を前記第2のCT画像において識別して第3のCT画像を生ぜしめるステップ、
    前記第3のCT画像を複数の部分画像に分割し、これら部分画像の各々において前記第1の対象に対応する特定の画像領域のみを保留するステップ、
    前記部分画像を第4のCT画像内に組込むステップ及び
    前記第4のCT画像に基づいて前記第1の対象の種類を識別するステップ
    を実行するプロセッサと
    を具える画像識別装置。
JP2019139550A 2019-03-19 2019-07-30 画像識別方法及び画像識別装置 Active JP6810212B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW108109259 2019-03-19
TW108109259A TWI714025B (zh) 2019-03-19 2019-03-19 影像辨識方法及影像辨識裝置

Publications (2)

Publication Number Publication Date
JP2020151450A true JP2020151450A (ja) 2020-09-24
JP6810212B2 JP6810212B2 (ja) 2021-01-06

Family

ID=67513390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019139550A Active JP6810212B2 (ja) 2019-03-19 2019-07-30 画像識別方法及び画像識別装置

Country Status (5)

Country Link
US (1) US11010893B2 (ja)
EP (1) EP3712845B1 (ja)
JP (1) JP6810212B2 (ja)
CN (1) CN111738975B (ja)
TW (1) TWI714025B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022077591A (ja) * 2020-11-12 2022-05-24 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置、プログラムおよび記録媒体
TWI836280B (zh) * 2020-12-16 2024-03-21 財團法人工業技術研究院 醫學影像分析方法與裝置
US11610306B2 (en) 2020-12-16 2023-03-21 Industrial Technology Research Institute Medical image analysis method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129751A (ja) * 1993-10-29 1995-05-19 Hitachi Medical Corp 医用画像処理装置
JP2002325761A (ja) * 2000-06-30 2002-11-12 Hitachi Medical Corp 画像診断支援装置
JP2004222864A (ja) * 2003-01-21 2004-08-12 Mitsubishi Research Institute Inc 診断支援システム、診断支援方法及び診断支援プログラム
JP2014008402A (ja) * 2012-06-28 2014-01-20 Toshiba Corp 画像処理装置
US20170039725A1 (en) * 2015-08-05 2017-02-09 Algotec Systems Ltd. Method and system for spatial segmentation of anatomical structures

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289841B2 (en) * 2002-10-25 2007-10-30 Koninklijke Philips Electronics N.V. Method and apparatus for volumetric cardiac computed tomography imaging
US6999549B2 (en) * 2002-11-27 2006-02-14 Ge Medical Systems Global Technology, Llc Method and apparatus for quantifying tissue fat content
GB2416223A (en) 2004-07-15 2006-01-18 Medicsight Plc Quantification of coronary artery calcification
CN101987019A (zh) * 2009-08-03 2011-03-23 徐子海 基于小波变换的pet图像和ct图像异机融合方法
JP5486364B2 (ja) * 2009-09-17 2014-05-07 富士フイルム株式会社 読影レポート作成装置および方法並びにプログラム
CN103732148A (zh) * 2012-02-02 2014-04-16 株式会社东芝 医用图像处理装置、x 射线ct 装置以及医用图像处理方法
RU2014138042A (ru) * 2012-02-22 2016-04-10 Конинклейке Филипс Н.В. Способ и система уменьшения локализованных артефактов в данных визуализации
US10413253B2 (en) * 2014-11-21 2019-09-17 Samsung Electronics Co., Ltd. Method and apparatus for processing medical image
CN104574507A (zh) * 2015-01-14 2015-04-29 清华大学 基于多幅断层扫描图像的三维实体构建方法
CN105488781B (zh) * 2015-06-01 2019-04-30 深圳市第二人民医院 一种基于ct影像肝脏肿瘤病灶的分割方法
US10685429B2 (en) * 2017-02-22 2020-06-16 Siemens Healthcare Gmbh Denoising medical images by learning sparse image representations with a deep unfolding approach
JP7041688B2 (ja) * 2017-03-31 2022-03-24 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド 三次元印刷中に複数のセンサーを用いる三次元画像処理
TWI640929B (zh) * 2017-04-18 2018-11-11 Gingy Technology Inc. 指紋辨識方法以及指紋辨識裝置
JP7005191B2 (ja) * 2017-06-30 2022-01-21 キヤノンメディカルシステムズ株式会社 画像処理装置、医用画像診断装置、及びプログラム
CN108319894A (zh) * 2017-12-28 2018-07-24 杭州乔戈里科技有限公司 基于深度学习的水果识别方法及装置
CN108288496A (zh) * 2018-01-26 2018-07-17 中国人民解放军总医院 肿瘤容积智能勾画方法和装置
CN108470359A (zh) * 2018-02-11 2018-08-31 艾视医疗科技成都有限公司 一种糖尿病性视网膜眼底图像病变检测方法
CN108717554A (zh) * 2018-05-22 2018-10-30 复旦大学附属肿瘤医院 一种甲状腺肿瘤病理组织切片图像分类方法及其装置
CN109102506B (zh) 2018-08-20 2021-08-13 东北大学 一种基于三级级联网络进行腹部ct肝脏病变图像的自动分割方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129751A (ja) * 1993-10-29 1995-05-19 Hitachi Medical Corp 医用画像処理装置
JP2002325761A (ja) * 2000-06-30 2002-11-12 Hitachi Medical Corp 画像診断支援装置
JP2004222864A (ja) * 2003-01-21 2004-08-12 Mitsubishi Research Institute Inc 診断支援システム、診断支援方法及び診断支援プログラム
JP2014008402A (ja) * 2012-06-28 2014-01-20 Toshiba Corp 画像処理装置
US20170039725A1 (en) * 2015-08-05 2017-02-09 Algotec Systems Ltd. Method and system for spatial segmentation of anatomical structures

Also Published As

Publication number Publication date
EP3712845C0 (en) 2024-03-27
EP3712845B1 (en) 2024-03-27
TWI714025B (zh) 2020-12-21
TW202036592A (zh) 2020-10-01
US20200302597A1 (en) 2020-09-24
EP3712845A1 (en) 2020-09-23
CN111738975A (zh) 2020-10-02
CN111738975B (zh) 2023-04-14
US11010893B2 (en) 2021-05-18
JP6810212B2 (ja) 2021-01-06

Similar Documents

Publication Publication Date Title
Tajbakhsh et al. Computer-aided pulmonary embolism detection using a novel vessel-aligned multi-planar image representation and convolutional neural networks
JP4949264B2 (ja) 医療画像データ内の腫瘍境界を自動的に検出及び区分するシステム及び方法
JP6810212B2 (ja) 画像識別方法及び画像識別装置
CN107563434B (zh) 一种基于三维卷积神经网络的脑部mri图像分类方法、装置
CN111553892B (zh) 基于深度学习的肺结节分割计算方法、装置及系统
Hu et al. Label-free liver tumor segmentation
EP3973539A1 (en) System and method for interpretation of multiple medical images using deep learning
KR20190105460A (ko) 의료 진단 리포트 생성 장치 및 방법
US20190365310A1 (en) Automated Assessment Of Bowel Damage In Intestinal Diseases
Gheorghiță et al. Improving robustness of automatic cardiac function quantification from cine magnetic resonance imaging using synthetic image data
CN111128348A (zh) 医学图像处理方法、装置、存储介质及计算机设备
Madesta et al. Deep learning‐based conditional inpainting for restoration of artifact‐affected 4D CT images
CN110992312B (zh) 医学图像处理方法、装置、存储介质及计算机设备
US20220245797A1 (en) Information processing apparatus, information processing method, and information processing program
US20220036558A1 (en) Method and system for predicting expression of biomarker from medical image
WO2022033598A1 (zh) 乳房x射线图像获取方法、装置、计算机设备和存储介质
CN114612373A (zh) 一种图像识别方法及服务器
KR102595106B1 (ko) 천장골관절염 진단을 위한 딥러닝 네트워크 모델 생성 방법 및 시스템
US20220245925A1 (en) Information processing apparatus, information processing method, and information processing program
Xu et al. Lung segmentation in chest X‐ray image using multi‐interaction feature fusion network
Al-Dhamari et al. Automatic cochlear multimodal 3D image segmentation and analysis using atlas–model-based method
Osman et al. Collaborative Learning for Annotation‐Efficient Volumetric MR Image Segmentation
WO2022138277A1 (ja) 学習装置、方法及びプログラム並びに医用画像処理装置
TWI839758B (zh) 醫療影像的處理方法及處理醫療影像的運算裝置
US11521321B1 (en) Monitoring computed tomography (CT) scan image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R150 Certificate of patent or registration of utility model

Ref document number: 6810212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250