JP6525912B2 - 画像分類装置、方法およびプログラム - Google Patents

画像分類装置、方法およびプログラム Download PDF

Info

Publication number
JP6525912B2
JP6525912B2 JP2016057865A JP2016057865A JP6525912B2 JP 6525912 B2 JP6525912 B2 JP 6525912B2 JP 2016057865 A JP2016057865 A JP 2016057865A JP 2016057865 A JP2016057865 A JP 2016057865A JP 6525912 B2 JP6525912 B2 JP 6525912B2
Authority
JP
Japan
Prior art keywords
image
dimensional image
dimensional
processing
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016057865A
Other languages
English (en)
Other versions
JP2017174039A (ja
Inventor
嘉郎 北村
嘉郎 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2016057865A priority Critical patent/JP6525912B2/ja
Priority to US15/464,997 priority patent/US10198669B2/en
Publication of JP2017174039A publication Critical patent/JP2017174039A/ja
Application granted granted Critical
Publication of JP6525912B2 publication Critical patent/JP6525912B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Description

本発明は、複数の処理層が階層的に接続されたニューラルネットワークにより、3次元画像を複数のクラスに分類する画像分類装置、方法およびプログラムに関するものである。
近年、医療機器(例えば多検出器型CT(Computed Tomography)等)の進歩により質の高い高解像度の3次元画像が画像診断に用いられるようになってきている。ここで、3次元画像は多数の2次元画像から構成され情報量が多いため、医師が所望の観察部位を見つけ診断することに時間を要する場合がある。そこで、注目する臓器を認識し、注目する臓器を含む3次元画像から、例えば最大値投影法(MIP(Maximum Intensity Projection)法)および最小値投影法(MinIP(Minimum Intensity Projection)法)等の方法を用いて、注目する臓器を抽出してMIP表示等を行ったり、3次元画像のボリュームレンダリング(VR(Volume Rendaring))表示を行ったりすることにより、臓器全体や病変の視認性を高め、診断の効率化を図ることが行われている。
また、3次元画像をVR表示する場合、注目する臓器、組織および構造等の構造物を抽出し、抽出した構造物の3次元画像の各画素位置の信号値(CT画像の場合はCT値)に応じて、各画素の信号値に色(R,G,B)および不透明度(オパシティ)が設定される。この場合、注目する部位に応じて色および不透明度を設定したカラーテンプレートを用意しておくことにより、部位に応じて所望のカラーテンプレートを選択すれば、ボリュームレンダリング画像(VR画像)において、注目する部位を可視化することができる。
また、3次元画像から構造物を抽出するためには、3次元画像において構造物を検出する必要がある。ここで、画像における注目する画素を複数のクラスに分類するために、複数の処理層が階層的に接続されることにより構築されたニューラルネットワークによる演算を実行する演算処理装置が提案されている。特に、2次元の画像を複数クラスに分類するための演算処理装置においては、いわゆる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が提案されている(特許文献1,2参照)。
畳み込みニューラルネットワークでは、入力されるデータに対する前段の階層により得られる異なる複数の演算結果データ、すなわち特徴量の抽出結果データに対して、畳み込み層において各種カーネルを用いて畳み込み演算処理を行い、これにより得られる特徴量のデータを、さらにプーリング層においてプーリングすることによって、特徴量のデータ量を減らしている。さらに、プーリングによる処理結果データに対して、次段以降の処理層においてさらなる演算処理を行うことにより、特徴量の認識率を向上させて、入力されたデータを複数のクラスに分類することができる。
例えば、2次元の画像を複数のクラスに分類する畳み込みニューラルネットワークにおいては、入力される画像に対して、畳み込み層において各種カーネルを用いた畳み込み処理を行い、畳み込み処理により得られた特徴量データからなる特徴量マップをプーリング層においてプーリングし、プーリングにより得られた特徴量マップに対して、プーリング層以降の処理層においてさらなる演算を行って、入力された画像における処理対象となる画素をクラス分類することができる。ここで、プーリングはデータ量を減らし、対象領域における幾何情報の相違を吸収し、対象領域の特徴をロバストに取得する効果がある。具体的には、畳み込み処理により得られた特徴量マップにおける2×2画素の領域について、4つの画素値の最大値、最小値または平均値等を算出することをプーリングとすることができる。
このような、畳み込みニューラルネットワークを上述した3次元画像に適用して、3次元画像を複数のクラスに分類することが考えられる。例えば、3次元画像において注目する構造物を検出するに際し、3次元画像を入力として、3次元画像における処理対象となる画素を、注目する構造物とそうでない構造物という複数のクラスに分類するように、畳み込みニューラルネットワークに学習させることにより、入力された3次元画像の対象とする画素を、注目する構造物とそうでない構造物とに精度よくクラス分けすることが可能となる。
特開2015−215837号公報 特開2016−006626号公報
しかしながら、3次元画像は2次元画像と比較して画素数が多いため、畳み込みニューラルネットワークによるクラス分類を行う際に、演算量が多大なものとなる。また、演算時に非常に多くのメモリを消費する。さらに、画素数が多くなると、畳み込みニューラルネットワークに入力される画像が取りうるパターンが非常に多くなる。このため、3次元画像をクラス分けする畳み込みニューラルネットワークを構築するためには、学習のために莫大な量のデータが必要となる。この場合、入力されるデータ量を少なくすることが考えられる。しかしながら、データ量を少なくすると、クラス分類の精度が低下する。
本発明は、上記事情に鑑みなされたものであり、ニューラルネットワークを用いて、少ない演算量にて3次元画像を複数のクラスに精度よく分類できるようにすることを目的とする。
本発明による画像分類装置は、複数の処理層が階層的に接続されたニューラルネットワークにより、3次元画像を複数のクラスに分類する画像分類装置であって、
ニューラルネットワークが、3次元画像を複数の処理パラメータによって投影処理することにより生成された複数の2次元画像のそれぞれに対して、畳み込み処理を行う畳み込み層と、
畳み込み処理がなされた複数の2次元画像のそれぞれにおける同一位置の値をプーリングするプーリング層とを備えたことを特徴とするものである。
「3次元画像を複数のクラスに分類する」とは、3次元画像を構成する各画素を、3次元画像に含まれる構造物のいずれかに属するものに分類すること、または3次元画像を構成する各画素を、3次元画像に含まれる特定の構造物とそれ以外の構造物とに属するものに分類することを意味する。例えば、前者の場合、3次元画像を構成する各画素を、心臓、肺および肝臓のいずれに属するものかに分類するものとなる。後者の場合、3次元画像を構成する各画素を、血管と血管でないものに分類するものとなる。なお、後者のように3次元画像を複数のクラスに分類すれば、3次元画像に特定の構造物が含まれるか否かを判断するようにニューラルネットワークを構築することができる。また、「3次元画像を複数のクラスに分類する」とは、3次元画像自体または3次元画像の一部の領域を、特定の部位のいずれかに属するものに分類することをも意味する。例えば、3次元画像自体を胸部または腹部のような部位に分類することをも意味する。また、3次元画像のある領域を胸部、他の領域を腹部というように分類することをも意味する。
畳み込み層は少なくとも1つ備えていればよく、プーリング層も少なくとも1つ備えていればよい。この場合、1つの畳み込み層に対して1つのプーリング層を備えていてもよく、複数の畳み込み層に対して1つのプーリング層を備えていてもよい。
なお、本発明による画像分類装置は、3次元画像を構成する各画素を複数のクラスに分類するものであってもよい。
また、本発明による画像分類装置においては、投影処理はボリュームレンダリングであり、パラメータは色、不透明度、および投影する対象を定義するマスクの少なくとも1つであってもよい。
「投影する対象を定義するマスク」とは、3次元画像に含まれる特定の構造物のみが2次元画像に含まれるように、投影処理するためのマスクを意味する。例えば、心臓領域および心室領域のみを投影した2次元画像を生成する場合、3次元画像における心臓領域のみが投影された2次元画像が生成されるマスク、および心室領域のみが投影された2次元画像が生成されるマスクを、複数のパラメータとして用いることができる。
また、本発明による画像分類装置においては、投影処理は最大値投影処理、最小値投影処理および平均値投影処理のいずれかであり、パラメータは投影する際の視線方向に対する始点位置と終点位置であってもよい。
また、本発明による画像分類装置においては、2次元画像は、3次元画像に対して設定されたサブウィンドウについての2次元画像であってもよい。
また、本発明による画像分類装置においては、複数の2次元画像を生成する2次元画像生成手段をさらに備えるものであってもよい。
本発明による画像分類方法は、複数の処理層が階層的に接続されたニューラルネットワークにより、3次元画像を複数のクラスに分類する画像分類方法であって、
ニューラルネットワークが、畳み込み層およびプーリング層を備え、
畳み込み層が、3次元画像を複数の処理パラメータによって投影処理することにより生成された複数の2次元画像のそれぞれに対して、畳み込み処理を行い、
プーリング層が、畳み込み処理がなされた複数の2次元画像のそれぞれにおける同一位置の値をプーリングすることを特徴とするものである。
なお、本発明による画像分類方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、ニューラルネットワークの畳み込み層において、3次元画像を複数の処理パラメータによって投影処理することにより生成された複数の2次元画像のそれぞれに対して畳み込み処理が行われ、プーリング層において、畳み込み処理がなされた複数の2次元画像のそれぞれにおける同一位置の値がプーリングされる。このように、本発明によれば、3次元画像から生成された複数の2次元画像を入力としているため、3次元画像を入力する場合と比較して、ニューラルネットワークに入力される画像のデータ量を低減することができる。また、2次元画像は3次元処理を複数のパラメータによって投影処理することにより生成されており、畳み込み処理がなされた複数の2次元画像のそれぞれにおける同一位置の値がプーリング層において、プーリングされる。このため、プーリング層において、ニューラルネットワークに対して複数の処理パラメータに対する普遍性を獲得することができ、これにより、入力される複数の2次元画像に対するクラス分類の精度を向上できる。したがって、本発明によれば、少ない演算量にて3次元画像を複数のクラスに分類することができる。
本発明の実施形態による画像分類装置を適用した、診断支援システムの概要を示すハードウェア構成図 コンピュータに画像分類プログラムをインストールすることにより実現される画像分類装置の概略構成を示す図 3次元画像におけるサブウィンドウの設定を説明するための図 畳み込みニューラルネットワークの構成を概念的に示す図 畳み込み処理を説明するための図 プーリングを説明するための図 本実施形態において行われる処理を示すフローチャート 投影処理を行う場合の複数の処理パラメータを説明するための図 畳み込みニューラルネットワークの他の例を示す図 畳み込みニューラルネットワークの他の例を示す図
以下、図面を参照して本発明の実施形態について説明する。図1は、本発明の実施形態による画像分類装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、このシステムでは、本実施形態による画像分類装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
3次元画像撮影装置2は、被検体の手術の対象となる部位を撮影することにより、その部位を表す3次元画像V0を生成する装置であり、具体的には、CT装置、MRI(Magnetic Resonance Imaging)装置、およびPET(Positron Emission Tomography )装置等である。この3次元画像撮影装置2により生成された3次元画像V0は画像保管サーバ3に送信され、保存される。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された3次元画像V0等の画像データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and COmmunication in Medicine)等のプロトコルに基づいている。
画像分類装置1は、1台のコンピュータに、本発明の画像分類プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。評価プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disk Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに画像分類プログラムをインストールすることにより実現される画像分類装置の概略構成を示す図である。図2に示すように、画像分類装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、画像分類装置1には、ディスプレイ14と、マウス等の入力部15とが接続されている。
ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した3次元画像V0、後述するように画像分類装置1での処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、画像分類プログラムが記憶されている。また、メモリ12は、画像分類プログラムが処理を行う際の作業領域にもなる。画像分類プログラムは、CPU11に実行させる処理として、3次元画像撮影装置2が取得した3次元画像V0を取得する画像取得処理、3次元画像V0を複数の処理パラメータによって投影処理することにより複数の2次元画像を生成する2次元画像生成処理、および複数の処理層が階層的に接続された畳み込みニューラルネットワークにより、3次元画像V0を複数のクラスに分類する分類処理を規定する。なお、本実施形態の画像分類装置1は、3次元画像V0の各画素を血管および非血管の2クラスに分類するものとする。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、2次元画像生成部22、および畳み込みニューラルネットワーク(以下、CNNとする)23として機能する。なお、画像分類装置1は、画像取得処理、2次元画像生成処理、およびCNN23におけるクラス分類の処理をそれぞれ行う複数のプロセッサを備えるものであってもよい。
画像取得部21は、画像保管サーバ3から3次元画像V0を取得する。画像取得部21は、3次元画像V0が既にストレージ13に記憶されている場合には、ストレージ13から取得するようにしてもよい。
2次元画像生成部22は、3次元画像V0を複数の処理パラメータによって投影処理することにより複数の2次元画像を生成する。本実施形態においては、3次元画像V0に対して3次元のサブウィンドウを設定し、サブウィンドウ内の画像を、複数の処理パラメータによってボリュームレンダリングして、複数の2次元画像を生成する。
すなわち、サブウィンドウ内の3次元画像V0に対して、視点位置となる投影面から仮想的な光線を照射し、3次元画像V0の各信号値に対応した色(R,G,B)および不透明度(オパシティ)に基づいて、物体内部からの仮想的な反射光による3次元画像を作成する。そして、この3次元画像から投影面に物体内部の3次元構造を透視する投影画像を2次元画像として生成する。
なお、色および不透明度はカラーテンプレートに定義されており、本実施形態においては、複数種類のカラーテンプレートが複数の処理パラメータとして用意されている。2次元画像生成部22は、サブウィンドウ内の3次元画像V0の各画素位置の信号値を、複数のカラーテンプレートのそれぞれに設定された色および不透明度に基づいて、投影画像の画素値に変換して、複数の2次元画像を生成する。本実施形態においては、3種類のカラーテンプレートを用いて3つの2次元画像G1〜G3を生成するものとする。なお、カラーテンプレートには、色のみを定義してもよく、不透明度のみを定義してもよい。
このように複数の処理パラメータにより生成された2次元画像G1〜G3においては、パラメータに応じて、血管が確認しにくかったり、動脈のみが確認できたり、動脈および静脈の双方が確認できたりすることとなる。
2次元画像生成部22は、サブウィンドウの3次元画像V0上における位置および傾きを変更しながら、位置および傾きが変更されたサブウィンドウの位置のそれぞれにおいて、複数の処理パラメータにより複数の2次元画像を生成する。すなわち、図3に示すように、2次元画像生成部22は、3次元画像V0においてサブウィンドウW1を設定し、サブウィンドウW1内の画像を、複数の処理パラメータによってボリュームレンダリングして、複数の2次元画像を生成する。2次元画像生成部22は、さらに、サブウィンドウW1とは異なる位置および傾きのサブウィンドウW2を設定し、サブウィンドウW2内の画像を、複数の処理パラメータによってボリュームレンダリングして、複数の2次元画像を生成する。なお、図3に示すように、サブウィンドウW1,W2は、視線方向の最も手前の面を実線で示した、3次元のウィンドウとなる。そして、2次元画像生成部22は、サブウィンドウの位置および傾きを変更しながら、3次元画像V0の全領域に対してサブウィンドウを設定して、複数の処理パラメータにより複数の2次元画像を生成する。なお、CNN23には、サブウィンドウ毎に複数の2次元画像が入力され、処理に供されることとなる。
CNN23は、2次元画像G1〜G3を入力とし、2次元画像G1〜G3における中心位置にある画素が、血管であるか非血管であるかのクラス分類結果を出力する。図4はCNN23の構成を概念的に示す図である。図4に示すように、CNN23は、畳み込み層31、プーリング層32、および全結合層33を含む複数の処理層が階層的に接続されて構成されている。
畳み込み層31は、あらかじめ定められたカーネルを用いて、複数の2次元画像G1〜G3に対して畳み込み処理を行う。図5は畳み込み処理を説明するための図である。図5に示すように、畳み込み層31は、カーネル35を適用して、2次元画像G1〜G3に対して畳み込み処理を行う。カーネル35はn×n画素サイズ(例えばn=3)を有し、各要素に重みが設定されている。例えば、2次元画像G1〜G3のエッジを強調する微分フィルタのような重みが設定されている。畳み込み層31は、カーネル35の注目画素をずらしながら、2次元画像G1〜G3の全体にカーネル35を適用する。すなわち、カーネル35により2次元画像G1〜G3をフィルタリングする。さらに、畳み込み層31は、畳み込みされた値に対して、シグモイド関数等の活性化関数を適用し、特徴量マップF1〜F3を出力する。なお、2次元画像G1〜G3の画素サイズをxg,yg、カーネル35のサイズをxk,ykとしたときに、特徴量マップF1〜F3の画素サイズxt,ytは下記の式(1)により表される。
xt=xg−xk+1
yt=yg−yk+1 (1)
なお、図4においては、畳み込み層31は、2次元画像G1〜G3のそれぞれに対応する、丸形状で表す3つのユニットを有するものとしているが、1つのユニットのみを有するものとし、2次元画像G1〜G3を順次処理するものとしてもよい。
プーリング層32は、畳み込み層31が出力した特徴量マップF1〜F3をプーリングする。図6はプーリングを説明するための図である。図6に示すように、本実施形態においては、特徴量マップF1〜F3における同一位置の3つの値を1つの値にプーリングし、特徴量マップF1〜F3と同一サイズの特徴量マップF11を出力する。具体的には、3つの値の最大値をプーリングする。なお、3つの値の平均値または最小値をプーリングしてもよい。このようなプーリングにより、2次元画像G1〜G3における位置の特徴を失うことなく、全結合層33に入力される特徴量マップF11のデータ量を低減できる。
また、CNN23に入力される2次元画像G1〜G3は、異なる処理パラメータによって投影処理されているため、血管が確認しにくかったり、動脈のみが確認できたり、動脈および静脈の双方が確認できたりするものが含まれる。プーリング層32において、上述したように、3つの値の最大値等をプーリングすることにより、処理パラメータによらずに、最大値等がプーリングされるため、CNN23において、2次元画像G1〜G3を生成した際の複数の処理パラメータに対する普遍性を獲得することができる。
全結合層33は、一般的な多層ニューラルネットワークと同様の構造をなしており、複数の処理層間のユニットが全て繋がっている層である。なお、図4においてユニットは丸形状で示されている。また、ユニット間の結合は入力側から出力側に向かう矢印により示されている。全結合層33には、特徴量マップF11が入力され、2次元画像G1〜G3を生成した際のサブウィンドウの中心位置における画素が血管であるか非血管であるかのクラス分類結果を出力する。ここで、全結合層33におけるある1つの処理層のユニットに対する前段の処理層の複数のユニットからの入力をxj、出力をyi、ユニット間の結合の重みをwij、バイアスをbiとすると、出力yiは下記の式(2)により表される。なお、式(2)におけるfは、シグモイド関数等の活性化関数である。式(2)における重みwijおよびバイアスbiが後述する学習により算出される。
全結合層33の最終階層である出力層は、サブウィンドウの中心位置の画素が血管であるか否かを表すクラス分類結果を出力する。例えば、血管である場合には1、血管でない場合には0を出力する。これにより、CNN23によって、サブウィンドウの中心位置にある画素を血管および非血管の2つのクラスに分類することができる。
次に、CNN23の学習について説明する。CNN23の学習は周知の誤差逆伝搬法を用いる。CNN23の学習のために、それぞれ多数の正の教師データおよび負の教師データを用意する。正の教師データは、サブウィンドウと同一サイズを有し、中心位置の画素が血管である、ボリュームレンダリングにより生成された2次元画像である。負の教師データは、サブウィンドウと同一サイズを有し、中心位置の画素が血管でない、ボリュームレンダリングにより生成された2次元画像である。なお、教師データを生成する際には、ある3次元画像に設定されたサブウィンドウ内の画像を、2次元画像G1〜G3を生成した際の同一の複数の処理パラメータにより3次元画像を投影処理することにより、1つのサブウィンドウ内の画像に対して3つの複数の教師データが生成される。
そして、CNN23に教師データを入力して、クラス分類結果を出力させる。次いで、出力された結果を教師データと比較し、正解か不正解かに応じて、出力側から入力側に向かって、全結合層33に含まれるユニットの各階層間における結合の重みおよびバイアスを修正する。結合の重みおよびバイアスの修正を、多数の正負の教師データを用いて、あらかじめ定められた回数、または出力されるクラス分類結果の正解率が100%になるまで繰り返し行い、学習を終了する。
次いで、本実施形態において行われる処理について説明する。図7は本実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が3次元画像V0を取得し(ステップST1)、2次元画像生成部22が3次元画像V0を複数の処理パラメータによって投影処理することにより複数の2次元画像G1〜G3を生成する(ステップST2)。そして、CNN23が複数の2次元画像G1〜G3の入力を受け付け(ステップST3)、クラス分類結果を出力し(ステップST4)、処理を終了する。
なお、サブウィンドウの3次元画像V0上における位置および傾きを変更しつつ複数の2次元画像を生成し、上記クラス分類の処理を行うことにより、3次元画像V0に含まれる各画素が血管であるか否かの判定結果を出力することができる。この判定結果を用いることにより、3次元画像V0から血管を抽出し、抽出した血管のボリュームレンダリング画像等をディスプレイ14に表示することができる。
このように、本実施形態においては、畳み込み層31において、3次元画像V0を複数の処理パラメータによって投影処理することにより生成された複数の2次元画像G1〜G3のそれぞれに対して畳み込み処理を行い、プーリング層32において、畳み込み処理がなされた複数の2次元画像、すなわち特徴量マップF1〜F3のそれぞれにおける同一位置の値をプーリングするようにしたものである。このように、本実施形態によれば、3次元画像V0から生成された複数の2次元画像G1〜G3を入力としているため、3次元画像V0を入力する場合と比較して、CNN23に入力される画像のデータ量を低減することができる。また、2次元画像G1〜G3は3次元画像V0を複数のパラメータによって投影処理することにより生成されており、畳み込み処理により生成された特徴量マップF1〜F3のそれぞれにおける同一位置の値がプーリング層32において、プーリングされる。このため、プーリング層32において、CNN23に対して複数の処理パラメータに対する普遍性を獲得することができ、これにより、入力される複数の2次元画像G1〜G3に対するクラス分類の精度を向上できる。したがって、本発明によれば、少ない演算量にて3次元画像V0を複数のクラスに分類することができる。
なお、上記実施形態においては、3次元画像V0に含まれる各画素を血管および非血管の2つのクラスに分類しているが、3以上の複数のクラスに分類するようにCNN23を構築することも可能である。例えば、3次元画像V0に含まれる各画素を心臓、肺およびそれ以外の構造物の3つのクラスに分類するようにCNN23を構築することも可能である。この場合、教師データは、画像の中心位置が心臓の正の教師データ、画像の中心位置が肺の正の教師データ、および画像の中心位置が心臓でも肺でもない負の教師データを多数用意して、CNN23の学習を行えばよい。
また、上記実施形態において、3次元画像V0自体を特定の部位の何れかに属するものに分類するように、CNN23を構築してもよい。例えば、3次元画像V0自体を胸部または腹部のような部位に分類するものとなるように、CNN23を構築してもよい。また、3次元画像V0の一部の領域を特定の部位の何れかに属するものに分類するように、CNN23を構築してもよい。例えば、3次元画像V0のある領域を胸部、他の領域を腹部に分類するものとなるように、CNN23を構築してもよい。
また、上記実施形態においては、2次元画像生成部22において、サブウィンドウ内の画像を、複数の処理パラメータによってボリュームレンダリングして、複数の2次元画像を生成している。しかしながら、サブウィンドウ内の画像に対して、複数の処理パラメータによって最大値投影処理、最小値投影処理および平均値投影処理のいずれかの処理を行って、複数の2次元画像を生成してもよい。この場合、複数の処理パラメータは、投影する際の視線方向に対する始点位置と終点位置とすればよい。具体的には、図8に示すように、視線方向を示す矢印上において、始点位置および終点位置のペア(S1,E1)、(S2,E2)、(S3,E3)を設定し、各始点位置および終点位置の間において、最大値投影処理、最小値投影処理および平均値投影処理を行って、複数の2次元画像を生成すればよい。
また、上記実施形態においては、CNN23を1つの畳み込み層31および1つのプーリング層32を有するものとしているが、複数の畳み込み層31および複数のプーリング層32を有するものとしてもよい。例えば、図9に示すように、3つの畳み込み層31A〜31Cおよび畳み込み層31A〜31Cからの出力をそれぞれプーリングする3つのプーリング層32A〜32Cを備えるようにCNN23を構築してもよい。この場合、各畳み込み層31A〜31Cには、それぞれ3つの2次元画像G1〜G3が入力され、それぞれ3つの特徴量マップFA1〜FA3,FB1〜FB3,FC1〜FC3が出力される。各畳み込み層31A〜31Cで使用されるカーネル35A〜35Cは、それぞれ異なる特徴量マップを生成するように設定される。したがって、各畳み込み層31A〜31Cから出力される特徴量マップFA1〜FA3,FB1〜FB3,FC1〜FC3はそれぞれ2次元画像G1〜G3の異なる特徴を表すものとなる。
特徴量マップFA1〜FA3,FB1〜FB3,FC1〜FC3は、それぞれプーリング層32A〜32Cによりプーリングされ、特徴量マップFA11〜FC11が出力される。特徴量マップFA11〜FC11は全結合層33に入力され、全結合層33からクラス分類結果が出力される。
また、図10に示すように、畳み込み層31およびプーリング層32に加えて、特徴量マップF11に畳み込み層31とは異なる畳み込み処理を行う畳み込み層36、および畳み込み層36の出力をプーリングするプーリング層37を設けるようにしてもよい。この場合、プーリング層37は、畳み込み層36が出力する特徴量マップにおける、例えば2×2画素の領域の4つの値の最大値、最小値または平均値等を抽出することにより、プーリングを行うものである。なお、プーリング層37の後段にさらに畳み込み層およびプーリングを設けてもよい。また、図9に示すCNN23におけるプーリング層32A〜32Cの後段に、図10と同様にさらなる畳み込み層およびプーリング層を設けてもよい。
また、上記実施形態において、2次元画像を生成する際に、3次元画像V0における投影する対象を定義する複数のマスクを処理パラメータとして用いてもよい。例えば、3次元画像V0における心臓領域、心室領域および心房領域を抽出するマスクM1〜M3を用意し、3次元画像V0をマスクM1〜M3を用いてボリュームレンダリングすることにより、3つの2次元画像を生成してもよい。この場合、3つの2次元画像の色および不透明度は一定としてもよく、上記と同様に複数種類のカラーテンプレートを用意して、投影した領域毎に異なる色および不透明度を有する2次元画像を生成してもよい。この場合においても、カラーテンプレートには、色のみを定義してもよく、不透明度のみを定義してもよい。また、この場合、より多くの2次元画像が生成されることとなるため、CNN23においては、上記実施形態よりも多くの畳み込み層を有するものとすればよい。
1 画像分類装置
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 ディスプレイ
15 入力部
21 画像取得部
22 2次元画像生成部
23 畳み込みニューラルネットワーク(CNN)
31、36 畳み込み層
32、37 プーリング層
33 全結合層
35 カーネル

Claims (8)

  1. 複数の処理層が階層的に接続されたニューラルネットワークにより、3次元画像を複数のクラスに分類する画像分類装置であって、
    前記ニューラルネットワークが、前記3次元画像を複数の処理パラメータによって投影処理することにより生成された複数の2次元画像のそれぞれに対して、畳み込み処理を行う畳み込み層と、
    前記畳み込み処理がなされた前記複数の2次元画像のそれぞれにおける同一位置の値をプーリングするプーリング層とを備えたことを特徴とする画像分類装置。
  2. 前記3次元画像を構成する各画素を前記複数のクラスに分類する請求項1記載の画像分類装置。
  3. 前記投影処理はボリュームレンダリングであり、前記パラメータは色、不透明度、および投影する対象を定義するマスクの少なくとも1つである請求項1または2記載の画像分類装置。
  4. 前記投影処理は最大値投影処理、最小値投影処理および平均値投影処理のいずれかであり、前記パラメータは投影する際の視線方向に対する始点位置と終点位置である請求項1または2記載の画像分類装置。
  5. 前記2次元画像は、前記3次元画像に対して設定されたサブウィンドウについての2次元画像である請求項1から4のいずれか1項記載の画像分類装置。
  6. 前記複数の2次元画像を生成する2次元画像生成手段をさらに備えた請求項1から5のいずれか1項記載の画像分類装置。
  7. 複数の処理層が階層的に接続されたニューラルネットワークにより、3次元画像を複数のクラスに分類する画像分類方法であって、
    前記ニューラルネットワークが、畳み込み層およびプーリング層を備え、
    前記畳み込み層が、前記3次元画像を複数の処理パラメータによって投影処理することにより生成された複数の2次元画像のそれぞれに対して畳み込み処理を行い、
    前記プーリング層が、前記畳み込み処理がなされた前記複数の2次元画像のそれぞれにおける同一位置の値をプーリングすることを特徴とする画像分類方法。
  8. 複数の処理層が階層的に接続されたニューラルネットワークにより、3次元画像を複数のクラスに分類する画像分類方法をコンピュータに実行させるための画像分類プログラムであって、
    前記ニューラルネットワークが、畳み込み層およびプーリング層を備え、
    前記畳み込み層が、前記3次元画像を複数の処理パラメータによって投影処理することにより生成された複数の2次元画像のそれぞれに対して畳み込み処理を行う手順と、
    前記プーリング層が、前記畳み込み処理がなされた前記複数の2次元画像のそれぞれにおける同一位置の値をプーリングする手順とをコンピュータに実行させることを特徴とする画像分類プログラム。
JP2016057865A 2016-03-23 2016-03-23 画像分類装置、方法およびプログラム Active JP6525912B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016057865A JP6525912B2 (ja) 2016-03-23 2016-03-23 画像分類装置、方法およびプログラム
US15/464,997 US10198669B2 (en) 2016-03-23 2017-03-21 Image classifying apparatus, image classifying method, and image classifying program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016057865A JP6525912B2 (ja) 2016-03-23 2016-03-23 画像分類装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017174039A JP2017174039A (ja) 2017-09-28
JP6525912B2 true JP6525912B2 (ja) 2019-06-05

Family

ID=59898128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016057865A Active JP6525912B2 (ja) 2016-03-23 2016-03-23 画像分類装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US10198669B2 (ja)
JP (1) JP6525912B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6955303B2 (ja) * 2017-04-12 2021-10-27 富士フイルム株式会社 医用画像処理装置および方法並びにプログラム
JP7295022B2 (ja) * 2017-10-03 2023-06-20 株式会社根本杏林堂 血管抽出装置および血管抽出方法
US10223610B1 (en) * 2017-10-15 2019-03-05 International Business Machines Corporation System and method for detection and classification of findings in images
WO2019098780A1 (ko) * 2017-11-17 2019-05-23 안영샘 진단 영상 변환 장치, 진단 영상 변환모듈 생성 장치, 진단 영상 촬영 장치, 진단 영상 변환 방법, 진단 영상 변환모듈 생성 방법, 진단 영상 촬영 방법, 및 컴퓨터 판독 가능한 기록매체
US11030525B2 (en) * 2018-02-09 2021-06-08 Baidu Usa Llc Systems and methods for deep localization and segmentation with a 3D semantic map
US10373022B1 (en) * 2018-02-28 2019-08-06 Konica Minolta Laboratory U.S.A., Inc. Text image processing using stroke-aware max-min pooling for OCR system employing artificial neural network
CN110321759B (zh) 2018-03-29 2020-07-07 北京字节跳动网络技术有限公司 一种视频特征提取方法及装置
CN108629768B (zh) * 2018-04-29 2022-01-21 山东省计算中心(国家超级计算济南中心) 一种食管病理图像中上皮组织的分割方法
JP7240657B2 (ja) * 2018-05-15 2023-03-16 Tokyo Artisan Intelligence株式会社 ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム
JP6954719B2 (ja) 2018-07-06 2021-10-27 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 検査ボリュームの差分画像データセットの決定
EP3593722A1 (en) * 2018-07-13 2020-01-15 Neuroanalytics Pty. Ltd. Method and system for identification of cerebrovascular abnormalities
CN112930543A (zh) * 2018-10-10 2021-06-08 利普麦德股份有限公司 神经网络处理装置、神经网络处理方法和神经网络处理程序
US10325179B1 (en) * 2019-01-23 2019-06-18 StradVision, Inc. Learning method and learning device for pooling ROI by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same
JP7313192B2 (ja) * 2019-05-27 2023-07-24 キヤノンメディカルシステムズ株式会社 診断支援装置、及び、x線ct装置
JP7234364B2 (ja) * 2019-06-28 2023-03-07 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
JP7414432B2 (ja) 2019-09-06 2024-01-16 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US20210357730A1 (en) * 2020-05-12 2021-11-18 Alibaba Group Holding Limited Multi-size convolutional layer background
JP2022095024A (ja) * 2020-12-16 2022-06-28 キヤノン株式会社 学習データ生成装置、学習データ生成方法及びコンピュータプログラム
CN112908451B (zh) * 2021-04-16 2023-12-26 千乘镜像(北京)科技有限公司 图像处理方法、装置和存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594410B2 (en) * 2006-08-28 2013-11-26 Definiens Ag Context driven image mining to generate image-based biomarkers
US7746340B2 (en) * 2005-04-13 2010-06-29 Siemens Medical Solutions Usa, Inc. Method and apparatus for generating a 2D image having pixels corresponding to voxels of a 3D image
JP4267598B2 (ja) * 2005-07-11 2009-05-27 ザイオソフト株式会社 画像融合処理方法、画像融合処理プログラム、画像融合処理装置
US8331637B2 (en) * 2006-03-03 2012-12-11 Medic Vision-Brain Technologies Ltd. System and method of automatic prioritization and analysis of medical images
DE102007008767B3 (de) * 2007-02-22 2008-07-24 Tomtec Imaging Systems Gmbh Verfahren und Vorrichtung zur Darstellung von 3D Bilddatensätzen auf 2D Bildern
US7978191B2 (en) * 2007-09-24 2011-07-12 Dolphin Imaging Systems, Llc System and method for locating anatomies of interest in a 3D volume
JP5417609B2 (ja) * 2008-03-04 2014-02-19 株式会社日立メディコ 医用画像診断装置
US8547402B2 (en) * 2009-10-07 2013-10-01 Hologic, Inc. Displaying computer-aided detection information with associated breast tomosynthesis image information
EP2489011B1 (en) * 2009-10-14 2020-04-29 3Mensio Medical Imaging B.V. A method, a graphic user interface, a system and a computer program for optimizing workflow of a medical intervention
CN102222352B (zh) * 2010-04-16 2014-07-23 株式会社日立医疗器械 图像处理方法和图像处理装置
US8958618B2 (en) * 2012-06-28 2015-02-17 Kabushiki Kaisha Toshiba Method and system for identification of calcification in imaged blood vessels
WO2014167466A1 (en) * 2013-04-09 2014-10-16 Koninklijke Philips N.V. Layered two-dimensional projection generation and display
US10095917B2 (en) * 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
JP2015215837A (ja) * 2014-05-13 2015-12-03 株式会社デンソー 演算処理装置
JP2016006626A (ja) 2014-05-28 2016-01-14 株式会社デンソーアイティーラボラトリ 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法

Also Published As

Publication number Publication date
US10198669B2 (en) 2019-02-05
US20170277977A1 (en) 2017-09-28
JP2017174039A (ja) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6525912B2 (ja) 画像分類装置、方法およびプログラム
US10980493B2 (en) Medical image display device, method, and program
US10452957B2 (en) Image classification apparatus, method, and program
KR101943011B1 (ko) 피검체의 의료 영상 판독을 지원하는 방법 및 이를 이용한 장치
WO2018000564A1 (zh) 血管中心线提取方法及系统
US10734107B2 (en) Image search device, image search method, and image search program
US9155470B2 (en) Method and system for model based fusion on pre-operative computed tomography and intra-operative fluoroscopy using transesophageal echocardiography
JP6906347B2 (ja) 医用画像分類装置、方法およびプログラム
US8805034B2 (en) Selection of datasets from 3D renderings for viewing
JP5336370B2 (ja) 効率的診断のための解剖構造に関係した画像コンテキスト依存のアプリケーション
JP2019033966A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2012530553A (ja) 胸部トモシンセシスイメージングにおけるコンピュータ支援肺結節検出システム
JP6824845B2 (ja) 画像処理システム、装置、方法およびプログラム
KR20160110194A (ko) 의료 이미지들의 분할 불확실성의 계산 및 시각화를 위한 시스템들 및 방법들
JP2020185374A (ja) 医療画像で病変の視覚化を補助する方法およびこれを利用した装置
US20180271460A1 (en) System for Synthetic Display of Multi-Modality Data
WO2020110774A1 (ja) 画像処理装置、画像処理方法、及びプログラム
Rubin et al. CT-To-MR conditional generative adversarial networks for ischemic stroke lesion segmentation
KR20200131737A (ko) 의료 영상에서 병변의 시각화를 보조하는 방법 및 이를 이용한 장치
KR20200110111A (ko) 의료영상정보 딥러닝 기반의 동적 다차원 질병진단 방법 및 동적 다차원 질병진단 장치
JP7456928B2 (ja) 胸部x線画像の異常表示制御方法、異常表示制御プログラム、異常表示制御装置、及びサーバ装置
JP2023114463A (ja) 表示装置、方法およびプログラム
JP6737491B1 (ja) Aiを用いる診断装置、診断システム、及び、プログラム
CN111563877B (zh) 一种医学影像的生成方法及装置、显示方法及存储介质
US20230298174A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R150 Certificate of patent or registration of utility model

Ref document number: 6525912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250