JP2022516146A - 脳血管疾患学習装置、脳血管疾患検出装置、脳血管疾患学習方法、及び脳血管疾患検出方法 - Google Patents
脳血管疾患学習装置、脳血管疾患検出装置、脳血管疾患学習方法、及び脳血管疾患検出方法 Download PDFInfo
- Publication number
- JP2022516146A JP2022516146A JP2021538436A JP2021538436A JP2022516146A JP 2022516146 A JP2022516146 A JP 2022516146A JP 2021538436 A JP2021538436 A JP 2021538436A JP 2021538436 A JP2021538436 A JP 2021538436A JP 2022516146 A JP2022516146 A JP 2022516146A
- Authority
- JP
- Japan
- Prior art keywords
- learning model
- learning
- characteristic
- frame
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000013016 learning Effects 0.000 title claims abstract description 351
- 238000000034 method Methods 0.000 title claims abstract description 147
- 208000026106 cerebrovascular disease Diseases 0.000 title claims abstract description 111
- 238000001514 detection method Methods 0.000 title claims description 52
- 230000003902 lesion Effects 0.000 claims abstract description 94
- 238000002583 angiography Methods 0.000 claims abstract description 29
- 230000004044 response Effects 0.000 claims abstract description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 110
- 230000008569 process Effects 0.000 claims description 27
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 230000000306 recurrent effect Effects 0.000 claims description 21
- 238000010586 diagram Methods 0.000 abstract description 14
- 238000011176 pooling Methods 0.000 description 41
- 238000000605 extraction Methods 0.000 description 15
- 238000003745 diagnosis Methods 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 8
- 238000004393 prognosis Methods 0.000 description 5
- 210000004204 blood vessel Anatomy 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 208000019553 vascular disease Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Computational Linguistics (AREA)
- Pathology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Image Analysis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本開示の一態様による脳血管疾患学習装置が提供できる。前記脳血管疾患学習装置は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成するMIP MRA構成部と、CNN(Convolutional Neural Networks)学習方式に基づいた空間特性学習モデルを構築し、前記空間特性学習モデルは前記複数の画像フレームそれぞれに対する空間特性を学習する空間特性学習部と、前記空間特性の入力を受け、RNN(Recurrent Neural Networks)学習方式に基づいたフレーム特性学習モデルを構築し、前記フレーム特性学習モデルは複数の画像フレーム間の特性を示すフレーム特性を学習するフレーム特性学習部と、前記フレーム特性の入力を受け、前記CNN学習方式に基づいた病変特性学習モデルを構築し、前記病変特性学習モデルは前記複数の画像フレームそれぞれに対する病変特性を学習する病変特性学習部と、を含むことができる。【選択図】図1
Description
本開示は、ディープラーニングモデルの学習技術に係り、より具体的には、画像情報の分析を基に、身体領域を撮影した画像を用いて脳血管疾患を学習及び検出する方法及び装置に関する。
ディープラーニング(deep learning)は、非常に膨大な量のデータを学習して、新しいデータが入力される場合、学習結果に基づいて、確率的に最も高い回答を選択することである。このようなディープラーニングは、画像に応じて適応的に動作することができ、データに基づいてモデルを学習する過程で特性因子を自動的に見つけるので、最近、人工知能分野でこれを活用しようとする試みが増えている傾向にある。
一方、画像認識に関連してディープラーニングを利用した従来の画像分析技術は、畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)と最大プーリング(max pooling)技法を利用して画像の領域ごとに局所的な特徴を抽出し、これに基づいて画像を認識する。しかし、このような方法は、実際の画像の内容は異なるものの、局所的な情報の形態が類似した画像については正確な認識結果を提供しないという問題点がある。
一方、画像認識に関連してディープラーニングを利用した従来の画像分析技術は、畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)と最大プーリング(max pooling)技法を利用して画像の領域ごとに局所的な特徴を抽出し、これに基づいて画像を認識する。しかし、このような方法は、実際の画像の内容は異なるものの、局所的な情報の形態が類似した画像については正確な認識結果を提供しないという問題点がある。
一方、脳血管疾患の診断、予後予測のためには、膨大な画像資料と患者の臨床情報をすべて考慮しなければならないので、その診断のための時間が多くかかるだけでなく、医療スタッフの熟練度によってもその診断結果にバラツキが大きいことがある。
特に、脳血管疾患の診断、予後予測を確認するために、通常、2D又は3D形状のMRA(magnetic resonance angiography)が多用されているが、ユーザ(例えば、医師又は画像診断者)がMRAを分析するために表示される画像のプロジェクション位置を変更したり、画像の拡大又は縮小を行ったりするなど、多くの操作が要求される。
特に、脳血管疾患の診断、予後予測を確認するために、通常、2D又は3D形状のMRA(magnetic resonance angiography)が多用されているが、ユーザ(例えば、医師又は画像診断者)がMRAを分析するために表示される画像のプロジェクション位置を変更したり、画像の拡大又は縮小を行ったりするなど、多くの操作が要求される。
このように、ユーザ(例えば、医師又は画像診断者)の操作に基づいて脳血管疾患の診断や予後予測が行われるので、診断に多くの時間がかかるだけでなく、医療スタッフの熟練度によってもその診断結果のバラツキがさらに大きい。
本開示の技術的課題は、ユーザ(例えば、医師又は画像診断者)の操作を最小限に抑え、脳血管疾患の診断や予後予測が要求される領域、又は脳血管疾患が発生した領域を迅速かつ正確に検出することができる方法及び装置を提供することにある。
本開示の他の技術的課題は、迅速かつ正確に脳血管疾患の診断に要求される領域、又は脳血管疾患が発生した領域を検出する学習方法及び装置を提供することにある。
本開示の別の技術的課題は、MRAを用いて、脳血管疾患の診断に要求される領域、又は脳血管疾患が発生した領域を正確に学習することができる方法及び装置を提供することにある。
本開示の別の技術的課題は、MRAの入力のみで、脳血管疾患の診断に要求される領域、又は脳血管疾患が発生した領域を正確に検出することができる方法及び装置を提供することにある。
本開示が解決しようとする技術的課題は上述した技術的課題に限定されず、上述していない別の技術的課題は以降の記載から本開示の属する技術分野における通常の知識を有する者に明確に理解できるであろう。
本開示が解決しようとする技術的課題は上述した技術的課題に限定されず、上述していない別の技術的課題は以降の記載から本開示の属する技術分野における通常の知識を有する者に明確に理解できるであろう。
本開示の一態様によれば、脳血管疾患学習装置が提供できる。この脳血管疾患学習装置は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成するMIP MRA構成部と、CNN(Convolutional Neural Networks)学習方式に基づいた空間特性学習モデルを構築し、前記空間特性学習モデルは前記複数の画像フレームそれぞれに対する空間特性を学習する空間特性学習部と、前記空間特性の入力を受け、RNN(Recurrent Neural Networks)学習方式に基づいたフレーム特性学習モデルを構築し、前記フレーム特性学習モデルは複数の画像フレーム間の特性を示すフレーム特性を学習するフレーム特性学習部と、前記フレーム特性の入力を受け、前記CNN学習方式に基づいた病変特性学習モデルを構築し、前記病変特性学習モデルは前記複数の画像フレームそれぞれに対する病変特性を学習する病変特性学習部と、を含むことができる。
本開示の他の態様によれば、脳血管疾患検出装置が提供できる。この脳血管疾患検出装置は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成するMIP MRA構成部と、CNN(Convolutional Neural Networks)学習方式に基づいて、前記複数の画像フレームそれぞれに対する空間特性の学習によって構築された空間特性学習モデルを備え、前記空間特学習モデルを用いて前記複数の画像フレームそれぞれに対する空間特性を検出する空間特性検出部と、RNN(Recurrent Neural Networks)学習方式に基づいて、前記空間特性に対応するフレーム特性の学習によって構築されたフレーム特性学習モデルを備え、前記フレーム特性学習モデルを用いて前記フレーム特性を検出するフレーム特性検出部と、前記CNN学習方式に基づいて、前記フレーム特性に対応する病変特性の学習によって構築された病変特性学習モデルを備え、前記病変特性学習モデルを用いて前記複数の画像フレームそれぞれに対する病変特性を検出する病変特性検出部と、を含むことができる。
本開示の別の態様によれば、脳血管疾患学習方法が提供できる。この脳血管疾患学習方法は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成する過程と、CNN(Convolutional Neural Networks)学習方式に基づいた空間特性学習モデルを構築し、前記空間特性学習モデルは前記複数の画像フレームそれぞれに対する空間特性を学習する過程と、前記空間特性の入力を受け、RNN(Recurrent Neural Networks)学習方式に基づいたフレーム特性学習モデルを構築し、前記フレーム特性学習モデルは複数の画像フレーム間の特性を示すフレーム特性を学習する過程と、前記フレーム特性の入力を受け、前記CNN学習方式に基づいた病変特性学習モデルを構築し、前記病変特性学習モデルは前記複数の画像フレームそれぞれに対する病変特性を学習する過程と、を含むことができる。
本開示の別の態様によれば、脳血管疾患検出方法が提供できる。この脳血管疾患検出方法は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成する過程と、
空間特性学習モデルを用いて前記複数の画像フレームそれぞれに対する空間特性を検出し、前記空間特性学習モデルはCNN(Convolutional Neural Networks)学習方式に基づいて、前記複数の画像フレームそれぞれに対する空間特性の学習によって構築された学習モデルであることを特徴とする過程と、
フレーム特性学習モデルを用いて前記フレーム特性を検出し、前記フレーム特性学習モデルはRNN(Recurrent Neural Networks)学習方式に基づいて、前記空間特性に対応するフレーム特性の学習によって構築された学習モデルであることを特徴とする過程と、
病変特性学習モデルを用いて前記複数の画像フレームそれぞれに対する病変特性を検出し、前記病変特性学習モデルは前記CNN学習方式に基づいて、前記フレーム特性に対応する病変特性の学習によって構築された学習モデルであることを特徴とする過程と、を含むことができる。
空間特性学習モデルを用いて前記複数の画像フレームそれぞれに対する空間特性を検出し、前記空間特性学習モデルはCNN(Convolutional Neural Networks)学習方式に基づいて、前記複数の画像フレームそれぞれに対する空間特性の学習によって構築された学習モデルであることを特徴とする過程と、
フレーム特性学習モデルを用いて前記フレーム特性を検出し、前記フレーム特性学習モデルはRNN(Recurrent Neural Networks)学習方式に基づいて、前記空間特性に対応するフレーム特性の学習によって構築された学習モデルであることを特徴とする過程と、
病変特性学習モデルを用いて前記複数の画像フレームそれぞれに対する病変特性を検出し、前記病変特性学習モデルは前記CNN学習方式に基づいて、前記フレーム特性に対応する病変特性の学習によって構築された学習モデルであることを特徴とする過程と、を含むことができる。
本開示について簡略に要約された上記の特徴は、後述する本開示の詳細な説明の例示的な様相に過ぎず、本開示の範囲を限定するものではない。
本開示によれば、ユーザ(例えば、医師又は画像診断者)の操作を最小限に抑え、脳血管疾患の診断や予後予測が要求される領域、又は脳血管疾患が発生した領域を迅速かつ正確に検出することができる方法及び装置が提供できる。
また、本開示によれば、迅速かつ正確に脳血管疾患の診断に要求される領域、又は脳血管疾患が発生した領域を学習する方法及び装置が提供できる。
また、本開示によれば、MRAを用いて、脳血管疾患の診断に要求される領域、又は脳血管疾患が発生した領域を正確に学習することができる方法及び装置が提供できる。
また、本開示によれば、MRAの入力のみで、脳血管疾患の診断に要求される領域、又は脳血管疾患が発生した領域を正確に検出することができる方法及び装置が提供できる。
本開示で得られる効果は、上述した効果に限定されず、上述していない別の効果は、以降の記載から本開示の属する技術分野における通常の知識を有する者に明確に理解できるだろう。
以下、添付図面を参照して、本開示の実施形態について、本開示の属する技術分野における通常の知識を有する者が容易に実施し得るように詳細に説明する。ところが、本開示は、様々な異なる形態で実現でき、ここで説明する実施形態に限定されない。
本開示の実施形態を説明するにあたり、公知の構成又は機能についての具体的な説明が本発明の要旨を不明確にするおそれがあると判断された場合には、それについての詳細な説明は省略する。そして、図面において、本開示についての説明と関係のない部分は省略し、同様の部分には同様の符号を付した。
本開示において、ある構成要素が他の構成要素に「連結」、「結合」又は「接続」されているとするとき、これは、直接的な連結関係だけでなく、それらの間に別の構成要素が介在する間接的な連結関係も含むことができる。また、ある構成要素が他の構成要素を「含む」又は「有する」とするとき、これは、特に反対される記載がない限り、他の構成要素を排除するのではなく、別の構成要素をさらに含むことができることを意味する。
本開示において、「第1」、「第2」などの用語は、一つの構成要素を他の構成要素から区別する目的のみで使用され、特に記載されない限り、構成要素間の順序又は重要度などを限定しない。したがって、本開示の範囲内において、一実施形態における第1の構成要素は、他の実施形態における第2の構成要素と呼ぶこともあり、これと同様に、一実施形態における第2の構成要素を他の実施形態における第1の構成要素と呼ぶこともある。
本開示において、互いに区別される構成要素はそれぞれの特徴を明確に説明するためであり、構成要素が必ずしも分離されることを意味するのではない。つまり、複数の構成要素が統合されて一つのハードウェア又はソフトウェア単位からなってもよく、一つの構成要素が分散されて複数のハードウェア又はソフトウェア単位からなってもよい。したがって、特に断りのない場合でも、このように統合又は分散された実施形態も、本開示の範囲に含まれる。
本開示において、様々な実施形態で説明する構成要素が、必ずしも必要不可欠な構成要素を意味するものではなく、その一部は選択的な構成要素であってもよい。したがって、一実施形態で説明する構成要素の部分集合で構成される実施形態も、本開示の範囲に含まれる。また、様々な実施形態で説明する構成要素にさらに他の構成要素を含む実施形態も、本開示の範囲に含まれる。
以下、添付図面を参照して本開示の実施形態について説明する。
図1は本開示の一実施形態による脳血管疾患学習装置の構成を示すブロック図である。
図1を参照すると、脳血管疾患学習装置10は、MIP MRA構成部11、空間特性学習部12、フレーム特性学習部14、及び病変特性学習部16を含むことができる。
MIP MRA構成部11は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、MIP MRA(Maximum intensity projection magnetic resonance angiography)を構成することができる。ここで、3D TOF MRAは、脳領域で血管が存在する領域の信号を強く測定して得た3D形状のMRAであることができ、MIP MRAは、3D TOF MRAを様々な方向からプロジェクション(Projection)して得た画像フレームを時系列的に組み合わせて構成した動画データであることができる。
図1は本開示の一実施形態による脳血管疾患学習装置の構成を示すブロック図である。
図1を参照すると、脳血管疾患学習装置10は、MIP MRA構成部11、空間特性学習部12、フレーム特性学習部14、及び病変特性学習部16を含むことができる。
MIP MRA構成部11は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、MIP MRA(Maximum intensity projection magnetic resonance angiography)を構成することができる。ここで、3D TOF MRAは、脳領域で血管が存在する領域の信号を強く測定して得た3D形状のMRAであることができ、MIP MRAは、3D TOF MRAを様々な方向からプロジェクション(Projection)して得た画像フレームを時系列的に組み合わせて構成した動画データであることができる。
例えば、MIP MRA構成部11は、所定のプロジェクション位置を確認することができ、確認されたプロジェクション位置に対応する画像フレームを取得することができる。そして、MIP MRA構成部11は、前述した動作によって取得された複数の画像フレームを、所定の時間単位を基準に時系列的に組み合わせて動画データを構成することができる。
例えば、図2を参照すると、複数の2D MRA画像200を積層して構成された3D TOF MRA210を中心に、少なくとも一つのプロジェクション位置が設定できるが、MIP MRA構成部11は、第1プロジェクション位置P1で取得して第1画像フレームF1を構成し、第2プロジェクション位置P2で取得して第2画像フレームF2を構成することができる。MIP MRA構成部11は、このような動作を繰り返し行い、n個のプロジェクション位置Pnに対応するn個の画像フレームFnを取得することができる。MIP MRA構成部11は、n個の画像フレームFnを所定の位置に沿って整列し、整列された複数の画像フレームを所定の時間単位10msごとに配置及び組み合わせして動画データ形式のMIP MRAを構成することができる。
さらに、MIP MRAは、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を含むことができる。
空間特性学習部12は、MIP MRAに含まれている画像フレームF1、F2、...、Fnそれぞれに対する学習を行って空間特性学習モデル13を構築することができ、好ましくはCNN(Convolutional Neural Networks)学習方式に基づいて空間特性学習モデル13を構築することができる。
空間特性学習部12の空間特性学習モデル13の構築の際に、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮することができる。例えば、空間特性学習モデル13には、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するCNNが備えられることができる。空間特性学習部12は、第1画像フレームF1を第1CNNの入力に伝達し、第2画像フレームF2を第2CNNの入力に伝達し、第n画像フレームFnを第nCNNの入力に伝達するように構成することができる。
これに対応して、空間特性学習モデル13に備えられる複数のCNNは、複数の画像フレームF1、F2、...、Fnそれぞれに対応する複数の空間特性を出力することができ、空間特性学習部12は、前述した複数の空間特性を順次配列してシーケンシャルなデータで構成することができる。この時、空間特性学習部12は、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮して直列化(Sequential)データを構成することができる。
一方、フレーム特性学習部14は、直列化データで構成された複数の空間特性の入力を受け、画像フレーム間の関係に対する特性(すなわち、フレーム特性)を検出する学習を行うことができる。好ましくは、フレーム特性学習部14は、循環ニューラルネットワーク(RNN、Recurrent Neural Nerwork)学習方式に基づいてフレーム特性学習モデル15を構築することができる。
病変特性学習部16は、複数の画像フレームF1、F2、...、Fnそれぞれに対応する病変情報を学習することができる。このために、フレーム特性学習部14は、シーケンシャルなデータで構成されたフレーム特性を再構成して並列化(parallel)データを構成することができる。
病変特性学習部16は、複数の画像フレームF1、F2、...、Fnそれぞれに対応する病変情報を学習することができる。このために、フレーム特性学習部14は、シーケンシャルなデータで構成されたフレーム特性を再構成して並列化(parallel)データを構成することができる。
病変特性学習部16は、フレーム特性学習部14から提供されるフレーム特性を用いて病変特性学習モデル17を構築することができる。
病変特性学習モデル17は、CNN学習方式に基づいた学習モデルであることができ、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するだけのCNNを備えることができる。そして、病変特性学習部16は、第1画像フレームF1に対応する第1フレーム特性を第1CNNの入力に伝達し、第2画像フレームF2に対応する第1フレーム特性を第2CNNの入力に伝達し、第n画像フレームFnに対応する第nフレーム特性を第nCNNの入力に伝達するように構成することができる。
病変特性学習モデル17は、CNN学習方式に基づいた学習モデルであることができ、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するだけのCNNを備えることができる。そして、病変特性学習部16は、第1画像フレームF1に対応する第1フレーム特性を第1CNNの入力に伝達し、第2画像フレームF2に対応する第1フレーム特性を第2CNNの入力に伝達し、第n画像フレームFnに対応する第nフレーム特性を第nCNNの入力に伝達するように構成することができる。
さらに、空間特性学習モデル13に備えられる複数のCNNは、情報抽出ドメイン(Domain)のサイズを減らすプーリング(Pooling)構造を備えることができ、病変特性学習モデル17に備えられる複数のCNNは、特徴マップ(feature map)のドメイン(Domain)サイズを増やすアップサンプリング(upsampling)構造を備えることができる。
空間特性学習モデル13及び病変特性学習モデル17に備えられる複数のCNNは、それぞれ2回の3×3畳み込みを備えることが好ましい。また、空間特性学習モデル13は、2×2最大プーリング演算(max-pooling operation)構造を備え、病変特性学習モデル17は、共一次内挿法(bilinear interpolation)で長さと幅を2倍に増加させる構造を備えることができる。
たとえ、本開示の一実施形態において、空間特性学習モデル13及び病変特性学習モデル17に備えられる畳み込みのサイズ及び個数、空間特性学習モデル13に備えられるプーリング(Pooling)構造、アップサンプリング(upsampling)構造などを例示したが、本開示は、これに限定されるものではなく、多様に変更できるのはいうまでもよい。
図3は本開示の一実施形態による脳血管疾患学習装置に備えられる空間特性学習部の詳細構成を例示する図である。
図3を参照すると、空間特性学習部30は、複数のCNN31-1、31-2、31-nを備える空間特性学習モデル31を含むことができ、複数のCNNの数は、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するように設定できる。
空間特性学習部30は、MIP MRAに含まれている画像フレームF1、F2、...、Fnをそれぞれ複数のCNN31-1、31-2、31-nの入力に提供することができる。
この時、空間特性学習部30は、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮して、画像フレームF1、F2、...、Fnを複数のCNN31-1、31-2、31-nに提供することができる。例えば、空間特性学習部31は、第1画像フレームF1を第1CNN31-1の入力に伝達し、第2画像フレームF2を第2CNN31-2の入力に伝達し、第n画像フレームFnを第nCNN31-nの入力に伝達するように構成することができる。
また、空間特性学習部30は、直列化処理部33を含むことができ、直列化処理部33は、複数のCNN31-1、31-2、31-nを介して出力される複数の空間特性310-1、310-2、310-nを直列化することができる。直列化処理部33は、プロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮して、複数の空間特性310-1、310-2、310-nを直列化することが好ましい。
以下、図4乃至図7を参照して、複数のCNN31-1、31-2、31-nの詳細構成を説明する。
図4は本開示の一実施形態による脳血管疾患学習装置に備えられる空間特性学習モデルの構成を示すブロック図である。
図4を参照すると、空間特性性学習モデル40は、特徴抽出部41、コンテキスト生成部42、並びに特徴及びコンテキスト分析部43を含むことができる。ただし、これは本実施形態を説明するために必要な一部構成要素のみを示したものに過ぎず、空間特性学習モデル40に含まれている構成要素が前述の例に限定されるものではない。
図4を参照すると、空間特性性学習モデル40は、特徴抽出部41、コンテキスト生成部42、並びに特徴及びコンテキスト分析部43を含むことができる。ただし、これは本実施形態を説明するために必要な一部構成要素のみを示したものに過ぎず、空間特性学習モデル40に含まれている構成要素が前述の例に限定されるものではない。
空間特性学習モデル40は、分析対象画像の特徴を抽出し、抽出された特徴に基づいてコンテキスト情報を生成し、抽出された特徴及び生成されたコンテキスト情報に基づいて分析対象画像を分析することができる。例えば、空間特性学習モデル40は、抽出された特徴及び生成されたコンテキスト情報を用いて画像を分類するか、或いは興味のあるオブジェクトの位置を見つけることができる。
特徴抽出部41は、入力画像を分析して画像の特徴を抽出することができる。例えば、前記特徴は、画像の領域ごとの局所的な特徴であることができる。一実施形態による特徴抽出部41は、一般的な畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)技法又はプーリング(pooling)技法を利用して入力画像の特徴を抽出することができる。前記プーリング技法は、最大プーリング(max pooling)技法及び平均(average)プーリング技法のうちの少なくとも一つを含むことができる。しかし、本開示で言及されるプーリング技法は、最大プーリング技法又は平均プーリング技法に限定されず、所定の大きさの画像領域の代表値を取得する任意の技法を含む。例えば、プーリング技法に使用される代表値は、最大値及び平均値の他に、分散値、標準偏差値、中間値、最頻値(most frequent value)、最小値及び加重平均値などのうちの少なくとも一つであることができる。
本開示の畳み込みニューラルネットワークは、入力データ(画像)から枠、線の色などの「特徴(features)」を抽出するために利用でき、複数の階層(layers)を含むことができる。それぞれの階層は、入力データを受信し、当該階層の入力データを処理して出力データを生成することができる。畳み込みニューラルネットワークは、入力された画像、又は入力された特徴マップ(feature map)をフィルタカーネル(filter kernels)と畳み込みして生成した特徴マップを出力データとして出力することができる。畳み込みニューラルネットワークの初期階層は、入力からエッジ又はグラジアントなどの低レベルの特徴を抽出するように動作することができる。ニューラルネットワークの次の階層は、目、鼻などの漸進的にさらに複雑な特徴を抽出することができる。畳み込みニューラルネットワークの具体的な動作については、図5を参照して後述する。
畳み込みニューラルネットワークは、畳み込み演算が行われる畳み込み階層の他にも、プーリング演算が行われるプーリング階層も含むことができる。プーリング技法は、プーリング階層でデータの空間サイズを縮小することに使用される技法である。具体的には、プーリング技法には、当該領域の最大値を選択する最大プーリング(max pooling)技法と、当該領域の平均値を選択する平均プーリング(average pooling)技法があり、画像認識分野では、一般的に最大プーリング技法が使用される。プーリング技法では、一般的に、プーリングのウィンドウサイズと間隔(ストライド、stride)を同じ値に設定する。ここで、ストライドとは、入力データにフィルタを適用するときに移動する間隔を調節すること、すなわち、フィルタが移動する間隔を意味する。ストライドも、出力データのサイズを調節するために使用できる。プーリング技法の具体的な動作については、図6を参照して後述する。
本開示の一実施形態による特徴抽出部41は、分析対象画像の特徴を抽出するための前処理(pre-processing)として、分析対象画像にフィルタリングを適用することができる。前記フィルタリングは、高速フーリエ変換(Fast Fourier Transform、FFT)、ヒストグラム平滑化(histogram equalization)、モーションアーチファクト(motion artifact)除去又はノイズ(noise)除去などであることができる。しかし、本開示のフィルタリングは、上記に列挙した方法に制限されず、画像の品質を改善することができるすべての形態のフィルタリングを含むことができる。
コンテキスト生成部42は、特徴抽出部41から抽出された入力画像の特徴を用いて入力画像(分析対象画像)のコンテキスト情報を生成することができる。例えば、前記コンテキスト情報は、分析対象画像の全体又は一部領域を示す代表値であることができる。また、前記コンテキスト情報は、入力画像の全域的なコンテキスト情報であることができる。一実施形態によるコンテキスト生成部42は、畳み込みニューラルネットワーク技法又はプーリング技法を特徴抽出部41から抽出された特徴に適用してコンテキスト情報を生成することができる。前記プーリング技法は、例えば、平均プーリング(average pooling)技法であることができる。
特徴及びコンテキスト分析部43は、特徴抽出部41で抽出された特徴、及びコンテキスト生成部42で生成されたコンテキスト情報に基づいて画像を分析することができる。一実施形態による特徴及びコンテキスト分析部43は、特徴抽出部41で抽出された画像の領域ごとの局所的な特徴、及びコンテキスト生成部42で再構成された全域的なコンテキストを結合(concatenate)などの方式で一緒に使用して、入力画像を分類したり、入力画像に含まれている興味のあるオブジェクトの位置などを見つけたりするのに利用することができる。入力画像内の特定の2次元位置における情報は、局所的な特徴情報だけでなく、全域的なコンテキスト情報まで含むので、特徴及びコンテキスト分析部43は、これらの情報を用いることにより、実際の内容は異なるものの、局所的な特徴情報が類似した入力画像についてより正確な認識又は分類などが可能となる。
前述したように、本開示の一実施形態による発明は、一般的な畳み込みニューラルネットワーク技法が使用する局所的な特徴だけでなく、全域的なコンテキスト情報を一緒に使用することにより、よりさらに正確且つ効率的な学習及び画像解析が可能となる。このような観点から、本開示による発明を「コンテキスト分析による深層ニューラルネットワーク」といえる。
図5は本開示の一実施形態による画像のコンテキスト情報を生成し分析する過程を示す図である。
図5を参照すると、特徴抽出部41は、入力画像501を用いて入力画像501から特徴を抽出し、抽出された特徴情報を含む特徴画像502を生成することができる。前記抽出された特徴は、入力画像の局所領域に対する特徴であることができる。前記入力画像501は、画像分析装置の入力画像又は畳み込みニューラルネットワークモデル内の各階層における特徴マップを含むことができる。また、前記特徴画像502は、入力画像501に対して畳み込みニューラルネットワーク技法及び/又はプーリング技法を適用して取得された特徴マップ及び/又は特徴ベクトルを含むことができる。
図5を参照すると、特徴抽出部41は、入力画像501を用いて入力画像501から特徴を抽出し、抽出された特徴情報を含む特徴画像502を生成することができる。前記抽出された特徴は、入力画像の局所領域に対する特徴であることができる。前記入力画像501は、画像分析装置の入力画像又は畳み込みニューラルネットワークモデル内の各階層における特徴マップを含むことができる。また、前記特徴画像502は、入力画像501に対して畳み込みニューラルネットワーク技法及び/又はプーリング技法を適用して取得された特徴マップ及び/又は特徴ベクトルを含むことができる。
コンテキスト生成部42は、特徴抽出部41で抽出された特徴画像502に対して畳み込みニューラルネットワーク技法及び/又はプーリング技法を適用してコンテキスト情報を生成することができる。例えば、コンテキスト生成部42は、プーリングの間隔(stride)を多様に調節することにより、画像全体、4等分領域、9等分領域などの様々な大きさ(scale)のコンテキスト情報を生成することができる。図4を参照すると、画像全体サイズの画像に対するコンテキスト情報を含む全体コンテキスト情報画像511、画像全体を4等分したサイズの4等分画像に対するコンテキスト情報を含む4等分コンテキスト情報画像512、及び画像全体を9等分したサイズの9等分画像に対するコンテキスト情報を含む9等分コンテキスト情報画像513が取得できる。
特徴及びコンテキスト分析部43は、前記特徴画像502と前記コンテキスト情報画像411、412、413をすべて用いて分析対象画像の特定の領域に対する分析をより正確に行うことができる。
本開示の一実施形態によるコンテキスト生成部42は、前記分析対象画像又は前記特徴画像502に基づいてコンテキスト情報511、512、513を生成することにより、より正確にオブジェクトを識別し、分類することができる。
図5を参照して説明した実施形態では、全体画像に対するコンテキスト情報、4等分画像に対するコンテキスト情報、9等分画像に対するコンテキスト情報を生成し活用することについて説明したが、コンテキスト情報を抽出する画像の大きさはこれに限定されない。例えば、前述した大きさの画像以外の大きさを有する画像に対するコンテキスト情報を生成し、活用することもできる。
図5を参照して説明した実施形態では、全体画像に対するコンテキスト情報、4等分画像に対するコンテキスト情報、9等分画像に対するコンテキスト情報を生成し活用することについて説明したが、コンテキスト情報を抽出する画像の大きさはこれに限定されない。例えば、前述した大きさの画像以外の大きさを有する画像に対するコンテキスト情報を生成し、活用することもできる。
次に、本開示の一実施形態による畳み込みニューラルネットワーク技法及びプーリングについては、図6及び図7を参照して後述する。
図6は多チャンネル特徴マップを生成する畳み込みニューラルネットワークの一実施形態を説明するための図である。
図6は多チャンネル特徴マップを生成する畳み込みニューラルネットワークの一実施形態を説明するための図である。
畳み込みニューラルネットワークに基づく画像処理は、様々な分野に活用できる。例えば、画像のオブジェクト認識(object recognition)のための画像処理装置、画像復元(image reconstruction)のための画像処理装置、セマンティックセグメンテーション(semantic segmentation)のための画像処理装置、シーン認識(scene recognition)のための画像処理装置などに利用可能である。
入力画像610は、畳み込みニューラルネットワーク600を介して処理されることにより特徴マップ画像を出力することができる。出力された特徴マップ画像は、前述した様々な分野で活用できる。
畳み込みニューラルネットワーク600は複数の階層620、630、640を介して処理でき、各階層は多チャンネル特徴マップ画像625、635を出力することができる。一実施形態による複数の階層620、630、640は、入力されたデータの左上端から右下端まで一定の大きさのフィルタを適用して画像の特徴を抽出することができる。例えば、複数の階層620、630、640は、入力データの左上端のN×Mピクセルに重みを乗じて特徴マップの左上端の一つのニューロンにマッピングさせる。この場合、乗じられる重みもN×Mになるだろう。前記N×Mは、例えば、3×3であり得るが、これに限定されない。以後、同じ過程で、複数の階層620、630、640は、入力データを左から右へ、そして上端から下端へkマスずつスキャンしながら重みを乗じて特徴マップのニューロンにマッピングする。前記kマスは、畳み込みの実行時にフィルタを移動させる間隔(stride)を意味し、出力データの大きさを調節するために適切に設定できる。例えば、kは1であることができる。前記N×Mの重みはフィルタ又はフィルタカーネルとする。つまり、複数の階層620、630、640にフィルタを適用する過程は、フィルタカーネルとの畳み込み演算を行う過程であり、その結果として抽出された結果物を「特徴マップ(feature map)」又は「特徴マップ画像」とする。また、畳み込み演算が行われた階層を畳み込み階層とすることができる。
「多チャンネル特徴マップ(multiple-channel feature map)」の用語は、複数のチャンネルに対応する特徴マップのセットを意味し、例えば複数の画像データであることができる。多チャンネル特徴マップは、畳み込みニューラルネットワークの任意の階層での入力であることができ、畳み込み演算などの特徴マップ演算結果に基づく出力であることができる。一実施形態によれば、多チャンネル特徴マップ625、635は、畳み込みニューラルネットワークの「特徴抽出階層」又は「畳み込み階層」とも呼ばれる複数の階層620、630、640によって生成される。それぞれの階層は、順次、以前階層で生成された多チャンネル特徴マップを受信し、出力としてその次の多チャンネル特徴マップを生成することができる。最終的に、L(Lは整数)番目の階層540では、L-1番目の階層(図示せず)で生成した多チャンネル特徴マップを受信して多チャンネル特徴マップ(図示せず)を生成することができる。
図6を参照すると、K1個のチャンネルを有する特徴マップ625は、入力画像610に対して階層1での特徴マップ演算620による出力であり、また、階層2での特徴マップ演算530のための入力になる。また、K2個のチャンネルを有する特徴マップ635は、入力特徴マップ625に対して階層2での特徴マップ演算530による出力であり、また、階層3での特徴マップ演算(図示せず)のための入力になる。
図6を参照すると、一番目の階層620で生成された多チャンネル特徴マップ625は、K1(K1は整数)個のチャンネルに対応する特徴マップを含む。また、二番目の階層630で生成された多チャンネル特徴マップ635は、K2(K2は整数)個のチャンネルに対応する特徴マップを含む。ここで、チャンネルの個数を示すK1及びK2は、一番目の階層620及び二番目の階層630でそれぞれ使用されたフィルタカーネルの個数と対応することができる。つまり、M(Mは1以上L-1以下の整数)番目の階層で生成された多チャンネル特徴マップの個数は、M番目の階層で使用されたフィルタカーネルの個数と同じであることができる。
図7はプーリング技法の一実施形態を説明するための図である。
図7に示すように、プーリングのウィンドウサイズは2×2、ストライドは2であり、最大プーリングを入力画像710に適用して出力画像790を生成することができる。
図7の(a)において、入力画像710の左上端に2×2のウィンドウ710を適用し、ウィンドウ710領域内の値のうちの代表値(ここでは、最大値4)を計算して出力画像790の対応位置720に入力する。
以後、図7の(b)において、ストライドだけ、すなわち2だけウィンドウを移動し、ウィンドウ730領域内の値のうちの最大値3を出力画像790の対応位置740に入力する。
もはや右へウィンドウを移動させることができない場合、再び入力画像の左側でストライドだけ下の位置から上記の過程を繰り返し行う。つまり、図7の(c)に示すように、ウィンドウ750領域内の値のうちの最大値5を出力画像790の対応位置760に入力する。
以後、図7の(d)に示すように、ストライドだけウィンドウを移動し、ウィンドウ770領域内の値のうちの最大値2を出力画像790の対応位置780に入力する。
上記の過程は、入力画像710の右下端領域にウィンドウが位置するまで繰り返し行われることにより、入力画像710にプーリングを適用した出力画像790を生成することができる。
上記の過程は、入力画像710の右下端領域にウィンドウが位置するまで繰り返し行われることにより、入力画像710にプーリングを適用した出力画像790を生成することができる。
本開示のディープラーニングに基づくモデルは、全層畳み込みニューラルネットワーク(fully convolutional neural network)、畳み込みニューラルネットワーク(convolutional neural network)、循環ニューラルネットワーク(recurrent neural network)、制限ボルツマンマシン(restricted Boltzmann machine、RBM)及び深層信念ニューラルネットワーク(deep belief neural network、DBN)のうちの少なくとも一つを含むことができるが、これに限定されない。又は、ディープラーニング以外のマシンラーニング方法も含むことができる。又は、ディップランニングとマシンラーニングとを組み合わせたハイブリッドタイプのモデルも含むことができる。例えば、ディープラーニングベースのモデルを適用して画像の特徴を抽出し、前記抽出された特徴に基づいて画像を分類又は認識するときは、マシンラーニングベースのモデルを適用することもできる。マシンラーニングベースのモデルは、サポートベクトルマシン(Support Vector Machine、SVM)、エイダブースト(AdaBoost)などを含むことができるが、これに限定されない。
一方、前述した図4乃至図7では、空間特性学習モデルに使用されるCNN構造を例示している。病変学習モデルも、前述した図4乃至図7で前述のCNN構造を備えることができる。
ただし、空間特性学習モデルは、空間特性を抽出した後、プーリング構造を介して空間特性に対する圧縮を処理することができるように構成されるが、これに対応して、病変学習モデルは、入力される特性に対する補間を介してアップサンプリングを処理した後、入力される情報に対する特性(例えば、病変特性)を検出する構造を備えるように構成できる。
図8は本開示の一実施形態による脳血管疾患学習装置に備えられるフレーム特性学習部の詳細構成を例示する図である。
図8を参照すると、フレーム特性学習部80は、RNN方式に基づいたフレーム特性学習モデル81を含むことができるが、特性学習モデル81は、MIP MRAに含まれている画像フレームF1、F2、...、Fnに対応する空間特性情報の入力を順次受け、空間特性情報間の特徴を検出することができる。
図8を参照すると、フレーム特性学習部80は、RNN方式に基づいたフレーム特性学習モデル81を含むことができるが、特性学習モデル81は、MIP MRAに含まれている画像フレームF1、F2、...、Fnに対応する空間特性情報の入力を順次受け、空間特性情報間の特徴を検出することができる。
循環ニューラルネットワーク(RNN)は、現在のデータと過去のデータを同時に考慮するディープラーニング技法であって、循環ニューラルネットワーク(RNN)は、人工ニューラルネットワークを構成するユニット間の接続が方向性サイクル(directed cycle)を構成するニューラルネットワークを示す。さらに、循環ニューラルネットワーク(RNN)を構成することができる構造には様々な方式が使用できるが、例えば、完全循環網(Fully Recurrent Network)、ホップフィールド網(Hopfield Network)、エルマン網(Elman Network)、ESN(Echo state network)、LSTM(Long s hort term memory network)、双方向(Bi-directional)RNN、CTRNN(Continuous-time RNN)、階層的RNN、2次RNNなどが代表的な例である。また、循環ニューラルネットワーク(RNN)を学習させるための方法として、傾斜降下法、脱へシアン最適化(Hessian Free Optimization)、大域最適化法(Global Optimization Method)などの方式が使用できる。
一方、空間特性情報は、MIP MRAに含まれている画像フレームF1、F2、...、Fnから抽出された情報なので、フレーム特性学習部80は、MIP MRAに含まれている画像フレームF1、F2、...、Fnの時間的情報を確認し、確認された時間的情報に基づいて、空間特性情報に対するフレーム特性学習を処理することができる。
フレーム特性学習モデル81は、MIP MRAに含まれている画像フレームF1、F2、...、Fnの空間特性情報に対するフレーム特性を学習するので、MIP MRAに含まれている画像フレームF1、F2、...、Fnに対応するフレーム特性800-1、800-2、800-nをそれぞれ出力することができる。
フレーム特性学習モデル81は、MIP MRAに含まれている画像フレームF1、F2、...、Fnの空間特性情報に対するフレーム特性を学習するので、MIP MRAに含まれている画像フレームF1、F2、...、Fnに対応するフレーム特性800-1、800-2、800-nをそれぞれ出力することができる。
さらに、空間特性情報は、フレーム特性学習モデル81に順次入力でき、フレーム特性学習モデル81は、フレーム特性800-1、800-2、800-nを順次出力することができる。
CNNベースの病変特性学習部は、MIP MRAに含まれている画像フレームF1、F2、...、Fn単位に対する病変情報を出力するように構成できるので、フレーム特性学習部80は、順次出力されるフレーム特性800-1、800-2、800-nを特性学習部に伝達する並列化処理部83をさらに含むことができる。
図9は本開示の一実施形態による脳血管疾患検出装置の構成を示すブロック図である。
図9を参照すると、脳血管疾患検出装置90は、MIP MRA構成部91、空間特性検出部92、フレーム特性検出部94、及び病変特性検出部96を含むことができる。
MIP MRA構成部91は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、MIP MRA(Maximum intensity projection magnetic resonance angiography)を構成することができる。ここで、3D TOF MRAは、脳領域で血管が存在する領域の信号を強く測定して取得した3D形状のMRAであることができ、MIP MRAは、3D TOF MRAを様々な方向からプロジェクション(Projection)して取得した画像フレームを時系列的に組み合わせて構成した動画データであることができる。
例えば、MIP MRA構成部91は、所定のプロジェクション位置を確認することができ、確認されたプロジェクション位置に対応する画像フレームを取得することができる。そして、MIP MRA構成部91は、前述した動作を介して取得された複数の画像フレームを所定の時間単位を基準として時系列的に組み合わせて動画データを構成することができる。
図9は本開示の一実施形態による脳血管疾患検出装置の構成を示すブロック図である。
図9を参照すると、脳血管疾患検出装置90は、MIP MRA構成部91、空間特性検出部92、フレーム特性検出部94、及び病変特性検出部96を含むことができる。
MIP MRA構成部91は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、MIP MRA(Maximum intensity projection magnetic resonance angiography)を構成することができる。ここで、3D TOF MRAは、脳領域で血管が存在する領域の信号を強く測定して取得した3D形状のMRAであることができ、MIP MRAは、3D TOF MRAを様々な方向からプロジェクション(Projection)して取得した画像フレームを時系列的に組み合わせて構成した動画データであることができる。
例えば、MIP MRA構成部91は、所定のプロジェクション位置を確認することができ、確認されたプロジェクション位置に対応する画像フレームを取得することができる。そして、MIP MRA構成部91は、前述した動作を介して取得された複数の画像フレームを所定の時間単位を基準として時系列的に組み合わせて動画データを構成することができる。
例えば、図2を参照すると、複数の2D MRA画像200を積層して構成された3D TOF MRA210を中心に、少なくとも一つのプロジェクション位置が設定できるが、MIP MRA構成部91は、第1プロジェクション位置P1で取得して第1画像フレームF1を構成し、第2プロジェクション位置P2で取得して第2画像フレームF2を構成することができる。MIP MRA構成部91は、このような動作を繰り返し行い、n個のプロジェクション位置Pnに対応するn個の画像フレームFnを取得することができる。MIP MRA構成部91は、n個の画像フレームFnを所定の位置に沿って整列し、整列された複数の画像フレームを所定の時間単位90msごとに配置及び組み合わせして動画データ形式のMIP MRAを構成することができる。
さらに、MIP MRAは、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を含むことができる。
さらに、MIP MRAは、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を含むことができる。
空間特性検出部92は、MIP MRAに含まれている画像フレームF1、F2、...、Fnそれぞれから空間特性を抽出することができる。特に、空間特性検出部92は、前述した図1の空間特性学習モデル13に対応する空間特性学習モデル93を備えることができ、空間特性学習モデル93を介して、MIP MRAに含まれている画像フレームF1、F2、...、Fnそれぞれから空間特性を抽出することができる。
例えば、空間特性学習モデル93には、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するCNNが備えられることができる。空間特性検出部92は、第1画像フレームF1を第1CNNの入力に伝達し、第2画像フレームF2を第2CNNの入力に伝達し、第n画像フレームFnを第nCNNの入力に伝達することができる。
これに対応して、空間特性学習モデル93に備えられる複数のCNNは、複数の画像フレームF1、F2、...、Fnそれぞれに対応する複数の空間特性を出力することができ、空間特性検出部92は、前述した複数の空間特性を順次配列してシーケンシャルなデータで構成することができる。この時、空間特性検出部92は、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮して直列化(Sequential)データを構成することができる。
一方、フレーム特性検出部94は、直列化データで構成された複数の空間特性の入力を受け、画像フレーム間の関係に対する特性(すなわち、フレーム特性)を検出することができる。好ましくは、フレーム特性検出部94は、循環ニューラルネットワーク(RNN;Recurrent Neural Nerwork)学習方式に基づいたフレーム特性学習モデル95を用いてフレーム特性を検出することができる。この時、フレーム特性学習モデル95は、前述した図1のフレーム特性学習部14を介して構築されたフレーム特性学習モデル15であることができる。
一方、病変特性検出部96は、複数の画像フレームF1、F2、...、Fnそれぞれに対応する病変情報を学習することができる。このために、フレーム特性検出部94は、シーケンシャルなデータで構成されたフレーム特性を再構成して並列化(parallel)データを構成することができる。
病変特性検出部96は、フレーム特性検出部94から提供されるフレーム特性から病変特性を抽出することができる。特に、病変特性検出部96は、前述した図1の病変特性学習部16を介して構築された病変特性学習モデル17に対応する病変特性学習モデル97を備えることができる。
病変特性検出部96は、フレーム特性検出部94から提供されるフレーム特性から病変特性を抽出することができる。特に、病変特性検出部96は、前述した図1の病変特性学習部16を介して構築された病変特性学習モデル17に対応する病変特性学習モデル97を備えることができる。
病変特性学習モデル97は、CNN学習方式に基づいた学習モデルであることができ、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するだけのCNNを備えることができる。そして、病変特性検出部96は、第1画像フレームF1に対応する第1フレーム特性を第1CNNの入力に伝達し、第2画像フレームF2に対応する第1フレーム特性を第2CNNの入力に伝達し、第n画像フレームFnに対応する第nフレーム特性を第nCNNの入力に伝達するように構成することができる。
さらに、空間特性学習モデル93に備えられる複数のCNNは、情報抽出ドメイン(Domain)のサイズを減らすプーリング(Pooling)構造を備えることができ、病変特性学習モデル97に備えられる複数のCNNは、特徴マップ(feature map)のドメイン(Domain)サイズを増やすアップサンプリング(upsampling)構造を備えることができる。
空間特性学習モデル93及び病変特性学習モデル97に備えられる複数のCNNは、それぞれ2回の3×3畳み込みを備えることが好ましい。また、空間特性学習モデル93は、2×2最大プーリング演算(max-pooling operation)構造を備え、病変特性学習モデル97は、共一次内挿法(bilinear interpolation)で長さと幅を2倍に増加させる構造を備えることができる。
たとえ、本開示の一実施形態において、空間特性学習モデル93及び病変特性学習モデル97に備えられる畳み込みのサイズ及び個数、空間特性学習モデル93に備えられるプーリング(Pooling)構造、及びアップサンプリング(upsampling)構造などを例示したが、本開示は、これに限定されるものではなく、多様に変更できるのはいうまでもない。
たとえ、本開示の一実施形態において、空間特性学習モデル93及び病変特性学習モデル97に備えられる畳み込みのサイズ及び個数、空間特性学習モデル93に備えられるプーリング(Pooling)構造、及びアップサンプリング(upsampling)構造などを例示したが、本開示は、これに限定されるものではなく、多様に変更できるのはいうまでもない。
さらに、空間特性学習モデル93及び病変特性学習モデル97の詳細な構造は、前述した図4乃至図7に例示される空間特性学習モデル及び病変特性学習モデルの構造を参照する。また、フレーム特性学習モデル95の詳細な構造は、前述した図8に例示されるフレーム特性学習モデルの構造を参照する。
図10は本開示の一実施形態による脳血管疾患学習方法の手順を示すフローチャートである。
図10は本開示の一実施形態による脳血管疾患学習方法の手順を示すフローチャートである。
本開示の一実施形態による脳血管疾患学習方法は、前述した本開示の一実施形態による脳血管疾患学習装置によって実行できる。
図10を参照すると、まず、脳血管疾患学習装置は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、MIP MRA(Maximum intensity projection magnetic resonance angiography)を構成することができる(S1001)。ここで、3D TOF MRAは、脳領域で血管が存在する領域の信号を強く測定して取得した3D形状のMRAであることができ、MIP MRAは、3D TOF MRAを様々な方向からプロジェクション(Projection)して取得した画像フレームを時系列的に組み合わせて構成した動画データであることができる。
例えば、脳血管疾患学習装置は、所定のプロジェクション位置を確認することができ、確認されたプロジェクション位置に対応する画像フレームを取得することができる。そして、脳血管疾患学習装置は、前述した動作によって取得された複数の画像フレームを所定の時間単位を基準として時系列的に組み合わせて動画データを構成することができる。
例えば、複数の2D MRA画像を積層して構成された3D TOF MRAを中心に、少なくとも一つのプロジェクション位置が設定できるが、脳血管疾患学習装置は、第1プロジェクション位置P1で取得して第1画像フレームF1を構成し、第2プロジェクション位置P2で取得して第2画像フレームF2を構成することができる。脳血管疾患学習装置は、このような動作を繰り返し行い、n個のプロジェクション位置Pnに対応するn個の画像フレームFnを取得することができる。脳血管疾患学習装置は、n個の画像フレームFnを所定の位置に沿って整列し、整列された複数の画像フレームを所定の時間単位10msごとに配置及び組み合わせして動画データ形式のMIP MRAを構成することができる。
例えば、複数の2D MRA画像を積層して構成された3D TOF MRAを中心に、少なくとも一つのプロジェクション位置が設定できるが、脳血管疾患学習装置は、第1プロジェクション位置P1で取得して第1画像フレームF1を構成し、第2プロジェクション位置P2で取得して第2画像フレームF2を構成することができる。脳血管疾患学習装置は、このような動作を繰り返し行い、n個のプロジェクション位置Pnに対応するn個の画像フレームFnを取得することができる。脳血管疾患学習装置は、n個の画像フレームFnを所定の位置に沿って整列し、整列された複数の画像フレームを所定の時間単位10msごとに配置及び組み合わせして動画データ形式のMIP MRAを構成することができる。
さらに、MIP MRAは、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を含むことができる。
脳血管疾患学習装置は、MIP MRAに含まれている画像フレームF1、F2、...、Fnそれぞれに対する学習を行って空間特性学習モデルを構築することができ、好ましくは、CNN(Convolutional Neural Networks)学習方式に基づいて空間特性学習モデルを構築することができる(S1002)。
空間特性学習モデルの構築の際に画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮することができる。例えば、空間特性学習モデルには、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するCNNが備えられることができ、脳血管疾患学習装置は、第1画像フレームF1を第1CNNの入力に伝達し、第2画像フレームF2を第2CNNの入力に伝達し、第n画像フレームFnを第nCNNの入力に伝達するように構成することができる。
空間特性学習モデルの構築の際に画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮することができる。例えば、空間特性学習モデルには、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するCNNが備えられることができ、脳血管疾患学習装置は、第1画像フレームF1を第1CNNの入力に伝達し、第2画像フレームF2を第2CNNの入力に伝達し、第n画像フレームFnを第nCNNの入力に伝達するように構成することができる。
脳血管疾患学習装置は、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮して、画像フレームF1、F2、...、Fnを複数のCNNに提供することができる。例えば、脳血管疾患学習装置は、第1画像フレームF1を第1CNNの入力に伝達し、第2画像フレームF2を第2CNNの入力に伝達し、第n画像フレームFnを第nCNNの入力に伝達するように構成することができる。
空間特性学習モデルに備えられるCNNの具体的な構造及び動作は、前述した図4乃至図7の説明を参照する。
さらに、空間特性学習モデルに備えられる複数のCNNは、それぞれ2回の3×3畳み込みを備えることが好ましい。また、空間特性学習モデルは、2×2最大プーリング演算(max-pooling operation)構造を備えることができる。
また、脳血管疾患学習装置は、複数のCNNを介して出力される複数の空間特性を直列化することができる(S1003)。脳血管疾患学習装置は、プロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮して、複数の空間特性を直列化することが好ましい。
一方、脳血管疾患学習装置は、直列化データで構成された複数の空間特性の入力を受け、画像フレーム間の関係に対する特性(すなわち、フレーム特性)を検出する学習を行うことができる(S1004)。好ましくは、脳血管疾患学習装置は、循環ニューラルネットワーク(RNN、Recurrent Neural Nerwork)学習方式に基づいてフレーム特性学習モデルを構築することができる。
循環ニューラルネットワーク(RNN)は、現在のデータと過去のデータを同時に考慮するディープラーニング手法であって、循環ニューラルネットワーク(RNN)は、人工ニューラルネットワークを構成するユニット間の接続が、方向性サイクル(directed cycle)を構成するニューラルネットワークを示す。さらに、循環ニューラルネットワーク(RNN)を構成することができる構造には、様々な方式が使用できるが、例えば、完全循環網(Fully Recurrent Network)、ホップフィールド網(Hopfield Network)、エルマン網(Elman Network)、ESN(Echo state network)、LSTM(Long short term memory network)、双方向(Bi-directional)RNN、CTRNN(Continuous-time RNN)、階層的RNN、2次RNNなどが代表的な例である。また、循環ニューラルネットワーク(RNN)を学習させるための方法として、傾斜降下法、脱へシアン最適化(Hessian Free Optimization)、大域最適化法(Global Optimization Method)などの方式が使用できる。
一方、空間特性情報は、MIP MRAに含まれている画像フレームF1、F2、...、Fnから抽出された情報なので、脳血管疾患学習装置は、MIP MRAに含まれている画像フレームF1、F2、...、Fnの時間的情報を確認し、確認された時間的情報に基づいて、空間特性情報に対するフレーム特性学習を処理することができる。
脳血管疾患学習装置は、MIP MRAに含まれている画像フレームF1、F2、...、Fnの空間特性情報に対するフレーム特性を学習するので、MIP MRAに含まれている画像フレームF1、F2、...、Fnに対応するフレーム特性をそれぞれ出力することができる。
脳血管疾患学習装置は、MIP MRAに含まれている画像フレームF1、F2、...、Fnの空間特性情報に対するフレーム特性を学習するので、MIP MRAに含まれている画像フレームF1、F2、...、Fnに対応するフレーム特性をそれぞれ出力することができる。
さらに、空間特性情報は、フレーム特性学習モデルに順次提供でき、フレーム特性学習モデルは、フレーム特性を順次出力することができる。
一方、CNNベースの病変特性学習部は、MIP MRAに含まれている画像フレームF1、F2、...、Fn単位に対する病変情報を出力するように構成できるので、脳血管疾患学習装置は、順次出力されるフレーム特性を病変特性学習部に伝達するために並列化を行う動作(S1005)をさらに処理することができる。
次に、S1006ステップで、脳血管疾患学習装置は、複数の画像フレームF1、F2、...、Fnそれぞれに対応する病変情報を学習することができる(S1006)。例えば、脳血管疾患学習装置は、フレーム特性を用いて病変特性学習モデルを構築することができる。
一方、CNNベースの病変特性学習部は、MIP MRAに含まれている画像フレームF1、F2、...、Fn単位に対する病変情報を出力するように構成できるので、脳血管疾患学習装置は、順次出力されるフレーム特性を病変特性学習部に伝達するために並列化を行う動作(S1005)をさらに処理することができる。
次に、S1006ステップで、脳血管疾患学習装置は、複数の画像フレームF1、F2、...、Fnそれぞれに対応する病変情報を学習することができる(S1006)。例えば、脳血管疾患学習装置は、フレーム特性を用いて病変特性学習モデルを構築することができる。
病変特性学習モデルは、CNN学習方式に基づいた学習モデルであることができ、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するだけのCNNを備えることができる。そして、脳血管疾患学習装置は、第1画像フレームF1に対応する第1フレーム特性を第1CNNの入力に伝達し、第2画像フレームF2に対応する第1フレーム特性を第2CNNの入力に伝達し、第n画像フレームFnに対応する第nフレーム特性を第nCNNの入力に伝達するように構成することができる。
さらに、空間特性学習モデルに備えられる複数のCNNは、情報抽出ドメイン(Domain)のサイズを減らすプーリング(Pooling)構造であるので、空間特性学習モデルとフレーム特性学習モデルを介して病変特性学習モデルに伝達される情報は、プーリング(Pooling)構造に基づいて所定の大きさに圧縮された情報であることができる。これに基づいて、病変特性学習モデルは、入力された情報の補間を介して、そのドメイン(Domain)サイズを増やすアップサンプリング(upsampling)構造を備えることができる。
さらに、病変特性学習モデルに備えられる複数のCNNは、それぞれ2回の3×3畳み込みを備えることができる。
脳血管疾患学習装置は、前述した方法によって3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、これに対応する病変情報を出力する学習を行うことができる。
たとえ、本開示の一実施形態において、空間特性学習モデル及び病変特性学習モデルに備えられる畳み込みのサイズ及び数、空間特性学習モデルに備えられるプーリング(Pooling)構造と、アップサンプリング(upsampling)構造などを例示したが、本開示は、これに限定されるものではなく、多様に変更できるのはいうまでもない。
図11は本開示の一実施形態による脳血管疾患検出方法の手順を示すフローチャートである。
たとえ、本開示の一実施形態において、空間特性学習モデル及び病変特性学習モデルに備えられる畳み込みのサイズ及び数、空間特性学習モデルに備えられるプーリング(Pooling)構造と、アップサンプリング(upsampling)構造などを例示したが、本開示は、これに限定されるものではなく、多様に変更できるのはいうまでもない。
図11は本開示の一実施形態による脳血管疾患検出方法の手順を示すフローチャートである。
本開示の一実施形態による脳血管疾患検出方法は、前述した本開示の一実施形態による脳血管疾患検出装置によって実行できる。
図11を参照すると、まず、脳血管疾患検出装置は、3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、MIP MRA(Maximum intensity projection magnetic resonance angiography)を構成することができる(S1101)。ここで、3D TOF MRAは、脳領域で血管が存在する領域の信号を強く測定して取得した3D形状のMRAであることができ、MIP MRAは、3D TOF MRAを様々な方向からプロジェクション(Projection)して取得した画像フレームを時系列的に組み合わせて構成した動画データであることができる。
例えば、脳血管疾患検出装置は、所定のプロジェクション位置を確認することができ、確認されたプロジェクション位置に対応する画像フレームを取得することができる。そして、脳血管疾患検出装置は、前述した動作によって取得された複数の画像フレームを所定の時間単位を基準として時系列的に組み合わせて動画データを構成することができる。
例えば、複数の2D MRA画像を積層して構成された3D TOF MRAを中心に少なくとも一つのプロジェクション位置が設定できるが、脳血管疾患検出装置は、第1プロジェクション位置P1で取得して第1画像フレームF1を構成し、第2プロジェクション位置P2で取得して第2画像フレームF2を構成することができる。脳血管疾患検出装置は、このような動作を繰り返し行い、n個のプロジェクション位置Pnに対応するn個の画像フレームFnを取得することができる。脳血管疾患検出装置は、n個の画像フレームFnを所定の位置に沿って整列し、整列された複数の画像フレームを所定の時間単位10msごとに配置及び組み合わせして動画データ形式のMIP MRAを構成することができる。
例えば、複数の2D MRA画像を積層して構成された3D TOF MRAを中心に少なくとも一つのプロジェクション位置が設定できるが、脳血管疾患検出装置は、第1プロジェクション位置P1で取得して第1画像フレームF1を構成し、第2プロジェクション位置P2で取得して第2画像フレームF2を構成することができる。脳血管疾患検出装置は、このような動作を繰り返し行い、n個のプロジェクション位置Pnに対応するn個の画像フレームFnを取得することができる。脳血管疾患検出装置は、n個の画像フレームFnを所定の位置に沿って整列し、整列された複数の画像フレームを所定の時間単位10msごとに配置及び組み合わせして動画データ形式のMIP MRAを構成することができる。
さらに、MIP MRAは、画像フレームF1、F2、...、Fnに対応するプロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を含むことができる。
次に、脳血管疾患検出装置は、MIP MRAに含まれている画像フレームF1、F2、...、Fnそれぞれから空間特性を抽出することができる(S1102)。特に、脳血管疾患検出装置は、前述した脳血管疾患学習方法によって構築された空間特性学習モデルを備えることができ、空間特性学習モデルを用いて、MIP MRAに含まれている画像フレームF1、F2、...、Fnそれぞれから空間特性を抽出することができる。
例えば、空間特性学習モデルには、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するCNNが備えられることができ、脳血管疾患検出装置は、第1画像フレームF1を第1CNNの入力に伝達し、第2画像フレームF2を第2CNNの入力に伝達し、第n画像フレームFnを第nCNNの入力に伝達することができる。
例えば、空間特性学習モデルには、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するCNNが備えられることができ、脳血管疾患検出装置は、第1画像フレームF1を第1CNNの入力に伝達し、第2画像フレームF2を第2CNNの入力に伝達し、第n画像フレームFnを第nCNNの入力に伝達することができる。
空間特性学習モデルに備えられるCNNの具体的な構造及び動作は、前述した図4乃至図7の説明を参照する。
さらに、空間特性学習モデルに備えられる複数のCNNは、それぞれ2回の3×3畳み込みを備えることが好ましい。また、空間特性学習モデルは、2×2最大プーリング演算(max-pooling operation)構造を備えることができる。
また、脳血管疾患検出装置は、複数のCNN31-1、31-2、31-nを介して出力される複数の空間特性を直列化することができる(S1103)。脳血管疾患検出装置は、プロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮して、複数の空間特性を直列化することが好ましい。
また、脳血管疾患検出装置は、複数のCNN31-1、31-2、31-nを介して出力される複数の空間特性を直列化することができる(S1103)。脳血管疾患検出装置は、プロジェクション位置P1、P2、...、Pn及び時間又は配列順序に対する情報を考慮して、複数の空間特性を直列化することが好ましい。
一方、脳血管疾患検出装置は、直列化データで構成された複数の空間特性の入力を受け、画像フレーム間の関係に対する特性(すなわち、フレーム特性)を検出することができる(S1104)。好ましくは、脳血管疾患検出装置は、循環ニューラルネットワーク(RNN、Recurrent Neural Nerwork)学習方式に基づいたフレーム特性学習モデルを用いてフレーム特性を検出することができる。この時、フレーム特性学習モデルは、前述した脳血管疾患学習方法によって構築されたフレーム特性学習モデルであることができる。
さらに、空間特性情報は、フレーム特性学習モデルに順次提供でき、フレーム特性学習モデルは、フレーム特性を順次出力することができる。
一方、CNNベースの病変特性学習モデルは、MIP MRAに含まれている画像フレームF1、F2、...、Fn単位に対する病変情報を出力するように構成できるので、脳血管疾患検出装置は、順次出力されるフレーム特性を病変特性学習部に伝達するために並列化を行う動作(S1105)をさらに処理することができる。
脳血管疾患検出装置は、フレーム特性から病変特性を抽出することができる(S1106)。特に、脳血管疾患検出装置は、脳血管疾患学習方法によって構築された病変特性学習モデルを備えることができる。
一方、CNNベースの病変特性学習モデルは、MIP MRAに含まれている画像フレームF1、F2、...、Fn単位に対する病変情報を出力するように構成できるので、脳血管疾患検出装置は、順次出力されるフレーム特性を病変特性学習部に伝達するために並列化を行う動作(S1105)をさらに処理することができる。
脳血管疾患検出装置は、フレーム特性から病変特性を抽出することができる(S1106)。特に、脳血管疾患検出装置は、脳血管疾患学習方法によって構築された病変特性学習モデルを備えることができる。
病変特性学習モデルは、CNN学習方式に基づいた学習モデルであることができ、MIP MRAに含まれている画像フレームF1、F2、...、Fnの数に対応するだけのCNNを備えることができる。そして、脳血管疾患検出装置は、第1画像フレームF1に対応する第1フレーム特性を第1CNNの入力に伝達し、第2画像フレームF2に対応する第1フレーム特性を第2CNNの入力に伝達し、第n画像フレームFnに対応する第nフレーム特性を第nCNNの入力に伝達するように構成することができる。
さらに、空間特性学習モデルに備えられる複数のCNNは、情報抽出ドメイン(Domain)のサイズを減らすプーリング(Pooling)構造であるので、空間特性学習モデルとフレーム特性学習モデルを介して病変特性学習モデルに伝達される情報は、プーリング(Pooling)構造に基づいて所定の大きさに圧縮された情報であることができる。これに基づいて、病変特性学習モデルは、入力された情報の補間を介して、そのドメイン(Domain)サイズを増やすアップサンプリング(upsampling)構造を備えることができる。
さらに、空間特性学習モデルに備えられる複数のCNNは、情報抽出ドメイン(Domain)のサイズを減らすプーリング(Pooling)構造であるので、空間特性学習モデルとフレーム特性学習モデルを介して病変特性学習モデルに伝達される情報は、プーリング(Pooling)構造に基づいて所定の大きさに圧縮された情報であることができる。これに基づいて、病変特性学習モデルは、入力された情報の補間を介して、そのドメイン(Domain)サイズを増やすアップサンプリング(upsampling)構造を備えることができる。
さらに、病変特性学習モデルに備えられる複数のCNNは、それぞれ2回の3×3畳み込みを備えることができる。
脳血管疾患検出装置は、前述した方法によって3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、これに対応する病変情報を検出及び出力する動作を行うことができる。
たとえ、本開示の一実施形態において、空間特性学習モデル及び病変特性学習モデルに備えられる畳み込みのサイズ及び個数、空間特性学習モデルに備えられるプーリング(Pooling)構造、及びアップサンプリング(upsampling)構造などを例示したが、本開示は、これに限定されるものではなく、多様に変更できるのはいうまでもない。
図12は本開示の一実施形態による脳血管疾患学習方法及び脳血管疾患検出方法を実行するコンピューティングシステムを例示するブロック図である。
図12を参照すると、コンピューティングシステム1000は、バス1200を介して接続される少なくとも一つのプロセッサ1100、メモリ1300、ユーザインターフェース入力装置1400、ユーザインターフェース出力装置1500、ストレージ1600、及びネットワークインターフェース1700を含むことができる。
プロセッサ1100は、中央処理装置(CPU)又はメモリ1300及び/又はストレージ1600に保存された命令語に対する処理を実行する半導体装置であることができる。メモリ1300及びストレージ1600は、さまざまな種類の揮発性又は不揮発性記憶媒体を含むことができる。例えば、メモリ1300は、ROM(Read Only Memory)及びRAM(Random Access Memory)を含むことができる。
したがって、本明細書に開示された実施形態と関連して説明された方法又はアルゴリズムのステップは、プロセッサ1100によって実行されるハードウェア、ソフトウェアモジュール、又はその2つの組み合わせで直接実現できる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、着脱型ディスク、CD-ROMなどの記憶媒体(すなわち、メモリ1300及び/又はストレージ1600)に常駐することもできる。例示的な記憶媒体は、プロセッサ1100にカップリングされ、そのプロセッサ1100は、記憶媒体から情報を読み取ることができ、記憶媒体に情報を書き込むことができる。他の方法として、記憶媒体は、プロセッサ1100と一体型であることもできる。プロセッサ及び記憶媒体は、特定用途向け集積回路(ASIC)内に常駐することもできる。ASICは、ユーザ端末内に常駐することもできる。別の方法として、プロセッサ及び記憶媒体は、ユーザ端末内に個別コンポーネントとして常駐することもできる。
本開示の例示的な方法は、説明の明確性のために動作のシリーズで表現されているが、これは、ステップが行われる順序を制限するためのものではなく、必要な場合には、それぞれのステップが同時に又は異なる順序で行われることも可能である。本開示による方法を実現するために、例示するステップにさらに他のステップを含むか、一部のステップを除いて残りのステップを含むか、或いは一部のステップを除いて更なる他のステップを含むことも可能である。
本開示の様々な実施形態は、すべての可能な組み合わせを羅列したものではなく、本開示の代表的な様相を説明するためのものであり、様々な実施形態で説明する事項は、独立して適用されるか、或いは二つ以上の組み合わせで適用されることも可能である。
また、本開示の様々な実施形態は、ハードウェア、ファームウェア(firmware)、ソフトウェア、又はそれらの組み合わせなどによって実現できる。ハードウェアによる実現の場合、一つ又はそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、汎用プロセッサ(general processor)、コントローラ、マイクロコントローラ、マイクロプロセッサなどによって実現できる。
また、本開示の様々な実施形態は、ハードウェア、ファームウェア(firmware)、ソフトウェア、又はそれらの組み合わせなどによって実現できる。ハードウェアによる実現の場合、一つ又はそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、汎用プロセッサ(general processor)、コントローラ、マイクロコントローラ、マイクロプロセッサなどによって実現できる。
本開示の範囲は、様々な実施形態の方法による動作が装置又はコンピュータ上で実行されるようにするソフトウェア又はマシン-実行可能な命令(例えば、オペレーティングシステム、アプリケーション、ファームウェア(firmware)、プログラムなど)、及びこのようなソフトウェア又は命令などが保存されて装置又はコンピュータ上で実行可能な非一時的コンピュータ可読媒体(non-transitory computer-readable medium)を含む。
Claims (11)
- 画像に基づいて学習モデルを構築する電子装置において、
3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成するMIP MRA構成部と、
CNN(Convolutional Neural Networks)学習方式に基づいた空間特性学習モデルを構築し、前記空間特性学習モデルは前記複数の画像フレームそれぞれに対する空間特性を学習する空間特性学習部と、
前記空間特性の入力を受け、RNN(Recurrent Neural Networks)学習方式に基づいたフレーム特性学習モデルを構築し、前記フレーム特性学習モデルは複数の画像フレーム間の特性を示すフレーム特性を学習するフレーム特性学習部と、
前記フレーム特性の入力を受け、前記CNN学習方式に基づいた病変特性学習モデルを構築し、前記病変特性学習モデルは前記複数の画像フレームそれぞれに対する病変特性を学習する病変特性学習部と、を含むことを特徴とする、脳血管疾患学習装置。 - 前記空間特性学習モデルは、
前記複数の画像フレームの入力をそれぞれ受け、入力された画像フレームに対する空間特性を学習する複数のCNNを含むことを特徴とする、請求項1に記載の脳血管疾患学習装置。 - 前記空間特性学習部は、
前記複数の画像フレームそれぞれに対する複数の空間特性を直列化する直列化処理部を含むことを特徴とする、請求項1に記載の脳血管疾患学習装置。 - 前記フレーム特性学習部は、
前記フレーム特性学習モデルを介して出力されるフレーム特性を、前記複数の画像フレームを考慮して並列化する並列化処理部を含むことを特徴とする、請求項1に記載の脳血管疾患学習装置。 - 前記空間特性学習モデルは、
所定の大きさの最大プーリング演算(max-pooling operation)構造を備えることを特徴とする、請求項1に記載の脳血管疾患学習装置。 - 前記病変特性学習モデルは、
前記所定の大きさを考慮して、前記フレーム特性の特徴マップ(feature map)の大きさを増加させるアップサンプリング(upsampling)構造を備えることを特徴とする、請求項5に記載の脳血管疾患学習装置。 - 画像に基づいて病変を検出する電子装置において、
3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成するMIP MRA構成部と、
CNN(Convolutional Neural Networks)学習方式に基づいて、前記複数の画像フレームそれぞれに対する空間特性の学習によって構築された空間特性学習モデルを備え、前記空間特学習モデルを用いて前記複数の画像フレームそれぞれに対する空間特性を検出する空間特性検出部と、
RNN(Recurrent Neural Networks)学習方式に基づいて、前記空間特性に対応するフレーム特性の学習によって構築されたフレーム特性学習モデルを備え、前記フレーム特性学習モデルを用いて前記フレーム特性を検出するフレーム特性検出部と、
前記CNN学習方式に基づいて、前記フレーム特性に対応する病変特性の学習によって構築された病変特性学習モデルを備え、前記病変特性学習モデルを用いて前記複数の画像フレームそれぞれに対する病変特性を検出する病変特性検出部と、を含むことを特徴とする、脳血管疾患検出装置。 - 前記空間特性検出部は、
前記複数の画像フレームそれぞれに対する複数の空間特性を直列化する直列化処理部を含み、
前記フレーム特性検出部は、
前記フレーム特性学習モデルを介して出力されるフレーム特性を、前記複数の画像フレームを考慮して並列化する並列化処理部を含むことを特徴とする、請求項7に記載の脳血管疾患検出装置。 - 前記空間特性学習モデルは、
所定の大きさの最大プーリング演算(max-pooling operation)構造を備え、
前記病変特性学習モデルは、
前記所定の大きさを考慮して、前記フレーム特性の特徴マップ(feature map)の大きさを増加させるアップサンプリング(upsampling)構造を備えることを特徴とする、請求項7に記載の脳血管疾患検出装置。 - 電子装置が画像に基づいて学習モデルを構築する方法において、
3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成する過程と、
CNN(Convolutional Neural Networks)学習方式に基づいた空間特性学習モデルを構築し、前記空間特性学習モデルは前記複数の画像フレームそれぞれに対する空間特性を学習する過程と、
前記空間特性の入力を受け、RNN(Recurrent Neural Networks)学習方式に基づいたフレーム特性学習モデルを構築し、前記フレーム特性学習モデルは複数の画像フレーム間の特性を示すフレーム特性を学習する過程と、
前記フレーム特性の入力を受け、前記CNN学習方式に基づいた病変特性学習モデルを構築し、前記病変特性学習モデルは前記複数の画像フレームそれぞれに対する病変特性を学習する過程と、を含むことを特徴とする、脳血管疾患学習方法。 - 電子装置が画像に基づいて病変を検出する方法において、
3D TOF MRA(3D Time-of-flight magnetic resonance angiography)の入力を受け、複数の画像フレームを含むMIP MRA(Maximum intensity projection magnetic resonance angiography)を構成する過程と、
空間特性学習モデルを用いて前記複数の画像フレームそれぞれに対する空間特性を検出し、前記空間特性学習モデルはCNN(Convolutional Neural Networks)学習方式に基づいて、前記複数の画像フレームそれぞれに対する空間特性の学習によって構築された学習モデルであることを特徴とする過程と、
フレーム特性学習モデルを用いて前記フレーム特性を検出し、前記フレーム特性学習モデルはRNN(Recurrent Neural Networks)学習方式に基づいて、前記空間特性に対応するフレーム特性の学習によって構築された学習モデルであることを特徴とする過程と、
病変特性学習モデルを用いて前記複数の画像フレームそれぞれに対する病変特性を検出し、前記病変特性学習モデルは前記CNN学習方式に基づいて、前記フレーム特性に対応する病変特性の学習によって構築された学習モデルであることを特徴とする過程と、を含むことを特徴とする、脳血管疾患検出方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0171151 | 2018-12-27 | ||
KR1020180171151A KR102021515B1 (ko) | 2018-12-27 | 2018-12-27 | 뇌혈관 질환 학습 장치, 뇌혈관 질환 검출 장치, 뇌혈관 질환 학습 방법 및 뇌혈관 질환 검출 방법 |
PCT/KR2019/018586 WO2020139009A1 (ko) | 2018-12-27 | 2019-12-27 | 뇌혈관 질환 학습 장치, 뇌혈관 질환 검출 장치, 뇌혈관 질환 학습 방법 및 뇌혈관 질환 검출 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022516146A true JP2022516146A (ja) | 2022-02-24 |
Family
ID=68067139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021538436A Pending JP2022516146A (ja) | 2018-12-27 | 2019-12-27 | 脳血管疾患学習装置、脳血管疾患検出装置、脳血管疾患学習方法、及び脳血管疾患検出方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220122729A1 (ja) |
JP (1) | JP2022516146A (ja) |
KR (1) | KR102021515B1 (ja) |
WO (1) | WO2020139009A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102021515B1 (ko) * | 2018-12-27 | 2019-09-16 | (주)제이엘케이인스펙션 | 뇌혈관 질환 학습 장치, 뇌혈관 질환 검출 장치, 뇌혈관 질환 학습 방법 및 뇌혈관 질환 검출 방법 |
KR102288727B1 (ko) | 2019-10-29 | 2021-08-10 | 동아대학교 산학협력단 | 딥러닝 기반의 아밀로이드 양성 반응을 나타내는 퇴행성 뇌질환 이미지 분류 장치 및 방법 |
JP7297705B2 (ja) * | 2020-03-18 | 2023-06-26 | 株式会社東芝 | 処理装置、処理方法、学習装置およびプログラム |
JP7481956B2 (ja) * | 2020-08-26 | 2024-05-13 | 株式会社東芝 | 推論装置、方法、プログラムおよび学習装置 |
KR102554282B1 (ko) | 2020-12-04 | 2023-07-11 | 서울과학기술대학교 산학협력단 | 객체 추천 장치, 방법 및 시스템 |
KR102562377B1 (ko) * | 2020-12-29 | 2023-08-01 | 성균관대학교산학협력단 | 우울증 진단 정보를 제공하기 위한 인공지능 연합학습 방법 및 시스템 |
KR20220124643A (ko) | 2021-03-02 | 2022-09-14 | 고려대학교 산학협력단 | 합성곱 신경망을 기반으로 한 petra 이미지와 tof 이미지 간 이미지 변환 시스템 및 그 방법 |
KR20230106205A (ko) | 2022-01-05 | 2023-07-13 | 동아대학교 산학협력단 | 합성곱 신경망의 계층 연관성 전파를 이용한 퇴행성 뇌질환 이미지 분류 장치 및 방법 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10871536B2 (en) * | 2015-11-29 | 2020-12-22 | Arterys Inc. | Automated cardiac volume segmentation |
KR101980955B1 (ko) * | 2016-08-22 | 2019-05-21 | 한국과학기술원 | 3차원 의료 영상에서 깊이 방향 재귀 학습을 이용하는 병변 특징 표현 분석 방법 및 시스템 |
KR101754291B1 (ko) * | 2017-04-04 | 2017-07-06 | 이현섭 | 개인 맞춤형 뇌질병 진단 및 상태 판정을 위한 의료 영상 처리 시스템 및 방법 |
KR101884609B1 (ko) * | 2017-05-08 | 2018-08-02 | (주)헬스허브 | 모듈화된 강화학습을 통한 질병 진단 시스템 |
KR102021515B1 (ko) * | 2018-12-27 | 2019-09-16 | (주)제이엘케이인스펙션 | 뇌혈관 질환 학습 장치, 뇌혈관 질환 검출 장치, 뇌혈관 질환 학습 방법 및 뇌혈관 질환 검출 방법 |
-
2018
- 2018-12-27 KR KR1020180171151A patent/KR102021515B1/ko active IP Right Grant
-
2019
- 2019-12-27 US US17/418,914 patent/US20220122729A1/en active Pending
- 2019-12-27 JP JP2021538436A patent/JP2022516146A/ja active Pending
- 2019-12-27 WO PCT/KR2019/018586 patent/WO2020139009A1/ko active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20220122729A1 (en) | 2022-04-21 |
KR102021515B1 (ko) | 2019-09-16 |
WO2020139009A1 (ko) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022516146A (ja) | 脳血管疾患学習装置、脳血管疾患検出装置、脳血管疾患学習方法、及び脳血管疾患検出方法 | |
JP6993371B2 (ja) | ディープラーニングに基づいたコンピュータ断層撮影肺結節検出法 | |
KR102058884B1 (ko) | 치매를 진단을 하기 위해 홍채 영상을 인공지능으로 분석하는 방법 | |
US10039501B2 (en) | Computer-aided diagnosis (CAD) apparatus and method using consecutive medical images | |
Sevastopolsky | Optic disc and cup segmentation methods for glaucoma detection with modification of U-Net convolutional neural network | |
KR101857624B1 (ko) | 임상 정보를 반영한 의료 진단 방법 및 이를 이용하는 장치 | |
Khagi et al. | Pixel-label-based segmentation of cross-sectional brain MRI using simplified SegNet architecture-based CNN | |
US9990729B2 (en) | Methods of and apparatuses for modeling structures of coronary arteries from three-dimensional (3D) computed tomography angiography (CTA) images | |
US11769594B2 (en) | Deep learning model learning device and method for cancer region | |
WO2020219915A1 (en) | Denoising magnetic resonance images using unsupervised deep convolutional neural networks | |
US11854193B2 (en) | Validity evaluation device for cancer region detection | |
EP3555850A1 (en) | System and method for image segmentation using a joint deep learning model | |
CN113424222A (zh) | 用于使用条件生成对抗网络提供中风病灶分割的系统和方法 | |
US11922624B2 (en) | Brain lesion information provision device and method | |
KR102056989B1 (ko) | 머신러닝 기반의 gre 영상을 활용한 혈전 분류 방법 및 시스템 | |
KR101932008B1 (ko) | 영상의 특징 및 맥락에 기초한 영상 분석 장치 및 방법 | |
KR102163225B1 (ko) | 뉴럴 네트워크를 이용한 영상 분할 방법 및 그 장치 | |
Yang et al. | Generative Adversarial Networks (GAN) Powered Fast Magnetic Resonance Imaging--Mini Review, Comparison and Perspectives | |
Laumer et al. | Weakly supervised inference of personalized heart meshes based on echocardiography videos | |
KR102100699B1 (ko) | 병변 통합 학습 모델을 구축하는 장치와 방법, 및 상기 병변 통합 학습 모델을 사용하여 병변을 진단하는 장치와 방법 | |
CN112348825A (zh) | 一种用于视网膜血流图像分割的DR-U-net网络方法及装置 | |
KR20230139257A (ko) | 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치 | |
WO2021015232A1 (ja) | 学習装置、方法およびプログラム、グラフ構造抽出装置、方法およびプログラム、並びに学習済み抽出モデル | |
KR20200041773A (ko) | 암 영역 정보 보정 장치 및 방법 | |
Atehortúa et al. | Characterization of motion patterns by a spatio-temporal saliency descriptor in cardiac cine MRI |