JP2022518446A - 深層学習に基づく医用画像検出方法及び装置、電子機器及びコンピュータプログラム - Google Patents

深層学習に基づく医用画像検出方法及び装置、電子機器及びコンピュータプログラム Download PDF

Info

Publication number
JP2022518446A
JP2022518446A JP2021541113A JP2021541113A JP2022518446A JP 2022518446 A JP2022518446 A JP 2022518446A JP 2021541113 A JP2021541113 A JP 2021541113A JP 2021541113 A JP2021541113 A JP 2021541113A JP 2022518446 A JP2022518446 A JP 2022518446A
Authority
JP
Japan
Prior art keywords
map
feature map
feature
slice
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021541113A
Other languages
English (en)
Other versions
JP7143008B2 (ja
Inventor
▲麗▼君 ▲ゴン▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022518446A publication Critical patent/JP2022518446A/ja
Application granted granted Critical
Publication of JP7143008B2 publication Critical patent/JP7143008B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本出願の実施例は、深層学習に基づく医用画像検出方法、装置、コンピュータ読み取り可能な媒体、及び電子機器を提供する。当該方法は、検出すべき医用画像を取得し、前記検出すべき医用画像は複数枚のスライスマップを含み、検出すべき医用画像の各スライスマップに対して、ディープニューラルネットワークにより、当該スライスマップを取得するN枚の基本特徴マップを抽出し、当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM枚の拡張特徴マップを取得し、各拡張特徴マップに対して階層的な膨張畳み込み操作を実行して、当該スライスマップの各拡張特徴マップの重畳特徴マップを生成する操作を実行し、ディープニューラルネットワークにより、前記検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測し、NとMの両方は1よりも大きい整数である。本出願の実施例の技術案は医用画像のターゲット検出精度を向上させることができる。

Description

本出願は、2019年04月22日に中国専利局に提出した、出願番号が2019103245658であって、発明の名称が「深層学習に基づく医用画像検出方法、及び関連装置」である中国特許出願の優先権を主張し、その全ての内容が援用により本出願に組み込まれる。
本出願は、人工知能(ArtificialIntelligence、AI)の技術分野に関し、具体的に、医用画像検出技術に関する。
現在、主に医用画像検出モデルを採用して2次元(two-dimension、2D)画像のデータに対して画像検出を行って、2D画像における関心領域を認識する。このような方法は、通常、乳腺などの画像データにのみ適している。このような方法でコンピュータ断層撮影(ComputedTomography(ComputedTomography、CT)画像を処理すると、CT画像の3次元ボリュームデータの情報が失われ、医用画像検出モデルの信頼性が低いことに繋がる。
従って、医用画像検出の分野では、医用画像の3次元ボリュームデータをどのように総合的に利用して関心領域予測の信頼性を向上させるかは、早急に解決する必要がある技術的な課題となる。
本出願の実施例は、深層学習に基づく医用画像検出方法、装置、コンピュータ読み取り可能な媒体、及び電子機器を提供し、医用画像における関心領域の予測の信頼性をある程度向上することができる。
本出願の他の特徴及び利点は、以下の詳細な説明により明らかになり、部分的に本出願の実施により習得される。
本出願の実施例の一態様によれば、深層学習に基づく医用画像検出方法を提供し、
複数枚のスライスマップを含む検出すべき医用画像を取得するステップと、
前記検出すべき医用画像における各スライスマップに対して、ディープニューラルネットワークにより当該スライスマップのN(Nは1よりも大きい整数)枚の基本特徴マップを抽出するステップと、
前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM(Mは1よりも大きい整数)枚の拡張特徴マップを取得するステップと、
前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行することにより、当該スライスマップの各拡張特徴マップの重畳特徴マップを生成するステップと、
前記ディープニューラルネットワークにより前記検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測するステップとを含む。
本出願の実施例の一態様によれば、深層学習に基づく医用画像検出装置を提供し、
複数枚のスライスマップを含む検出すべき医用画像を取得するように配置される画像取得モジュールと、
前記検出すべき医用画像における各スライスマップに対して、ディープニューラルネットワークにより当該スライスマップのN(Nは1よりも大きい整数)枚の基本特徴マップを抽出するように配置される特徴抽出モジュールと、
前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM(Mは1よりも大きい整数)枚の拡張特徴マップを取得するように配置される特徴融合モジュールと、
前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行して、当該スライスマップの各拡張特徴マップの重畳特徴マップを生成するように配置される膨張畳み込みモジュールと、
前記ディープニューラルネットワークにより、前記検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測するように配置される関心領域予測モジュールとを含む。
本出願の実施例の一態様によれば、コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体であって、前記コンピュータプログラムがプロセッサによって実行されると、上記の実施例に記載の深層学習に基づく医用画像検出方法を実現させるコンピュータ読み取り可能な媒体を提供する。
本出願の実施例の一態様によれば、1つ又は複数のプロセッサと、1つ又は複数のプログラムが記憶される記憶装置とを含む電子機器を提供し、前記1つ又は複数のプロセッサに実行されると、前記1つ又は複数のプロセッサに上記の実施例に記載の深層学習に基づく医用画像検出方法を実現させる。
本出願の実施例の一態様によれば、命令を含むコンピュータプログラムを提供し、当該コンピュータプログラムがコンピュータ上で実行されると、コンピュータに上記の実施例に記載の深層学習に基づく医用画像検出方法を実行させる。
本出願の幾つかの実施例にかかる技術案において、隣接する複数枚のスライスマップを含む検出すべき医用画像を取得し、ディープニューラルネットワークにより当該検出すべき医用画像における各スライスマップを処理することで、当該検出すべき医用画像における3次元情報を利用して当該検出すべき医用画像における関心領域位置情報及びその信頼度を自動的に予測し、予測結果の信頼性を向上させることができる一方、当該検出すべき医用画像にける各スライスマップの異なる層の基本特徴マップを融合して拡張特徴マップを取得してもよい。つまり、当該検出すべき医用画像における低層特徴と高層特徴と融合してもよい。低層特徴は当該検出すべき医用画像における小スケールターゲットの検出に寄与するため、低層特徴と高層特徴とを融合することにより、当該検出すべき医用画像における異なるスケールのターゲットを良く検出することができる。また、融合された拡張特徴マップに対して階層的な膨張畳み込み操作を実行することにより、当該検出すべき医用画像における関心領域の周辺情報をキャプチャすることができ、当該周辺情報に基づいて、実際の関心領域(例えば、被疑病変の領域)であるかどうかを判断することを支援し、より正確なターゲット検出に役立つ。
本出願の他の実施例にかかる技術案では、当該ディープニューラルネットワークは、改善されたFPN(FeaturePyramidNetwork、特徴ピラミッドネットワーク)を採用してもよく、ネットワークによるマルチスケール情報のキャプチャ能力を拡張することができる。これにより、ネットワークによる異なるスケールの関心領域の検出能力を拡張することができる一方、関連技術に比べて、関心領域検出正確率が近い場合、本出願の実施例にかかる技術案は、当該ディープニューラルネットワークトレーニング階段で、ラベリング情報付きスライスマップ及びそれの上下にある二つのスライスマップ、即ち、各医用画像における合計3つのスライスマップのみを使用し、高い検出正確率を有するモデルをトレーニングにより取得することができるので、冗長情報が多く導入されることなく、医用画像における3次元情報を利用することができ、トレーニングプロセス及び予測階段のデータ処理量を削減し、演算の処理速度と効率を向上させ、医用画像における関心領域位置及びその信頼度のより速い検出に役立つ。同時に、当該深層学習に基づく医用画像検出方法はマルチスケールのCT画像検出に適用し、医師によるCT画像の被疑病変領域の検出を支援するために用いられ、医師の負担が軽減され、医師の作業効率を向上させる。
なお、上記の一般記載と後述する細部についての記載は、単なる例示及び解釈なものであり、本出願を限定するものではない。
ここで、図面は、明細書に組み込まれて本明細書の一部を構成し、本出願に該当する実施例を示すと共に、明細書と併せて本願の原理を解釈するためのものである。以下に記述の図面は、本出願のいくつかの実施例に過ぎず、当業者にとっては、進歩性に値する労動が必要なく、これらの図面に基づいて他の図面を取得することができる。
本出願の一実施例による深層学習に基づく医用画像検出方法のフローチャートを概略的に示している。 本出願の一実施例によるResnet50ネットワークにおける1つのブロックの構成模式図を概略的に示している。 本出願の一実施例による改善FPNネットワークの構成模式図を概略的に示している。 本出願の一実施例による特徴融合ネットワーク及び階層的な膨張畳み込みネットワークの構成模式図を概略的に示している。 本出願の一実施例による階層的な膨張畳み込みネットワークの構成模式図を概略的に示している。 本出願の一実施例による深層学習に基づく医用画像検出方法の模式図を概略的に示している。 本出願の実施例による深層学習に基づく医用画像検出方法を適用する検出結果模式図を概略的に示している。 本出願の一実施例による深層学習に基づく医用画像検出装置のブロック図を概略的に示している。 本出願の実施例を実現するための電子機器のコンピュータシステムの構成模式図を示している。
以下、図面を参照しながら、例示的な実施形態を全面的に説明する。しかし、例示的な実施形態は、複数の形態で実施することができ、ここで記述された例に限られると理解してはいけない。むしろ、これらの実施形態を提供することで、本出願を全面的かつ完全にし、例示的な実施形態の発想を当業者に全面的に伝える。
また、記載される特徴、構造又は特性は1つ又は複数の実施例において任意の適切な方法で組み合わせることができる。以下の説明では、多くの具体的な詳細を提供することで、本出願の実施形態の十分な理解を提供する。しかし、当業者にとって明らかなように、前記具体的な詳細のうちの1つ以上を省略したり、又は他の方法、ユニット、装置、ステップ等を用いたりして、本出願の技術案を実施することができる。他の場合には、本開示の各形態が不明瞭になることを避けるように、周知の構造、方法、装置、実現、材料又は操作が詳細に示されていない又は説明されていない。
図面に示されるブロック図の一部は機能エンティティであり、必ずしも物理的又は論理的に別個のエンティティに対応する必要はない。ソフトウェア形態でこれらの機能エンティティを実装し、又は1つ又は複数のハードウェアモジュール又は集積回路にこれらの機能エンティティを実装し、又は異なるネットワーク及び/又はプロセッサ装置及び/又はマイクロコントローラ装置においてこれらの機能エンティティを実装することができる。
図面に示されているフローチャートは単なる例示的な説明であり、必ずしもすべての内容及び操作/ステップを含むわけではなく、また、記載された順序で実行する必要もない。たとえば、一部の操作/ステップを分解したり、一部の操作/ステップを組み合わせたり、部分的に組み合わせたりできるため、実際の実行順序は実際の状況に応じて変更される場合がある。
人工知能は、デジタルコンピュータ又はデジタルコンピュータによって制御されるマシンを使用して、人間の知能をシミュレート、延長、拡張し、環境を感知し、知識を獲得し、知識を使用して最適の結果を得る理論、方法、技術、及びアプリケーションシステムである。つまり、人工知能は、計算機科学の総合的な技術であり、知能の本質を理解し、人間の知能と同じように反応できる新しいインテリジェントマシンを生み出そうとする。人工知能は、さまざまなインテリジェントマシンの設計原理と実現方法を研究して、マシンに感知、推論、決定の機能を持たせることである。
人工知能技術は総合的な学科であり、ハードウェアについての技術とソフトウェアについての技術の両方を含む幅広い分野に係る。人工知能の基本的な技術は、一般に、センサー、AI専用チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理技術、オペレーティング/インタラクションシステム、メカトロニクスなどの技術を含む。人工知能のソフトウェア技術は、主に、コンピュータビジョン技術、音声処理技術、自然言語処理技術、機械学習/深層学習などを含む。
コンピュータビジョン技術(Computer Vision、CV)は、どのようにマシンを「見る」にするかを研究する科学である。さらに言えば、人間の目の代わりにカメラとコンピュータを使用して、ターゲットに対して識別、追跡、測定などのマシンビジョンを行い、グラフィックス処理をさらに行って、人間の目による観察又は伝送を介して検知器に検出されることに適した画像となるようにコンピュータに処理させる。科学学科として、コンピュータビジョンは関連する理論と技術を研究し、画像や多次元データから情報を取得可能な人工知能システムを構築しようとする。コンピュータビジョン技術は、一般的に、画像分割、画像処理、画像認識、画像意味分析、画像検索、OCR、ビデオ処理、ビデオ意味分析、ビデオ内容/行為認識、3次元オブジェクト再構成、3D技術、仮想現実、拡張現実、同時測位と地図構築の技術を含み、よく見られている顔認識、指紋認識などの生体特徴識技術をさらに含む。
機械学習(Machine Learning、ML)は、複数の分野にかかる学科であり、確率論、統計学、近似理論、凸解析、アルゴリズム複雑性理論などの複数の学科に係る。新しい知識やスキルを習得するためにコンピュータが人間の学習行動をどのようにシミュレートまたは実現するかについてを専門に研究し、既存の知識構造を再組織して自身のパフォーマンスを継続的に改善する。機械学習は、人工知能のコアであり、コンピュータに知能を持たせる基本的な方法であり、その適用は人工知能のすべての分野をカバーする。機械学習及び深層学習は、一般、人工ニューラルネットワーク、信念ネットワーク、強化学習、転移学習、帰納学習、教示学習などの技術を含む。
本出願の実施例にかかる医学影像検出方法は、人工知能のコンピュータビジョン技術及び機械学習技術などに関し、具体的には、以下の実施例により説明する。
まず、本出願の実施例に係る略語及び用語を定義する。
畳み込みニューラルネットワーク (Convolutionalneuralnetwork、CNN):深層学習分類検出技術中のニューラルネットワークであり、畳み込み層、プーリング層及び全結合層を含む。
領域ベースの畳み込みニューラルネットワーク(Region-basedConvolutionalNeuralNetworks、RCNN):画像に候補領域を生成し、各候補領域に対してディープネットワークを使用して特徴を抽出し、次に特徴を各クラスの分類器に送って、当該クラスに属するかどうかを判別し、その後、回帰子を使用して候補ボックス位置を精確に修正する。
膨張畳み込み(Dilatedconvolution):標準となる畳み込み操作に膨張を追加し、各畳み込みカーネル間に間隔があるため、畳み込みパラメータの数を増やすことなく、畳み込み操作の受容野を拡大することができる。
CT画像:CTはコンピュータ断層撮影であり、X線、Y線、超音波などで人体のある部位を走査して得られた画像はCT画像と呼ばれる。
スライスマップ(Slice):CT画像におけるスライスマップであり、CT画像は、複数の連続しているスライスマップから構成される。
関心領域検出:医用画像における関心領域、例えば、ターゲット器官領域、被疑病変領域などを検出し、スコア信頼度を付与する。
特徴マップ(Featuremap):画像がフィルタと畳み込まれて得られた特徴マップである。Featuremapはフィルタと畳み込まれて新しいfeaturemapを生成することができる。
アンカー(Anchor):featuremapで予め定義されたサイズ及び縦横比が異なる矩形ボックスである。
Proposal:分類して、NMS(Non-maximumsuppression)に回帰したanchorである。
バウンディングボックス又は検出ボックス(boundingboxes):BBoxと略書きされる。
Groundtrueboundingboxes(gt_BBoxes):医師によってラベリングされた真の関心領域、即ち、実際の検出ボックスである。
交差オーバーユニオン(IntersectionoverUnion、IoU):二つの検出ボックスの積集合と和集合との比である。
関心領域プーリング(RegionofInterestPooling、ROIpooling):検出プロセスにおいて、ネットワークから取得されたproposalを抽出して、均一サイズに調整することを言う。
FPN:物体検出の方法であり、低層のネットワークの特徴と高層のネットワークの特徴とを組み合わせて、新しい特徴マップを取得してから予測する。
RPN(RegionProposeNetwork):抽出された畳み込み特徴マップを処理し、RPNはオブジェクトを含む可能性のある事前定義された数の領域を検出するために用いられる。
信頼度:予測されたパラメータの信頼性を示し、信頼度が高いほど、予測されたパラメータの信頼性が高くなる。
図1は、本出願の一実施例による深層学習に基づく医用画像検出方法のフローチャートを概略的に示している。本出願の実施例にかかる深層学習に基づく医用画像検出方法は、例えば、端末装置、サーバ、サーバクラスタ、クラウドサーバなどの計算処理能力を備える任意の電子機器に設置され得るが、本出願はそれを限定せず、以下例を挙げて説明する場合に、本出願の実施例に記載の方法がクラウドサーバに実行されることを例にとして説明する。
図1に示すように、本出願の実施例にかかる深層学習に基づく医用画像検出方法は以下のステップを含んでもよい。
ステップS110において、複数枚のスライスマップを含む検出すべき医用画像を取得する。
本出願の実施例において、前記検出すべき医用画像は、関心領域(例えば、ターゲット器官、ターゲット部位など)を含むCT画像であってもよく、CT画像は、複数の連続しているスライス(slice)を含んでもよい。以下の画像処理を行う過程で、CT画像における複数枚のスライスマップ、例えば、前後に隣接する任意の3つのスライスマップを選択してもよい(以下の例では、それぞれ、第1のスライス、第2のスライス、第3のスライスと呼ばれる)が、本出願はこれに限定されず、必要される精度及び提供される演算力に応じて適切な数のスライスマップを選択することができる。本出願の実施形態にかかる技術案は、任意の3次元医用画像に適用することができ、以下の実施例では、CT画像を例にして説明する。
なお、本出願の実施例にかかる技術案において、ディープニューラルネットワークモデルは、通常、単一のスライスマップを処理単位として処理するので、この実施例において、ステップS120~S150は、単一のスライスマップを処理単位として、ディープニューラルネットワークモデルの処理プロセスを説明する。
実際のアプリケーションでは、当該ディープニューラルネットワークモデルは、複数回検出すべき医用画像に含まれる複数枚のスライス画像を逐一に処理することができ、当該ディープニューラルネットワークモデルは、当該検出すべき医用画像に含まれる複数枚のスライス画像を一括に並行して処理こともできることが理解されたいが、ここでディープニューラルネットワークモデルの処理能力についていかなる制限もしない。
ステップS120において、前記検出すべき医用画像における各スライスマップに対して、ディープニューラルネットワークによりスライスマップのN枚の基本特徴マップを抽出する。なお、Nは1以上の整数である。
本出願の実施例において、前記ディープニューラルネットワークは特徴抽出ネットワークを含んでもよく、当該特徴抽出ネットワークは、スライスマップに対して、異なる情報を含む低層特徴マップ及び高層特徴マップを、上記の基本特徴マップとして抽出することができる。
なお、Nは、5であってもよいがが、本出願では限定されない。特徴抽出ネットワークの構造に応じてNの値を確定することができる。
ステップS130において、前記検出すべき医用画像における各スライスマップに対して、ディープニューラルネットワークによりスライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM枚の拡張特徴マップを取得する。なお、Mは1以上の整数である。
例えば、Mは、3であってよいが、本出願では限定されない。Nの値取り及び具体的なニーズに応じてMの値を確定することができる。
例示的な実施例において、スライスマップのN枚の基本特徴マップはA枚の低層特徴マップ及びB枚の高層特徴マップを含んでもよく、なお、AとBの両方は1よりも大きい整数である。この場合、スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM枚の拡張特徴マップを取得することは、
当該スライスマップのi枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップのj枚目の高層特徴マップに対してアップサンプリング処理を行い、i枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、j枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップのk枚目の拡張特徴マップを取得することを含んでもよい。
なお、1≦i<A、1<j≦B、1<k≦M、且つi、j、kは整数である。
例示的な実施例において、スライスマップのN枚の基本特徴マップA枚の低層特徴マップ及びB枚の高層特徴マップを含んでもよい。なお、AとBの両方は1よりも大きい整数である。この場合、当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM枚の拡張特徴マップを取得することは、
当該スライスマップのA枚目の低層特徴マップに対して畳み込み処理を行って、当該スライスマップの1枚目の高層特徴マップを、1枚目の拡張特徴マップとして取得することを含んでもよい。
例示的な実施例において、上記のA=3、B=3、M=3の場合、当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM枚の拡張特徴マップを取得することは、
当該スライスマップの3枚目の低層特徴マップに対して畳み込み処理を行って、当該スライスマップの1枚目の高層特徴マップを、1枚目の拡張特徴マップとして取得し、
当該スライスマップの2枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップの1枚目の高層特徴マップに対してアップサンプリング処理を行い、2枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、1枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップ の2枚目の高層特徴マップを、2枚目の拡張特徴マップとして取得し、
当該スライスマップの1枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップの2枚目の高層特徴マップに対してアップサンプリング処理を行い、1枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、2枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップの3枚目の高層特徴マップを、3枚目の拡張特徴マップとして取得することを含んでもよい。
ステップS140において、前記検出すべき医用画像における各スライスマップに対して、ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行して、各拡張特徴マップの重畳特徴マップを生成する。
例示的な実施例において、ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行して、各拡張特徴マップの重畳特徴マップを生成することは、
M枚の拡張特徴マップのそれぞれに対して、K個の膨張畳み込み層により当該拡張特徴マップをそれぞれ処理して、当該拡張特徴マップのK枚の膨張特徴マップを取得し、Kは1よりも大きい整数であり、
M枚の拡張特徴マップのそれぞれに対して、通常の畳み込み層により当該拡張特徴マップを処理して、当該拡張特徴マップの畳み込み特徴マップを取得し、
M枚の拡張特徴マップのそれぞれに対して、当該拡張特徴マップのK枚の膨張特徴マップ及び畳み込み特徴マップに基づいて、当該拡張特徴マップの重畳特徴マップを取得することを含んでもよい。
例えば、Kは、3であってもよいが、本出願では限定されず、具体的に適用シナリオに応じて選択することができる。
例示的な実施例において、当該拡張特徴マップのK枚の膨張特徴マップ及び畳み込み特徴マップに基づいて、当該拡張特徴マップの重畳特徴マップを取得することは、
当該拡張特徴マップのK枚の膨張特徴マップと畳み込み特徴マップとを結合することにより、当該拡張特徴マップのカスケード特徴マップを取得し、
当該拡張特徴マップのカスケード特徴マップに基づいて、K個の膨張畳み込み層及び通常の畳み込み層それぞれの重みを取得し、
当該拡張特徴マップのK枚の膨張特徴マップ、及び畳み込み特徴マップ、K個の膨張畳み込み層及び通常の畳み込み層それぞれの重みに基づいて、当該拡張特徴マップの重畳特徴マップを取得することを含んでもよい。
例示的な実施例において、K個の膨張畳み込み層の受容野が異なる。
例示的な実施例において、K個の膨張畳み込み層の畳み込みカーネルパラメータが共有され(即ち、パラメータの一貫性を保つ)、パラメータ量を削減し、過剰フィッティングをある程度回避することができ、トレーニング速度と予測速度を向上させる。
本出願の実施例において、前記隣接する複数枚のスライスマップうちの他のスライスマップについては、第1~第3の重畳特徴マップを取得する処理プロセスが、第1のスライスマップと同様であるため、上記のプロセスを参照すればよい。
ステップS150において、ディープニューラルネットワークにより前記検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測する。
例示的な実施例において、検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、検出すべき医用画像における関心領域位置情報及びその信頼度を予測することは、
検出すべき医用画像における各スライスマップの重畳特徴マップを処理して、検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得し、
初期関心領域位置情報及びその初期信頼度を処理して、検出すべき医用画像の関心領域位置情報及びその信頼度を取得することを含んでもよい。
例示的な実施例において、重畳特徴マップを処理し、検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得することは、
検出すべき医用画像における各スライスマップのd枚目の重畳特徴マップに基づいてd枚目の深層特徴マップを取得し、dは1以上且つM以下の整数であり
M枚の深層特徴マップを仮分類して、検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得することを含んでもよい。
本出願の実施例において、前記ディープニューラルネットワークは特徴融合ネットワーク、階層的な膨張畳み込みネットワーク、仮分類ネットワーク及び予測ネットワークを含んでもよい。前記特徴融合ネットワークは、前記検出すべき医用画像におけるスライスマップの低層特徴及び高層特徴を融合するために使用されてもよい。これにより、検出すべき医用画像におけるビッグターゲット及びスモールターゲットをよく検出することができる。前記階層的な膨張畳み込みネットワークは、低層特徴と高層特徴とを融合して得られた特徴に対して階層的な膨張畳み込み操作を実行して、前記検出すべき医用画像におけるスライスマップの関心領域の周辺情報をキャップすることにより、より正確に関心領域を検出することに寄与することができる。
本出願の実施例において、前記特徴融合ネットワーク及び前記階層的な膨張畳み込みネットワークは、前記ディープニューラルネットワークの基本ネットワークとしてもよい。前記ディープニューラルネットワークの高層ネットワークは、改善されたFPNネットワークを検出ネットワークとして採用できる。FPNネットワークはRPNネットワーク及びRCNNネットワークを含んでもよく、前記仮分類ネットワークは、RPNネットワークであってもよく、前記予測ネットワークはRCNNネットワークであってもよいが、本出願では限定されず、上記の特徴融合ネットワーク及び階層的な膨張畳み込みネットワークによって特徴抽出が行われた後、1つの新しい特徴マップを取得し、そしてこの新しい特徴マップをRPNネットワークに入力して仮分類すると、RPNネットワークを利用して当該新しい特徴マップに予め設けられたた検出ボックスを二項分類(関心領域に該当するかどうかの区別)及び位置回帰を行って、初期関心領域位置情報及びその初期信頼度を取得し、その後、RPNネットワークが、当該初期関心領域位置情報及びその初期信頼度をRCNNネットワークに入力し、第2段階のより精確なカテゴリ分類及び位置回帰を行って、最終的な予測結果を取得して、最後の関心領域位置情報及びその信頼度を取得してもよい。
例示的な実施例において、前記方法は、トレーニングデータセットを取得し、トレーニングデータセットは、関心領域位置情報及びその信頼度がラベリングされた医用画像を含み、医用画像における関心領域位置情報及びその信頼度がラベリングされた1枚のスライスマップ、及びそれに上下隣接する2枚のスライスマップを取得し、医用画像における関心領域位置情報及びその信頼度がラベリングされた1枚のスライスマップ、及びそれに上下隣接する2枚のスライスマップにより、ディープニューラルネットワークをトレーニングすることをさらに含んでもよい。
例えば、CT画像を例にすると、前記トレーニングデータセットを確立するには、NIHCC(NationalInstitutesofHealthClinicalCenter)によりオープンされたDeepLesionデータセットを前記トレーニングデータセットとして使用できるが、本出願はそれに限定されない。本出願の実施例にかかるディープニューラルネットワークを利用すると、CT画像中の真の関心領域(例えば、病変領域)及びその信頼度がラベリングされた1枚のsliceと、上下隣接する2枚のsliceのみを採用でき、即ち、トレーニングデータセットにおける各CT画像の3枚のsliceのみを利用して(通常、一人の患者のある部位に対して一括に採集されたスライスの数は3をはるかに超える)ディープニューラルネットワークのトレーニングを行い、トレーニング済みディープニューラルネットワークは、大小の関心領域ターゲットを高精度で同時に検出し、冗長情報を減らし、計算量とデータ処理量を削減する。
本出願の実施形態にかかる深層学習に基づく医用画像検出方法によれば、隣接する複数枚のスライスマップを含む検出すべき医用画像を取得し、ディープニューラルネットワークにより当該検出すべき医用画像における各スライスマップを処理することで、当該検出すべき医用画像における3次元情報を利用して当該検出すべき医用画像における関心領域位置情報及びその信頼度を自動的に予測し、予測結果の信頼性を向上させることができる一方、当該検出すべき医用画像における各スライスマップの異なる層の基本特徴マップを融合して拡張特徴マップを取得してもよい。つまり、当該検出すべき医用画像における低層特徴と高層特徴と融合することができ、低層特徴は当該検出すべき医用画像における小スケールターゲットを検出することに寄与するので、低層特徴と高層特徴とを融合すると、当該検出すべき医用画像における異なるスケールのターゲットを良く検出することができる。また、融合された拡張特徴マップに対して階層的な膨張畳み込み操作を実行することにより、当該検出すべき医用画像における関心領域の周辺情報をキャプチャすることができ、当該周辺情報に応じて、実際の関心領域(例えば、被疑病変の領域)であるかどうかを判断することを支援し、より正確なターゲット検出に役立つことができる。
本出願の実施例において、前記特徴抽出ネットワークはResNet、MobileNet、DenseNetなどのいずれか一つ又は複数の組み合わせを前記ディープニューラルネットワークの基本特徴抽出ネットワークとして採用することができる。ResNetは残差結合(residualconnection)及びバッチノーマライゼーション(batchnormalization、BN)を採用するため、ディープモデルのトレーニングを比較的に容易にし、以下の実施例において、ResNet50を前記特徴抽出ネットワークとすることを例にとって説明するが、本出願は実際にそれに限定されない。
本出願の実施例において、ResNet50のモデルの模式図は表1に示す。各畳み込み層の後に正規化線形ユニット(RectifiedLinearUnit、ReLU)層及びBatchNormalization層が結合されている。

Figure 2022518446000002
図2は、本出願の一実施例によるResnet50ネットワークにおける1つのブロックの構成模式図を概略的に示している。ここで、ResNet50の第2の畳み込み層を例にすると、ブロック(block)の構成を説明する。他の畳み込み層のblock構成は図2を参照すればよい。
図3は、本出願の一実施例による改善されたFPNネットワークの構成模式図を概略的に示している。図3は改善されたFPNネットワーク構成を提供する。
図3に示すように、本出願の実施例とFaster-RCNNとの相違は、RPNネットワークの仮分類を行う前に、FPNネットワークは、低層特徴と高層特徴とが融合された。
(1)ボトムアップの特徴抽出ネットワークであり、例えば、ResNet50ネットワークを使用して特徴を抽出する。
(2)トップダウンの特徴拡張パスであり、ResNet50により抽出された現在の層特徴は、1×1畳み込みによって次元削減され、及び高層特徴が2倍のアップサンプリングが行われた後、直接に加算し特徴融合を行う。低層特徴は、スモールターゲットの検出に寄与するため、低層特徴と高層特徴とを融合することにより、ターゲットをより検出することができる。なお、低層特徴セマンティック情報は比較的少ないが、ターゲットの位置が正確であり、高層の特徴セマンティック情報は比較的豊富であるが、ターゲットの位置は比較的粗いため、融合された特徴を採用して予測すると、マルチスケールのターゲット情報をキャプチャすることに役立つ。
また、医用画像における関心領域(例えば、ターゲット器官領域、被疑病変領域)の特殊性のため、周辺の情報に応じて関心領域であるかどうかを判断する必要があり、従って、本出願の実施例は、FPN構造に階層的な膨張畳み込み(hierarchicallydilatedconvolutions、HDC)操作(例えば、図3中のHDC1、HDC2、HDC3であるが、本出願では限定されず、HDCの数は具体的な適用シナリオによる)をさらに追加し、featuremapの周辺のさまざまなサイズの情報をキャプチャし、それにより、病変をより正確に検出することに役立ち、各HDCの構成は、例えば、図4に示す。
図4は、本出願の一実施例による特徴融合ネットワーク及び階層的な膨張畳み込みネットワークの構成模式図を概略的に示している。
図4に示すように、ResNet50の第1~第5の畳み込み層はボトムアップのパスを生成し、検出すべき医用画像における各スライスマップの第1~第5の基本特徴マップ(図4中の(11)~(15))を形成し、トップダウンのパスをさらに含む。ボトムアップのパスとトップダウンのパスとの間に横方向の接合(lateralconnection)があり、ここで、1*1の畳み込みカーネルを横方向に結合するは、畳み込みカーネルの数を削減することを主な役割とし、つまり、featuremapの数を削減するが、featuremapのサイズが変わらない。
ボトムアップは、ネットワークのフォワードプロセスである。フォワードプロセスにおいて、featuremapのサイズは幾つかの層を通じた後に変わることがあり、他の幾つかの層を通過した際に変わらず、featuremapのサイズが変わらない層を1つのstageに分類するので、毎回抽出される特徴は各stageの最後の層によって出力され、このように、特徴ピラミッドを構成する。
トップダウンのプロセスはアップサンプリング(upsampling)を採用して行われ、横方向の結合は、アップサンプリングの結果と、ボトムアップにより生成される同一のサイズであるfeaturemapとを融合(merge)することである。なお、融合後、さらに、3*3の畳み込みカーネルを採用して各融合結果を畳み込むこともでき(図4に図示せず)、目的は、アップサンプリングのエイリアシング効果(aliasingeffect)を除去することである。ここで、生成されたfeaturemap結果である第1の拡張特徴マップ(21)、第2の拡張特徴マップ(22)、第3の拡張特徴マップ(23)は、元のボトムアップの畳み込み結果である第5の基本特徴マップ(15)、第3の基本特徴マップ(13)、第1の基本特徴マップ(11)と1対1で対応するとする。
引き続き図4を参照して、第1のスライスマップを例にとって、他のスライスマップの処理方式も同様である。前記第1のスライスマップの第1の拡張特徴マップ(21)はHDC1の第1の膨張畳み込み層、第2の膨張畳み込み層及び第3の膨張畳み込み層を通じた後、第1の膨張特徴マップ(31)、第2の膨張特徴マップ(32)及び第3の膨張特徴マップ(33)をそれぞれ形成し、前記第1のスライスマップの第1の拡張特徴マップ(21)は、また、HDC1の1つの通常の畳み込み層(例えば1×1畳み込み)を通じた後に、第1の畳み込み特徴マップ(34)を生成し、前記第1のスライスマップの第1~第3の膨張特徴マップ及び第1の畳み込み特徴マップを結合した後(concat)、第1のカスケード特徴マップ(41)を生成し、HDC1がそれぞれ第1~第3の膨張畳み込み層及び通常の畳み込み層に割り当てる重みを取得し、相応する重みと、前記第1のスライスマップの第1~第3の膨張特徴マップ及び第1の畳み込み特徴マップとをそれぞれ乗算した後累積し第1の累積特徴マップ(51) を取得し、例えば、HDC1の第1~第3の膨張畳み込み層及び通常の畳み込み層それぞれの重みがそれぞれa1~a4であると仮定すると、第1の累積特徴マップ(51)=a1×第1の膨張特徴マップ(31)+a2×第2の膨張特徴マップ(32)+a3×第3の膨張特徴マップ(33)+a4×第1の畳み込み特徴マップ(34)となり、その後、第1の累積特徴マップ(51)と第1の拡張特徴マップ(21)とベクトル加算し、さらに、1×1である1つの畳み込みを通じて次元削減し第1の重畳特徴マップ(61) を取得し、パラメータ削減の目的を達成する。
同様に、第1のスライスマップの第2の拡張特徴マップ(22)はHDC2の第1の膨張畳み込み層、第2の膨張畳み込み層及び第3の膨張畳み込み層を通じた後に、第5の膨張特徴マップ(35)、第6の膨張特徴マップ(36)及び第7の膨張特徴マップ(37)をそれぞれ生成し、前記第1のスライスマップの第2の拡張特徴マップ(22)は、また、HDC2の1つの通常の畳み込み層(例えば1×1畳み込み)を通じた後、第2の畳み込み特徴マップ(38)を生成し、前記第1のスライスマップの第5の膨張特徴マップ(35)、第6の膨張特徴マップ(36)、第7の膨張特徴マップ(37)及び第2の畳み込み特徴マップ(38)を結合した後に(concat)、第2のカスケード特徴マップ(42)を生成し、HDC2がそれぞれ第1~第3の膨張畳み込み層及び通常の畳み込み層に割り当てる重みを取得し、相応する重みと、前記第1のスライスマップの第5の膨張特徴マップ(35)、第6の膨張特徴マップ(36)、第7の膨張特徴マップ(37)及び第2の畳み込み特徴マップ(38)とをそれぞれ乗算した後に累積し第2の累積特徴マップ(52) を取得し、例えば、HDC2の第1~第3の膨張畳み込み層及び通常の畳み込み層それぞれの重みがそれぞれb1~b4である仮定すると、第2の累積特徴マップ(52)=b1×第5の膨張特徴マップ(35)+b2×第6の膨張特徴マップ(36)+b3×第7の膨張特徴マップ(37)+b4×第2の畳み込み特徴マップ(38)となり、その後、第2の累積特徴マップ(52)と第2の拡張特徴マップ(22)とを加算して、さらに、1×1である1つの畳み込みを通じて次元削減し第2の重畳特徴マップ(62) を取得し、パラメータ削減の目的を達成する。
前記第1のスライスマップの第3の拡張特徴マップ(23)は、それそれ、HDC3の第1の膨張畳み込み層、第2の膨張畳み込み層及び第3の膨張畳み込み層を通じた後、第9の膨張特徴マップ(39)、第10の膨張特徴マップ(310)及び第11の膨張特徴マップ(311)をそれぞれ生成し、前記第1のスライスマップの第3の拡張特徴マップ(23)は、さらに、HDC3の1つの通常の畳み込み層(例えば、1×1畳み込み)を通じた後に、第3の畳み込み特徴マップ(312)を生成し、前記第1のスライスマップの第9の膨張特徴マップ(39)、第10の膨張特徴マップ(310)、第11の膨張特徴マップ(311)及び第3の畳み込み特徴マップ(312)を結合した後(concat)、第3のカスケード特徴マップ(43)を生成し、HDC3がそれぞれ第1~第3の膨張畳み込み層及び通常の畳み込み層に割り当てるである重みを取得し、相応する重みと、前記第1のスライスマップの第9の膨張特徴マップ(39)、第10の膨張特徴マップ(310)、第11の膨張特徴マップ(311)及び第3の畳み込み特徴マップ(312)とをそれぞれ乗算した後に累積し第3の累積特徴マップ(53) を取得し、例えば、HDC3の第1~第3の膨張畳み込み層及び通常の畳み込み層それぞれの重みがそれぞれc1~c4であると仮定すると、第3の累積特徴マップ(53)=c1×第9の膨張特徴マップ(39)+c2×第10の膨張特徴マップ(310)+c3×第11の膨張特徴マップ(311)+c4×第3の畳み込み特徴マップ(312)となり、その後、第3の累積特徴マップ(53)と第3の拡張特徴マップ(23)とを加算して、また、1つ1×1の畳み込みを通じて次元削減し第3の重畳特徴マップ(63) を取得し、パラメータ削減の目的を達成する。
図5は、本出願の一実施例による階層的な膨張畳み込みネットワークの構成模式図を概略的に示している。図5中の共有パラメータ(Shareweight)は、第1~第3の膨張畳み込み層の畳み込みカーネルパラメータが共有されることを代表する。
図5は、階層的な膨張畳み込み構成の1つの実例を示し、本出願の実施例において、第1層から第3層の膨張畳み込みの構成は同じであると仮定するため、ここでそのうちの1つだけを例とする。低層特徴と高層特徴とが融合された後、1つの深層特徴マップを取得し、例えば、第1のスライスマップの第1の拡張特徴マップ(21)であると仮定し、他の拡張特徴マップの処理は同様である。第1の拡張特徴マップ(21)を、1×1である1つの通常の畳み込み層、及び3×3サイズである三つの膨張畳み込み層(即ち、第1~第3の膨張畳み込み層)を通じる。膨張畳み込みは、畳み込みカーネルに膨張を追加して受容野を拡大する。受容野は、指数関数的に増加するものである。膨張畳み込みはパラメータの量を増加させず、トレーニングなしで、追加のポイントによって与えられる重みは0である。
ここで、CT画像におけるスライスマップの異なるスケールの情報をキャプチャするために、異なる膨張畳み込み層の受容野が異なる。その後、四つの結果(例えば、第1の膨張特徴マップ(31)、第2の膨張特徴マップ(32)、第3の膨張特徴マップ(33)及び第1の畳み込み特徴マップ(34))を結合して、1つ新しいカスケード特徴マップ(例えば、第1のカスケード特徴マップ(41))を取得し、この新しいカスケード特徴マップは三つの異なる受容野 (Receptivefield)の周辺情報を含む。
膨張畳み込みとは、畳み込みカーネルに膨張(即ち、0)を注入し、注入された膨張の数はパラメータdilation(図中にdと略書きされる)から定められる。例えば、d=1、畳み込みカーネルの受容野が3×3、d=2、畳み込みカーネルの受容野が7×7、d=3、畳み込みカーネルの受容野が11×11である。
受容野が異なれば、関心領域の検出の重要度も異なるため、スモールターゲットに必要な受容野とビッグターゲットに必要な受容野とは異なる。従って、SEモジュール(SqueezeandExcitationmodule)を使用して対応する重みを自動的に学習する。SEモジュールを通じて、さまざまな目標に対するさまざまな受容野の重要性を学習することができる。最後に、パラメータを削減する目的を達成するために、1×1の畳み込みによって次元削減する。
上記の操作の後、前記第1のスライスマップの第1の重畳特徴マップと、前記第2のスライスマップの第1の重畳特徴マップと、前記第3のスライスマップの第1の重畳特徴マップとをベクトル加算して、1つの新しい第1の深層特徴マップを得ることができ、前記第1のスライスマップの第2の重畳特徴マップと、前記第2のスライスマップの第2の重畳特徴マップと、前記第3のスライスマップの第2の重畳特徴マップとをベクトル加算して、1つの新しい第2の深層特徴マップを得ることができ、前記第1のスライスマップの第3の重畳特徴マップと、前記第2のスライスマップの第3の重畳特徴マップと、前記第3のスライスマップの第3の重畳特徴マップとをベクトル加算して、1つの新しい第3の深層特徴マップを得ることができ、次に、これらの三つの新しい第1~第3の深層特徴マップをRPNネットワークに入力し仮分類し、その後、RCNNネットワークに入り最終的な予測を行うことにより、最後の病変位置情報及び信頼度を取得する。
本出願の実施例で提供される方法は、CT画像と類似する検出すべき医用画像について、それ特有の3次元情報を利用して、隣接する複数枚のスライスマップを、関心領域を検出するためのディープニューラルネットワークに入力し、ROI-poolingを行った後、複数のスライス情報を融合して新しい特徴マップを取得してから関心領域の位置情報を予測することができ、つまり、CT画像の3次元情報を利用すると予測結果の信頼性を向上させる。コンピュータ断層撮影で人体の部位を走査することで当該部位の3次元撮影画像を得ることができる。また、モデルをトレーニング及び予測する階段で、1つのCT画像の3枚のスライスマップをしか入力できないため、計算量が増えることはなく、冗長情報が多く導入されることもない。同時に、上記の方法は、CT画像病変検出に存在するマルチスケール問題も考慮され、つまり、異なる関心領域のスケールが大きく異なり、1mmから500mmの範囲である。明らかに、本出願の実施例で提供される深層ニューラルネットワークは、ビッグターゲットとスモールターゲットを同時に検出するCT画像について、より感度の高い情報抽出能力を有する。
本出願の実施例において、予めトレーニングデータセットを利用して前記ディープニューラルネットワークをトレーニングする。パラメータを初期化する場合に、ResNet50の第1~第5の畳み込み層は、ImageNetデータセット上で仮トレーニングされたResNet50のパラメータを採用でき、新たに追加された層は、分散が0.01、平均値が0であるガウス分布を採用して初期化することができる。
本出願の実施例において、モデルトレーニング中に、RPNネットワークにおいて、anchorとgt_BBoxesのIoU値が0.5よりも大きいものを正のサンプル、IoU値が0.3よりも小さいものを負のサンプルとし、数は48である。RCNNネットワークについて、proposalgt_BBoxesのIoU値が0.5よりも大きいものを正のサンプル、IoU値が0.4よりも小さいものを負のサンプルとし、ダウンサンプリングの数は48である。
本出願の実施例において、損失関数は2つの部分に分けることができる。一部は各検出ボックス内の物体の分類損失について、クロスエントロピー損失関数を採用し、他の部分は各検出ボックス位置の回帰損失について、平滑L1損失関数を採用する。
本出願の実施例において、SGD(stochasticgradientdescent)に基づく勾配降下法を採用してニューラルネットワークモデルの畳み込みテンプレートパラメータw及びバイアスのパラメータbを解くことができ、毎回の反復中で、予測結果誤差を計算し畳み込みニューラルネットワークモデルに逆伝播し、勾配を算出し畳み込みニューラルネットワーク モデルのパラメータを更新する。
図6は、本出願の一実施例による深層学習に基づく医用画像検出方法の模式図を概略的に示している。
図6は、本出願の実施例で提供される方法の使用流れを提供し、フロントエンドA(例えば、医用画像採集装置であってもよい)は、画像データ例えばCT画像を採集したと、CT画像における複数枚のCTスライスマップをバックエンドにアップロードすることができ、バックエンドは、上記の実施例で提供される深層学習に基づく医用画像検出方法を使用して、被疑病変の領域、及び相応する信頼度を診断情報として取得し、フロントエンドB(例えば、医師クライアント)に出力することができる。
図7は、本出願の実施例で提供される深層学習に基づく医用画像検出方法を適用する検出効果模式図を概略的に示している。
図7に示すように、(a)に示すCT画像を本出願の実施例における前記ディープニューラルネットワークに入力し、図(b)に示す検出結果を出力できる。
本出願の実施形態で提供される深層学習に基づく医用画像検出方法によれば、ディープニューラルネットワークは、改善されたFPN(FeaturePyramidNetwork、特徴ピラミッドネットワーク)を採用でき、ネットワークによるマルチスケール情報のキャプチャ能力を拡張でき、これにより、ネットワークによる異なるスケールの関心領域の検出能力を拡張できる一方、関連技術に比べて、関心領域検出正確率が近い場合に、本出願の実施例で提供される技術案は、当該ディープニューラルネットワークトレーニング階段でラベリング情報付きスライスマップ及びそれの上下にある二つのスライスマップ、即ち、各医用画像における全部の3つのスライスマップのみを使用し、高い検出正確率を有するモデルをトレーニングでき、多すぎる冗長情報を持ち込むことなく、医用画像における3次元情報を利用でき、トレーニングプロセス及び予測階段のデータ処理量を削減し、演算の処理速度と効率を向上させ、医用画像における関心領域位置及びその信頼度をより速く検出するのに役立つ。同時に、当該深層学習に基づく医用画像検出方法はマルチスケールのCT画像検出に適用し、医師によるCT画像の被疑病変領域の検出を支援するために用いられ、様々な病院、地域リハビリテーションセンターなどに配置され、診断時間を短縮し、医師の負担を軽減し、医師の作業効率を向上させるために医師を支援することができる。
本出願の実施例の他の内容及び具体的な実現は、上記の実施例を参照すればよいが、ここで再度説明されない。
図8は、本出願の一実施例による深層学習に基づく医用画像検出装置のブロック図を概略的に示している。本出願の実施例で提供される深層学習に基づく医用画像検出装置は、例えば、端末装置、サーバ、サーバクラスタ、クラウドサーバなどの計算処理能力を備える任意の電子機器に設置され得るが、本出願はそれを限定せず、以下例を挙げて説明する場合に、本出願の実施例に記載の装置がクラウドサーバに設置され実行することを例にとって説明する。
図8に示すように、本出願の実施例で提供される深層学習に基づく医用画像検出装置800は、画像取得モジュール810と、特徴抽出モジュール820と、特徴融合モジュール830と、膨張畳み込みモジュール840と、関心領域予測モジュール850とを含むことができる。
画像取得モジュール810は、検出すべき医用画像を取得し、前記検出すべき医用画像は複数枚のスライスマップを含むように配置されてもよい。
特徴抽出モジュール820は、前記検出すべき医用画像における各スライスマップに対して、ディープニューラルネットワークにより当該スライスマップを取得するN枚の基本特徴マップを抽出し、Nは1よりも大きい整数であるように配置されてもよい。
特徴融合モジュール830は、前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM枚の拡張特徴マップを取得し、Mは1よりも大きい整数であるように配置されてもよい。
膨張畳み込みモジュール840は、前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行して、当該スライスマップの各拡張特徴マップの重畳特徴マップを生成するように配置されてもよい。
関心領域予測モジュール850は、前記ディープニューラルネットワークにより、前記前記検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測するように配置されてもよい。
例示的な実施例において、前記N枚の基本特徴マップはA枚の低層特徴マップ及びB枚の高層特徴マップを含み、前記AとBの両方は1よりも大きい整数である。特徴融合モジュール830は、
当該スライスマップのi枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップのj枚目の高層特徴マップに対してアップサンプリング処理を行い、前記i枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、j枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップのk番目の拡張特徴マップを取得するように配置されてもよく、
1≦i<A、1<j≦B、1<k≦M、且つi、j、kは整数である。
例示的な実施例において、前記N枚の基本特徴マップはA枚の低層特徴マップ及びB枚の高層特徴マップを含み、前記AとBの両方はは1よりも大きい整数であり、特徴融合モジュール830は、
当該スライスマップのA枚目の低層特徴マップに対して畳み込み処理を行って、当該スライスマップの1枚目の高層特徴マップを、1枚目の拡張特徴マップとして取得するように配置されてもよい。
例示的な実施例において、前記A=3、前記B=3、前記M=3の場合、特徴融合モジュール830は、
当該スライスマップの3枚目の低層特徴マップに対して畳み込み処理を行って、当該スライスマップの1枚目の高層特徴マップを、1枚目の拡張特徴マップとして取得し、
当該スライスマップの2枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップの1枚目の高層特徴マップに対してアップサンプリング処理を行い、2枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、1枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップの2枚目の高層特徴マップを、2枚目の拡張特徴マップとして取得し、
当該スライスマップの1枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップの2枚目の高層特徴マップに対してアップサンプリング処理を行い、1枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、2枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップの3枚目の高層特徴マップを、3枚目の拡張特徴マップとして取得するように配置されてもよい。
例示的な実施例において、膨張畳み込みモジュール840は、
前記M枚の拡張特徴マップのそれぞれについて、K個の膨張畳み込み層により、当該拡張特徴マップをそれぞれ処理して、当該拡張特徴マップのK枚の膨張特徴マップを取得し、前記Kは1よりも大きい整数であるように配置される膨張特徴取得ユニットと、
前記M枚の拡張特徴マップのそれぞれについて、通常の畳み込み層により当該拡張特徴マップを処理して、当該拡張特徴マップの畳み込み特徴マップを取得するように配置される畳み込み特徴取得ユニットと、
前記M枚の拡張特徴マップのそれぞれに対して、当該拡張特徴マップのK枚の膨張特徴マップ及び畳み込み特徴マップに基づいて、当該拡張特徴マップの重畳特徴マップを取得するように配置される重畳特徴取得ユニットとを含んでもよい。
例示的な実施例において、前記重畳特徴取得ユニットは、
当該拡張特徴マップのK枚の膨張特徴マップと畳み込み特徴マップとを結合して、当該拡張特徴マップのカスケード特徴マップを取得し、
当該拡張特徴マップのカスケード特徴マップに基づいて、K個の膨張畳み込み層及び通常の畳み込み層それぞれの重みを取得し、
当該拡張特徴マップのK枚の膨張特徴マップ及び畳み込み特徴マップ、K個の膨張畳み込み層及び通常の畳み込み層それぞれの重みに基づいて、当該拡張特徴マップの重畳特徴マップを取得するように配置されてもよい。
例示的な実施例において、K個の膨張畳み込み層の受容野が異なる。
例示的な実施例において、K個の膨張畳み込み層の畳み込みカーネルパラメータが共有される。
例示的な実施例において、関心領域予測モジュール840は、
前記検出すべき医用画像における各スライスマップの重畳特徴マップを処理して、前記検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得するように配置されることができる仮分類ユニットと、
前記初期関心領域位置情報及びその初期信頼度を処理して、前記検出すべき医用画像の関心領域位置情報及びその信頼度を取得するように配置されることができる関心領域予測ユニットとを含んでもよい。
例示的な実施例において、前記仮分類ユニットは、
前記検出すべき医用画像における各スライスマップのd枚目の重畳特徴マップに応じて、d枚の深層特徴マップを取得し、前記dは1以上且つM以下の整数であり、
M枚の深層特徴マップを仮分類し、前記検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得するように配置されることができる。
例示的な実施例において、深層学習に基づく医用画像検出装置800は、
トレーニングデータセットを取得し、前記トレーニングデータセットは、関心領域位置情報及びその信頼度がラベリングされた医用画像を含むように配置されるトレーニングセット取得モジュールと、
前記医用画像における関心領域位置情報及びその信頼度がラベリングされた1枚のスライスマップ、及びそれに上下隣接する2枚のスライスマップを取得するように配置されるスライスマップ取得モジュールと、
前記医用画像における関心領域位置情報及びその信頼度がラベリングされた1枚のスライスマップ、及びそれに上下隣接する2枚のスライスマップにより、前記ディープニューラルネットワークをトレーニングするように配置されるモデルトレーニングモジュールとをさらに含む。
例示的な実施例において、前記検出すべき医用画像はCT画像を含んでもよい。
本出願の例示的な実施例の深層学習に基づく医用画像検出装置800の各機能モジュールは、上記の深層学習に基づく医用画像検出方法の例示的な実施例のステップに対応するので、ここで重複説明が省略される。
本出願の例示的な実施例において、上記の方法を実現できる電子機器をさらに提供する。
次に、本出願の実施例を実現するための電子機器のコンピュータシステムの概略構成図が示されている図9を参照する。図9に示す電子機器のコンピュータシステムは一例にすぎず、本出願の実施例の機能及び使用範囲にはいかなる制限も与えられない。
図9に示すように、コンピュータシステム900は、読み出し専用メモリ(ROM)902に記憶されているプログラム又は記憶部908からランダムアクセスメモリ(RAM)903にロードされたプログラムに基づいて様々な適当な動作及び処理を実行することができる中央処理装置(CPU)901を備える。RAM903には、システム900の操作に必要な様々なプログラム及びデータがさらに記憶されている。CPU901、ROM902及びRAM903は、バス904を介して互いに接続されている。入力/出力(I/O)インターフェース905もバス904に接続されている。
キーボード、マウスなどを含む入力部906、陰極線管(CRT)、液晶ディスプレイ(LCD)など、及びスピーカなどを含む出力部907、ハードディスクなどを含む記憶部908、及びLANカード、モデムなどを含むネットワークインターフェースカードの通信部909は、I/Oインターフェース905に接続されている。通信部909は、例えばインターネットのようなネットワークを介して通信処理を実行する。ドライバ910は、必要に応じてI/Oインターフェース905に接続される。リムーバブル媒体911は、例えば、マグネチックディスク、光ディスク、光磁気ディスク、半導体メモリなどのようなものであり、必要に応じてドライバ910に取り付けられ、従って、ドライバ910から読み出されたコンピュータプログラムが必要に応じて記憶部908にインストールされる。
特に、本出願の実施例によれば、フローチャートを参照して上述したプロセスは、コンピュータソフトウェアプログラムとして実施されることが可能である。例えば、本出願の実施例は、フローチャートに示された方法を実行するためのプログラムコードを含む、コンピュータ読み取り可能な媒体上に担持されたコンピュータプログラム製品を含む。このような実施例では、コンピュータプログラムは、通信部909を介してネットワークからダウンロードされインストールされ及び/又はリムーバブル媒体911からインストールされたりすることができる。このコンピュータプログラムが中央処理ユニット(CPU)901によって実行されると、本出願の実施例のシステムに限定された上記機能が実行される。
本出願で示されたコンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体若しくはコンピュータ読み取り可能な記憶媒体、又はこれらの両者の任意の組み合わせであり得る。コンピュータ読み取り可能な記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、又は半導体のシステム、装置若しくはデバイス、又は以上の任意の組み合わせであり得るが、これらに限られない。コンピュータ読み取り可能な記憶媒体のより具体的な例は、1本又は複数本のリード線を有する電気的に接続された携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(RОM)、消去可能プログラマブル読取り専用メモリ(EPRОM又はフラッシュメモリ)、光ファイバ、携帯型コンパクトディスク読取り専用メモリ(CD-RОM)、光記憶装置、磁気記憶装置、又は上記の任意の適切な組み合わせを含むが、これらに限られない。本出願では、コンピュータ読み取り可能な記憶媒体は、命令実行システム、装置又はデバイスによって使用されることもそれらに結合して使用されることも可能なプログラムを含む又は記憶する任意の有形の媒体であり得る。本出願の実施形態では、コンピュータ読み取り可能な信号媒体は、ベースバンド内において又はキャリアの一部として伝播された、コンピュータ読み取り可能なプログラムコードを搬送しているデータ信号を含んでもよい。このような伝播されたデータ信号は、電磁信号、光信号、又は上述の任意の適切な組み合わせを含むが、これらに限られない様々な形態を採用することができる。コンピュータ読み取り可能な信号媒体はまた、コンピュータ読み取り可能な記憶媒体以外の任意のコンピュータ読み取り可能な媒体であってもよい。このコンピュータ読み取り可能な信号媒体は、命令実行システム、装置又はデバイスによって使用されることもそれらに結合して使用されることも可能なプログラムを送信、伝播又は伝送することができる。コンピュータ読み取り可能な媒体に含まれているプログラムコードは、無線、電線、光ケーブル、RF(無線周波数)など、又は上記の任意の適切な組み合わせを含むが、これらに限られない任意の適切な媒体で伝送することができる。
添付図面におけるフローチャート及びブロック図は、本出願の様々な実施例に係るシステム、方法、及びコンピュータプログラム製品の実施可能なアーキテクチャ、機能、及び動作を示している。ここで、フローチャート又はブロック図における各ブロックは、モジュール、プログラムセグメント、又はコードの一部を表すことができる。該モジュール、プログラムセグメント、又はコードの一部は、指定されたロジック関数を実施するための1つ又は複数の実行可能な命令を含む。また、いくつかの代替的な実施形態では、ブロックに記載されている機能は、図面に示されているものとは異なる順序で発生する場合があることにも留意されたい。例えば、連続して表されている2つのブロックは、実際にほぼ並行して実行されてもよく、時には逆の順序で実行されてもよい。これは関連する機能によって決まる。また、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、指定された機能
又は動作を実行する専用のハードウェアベースのシステムで実施することも、又は専用のハードウェアとコンピュータの命令の組み合わせで実施することも可能であることに留意されたい。
本出願の実施例において説明されたモジュール又はユニットは、ソフトウェア又はハードウェアによって実施され得る。説明されたモジュール又はユニットはプロセッサに設置されてもよい。ここで、これらのモジュール又はユニットの名称は、当該モジュール又はユニット自体に対する制限を構成しない場合がある。
別の態様として、本出願はさらにコンピュータ読み取り可能な媒体を提供し、当該コンピュータ読み取り可能な媒体は、上記の実施例で説明された電子機器に含まれるものであってもよく、個別に存在しており、当該電子機器に組み込まれていないものであってもよい。前記コンピュータ読み取り可能な媒体は、1つ又は複数のプログラムを記憶しており、前記1つ又は複数のプログラムが該電子機器によって実行されると、上記の実施例に記載の深層学習に基づく医用画像検出方法を当該電子機器に実現させる。
例えば、前記電子機器は図1に示すステップを実現することができ、即ち、ステップS110において、検出すべき医用画像を取得し、前記検出すべき医用画像は複数枚のスライスマップを含み、ステップS120において、前記検出すべき医用画像における各スライスマップについて、ディープニューラルネットワークにより当該スライスマップを取得するN枚の基本特徴マップを抽出し、前記Nは1よりも大きい整数であり、ステップS130において、前記検出すべき医用画像における各スライスマップについて、前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM枚の拡張特徴マップを取得し、前記Mは1よりも大きい整数であり、ステップS140において、前記検出すべき医用画像における各スライスマップについて、前記ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行して、当該スライスマップの各拡張特徴マップの重畳特徴マップを生成し、ステップS150において、前記ディープニューラルネットワークにより、前記検出すべき医用画像における各スライスマップの重畳特徴マップに応じて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測する。
注意すべきことであるが、上記の詳細な説明では、動作実行のためのデバイスのいくつかのモジュール又はユニットが言及されているが、このような区分は強制的なものではない。実際には、本出願の実施形態によれば、上記に記載された2つ以上のモジュール又はユニットの特徴と機能は1つのモジュール又はユニットで具体化されることができる。逆に、上記に記載された1つのモジュール又はユニットの特徴と機能はさらに複数のモジュール又はユニットによって具体化されるように区分されることができる。
以上の実施形態の説明によれば、当業者が容易に理解できるように、ここで説明された例示的な実施形態はソフトウェアにより実現されてもよいし、ソフトウェアを必要なハードウェアと組み合わせることで実現されてもよい。従って、本出願の実施形態による技術案は、ソフトウェア製品という態様で表されることができ、当該ソフトウェア製品は、不揮発性記憶媒体(CD-ROM、USBメモリ、リムーバブルハードディスク等であってもよい)又はネットワーク上に格納され、一台のコンピューティングデバイス(パソコン、サーバ、モバイル端末、又はネットワークデバイス等であってもよい)が本出願の実施形態による方法を実行できるように、いくつかの命令を含んでもよい。
当業者は、本明細書を考慮し、かつここで開示された発明を実施した後、本出願の他の実施案を容易に想到し得る。本出願は、本出願のいかなる変形、用途又は適応的な変化も含むことを意図しており、これらの変形、用途又は適応的な変化は、本出願の一般的な原理に従っており、本出願に開示されていない本分野の公知常識又は慣用の技術的手段を含む。本明細書及び実施例は例示的なものとみなされるだけであり、本出願の実際の範囲と趣旨は添付の特許請求の範囲によって指摘される。
なお、本出願は、以上に説明され、図面に示された精確な構造に限らず、その範囲を逸脱せずに各種の修正及び変更を行うことができる。本出願の範囲は、添付の特許請求の範囲のみによって制限される。
810 画像取得モジュール
820 特徴抽出モジュール
830 特徴融合モジュール
840 膨張畳み込みモジュール
850 関心領域予測モジュール
905 I/Oインターフェース
906 入力部
907 出力部
908 記憶部
909 通信部
910 ドライバ
911 リムーバブル媒体

Claims (26)

  1. 電子機器が実行する、深層学習に基づく医用画像検出方法であって、
    複数枚のスライスマップを含む、検出すべき医用画像を取得するステップと、
    前記検出すべき医用画像における各スライスマップに対して、ディープニューラルネットワークにより当該スライスマップのN(Nは1よりも大きい整数)枚の基本特徴マップを抽出するステップと、
    前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行うことにより、当該スライスマップのM(Mは1よりも大きい整数)枚の拡張特徴マップを取得するステップと、
    前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行することにより、当該スライスマップの各拡張特徴マップの重畳特徴マップを生成するステップと、
    前記ディープニューラルネットワークにより前記検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測するステップとを含む方法。
  2. 前記N枚の基本特徴マップは、A枚の低層特徴マップと、B枚の高層特徴マップとを含み、前記AとBの両方が1よりも大きい整数であり、
    前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行うことにより、当該スライスマップのM枚の拡張特徴マップを取得するステップは、
    当該スライスマップのi枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップのj枚目の高層特徴マップに対してアップサンプリング処理を行い、前記i枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、j枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップのk枚目の拡張特徴マップを取得するステップを含み、
    1≦i<A、1<j≦B、1<k≦M、且つi、j、kが整数である請求項1に記載の方法。
  3. 前記N枚の基本特徴マップは、A枚の低層特徴マップとB枚の高層特徴マップとを含み、前記AとBの両方が1よりも大きい整数であり、
    前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行うことにより、当該スライスマップのM枚の拡張特徴マップを取得するステップは、
    当該スライスマップのA枚目の低層特徴マップに対して畳み込み処理を行って、当該スライスマップの1枚目の高層特徴マップを、1枚目の拡張特徴マップとして取得することを含む請求項1に記載の方法。
  4. 前記A=3、前記B=3、前記M=3の場合、前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM枚の拡張特徴マップを取得するステップは、
    当該スライスマップの3枚目の低層特徴マップに対して畳み込み処理を行って、当該スライスマップの1枚目の高層特徴マップを、1枚目の拡張特徴マップとして取得するステップと、
    当該スライスマップの2枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップの1枚目の高層特徴マップに対してアップサンプリング処理を行い、2枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、1枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップの2枚目の高層特徴マップを、2枚目の拡張特徴マップとして取得するステップと、
    当該スライスマップの1枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップの2枚目の高層特徴マップに対してアップサンプリング処理を行い、1枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、2枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップの3枚目の高層特徴マップを、3枚目の拡張特徴マップとして取得するステップを含む請求項2又は3に記載の方法。
  5. 前記ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行して、各拡張特徴マップの重畳特徴マップを生成するステップは、
    前記M枚の拡張特徴マップのそれぞれに対して、K(Kは1よりも大きい整数)個の膨張畳み込み層により当該拡張特徴マップをそれぞれ処理することにより、当該拡張特徴マップのK枚の膨張特徴マップを取得するステップと
    前記M枚の拡張特徴マップのそれぞれに対して、通常の畳み込み層により当該拡張特徴マップを処理することにより、当該拡張特徴マップの畳み込み特徴マップを取得するステップと、
    前記M枚の拡張特徴マップのそれぞれに対して、当該拡張特徴マップのK枚の膨張特徴マップ及び畳み込み特徴マップに基づいて、当該拡張特徴マップの重畳特徴マップを取得するステップとを含む請求項1に記載の方法。
  6. 前記当該拡張特徴マップのK枚の膨張特徴マップ及び畳み込み特徴マップに基づいて、当該拡張特徴マップの重畳特徴マップを取得するステップは、
    当該拡張特徴マップのK枚の膨張特徴マップと畳み込み特徴マップとを結合して、当該拡張特徴マップのカスケード特徴マップを取得するステップと、
    当該拡張特徴マップのカスケード特徴マップに基づいて、K個の膨張畳み込み層及び通常の畳み込み層それぞれの重みを取得するステップと、
    当該拡張特徴マップのK枚の膨張特徴マップ、及び畳み込み特徴マップ、K個の膨張畳み込み層及び通常の畳み込み層それぞれの重みに基づいて、当該拡張特徴マップの重畳特徴マップを取得するステップとを含む請求項5に記載の方法。
  7. 前記K個の膨張畳み込み層の受容野が異なる請求項5又は6に記載の方法。
  8. 前記K個の膨張畳み込み層の畳み込みカーネルパラメータが共有される請求項5又は6に記載の方法。
  9. 前記ディープニューラルネットワークにより前記検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測するステップは、
    前記検出すべき医用画像における各スライスマップの重畳特徴マップを処理して、前記検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得するステップと、
    前記初期関心領域位置情報及びその初期信頼度を処理して、前記検出すべき医用画像の関心領域位置情報及びその信頼度を取得するステップとを含む請求項1に記載の方法。
  10. 前記重畳特徴マップを処理し、前記検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得するステップは、
    前記検出すべき医用画像における各スライスマップのd枚目の重畳特徴マップに基づいて、d(dは1以上且つM以下の整数)枚目の深層特徴マップを取得するステップと、
    M枚の深層特徴マップを仮分類して、前記検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得するステップとを含む請求項9に記載の方法。
  11. 関心領域位置情報及びその信頼度がラベリングされた医用画像を含む、トレーニングデータセットを取得するステップと、
    前記医用画像における関心領域位置情報及びその信頼度がラベリングされた1枚のスライスマップ、及びそれに上下隣接する2枚のスライスマップを取得するステップと、
    前記医用画像における関心領域位置情報及びその信頼度がラベリングされた1枚のスライスマップ、及びそれに上下隣接する2枚のスライスマップにより、前記ディープニューラルネットワークをトレーニングするステップとをさらに含む請求項1に記載の方法。
  12. 前記検出すべき医用画像はCT画像を含む請求項1に記載の方法。
  13. 深層学習に基づく医用画像検出装置であって、
    検出すべき医用画像を取得し、前記検出すべき医用画像は複数枚のスライスマップを含むように配置される画像取得モジュールと、
    前記検出すべき医用画像における各スライスマップに対して、ディープニューラルネットワークにより当該スライスマップのN(Nは1よりも大きい整数)枚の基本特徴マップを抽出するように配置される特徴抽出モジュールと、
    前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのN枚の基本特徴マップに対して特徴融合を行って、当該スライスマップのM(Mは1よりも大きい整数)枚の拡張特徴マップを取得するように配置される特徴融合モジュールと、
    前記検出すべき医用画像における各スライスマップに対して、前記ディープニューラルネットワークにより当該スライスマップのM枚の拡張特徴マップに対して階層的な膨張畳み込み操作をそれぞれ実行して、当該スライスマップの各拡張特徴マップの重畳特徴マップを生成するように配置される膨張畳み込みモジュールと、
    前記ディープニューラルネットワークにより、前記検出すべき医用画像における各スライスマップの重畳特徴マップに基づいて、前記検出すべき医用画像における関心領域位置情報及びその信頼度を予測するように配置される関心領域予測モジュールとを含む装置。
  14. 前記N枚の基本特徴マップはA枚の低層特徴マップ及びB枚の高層特徴マップを含み、前記AとBの両方は1よりも大きい整数であり、
    前記特徴融合モジュールは、具体的に、
    当該スライスマップのi枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップのj枚目の高層特徴マップに対してアップサンプリング処理を行い、前記i枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、j枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップのk番目の拡張特徴マップを取得するように配置されており、
    1≦i<A、1<j≦B、1<k≦M、且つi、j、kは整数である請求項13に記載の装置。
  15. 前記N枚の基本特徴マップはA枚の低層特徴マップ及びB枚の高層特徴マップを含み、前記AとBの両方は1よりも大きい整数であり、
    前記特徴融合モジュールは、具体的に、
    当該スライスマップのA枚目の低層特徴マップに対して畳み込み処理を行って、当該スライスマップの1枚目の高層特徴マップを、1枚目の拡張特徴マップとして取得するように配置される請求項13に記載の装置。
  16. 前記A=3、前記B=3、前記M=3の場合、前記特徴融合モジュールは、具体的に、
    当該スライスマップの3枚目の低層特徴マップに対して畳み込み処理を行って、当該スライスマップの1枚目の高層特徴マップを、1枚目の拡張特徴マップとして取得し、
    当該スライスマップの2枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップの1枚目の高層特徴マップに対してアップサンプリング処理を行い、2枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、1枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップの2枚目の高層特徴マップを、2枚目の拡張特徴マップとして取得し、
    当該スライスマップの1枚目の低層特徴マップに対して畳み込み処理を行い、当該スライスマップの2枚目の高層特徴マップに対してアップサンプリング処理を行い、1枚目の低層特徴マップに対して畳み込み処理を行って得られた特徴マップと、2枚目の高層特徴マップに対してアップサンプリング処理を行って得られた特徴マップとを加算することで、当該スライスマップの3枚目の高層特徴マップを、3枚目の拡張特徴マップとして取得するように配置される請求項14又は15に記載の装置。
  17. 前記膨張畳み込みモジュールは、
    前記M枚の拡張特徴マップのそれぞれに対して、K個の膨張畳み込み層により、当該拡張特徴マップをそれぞれ処理して、当該拡張特徴マップのK(Kは1よりも大きい整数)枚の膨張特徴マップを取得するように配置される膨張特徴取得ユニットと、
    前記M枚の拡張特徴マップのそれぞれに対して、通常の畳み込み層により当該拡張特徴マップを処理して、当該拡張特徴マップの畳み込み特徴マップを取得するように配置される畳み込み特徴取得ユニットと、
    前記M枚の拡張特徴マップのそれぞれに対して、当該拡張特徴マップのK枚の膨張特徴マップ及び畳み込み特徴マップに基づいて、当該拡張特徴マップの重畳特徴マップを取得するように配置される重畳特徴取得ユニットとを含む請求項13に記載の装置。
  18. 前記重畳特徴取得ユニットは、具体的に、
    当該拡張特徴マップのK枚の膨張特徴マップと畳み込み特徴マップとを結合して、当該拡張特徴マップのカスケード特徴マップを取得し、
    当該拡張特徴マップのカスケード特徴マップに基づいて、K個の膨張畳み込み層及び通常の畳み込み層それぞれの重みを取得し、
    当該拡張特徴マップのK枚の膨張特徴マップと畳み込み特徴マップ、K個の膨張畳み込み層および通常の畳み込み層それぞれの重みに基づいて、当該拡張特徴マップの重畳特徴マップを取得するように配置される請求項17に記載の装置。
  19. 前記K個の膨張畳み込み層の受容野が異なる請求項17又は18に記載の装置。
  20. 前記K個の膨張畳み込み層の畳み込みカーネルパラメータが共有される請求項17又は18に記載の装置。
  21. 前記関心領域予測モジュールは、
    前記検出すべき医用画像における各スライスマップの重畳特徴マップを処理して、前記検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得するように配置される仮分類ユニットと、
    前記初期関心領域位置情報及びその初期信頼度を処理して、前記検出すべき医用画像の関心領域位置情報及びその信頼度を取得するように配置される関心領域予測ユニットとを含む請求項13に記載の装置。
  22. 前記仮分類ユニットは、具体的に、
    前記検出すべき医用画像における各スライスマップのd枚目の重畳特徴マップに基づいて、d(dは1以上且つM以下の整数)枚の深層特徴マップを取得し、
    M枚の深層特徴マップを仮分類し、前記検出すべき医用画像の初期関心領域位置情報及びその初期信頼度を取得するように配置される請求項21に記載の装置。
  23. 関心領域位置情報及びその信頼度がラベリングされた医用画像を含むトレーニングデータセットを取得するように配置されるトレーニングセット取得モジュールと、
    前記医用画像における関心領域位置情報及びその信頼度がラベリングされた1枚のスライスマップ、及びそれに上下隣接する2枚のスライスマップを取得するように配置されるスライスマップ取得モジュールと、
    前記医用画像における関心領域位置情報及びその信頼度がラベリングされた1枚のスライスマップ、及びそれに上下隣接する2枚のスライスマップにより、前記ディープニューラルネットワークをトレーニングするように配置されるモデルトレーニングモジュールとをさらに含む請求項13に記載の装置。
  24. コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体であって、前記コンピュータプログラムがプロセッサによって実行されると、請求項1~12のいずれか一項に記載の深層学習に基づく医用画像検出方法を実現させるコンピュータ読み取り可能な媒体。
  25. 電子機器であって、
    1つ又は複数のプロセッサと、
    1つ又は複数のプログラムが記憶される記憶装置とを含み、
    前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサに実行されると、請求項1~12のいずれか一項に記載の深層学習に基づく医用画像検出方法を実現させる電子機器。
  26. コンピュータプログラムであって、コンピュータ上で実行されると、コンピュータに請求項1~12のいずれか一項に記載の深層学習に基づく医用画像検出方法を実行させる命令を含むコンピュータプログラム。
JP2021541113A 2019-04-22 2020-03-27 深層学習に基づく医用画像検出方法及び装置、電子機器及びコンピュータプログラム Active JP7143008B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910324565.8 2019-04-22
CN201910324565.8A CN110111313B (zh) 2019-04-22 2019-04-22 基于深度学习的医学图像检测方法及相关设备
PCT/CN2020/081655 WO2020215984A1 (zh) 2019-04-22 2020-03-27 基于深度学习的医学图像检测方法及相关设备

Publications (2)

Publication Number Publication Date
JP2022518446A true JP2022518446A (ja) 2022-03-15
JP7143008B2 JP7143008B2 (ja) 2022-09-28

Family

ID=67486233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541113A Active JP7143008B2 (ja) 2019-04-22 2020-03-27 深層学習に基づく医用画像検出方法及び装置、電子機器及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11861829B2 (ja)
EP (1) EP3961500A4 (ja)
JP (1) JP7143008B2 (ja)
CN (1) CN110111313B (ja)
WO (1) WO2020215984A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111313B (zh) 2019-04-22 2022-12-30 腾讯科技(深圳)有限公司 基于深度学习的医学图像检测方法及相关设备
CN113906435A (zh) * 2019-04-23 2022-01-07 巴黎欧莱雅 基于卷积神经网络的标志跟踪器
CN110516732B (zh) * 2019-08-22 2022-03-15 北京地平线机器人技术研发有限公司 特征金字塔网络的训练方法、提取图像特征的方法和装置
CN110738235B (zh) * 2019-09-16 2023-05-30 平安科技(深圳)有限公司 肺结核判定方法、装置、计算机设备及存储介质
CN111626267B (zh) * 2019-09-17 2022-02-15 山东科技大学 一种利用空洞卷积的高光谱遥感图像分类方法
CN110782430A (zh) * 2019-09-29 2020-02-11 郑州金惠计算机系统工程有限公司 一种小目标的检测方法、装置、电子设备及存储介质
CN110942446A (zh) * 2019-10-17 2020-03-31 付冲 一种基于ct影像的肺结节自动检测方法
CN110807788B (zh) * 2019-10-21 2023-07-21 腾讯科技(深圳)有限公司 医学图像处理方法、装置、电子设备及计算机存储介质
CN110852349B (zh) * 2019-10-21 2024-02-20 上海联影智能医疗科技有限公司 一种图像处理方法、检测方法、相关设备及存储介质
CN110991303A (zh) * 2019-11-27 2020-04-10 上海智臻智能网络科技股份有限公司 一种图像中文本定位方法、装置及电子设备
CN110895812A (zh) * 2019-11-28 2020-03-20 北京推想科技有限公司 Ct图像的检测方法、装置、存储介质及电子设备
CN111091091A (zh) * 2019-12-16 2020-05-01 北京迈格威科技有限公司 目标对象重识别特征的提取方法、装置、设备及存储介质
CN111222558B (zh) * 2019-12-31 2024-01-30 富联裕展科技(河南)有限公司 图像处理方法及存储介质
CN111310615A (zh) * 2020-01-23 2020-06-19 天津大学 基于多尺度信息和残差网络的小目标交通标志检测方法
CN111508269B (zh) * 2020-04-23 2021-05-18 深圳智优停科技有限公司 一种基于图像识别的开放式停车位车辆判别方法与装置
CN111583210B (zh) * 2020-04-29 2022-03-15 北京小白世纪网络科技有限公司 基于卷积神经网络模型集成的乳腺癌图像自动识别方法
CN111583220B (zh) * 2020-04-30 2023-04-18 腾讯科技(深圳)有限公司 影像数据检测方法和装置
CN111739004B (zh) * 2020-06-22 2024-01-23 联想(北京)有限公司 图像处理方法、设备及存储介质
CN111915598B (zh) * 2020-08-07 2023-10-13 温州医科大学 一种基于深度学习的医疗图像处理方法和装置
CN111935404B (zh) * 2020-08-14 2021-10-15 腾讯科技(深圳)有限公司 微距成像系统、方法和装置
CN112163449B (zh) * 2020-08-21 2022-12-16 同济大学 一种轻量化的多分支特征跨层融合图像语义分割方法
CN112053342A (zh) * 2020-09-02 2020-12-08 陈燕铭 基于人工智能的脑垂体磁共振图像的提取识别方法和装置
CN111915609B (zh) * 2020-09-22 2023-07-14 平安科技(深圳)有限公司 病灶检测分析方法、装置、电子设备及计算机存储介质
CN112418170B (zh) * 2020-12-11 2024-03-01 法赫光学科技(成都)有限公司 基于3d扫描的口腔检查识别方法
CN112651451B (zh) * 2020-12-30 2023-08-11 北京百度网讯科技有限公司 图像识别方法、装置、电子设备及存储介质
CN115082372A (zh) * 2021-03-11 2022-09-20 天津理工大学 面向视网膜眼底图像中的多尺度小目标检测方法
CN113033382B (zh) * 2021-03-23 2021-10-01 哈尔滨市科佳通用机电股份有限公司 一种铁路货车地板大面积破损故障识别方法、系统及装置
CN113223027A (zh) * 2021-04-13 2021-08-06 山东师范大学 基于PolarMask的未成熟柿子分割方法及系统
CN113192646B (zh) * 2021-04-25 2024-03-22 北京易华录信息技术股份有限公司 目标检测模型构建方法及不同目标间距离监控方法、装置
CN113269119B (zh) * 2021-06-07 2023-01-31 重庆大学 一种夜间车辆检测方法及装置
CN113421203A (zh) * 2021-06-30 2021-09-21 深圳市纵维立方科技有限公司 图像处理方法、打印方法、打印相关装置及可读存储介质
CN113537044B (zh) * 2021-07-14 2022-08-26 哈尔滨理工大学 基于STFT与改进DenseNet的航空发动机故障诊断方法
CN113538416A (zh) * 2021-08-19 2021-10-22 合肥工业大学智能制造技术研究院 一种基于深度学习的医学图像处理方法
WO2023053755A1 (ja) * 2021-09-30 2023-04-06 株式会社Lily MedTech 画像診断支援装置、画像診断支援方法、及び画像診断支援プログラム
CN113936006A (zh) * 2021-10-29 2022-01-14 天津大学 一种处理高噪低质医学图像的分割方法及装置
CN114511452B (zh) * 2021-12-06 2024-03-19 中南大学 融合多尺度空洞卷积和三元组注意力的遥感图像检索方法
CN115272086B (zh) * 2022-09-29 2022-12-27 杭州太美星程医药科技有限公司 医学图像缝合方法和装置、电子设备和存储介质
US20240112329A1 (en) * 2022-10-04 2024-04-04 HeHealth PTE Ltd. Distinguishing a Disease State from a Non-Disease State in an Image
CN115831329B (zh) * 2022-12-21 2023-08-18 青海大学附属医院 融合医生关注图像的包虫分类模型构建方法、系统及介质
CN115953781B (zh) * 2023-03-14 2023-06-13 武汉昊博科技有限公司 基于热层析影像的乳腺人工智能分析系统及方法
CN117132761A (zh) * 2023-08-25 2023-11-28 京东方科技集团股份有限公司 目标检测方法及装置、存储介质及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180218497A1 (en) * 2017-01-27 2018-08-02 Arterys Inc. Automated segmentation utilizing fully convolutional networks

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7515743B2 (en) * 2004-01-08 2009-04-07 Siemens Medical Solutions Usa, Inc. System and method for filtering a medical image
DE102014218893A1 (de) * 2014-09-19 2016-03-24 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Beurteilung von Röntgenbildern
US10580131B2 (en) * 2017-02-23 2020-03-03 Zebra Medical Vision Ltd. Convolutional neural network for segmentation of medical anatomical images
US20200085382A1 (en) * 2017-05-30 2020-03-19 Arterys Inc. Automated lesion detection, segmentation, and longitudinal identification
US10751548B2 (en) * 2017-07-28 2020-08-25 Elekta, Inc. Automated image segmentation using DCNN such as for radiation therapy
CN108197606A (zh) * 2018-01-31 2018-06-22 浙江大学 一种基于多尺度膨胀卷积的病理切片中异常细胞的识别方法
CN109190752B (zh) * 2018-07-27 2021-07-23 国家新闻出版广电总局广播科学研究院 基于深度学习的全局特征和局部特征的图像语义分割方法
CN109271856B (zh) * 2018-08-03 2021-09-03 西安电子科技大学 基于扩张残差卷积的光学遥感图像目标检测方法
JP7018856B2 (ja) * 2018-09-14 2022-02-14 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
CN109544534B (zh) * 2018-11-26 2020-10-16 上海联影智能医疗科技有限公司 一种病灶图像检测装置、方法和计算机可读存储介质
EP3696821A1 (en) * 2019-02-14 2020-08-19 Koninklijke Philips N.V. Computer-implemented method for medical image processing
CN110111313B (zh) * 2019-04-22 2022-12-30 腾讯科技(深圳)有限公司 基于深度学习的医学图像检测方法及相关设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180218497A1 (en) * 2017-01-27 2018-08-02 Arterys Inc. Automated segmentation utilizing fully convolutional networks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUEXIANG LI ET AL.: "GT-Net: A Deep Learning Network for Gastric Tumor Diagnosis", 2018 IEEE 30TH INTERNATIONAL CONFERENCE ON TOOLS WITH ARTIFICIAL INTELLIGENCE (ICTAI), JPN6022033577, 5 November 2018 (2018-11-05), US, pages 20 - 24, XP033475807, ISSN: 0004848792, DOI: 10.1109/ICTAI.2018.00014 *
山重 雄哉,青野 雅樹: "SSDに基づくリアルタイム性を考慮した物体検出手法", 電子情報通信学会技術研究報告, vol. 第118巻,第513号, JPN6022033578, 10 March 2019 (2019-03-10), pages 181 - 186, ISSN: 0004848793 *

Also Published As

Publication number Publication date
EP3961500A4 (en) 2022-06-22
CN110111313B (zh) 2022-12-30
WO2020215984A1 (zh) 2020-10-29
US20210264599A1 (en) 2021-08-26
CN110111313A (zh) 2019-08-09
US11861829B2 (en) 2024-01-02
EP3961500A1 (en) 2022-03-02
JP7143008B2 (ja) 2022-09-28

Similar Documents

Publication Publication Date Title
JP2022518446A (ja) 深層学習に基づく医用画像検出方法及び装置、電子機器及びコンピュータプログラム
Adegun et al. Deep learning techniques for skin lesion analysis and melanoma cancer detection: a survey of state-of-the-art
Al-Antari et al. Evaluation of deep learning detection and classification towards computer-aided diagnosis of breast lesions in digital X-ray mammograms
Cai et al. A review of the application of deep learning in medical image classification and segmentation
Frid-Adar et al. GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion classification
Khouloud et al. W-net and inception residual network for skin lesion segmentation and classification
CN110930367B (zh) 多模态超声影像分类方法以及乳腺癌诊断装置
Guan et al. Thigh fracture detection using deep learning method based on new dilated convolutional feature pyramid network
WO2020133636A1 (zh) 前列腺手术中外包膜智能检测和预警方法及系统
CN109523521A (zh) 基于多切片ct图像的肺结节分类和病灶定位方法和系统
Oghli et al. Automatic fetal biometry prediction using a novel deep convolutional network architecture
Oloko-Oba et al. Ensemble of EfficientNets for the Diagnosis of Tuberculosis
Taş et al. Super resolution convolutional neural network based pre-processing for automatic polyp detection in colonoscopy images
Wang et al. Dual multiscale mean teacher network for semi-supervised infection segmentation in chest CT volume for COVID-19
CN117710760B (zh) 残差的注意神经网络用于胸部x线病灶检测的方法
CN114332572B (zh) 基于显著图引导分层密集特征融合网络用于提取乳腺病变超声图像多尺度融合特征参数方法
Zhang et al. LungSeek: 3D Selective Kernel residual network for pulmonary nodule diagnosis
Veena et al. Context based healthcare informatics system to detect gallstones using deep learning methods
Khademi et al. Spatio-temporal hybrid fusion of cae and swin transformers for lung cancer malignancy prediction
Pavithra et al. An Overview of Convolutional Neural Network Architecture and Its Variants in Medical Diagnostics of Cancer and Covid-19
CN113379691B (zh) 一种基于先验引导的乳腺病灶深度学习分割方法
Ma et al. AMSeg: A Novel Adversarial Architecture based Multi-scale Fusion Framework for Thyroid Nodule Segmentation
Al-Eiadeh Automatic Lung Field Segmentation using Robust Deep Learning Criteria
Yang et al. Tumor detection from breast ultrasound images using mammary gland attentive U-Net
He et al. Fetal cardiac ultrasound standard section detection model based on multitask learning and mixed attention mechanism

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7143008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150