JP2022517571A - 画像処理方法及び装置、電子機器並びに記憶媒体 - Google Patents

画像処理方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP2022517571A
JP2022517571A JP2021539065A JP2021539065A JP2022517571A JP 2022517571 A JP2022517571 A JP 2022517571A JP 2021539065 A JP2021539065 A JP 2021539065A JP 2021539065 A JP2021539065 A JP 2021539065A JP 2022517571 A JP2022517571 A JP 2022517571A
Authority
JP
Japan
Prior art keywords
result
convolution
feature map
deconvolution
division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021539065A
Other languages
English (en)
Inventor
チン シア,
ニン ホアン,
Original Assignee
ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド filed Critical ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド
Publication of JP2022517571A publication Critical patent/JP2022517571A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/023Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Fuzzy Systems (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Signal Processing (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本開示は、被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得ること(S11)と、前記畳み込み結果に基づいて、位置決め処理で位置決め結果を得ること(S12)と、前記位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得ること(S13)と、前記逆畳み込み結果に対して分割処理を行って、前記被処理画像から目標対象物を分割すること(S14)と、を含む画像処理方法及び装置、電子機器並びに記憶媒体に関する。当該方法は、1回の画像処理過程では目標対象物の位置決めと分割を同時に実現することによって、画像処理精度を向上させると共に画像処理の速度を確保することができる。【選択図】図1

Description

<関連出願の相互参照>
本願は、2019年4月1日に中国特許庁に提出された、出願番号201910258038.1、発明の名称「画像処理方法及び装置、電子機器並びに記憶媒体」である中国特許出願に基づく優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
<技術分野>
本開示は、画像処理技術に関し、特に、画像処理方法及び装置、電子機器並びに記憶媒体に関する。
画像技術分野において、関心領域又は目標領域を分割することは、画像分析および目標識別の基礎となっている。例えば、医用画像において、分割することによって1つ又は複数の器官又は病巣の間の境界を鮮明に識別する。3次元医用画像を的確に分割することは、様々な臨床応用において非常に重要である。
本開示は、画像処理の技術的解決手段を提供する。
本開示の一側面によれば、被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得ることと、前記畳み込み結果に基づいて、位置決め処理で位置決め結果を得ることと、前記位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得ることと、前記逆畳み込み結果に対して分割処理を行って、前記被処理画像から目標対象物を分割することと、を含む画像処理方法を提供する。
可能となる一実施形態では、前記被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得ることは、被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを前記畳み込み結果として得ることを含む。
可能となる一実施形態では、前記被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを前記畳み込み結果として得ることは、被処理画像に対して畳み込み処理を行って、得られた特徴マップを畳み込み対象特徴マップとすることと、前記畳み込み対象特徴マップの解像度が第1閾値に到達していない場合に、前記畳み込み対象特徴マップに対して畳み込み処理を行って、得られた結果を新たに畳み込み対象特徴マップとすることと、前記畳み込み対象特徴マップの解像度が第1閾値に到達した場合に、得られた解像度が漸減した全ての特徴マップを前記畳み込み結果とすることと、を含む。
可能となる一実施形態では、前記畳み込み結果に基づいて、位置決め処理で位置決め結果を得ることは、前記畳み込み結果に基づいて分割処理を行って、分割結果を得ることと、前記分割結果に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることと、を含む。
可能となる一実施形態では、前記畳み込み結果に基づいて分割処理を行って、分割結果を得ることは、前記畳み込み結果のうち解像度が最も低い特徴マップに対して分割処理を行って、分割結果を得ることを含む。
可能となる一実施形態では、前記分割結果に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることは、前記分割結果に基づいて、前記畳み込み結果において前記目標対象物に対応する位置情報を決定することと、前記位置情報に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることと、を含む。
可能となる一実施形態では、前記分割結果に基づいて、畳み込み結果において前記目標対象物に対応する位置情報を決定することは、前記分割結果の座標位置を読み取ることと、前記座標位置を領域中心として、前記畳み込み結果内の各解像度での特徴マップにおいて前記目標対象物全体をカバーできる領域位置をそれぞれ決定し、畳み込み結果において前記目標対象物に対応する位置情報とすることと、を含む。
可能となる一実施形態では、前記位置情報に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることは、前記位置情報に基づいて、前記畳み込み結果内の各解像度での特徴マップに対してそれぞれクロップ処理を行って、位置決め結果を得ることを含む。
可能となる一実施形態では、前記位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得ることは、前記位置決め結果に含まれる全ての特徴マップのうち、解像度が最も低い特徴マップを逆畳み込み対象特徴マップとすることと、前記逆畳み込み対象特徴マップの解像度が第2閾値に到達していない場合に、前記逆畳み込み対象特徴マップに対して逆畳み込み処理を行って、逆畳み込み処理結果を得ることと、解像度が漸増する順に、前記位置決め結果のうち前記逆畳み込み対象特徴マップとなる次の特徴マップを決定することと、前記逆畳み込み処理結果と前記次の特徴マップを融合して、前記融合した結果を新たに逆畳み込み対象特徴マップとすることと、前記逆畳み込み対象特徴マップの解像度が第2閾値に到達した場合に、前記逆畳み込み対象特徴マップを逆畳み込み結果とすることと、を含む。
可能となる一実施形態では、前記分割処理は、被分割対象をsoftmax回帰させて、回帰結果を得ることと、前記回帰結果に対する最大値の比較を行うことによって、前記被分割対象に対する分割処理を完了させることと、を含む。
可能となる一実施形態では、前記方法は、前記被処理画像に対して段階的な畳み込み処理及び分割処理を行うための第1分割サブネットワークと、前記位置決め結果に対して段階的な逆畳み込み処理及び分割処理を行うための第2分割サブネットワークと、を含むニューラルネットワークによって実現される。
可能となる一実施形態では、前記ニューラルネットワークのトレーニング過程は、予め設定されたトレーニングセットによって前記第1分割サブネットワークをトレーニングすることと、前記予め設定されたトレーニングセット及びトレーニング済みの第1分割サブネットワークによって前記第2分割サブネットワークをトレーニングすることと、を含む。
可能となる一実施形態では、前記被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得る前に、前記被処理画像を予め設定された解像度となるように調整することを更に含む。
可能となる一実施形態では、前記被処理画像は3次元医用画像である。
本開示の一側面によれば、被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得るための畳み込みモジュールと、前記畳み込み結果に基づいて、位置決め処理で位置決め結果を得るための位置決めモジュールと、前記位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得るための逆畳み込みモジュールと、前記逆畳み込み結果に対して分割処理を行って、前記被処理画像から目標対象物を分割するための目標対象物取得モジュールと、を含む画像処理装置を提供する。
可能となる一実施形態では、前記畳み込みモジュールは、被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを前記畳み込み結果として得るために用いられる。
可能となる一実施形態では、前記畳み込みモジュールは、更に、被処理画像に対して畳み込み処理を行って、得られた特徴マップを畳み込み対象特徴マップとすることと、前記畳み込み対象特徴マップの解像度が第1閾値に到達していない場合に、前記畳み込み対象特徴マップに対して畳み込み処理を行って、得られた結果を新たに畳み込み対象特徴マップとすることと、前記畳み込み対象特徴マップの解像度が第1閾値に到達した場合に、得られた解像度が漸減した全ての特徴マップを前記畳み込み結果とすることとに用いられる。
可能となる一実施形態では、前記位置決めモジュールは、前記畳み込み結果に基づいて分割処理を行って、分割結果を得るための分割サブモジュールと、前記分割結果に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得るための位置決めサブモジュールと、を含む。
可能となる一実施形態では、前記分割サブモジュールは、前記畳み込み結果のうち解像度が最も低い特徴マップに対して分割処理を行って、分割結果を得るために用いられる。
可能となる一実施形態では、前記位置決めサブモジュールは、前記分割結果に基づいて、前記畳み込み結果において前記目標対象物に対応する位置情報を決定することと、前記位置情報に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることとに用いられる。
可能となる一実施形態では、前記位置決めサブモジュールは、更に、前記分割結果の座標位置を読み取ることと、前記座標位置を領域中心として、前記畳み込み結果内の各解像度での特徴マップにおいて前記目標対象物全体をカバーできる領域位置をそれぞれ決定して、畳み込み結果において前記目標対象物に対応する位置情報とすることとに用いられる。
可能となる一実施形態では、前記位置決めサブモジュールは、更に、前記位置情報に基づいて、前記畳み込み結果内の各解像度での特徴マップに対してそれぞれクロップ処理を行って、位置決め結果を得るために用いられる。
可能となる一実施形態では、前記逆畳み込みモジュールは、前記位置決め結果に含まれる全ての特徴マップのうち、解像度が最も低い特徴マップを逆畳み込み対象特徴マップとすることと、前記逆畳み込み対象特徴マップの解像度が第2閾値に到達していない場合に、前記逆畳み込み対象特徴マップに対して逆畳み込み処理を行って、逆畳み込み処理結果を得ることと、解像度が漸増する順に、前記位置決め結果のうち前記逆畳み込み対象特徴マップとなる次の特徴マップを決定することと、前記逆畳み込み処理結果と前記次の特徴マップを融合して、前記融合した結果を新たに逆畳み込み対象特徴マップとすることと、前記逆畳み込み対象特徴マップの解像度が第2閾値に到達した場合に、前記逆畳み込み対象特徴マップを逆畳み込み結果とすることとに用いられる。
可能となる一実施形態では、前記分割処理は、被分割対象をsoftmax回帰させて、回帰結果を得ることと、前記回帰結果に対する最大値の比較を行うことによって、前記被分割対象に対する分割処理を完了させることと、を含む。
可能となる一実施形態では、前記装置は、前記被処理画像に対して段階的な畳み込み処理及び分割処理を行うための第1分割サブネットワークと、前記位置決め結果に対して段階的な逆畳み込み処理及び分割処理を行うための第2分割サブネットワークと、を含むニューラルネットワークによって実現される。
可能となる一実施形態では、前記装置は、予め設定されたトレーニングセットによって前記第1分割サブネットワークをトレーニングすることと、前記予め設定されたトレーニングセット及びトレーニング済みの第1分割サブネットワークによって前記第2分割サブネットワークをトレーニングすることとに用いられるトレーニングモジュールを更に含む。
可能となる一実施形態では、前記畳み込みモジュールの前に、前記被処理画像を予め設定された解像度となるように調整するための解像度調整モジュールを更に含む。
可能となる一実施形態では、前記被処理画像は3次元医用画像である。
本開示の一側面によれば、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、前記プロセッサは、上記の画像処理方法を実行するように構成される電子機器を提供する。
本開示の一側面によれば、コンピュータプログラムコマンドが記憶されたコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行されると、上記の画像処理方法を実現するコンピュータ読み取り可能な記憶媒体を提供する。
本開示の実施例では、被処理画像に対して段階的な畳み込み処理と分割処理を行って分割結果が得られ、分割結果に基づいて位置決め結果が得られ、位置決め結果に対して段階的な逆畳み込み処理を行った後、さらに分割処理を行うことによって、被処理画像から目標対象物を分割することができる。上記の過程によって、1回の画像処理の過程では目標対象物の位置決めと分割を同時に実現することができ、画像処理精度を向上させると共に画像処理の速度を確保することができる。
以上の一般的説明と以下の詳細な説明は、例示的に解釈するためのものに過ぎず、本開示を限定するものではないと理解すべきである。本開示の他の特徴および側面は、以下の図面を参照して行う例示的な実施例に対する詳細な説明によって明らかになるであろう。
ここにおいて組み込まれてこの明細書の一部をなすこれらの図面は、本開示に適する実施例を示すものであり、明細書と共に、本開示の技術的手段を説明するために用いられる。
本開示の一実施例に係る画像処理方法のフローチャートを示す。 本開示の一実施例に係る画像処理方法のフローチャートを示す。 本開示の一実施例に係る画像処理方法のフローチャートを示す。 本開示の一実施例に係る画像処理方法のフローチャートを示す。 本開示の一実施例に係る画像処理方法のフローチャートを示す。 本開示の一実施例に係る画像処理方法のフローチャートを示す。 本開示の一実施例に係る画像処理方法のフローチャートを示す。 本開示の一応用例に係る模式図を示す。 本開示の一実施例に係る画像処理装置のブロック図を示す。 本開示の実施例に係る電子機器のブロック図を示す。 本開示の実施例に係る電子機器のブロック図を示す。
以下に本開示の様々な例示的実施例、特徴および側面について図面を参照しながら詳細に説明する。図面においては、同一の符号が同一または類似の機能の要素を表す。特に断らない限り、図面において実施例の様々な側面を示すにもかかわらず、比例で図面を描く必要はない。
ここにおいて専門的な用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」として説明されるいかなる実施例も他の実施例より優れるまたは良くなるものであると理解すべきではない。
本明細書における用語「及び/又は」は、単に関連対象との関連関係を記述するだけであり、3つの関係が存在可能であることを示すものであり、例えば、A及び/又はBについて、Aのみが存在し、AとBがともに存在し、Bのみが存在するという3つの場合を表している。また、本明細書における用語「少なくとも1つ」は、複数あるうちのいずれか1つ、又は複数あるうちの少なくとも2つの任意の組み合わせを示すものであり、例えば、A、B、Cのうちの少なくとも1つを含むことについて、A、B及びCからなる集合から選択されるいずれか1つ又は複数の要素を含むことを表している。
また、本開示をより適切に説明するために、以下の具体的な実施形態において具体的詳細が多く与えられる。当業者であれば、本開示は何らかの具体的詳細がなくても同様に実施できると理解すべきである。いくつかの実施例では、本開示の趣旨を強調するために、当業者が熟知している方法、手段、要素および回路については、詳細な説明を行わない。
図1は本開示の一実施例に係る画像処理方法のフローチャートを示すものであり、この方法は画像処理装置に適用され、画像処理装置は端末装置、サーバ又は他の処理装置等であってもよい。ここで、端末装置は、ユーザ側装置(User Equipment、UE)、携帯機器、ユーザ端末、端末、セルラーホン、コードレス電話、パーソナル・デジタル・アシスタント(Personal Digital Assistant、PDA)、ハンドヘルドデバイス、計算装置、車載装置、ウェアラブル装置等であってもよい。
いくつかの可能となる実施形態では、この画像処理方法は、プロセッサによるメモリに記憶されたコンピュータにより読み取り可能なコマンドの呼び出しによって実現されてもよい。
図1に示すように、前記画像処理方法は、
被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得るステップS11と、
畳み込み結果に基づいて、位置決め処理で位置決め結果を得るステップS12と、
位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得るステップS13と、
逆畳み込み結果に対して分割処理を行って、被処理画像から目標対象物を分割するステップS14と、を含む。
本開示の実施例の画像処理方法は、段階的な畳み込み処理と分割処理によって、被処理画像における目標対象物に対して粗分割を行って、被処理画像における目標対象物の基本分布位置を反映する位置決め結果が得られ、この位置決め結果に基づいて、更に段階的な逆畳み込み処理と分割処理によって被処理画像における目標対象物の高精度分割を実現することができるものであり、この過程によって、位置決め結果を基にして目標対象物の分割が実現されることは、直接被処理画像に対して目標分割を行う場合よりも画像処理の精度を効果的に向上させることができるとともに、上記の方法は1回の画像処理過程では画像の目標の位置決めと分割をこのような前後順序に従って実現可能であり、画像の目標の位置決めと分割過程を関連付けて分析できるので、画像処理にかかる時間は減少していると共に、画像処理過程では発生可能なメモリ消費は低下している。
ここで、本開示の実施例の画像処理方法は、3次元医用画像の処理に適用されてもよいが、例えば、医用画像における器官、病巣、組織等である目標領域を識別するように用いられる。可能となる一実施形態では、被処理画像は心臓器官の3次元医用画像であり、つまり、本開示の実施例の画像処理方法は心臓病の治療過程で利用されるものであり、一例では、この画像処理方法は、心房細動治療過程で利用され、心房画像を精確に分割することによって、心房線維化の病因を理解・分析し、更に目的となる心房細動の手術焼灼治療計画を作成して、心房細動の治療効果を向上させることができる。
本開示の実施例の画像処理方法は3次元医用画像処理への適用に限定されず、任意の画像処理に適用されることができるが、本開示においてこれについては特に制限はないことを説明すべきである。
可能となる一実施形態では、被処理画像には複数枚の画像が含まれ、この複数枚の画像から1つ又は複数の3次元の器官を識別することができる。
ステップS11の実現形態は、限定されるものではなく、分割処理のための特徴マップが得られるものであればよい。可能となる一実施形態では、ステップS11は、被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを畳み込み結果として得ることを含んでもよい。
少なくとも1つの解像度が漸減した特徴マップを、どのように段階的な畳み込み処理によって得るかについての具体的な処理過程も限定されるものではないが、図2は本開示の一実施例に係る画像処理方法のフローチャートを示すものであり、図示するように、可能となる一実施形態では、被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを畳み込み結果として得ることは、
被処理画像に対して畳み込み処理を行って、得られた特徴マップを畳み込み対象特徴マップとするステップS111と、
畳み込み対象特徴マップの解像度が第1閾値に到達していない場合に、畳み込み対象特徴マップに対して畳み込み処理を行って、得られた結果を新たに畳み込み対象特徴マップとするステップS112と、
畳み込み対象特徴マップの解像度が第1閾値に到達した場合に、得られた解像度が漸減した全ての特徴マップを畳み込み結果とするステップS113と、を含んでもよい。
上記のステップから分かるように、本開示の実施例では、被処理画像に対して1回の畳み込み処理を行って初期解像度での特徴マップが得られ、初期解像度での特徴マップに対して更に1回の畳み込み処理を行って次の解像度での特徴マップが得られることによって類推することができるように、被処理画像に対して複数回の畳み込み処理を行うことによって、一連の解像度が漸減した特徴マップを得ることができ、これらの特徴マップが畳み込み結果として後続ステップの実行に用いられる。この過程は、反復回数が制限されなく、得られた最小解像度の特徴マップが第1閾値に到達すると停止するようにしてもよいが、第1閾値は必要や実際の状況に応じて設定され、ここで具体的な値は限定されない。第1閾値が限定されるものではないので、得られた畳み込み結果に含まれる特徴マップの数と各特徴マップの解像度はいずれも限定されるものではなく、実際の状況に応じて具体的に選択することができる。
可能となる一実施形態では、畳み込み処理の過程と実現の形態は限定されるものではないが、一例において、畳み込み処理の過程は、被処理対象の畳み込み、プーリング、バッチ正規化(Batch Normalization)又はパラメトリック正規化線形ユニット(PReLU、Parametric Rectified Linear Unit)の1つ又は複数を含んでもよい。一例において、3D U-Net完全畳み込みニューラルネットワークにおけるエンコーダ構造を用いて実現してもよく、一例において、V-Net完全畳み込みニューラルネットワークにおけるエンコーダ構造によって実現してもよい。本開示は、畳み込み処理の具体的な形態を制限しない。
畳み込み結果に基づいて、位置決め処理で位置決め結果を得る過程には様々な実現の形態が存在するが、図3は本開示の一実施例に係る画像処理方法のフローチャートを示すものであり、図示するように、可能となる一実施形態では、ステップS12は、
畳み込み結果に基づいて分割処理を行って、分割結果を得るステップS121と、
分割結果に基づいて、畳み込み結果に対して位置決め処理を行って、位置決め結果を得るステップS122と、を含んでもよい。
ステップS121の過程も限定されるものではないが、上記開示の実施例から分かるように、畳み込み結果には複数枚の特徴マップが含まれるので、分割結果が畳み込み結果におけるどの特徴マップに対して分割処理を行って得られたものであるかは、実際の状況に応じて決定することができる。可能となる一実施形態では、ステップS121は、畳み込み結果のうち解像度が最も低い特徴マップに対して分割処理を行って、分割結果を得ることを含んでもよい。
分割処理の処理形態は限定されるものではなく、特徴マップから目標を分割できるあらゆる形態が本開示の例における分割処理の方法としてもよい。
可能となる一実施形態では、分割処理は、softmax層によって画像分割を実現してもよいが、具体的な過程は、被分割対象をsoftmax回帰させて、回帰結果を得ることと、回帰結果に対する最大値の比較を行うことによって、被分割対象に対する分割処理を完了させることと、を含んでもよい。一例において、上記の回帰結果によって最大値の比較を行うことで被分割対象に対する分割処理を実現する具体的な過程は、回帰結果の形態が被分割対象と同様な解像度を持つ出力データとし、出力データが、被分割対象の画素位置と一対一で対応し、対応の画素位置ごとに、被分割対象が当該画素位置で分割目標となる確率を表すための1つの確率値を含み、出力データに含まれる確率に基づいて最大値の比較を行うことで、画素位置のそれぞれが分割目標位置であるか否かを決定し、そして、被分割対象から分割目標を抽出する操作を実現するようになってもよいが、最大値の比較の具体的な形態は限定されるものではなく、確率の大きい値が示す画素位置が分割目標に対応するように設定されてもよく、確率の小さい値が示す画素位置が分割目標に対応するように設定されてもよく、実際の状況に応じて設定すればよいが、ここでは限定されない。上記開示の各実施例から分かるように、一例において、分割結果を得る過程は、畳み込み結果の解像度の最も低い特徴マップにsoftmax層を通過させることで、得られた結果に対して最大値の比較を行って、分割結果を得るようにしてもよい。
ステップS122で、分割結果に基づいて、畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることができるが、ステップS122の実現の過程は限定されるものではなく、図4は本開示の一実施例に係る画像処理方法のフローチャートを示すものであり、図示するように、可能となる一実施形態では、ステップS122は、
分割結果に基づいて、畳み込み結果における目標対象物に対応する位置情報を決定するステップS1221と、
位置情報に基づいて、畳み込み結果に対して位置決め処理を行って、位置決め結果を得るステップS1222と、を含んでもよい。
ここで、位置情報は、畳み込み結果の各特徴マップにおいて目標対象物がある位置を示す情報であってもよいが、その具体的な表現形態は限定されるものではなく、一例において、位置座標集合の形で存在してもよく、一例において、座標+面積の形で存在してもよく、位置情報の表現形態が実際の状況に応じて柔軟的に選択可能である。位置情報の表現形態が限定されるものではないので、ステップS1221の具体的な過程も位置情報の表現形態に応じて柔軟的に決定可能である。図5は本開示の一実施例に係る画像処理方法のフローチャートを示すものであり、図示するように、可能となる一実施形態では、ステップS1221は、
分割結果の座標位置を読み取るステップS12211と、
座標位置を領域中心として、畳み込み結果内の各解像度での特徴マップにおいて目標対象物全体をカバーできる領域位置をそれぞれ決定して、畳み込み結果における目標対象物に対応する位置情報とするステップS12212と、を含んでもよい。
ここで、ステップS12211で読み取られる分割結果の座標位置は、分割結果位置を示す任意の座標であってもよいが、一例において、この座標は、分割結果におけるある一定の位置の座標値であってもよく、一例において、分割結果におけるあるいくつかの一定の位置の座標値であってもよく、一例において、分割結果重心位置の座標値であってもよい。ステップS12212で、読み取られた座標位置に基づいて、畳み込み結果の各特徴マップにおける対応の位置には目標対象物が位置決めされ、更に目標対象物全体をカバーした領域位置が得られるようにしてもよいが、この領域位置の表現形態も限定されるものではなく、一例において、この領域位置の表現形態は、領域の全ての頂点の座標集合であってもよく、一例において、領域位置の中心座標と領域位置のカバー面積の集合であってもよい。ステップS12212の具体的な過程は領域位置の表現形態によっては柔軟的に変更可能であるが、一例において、ステップS12212の過程は、分割結果の所在する特徴マップの重心座標に基づいて、分割結果の所在する特徴マップと畳み込み結果の他の特徴マップとの解像度の比例関係によって、畳み込み結果の各特徴マップにおける目標対象物の重心座標をそれぞれ決定し、この重心座標を中心として、各特徴マップにおいて目標対象物全体をカバーできる領域を決定し、この領域の頂点座標を畳み込み結果における目標対象物に対応する位置情報とするようにしてもよい。畳み込み結果における各特徴マップ同士の解像度が相違するので、畳み込み結果の各特徴マップにおいて目標対象物をカバーする領域同士の解像度も相違する可能性がある。一例において、異なる特徴マップにおいて決定された目標対象物をカバーする領域の間に比例関係があり、この比例関係は特徴マップ同士の解像度の比例関係と一致してもよいが、例を挙げて説明すると、一例において、畳み込み結果にはAとBの2つの特徴マップが存在可能であり、特徴マップAにおいて目標対象物をカバーする領域が領域Aと記され、特徴マップBにおいて目標対象物をカバーする領域が領域Bと記され、ここで、特徴マップAの解像度が特徴マップBの2倍であると、領域Aの面積が領域Bの2倍となる。
ステップS1221で得られた位置情報に基づいて、ステップS1222で位置決め結果を得ることができるが、上記開示の実施例で説明したように、位置情報は様々な異なる表現形態を有し、位置情報の表現形態によっては、ステップS1222の具体的な実施過程も異なるようになってもよい。可能となる一実施形態では、ステップS1222は、位置情報に基づいて、畳み込み結果の各解像度での特徴マップに対してそれぞれクロップ処理を行って、位置決め結果を得ることを含んでもよい。一例において、位置情報は、畳み込み結果の各特徴マップにおける目標対象物をカバーできる領域頂点の座標集合であり、この座標集合に基づいて、畳み込み結果の各特徴マップを切り出して、各特徴マップにおける目標対象物をカバーする領域を新しい特徴マップとして残ることで、これら新しい特徴マップの集合が位置決め結果となるようにしてもよい。
上記開示の各実施例を任意に組み合わせた形態によって位置決め結果を得ることができるが、この過程は、畳み込み結果の各解像度での特徴マップにおける目標対象物を効果的に粗位置決めし、この粗位置決めに基づいて既存の畳み込み結果を位置決め結果となるように処理することができ、位置決め結果の各解像度での特徴マップは、目標対象物を含まない画像情報の大部が除去されたものであるので、画像処理過程中のメモリ消費を大幅に低減し、計算速度を速めて、画像処理の効率と速度を向上させることができるとともに、位置決め結果における目標対象物の占める情報割合が大きいので、位置決め結果に基づいて目標対象物分割を行う効果は、被処理画像をそのまま用いて目標対象物分割を行う効果よりも優れ、画像処理の精度を向上させることができる。
位置決め結果が得られた後、この位置決め結果に基づいて目標対象物の分割を実現してもよいが、分割の具体的な実現形態は限定されるものではなく、実際の状況に応じて柔軟的に選択することができる。可能となる一実施形態では、位置決め結果からある一つの特徴マップを選択し、更なる分割処理を行って、目標対象物を得るようにしてもよい。他の可能となる実施形態では、位置決め結果を用いてより多くの目標対象物情報を含む特徴マップが回復され、更にこの特徴マップを用いて更なる分割処理を行って目標対象物を得るようにしてもよい。
上記のステップから分かるように、可能となる一実施形態では、位置決め結果を用いて目標対象物分割を実現する過程は、ステップS13とS14によって実現されてもよく、つまり、先に位置決め結果に対して段階的な逆畳み込み処理を行ってより多くの目標対象物情報を含む逆畳み込み結果が得られ、更にこの逆畳み込み結果に基づいて分割処理を行って目標対象物が得られるようにしてもよい。段階的な逆畳み込みの過程は段階的な畳み込み過程の逆方向の操作過程と見られてもよいので、その実現の過程もステップS11と同様に様々な可能となる実現の形態を有している。図6は本開示の一実施例による画像処理方法のフローチャートを示すものであり、図示するように、可能となる一実施形態では、ステップS13は、
位置決め結果に含まれる全ての特徴マップのうち、解像度が最も低い特徴マップを逆畳み込み対象特徴マップとするステップS131と、
逆畳み込み対象特徴マップの解像度が第2閾値に到達していない場合に、逆畳み込み対象特徴マップに対して逆畳み込み処理を行って、逆畳み込み処理結果を得るステップS132と、
解像度が漸増する順に、位置決め結果における逆畳み込み対象特徴マップの次の特徴マップを決定するステップS133と、
逆畳み込み処理結果と次の特徴マップを融合して、融合した結果を新たに逆畳み込み対象特徴マップとするステップS134と、
逆畳み込み対象特徴マップの解像度が第2閾値に到達した場合に、逆畳み込み対象特徴マップを逆畳み込み結果とするステップS135と、を含んでもよい。
上記のステップで、逆畳み込み処理結果は逆畳み込み対象特徴マップに対して逆畳み込み処理を行って得られた処理結果であり、次の特徴マップは位置決め結果から得られた特徴マップであり、即ち位置決め結果における、解像度が現在の逆畳み込み対象特徴マップより1レベル大きくなるという条件を満たす特徴マップを次の特徴マップとして、逆畳み込み処理結果と融合してもよい。従って、段階的な逆畳み込み処理の過程は、位置決め結果における解像度が最も低い特徴マップから、逆畳み込み処理によって解像度が1レベル高くなった特徴マップが得られ、この時にこの解像度が1レベル高くなった特徴マップを逆畳み込み処理結果とし、位置決め結果には逆畳み込み処理結果の解像度と同様な特徴マップがそもそも存在し、こられ2枚の特徴マップのいずれにも目標対象物の有効情報が含まれるので、これら2枚の特徴マップを融合することができ、融合後の特徴マップにはこれら2枚の特徴マップに含まれる全ての目標対象物の有効情報を含んでいるため、融合後の特徴マップを新たな逆畳み込み対象特徴マップとして、この新たな逆畳み込み対象特徴マップに対して逆畳み込み処理を行い、処理結果を新たに位置決め結果内の対応の解像度の特徴マップと融合し、融合後の特徴マップの解像度が第2閾値に到達すると、逆畳み込み処理を停止することができ、この時に得られた最終的な融合結果には位置決め結果の各特徴マップに含まれる目標対象物の有効情報を含んでいるので、それを逆畳み込み結果として後続の目標対象物分割に用いることができる。本開示の実施例では、第2閾値は被処理画像の元の解像度に応じて柔軟的に決定され、ここでは具体的な値は限定されない。
上記の過程では、逆畳み込み結果は、位置決め結果に対して段階的な逆畳み込み処理を行って得られたものであり、且つ最終的な目標対象物分割に用いられ、これによって得られた最終結果は、目標対象物の位置決めの基礎が存在したので、目標対象物のグローバル情報を効果的に含んで、より高い正確率を有しており、そして、被処理画像を分割することもなく、全体として画像処理を行うので、処理過程もより高効率になっており、また、上記の過程から分かるように、一回の画像処理過程では、目標対象物の分割が目標対象物の位置決め結果に基づいて実現されるものであり、2つの個別の過程によって目標対象物の位置決めと目標対象物分割をそれぞれ実現する必要がないので、データの記憶、消費及び計算量を大幅に低減し、更に画像処理の速度と効率を高め、時間と空間上の消費を減少させることができる。そして、段階的な逆畳み込み過程は、各解像度での特徴マップに含まれる有効情報が全て最終的に得られる逆畳み込み結果内に保留されることに寄与し、逆畳み込み結果が最終的な画像分割に用いられるので、最終的に得られる結果の精度を大幅に高めることができる。
逆畳み込み結果が得られた後、逆畳み込み結果に対して分割処理を行って、得られた結果を被処理画像から分割された目標対象物としてもよいが、逆畳み込み結果に対して分割処理を行う過程は、分割処理の対象が相違する以外に、上記の畳み込み結果に対して分割処理を行う過程と同様であるので、上記開示の実施例の過程を参照してもよく、ここでは詳細な説明を省略する。
可能となる一実施形態では、ニューラルネットワークによって本開示の実施例の画像処理方法を実現してもよい。上記の過程から分かるように、本開示の実施例の画像処理方法は、主として被処理画像に対する粗分割と、粗分割で得られた位置決め結果に基づいて行われるより高い精度の分割との2回の分割過程を含むので、2回目の分割と1回目の分割は1つのニューラルネットワークによって実現され、1セットのパラメータを共用することができるため、2回の分割を1つのニューラルネットワークにおける2つのサブニューラルネットワークと見なしてもよく、よって、可能となる一実施形態では、ニューラルネットワークは、被処理画像に対して段階的な畳み込み処理及び分割処理を行うための第1分割サブネットワークと、位置決め結果に対して段階的な逆畳み込み処理及び分割処理を行うための第2分割サブネットワークと、を含んでもよい。ニューラルネットワークで使用される具体的なネットワーク構造は限定されるものではなく、一例において、上記開示の実施例で言及されたV-Netと3D-U-Netはいずれもニューラルネットワークの具体的な実施形態としてもよい。第1分割サブネットワークと第2分割サブネットワークの機能を実現できるいかなるニューラルネットワークも、ニューラルネットワークの実施形態として利用することができる。
図7は本開示の実施例に係る画像処理方法のフローチャートを示す。可能となる一実施形態では、図示するように、本開示の実施例の方法は、ニューラルネットワークのトレーニング過程、即ちステップS15を更に含んでもよく、ここで、ステップS15は、
予め設定されたトレーニングセットによって第1分割サブネットワークをトレーニングするステップS151と、
予め設定されたトレーニングセット及びトレーニング済みの第1分割サブネットワークによって第2分割サブネットワークをトレーニングするステップS152と、を含んでもよい。
ここで、予め設定されたトレーニングセットは、サンプル画像に対して手動クロップ等の前処理を行って分解された複数の画像集合であってもよい。分解された複数の画像集合のうち、隣接する2つの画像集合には一部の同じ画像を含んでもよいが、例えば、医用画像を例として挙げると、病院から複数のサンプルを採集し、1つのサンプルに含まれる複数のサンプル画像が、連続的に採集した人体のある器官の画像であり、この複数のサンプル画像によって器官の3次元立体構造が得られ、一方向に沿って分解して、1番目の画像集合には第1~30番目のフレームの画像が含まれ、2番目の画像集合には第16~45番目のフレームの画像が含まれ・・・、このようにして隣接する2つの画像集合には15フレームの画像が同じであるようにしてもよい。このような重畳分解の形態によって、分割の精度を高めることができる。
図7に示すように、ニューラルネットワークのトレーニング過程で、まず予め設定されたトレーニングセットを入力として第1分割サブネットワークをトレーニングし、第1分割サブネットワークの出力結果に基づいてトレーニングセットの画像に対して位置決め処理を行って、位置決め処理を介したトレーニングセットを第2分割サブネットワークのトレーニングデータとして、第2分割サブネットワークに入力してトレーニングするようにしてもよいが、上記の過程によって、最終的にはトレーニング済みの第1分割サブネットワークと第2分割サブネットワークが得られる。
トレーニングの過程で、ニューラルネットワークのネットワーク損失を特定するための関数は具体的に限定されないが、一例において、dice loss関数によってニューラルネットワークのネットワーク損失を特定してもよく、一例において、交差エントロピー関数によってニューラルネットワークのネットワーク損失を特定してもよく、一例において、他の利用可能な損失関数によってニューラルネットワークのネットワーク損失を特定してもよい。第1分割サブネットワークと第2分割サブネットワークに用いられる損失関数は同じでもよいし、異なってもよく、ここで限定されない。
上記開示の実施例によれば、一例において、ニューラルネットワークの完全なトレーニング過程は、複数枚の被分割画像と被分割画像に対応するマスクMaskを含む予め設定されたトレーニングセットを第1分割サブネットワークのネットワークモデルに入力し、いずれかの損失関数によって、画像で第1分割サブネットワークのネットワークモデルを介して出力されたデータと、対応のMaskとの間の損失を算出し、そして逆伝播アルゴリズムによって第1分割サブネットワークのネットワークモデルパラメータを更新して、第1分割サブネットワークモデルが収束すると、第1分割サブネットワークモデルのトレーニングが完了することを示す。第1分割サブネットワークモデルのトレーニングが完了した後、予め設定されたトレーニングセットを再度トレーニング済みの第1分割サブネットワークモデルに入力し、複数枚の分割結果が得られ、これら複数枚の分割結果に基づいて、第1分割サブネットワークにおける各解像度の特徴マップに対して位置決め処理を行い、これら位置決めし切り出された特徴マップと、対応の位置のMaskを第2分割サブネットワークのネットワークモデルに入力してトレーニングし、いずれかの損失関数によって、位置決め処理後の画像で第2分割サブネットワークのネットワークモデルを介して出力されたデータと、対応のMaskとの間の損失を算出し、そして逆伝播アルゴリズムによって第2分割サブネットワークのネットワークモデルパラメータを更新すると共に、第1分割サブネットワークと第2分割サブネットワークのモデルパラメータを交互に更新して、ネットワークモデル全体が収束すると、ニューラルネットワークのトレーニングが完了するようにしてもよい。
上記開示の各実施例から分かるように、本開示におけるニューラルネットワークには2つのサブニューラルネットワークが含まれるが、トレーニング過程では、1セットのトレーニングセットデータだけでトレーニングを完了させることができ、2つのサブニューラルネットワークが1セットのパラメータを共用することは、より多くの記憶空間が節約される。トレーニングされる2つのサブニューラルネットワークが1セットのパラメータを共用するので、このニューラルネットワークが画像処理方法に適用されると、入力された被処理画像が、2つのサブニューラルネットワークにそれぞれ入力されて出力結果がそれぞれ得られた後計算することではなく、直接2つのサブニューラルネットワークを順次に通過して出力結果が得られるので、本開示で提供された画像処理方法は、より速い処理速度を有する共に、空間消費と時間消費がより低くなる。
可能となる一実施形態では、本開示の実施例の方法は、ステップS11の前に、被処理画像を予め設定された解像度となるように調整することを更に含んでもよい。被処理画像を予め設定された解像度となるように調整する実現方法は具体的に限定されないが、一例において、中心切り出しと拡張の方法によって被処理画像を予め設定された解像度となるように調整してもよい。予め設定された解像度の具体的な解像度数値も限定されるものではなく、実際の状況に応じて柔軟的に設定可能である。
このステップによって、本開示の実施例の画像処理方法がニューラルネットワークによって実現される時に、予め設定されたトレーニングセットに含まれる各トレーニング画像を予め設定された解像度となるように統一した後、ニューラルネットワークのトレーニングに用いてもよい。
それに応じて、可能となる一実施形態では、本開示の実施例の方法は、分割された目標対象物を被処理画像と同じ大きさの空間に回復して最終的な分割結果を得ることを更に含んでもよい。ステップS11の前に被処理画像に対する解像度の調整が行われ、得られた分割結果が実際に解像度調整後の画像に基づく分割内容であるようにすることができるので、分割結果を被処理画像と同じ大きさの空間に回復して、最初の被処理画像に基づく分割結果を得ることができる。被処理画像と同じ大きさの空間は限定されるものではなく、被処理画像そのものの画像性質によって決定され、ここでは限定されないが、一例において、被処理画像は3次元画像であってもよいので、被処理画像と同じ大きさの空間は3次元空間であってもよい。
可能となる一実施形態では、ステップS11の前に、被処理画像に対して前処理を行うことを更に含んでもよい。この前処理過程は限定されるものではないが、分割精度を高めることができるあらゆる処理形態が前処理に含まれる過程としてもよく、一例において、被処理画像に対して前処理を行うことは、被処理画像に対して輝度値の均一化を行うことを含んでもよい。
同一解像度の被処理画像を入力として画像処理を行うことで、後で被処理画像に対して順次に実行される畳み込み処理、分割処理及び段階的な逆畳み込み処理の処理効率を高め、画像処理過程全体の時間を短縮することができる。被処理画像に対して前処理を行うことで、画像分割の正確度を高めて、画像処理結果の精度を高めることができる。
(応用例)
心臓類疾病は、現在致死率が最も高い疾患の一つであり、例えば、心房細動は、現在最も一般的な不整脈の一つであり、一般の人々で発生する確率が2%に達しているが、高齢者の発病率がより高くなり且つ一定の致死率があるものであり、人間の健康に対する深刻な脅威になっている。心房に対する精確な分割は心房細動を理解・分析するための鍵であり、通常で目的となる心房細動の手術焼灼治療計画の作成を支援するために用いられる。また、心臓の他の腔の分割は他種類の心臓病の治療と手術計画にも同様に重要な意義を有している。しかしながら、医用画像における心臓の腔の分割方法には正確率が高くなく、計算効率が低い等の欠点がやはり存在し、一部の方法が高い正確率を図ったが、3次元情報が不足して分割結果の平滑さに欠けており、グローバル情報が不足し、計算効率が低下しており、或いは2つのネットワークに分けて分割トレーニングを行う必要があって時間や空間上の冗長性が一定の程度で存在する等のような実際の問題がやはり存在している。
従って、精度が高く、効率が高くかつ時間・空間消費が低い分割方法は、医者の作業量を大幅に減少させ、心臓分割の品質を高めて、心臓関連疾病の治療効果を高めることができる。
図8は本開示の一応用例に係る模式図を示すものであり、図示するように、本開示の実施例は、トレーニング済みの1セットのニューラルネットワークによって実現される画像処理方法を提供する。図から分かるように、当該ニューラルネットワークの具体的なトレーニング過程は、以下の通りであってもよい。
まず、複数枚の入力画像と対応のMaskを含む予め設定されたトレーニングデータを処理し、中心切り出しと拡張の方法によって複数枚の入力画像の解像度を同様な大きさに統一させ、この例では統一された解像度が576×576×96となる。
複数枚の入力画像の解像度を統一させた後、これら入力画像を用いて第1分割サブネットワークをトレーニングしてもよいが、具体的なトレーニング過程は、以下の通りであってもよい。
V-Net又は3D-U-Netに基づく3次元完全畳み込みニューラルネットワークにおけるエンコーダ構造のようなものを採用して入力画像に対して複数回の畳み込み処理を行うが、この例において、畳み込み処理の過程は畳み込み、プーリング、batch norm及びPReluを含んでもよく、複数回の畳み込み処理で、毎回の畳み込み処理の入力については前回の畳み込み処理で得られた結果を採用し、この例において合計4回の畳み込み処理が実行されたことで、解像度が576×576×96、288×288×48、144×144×24、及び72×72×12の特徴マップをそれぞれ生成することができるとともに、入力画像の特徴チャンネルが8から128個に増加している。
上記の4つの特徴マップが得られた後、そのうちの最小解像度の特徴マップ、この例において72×72×12の特徴マップに一つのsoftmax層を通過させることで、それぞれ画素関連位置が目標腔であるか否かの確率を表す2つの解像度が72×72×12である確率出力が得られ、これら2つの確率出力を第1分割サブネットワークの出力結果として、dice loss、交差エントロピー又は他の損失関数を用いて、この出力結果と直接72×72×12にダウンサンプリングしたmaskとの間の損失を算出し、算出された損失に基づいて、逆伝播アルゴリズムを用いて第1分割サブネットワークのネットワークパラメータを更新し、第1分割サブネットワークのネットワークモデルが収束すると、第1分割サブネットワークのトレーニングが完了することを示すようにしてもよい。
第1分割サブネットワークのトレーニングが完了した後、解像度を統一させた複数枚の入力画像をトレーニング済みの第1分割サブネットワークに入力すると、解像度が576×576×96、288×288×48、144×144×24、及び72×72×12の4つの特徴マップ並びに解像度が72×72×12の2つの確率出力が得られ、低解像度の確率出力に基づいて、最大値比較によって心臓の腔の粗分割結果が得られ、その解像度が72×72×12であり、この粗分割結果に基づいて、心臓の腔の重心座標を計算し、それを中心として576×576×96、288×288×48、144×144×24及び72×72×12の4つの特徴マップにおける目標腔全体をカバーするのに十分な一定の大きさの領域が切り出されるようにしてもよいが、一例において、72×72×12の特徴マップにおいて30×20×12の大きさの領域が切り出され、144×144×24の特徴マップにおいて60×40×24の大きさの領域が切り出され、288×288×48の特徴マップにおいて120×80×48の大きさの領域が切り出され、576×576×96の特徴マップにおいて240×160×96の大きさの領域が切り出されるようにしてもよい。
上記の4つの切り出された領域画像が得られた後、これらの領域画像を用いて第2分割サブネットワークをトレーニングしてもよいが、具体的な過程は、以下の通りであってもよい。
段階的な逆畳み込み処理によって、領域画像を段階的に240×160×96の解像度に回復してもよいが、具体的な過程は、以下の通りであってもよい。72×72×12の特徴マップにおいて切り出された30×20×12の大きさの領域に対して逆畳み込み処理を行うことで解像度が60×40×24の特徴マップが得られ、この特徴マップを、その前の144×144×24の特徴マップにおいて切り出された60×40×24の大きさの領域と融合して、融合後の解像度が60×40×24の特徴マップが得られ、更にこの特徴マップに対して逆畳み込み処理を行って解像度が120×80×48の特徴マップが得られ、残りのその前の288×288×48の特徴マップにおいて切り出された120×80×48の領域と融合されて、融合後の解像度が120×80×48の特徴マップが得られ、融合後の特徴マップに対して再度逆畳み込み処理を行って解像度が240×160×96の特徴マップが得られ、更にそれを576×576×96の特徴マップにおいて切り出された240×160×96の領域と融合して、段階的な逆畳み込み処理後の最終画像が得られ、このようにしてこの最終画像に心臓の腔の局所情報とグローバル情報が含まれ、この最終画像にsoftmax層を通過させることで、それぞれ画素関連位置が目標の腔であるか否かの確率を表す2つの解像度が576×576×96の確率出力が得られ、これらの2つの確率出力を第2分割サブネットワークの出力結果として、dice loss、交差エントロピー又は他の損失関数によって、この出力結果とmaskとの間の損失を算出し、算出された損失に基づいて、逆伝播アルゴリズムを用いて第2分割サブネットワークのネットワークパラメータを更新して、第2分割サブネットワークのネットワークモデルが収束すると、第2分割サブネットワークのトレーニングが完了することを示すようにしてもよい。
以上のステップによって、トレーニング済みの心臓の腔分割用のニューラルネットワークが得られ、心臓の腔の位置決めと分割がこの同一のニューラルネットワークで同時に完了することができ、画像入力からネットワークを介した後直接に得られたものである。従って、このトレーニング済みのニューラルネットワークに基づく心臓の腔の分割の過程は、具体的には以下の通りであってもよい。
まず、中心切り出しと拡張の方法を用いて、心臓の腔の分割をすべき被分割画像の解像度をニューラルネットワークの予め設定された大きさに調整し、この例では576×576×96とし、そして、この被分割画像データを上記のトレーニング済みのニューラルネットワークに入力し、被分割画像がトレーニング済みのニューラルネットワークでトレーニング過程と類似する過程を経って、つまり、先に畳み込み処理によって4つの解像度の大きさの特徴マップを生成し、そして粗分割結果が得られ、この粗分割結果に基づいて上記の4つの解像度の大きさの特徴マップを切り出して、更に切り出し結果に対して逆畳み込み処理を行って逆畳み込み結果が得られ、この逆畳み込み結果に対して更に分割処理を行って目標の腔の分割結果が得られ、この分割結果がニューラルネットワークの出力結果として出力され、更にこの出力された分割結果を入力された被分割画像と同じ次元にマッピングして、最終的な心臓の腔分割結果が得られる。
本開示の画像処理方法によれば、1つの3次元ネットワークを用いて心臓の腔の位置決めと分割を同時に行い、位置決めと分割で1セットのパラメータを共用し、心臓の腔の位置決めと分割を同一のネットワークに統一させることができるので、一歩で入力から直接分割結果を得ることができ、速度がより速く、より多くの記憶空間が節約されるとともに、より平滑な3次元モデル分割表面が得られる。
本開示の実施例の画像処理方法は上記の心臓の腔画像処理への適用に限定されず、任意の画像処理に適用されることができるが、本開示においてこれについては特に制限はないことを説明すべきである。
本開示で言及された上記の各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて実施例をなすことができると理解すべきであり、紙数に限りがあるので、本開示ではその説明を省略する。
具体的な実施形態の上記方法において、各ステップの記述順序は、厳しい実行順序を意味することなく、実施過程を何ら限定しないものであり、その機能と可能となる内在的論理に依存することが当業者に理解される。
図9は本開示の実施例に係る画像処理装置のブロック図を示す。この画像処理装置は端末装置、サーバ又は他の処理装置等であってもよい。ここで、端末装置は、ユーザ側装置(User Equipment、UE)、携帯機器、ユーザ端末、端末、セルラーホン、コードレス電話、パーソナル・デジタル・アシスタント(Personal Digital Assistant、PDA)、ハンドヘルドデバイス、計算装置、車載装置、ウェアラブル装置等であってもよい。
いくつかの可能となる実施形態では、この画像処理装置は、プロセッサによるメモリに記憶されたコンピュータにより読み取り可能なコマンドの呼び出しによって実現されてもよい。
図9に示すように、前記画像処理装置は、被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得るための畳み込みモジュール21と、畳み込み結果に基づいて、位置決め処理で位置決め結果を得るための位置決めモジュール22と、位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得るための逆畳み込みモジュール23と、逆畳み込み結果に対して分割処理を行って、被処理画像から目標対象物を分割するための目標対象物取得モジュール24と、を含んでもよい。
可能となる一実施形態では、畳み込みモジュールは、被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを畳み込み結果として得るために用いられる。
可能となる一実施形態では、畳み込みモジュールは、更に、被処理画像に対して畳み込み処理を行って、得られた特徴マップを畳み込み対象特徴マップとすることと、畳み込み対象特徴マップの解像度が第1閾値に到達していない場合に、畳み込み対象特徴マップに対して畳み込み処理を行って、得られた結果を新たに畳み込み対象特徴マップとすることと、畳み込み対象特徴マップの解像度が第1閾値に到達した場合に、得られた解像度が漸減した全ての特徴マップを畳み込み結果とすることとに用いられる。
可能となる一実施形態では、位置決めモジュールは、畳み込み結果に基づいて分割処理を行って、分割結果を得るための分割サブモジュールと、分割結果に基づいて、畳み込み結果に対して位置決め処理を行って、位置決め結果を得るための位置決めサブモジュールと、を含む。
可能となる一実施形態では、分割サブモジュールは、畳み込み結果の解像度が最も低い特徴マップに対して分割処理を行って、分割結果を得るために用いられる。
可能となる一実施形態では、位置決めサブモジュールは、分割結果に基づいて、畳み込み結果における目標対象物に対応する位置情報を決定することと、位置情報に基づいて、畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることとに用いられる。
可能となる一実施形態では、位置決めサブモジュールは、更に、分割結果の座標位置を読み取ることと、座標位置を領域中心として、畳み込み結果内の各解像度での特徴マップにおいて目標対象物全体をカバーできる領域位置をそれぞれ決定し、畳み込み結果における目標対象物に対応する位置情報とすることとに用いられる。
可能となる一実施形態では、位置決めサブモジュールは、更に、位置情報に基づいて、畳み込み結果内の各解像度での特徴マップに対してそれぞれクロップ処理を行って、位置決め結果を得るために用いられる。
可能となる一実施形態では、逆畳み込みモジュールは、位置決め結果に含まれる全ての特徴マップのうち、解像度が最も低い特徴マップを逆畳み込み対象特徴マップとすることと、逆畳み込み対象特徴マップの解像度が第2閾値に到達していない場合に、逆畳み込み対象特徴マップに対して逆畳み込み処理を行って、逆畳み込み処理結果を得ることと、解像度が漸増する順に、位置決め結果における逆畳み込み対象特徴マップの次の特徴マップを決定することと、逆畳み込み処理結果と次の特徴マップを融合して、融合した結果を新たに逆畳み込み対象特徴マップとすることと、逆畳み込み対象特徴マップの解像度が第2閾値に到達した場合に、逆畳み込み対象特徴マップを逆畳み込み結果とすることとに用いられる。
可能となる一実施形態では、分割処理は、被分割対象をsoftmax回帰させて、回帰結果を得ることと、回帰結果に対する最大値の比較を行うことによって、被分割対象に対する分割処理を完了させることと、を含む。
可能となる一実施形態では、装置は、被処理画像に対して段階的な畳み込み処理及び分割処理を行うための第1分割サブネットワークと、位置決め結果に対して段階的な逆畳み込み処理及び分割処理を行うための第2分割サブネットワークと、を含むニューラルネットワークによって実現される。
可能となる一実施形態では、装置は、予め設定されたトレーニングセットによって第1分割サブネットワークをトレーニングすることと、予め設定されたトレーニングセット及びトレーニング済みの第1分割サブネットワークによって第2分割サブネットワークをトレーニングすることとに用いられるトレーニングモジュールを更に含む。
可能となる一実施形態では、畳み込みモジュールの前に、被処理画像を予め設定された解像度となるように調整するための解像度調整モジュールを更に含む。
本開示の実施例は、コンピュータプログラムコマンドが記憶されたコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行されると、上記の方法を実現するコンピュータ読み取り可能な記憶媒体を更に提供する。コンピュータ読み取り可能な記憶媒体は、非揮発性のコンピュータ読み取り可能な記憶媒体であってもよい。
本開示の実施例は、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、前記プロセッサは、上記の方法を実現するように構成される電子機器を更に提供する。
電子機器は、端末、サーバ又は他の形態のデバイスとして提供されてもよい。
図10は本開示の実施例に係る電子機器800のブロック図である。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療機器、フィットネス器具、パーソナル・デジタル・アシスタントなどの端末であってもよい。
図10を参照すると、電子機器800は処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インタフェース812、センサコンポーネント814、および通信コンポーネント816のうちの一つ以上を含んでもよい。
処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、命令を実行して上記方法の全てまたは一部のステップを実行するための一つ以上のプロセッサ820を含んでもよい。なお、処理コンポーネント802は、他のコンポーネントとのインタラクションのための一つ以上のモジュールを含んでもよい。例えば、処理コンポーネント802は、マルチメディアコンポーネント808とのインタラクションのために、マルチメディアモジュールを含んでもよい。
メモリ804は電子機器800での動作に対応するための様々なタイプのデータを記憶するように構成される。これらのデータは、例として、電子機器800で作動するためのあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどの任意のタイプの揮発性または非揮発性記憶機器またはそれらの組み合わせによって実現できる。
電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および電子機器800のための電力の生成、管理および配分に関連する他のコンポーネントを含んでもよい。
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インタフェースを提供するスクリーンを含む。いくつかの実施例では、スクリーンは液晶ディスプレイ(LCD)およびタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチスクリーンとして実現されてもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを感知するために、一つ以上のタッチセンサを含む。前記タッチセンサはタッチまたはスライド動作の境界を感知するのみならず、前記タッチまたはスライド操作に関連する持続時間および圧力も検出するようにしてもよい。いくつかの実施例では、マルチメディアコンポーネント808は一つの前面カメラおよび/または背面カメラを含む。電子機器800が動作モード、例えば撮影モードまたは撮像モードである場合、前面カメラおよび/または背面カメラは外部のマルチメディアデータを受信することができる。各前面カメラおよび背面カメラは一つの固定された光学レンズ系、または焦点距離および光学ズーム能力を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、一つのマイク(MIC)を含み、マイク(MIC)は、電子機器800が動作モード、例えば呼び出しモード、記録モードおよび音声識別モードである場合、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816を介して送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するための一つのスピーカーを含む。
I/Oインタフェース812は処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記の周辺インタフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含んでもよいが、これらに限定されない。
センサコンポーネント814は電子機器800の各方面での状態評価を提供するために一つ以上のセンサを含む。例えば、センサコンポーネント814は、電子機器800のオン/オフ状態、例えば電子機器800のディスプレイおよびキーパッドのよようなコンポーネントの相対的位置決めを検出でき、センサコンポーネント814はさらに、電子機器800または電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位または加減速および電子機器800の温度変化を検出できる。センサコンポーネント814は、何ら物理的接触はない場合に近傍の物体の存在を検出するように構成された近接センサを含んでもよい。センサコンポーネント814はさらに、CMOSまたはCCDイメージセンサのような、イメージングアプリケーションにおいて使用されるための光センサを含んでもよい。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
通信コンポーネント816は電子機器800と他の機器との有線または無線通信を実現するように配置される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルを介して外部の放送管理システムからの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標)(BT)技術および他の技術によって実現できる。
例示的な実施例では、電子機器800は一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現され、上記方法を実行するために用いられることができる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能な記憶媒体、例えばコンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は電子機器800のプロセッサ820によって実行されと、上記方法を実行することができる。
図11は本開示の実施例に係る電子機器1900のブロック図である。例えば、電子機器1900はサーバとして提供されてもよい。図11を参照すると、電子機器1900は、一つ以上のプロセッサを含む処理コンポーネント1922と、処理コンポーネント1922によって実行可能な命令、例えばアプリケーションプログラムを記憶するための、メモリ1932を代表とするメモリ資源とを含む。メモリ1932に記憶されたアプリケーションプログラムはそれぞれが一つの命令群に対応する一つ以上のモジュールを含んでもよい。また、処理コンポーネント1922は命令を実行することによって上記方法を実行するように構成される。
電子機器1900はさらに、電子機器1900の電源管理を実行するように構成された電源コンポーネント1926と、電子機器1900をネットワークに接続するように構成された有線または無線ネットワークインタフェース1950と、入出力(I/O)インタフェース1958とを含んでもよい。電子機器1900はメモリ1932に記憶されたオペレーティングシステム、例えばWindows ServerTM(「Windows」は登録商標)、Mac OS XTM、UnixTM(「Unix」は登録商標)、LinuxTM(「Linux」は登録商標)、FreeBSDTMまたは類似するものに基づいて動作できる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能な記憶媒体、例えばコンピュータプログラム命令を含むメモリ1932が提供され、上記コンピュータプログラム命令は電子機器1900の処理コンポーネント1922によって実行されると上記方法を実行することができる。
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各方面を実現させるためのコンピュータ読み取り可能なプログラム命令が記録されているコンピュータ読み取り可能な記憶媒体を含んでもよい。
コンピュータ読み取り可能な記憶媒体は命令実行装置により使用される命令を保持および記憶可能な有形装置であってもよい。コンピュータ読み取り可能な記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能な記憶媒体のさらに具体的な例(非網羅的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、例えば命令が記憶されているせん孔カードまたはスロット内突起構造のような機械的符号化装置、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能な記憶媒体は瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ読み取り可能なプログラム命令はコンピュータ読み取り可能な記憶媒体から各計算/処理機器にダウンロードされてもよいし、またはネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークによって外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理機器内のネットワークアダプタカードまたはネットワークインタフェースはネットワークからコンピュータ読み取り可能なプログラム命令を受信し、該コンピュータ読み取り可能なプログラム命令を転送し、各計算/処理機器内のコンピュータ読み取り可能な記憶媒体に記憶させる。
本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含む一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能なプログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズし、該電子回路によりコンピュータ読み取り可能なプログラム命令を実行することにより本開示の各方面を実現するようにしてもよい。
なお、ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各方面を説明しが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能なプログラム命令によって実現できると理解すべきである。
これらのコンピュータ読み取り可能プログラム命令は、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供されて、これらの命令がコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行されると、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現するように機械を製造してもよい。また、これらのコンピュータ読み取り可能なプログラム命令は、コンピュータ読み取り可能な記憶媒体に記憶し、コンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよい。命令を記憶しているコンピュータ読み取り可能な記憶媒体には、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各方面を実現するための命令を有する製品を含む。
コンピュータ読み取り可能なプログラム命令は、コンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードし、コンピュータ、他のプログラマブルデータ処理装置または他の機器に一連の動作ステップを実行させることにより、コンピュータにより実施されるプロセスを生成し、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令によりフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうちフローチャートおよびブロック図は本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は、指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの代替としての実現形態では、ブロックに表記される機能は図面に付した順序と異なって実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことに注意すべきである。
論理に違反しない限り、本願のそれぞれの実施例は相互に組み合わせることができ、異なる実施例において重点として説明されるものが異なって、重点として説明されていない部分については他の実施例の記載を参照すればよい。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または市場における技術への改善を好適に解釈するか、または他の普通の当業者に本文に披露された各実施例を理解させるためのものである。

Claims (31)

  1. 被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得ることと、
    前記畳み込み結果に基づいて、位置決め処理で位置決め結果を得ることと、
    前記位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得ることと、
    前記逆畳み込み結果に対して分割処理を行って、前記被処理画像から目標対象物を分割することと、を含むことを特徴とする画像処理方法。
  2. 前記被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得ることは、
    被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを前記畳み込み結果として得ることを含むことを特徴とする請求項1に記載の方法。
  3. 前記被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを前記畳み込み結果として得ることは、
    被処理画像に対して畳み込み処理を行って、得られた特徴マップを畳み込み対象特徴マップとすることと、
    前記畳み込み対象特徴マップの解像度が第1閾値に到達していない場合に、前記畳み込み対象特徴マップに対して畳み込み処理を行って、得られた結果を新たに畳み込み対象特徴マップとすることと、
    前記畳み込み対象特徴マップの解像度が第1閾値に到達した場合に、得られた解像度が漸減した全ての特徴マップを前記畳み込み結果とすることと、を含むことを特徴とする請求項2に記載の方法。
  4. 前記畳み込み結果に基づいて、位置決め処理で位置決め結果を得ることは、
    前記畳み込み結果に基づいて分割処理を行って、分割結果を得ることと、
    前記分割結果に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることと、を含むことを特徴とする請求項1~3のいずれか一項に記載の方法。
  5. 前記畳み込み結果に基づいて分割処理を行って、分割結果を得ることは、
    前記畳み込み結果のうち解像度が最も低い特徴マップに対して分割処理を行って、分割結果を得ることを含むことを特徴とする請求項4に記載の方法。
  6. 前記分割結果に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることは、
    前記分割結果に基づいて、前記畳み込み結果において前記目標対象物に対応する位置情報を決定することと、
    前記位置情報に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることと、を含むことを特徴とする請求項4又は5に記載の方法。
  7. 前記分割結果に基づいて、畳み込み結果において前記目標対象物に対応する位置情報を決定することは、
    前記分割結果の座標位置を読み取ることと、
    前記座標位置を領域中心として、前記畳み込み結果内の各解像度での特徴マップにおいて前記目標対象物全体をカバーできる領域位置をそれぞれ決定し、畳み込み結果において前記目標対象物に対応する位置情報とすることと、を含むことを特徴とする請求項6に記載の方法。
  8. 前記位置情報に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることは、
    前記位置情報に基づいて、前記畳み込み結果内の各解像度での特徴マップに対してそれぞれクロップ処理を行って、位置決め結果を得ることを含むことを特徴とする請求項6又は7に記載の方法。
  9. 前記位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得ることは、
    前記位置決め結果に含まれる全ての特徴マップのうち、解像度が最も低い特徴マップを逆畳み込み対象特徴マップとすることと、
    前記逆畳み込み対象特徴マップの解像度が第2閾値に到達していない場合に、前記逆畳み込み対象特徴マップに対して逆畳み込み処理を行って、逆畳み込み処理結果を得ることと、
    解像度が漸増する順に、前記位置決め結果のうち前記逆畳み込み対象特徴マップとなる次の特徴マップを決定することと、
    前記逆畳み込み処理結果と前記次の特徴マップを融合して、前記融合した結果を新たに逆畳み込み対象特徴マップとすることと、
    前記逆畳み込み対象特徴マップの解像度が第2閾値に到達した場合に、前記逆畳み込み対象特徴マップを逆畳み込み結果とすることと、を含むことを特徴とする請求項1~7のいずれか一項に記載の方法。
  10. 前記分割処理は、
    被分割対象をsoftmax回帰させて、回帰結果を得ることと、
    前記回帰結果に対する最大値の比較を行うことによって、前記被分割対象に対する分割処理を完了させることと、を含むことを特徴とする請求項1~9のいずれか一項に記載の方法。
  11. 前記方法は、前記被処理画像に対して段階的な畳み込み処理及び分割処理を行うための第1分割サブネットワークと、前記位置決め結果に対して段階的な逆畳み込み処理及び分割処理を行うための第2分割サブネットワークとを含むニューラルネットワークによって実現されることを特徴とする請求項1~10のいずれか一項に記載の方法。
  12. 前記ニューラルネットワークのトレーニング過程は、
    予め設定されたトレーニングセットによって前記第1分割サブネットワークをトレーニングすることと、
    前記予め設定されたトレーニングセット及びトレーニング済みの第1分割サブネットワークによって前記第2分割サブネットワークをトレーニングすることと、を含むことを特徴とする請求項11に記載の方法。
  13. 前記被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得る前に、
    前記被処理画像を予め設定された解像度となるように調整することを更に含むことを特徴とする請求項1~12のいずれか一項に記載の方法。
  14. 前記被処理画像は3次元医用画像であることを特徴とする請求項1~13のいずれか一項に記載の方法。
  15. 被処理画像に対して段階的な畳み込み処理を行って、畳み込み結果を得るための畳み込みモジュールと、
    前記畳み込み結果に基づいて、位置決め処理で位置決め結果を得るための位置決めモジュールと、
    前記位置決め結果に対して段階的な逆畳み込み処理を行って、逆畳み込み結果を得るための逆畳み込みモジュールと、
    前記逆畳み込み結果に対して分割処理を行って、前記被処理画像から目標対象物を分割するための目標対象物取得モジュールと、を含むことを特徴とする画像処理装置。
  16. 前記畳み込みモジュールは、
    被処理画像に対して段階的な畳み込み処理を行って、少なくとも1つの解像度が漸減した特徴マップを前記畳み込み結果として得るために用いられることを特徴とする請求項15に記載の装置。
  17. 前記畳み込みモジュールは、更に、
    被処理画像に対して畳み込み処理を行って、得られた特徴マップを畳み込み対象特徴マップとすることと、
    前記畳み込み対象特徴マップの解像度が第1閾値に到達していない場合に、前記畳み込み対象特徴マップに対して畳み込み処理を行って、得られた結果を新たに畳み込み対象特徴マップとすることと、
    前記畳み込み対象特徴マップの解像度が第1閾値に到達した場合に、得られた解像度が漸減した全ての特徴マップを前記畳み込み結果とすることとに用いられることを特徴とする請求項16に記載の装置。
  18. 前記位置決めモジュールは、
    前記畳み込み結果に基づいて分割処理を行って、分割結果を得るための分割サブモジュールと、
    前記分割結果に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得るための位置決めサブモジュールと、を含むことを特徴とする請求項15~17のいずれか一項に記載の装置。
  19. 前記分割サブモジュールは、
    前記畳み込み結果のうち解像度が最も低い特徴マップに対して分割処理を行って、分割結果を得るために用いられることを特徴とする請求項18に記載の装置。
  20. 前記位置決めサブモジュールは、
    前記分割結果に基づいて、前記畳み込み結果において前記目標対象物に対応する位置情報を決定することと、
    前記位置情報に基づいて、前記畳み込み結果に対して位置決め処理を行って、位置決め結果を得ることとに用いられることを特徴とする請求項18又は19に記載の装置。
  21. 前記位置決めサブモジュールは、更に、
    前記分割結果の座標位置を読み取ることと、
    前記座標位置を領域中心として、前記畳み込み結果内の各解像度での特徴マップにおいて前記目標対象物全体をカバーできる領域位置をそれぞれ決定し、畳み込み結果において前記目標対象物に対応する位置情報とすることとに用いられることを特徴とする請求項20に記載の装置。
  22. 前記位置決めサブモジュールは、更に、
    前記位置情報に基づいて、前記畳み込み結果内の各解像度での特徴マップに対してそれぞれクロップ処理を行って、位置決め結果を得るために用いられることを特徴とする請求項20又は21に記載の装置。
  23. 前記逆畳み込みモジュールは、
    前記位置決め結果に含まれる全ての特徴マップのうち、解像度が最も低い特徴マップを逆畳み込み対象特徴マップとすることと、
    前記逆畳み込み対象特徴マップの解像度が第2閾値に到達していない場合に、前記逆畳み込み対象特徴マップに対して逆畳み込み処理を行って、逆畳み込み処理結果を得ることと、
    解像度が漸増する順に、前記位置決め結果のうち前記逆畳み込み対象特徴マップとなる次の特徴マップを決定することと、
    前記逆畳み込み処理結果と前記次の特徴マップを融合して、前記融合した結果を新たに逆畳み込み対象特徴マップとすることと、
    前記逆畳み込み対象特徴マップの解像度が第2閾値に到達した場合に、前記逆畳み込み対象特徴マップを逆畳み込み結果とすることとに用いられることを特徴とする請求項15~22のいずれか一項に記載の装置。
  24. 前記分割処理は、
    分割対象をsoftmax回帰させて、回帰結果を得ることと、
    前記回帰結果に対する最大値の比較を行うことによって、前記分割対象に対する分割処理を完了させることと、を含むことを特徴とする請求項15~23のいずれか一項に記載の装置。
  25. 前記装置は、前記被処理画像に対して段階的な畳み込み処理及び分割処理を行うための第1分割サブネットワークと、前記位置決め結果に対して段階的な逆畳み込み処理及び分割処理を行うための第2分割サブネットワークと、を含むニューラルネットワークによって実現されることを特徴とする請求項15~24のいずれか一項に記載の装置。
  26. 予め設定されたトレーニングセットによって前記第1分割サブネットワークをトレーニングすることと、
    前記予め設定されたトレーニングセット及びトレーニング済みの第1分割サブネットワークによって前記第2分割サブネットワークをトレーニングすることとに用いられるトレーニングモジュールを更に含むことを特徴とする請求項25に記載の装置。
  27. 前記畳み込みモジュールの前に、
    前記被処理画像を予め設定された解像度となるように調整するための解像度調整モジュールを更に含むことを特徴とする請求項15~26のいずれか一項に記載の装置。
  28. 前記被処理画像は3次元医用画像であることを特徴とする請求項15~27のいずれか一項に記載の装置。
  29. プロセッサと、
    プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、
    前記プロセッサは、請求項1~14のいずれか一項に記載の方法を実行するように構成されることを特徴とする電子機器。
  30. コンピュータプログラムコマンドが記憶されたコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行されると、請求項1~14のいずれか一項に記載の方法を実現することを特徴とするコンピュータ読み取り可能な記憶媒体。
  31. コンピュータにより読み取り可能なコードを含み、前記コンピュータにより読み取り可能なコードが電子機器で作動すると、前記電子機器のプロセッサに請求項1~14のいずれか一項に記載の方法を実現するためのコマンドを実行させることを特徴とするコンピュータプログラム。
JP2021539065A 2019-04-01 2019-09-25 画像処理方法及び装置、電子機器並びに記憶媒体 Pending JP2022517571A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910258038.1A CN109978886B (zh) 2019-04-01 2019-04-01 图像处理方法及装置、电子设备和存储介质
CN201910258038.1 2019-04-01
PCT/CN2019/107844 WO2020199528A1 (zh) 2019-04-01 2019-09-25 图像处理方法及装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
JP2022517571A true JP2022517571A (ja) 2022-03-09

Family

ID=67082222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021539065A Pending JP2022517571A (ja) 2019-04-01 2019-09-25 画像処理方法及び装置、電子機器並びに記憶媒体

Country Status (6)

Country Link
US (1) US20210319560A1 (ja)
JP (1) JP2022517571A (ja)
CN (1) CN109978886B (ja)
SG (1) SG11202106290TA (ja)
TW (3) TWI758233B (ja)
WO (1) WO2020199528A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978886B (zh) * 2019-04-01 2021-11-09 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN110807463B (zh) * 2019-09-17 2022-10-11 珠海格力电器股份有限公司 图像分割方法、装置、计算机设备和存储介质
US11335045B2 (en) * 2020-01-03 2022-05-17 Gyrfalcon Technology Inc. Combining feature maps in an artificial intelligence semiconductor solution
CN113706548B (zh) * 2020-05-09 2023-08-22 北京康兴顺达科贸有限公司 基于ct影像对胸部前纵隔病灶自动分割的方法
CN113516614A (zh) 2020-07-06 2021-10-19 阿里巴巴集团控股有限公司 脊柱影像的处理方法、模型训练方法、装置及存储介质
CN112150449B (zh) * 2020-09-29 2022-11-25 太原理工大学 一种脑卒中病灶分割方法和系统
CN112233194B (zh) * 2020-10-15 2023-06-02 平安科技(深圳)有限公司 医学图片优化方法、装置、设备及计算机可读存储介质
CN112308867B (zh) * 2020-11-10 2022-07-22 上海商汤智能科技有限公司 牙齿图像的处理方法及装置、电子设备和存储介质
US11461989B2 (en) * 2020-12-04 2022-10-04 Himax Technologies Limited Monitor method and monitor system thereof wherein mask is used to cover image for detecting object
TWI768759B (zh) * 2021-03-11 2022-06-21 瑞昱半導體股份有限公司 具有超解析放大機制的影像放大裝置及方法
CN113225226B (zh) * 2021-04-30 2022-10-21 上海爱数信息技术股份有限公司 一种基于信息熵的云原生系统观测方法及系统
CN113012178A (zh) * 2021-05-07 2021-06-22 西安智诊智能科技有限公司 一种肾脏肿瘤图像分割方法
US11475158B1 (en) * 2021-07-26 2022-10-18 Netskope, Inc. Customized deep learning classifier for detecting organization sensitive data in images on premises
CN114708608B (zh) * 2022-06-06 2022-09-16 浙商银行股份有限公司 一种银行票据全自动化特征工程方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158575A1 (en) * 2016-03-17 2017-09-21 Imagia Cybernetics Inc. Method and system for processing a task with robustness to missing input information
WO2018081537A1 (en) * 2016-10-31 2018-05-03 Konica Minolta Laboratory U.S.A., Inc. Method and system for image segmentation using controlled feedback
JP2018147431A (ja) * 2017-03-09 2018-09-20 コニカミノルタ株式会社 画像認識装置及び画像認識方法
JP2019036009A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058210B2 (en) * 2001-11-20 2006-06-06 General Electric Company Method and system for lung disease detection
US7899514B1 (en) * 2006-01-26 2011-03-01 The United States Of America As Represented By The Secretary Of The Army Medical image processing methodology for detection and discrimination of objects in tissue
WO2016172612A1 (en) * 2015-04-23 2016-10-27 Cedars-Sinai Medical Center Automated delineation of nuclei for three dimensional (3-d) high content screening
RU2719028C1 (ru) * 2016-09-07 2020-04-16 Электа, Инк. Система и способ для обучающихся моделей планов радиотерапевтического лечения с прогнозированием распределений дозы радиотерапии
CN106530320B (zh) * 2016-09-30 2019-12-17 深圳大学 一种端到端的图像分割处理方法及系统
TWI624804B (zh) * 2016-11-07 2018-05-21 盾心科技股份有限公司 利用超解析重建法生成高解析度影像的方法與系統
CN107016681B (zh) * 2017-03-29 2023-08-25 浙江师范大学 基于全卷积网络的脑部mri肿瘤分割方法
CN108776969B (zh) * 2018-05-24 2021-06-22 复旦大学 基于全卷积网络的乳腺超声图像肿瘤分割方法
CN108682015B (zh) * 2018-05-28 2021-10-19 安徽科大讯飞医疗信息技术有限公司 一种生物图像中的病灶分割方法、装置、设备及存储介质
CN108765422A (zh) * 2018-06-13 2018-11-06 云南大学 一种视网膜图像血管自动分割方法
CN108986115B (zh) * 2018-07-12 2020-12-18 佛山生物图腾科技有限公司 医学图像分割方法、装置及智能终端
CN109063609A (zh) * 2018-07-18 2018-12-21 电子科技大学 一种基于光流特征与全卷积语义分割特征结合的异常行为检测方法
CN108986891A (zh) * 2018-07-24 2018-12-11 北京市商汤科技开发有限公司 医疗影像处理方法及装置、电子设备及存储介质
CN109145769A (zh) * 2018-08-01 2019-01-04 辽宁工业大学 融合图像分割特征的目标检测网络设计方法
CN109166130B (zh) * 2018-08-06 2021-06-22 北京市商汤科技开发有限公司 一种图像处理方法及图像处理装置
CN109035261B (zh) * 2018-08-09 2023-01-10 北京市商汤科技开发有限公司 医疗影像处理方法及装置、电子设备及存储介质
CN109191476B (zh) * 2018-09-10 2022-03-11 重庆邮电大学 基于U-net网络结构的生物医学图像自动分割新方法
CN109493317B (zh) * 2018-09-25 2020-07-07 哈尔滨理工大学 基于级联卷积神经网络的3d多椎骨分割方法
CN109493343A (zh) * 2018-12-29 2019-03-19 上海鹰瞳医疗科技有限公司 医疗图像异常区域分割方法及设备
CN109978886B (zh) * 2019-04-01 2021-11-09 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158575A1 (en) * 2016-03-17 2017-09-21 Imagia Cybernetics Inc. Method and system for processing a task with robustness to missing input information
WO2018081537A1 (en) * 2016-10-31 2018-05-03 Konica Minolta Laboratory U.S.A., Inc. Method and system for image segmentation using controlled feedback
JP2018147431A (ja) * 2017-03-09 2018-09-20 コニカミノルタ株式会社 画像認識装置及び画像認識方法
JP2019036009A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JING LIU, ET AL: "Automatic Detection and Segmentation of Mitochondria from SEM", 2018 40TH ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY (E, JPN6022037057, 2018, US, pages 628 - 631, XP033431840, ISSN: 0005029520, DOI: 10.1109/EMBC.2018.8512393 *
KAIMING HE, ET AL: "Mask R-CNN", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6022037055, 2017, US, pages 2980 - 2988, XP033283165, ISSN: 0005029518, DOI: 10.1109/ICCV.2017.322 *
OLAF RONNEBERGER, ET AL: "U-Net: Convolutional Networks for Biomedical Image Segmentation", IN INTERNATIONAL CONFERENCE ON MEDICAL IMAGE COMPUTING AND COMPUTER-ASSISTED INTERVENTION (MICCAI), JPN6022037056, 2015, US, pages 1 - 8, ISSN: 0005029519 *

Also Published As

Publication number Publication date
TWI758233B (zh) 2022-03-11
TW202207156A (zh) 2022-02-16
CN109978886B (zh) 2021-11-09
CN109978886A (zh) 2019-07-05
TWI758234B (zh) 2022-03-11
SG11202106290TA (en) 2021-07-29
TW202209343A (zh) 2022-03-01
TWI750518B (zh) 2021-12-21
TW202038188A (zh) 2020-10-16
WO2020199528A1 (zh) 2020-10-08
US20210319560A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
JP2022517571A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN110047078B (zh) 图像处理方法及装置、电子设备和存储介质
CN109829920B (zh) 图像处理方法及装置、电子设备和存储介质
JP6944051B2 (ja) キーポイント検出方法及び装置、電子機器並びに記憶媒体
JP6916970B2 (ja) ビデオ処理方法及び装置、電子機器並びに記憶媒体
CN110569854B (zh) 图像处理方法及装置、电子设备和存储介质
JP7262659B2 (ja) 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体
JP6986167B2 (ja) 画像生成方法および装置、電子機器並びに記憶媒体
JP2022515722A (ja) 画像セグメンテーション方法及び装置、電子機器並びに記憶媒体
WO2020088328A1 (zh) 一种结肠息肉图像的处理方法和装置及系统
JP2022511217A (ja) 画像処理方法及び装置、電子機器、コンピュータ読取可能記憶媒体及びコンピュータプログラム
JP2022530413A (ja) 画像処理方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN112541928A (zh) 网络训练方法及装置、图像分割方法及装置和电子设备
JP7096888B2 (ja) ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体
JP2022528012A (ja) 被写界深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム
JP2022522551A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
JP2022532330A (ja) 画像上の位置決めのインタラクティブ表示方法、装置、電子機器及び記憶媒体
CN111724361B (zh) 实时显示病灶的方法及装置、电子设备和存储介质
JP2022518583A (ja) ニューラルネットワークトレーニングおよび画像分割方法、装置、機器
JP2022547372A (ja) 画像処理方法及び装置、電子デバイス、記憶媒体及びプログラム製品
CN111860388A (zh) 图像处理方法及装置、电子设备和存储介质
CN115457024A (zh) 冷冻电镜图像处理方法、装置、电子设备及存储介质
CN111738998A (zh) 病灶位置动态检测方法及装置、电子设备和存储介质
CN117152128B (zh) 神经影像的病灶识别方法、装置、电子设备和存储介质
CN113553460A (zh) 影像检索方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404