JP2022537974A - ニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体 - Google Patents

ニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP2022537974A
JP2022537974A JP2021574781A JP2021574781A JP2022537974A JP 2022537974 A JP2022537974 A JP 2022537974A JP 2021574781 A JP2021574781 A JP 2021574781A JP 2021574781 A JP2021574781 A JP 2021574781A JP 2022537974 A JP2022537974 A JP 2022537974A
Authority
JP
Japan
Prior art keywords
feature extraction
image block
sample image
category
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2021574781A
Other languages
English (en)
Inventor
ナー ワン
タオ ソン
シンロン リウ
ニン ホアン
シャオティン ジャン
Original Assignee
シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド filed Critical シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Publication of JP2022537974A publication Critical patent/JP2022537974A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本願の実施例は、ニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体に関する。前記方法は、ニューラルネットワークモデルを訓練し、訓練されたニューラルネットワークモデルにより、画像を分類するために用いられ、前記方法は、サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得することと、サンプル画像におけるターゲット領域の位置情報に基づいてセグメンテーションを行い、少なくとも1つのサンプル画像ブロックを得ることと、カテゴリ情報に基づいて、少なくとも1つのサンプル画像ブロックを分類し、Nカテゴリのサンプル画像ブロックを得ることと、Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うことと、を含む。

Description

(関連出願の相互参照)
本願は、2020年03月05日に中国特許局に提出された、出願番号が202010148544.8である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、コンピュータ技術分野に関し、特にニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体に関する。
機械学習などの方法は、画像処理分野において広く適用されている。例えば、一般的な画像又は三次元画像の分類及び画像検出などの分野に適用可能である。例えば、医用画像処理において、機械学習方法で疾患カテゴリの決定及び病変領域の検出などを行うことができる。
医用画像の処理において、肺部医用画像(例えば、肺部コンピュータ断層撮影(Computed Tomography:CT))の分類及び検出は、肺炎、肺癌などの病変のスクリーニング及び診断に重要な役割を果たす。手術前に病変特徴を早期に発見することは、臨床的に極めて重要であり、臨床的意思決定のためのガイダンスを提供することができる。しかしながら、早期癌の典型的な放射線医学的特徴(肺胞が明瞭であり、胸膜が収縮するなど等)が欠けているため、臨床的に、専門医師又は放射線科医は、CT画像から、亜型すりガラス型結節(Ground-Glass Nodule:GGN)カテゴリを正確に鑑別診断することが困難である。
本願の実施例は、ニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体を提供する。
本願の実施例は、ニューラルネットワーク訓練方法を提供する。前記ニューラルネットワーク訓練方法は、ニューラルネットワークモデルを訓練し、訓練されたニューラルネットワークモデルにより、画像を分類するために用いられ、前記方法は、サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得することと、前記サンプル画像におけるターゲット領域の位置情報に基づいてセグメンテーションを行い、少なくとも1つのサンプル画像ブロックを得ることと、前記カテゴリ情報に基づいて、前記少なくとも1つのサンプル画像ブロックを分類し、Nカテゴリのサンプル画像ブロックを得ることであって、Nは整数であり、且つN≧1である、ことと、前記Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うことと、を更に含む。
本願の実施例のニューラルネットワーク訓練方法によれば、サンプル画像ブロックに対して細かい分類を行うことができ、ニューラルネットワークに対して訓練を行う。これにより、ニューラルネットワークは画像に対して細かい分類を行うことができ、分類効率及び正確度を向上させることができる。
本願の幾つかの実施例において、前記サンプル画像は、医用映像ピクチャである。
本願の幾つかの実施例において、サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得することは、前記医用映像ピクチャにおけるターゲット領域に対して位置決めを行い、前記ターゲット領域の位置情報を得ることと、前記医用映像ピクチャに関連する病理学的ピクチャを取得することであって、前記病理学的ピクチャは、診断された、病理学的情報を含むピクチャである、ことと、前記病理学的ピクチャにおける各ターゲット領域の病理学的情報に基づいて、前記医用映像ピクチャにおけるターゲット領域のカテゴリ情報を決定することと、を含む。
本願の幾つかの実施例において、前記Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うことは、いずれか1つのサンプル画像ブロックを前記ニューラルネットワークに入力して訓練を行い、サンプル画像ブロックのカテゴリ予測情報及び予測ターゲット領域を得ることと、少なくとも前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、分類損失を決定することと、前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、セグメンテーション損失を決定することと、前記分類損失及び前記セグメンテーション損失に基づいて、前記ニューラルネットワークを訓練することと、を含む。
本願の幾つかの実施例において、前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、分類損失を決定することは、前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、第1分類損失を決定することと、前記カテゴリ予測情報及び前記サンプル画像ブロックが属するカテゴリのカテゴリセンターのカテゴリ情報に基づいて、第2分類損失を決定することと、前記第1分類損失及び前記第2分類損失に対して加重加算処理を行い、前記分類損失を得ることと、を含む。
このような方式で、訓練において、同一のカテゴリのサンプル画像ブロックのカテゴリ特徴をより寄せ集めることができ、カテゴリが異なるサンプル画像ブロックのカテゴリ情報間の特徴距離をより大きくすることができ、分類性能の向上及び分類の正確率の向上に寄与する。
本願の幾つかの実施例において、前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、セグメンテーション損失を決定することは、前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記予測ターゲット領域の第1重み及び前記サンプル画像ブロックにおけるサンプル背景領域の第2重みを決定することと、前記第1重み、第2重み、前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、前記セグメンテーション損失を決定することと、を含む。
本願の幾つかの実施例において、前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記予測ターゲット領域の第1重み及び前記サンプル画像ブロックにおけるサンプル背景領域の第2重みを決定することは、前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記サンプル画像ブロックにおけるサンプル背景領域の第2割合を決定することと、前記第2割合を前記第1重みとして決定し、前記第1割合を第2重みとして決定することと、を含む。
このような方式で、ターゲット領域の誤差と非ターゲット領域の誤差のバランスを取り、ネットワークパラメータの最適化に寄与し、訓練効率及び訓練効果を向上させる。
本願の幾つかの実施例において、前記カテゴリ情報は、前浸潤性腺癌異型腺腫様過形成結節、上皮内腺癌結節、微小浸潤腺癌結節及び浸潤性腺癌結節を含む。
本願の幾つかの実施例において、前記ニューラルネットワークは、共有特徴抽出ネットワーク、分類ネットワーク及びセグメンテーションネットワークを含み、前記方法は、処理されるべき画像ブロックを前記共有特徴抽出ネットワークに入力して処理を行い、前記処理されるべき画像ブロックのターゲット特徴を得ることであって、前記共有特徴抽出ネットワークは、M個の共有特徴抽出ブロックを備え、i番目の共有特徴抽出ブロックの入力特徴は、最初のi-1個の共有特徴抽出ブロックの出力特徴を含み、i及びMは整数であり、且つ1<i≦Mである、ことと、前記ターゲット特徴を前記分類ネットワークに入力して分類処理を行い、前記処理されるべき画像ブロックのカテゴリ情報を得ることと、前記ターゲット特徴を前記セグメンテーションネットワークに入力してセグメンテーション処理を行い、前記処理されるべき画像ブロックにおけるターゲット領域を得ることと、を含む。
このような方式で、共有特徴抽出ネットワークによりターゲット特徴を得ることができる。共有特徴抽出ネットワークの共有特徴抽出ブロックは、この前の全ての共有特徴抽出ブロックの出力特徴を得て、自己の出力特徴を後続の全ての共有特徴抽出ブロックに入力することができる。ネットワーク内の勾配移動を強化し、勾配消失減少を軽減すると同時に、特徴抽出及び学習能力を向上させることができる。入力された処理されるべき画像ブロックに対するより細かい分類及びセグメンテーション処理に寄与する。処理されるべき画像ブロックの細かいカテゴリ情報及びターゲット領域を得て、画像処理効率を向上させることができる。
本願の幾つかの実施例において、処理されるべき画像ブロックを前記共有特徴抽出ネットワークに入力して処理を行い、前記処理されるべき画像ブロックのターゲット特徴を得ることは、前記処理されるべき画像ブロックに対して第1特徴抽出処理を行い、前記処理されるべき画像ブロックの第1特徴を得ることと、前記第1特徴を1番目の共有特徴抽出ブロックに入力し、前記1番目の共有特徴抽出ブロックの出力特徴を得て、前記1番目の共有特徴抽出ブロックの出力特徴を後続のM-1個の共有特徴抽出ブロックに出力することと、最初のj-1個の共有特徴抽出ブロックの出力特徴をj番目の共有特徴抽出ブロックに入力し、前記j番目の共有特徴抽出ブロックの出力特徴を得ることであって、jは整数であり、且つ1<j<Mである、ことと、M番目の共有特徴抽出ブロックの出力特徴に対して第2特徴抽出処理を行い、前記処理されるべき画像ブロックの第2特徴を得ることと、前記第2特徴に対してプーリング処理を行い、前記ターゲット特徴を得ることと、を含む。
本願の幾つかの実施例において、前記方法は、処理されるべき画像に対して前処理を行い、第1画像を得ることと、前記第1画像におけるターゲット領域に対して位置決めを行い、前記第1画像におけるターゲット領域の位置情報を決定することと、前記第1画像におけるターゲット領域の位置情報に基づいて、セグメンテーションを行い、少なくとも1つの前記処理されるべき画像ブロックを得ることと、を更に含む。
本願の実施例は、ニューラルネットワーク訓練装置を提供する。前記ニューラルネットワーク訓練装置は、ニューラルネットワークモデルを訓練し、訓練されたニューラルネットワークモデルにより、画像を分類するために用いられ、前記装置は、サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得するように構成される取得モジュールと、前記サンプル画像におけるターゲット領域の位置情報に基づいてセグメンテーションを行い、少なくとも1つのサンプル画像ブロックを得るように構成される第1セグメンテーションモジュールと、前記カテゴリ情報に基づいて、前記少なくとも1つのサンプル画像ブロックを分類し、Nカテゴリのサンプル画像ブロックを得るように構成される分類モジュールであって、Nは整数であり、且つN≧1である、分類モジュールと、前記Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うように構成される訓練モジュールと、を備える。
本願の実施例は、電子機器を提供する。前記電子機器は、プロセッサと、プロセッサによる実行可能なコンピュータプログラムを記憶するように構成されるメモリと、を備え、前記プロセッサは、前記コンピュータプログラムにより、上記ニューラルネットワーク訓練方法を実行するように構成される。
本願の実施例は、記憶媒体を提供する。前記記憶媒体にコンピュータプログラムが記憶されており、前記コンピュータプログラムは、実行される時に上記ニューラルネットワーク訓練方法を実行するように構成される。
本願の実施例は、コンピュータプログラムを提供する。前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードは電子機器で実行されると、電子機器におけるプロセッサは、上記ニューラルネットワーク訓練方法を実行するように構成される。
上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本願を限定するものではないことが理解されるべきである。本願の他の特徴及び態様は、下記の図面に基づく例示的な実施例の詳細な説明を参照すれば明らかになる。
ここで添付した図面は、明細書に引き入れて本明細書の一部分を構成し、本願に適合する実施例を示し、かつ、明細書とともに本願の技術的解決手段を解釈することに用いられる。
本願の実施例によるニューラルネットワーク訓練方法のシステムアーキテクチャを示す概略図である。 本願の実施例によるニューラルネットワーク訓練方法の実現フローを示す図である。 本願の実施例によるニューラルネットワーク訓練方法の適用を示す概略図である。 本願の実施例によるニューラルネットワーク訓練装置を示す概略図である。 本願の実施例による電子機器を示す概略図である。 本願の実施例によるもう1つの電子機器を示す概略図である。
以下、図面を参照しながら本願の種々の例示的な実施例、特徴及び態様を詳しく説明する。図面における同一の符号は、同一または類似する機能を有する要素を示す。図面は、実施例の種々の態様を示しているが、特別な説明がない限り、必ずしも比率どおりの図面ではない。
ここで使用した「例示的」という用語は「例、実施例として用いられるか、または説明のためのものである」ことを意味する。ここで、「例示的なもの」として説明される如何なる実施例は、他の実施例より好適または有利であると必ずしも解釈されるべきではない。
本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。
なお、本願をより良く説明するために、以下の具体的な実施形態において具体的な細部を多く記載した。当業者は、これら具体的な詳細に関わらず、本開示は同様に実施可能であると理解すべきである。本発明の主旨を明確にするために、一部の実例において、当業者に熟知されている方法、手段、素子及び回路については詳しく説明しないことにする。
本願の実施例を更に詳しく説明する前に、まず、関連技術における欠点を説明する。
関連技術において、機械学習などの方法は、画像処理分野において広く適用されている。例えば、一般的な画像又は三次元画像の分類及び画像検出などの分野に適用可能である。
肺癌は、わが国ではよく見られる悪性腫瘍の1つであり、その死亡率は、都市又は農村、男性又は女性に関わらず、癌の中で第1位の死亡原因である。ここで、腺癌は、全ての肺癌の約40%を占める。医用画像(例えば、肺部CT及び低線量ヘリカルCT)を用いてスクリーニングを行うと、ますます多くの早期肺腺癌は、すりガラス型結節(Ground-Glass Nodule:GGN)として発見されて表現される。腺癌は、前浸潤性腺癌異型腺腫様過形成(Atypical Adenomatous Hyperplasia Of Preinvasive Adenocarcinoma:AAHOPA)、上皮内腺癌(Adenocarcinoma In Situ:AIS)、微小浸潤腺癌(Minimally Invasive Adenocarcinoma:MIA)及び浸潤性腺癌(Invasive Adenocarcinoma:IA)に分けられる。腺癌のGGNカテゴリは、前浸潤性腺癌異型腺腫様過形成結節、上皮内腺癌結節、微小浸潤腺癌結節及び浸潤性腺癌結節を含む。腫瘍の大きさの増加に伴い、生存期間は著しく低減する。これは、早期発見及び診断が患者の死亡率を低下させるための有効かつ重要な方法であることを表す。従って、手術前に、浸潤性特徴を早期に発見することは、臨床的に重要であり、臨床的意思決定のためのガイダンスを提供することができる。
医用画像処理において、肺部医用画像(例えば、肺部CT)の分類及び検出は、医学的スクリーニング及び肺炎、肺癌などの診断において、重要な役割を果たしている。関連技術において、機械学習などの方式で、疾患カテゴリの決定及び病変領域の検出などを行うことができる。例えば、入力された結節画像が悪性腫瘍であるかそれとも良性腫瘍であるかを予測する。しかしながら、関連技術において、予測結果に対して細かい分類を行っていない。また、早期癌の典型的な放射線医学的特徴(肺胞が明瞭であり、胸膜が収縮するなど等)が欠けているため、臨床的に、専門医師又は放射線科医は、CT画像から、亜型GGNカテゴリを正確に鑑別診断することが困難である。この場合、人工知能に基づいたコンピュータ支援診断は、結節の浸潤性を評価するためのより有効な方法であり、臨床的な評価タスクに重要な役割を果たすことが望まれている。
図1を参照すると、図1は、本願の実施例によるニューラルネットワーク訓練方法のシステムアーキテクチャを示す概略図である。図1に示すように、該システムアーキテクチャに、CT装置100、サーバ200、ネットワーク300及び端末装置400が備えられる。1つの例示的な適用をサポートすることを実現させるために、CT装置100は、ネットワーク300を介して端末装置400に接続され、端末装置400は、ネットワークを介してサーバ200に接続され、CT装置100は、CT画像を収集するために用いられ、例えば、X線CT装置又はγ線CT装置などのような、人体の部位の一定の厚さの層面を走査できる端末であってもよい。端末装置400は、ノートパソコン、タブレット、デスクトップコンピュータ、専用メッセージング装置などのような、画面表示機能を有する装置であってもよい。ネットワーク300は、広域ネットワークまたはローカルエリアネットワークであってもよく、又は両者の組み合わせであってもよい。これは、無線リンクによりデータ伝送を実現させる。
サーバ200は、本願の実施例で提供されるニューラルネットワーク訓練方法に基づいて、設計された三次元分類フレームワークにより、取得した訓練用医学的映像ピクチャにおける各病理学的に証明された肺結節領域を小さい画像ブロックに裁断し、更に画像ブロックに対して分類を行い、訓練データを得て、訓練データをニューラルネットワークに入力して訓練を行う。これにより、ニューラルネットワークは、訓練用医用映像ピクチャに対して細かい分類を行う。訓練を完了した後に、訓練されたニューラルネットワークモデルを得る。医用映像ピクチャは、病院、健康診断センタなどの機構のCT装置100により収集された患者又は身体検査者の肺部CT画像であってもよい。サーバ200は、端末装置400から、CT装置100により収集された医用映像ピクチャを取得して訓練用医用映像ピクチャとすることができ、CT装置から、訓練用医用映像ピクチャを取得することもでき、ネットワークから、訓練用医用映像ピクチャを取得することもできる。
サーバ200は、独立した物理サーバであってもよく、複数の物理サーバからなるサーバカテゴリタ又は分散型システムであってもよく、クラウド技術に基づいたクラウドサーバであってもよい。クラウド技術は、広域ネットワークまたはローカルエリアネットワークにおいて、ハードウェア、ソフトウェア、ネットワークなどの一連のリソースを統合し、データの演算、記憶、処理及び共有を実現させるホスティング技術である。本願の実施例において、サーバ200がクラウドサーバである場合、提供される人工知能クラウドサービスは、ニューラルネットワークモデルを含んでもよい。また、細かく分類された訓練データに基づいてニューラルネットワークを訓練する。これにより、ニューラルネットワークは、医用映像ピクチャに対して細かい分類を行う。
一例として、サーバ200は、処理されるべき医用映像ピクチャ(例えば、肺部CT画像)を受信した後、訓練されたニューラルネットワークに基づいて、医用映像ピクチャに対して、分類、セグメンテーションなどの処理を行い、細かく分類された病巣領域を得る。続いて、サーバ200は、医療従事者による検討のために、得られた細かく分類された病巣領域を端末装置400に返信して表示する。
本願の幾つかの実施例において、サーバ200は、訓練を完了した後、訓練されたニューラルネットワークを端末装置400に送信し、端末装置400により、収集された処理されるべき医用映像ピクチャ(例えば、肺部CT画像)に対して分類、セグメンテーション等の処理を行い、細かく分類された病巣領域を得て、医療従事者による検討のために、得られた細かく分類された病巣領域を自己のディスプレイに表示する。
本願の幾つかの実施例において、ニューラルネットワーク訓練方法のシステムアーキテクチャに、CT装置100、ネットワーク300及び端末装置400が備えられる。端末装置400により、訓練用医用映像ピクチャを訓練し、訓練されたニューラルネットワークを得る。端末装置400により、収集された医用映像ピクチャ(例えば、肺部CT画像)に対して分類、セグメンテーションなどの処理を行い、細かく分類された病巣領域を得て、医療従事者による検討のために、得られた細かく分類された病巣領域を自己のディスプレイに表示する。
本願の実施例は、ニューラルネットワーク訓練方法を提供する。前記方法は、ニューラルネットワーク訓練装置に適用され、前記ニューラルネットワーク訓練装置は、サーバであってもよく、ニューラルネットワークモデルを訓練し、訓練されたニューラルネットワークモデルに基づいて画像を分類するために用いられる。本願の実施例で提供される方法は、コンピュータプログラムにより実現してもよい。該コンピュータプログラムが実行されると、本願の実施例で提供されるニューラルネットワーク訓練方法における各ステップを完了する。幾つかの実施例において、該コンピュータプログラムは、プロセッサにより実行されてもよい。図2は、本願の実施例によるニューラルネットワーク訓練方法の実現フローを示す図である。図2に示すように、前記方法は以下を含む。
ステップS11において、サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得する。
ステップS12において、前記サンプル画像におけるターゲット領域の位置情報に基づいてセグメンテーションを行い、少なくとも1つのサンプル画像ブロックを得る。
ステップS13において、前記カテゴリ情報に基づいて、前記少なくとも1つのサンプル画像ブロックを分類し、Nカテゴリのサンプル画像ブロックを得て、Nは整数であり、且つN≧1である。
ステップS14において、前記Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行う。
本願の実施例のニューラルネットワーク訓練方法によれば、サンプル画像ブロックに対して細かい分類を行うことができ、ニューラルネットワークに対して訓練を行う。これにより、ニューラルネットワークは画像に対して細かい分類を行うことができ、分類効率及び正確度を向上させることができる。
本願の幾つかの実施例において、前記ニューラルネットワーク訓練方法は、端末装置及び他の処理装置により実行されてもよい。ここで、端末装置は、ユーザ装置(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載機器、ウェアラブル機器などであってもよい。他の処理装置は、サーバ又はクラウドサーバであってもよい。本願の幾つかの実施例において、該ニューラルネットワーク訓練方法は、プロセッサによりメモリに記憶されているコンピュータプログラムを呼び出すことで実現することができる。
本願の幾つかの実施例において、前記サンプル画像は、医用映像ピクチャであり、例えば、肺部CT画像などである。サンプル画像ブロックは、サンプル画像における、ターゲット領域を含む画像ブロックであってもよい。例において、サンプル画像は、アノテーション(例えば、カテゴリアノテーション及び分割アノテーション)された三次元医用画像であってもよく、サンプル画像ブロックは、三次元医用画像における、結節を含む画像ブロックであってもよい。
本願の幾つかの実施例において、ステップS11において、サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を決定し、ニューラルネットワークを訓練するためのサンプル画像ブロックを取得し、サンプル画像ブロックに対してアノテーションを行うことができる。ステップS11は、医用映像ピクチャにおけるターゲット領域に対して位置決めを行い、前記ターゲット領域の位置情報を得ることと、前記医用映像ピクチャに関連する病理学的ピクチャを取得することと、前記病理学的ピクチャにおける各ターゲット領域の病理学的情報に基づいて、前記医用映像ピクチャにおけるターゲット領域のカテゴリ情報を決定することと、を含む。前記病理学的ピクチャは、診断された、病理学的情報を含むピクチャであり、医用画像データベースから取得されてもよく、又は、医者などの専門家が端末において手動でアノテーションした後にニューラルネットワーク訓練装置に送信されてもよい。
本願の幾つかの実施例において、サンプル画像に対してリサンプリング処理を行い、解像度が1×1×1である三次元画像を得ることができる。また、該三次元画像に対してセグメンテーションを行う。例えば、肺部三次元医用画像において、一部の肺実質以外の領域が存在することがある。肺結節などの病巣は、一般的に肺実質内に存在するため、肺実質が位置する画像ブロックを切り出し(即ち、セグメンテーション)、該画像ブロックに対して正規化処理を行う。正規化処理された三次元画像におけるターゲット領域(例えば、病巣領域)に対して位置決めを行い、ターゲット領域の位置情報を得る。例えば、位置決めのための畳み込みニューラルネットワークにより、ターゲット領域の位置情報を決定することができ、又は、医者などの専門者により、ターゲット領域の位置情報を確認することができる。本願の実施例は、位置決め方式を限定しない。
本願の幾つかの実施例において、医用映像ピクチャは、医用映像ピクチャにおける病巣のカテゴリの決定に用いられる関連病理学的ピクチャを有してもよい。例えば、病巣のカテゴリは、すりガラス型結節(Ground-Glass Nodule:GGN)を含んでもよい。腺癌は、前浸潤性腺癌異型腺腫様過形成(Atypical Adenomatous Hyperplasia Of Preinvasive Adenocarcinoma:AAHOPA)、上皮内腺癌(Adenocarcinoma In Situ:AIS)、微小浸潤腺癌(Minimally Invasive Adenocarcinoma:MIA)及び浸潤性腺癌(Invasive Adenocarcinoma:IA)に分けられ、本願の実施例は、病巣のカテゴリを限定しない。
本願の幾つかの実施例において、病理学的ピクチャに基づいて、各ターゲット領域の病理学的情報を得ることができる。例えば、病理学的ピクチャは、専門的に診断されたピクチャであってもよく、各病巣に対する分析記述を有してもよい。病理学的ピクチャに基づいて、各ターゲット領域の病理学的情報を得て、更に、医用映像ピクチャにおける各ターゲット領域のカテゴリ情報を決定することができる。
本願の幾つかの実施例において、医用映像ピクチャから、病巣領域を含む画像ブロックを切り出すことができ、つまり、サンプル画像ブロックを切り出し、ターゲット領域のカテゴリ情報に基づいて、Nカテゴリのサンプル画像ブロックを得る。例えば、結節寸法の統計により、サンプル画像ブロックの寸法を64×64×64と決定することができる。切り出し及び分類により、4カテゴリ(AAHOPA、AIS、MIA及びIA)のサンプル画像ブロックを得る。
本願の幾つかの実施例において、医用映像ピクチャの数が少なく、且つアノテーションの困難度が大きく、コストが高いため、三次元画像を複数の二次元画像に分割すると、空間情報を損失し、性能低下を招く。サンプル画像ブロックに対して回転、並進、ミラーリング、スケーリングなどの操作を行い、サンプルの数を増加させることができ、また、増加したサンプル画像ブロックを用いてニューラルネットワークを訓練することで、ニューラルネットワークの汎化能力を向上させ、オーバーフィッティングを防止することができる。本願の実施例において、ポジティブサンプルとネガティブサンプルのバランスを取ることもできる。例において、前浸潤性腺癌異型腺腫様過形成、上皮内腺癌、微小浸潤腺癌などの良性結節及び浸潤性腺癌などの悪性結節のサンプル数が大きく相違している。上記方法により、数が少ないサンプルを増加させ、ポジティブサンプルとネガティブサンプルの数のバランスを取ることができる。本願の実施例は、サンプル数の増加方式を限定しない。
本願の幾つかの実施例において、サンプル画像ブロックをバッチに分けてニューラルネットワークに入力することができる。ここで、ステップS14は、いずれか1つのサンプル画像ブロックを前記ニューラルネットワークに入力して処理を行い、サンプル画像ブロックのカテゴリ予測情報及び予測ターゲット領域を得ることと、少なくとも前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、分類損失を決定することと、前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、セグメンテーション損失を決定することと、前記分類損失及び前記セグメンテーション損失に基づいて、前記ニューラルネットワークを訓練することと、を含んでもよい。
本願の幾つかの実施例において、前記ニューラルネットワークは、共有特徴抽出ネットワーク、分類ネットワーク及びセグメンテーションネットワークを含んでもよい。共有特徴抽出ネットワークにより、サンプル画像ブロックに対して特徴抽出を行い、サンプル画像ブロックのサンプルターゲット特徴を得て、分類ネットワークにより、サンプル画像ブロックのカテゴリ予測情報を得ることができる。カテゴリ予測情報に誤差が存在する可能性がある。サンプル予測カテゴリ情報及びサンプル画像ブロックのカテゴリアノテーション情報に基づいて、ニューラルネットワークの分類損失を決定することができる。
本願の幾つかの実施例において、前記カテゴリ予測情報及び前記サンプル画像ブロックのアノテーション情報に基づいて、分類損失を決定することは、前記カテゴリ予測情報及び前記サンプル画像ブロックのアノテーション情報に基づいて、第1分類損失を決定することと、前記カテゴリ予測情報及び前記サンプル画像ブロックが属するカテゴリのカテゴリセンターのカテゴリ情報に基づいて、第2分類損失を決定することと、前記第1分類損失及び前記第2分類損失に対して加重加算処理を行い、前記分類損失を得ることと、を含む。
本願の幾つかの実施例において、サンプル画像ブロックのアノテーション情報は、カテゴリアノテーション情報を含んでもよい。例えば、カテゴリアノテーション情報は、サンプル画像ブロックにおける結節のカテゴリを表す情報であってもよい。例において、前記カテゴリ予測情報は、ベクトルなどの形式で表されるカテゴリ情報であってもよい。確率辞書などにより、該ベクトルで表される処理されるべき画像ブロックが各カテゴリに属する確率の分布を決定し、更に、処理されるべき画像ブロックが属するカテゴリを決定することができる。又は、カテゴリ予測情報のベクトルは、処理されるべき画像ブロックの確率を直接的に表すことができる。例において、該ベクトルの各要素はそれぞれ、処理されるべき画像ブロックが属するカテゴリの確率を表す。
本願の幾つかの実施例において、カテゴリ予測情報及びサンプル画像ブロックのカテゴリアノテーション情報に基づいて、第1分類損失を決定することができる。例えば、カテゴリ予測情報のベクトルとカテゴリアノテーション情報のベクトルとの間の特徴距離(例えば、ユークリッド距離、コサイン距離など)を決定し、特徴距離に基づいて、第1分類損失Lsmを決定することができる。例えば、softmaxloss損失関数に基づいて、第1分類損失Lsmを算出することができる。例において、下記式(1)により、第1分類損失Lsmを決定することができる。
Figure 2022537974000002
(1)
ここで、xiは、i番目のサンプル画像ブロックのカテゴリ予測情報を表し、yiは、i番目のサンプル画像ブロックが属するカテゴリを表し、nは、カテゴリの数を表す。
Figure 2022537974000003
は、全結合層におけるyi番目のカテゴリの重みを表し、
Figure 2022537974000004
は、全結合層におけるj番目のカテゴリの重みを表し、mは、各バッチでニューラルネットワークに入力されたサンプル画像ブロックの数を表し、
Figure 2022537974000005
は、i番目のサンプル画像ブロックが属するカテゴリのバイアス項を表し、bjは、j番目のカテゴリのバイアス項を表す。
本願の幾つかの実施例において、上記第1分類損失を用いて訓練を行うことで、異なるカテゴリのカテゴリ情報のカテゴリ間特徴距離を拡大することができる。これにより、分類ネットワークは、カテゴリが異なるサンプル画像ブロックを区分することができる。しかしながら、肺部の複数のカテゴリの結節間の差異が明らかではなく(例えば、上皮内腺癌と微小浸潤腺癌の結節の形状差異が大きくない)、同一のカテゴリの2つの結節の形状がそれぞれ異なる(例えば、浸潤性腺癌などの悪性結節の形状がそれぞれ異なる)ため、カテゴリ情報のカテゴリ間特徴距離が小さく、カテゴリ内特徴距離が大きいことを招き、第1分類損失Lsmのみにより訓練された分類ネットワークの分類効果が高くないことを招く。
本願の幾つかの実施例において、上記問題について、第2分類損失により、分類ネットワークを訓練することができる。例において、複数のサンプル画像ブロックにおける各カテゴリのカテゴリセンターのカテゴリ情報を決定することができる。例えば、複数のサンプル画像ブロックのカテゴリセンターのカテゴリ情報に対して加重平均を行い、又は、サンプル画像ブロックのカテゴリ情報に対してカテゴリタリング処理を行い、カテゴリセンター特徴などを得ることができる。本願の実施例は、カテゴリセンターのカテゴリ情報を限定しない。
本願の幾つかの実施例において、サンプル画像ブロックのカテゴリ予測情報及びそれが属するカテゴリのカテゴリセンターのカテゴリアノテーション情報に基づいて、第2分類損失を決定することができる。例えば、カテゴリ予測情報とカテゴリセンターのカテゴリ情報との間の特徴距離を決定し、特徴距離に基づいて、第2分類損失Lctを算出することができる。例えば、centerloss損失関数に基づいて、第2分類損失Lctを算出することができる。第2分類損失Lctにより、分類ネットワークを訓練することで、同一のカテゴリのサンプル画像ブロックのカテゴリ情報のカテゴリ内特徴距離を縮小し、同一のカテゴリの特徴情報を特徴空間において更に寄せ集め、サンプル画像ブロックのカテゴリの決定に寄与する。例において、下記式(2)により、第2分類損失Lctを決定することができる。
Figure 2022537974000006
(2)
ここで、
Figure 2022537974000007
は、i番目のサンプル画像ブロックが属するカテゴリのカテゴリセンターのカテゴリアノテーション情報である。
本願の幾つかの実施例において、第1分類損失及び第2分類損失により共同で分類損失を決定することができる。例えば、第1分類損失及び第2分類損失に対して加重加算処理を行い、分類損失を得ることができる。例えば、第1分類損失と第2分類損失との重み比が1:0.8であり、上記重み比に応じて加重加算を行った後、分類損失を得ることができる。本願の実施例は、重み比を限定しない。
このような方式で、訓練において、同一のカテゴリのサンプル画像ブロックのカテゴリ特徴をより寄せ集めることができ、カテゴリが異なるサンプル画像ブロックのカテゴリ情報間の距離をより大きくすることができ、分類性能の向上及び分類の正確率の向上に寄与する。
本願の幾つかの実施例において、セグメンテーションネットワークにより、サンプルターゲット特徴に対してセグメンテーション処理を行い、サンプル画像ブロックにおける予測ターゲット領域を得ることができる。該予測ターゲット領域は、誤差を有してもよい。予測ターゲット領域と前記サンプル画像ブロックのアノテーションターゲット領域との間の誤差に基づいて、セグメンテーション損失を決定し、更に、セグメンテーション損失により訓練を行うことができる。
本願の幾つかの実施例において、前記予測ターゲット領域及び前記サンプル画像ブロックのアノテーション情報に基づいて、セグメンテーション損失を決定することは、前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記予測ターゲット領域の第1重み及び前記サンプル画像ブロックにおけるサンプル背景領域の第2重みを決定することと、前記第1重み、第2重み、前記予測ターゲット領域及び前記サンプル画像ブロックのアノテーション情報に基づいて、前記セグメンテーション損失を決定することと、を含む。
本願の幾つかの実施例において、前記アノテーション情報は、アノテーションされたセグメンテーション領域を含み、予測ターゲット領域とアノテーションされたセグメンテーション領域との間の誤差に基づいてセグメンテーション損失を直接的に決定することができる。しかしながら、結節の直径が5ミリメートル(millimeter:mm)から30mmであり、サンプル画像ブロックにおける結節が位置する領域が占める割合と他の領域が占める割合との差が大きいため、ターゲット領域の画素数と非ターゲット領域の画素数のバランスが取られないことを招く。これにより、予測ターゲット領域の誤差がセグメンテーション損失に占める割合が小さくなり、ニューラルネットワークの最適化調整に不利であり、訓練効率が低く、訓練効果が低い。
本願の幾つかの実施例において、ターゲット領域の画素及び非ターゲット領域(即ち、サンプル背景領域)の画素に対して加重処理を行うことができる。例において、予測ターゲット領域の画素数がサンプル画像ブロックに占める第1割合に基づいて、予測ターゲット領域の第1重み及びサンプル画像ブロックにおけるサンプル背景領域の第2重みを決定することができる。更に、セグメンテーション損失を決定する場合、上記2つの領域の画素に対して加重処理を行うことで、ターゲット領域の損失と非ターゲット領域の損失のバランスを取る。
本願の幾つかの実施例において、前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記予測ターゲット領域の第1重み及び前記サンプル画像ブロックにおけるサンプル背景領域の第2重みを決定することは、前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記サンプル画像ブロックにおけるサンプル背景領域の第2割合を決定することと、前記第2割合を前記第1重みとして決定し、前記第1割合を第2重みとして決定することと、を含む。
本願の幾つかの実施例において、サンプル画像ブロックは、予測ターゲット領域及び背景領域を含んでもよい。予測ターゲット領域の画素数が占める割合を統計し、更に、サンプル背景領域が占める割合を決定することができる。例えば、予測ターゲット領域の画素数が占める第1割合は、0.2であると、サンプル背景領域の画素数が占める第2割合は、0.8である。本願の実施例は、第1割合及び第2割合を限定しない。
本願の幾つかの実施例において、予測ターゲット領域とサンプル背景領域のバランスを取るために、第2割合を予測ターゲット領域の第1重みとして決定し、第1割合をサンプル背景領域の第2重みとして決定する。例えば、予測ターゲット領域の画素数が占める第1割合は、0.2であると、予測ターゲット領域の第1重みは、0.8である。サンプル背景領域の画素数が示す第2割合は、0.8であると、サンプル背景領域の第2重みは、0.2である。
本願の幾つかの実施例において、第1重み、第2重み、予測ターゲット領域及びサンプル画像ブロックのアノテーションターゲット領域に基づいて、セグメンテーション損失を決定することができる。例において、予測ターゲット領域とアノテーション情報におけるターゲット領域との差異に基づいて、セグメンテーション損失を決定することができる。例えば、予測ターゲット領域における画素点に対して加重処理を行い、重みを第1重みとし、サンプル背景領域における画素点に対して加重処理を行い、重みを第2重みとし、加重処理されたセグメンテーション損失Ldcを決定することができる。例えば、weightedDiceloss損失関数に基づいて、セグメンテーション損失Ldcを算出することができる。例において、下記式(3)によりセグメンテーション損失Ldcを決定することができる。
Figure 2022537974000008
(3)
ここで、
Figure 2022537974000009
である。yk=1である場合、k番目の画素位置が予測ターゲット領域であることを表し、yk=0である場合、k番目の画素位置がサンプル背景領域であることを表し、
Figure 2022537974000010
は、セグメンテーションネットワークの、k番目の画素位置での出力を表し、Wは、第1重みを表し、Yは、k番目の画素位置のセグメンテーションアノテーションを表す。
このような方式で、ターゲット領域の誤差と非ターゲット領域の誤差のバランスを取り、ネットワークパラメータの最適化に寄与し、訓練効率及び訓練効果を向上させる。
本願の幾つかの実施例において、分類損失及びセグメンテーション損失に基づいて、共有特徴抽出ネットワーク、セグメンテーションネットワーク及び分類ネットワークの総合的ネットワーク損失を決定することができる。例えば、分類損失及びセグメンテーション損失に対して加重加算処理を行い、総合的ネットワーク損失を得ることができる。例において、下記式(4)により、総合的ネットワーク損失Ltotalを決定することができる。
Figure 2022537974000011
(4)
ここで、θ1は、Lsmの重みを表し、θ2は、Lctの重みを表し、θ3は、Ldcの重みを表す。例えば、θ1=1.2、θ2=0.8、θ3=2である。本願の実施例は、分類損失及びセグメンテーション損失の重みを限定しない。
本願の幾つかの実施例において、総合的ネットワーク損失により、上記ニューラルネットワークのネットワークパラメータを逆調整することができる。例えば、勾配降下法により、ネットワークパラメータを調整し、ネットワークパラメータを最適化し、セグメンテーション及び分類の正確率を向上させることができる。
本願の幾つかの実施例において、上記訓練方法を複数回反復実行し、所定の学習率で訓練を行うことができる。例において、最初の20個の訓練周期において、0.001*1.1(ここで、xは、訓練周期を表す)の学習率で訓練を行うことができ、後続の訓練において、40、80及び120番目の……訓練周期において、学習率をそれぞれ半分にすることができる。訓練の初期段階で、訓練効率を向上させ、ネットワークパラメータを大幅に最適化することができる。また、後続の訓練において、学習率を段階的に低下させ、ネットワークパラメータを細かく調整し、ニューラルネットワークの精度を向上させ、分類処理及びセグメンテーション処理の正確率を向上させることができる。
本願の幾つかの実施例において、訓練条件を満たす場合、訓練を完了し、訓練された共有特徴抽出ネットワーク、セグメンテーションネットワーク及び分類ネットワークを得ることができる。前記訓練条件は、訓練回数を含んでもよい。つまり、所定の訓練回数に達した場合、訓練条件を満たす。前記訓練条件は、総合的ネットワーク損失が所定の閾値以下であるか又は所定の区間に収束することを含んでもよい。つまり、総合的ネットワーク損失が所定の閾値以下であるか又は所定の区間に収束する場合、ニューラルネットワークの精度が使用要件を満たすと認められ、訓練を完了することができる。本願の実施例は、訓練条件を限定しない。
本願の幾つかの実施例において、訓練を完了した後、訓練されたニューラルネットワークに対して試験を行うことができる。例えば、肺部三次元医用画像における、結節領域を含む三次元画像ブロックを上記ニューラルネットワークに入力し、出力されたセグメンテーション結果及び分類結果の正確率を統計することができる。例えば、三次元画像ブロックのアノテーション情報と比較し、セグメンテーション結果及び分類結果の正確率を決定することで、ニューラルネットワークの訓練効果を決定することができる。正確率が所定の閾値より高いと、訓練効果が高く、ニューラルネットワークの性能が高く、処理されるべき画像ブロックのカテゴリを取得し、セグメンテーションを行うことでターゲット領域を得るという処理に適用可能であると認められる。正確率が所定の閾値に達していないと、訓練効果が低く、他のサンプル画像ブロックを利用して引き続き訓練を行うと認められる。
本願の幾つかの実施例において、訓練されたニューラルネットワークは、処理されるべき画像ブロックにおけるターゲット領域及びカテゴリがいずれも未知である場合、処理されるべき画像ブロックのカテゴリ及びターゲット領域を得ることができ、処理されるべき画像ブロックのカテゴリが既知である場合、処理されるべき画像ブロックにおけるターゲット領域のみを取得することができ、又は、処理されるべき画像ブロックにおけるターゲット領域が既知である場合、処理されるべき画像ブロックのカテゴリを取得することもできる。本願の実施例は、ニューラルネットワークの使用方法を限定しない。
本願の幾つかの実施例において、上記訓練方法で訓練されたニューラルネットワークは、処理されるべき画像ブロックにおける病巣領域及び病巣カテゴリの決定に適用可能である。前記ニューラルネットワークは、共有特徴抽出ネットワーク、分類ネットワーク及びセグメンテーションネットワークを含み、前記方法は、処理されるべき画像ブロックを共有特徴抽出ネットワークに入力して処理を行い、処理されるべき画像ブロックのターゲット特徴を得ることであって、前記共有特徴抽出ネットワークは、M個の共有特徴抽出ブロックを備え、i番目の共有特徴抽出ブロックの入力特徴は、最初のi-1個の共有特徴抽出ブロックの出力特徴を含み、i及びMは整数であり、且つ1<i≦Mである、ことと、前記ターゲット特徴を分類ネットワークに入力して分類処理を行い、前記処理されるべき画像ブロックのカテゴリ情報を得ることと、前記ターゲット特徴をセグメンテーションネットワークに入力してセグメンテーション処理を行い、前記処理されるべき画像ブロックにおけるターゲット領域を得ることと、を更に含む。
このような方式で、共有特徴抽出ネットワークによりターゲット特徴を得ることができる。共有特徴抽出ネットワークの共有特徴抽出ブロックは、この前の全ての共有特徴抽出ブロックの出力特徴を得て、自己の出力特徴を後続の全ての共有特徴抽出ブロックに入力することができる。ネットワーク内の勾配移動を強化し、勾配消失減少を軽減すると同時に、特徴抽出及び学習能力を向上させることができる。入力された処理されるべき画像ブロックに対するより細かい分類及びセグメンテーション処理に寄与する。処理されるべき画像ブロックの細かいカテゴリ情報及びターゲット領域を得て、画像処理効率を向上させることができる。
本願の幾つかの実施例において、前記処理されるべき画像ブロックは、処理されるべき画像における一部の領域であってもよい。例において、処理されるべき画像から、一部の領域を切り出すことができる。例えば、ターゲット対象を含む領域を切り出す。例えば、処理されるべき画像は、医用映像ピクチャである。医用映像ピクチャから、病巣を含む領域を切り出すことができる。例えば、処理されるべき画像は、肺部三次元医用画像(例えば、肺部CT画像)であってもよい。処理されるべき画像ブロックは、処理されるべき画像から切り出された病巣領域(例えば、結節を有する領域)の三次元画像ブロックであってもよい。本願の実施例は、処理されるべき画像及び処理されるべき画像ブロックのタイプを限定しない。
本願の幾つかの実施例において、医用映像ピクチャ(例えば、肺部三次元医用画像)において、医用画像ピクチャの寸法が大きくて解像度が高く、且つ医用映像ピクチャにおいて、正常組織の領域が多いため、医用映像ピクチャに対して前処理を行い、病巣を含む領域を切り出して処理を行い、処理効率を向上させることができる。
本願の幾つかの実施例において、前記方法は、処理されるべき画像に対して前処理を行い、第1画像を得ることと、前記第1画像におけるターゲット領域に対して位置決めを行い、前記第1画像におけるターゲット領域の位置情報を決定することと、前記第1画像におけるターゲット領域の位置情報に基づいて、セグメンテーションを行い、少なくとも1つの前記処理されるべき画像ブロックを得ることと、を更に含む。
本願の幾つかの実施例において、まず、処理されるべき画像に対して前処理を行い、処理効率を向上させることができる。例えば、リサンプリング、正規化などの前処理を行うことができる。例において、肺部三次元医用画像に対してリサンプリング処理を行い、解像度が1×1×1(即ち、各画素は、1mm×1mm×1mmの立方体のコンテンツを表す)である三次元画像を得ることができる。また、リサンプリングされた三次元画像の寸法に対して切り取りを行うことができる。例えば、肺部三次元医用画像において、一部の非肺部領域が存在する可能性がある。肺部が位置する領域を切り出することで、演算量を低減させ、処理効率を向上させることができる。
例において、切り取られた三次元画像に対して正規化を行い、三次元画像における各画素の画素値を0から1までの値域範囲内に正規化し、処理効率を向上させることができる。正規化処理を行った後、前記第1画像を得る。本願の実施例は、前処理の方法を限定しない。
本願の幾つかの実施例において、第1画像におけるターゲット領域を検出することができる。例えば、位置検出のための畳み込みニューラルネットワークにより、第1画像におけるターゲット領域を検出することができる。例において、畳み込みニューラルネットワークを利用して、肺部三次元医用画像における、結節を含む領域を検出することができる。
本願の幾つかの実施例において、ターゲット領域に対して切り取りを行い、処理されるべき画像ブロックを得ることができる。例えば、肺部三次元医用画像における、結節を含む領域に対して切り取りを行い、処理されるべき画像ブロックを得ることができる。例において、結節の寸法に基づいて、処理されるべき画像ブロックの寸法を決定し、切り取りを行うことができる。例えば、結節寸法の統計により、処理されるべき画像ブロックの寸法を64×64×64と決定し、切り取りにより、1つ又は複数の処理されるべき画像ブロックを得ることができる。
本願の幾つかの実施例において、前記ニューラルネットワークにより、処理されるべき画像ブロックのカテゴリ情報を決定し、セグメンテーションを行うことでターゲット領域を得ることができる。例えば、処理されるべき画像ブロックは、処理されるべき画像ブロックは、肺部三次元医用画像から切り出された、結節を含む画像ブロックである。ニューラルネットワークにより、処理されるべき画像ブロックにおける結節の種類(例えば、AAHOPA、AIS、MIA及びIA)を決定し、セグメンテーションを行い、結節が位置する領域を得ることができる。
本願の幾つかの実施例において、共有特徴抽出ネットワークにより、処理されるべき画像ブロックのターゲット特徴を抽出して分類及びセグメンテーション処理に用いることができる。処理されるべき画像ブロックを共有特徴抽出ネットワークに入力して処理を行い、処理されるべき画像ブロックのターゲット特徴を得ることは、処理されるべき画像ブロックに対して第1特徴抽出処理を行い、処理されるべき画像ブロックの第1特徴を得ることと、第1特徴を1番目の共有特徴抽出ブロックに入力し、1番目の共有特徴抽出ブロックの出力特徴を得て、1番目の共有特徴抽出ブロックの出力特徴を後続のM-1個の共有特徴抽出ブロックに出力することと、最初のj-1個の共有特徴抽出ブロックの出力特徴をj番目の共有特徴抽出ブロックに入力し、j番目の共有特徴抽出ブロックの出力特徴を得ることと、M番目の共有特徴抽出ブロックの出力特徴に対して第2特徴抽出処理を行い、処理されるべき画像ブロックの第2特徴を得ることと、第2特徴に対してプーリング処理を行い、前記ターゲット特徴を得ることと、を含む。
本願の幾つかの実施例において、まず、第1特徴抽出処理を行うことができる。例えば、三次元畳み込み層(Three Dimensional Convolutional Layer)、バッチ正規化層(Normalization)及び活性化層(Activiation Layer)を備えるネットワークモジュールにより、第1特徴抽出処理を行い、第1特徴を得ることができる。本願の実施例は、第1特徴抽出処理のネットワーク階層を限定しない。
本願の幾つかの実施例において、共有特徴抽出ネットワークは、複数の共有特徴抽出ブロックを含んでもよい。共有特徴抽出ブロックは、畳み込み層、活性化層などのような複数のネットワーク階層を含んでもよい。本願の実施例は、共有特徴抽出ブロックに含まれるネットワーク階層を限定しない。複数の共有特徴抽出ブロックにより、第1特徴に対して処理を行うことができる。例において、共有特徴抽出ブロックの数は、M個である。第1特徴を1番目の共有特徴抽出ブロックに入力することができる。つまり、1番目の共有特徴抽出ブロックは、第1特徴を入力特徴とし、入力特徴に対して特徴抽出処理を行い、出力特徴を得ることができる。第1共有特徴抽出ブロックの出力特徴は、後続の全ての共有特徴抽出ブロックにより共有されてもよい。つまり、1番目の共有特徴抽出ブロックの出力を、後続のM-1個の共有特徴抽出ブロックに入力し、後続のM-1個の共有特徴抽出ブロックの入力特徴とすることができる。
本願の幾つかの実施例において、2番目の共有特徴抽出ブロックの入力特徴は、1番目の共有特徴抽出ブロックの出力特徴である。2番目の共有特徴抽出ブロックは、入力された特徴に対して特徴抽出処理を行った後、その出力特徴を後続の3番目からM番目の共有特徴抽出ブロックに出力し、3番目からM番目の共有特徴抽出ブロックの入力特徴とすることができる。
本願の幾つかの実施例において、3番目の共有特徴抽出ブロックの入力特徴は、1番目の共有特徴抽出ブロックの出力特徴及び2番目の共有特徴抽出ブロックの出力特徴である。1番目の共有特徴抽出ブロックの出力特徴と2番目の共有特徴抽出ブロックの出力特徴を特徴フュージョン(例えば、平均値、最大値などの方式でフュージョンを行い、又は、全ての特徴チャネルを保留する)した後に、3番目の共有特徴抽出ブロックに入力することができる(つまり、3番目の共有特徴抽出ブロックの入力特徴は、1番目の共有特徴抽出ブロックの出力特徴と2番目の共有特徴抽出ブロックの出力特徴を特徴フュージョンした特徴であってもよい)。又は、3番目の共有特徴抽出ブロックは、直接的に、1番目の共有特徴抽出ブロックの出力特徴及び2番目の共有特徴抽出ブロックの出力特徴を入力特徴とし(例えば、3番目の共有特徴抽出ブロックは、特徴フュージョン層を含んでもよい。該層により特徴フュージョン処理を行い、又は、全ての特徴チャネルを保留することができる。また、全ての特徴チャネルの特徴に対して直接的に後続処理を行うことができる。つまり、1番目の共有特徴抽出ブロックの出力特徴及び2番目の共有特徴抽出ブロックの出力特徴に対して後続の処理を行う)、入力特徴に対して特徴抽出処理を行い(例えば、直接的に、全ての特徴チャネルの特徴に対して特徴抽出処理を行い、又は、フュージョンした特徴に対して特徴抽出処理を行う)、3番目の共有特徴抽出ブロックの出力特徴を得ることができる。3番目の共有特徴抽出ブロックの出力特徴を4番目からM番目の共有特徴抽出ブロックに入力して4番目からM番目の共有特徴抽出ブロックの入力特徴とすることができる。
本願の幾つかの実施例において、j(jは整数であり、且つ1<j<Mである)番目の共有特徴抽出ブロックを例として、最初のj-1個の共有特徴抽出ブロックの出力特徴を入力特徴としてj番目の共有特徴抽出ブロックに入力することができる。最初のj-1個の共有特徴抽出ブロックの出力特徴に対して特徴フュージョンを行った後、フュージョンした特徴をj番目の共有特徴抽出ブロックの入力特徴とすることができる。又は、直接的に、最初のj-1個の共有特徴抽出ブロックの出力特徴をj番目の共有特徴抽出ブロックの入力特徴とすることができる(例えば、j番目の共有特徴抽出ブロックにおいてフュージョンを行う。又は、直接的に全ての特徴チャネルの特徴に対して後続の処理を行う。つまり、最初のj-1個の共有特徴抽出ブロックの出力特徴に対して後続の処理を行う)。j番目の共有特徴抽出ブロックは、その入力特徴に対して特徴抽出そりを行い、j番目の共有特徴抽出ブロックの出力特徴を得て、該出力特徴をj+1番目からM番目の共有特徴抽出ブロックの入力特徴とすることができる。
本願の幾つかの実施例において、M番目の共有特徴抽出ブロックは、最初のM-1個の共有特徴抽出ブロックの出力特徴に基づいて、M番目の共有特徴抽出ブロックの出力特徴を得ることができる。また、共有特徴抽出ネットワークの後続のネットワーク階層により、第2特徴抽出処理を行うことができる。例えば、三次元畳み込み層、バッチ正規化層及び活性化層を備えるネットワークモジュールにより、N番目の共有特徴抽出ブロックの出力特徴に対して、第2特徴抽出処理を行い、第2特徴を得ることができる。本願の実施例は、第2特徴抽出処理のネットワーク階層を限定しない。
本願の幾つかの実施例において、第2特徴に対してプーリング処理を行うことができる。例えば、平均値プーリング層により、第2特徴に対してプーリング処理を行い、ターゲット特徴を得ることができる。本願の実施例は、プーリング処理のタイプを限定しない。
本願の幾つかの実施例において、上記処理を複数回行うことができる。例えば、複数の共有特徴抽出ネットワークを含んでもよい。1番目の共有特徴抽出ネットワークは、第1特徴を入力特徴とし、共有特徴抽出ブロックにより特徴抽出処理、第2特徴抽出処理及びプーリング処理を行った後、1番目の共有特徴抽出ネットワークの出力特徴を得ることができる。2番目の共有特徴抽出ネットワークは、1番目の共有特徴抽出ネットワークの出力特徴を入力特徴とし、共有特徴抽出ブロックにより特徴抽出処理、第2特徴抽出処理及びプーリング処理を行った後、2番目の共有特徴抽出ネットワークの出力特徴を得ることができる。複数の共有特徴抽出ネットワークにより処理を行い、最後の(例えば、4番目の)共有特徴抽出ネットワークの出力特徴をターゲット特徴とすることができる。本願の実施例は、共有特徴抽出ネットワークの数を限定しない。
このような方式で、共有特徴抽出ネットワークにより、ターゲット特徴を得ることができる。共有特徴抽出ネットワークの共有特徴抽出ブロックは、この前の全ての共有特徴抽出ブロックの出力特徴を得て、自己の出力特徴を後続の全ての共有特徴抽出ブロックに入力することができる。ネットワーク内の勾配移動を強化し、勾配消失減少を軽減すると同時に、特徴抽出及び学習能力を向上させることができる。入力された処理されるべき画像ブロックに対するより細かい分類及びセグメンテーション処理に寄与する。
本願の幾つかの実施例において、ターゲット特徴に基づいて、処理されるべき画像ブロックのカテゴリ情報を決定することができる。例えば、処理されるべき画像ブロックは、肺部三次元医用画像における、結節などの病巣を含む画像ブロックであり、ターゲット特徴に基づいて、結節のカテゴリを決定することができる。例において、結節のカテゴリが前浸潤性腺癌異型腺腫様過形成、上皮内腺癌、微小浸潤腺癌及び浸潤性腺癌のうちのどちらであるかを決定することができる。
本願の幾つかの実施例において、分類ネットワークによりターゲット特徴に対して分類処理を行い、syロ位されるべき画像ブロックのカテゴリ情報を得ることができる。例において、分類ネットワークは、例えば、畳み込み層、グローバル平均値プーリング層(Global Average Pooling)及び全結合層(Fully Connected Layer)等のような複数のネットワーク階層を含んでもよい。上記ネットワーク階層は、ターゲット特徴に対して分類処理を行い、カテゴリ情報を出力することができる。前記カテゴリ情報は、ベクトルなどの形式で表されるカテゴリ情報であってもよい。確率辞書などにより、該ベクトルで表される処理されるべき画像ブロックが各カテゴリに属する確率の分布を決定し、更に、処理されるべき画像ブロックのカテゴリ情報を決定することができる。又は、カテゴリ情報のベクトルは、処理されるべき画像ブロックの確率を直接的に表すことができる。例において、該ベクトルの各要素はそれぞれ、処理されるべき画像ブロックが属するカテゴリの確率を表す。例えば、(0.8、0.1、0.1)は、処理されるべき画像ブロックが1番目のカテゴリに属する確率が0.8であり、2番目のカテゴリに属する確率が0.1であり、3番目のカテゴリに属する確率が0.1であることを表し、確率が最も大きいカテゴリを処理されるべき画像ブロックのカテゴリと決定することができる。つまり、処理されるべき画像ブロックのカテゴリ情報を第1カテゴリと決定することができる。本願の実施例は、カテゴリ情報の表現方法を限定しない。
本願の幾つかの実施例において、ターゲット特徴に基づいて、処理されるべき画像ブロックのカテゴリ情報を決定することができる。例えば、処理されるべき画像ブロックは、肺部三次元医用画像における、結節などの病巣を含む画像ブロックである。ターゲット特徴に基づいて、結節の位置を決定し、それが位置する領域をセグメンテーションすることができる。
本願の幾つかの実施例において、セグメンテーションネットワークにより、セグメンテーション処理を行い、処理されるべき画像ブロックにおけるターゲット領域を得ることができる。例えば、セグメンテーションにより、ターゲット領域を得ることができる。例において、セグメンテーションネットワークは、例えば、アップサンプリング層(Upsample)、全結合層などのような複数のネットワーク階層を含んでもよい。例において、ターゲット特徴は、共有特徴抽出ネットワークにおいて処理されるべき画像ブロックにより特徴抽出、プーリング処理を行うことで得られた特徴マップである。ターゲット特徴の解像度は、処理されるべき画像ブロックの解像度より低くてもよい。アップサンプリング層により、アップサンプリング処理を行い、ターゲット特徴の特徴チャネルの数を減少させ、解像度を向上させ、セグメンテーションネットワークから出力された特徴マップの解像度を処理されるべき画像ブロックの解像度と一致させることができる。例えば、共有特徴抽出ネットワークは、4回のプーリング処理を行うと、アップサンプリング層により、4回のアップサンプリング処理を行い、セグメンテーションネットワークから出力された特徴マップの解像度を処理されるべき画像ブロックの解像度と一致させることができる。また、セグメンテーションネットワークから出力された特徴マップに対してセグメンテーションを行い、ターゲット領域を得ることができる。例えば、輪郭線又は輪郭面により、結節が位置するターゲット領域を決定することができる。本願の実施例は、セグメンテーションネットワークのネットワーク階層を限定しない。
本願の幾つかの実施例において、処理されるべき画像ブロックに対してセグメンテーションを行い、ターゲット領域を得た後、処理されるべき画像におけるターゲット領域の位置を決定することもできる。例えば、処理されるべき画像における処理されるべき画像ブロックの位置、及び処理されるべき画像ブロックにおけるターゲット領域の位置に基づいて、処理されるべき画像におけるターゲット領域の位置を還元することができる。例において、肺部医用画像において、セグメンテーションを行うことで、処理されるべき画像ブロックにおける結節の位置を得て、肺部医用画像における該結節の位置を還元することができる。
本願の実施例で提供されるニューラルネットワーク訓練方法によれば、サンプル画像ブロックに対して細かい分類を行うことができ、ニューラルネットワークに対して訓練を行う。これにより、ニューラルネットワークは画像に対して細かい分類を行うことができ、分類効率及び正確度を向上させることができる。また、共有特徴抽出ネットワークによりターゲット特徴を得ることができる。共有特徴抽出ネットワークの共有特徴抽出ブロックは、この前の全ての共有特徴抽出ブロックの出力特徴を得て、自己の出力特徴を後続の全ての共有特徴抽出ブロックに入力することができる。ネットワーク内の勾配移動を強化し、勾配消失減少を軽減すると同時に、特徴抽出及び学習能力を向上させることができる。入力された処理されるべき画像ブロックに対するより細かい分類及びセグメンテーション処理に寄与する。処理されるべき画像ブロックの細かいカテゴリ情報及びターゲット領域を得て、画像処理効率を向上させることができる。訓練において、同一のカテゴリのサンプル画像ブロックのカテゴリ情報をより寄せ集めることができ、カテゴリが異なるサンプル画像ブロックのカテゴリ情報間の特徴距離をより大きくすることができる。ターゲット領域の誤差と非ターゲット領域の誤差のバランスを取り、分類性能の向上及び分類の正確率の向上に寄与する。
図3は、本願の実施例によるニューラルネットワーク訓練方法の適用を示す概略図である。図3に示すように、サンプル画像31は、医用映像ピクチャであり、サンプル画像ブロック32は、医用映像ピクチャから切り出された、病巣(例えば、結節)を含む画像ブロックである。また、サンプル画像ブロックは、カテゴリアノテーションを有してもよく、例えば、サンプル画像ブロックは、AAHOPA、AIS、MIA及びIAという4つのカテゴリを含んでもよい。
本願の幾つかの実施例において、サンプル画像ブロック32をニューラルネットワーク33に入力し、ニューラルネットワーク33に含まれる共有特徴抽出ネットワーク331は、各バッチのサンプル画像ブロックに対して特徴抽出を行い、サンプル画像ブロックのサンプルターゲット特徴を得て、ニューラルネットワーク33に含まれる分類ネットワーク332により、サンプル画像ブロックのカテゴリ予測情報を得る。式(1)及び式(2)により、ニューラルネットワークの分類損失を得ることができる。本願の幾つかの実施例において、ニューラルネットワーク33に含まれるセグメンテーションネットワーク333は、サンプル画像ブロック32における予測ターゲット領域を得て、式(3)によりニューラルネットワークのセグメンテーション損失を得ることができる。セグメンテーション損失及び分類損失に対して加重加算を行い、ニューラルネットワークの総合的ネットワーク損失を得て、総合的ネットワーク損失によりニューラルネットワークを訓練することができる。訓練されたニューラルネットワークは、医用映像の画像ブロックにおける病巣領域及び病巣カテゴリの決定に用いられる。
本願の幾つかの実施例において、処理されるべき画像は、三次元肺部医用画像(例えば、肺部CT画像)であってもよく、処理されるべき画像ブロックは、処理されるべき画像から切り出された症例領域(例えば、結節を有する領域)の三次元画像ブロックであってもよい。
本願の幾つかの実施例において、三次元医用画像に対してリサンプリング処理を行い、解像度が1×1×1である三次元画像を得て、肺部が位置する領域を切り出し、更に、肺部が位置する領域に対して正規化を行うことができる。本願の幾つかの実施例において、肺部が位置する領域における結節が位置する領域を検出し、64×64×64の寸法で、結節が位置する領域を含む複数の処理されるべき画像ブロックを切り出すことができる。
本願の幾つかの実施例において、複数の処理されるべき画像ブロックをバッチに分けて特徴抽出処理し、処理されるべき画像ブロックのターゲット特徴を得ることができる。例えば、まず、第1特徴抽出処理を行うことができる。例えば、三次元畳み込み層、バッチ正規化層及び活性化層を含むネットワークモジュールにより、第1特徴抽出処理を行い、第1特徴を得ることができる。
本願の幾つかの実施例において、第1特徴を共有特徴抽出ネットワークに入力することができる。共有特徴抽出ネットワークは、複数の共有特徴抽出ブロックを含んでもよい。例において、共有特徴抽出ブロックの数は、M個であり、第1特徴を1番目の共有特徴抽出ブロックに入力して処理を行うことができる。1番目の共有特徴抽出ブロックの出力特徴を後続のM-1個の共有特徴抽出ブロックに入力することができる。2番目の共有特徴抽出ブロックの入力特徴は、1番目の共有特徴抽出ブロックの出力特徴であり、また、2番目の共有特徴抽出ブロックは、その出力特徴を後続の3番目からM番目の共有特徴抽出ブロックに出力することができる。3番目の共有特徴抽出ブロックの入力特徴は、1番目の共有特徴抽出ブロックの出力特徴及び2番目の共有特徴抽出ブロックの出力特徴である。また、3番目の共有特徴抽出ブロックの出力特徴を4番目からM番目の共有特徴抽出ブロックに出力することができる。同様に、最初のj-1個の共有特徴抽出ブロックの出力特徴をj番目の共有特徴抽出ブロックに入力することができる。j番目の共有特徴抽出ブロックの出力特徴をj+1番目からM番目の共有特徴抽出ブロックに出力することができる。M番目の共有特徴抽出ブロックは、最初のM-1個の共有特徴抽出ブロックの出力特徴に基づいて、M番目の共有特徴抽出ブロックの出力特徴を得て、第2特徴抽出処理を行うことができる。例えば、三次元畳み込み層、バッチ正規化層及び活性化層を含むネットワークモジュールにより、N番目の共有特徴抽出ブロックの出力特徴に対して第2特徴抽出処理を行い、第2特徴を得ることができる。本願の幾つかの実施例において、第2特徴に対してプーリング(例えば、平均値プーリング(Average Pooling))処理を行い、ターゲット特徴を得ることができる。
本願の幾つかの実施例において、上記処理を複数回(例えば、4回)行ってもよい。例えば、複数の共有特徴抽出ネットワークを含んでもよい。複数のカスケード接続された共有特徴抽出ネットワークによる処理により、ターゲット特徴を得ることができる。
本願の幾つかの実施例において、分類ネットワークは、ターゲット特徴に対して分類処理を行い、処理されるべき画像ブロックのカテゴリ情報を得ることができる。例えば、分類ネットワークは、畳み込み層、グローバル平均値プーリング層及び全結合層などにより、処理されるべき画像ブロックのカテゴリ情報を得ることができる。
本願の幾つかの実施例において、セグメンテーションネットワークは、ターゲット特徴に対してセグメンテーション処理を行い、ターゲット領域(即ち、結節が位置する領域)を得ることができる。例において、セグメンテーションネットワークは、アップサンプリング層により、4回のアップサンプリング処理を行い、セグメンテーションネットワークから出力された特徴マップの解像度を処理されるべき画像ブロックの解像度と一致させ、セグメンテーションネットワークから出力された特徴マップに対してセグメンテーションを行い、ターゲット領域を得ることができる。
本願の幾つかの実施例において、上記ニューラルネットワークは、処理されるべき画像ブロックにおけるターゲット領域及びカテゴリがいずれも未知である場合、処理されるべき画像ブロックのカテゴリ及びターゲット領域を得ることができ(例えば、セグメンテーションにより、結節が位置する領域を得て、結節のカテゴリを得る)、処理されるべき画像ブロックのカテゴリが既知である場合、処理されるべき画像ブロックにおけるターゲット領域のみを取得することができ(例えば、セグメンテーションにより、結節が位置する領域を得る)、又は、処理されるべき画像ブロックにおけるターゲット領域が既知である場合、処理されるべき画像ブロックのカテゴリを取得することもできる(例えば、結節のカテゴリを決定する)。
本願の幾つかの実施例において、前記画像処理方法は、肺部CT画像などの医用画像における症例領域に対してセグメンテーション及び分類を行うために用いられ、臨床的作業の効率を向上させ、診断漏れ及び誤診を減少させる。また、他の画像に対する分類及びターゲット領域のセグメンテーションにも適用可能である。本願の実施例は、前記画像処理方法の適用分野を限定しない。
本願の実施例で提供される上記各方法の実施例は、原理や論理から逸脱しない限り、互いに組み合わせることで組み合わせた実施例を構成することができることは理解されるべきである。なお、本願の実施例は、装置、電子機器、コンピュータ可読記憶媒体、プログラムを更に提供する。上記はいずれも、本願で提供されるいずれか1つの方法を実現させるためのものである。対応する技術的解決手段及び説明は、方法に関連する記述を参照されたい。上記方法の実施例において、各ステップの記述順番は、具体的な実行順番は、厳しい実行順番を意味して実施プロセスを何ら限定するものではなく、各ステップの具体的な実行順番はその機能及び可能な内在的論理により決まることは、当業者であれば理解すべきである。
図4は、本願の実施例によるニューラルネットワーク訓練装置を示す概略図である。図4に示すように、前記装置は、サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得するように構成される取得モジュール11と、前記サンプル画像におけるターゲット領域の位置情報に基づいてセグメンテーションを行い、少なくとも1つのサンプル画像ブロックを得るように構成される第1セグメンテーションモジュール12と、前記カテゴリ情報に基づいて、前記少なくとも1つのサンプル画像ブロックを分類し、Nカテゴリのサンプル画像ブロックを得るように構成される分類モジュール13であって、Nは整数であり、且つN≧1である、分類モジュール13と、前記Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うように構成される訓練モジュール14と、を備える。
本願の幾つかの実施例において、前記サンプル画像は、医用映像ピクチャである。
本願の幾つかの実施例において、前記取得モジュール11は更に、医用映像ピクチャにおけるターゲット領域に対して位置決めを行い、前記ターゲット領域の位置情報を得ることと、前記医用映像ピクチャに関連する病理学的ピクチャを取得することであって、前記病理学的ピクチャは、診断された、病理学的情報を含むピクチャである、ことと、前記病理学的ピクチャにおける各ターゲット領域の病理学的情報に基づいて、前記医用映像ピクチャにおけるターゲット領域のカテゴリ情報を決定することと、を実行するように構成される。
本願の幾つかの実施例において、前記訓練モジュール14は更に、いずれか1つのサンプル画像ブロックを前記ニューラルネットワークに入力して処理を行い、サンプル画像ブロックのカテゴリ予測情報及び予測ターゲット領域を得て、少なくとも前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、分類損失を決定し、前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、セグメンテーション損失を決定し、前記分類損失及び前記セグメンテーション損失に基づいて、前記ニューラルネットワークを訓練するように構成される。
本願の幾つかの実施例において、前記訓練モジュール14は更に、前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、第1分類損失を決定し、前記カテゴリ予測情報及び前記サンプル画像ブロックが属するカテゴリのカテゴリセンターのカテゴリ情報に基づいて、第2分類損失を決定し、前記第1分類損失及び前記第2分類損失に対して加重加算処理を行い、前記分類損失を得るように構成される。
本願の幾つかの実施例において、前記訓練モジュール14は更に、前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記予測ターゲット領域の第1重み及び前記サンプル画像ブロックにおけるサンプル背景領域の第2重みを決定し、前記第1重み、第2重み、前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、前記セグメンテーション損失を決定するように構成される。
本願の幾つかの実施例において、前記訓練モジュール14は更に、前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記サンプル画像ブロックにおけるサンプル背景領域の第2割合を決定し、前記第2割合を前記第1重みとして決定し、前記第1割合を第2重みとして決定するように構成される。
本願の幾つかの実施例において、前記カテゴリ情報は、前浸潤性腺癌異型腺腫様過形成結節、上皮内腺癌結節、微小浸潤腺癌結節及び浸潤性腺癌結節を含む。
本願の幾つかの実施例において、前記ニューラルネットワークは、共有特徴抽出ネットワーク、分類ネットワーク及びセグメンテーションネットワークを含み、前記装置は、処理されるべき画像ブロックを前記共有特徴抽出ネットワークに入力して処理を行い、前記処理されるべき画像ブロックのターゲット特徴を得るように構成される取得モジュールであって、前記共有特徴抽出ネットワークは、M個の共有特徴抽出ブロックを備え、i番目の共有特徴抽出ブロックの入力特徴は、最初のi-1個の共有特徴抽出ブロックの出力特徴を含み、i及びMは整数であり、且つ1<i≦Mである、取得モジュールと、前記ターゲット特徴を前記分類ネットワークに入力して分類処理を行い、前記処理されるべき画像ブロックのカテゴリ情報を得るように構成される分類モジュールと、前記ターゲット特徴を前記セグメンテーションネットワークに入力してセグメンテーション処理を行い、前記処理されるべき画像ブロックにおけるターゲット領域を得るように構成されるセグメンテーションモジュールと、を更に備える。
本願の幾つかの実施例において、前記取得モジュールは更に、前記処理されるべき画像ブロックに対して第1特徴抽出処理を行い、前記処理されるべき画像ブロックの第1特徴を得ることと、前記第1特徴を1番目の共有特徴抽出ブロックに入力し、前記1番目の共有特徴抽出ブロックの出力特徴を得て、前記1番目の共有特徴抽出ブロックの出力特徴を後続のM-1個の共有特徴抽出ブロックに出力することと、最初のj-1個の共有特徴抽出ブロックの出力特徴をj番目の共有特徴抽出ブロックに入力し、前記j番目の共有特徴抽出ブロックの出力特徴を得ることであって、jは整数であり、且つ1<j<Mである、ことと、M番目の共有特徴抽出ブロックの出力特徴に対して第2特徴抽出処理を行い、前記処理されるべき画像ブロックの第2特徴を得ることと、前記第2特徴に対してプーリング処理を行い、前記ターゲット特徴を得ることと、を実行するように構成される。
本願の幾つかの実施例において、前記装置は、処理されるべき画像に対して前処理を行い、第1画像を得るように構成される前処理モジュールと、前記第1画像におけるターゲット領域に対して位置決めを行い、前記第1画像におけるターゲット領域の位置情報を決定するように構成される位置決めモジュールと、前記第1画像におけるターゲット領域の位置情報に基づいて、セグメンテーションを行い、少なくとも1つの前記処理されるべき画像ブロックを得るように構成される第2セグメンテーションモジュールと、を更に備える。
幾つかの実施例において、本願の実施例で提供される装置における機能及びモジュールは、上記方法の実施例に記載の方法を実行するために用いられ、具体的な実現形態は上記方法の実施例の説明を参照されたい。
本願の実施例はコンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にはコンピュータプログラムが記憶されており、前記コンピュータプログラムが実行されると、コンピュータに上記方法を実現実行させる。コンピュータ可読記憶媒体は不揮発性コンピュータ可読記憶媒体であってもよい。
本願の実施例は電子機器を更に提供する。該電子機器は、プロセッサと、プロセッサによる実行可能なコンピュータプログラムを記憶するように構成されるメモリと、を備え、前記プロセッサは、前記コンピュータプログラムにより上記方法を実行するように構成される。電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
本願の実施例は、コンピュータプログラム製品を更に提供する。前記コンピュータプログラム製品は、コンピュータ可読コードを含み、コンピュータ可読コードは機器で実行されると、機器におけるプロセッサに、上記いずれか1つの実施例で提供されるニューラルネットワーク訓練方法の命令を実行させる。
本願の実施例は、もう1つのコンピュータプログラム製品を更に提供する。該コンピュータプログラム製品は、コンピュータ可読命令を記憶するように構成され、命令が実行されると、コンピュータに、上記いずれか1つの実施例で提供されるニューラルネットワーク訓練方法の操作を実行させる。
図6は、本願の実施例による電子機器を示す概略図である。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージング装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、パーソナルデジタルアシスタントなどの端末であってもよい。図5を参照すると、電子機器800は、処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(Input/Output:I/O)インタフェース812、センサコンポーネント814及び通信コンポーネント816のうちの1つ又は複数を備えてもよい。
処理コンポーネント802は一般的には、電子機器800の全体操作を制御する。例えば、表示、通話呼、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理コンポーネント802は、指令を実行するための1つ又は複数のプロセッサ820を備えてもよい。それにより上記方法の全て又は一部のステップを実行する。なお、処理コンポーネント802は、他のユニットとのインタラクションのために、1つ又は複数のモジュールを備えてもよい。例えば、処理コンポーネント802はマルチメディアモジュールを備えることで、マルチメディアコンポーネント808と処理コンポーネント802とのインタラクションに寄与する。
メモリ804は、各種のデータを記憶することで電子機器800における操作をサポートするように構成される。これらのデータの例として、電子機器800上で操作れる如何なるアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、イメージ、ビデオ等を含む。メモリ804は任意のタイプの揮発性または不揮発性記憶装置、あるいはこれらの組み合わせにより実現される。例えば、スタティックランダムアクセスメモリ(Static Random Access Memory:SRAM)、電気的消去可能なプログラマブル読み出し専用メモリ(Electrically Erasable Programmable Read Only Memory:EEPROM)、電気的に消去可能なプログラマブル読出し専用メモリ(Erasable Programmable Read Only Memory:EPROM)、プログラマブル読出し専用メモリ(Programmable Read Only Memory:PROM)、読出し専用メモリ(Read Only Memory:ROM)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスクを含む。
電源コンポーネント806は電子機器800の様々なユニットに電力を提供する。電源コンポーネント806は、電源管理システム、1つ又は複数の電源、及び電子機器800のための電力生成、管理、分配に関連する他のユニットを備えてもよい。
マルチメディアコンポーネント808は、上記電子機器800とユーザとの間に出力インタフェースを提供するためのスクリーンを備える。幾つかの実施例において、スクリーンは、液晶ディスプレイ(Liquid Crystal Display:LCD)及びタッチパネル(TouchPanel:TP)を含む。スクリーンは、タッチパネルを含むと、タッチパネルとして実現され、ユーザからの入力信号を受信する。タッチパネルは、タッチ、スライド及びパネル上のジェスチャを感知する1つ又は複数のタッチセンサを備える。上記タッチセンサは、タッチ又はスライド動作の境界を感知するだけでなく、上記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。幾つかの実施例において、マルチメディアコンポーネント808は、フロントカメラ及び/又はリアカメラを備える。電子機器800が、撮影モード又はビデオモードのような操作モードであれば、フロントカメラ及び/又はリアカメラは外部からのマルチメディアデータを受信することができる。各フロントカメラ及びリアカメラは固定した光学レンズシステム又は焦点及び光学ズーム能力を持つものであってもよい。
オーディオコンポーネント810は、オーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、マイクロホン(Microphone:MIC)を備える。電子機器800が、通話モード、記録モード及び音声識別モードのような操作モードであれば、マイクロホンは、外部からのオーディオ信号を受信するように構成される。受信したオーディオ信号を更にメモリ804に記憶するか、又は通信コンポーネント816を経由して送信することができる。幾つかの実施例において、オーディオコンポーネント810は、オーディオ信号を出力するように構成されるスピーカーを更に備える。
I/Oインタフェース812は、処理コンポーネント802と周辺インタフェースモジュールとの間のインタフェースを提供する。上記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボダン、ボリュームボタン、スタートボタン及びロックボタンを含むが、これらに限定されない。
センサコンポーネント814は、1つ又は複数のセンサを備え、電子機器800のために様々な状態の評価を行うように構成される。例えば、センサコンポーネント814は、電子機器800のオン/オフ状態、ユニットの相対的な位置決めを検出することができる。例えば、上記ユニットが電子機器800のディスプレイ及びキーパッドである。センサコンポーネント814は電子機器800又は電子機器800における1つのユニットの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加速/減速及び電子機器800の温度の変動を検出することもできる。センサコンポーネント814は近接センサを備えてもよく、いかなる物理的接触もない場合に周囲の物体の存在を検出するように構成される。センサコンポーネント814は、相補型金属酸化膜半導体(Complementary Metal Oxide Semiconductor:CMOS)又は電荷結合素子(Charge Coupled Device:CCD)画像センサのような光センサを備えてもよく、結像に適用されるように構成される。幾つかの実施例において、該センサコンポーネント814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサを備えてもよい。
通信コンポーネント816は、電子機器800と他の機器との有線又は無線方式の通信に寄与するように構成される。電子機器800は、WiFi、2G又は3G、又はそれらの組み合わせのような通信規格に基づいた無線ネットワークにアクセスできる。一例示的な実施例において、通信コンポーネント816は放送チャネルを経由して外部放送チャネル管理システムからの放送信号又は放送関連する情報を受信する。一例示的な実施例において、上記通信コンポーネント816は、近接場通信(Near Field Communication:NFC)モジュールを更に備えることで近距離通信を促進する。例えば、NFCモジュールは、無線周波数識別(Radio Frequency Identification:RFID)技術、赤外線データ協会(Infrared Data Association:IrDA)技術、超広帯域(Ultra Wide Band:UWB)技術、ブルートゥース(Bluetooth:BT)技術及び他の技術に基づいて実現される。
本願の幾つかの実施例において、電子機器800は、1つ又は複数の特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、デジタル信号プロセッサ(Digital Signal Process:DSP)、デジタル信号処理機器(Digital Signal Process Device:DSPD)、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子素子により実現され、上記方法を実行するように構成されてもよい。
本願の幾つかの実施例において、コンピュータプログラム命令を記憶したメモリ804のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器800のプロセッサ820により実行され上記方法を完了する。
図6は、本願の実施例によるもう1つの電子機器を示す概略図である。例えば、電子機器1900は、サーバとして提供されてもよい。図6を参照すると、電子機器1900は、処理コンポーネント1922を備える。それは、1つ又は複数のプロセッサ、及びメモリ1932で表されるメモリリソースを更に備える。該メモリリソースは、アプリケーションプログラムのような、処理コンポーネント1922により実行される命令を記憶するためのものである。メモリ1932に記憶されているアプリケーションプログラムは、それぞれ一組の命令に対応する1つ又は1つ以上のモジュールを含んでもよい。なお、処理コンポーネント1922は、命令を実行して、上記方法を実行するように構成される。
電子機器1900は、電子機器1900の電源管理を実行するように構成される電源コンポーネント1926と、電子機器1900をネットワークに接続するように構成される有線又は無線ネットワークインタフェース1950と、入力出力(I/O)インタフェース1958と、を更に備えてもよい。電子機器1900は、Windows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM又は類似したもの等、メモリ1932に記憶されているオペレーティングシステムを実行することができる。
本願の幾つかの実施例において、例えば、コンピュータプログラム命令を含むメモリ1932のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器1900の処理コンポーネント1922により実行されて上記方法を完了する。
本願は、システム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、コンピュータ可読記憶媒体を備えてもよく、プロセッサに本願の各態様を実現させるためのコンピュータ可読プログラム命令がそれに記憶されている。
コンピュータ可読記憶媒体は、命令実行装置に用いられる命令を保持又は記憶することができる有形装置であってもよい。コンピュータ可読記憶媒体は、例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(Random Access Memory:RAM)、ROM、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュ)、SRAM、ポータブルコンパクトディスク読み出し専用メモリ(Compact Disk-Read Only Memory:CD-ROM)、デジタル多目的ディスク(Digital Video Disc:DVD)、メモリスティック、フレキシブルディスク、命令が記憶されているパンチカード又は凹溝内における突起構造のような機械的符号化装置、及び上記任意の適切な組み合わせを含む。ここで用いられるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバケーブルを通過する光パルス)、または、電線を通して伝送される電気信号などの、一時的な信号それ自体であると解釈されるべきではない。
ここで説明されるコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体から各コンピューティング/処理装置にダウンロードすることができるか、又は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークのようなネットワークを経由して外部コンピュータ又は外部記憶装置にダウンロードすることができる。ネットワークは、伝送用銅線ケーブル、光ファイバー伝送、無線伝送、ルータ、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含んでもよい。各コンピューティング/処理装置におけるネットワークインターフェースカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各コンピューティング/処理装置におけるコンピュータ可読記憶媒体に記憶する。
本願の操作を実行するように構成されるコンピュータプログラム命令は、アセンブラ命令、命令セットアーキテクチャ(Instruction Set Architecture:ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語で記述されたソースコード又はターゲットコードであってもよい。前記プログラミング言語は、Smalltalk、C++などのようなオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似したプログラミング言語などの従来の手続型プログラミング言語とを含む。コンピュータ可読プログラム命令は、ユーザコンピュータ上で完全に実行してもよいし、ユーザコンピュータ上で部分的に実行してもよいし、独立したソフトウェアパッケージとして実行してもよいし、ユーザコンピュータ上で部分的に実行してリモートコンピュータ上で部分的に実行してもよいし、又はリモートコンピュータ又はサーバ上で完全に実行してもよい。リモートコンピュータの場合に、リモートコンピュータは、任意の種類のネットワーク(ローカルエリアネットワーク又はワイドエリアネットワークを含む)を通じてユーザのコンピュータに接続するか、または、外部のコンピュータに接続することができる(例えばインターネットサービスプロバイダを用いてインターネットを通じて接続する)。幾つかの実施例において、コンピュータ可読プログラム命令の状態情報を利用して、プログラマブル論理回路、FPGA又はプログラマブル論理アレイ(Programmable Logic Array:PLA)のような電子回路をカスタマイズする。該電子回路は、コンピュータ可読プログラム命令を実行することで、本願の各態様を実現させることができる。
ここで、本願の実施例の方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら、本願の各態様を説明する。フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図における各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令により実現できる。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータまたはその他プログラマブルデータ処理装置のプロセッサに提供でき、それによって機器を生み出し、これら命令はコンピュータまたはその他プログラマブルデータ処理装置のプロセッサにより実行されると、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現する装置を生み出した。これらのコンピュータ可読プログラム命令をコンピュータ可読記憶媒体に記憶してもよい。これらの命令によれば、コンピュータ、プログラマブルデータ処理装置及び/又は他の装置は特定の方式で動作する。従って、命令が記憶されているコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図おける1つ又は複数のブロック中で規定している機能/操作を実現する各態様の命令を含む製品を備える。
コンピュータ可読プログラム命令をコンピュータ、他のプログラマブルデータ処理装置又は他の装置にロードしてもよい。これにより、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で一連の操作の工程を実行して、コンピュータで実施されるプロセスを生成する。従って、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で実行される命令により、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現させる。
図面におけるフローチャート及びブロック図は、本願の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能および操作を例示するものである。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント又は命令の一部を表すことができる。前記モジュール、プログラムセグメント又は命令の一部は、1つまたは複数の所定の論理機能を実現するための実行可能な命令を含む。いくつかの取り替えとしての実現中に、ブロックに表記される機能は図面中に表記される順序と異なる順序で発生することができる。例えば、二つの連続するブロックは実際には基本的に並行して実行でき、場合によっては反対の順序で実行することもでき、これは関係する機能から確定する。ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行するための専用ハードウェアベースシステムにより実現するか、又は専用ハードウェアとコンピュータ命令の組み合わせにより実現することができる。
該コンピュータプログラム製品は、ハードウェア、ソフトウェア又はその組み合わせにより実現してもよい。本願の実施例の1つの実施形態において、前記コンピュータプログラム製品は、コンピュータ記憶媒体として表現してもよい。もう1つの実施形態において、コンピュータプログラム製品は、例えばソフトウェア開発キット(Software Development Kit:SDK)などのソフトウェア製品として表現してもよい。
以上は本発明の各実施例を説明したが、前記説明は例示的なものであり、網羅するものではなく、且つ開示した各実施例に限定されない。説明した各実施例の範囲と趣旨から脱逸しない場合、当業者にとって、多くの修正及び変更は容易に想到しえるものである。本明細書に用いられる用語の選択は、各実施例の原理、実際の応用、或いは市場における技術の改善を最もよく解釈すること、或いは他の当業者が本明細書に開示された各実施例を理解できることを目的とする。
本願は、ニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体に関する。前記方法は、サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得することと、ターゲット領域の位置情報に基づいてセグメンテーションを行い、少なくとも1つのサンプル画像ブロックを得ることと、カテゴリ情報に基づいて、少なくとも1つのサンプル画像ブロックを分類し、Nカテゴリのサンプル画像ブロックを得ることと、Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うことと、を含む。本願の実施例のニューラルネットワーク訓練方法によれば、サンプル画像ブロックに対して細かい分類を行うことができ、ニューラルネットワークに対して訓練を行う。これにより、ニューラルネットワークは画像に対して細かい分類を行うことができ、分類効率及び正確度を向上させることができる。

Claims (25)

  1. ニューラルネットワーク訓練方法であって、前記ニューラルネットワーク訓練方法は、ニューラルネットワークモデルを訓練し、訓練されたニューラルネットワークモデルにより、画像を分類するために用いられ、前記方法は、
    サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得することと、
    前記サンプル画像におけるターゲット領域の位置情報に基づいてセグメンテーションを行い、少なくとも1つのサンプル画像ブロックを得ることと、
    前記カテゴリ情報に基づいて、前記少なくとも1つのサンプル画像ブロックを分類し、Nカテゴリのサンプル画像ブロックを得ることであって、Nは整数であり、且つN≧1である、ことと、
    前記Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うことと、を含む、方法。
  2. 前記サンプル画像は、医用映像ピクチャであることを特徴とする
    請求項1に記載の方法。
  3. 前記サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得することは、
    前記医用映像ピクチャにおけるターゲット領域に対して位置決めを行い、前記ターゲット領域の位置情報を得ることと、
    前記医用映像ピクチャに関連する病理学的ピクチャを取得することであって、前記病理学的ピクチャは、診断された、病理学的情報を含むピクチャである、ことと、
    前記病理学的ピクチャにおける各ターゲット領域の病理学的情報に基づいて、前記医用映像ピクチャにおけるターゲット領域のカテゴリ情報を決定することと、を含むことを特徴とする
    請求項2に記載の方法。
  4. 前記Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うことは、
    いずれか1つのサンプル画像ブロックを前記ニューラルネットワークに入力して訓練を行い、サンプル画像ブロックのカテゴリ予測情報及び予測ターゲット領域を得ることと、
    少なくとも前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、分類損失を決定することと、
    前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、セグメンテーション損失を決定することと、
    前記分類損失及び前記セグメンテーション損失に基づいて、前記ニューラルネットワークを訓練することと、を含むことを特徴とする
    請求項1に記載の方法。
  5. 前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、分類損失を決定することは、
    前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、第1分類損失を決定することと、
    前記カテゴリ予測情報及び前記サンプル画像ブロックが属するカテゴリのカテゴリセンターのカテゴリ情報に基づいて、第2分類損失を決定することと、
    前記第1分類損失及び前記第2分類損失に対して加重加算処理を行い、前記分類損失を得ることと、を含むことを特徴とする
    請求項4に記載の方法。
  6. 前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、セグメンテーション損失を決定することは、
    前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記予測ターゲット領域の第1重み及び前記サンプル画像ブロックにおけるサンプル背景領域の第2重みを決定することと、
    前記第1重み、第2重み、前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、前記セグメンテーション損失を決定することと、を含むことを特徴とする
    請求項4に記載の方法。
  7. 前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記予測ターゲット領域の第1重み及び前記サンプル画像ブロックにおけるサンプル背景領域の第2重みを決定することは、
    前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記サンプル画像ブロックにおけるサンプル背景領域の第2割合を決定することと、
    前記第2割合を前記第1重みとして決定し、前記第1割合を第2重みとして決定することと、を含むことを特徴とする
    請求項6に記載の方法。
  8. 前記カテゴリ情報は、前浸潤性腺癌異型腺腫様過形成結節、上皮内腺癌結節、微小浸潤腺癌結節及び浸潤性腺癌結節を含むことを特徴とする
    請求項1から7のうちいずれか一項に記載の方法。
  9. 前記ニューラルネットワークは、共有特徴抽出ネットワーク、分類ネットワーク及びセグメンテーションネットワークを含み、
    前記方法は、
    処理されるべき画像ブロックを前記共有特徴抽出ネットワークに入力して処理を行い、前記処理されるべき画像ブロックのターゲット特徴を得ることであって、前記共有特徴抽出ネットワークは、M個の共有特徴抽出ブロックを備え、i番目の共有特徴抽出ブロックの入力特徴は、最初のi-1個の共有特徴抽出ブロックの出力特徴を含み、i及びMは整数であり、且つ1<i≦Mである、ことと、
    前記ターゲット特徴を前記分類ネットワークに入力して分類処理を行い、前記処理されるべき画像ブロックのカテゴリ情報を得ることと、
    前記ターゲット特徴を前記セグメンテーションネットワークに入力してセグメンテーション処理を行い、前記処理されるべき画像ブロックにおけるターゲット領域を得ることと、を更に含むことを特徴とする
    請求項1から8のうちいずれか一項に記載の方法。
  10. 前記処理されるべき画像ブロックを前記共有特徴抽出ネットワークに入力して処理を行い、前記処理されるべき画像ブロックのターゲット特徴を得ることは、
    前記処理されるべき画像ブロックに対して第1特徴抽出処理を行い、前記処理されるべき画像ブロックの第1特徴を得ることと、
    前記第1特徴を1番目の共有特徴抽出ブロックに入力し、前記1番目の共有特徴抽出ブロックの出力特徴を得て、前記1番目の共有特徴抽出ブロックの出力特徴を後続のM-1個の共有特徴抽出ブロックに出力することと、
    最初のj-1個の共有特徴抽出ブロックの出力特徴をj番目の共有特徴抽出ブロックに入力し、前記j番目の共有特徴抽出ブロックの出力特徴を得ることであって、jは整数であり、且つ1<j<Mである、ことと、
    M番目の共有特徴抽出ブロックの出力特徴に対して第2特徴抽出処理を行い、前記処理されるべき画像ブロックの第2特徴を得ることと、
    前記第2特徴に対してプーリング処理を行い、前記ターゲット特徴を得ることと、を含むことを特徴とする
    請求項9に記載の方法。
  11. 前記方法は、
    前記処理されるべき画像に対して前処理を行い、第1画像を得ることと、
    前記第1画像におけるターゲット領域に対して位置決めを行い、前記第1画像におけるターゲット領域の位置情報を決定することと、
    前記第1画像におけるターゲット領域の位置情報に基づいて、セグメンテーションを行い、少なくとも1つの前記処理されるべき画像ブロックを得ることと、を更に含むことを特徴とする
    請求項9に記載の方法。
  12. ニューラルネットワーク訓練装置であって、前記ニューラルネットワーク訓練装置は、ニューラルネットワークモデルを訓練し、訓練されたニューラルネットワークモデルにより、画像を分類するために用いられ、前記装置は、
    サンプル画像におけるターゲット領域の位置情報及びカテゴリ情報を取得するように構成される取得モジュールと、
    前記サンプル画像におけるターゲット領域の位置情報に基づいてセグメンテーションを行い、少なくとも1つのサンプル画像ブロックを得るように構成される第1セグメンテーションモジュールと、
    前記カテゴリ情報に基づいて、前記少なくとも1つのサンプル画像ブロックを分類し、Nカテゴリのサンプル画像ブロックを得るように構成される分類モジュールであって、Nは整数であり、且つN≧1である、分類モジュールと、
    前記Nカテゴリのサンプル画像ブロックをニューラルネットワークに入力して訓練を行うように構成される訓練モジュールと、を備える、装置。
  13. 前記サンプル画像は、医用映像ピクチャであることを特徴とする
    請求項12に記載の装置。
  14. 前記取得モジュールは更に、
    医用映像ピクチャにおけるターゲット領域に対して位置決めを行い、前記ターゲット領域の位置情報を得ることと、
    前記医用映像ピクチャに関連する病理学的ピクチャを取得することであって、前記病理学的ピクチャは、診断された、病理学的情報を含むピクチャである、ことと、
    前記病理学的ピクチャにおける各ターゲット領域の病理学的情報に基づいて、前記医用映像ピクチャにおけるターゲット領域のカテゴリ情報を決定することと、を実行するように構成されることを特徴とする
    請求項13に記載の装置。
  15. 前記訓練モジュールは更に、
    いずれか1つのサンプル画像ブロックを前記ニューラルネットワークに入力して処理を行い、サンプル画像ブロックのカテゴリ予測情報及び予測ターゲット領域を得て、
    少なくとも前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、分類損失を決定し、
    前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、セグメンテーション損失を決定し、
    前記分類損失及び前記セグメンテーション損失に基づいて、前記ニューラルネットワークを訓練するように構成されることを特徴とする
    請求項12に記載の装置。
  16. 前記訓練モジュールは更に、
    前記カテゴリ予測情報及び前記サンプル画像ブロックのカテゴリ情報に基づいて、第1分類損失を決定し、
    前記カテゴリ予測情報及び前記サンプル画像ブロックが属するカテゴリのカテゴリセンターのカテゴリ情報に基づいて、第2分類損失を決定し、
    前記第1分類損失及び前記第2分類損失に対して加重加算処理を行い、前記分類損失を得るように構成されることを特徴とする
    請求項15に記載の装置。
  17. 前記訓練モジュールは更に、
    前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記予測ターゲット領域の第1重み及び前記サンプル画像ブロックにおけるサンプル背景領域の第2重みを決定し、
    前記第1重み、第2重み、前記予測ターゲット領域及び前記サンプル画像ブロックの位置情報に基づいて、前記セグメンテーション損失を決定するように構成されることを特徴とする
    請求項15に記載の装置。
  18. 前記訓練モジュールは更に、
    前記サンプル画像ブロックでの前記予測ターゲット領域の画素数の第1割合に基づいて、前記サンプル画像ブロックにおけるサンプル背景領域の第2割合を決定し、
    前記第2割合を前記第1重みとして決定し、前記第1割合を第2重みとして決定するように構成されることを特徴とする
    請求項17に記載の装置。
  19. 前記カテゴリ情報は、前浸潤性腺癌異型腺腫様過形成結節、上皮内腺癌結節、微小浸潤腺癌結節及び浸潤性腺癌結節を含むことを特徴とする
    請求項12から18のうちいずれか一項に記載の装置。
  20. 前記ニューラルネットワークは、共有特徴抽出ネットワーク、分類ネットワーク及びセグメンテーションネットワークを含み、
    前記装置は、
    処理されるべき画像ブロックを前記共有特徴抽出ネットワークに入力して処理を行い、前記処理されるべき画像ブロックのターゲット特徴を得るように構成される取得モジュールであって、前記共有特徴抽出ネットワークは、M個の共有特徴抽出ブロックを備え、i番目の共有特徴抽出ブロックの入力特徴は、最初のi-1個の共有特徴抽出ブロックの出力特徴を含み、i及びMは整数であり、且つ1<i≦Mである、取得モジュールと、
    前記ターゲット特徴を前記分類ネットワークに入力して分類処理を行い、前記処理されるべき画像ブロックのカテゴリ情報を得るように構成される分類モジュールと、
    前記ターゲット特徴を前記セグメンテーションネットワークに入力してセグメンテーション処理を行い、前記処理されるべき画像ブロックにおけるターゲット領域を得るように構成されるセグメンテーションモジュールと、を更に備えることを特徴とする
    請求項12から19のうちいずれか一項に記載の装置。
  21. 前記取得モジュールは更に、
    前記処理されるべき画像ブロックに対して第1特徴抽出処理を行い、前記処理されるべき画像ブロックの第1特徴を得ることと、
    前記第1特徴を1番目の共有特徴抽出ブロックに入力し、前記1番目の共有特徴抽出ブロックの出力特徴を得て、前記1番目の共有特徴抽出ブロックの出力特徴を後続のM-1個の共有特徴抽出ブロックに出力することと、
    最初のj-1個の共有特徴抽出ブロックの出力特徴をj番目の共有特徴抽出ブロックに入力し、前記j番目の共有特徴抽出ブロックの出力特徴を得ることであって、jは整数であり、且つ1<j<Mである、ことと、
    M番目の共有特徴抽出ブロックの出力特徴に対して第2特徴抽出処理を行い、前記処理されるべき画像ブロックの第2特徴を得ることと、
    前記第2特徴に対してプーリング処理を行い、前記ターゲット特徴を得ることと、を実行するように構成されることを特徴とする
    請求項20に記載の装置。
  22. 前記装置は、
    前記処理されるべき画像に対して前処理を行い、第1画像を得るように構成される前処理モジュールと、
    前記第1画像におけるターゲット領域に対して位置決めを行い、前記第1画像におけるターゲット領域の位置情報を決定するように構成される位置決めモジュールと、
    前記第1画像におけるターゲット領域の位置情報に基づいて、セグメンテーションを行い、少なくとも1つの前記処理されるべき画像ブロックを得るように構成される第2セグメンテーションモジュールと、を更に備えることを特徴とする
    請求項20に記載の装置。
  23. 電子機器であって、
    プロセッサと、
    プロセッサによる実行可能なコンピュータプログラムを記憶するように構成されるメモリと、を備え、
    前記プロセッサは、前記コンピュータプログラムにより、請求項1から11のうちいずれか一項に記載の方法を実行するように構成される、電子機器。
  24. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、前記コンピュータプログラムが実行されると、コンピュータに請求項1から11のうちいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
  25. コンピュータプログラムであって、前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で実行されると、電子機器におけるプロセッサに、請求項1から11のうちいずれか一項に記載の方法を実行させる、コンピュータプログラム。
JP2021574781A 2020-03-05 2020-07-07 ニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体 Withdrawn JP2022537974A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010148544.8 2020-03-05
CN202010148544.8A CN111368923B (zh) 2020-03-05 2020-03-05 神经网络训练方法及装置、电子设备和存储介质
PCT/CN2020/100715 WO2021174739A1 (zh) 2020-03-05 2020-07-07 神经网络训练方法及装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
JP2022537974A true JP2022537974A (ja) 2022-08-31

Family

ID=71208701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021574781A Withdrawn JP2022537974A (ja) 2020-03-05 2020-07-07 ニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体

Country Status (5)

Country Link
JP (1) JP2022537974A (ja)
KR (1) KR20220009451A (ja)
CN (1) CN111368923B (ja)
TW (1) TWI770754B (ja)
WO (1) WO2021174739A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368923B (zh) * 2020-03-05 2023-12-19 上海商汤智能科技有限公司 神经网络训练方法及装置、电子设备和存储介质
CN111767708A (zh) * 2020-07-09 2020-10-13 北京猿力未来科技有限公司 解题模型的训练方法及装置、解题公式生成方法及装置
CN112017162B (zh) * 2020-08-10 2022-12-06 上海杏脉信息科技有限公司 病理图像处理方法、装置、存储介质和处理器
CN112241760A (zh) * 2020-08-25 2021-01-19 浙江大学 网络小额贷款服务中的黑中介自动挖掘方法与系统
US20220084677A1 (en) * 2020-09-14 2022-03-17 Novocura Tech Health Services Private Limited System and method for generating differential diagnosis in a healthcare environment
CN112561893A (zh) * 2020-12-22 2021-03-26 平安银行股份有限公司 图片匹配方法、装置、电子设备及存储介质
CN112785565B (zh) * 2021-01-15 2024-01-05 上海商汤智能科技有限公司 目标检测方法及装置、电子设备和存储介质
CN112749801A (zh) * 2021-01-22 2021-05-04 上海商汤智能科技有限公司 神经网络训练和图像处理方法及装置
CN112925938A (zh) * 2021-01-28 2021-06-08 上海商汤智能科技有限公司 一种图像标注方法、装置、电子设备及存储介质
CN112907517A (zh) * 2021-01-28 2021-06-04 上海商汤智能科技有限公司 一种图像处理方法、装置、计算机设备及存储介质
US11967084B2 (en) * 2021-03-09 2024-04-23 Ping An Technology (Shenzhen) Co., Ltd. PDAC image segmentation method, electronic device and storage medium
CN113139471A (zh) * 2021-04-25 2021-07-20 上海商汤智能科技有限公司 目标检测方法及装置、电子设备和存储介质
KR20220169373A (ko) * 2021-06-17 2022-12-27 센스타임 인터내셔널 피티이. 리미티드. 타겟 검출 방법들, 장치들, 전자 디바이스들 및 컴퓨터 판독가능한 저장 매체
CN113702719B (zh) * 2021-08-03 2022-11-29 北京科技大学 一种基于神经网络的宽带近场电磁定位方法及装置
CN113688975A (zh) * 2021-08-24 2021-11-23 北京市商汤科技开发有限公司 神经网络的训练方法、装置、电子设备及存储介质
CN113793323A (zh) * 2021-09-16 2021-12-14 云从科技集团股份有限公司 一种元器件检测方法、系统、设备及介质
CN114037925A (zh) * 2021-09-27 2022-02-11 北京百度网讯科技有限公司 目标检测模型的训练、检测方法、装置及电子设备
CN114049315B (zh) * 2021-10-29 2023-04-18 北京长木谷医疗科技有限公司 关节识别方法、电子设备、存储介质及计算机程序产品
CN113989721A (zh) * 2021-10-29 2022-01-28 北京百度网讯科技有限公司 目标检测方法和目标检测模型的训练方法、装置
CN113989407B (zh) * 2021-12-30 2022-03-25 青岛美迪康数字工程有限公司 Ct影像中肢体部位识别模型训练方法及系统
CN114612824A (zh) * 2022-03-09 2022-06-10 清华大学 目标识别方法及装置、电子设备和存储介质
CN114332547B (zh) * 2022-03-17 2022-07-08 浙江太美医疗科技股份有限公司 医学目标分类方法和装置、电子设备和存储介质
CN114839340A (zh) * 2022-04-27 2022-08-02 芯视界(北京)科技有限公司 水质生物活性检测方法及装置、电子设备和存储介质
KR20240018229A (ko) * 2022-08-02 2024-02-13 김민구 시내퍼 모델을 이용한 자연어 처리 시스템 및 방법
CN116077066A (zh) * 2023-02-10 2023-05-09 北京安芯测科技有限公司 心电信号分类模型的训练方法、装置及电子设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6031921B2 (ja) * 2012-09-28 2016-11-24 ブラザー工業株式会社 画像処理装置およびプログラム
US9953425B2 (en) * 2014-07-30 2018-04-24 Adobe Systems Incorporated Learning image categorization using related attributes
CN108229267B (zh) * 2016-12-29 2020-10-16 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
CN107330263B (zh) * 2017-06-26 2020-07-28 成都知识视觉科技有限公司 一种计算机辅助乳腺浸润性导管癌组织学分级的方法
WO2019079180A1 (en) * 2017-10-16 2019-04-25 Illumina, Inc. NEURONAL NETWORKS WITH DEEP CONVOLUTION OF VARIANT CLASSIFICATION
CN108335313A (zh) * 2018-02-26 2018-07-27 阿博茨德(北京)科技有限公司 图像分割方法及装置
CN108520518A (zh) * 2018-04-10 2018-09-11 复旦大学附属肿瘤医院 一种甲状腺肿瘤超声图像识别方法及其装置
CN109285142B (zh) * 2018-08-07 2023-01-06 广州智能装备研究院有限公司 一种头颈部肿瘤检测方法、装置及计算机可读存储介质
CN109447169B (zh) * 2018-11-02 2020-10-27 北京旷视科技有限公司 图像处理方法及其模型的训练方法、装置和电子系统
CN109919961A (zh) * 2019-02-22 2019-06-21 北京深睿博联科技有限责任公司 一种用于颅内cta图像中动脉瘤区域的处理方法及装置
CN110245657B (zh) * 2019-05-17 2021-08-24 清华大学 病理图像相似性检测方法及检测装置
CN113743535B (zh) * 2019-05-21 2024-05-24 北京市商汤科技开发有限公司 神经网络训练方法及装置以及图像处理方法及装置
CN110705555B (zh) * 2019-09-17 2022-06-14 中山大学 基于fcn的腹部多器官核磁共振图像分割方法、系统及介质
CN110705626A (zh) * 2019-09-26 2020-01-17 北京市商汤科技开发有限公司 一种图像处理方法及装置、电子设备和存储介质
CN110796656A (zh) * 2019-11-01 2020-02-14 上海联影智能医疗科技有限公司 图像检测方法、装置、计算机设备和存储介质
CN111368923B (zh) * 2020-03-05 2023-12-19 上海商汤智能科技有限公司 神经网络训练方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
TWI770754B (zh) 2022-07-11
TW202133787A (zh) 2021-09-16
WO2021174739A1 (zh) 2021-09-10
CN111368923A (zh) 2020-07-03
KR20220009451A (ko) 2022-01-24
CN111368923B (zh) 2023-12-19

Similar Documents

Publication Publication Date Title
JP2022537974A (ja) ニューラルネットワーク訓練方法及び装置、電子機器並びに記憶媒体
WO2021147257A1 (zh) 网络训练、图像处理方法及装置、电子设备和存储介质
TWI755853B (zh) 圖像處理方法、電子設備和電腦可讀儲存介質
WO2022151755A1 (zh) 目标检测方法及装置、电子设备、存储介质、计算机程序产品和计算机程序
CN112767329B (zh) 图像处理方法及装置、电子设备
CN110458127B (zh) 图像处理方法、装置、设备以及系统
CN109829920B (zh) 图像处理方法及装置、电子设备和存储介质
WO2020211284A1 (zh) 图像处理方法及装置、电子设备和存储介质
WO2020211293A1 (zh) 一种图像分割方法及装置、电子设备和存储介质
JP2022537866A (ja) 画像分類方法、画像分類装置、画像処理方法、医療用電子機器、画像分類機器、及びコンピュータプログラム
CN114820584B (zh) 肺部病灶定位装置
CN112541928A (zh) 网络训练方法及装置、图像分割方法及装置和电子设备
CN113222038B (zh) 基于核磁图像的乳腺病灶分类和定位方法及装置
WO2021259391A2 (zh) 图像处理方法及装置、电子设备和存储介质
CN112508918A (zh) 图像处理方法及装置、电子设备和存储介质
WO2023050691A1 (zh) 图像处理方法及装置、电子设备、存储介质和程序
WO2021259390A2 (zh) 一种冠脉钙化斑块检测方法及装置
CN115170464A (zh) 肺图像的处理方法、装置、电子设备和存储介质
CN111598896A (zh) 图像检测方法、装置、设备及存储介质
CN113902730A (zh) 图像处理和神经网络训练方法及装置
CN114418931A (zh) 术后剩余肺叶的提取方法及装置、电子设备和存储介质
JP2022548453A (ja) 画像分割方法及び装置、電子デバイス並びに記憶媒体
TW202346826A (zh) 影像處理方法
CN115171873A (zh) 慢阻肺的识别方法及装置、电子设备和存储介质
CN117036750A (zh) 膝关节病灶检测方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211215

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230214