JP2021514228A - 画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法 - Google Patents

画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法 Download PDF

Info

Publication number
JP2021514228A
JP2021514228A JP2020543382A JP2020543382A JP2021514228A JP 2021514228 A JP2021514228 A JP 2021514228A JP 2020543382 A JP2020543382 A JP 2020543382A JP 2020543382 A JP2020543382 A JP 2020543382A JP 2021514228 A JP2021514228 A JP 2021514228A
Authority
JP
Japan
Prior art keywords
lump
region
target
image
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020543382A
Other languages
English (en)
Other versions
JP7076681B2 (ja
Inventor
芬 肖
芬 肖
佳 常
佳 常
旋 周
旋 周
克洲 ▲顔▼
克洲 ▲顔▼
▲チェン▼ 江
▲チェン▼ 江
▲寛▼ 田
▲寛▼ 田
建平 朱
建平 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2021514228A publication Critical patent/JP2021514228A/ja
Application granted granted Critical
Publication of JP7076681B2 publication Critical patent/JP7076681B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法を提供する。当該方法は、端末が、モリブデンターゲット画像を取得するステップ(S202)と、端末がモリブデンターゲット画像から複数の候補領域を抽出するステップ(S204)と、端末が、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して、モリブデンターゲット画像に複数の候補領域におけるターゲット領域を表記するステップであって、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用されるステップ(S206)とを含む。当該方法は、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を解決する。

Description

本願は、2018年03月27日に中国特許局に提出された、優先権番号が201810261926.4であり、発明の名称が「画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法」である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照により本願に組み込まれている。
本願は、コンピュータ分野、具体的に、画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法に関するものである。
現在、モリブデンターゲット画像を使用して疑わしい悪性しこりを位置決めすることは、しこりの良性と悪性を判断するための優れた根拠を医者に提供することができるが、関連技術では、通常、手動でスクリーニング方式を採用してモリブデンターゲット画像から疑わしい悪性しこりをスクリーニングし、手動スクリーニング方式を採用して疑わしい悪性しこりを位置決めすることには、医者に対して非常に豊かな経験を必要とし、さらに、手動スクリーニング方式を採用して疑わしい悪性しこりを位置決めすることは、疑わしい悪性しこりのスクリーニング効率及び位置決め精度に深刻な影響を与える。
上述の課題について、効果的な技術案はまだ提案されていない。
本願実施例は、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を少なくとも解決するために、画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法を開示する。
本願実施例の一態様によれば、画像処理方法を開示し、前記方法は、端末がモリブデンターゲット画像を取得するステップと、端末が前記モリブデンターゲット画像から複数の候補領域を抽出するステップと、端末が、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して、前記モリブデンターゲット画像に前記複数の候補領域におけるターゲット領域を表記するステップであって、前記ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、前記ターゲットしこりが悪性しこりである確率は第2閾値より大きく、前記ニューラルネットワークモデルは、前記候補領域と、前記候補領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を指示するために使用されるステップとを含む。
本願実施例の別の態様によれば、ニューラルネットワークモデルのトレーニング方法をさらに開示し、前記方法は、端末がサンプルしこり領域を取得し、前記サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、前記ターゲットしこりが悪性しこりである確率はターゲット閾値より大きいステップと、端末が、前記サンプルしこり領域と、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、前記ニューラルネットワークモデルを取得するステップであって、深層学習トレーニングを実行するとき、入力パラメータは前記サンプルしこり領域を含むことをトレーニングし、出力パラメータは前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率を含むことをトレーニングするステップとを含む。
本願実施例の別の態様によれば、記憶媒体をさらに開示し、前記記憶媒体には、コンピュータプログラムが記憶され、ここで、前記コンピュータプログラムは、実行されるとき、本願実施例の任意の画像処理方法及びニューラルネットワークモデルのトレーニング方法を実行するように構成される。
本願実施例の別の態様によれば、端末に実装された画像処理装置をさらに開示し、ここで、前記装置は、本願実施例の任意の画像処理方法を実行するように構成される。
本願実施例の別の態様によれば、電子装置をさらに開示し、前記装置は、メモリ及びプロセッサを含み、ここで、前記メモリは、コンピュータプログラムを記憶し、前記プロセッサは、前記コンピュータプログラムを介して本願実施例の任意のニューラルネットワークモデルのトレーニング方法を実行するように構成される。
本願実施例において、端末がモリブデンターゲット画像を取得し、端末がモリブデンターゲット画像から複数の候補領域を抽出し、端末が、深層学習トレーニングによって取得されたニューラルネットワークモデルを介してモリブデンターゲット画像に複数の候補領域におけるターゲット領域を表記し、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用され、それにより、手動で関与することなく、モリブデンターゲット画像内のターゲットしこり領域を自動的に表記する目的を達成し、さらに、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を解決し、それにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度を向上させる技術的効果を実現する。
ここで説明する図面は本願を一層理解させるためのものであり、本願の一部を構成し、本願の例示的な実施例及びその説明は本願を解釈するもので、本願を不適切に限定するものではない。
本願実施例に係る画像処理方法のハードウェア環境の概略図である。 本願実施例に係る例示的な画像処理方法のフローチャートである。 本願の例示的な実施例に係る、モリブデンターゲット画像を表記することの概略図である。 本願の例示的な実施例に係る、乳房マンモグラフィ画像における疑わしい悪性しこりの位置決めプロセスの概略図である。 本願実施例に係る例示的なニューラルネットワークモデルのトレーニング方法のフローチャートである。 本願実施例に係る例示的な画像処理装置の概略図である。 本願実施例に係る別の例示的な画像処理装置の概略図である。 本願実施例に係るさらに別の例示的な画像処理装置の概略図である。 本願実施例に係るさらに別の例示的な画像処理装置の概略図である。 本願実施例に係るさらに別の例示的な画像処理装置の概略図である。 本願実施例に係る電子装置の構造ブロック図である。
当業者が本願の技術案を一層簡単に理解できるようにするために、以下、本願実施例中の図面を結合して、本願実施例の技術案を明確且つ完全に説明し、明らかに、説明される実施例は、単に本願実施例の一部であり、実施例の全てではない。本願実施例に基づき、当業者が創造性のある労働を必要とせずに得られる他の実施例の全ては、本願の保護範囲に含まれるべきである。
本願の明細書、特許請求の範囲及び上記の添付図面中の「第1」、「第2」等の用語は、特定の順番又は前後順番を記述するために使用される必要がなく、類似する対象を区別するものである。このように使用されるデータは、本明細書で説明される本願実施例が本明細書で図示されまたは説明されるもの以外の順序で実施できるために、適切な場合に交換できることを理解されたい。また、「含む」、「有する」及びこれらの任意の変形の用語は、非排他的包含を網羅することが意図され、例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又はデバイスは、明確に列挙されたそれらのステップ又はユニットに必ずしも限定されず、明確に列挙されない他のステップ又はユニット、又はこれらのプロセス、方法、製品又はデバイスに固有の他のステップ又はユニットを含み得る。
まず、本願実施例を説明するプロセスで現れるいくつかの名詞または用語は以下の説明に適用される。
モリブデンターゲット画像とは、人体部位組織を写真に撮って取得した画像である。人体部位組織を撮影するときには軟X線を使用することができ、撮影後はフィルムで光感知し、現像、定着などプロセスを実行することができる。例えば、乳房組織を撮影して取得したモリブデンターゲット画像は乳房マンモグラフィ画像である。
本願実施例の一態様によれば、画像処理方法を開示する。
例示的に、本実施例において、上記した画像処理方法は図1に示された、サーバ102及び端末104で構成されたハードウェア環境に適用することができる。図1に示されたように、サーバ102は、ネットワークを介して端末104に接続し、上記のネットワークは、ワイドエリアネットワーク、メトロポリタンエリアネットワークまたはローカルエリアネットワークを含み得るが、これらに限定されず、端末104はモリブデンターゲット撮影装置であり得、ここで、本願はモリブデンターゲット撮影装置のタイプに対して特に限定しない。
例示的に、本願実施例の画像処理方法は、端末104によって実行されることができる。例示的に、端末104が本願の実施例の画像処理方法を実行することは、前記端末に実装されたクライアントによって実行されることもできる。端末104が本願実施例の画像処理方法を実行する具体的なプロセスは、端末104がモリブデンターゲット画像を取得し、端末104がモリブデンターゲット画像から複数の候補領域を抽出し、端末104が、深層学習トレーニングによって取得されたニューラルネットワークモデルを介してモリブデンターゲット画像に複数の候補領域におけるターゲット領域を表記し、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用されることであってもよい。例示的に、端末104は、ターゲット領域を表記するモリブデンターゲット画像を出力することもできる。
例示的に、本願の実施例の画像処理方法は、サーバ102と端末104によって共同で実行されることもできる。サーバ102と端末104が共同で本願実施例の画像処理方法を実行する具体的なプロセスは、端末104がモリブデンターゲット画像を取得し、端末104がモリブデンターゲット画像をサーバ102に送信し、サーバ102がモリブデンターゲット画像から複数の候補領域を抽出し、サーバ102が、深層学習トレーニングによって取得されたニューラルネットワークモデルを介してモリブデンターゲット画像に複数の候補領域におけるターゲット領域を表記し、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用され、サーバ102が、ターゲット領域を表記するモリブデンターゲット画像を端末104に送信し、端末104が、ターゲット領域を表記するモリブデンターゲット画像を出力することであってもよい。
本願実施例では、端末が画像処理方法を実行することを例に挙げて、画像処理方法を具体的に説明する。
図2は、本願実施例に係る例示的な画像処理方法のフローチャートであり、図2示されたように、当該方法は、次のステップを含む。
ステップS202において、端末はモリブデンターゲット画像を取得する。
ステップS204において、端末はモリブデンターゲット画像から複数の候補領域を抽出する。
ステップS206において、端末は、深層学習トレーニングによって取得されたニューラルネットワークモデルを介してモリブデンターゲット画像に複数の候補領域におけるターゲット領域を表記し、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用される。
前記ステップS202ないしステップS206を介して、端末がモリブデンターゲット画像を取得し、端末がモリブデンターゲット画像から複数の候補領域を抽出し、端末が、深層学習トレーニングによって取得されたニューラルネットワークモデルを介してモリブデンターゲット画像に複数の候補領域におけるターゲット領域を表記し、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用され、それにより、手動で関与することなく、モリブデンターゲット画像内の疑わしい悪性しこり領域を自動的に表記する目的を達成し、さらに、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を解決し、それにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度を向上させる技術的効果を実現する。
ステップS202で開示された技術案において、モリブデンターゲット画像は、人体部位組織を撮影して取得した画像であり得、本願はモリブデンターゲット画像のタイプに対して特に限定せず、例えば、モリブデンターゲット画像は乳房マンモグラフィ画像であってもよく、即ち、乳房組織を撮影して取得した画像であってもよい。
端末はモリブデンターゲット画像を取得し、代替例において、端末はモリブデンターゲット撮像装置であってもよく、ここで、本願はモリブデンターゲット撮像装置のタイプまたはモデルに対して特に限定しない。本願実施例では、モリブデンターゲット撮像装置を使用して撮影して、端末がモリブデンターゲット画像を直接に取得することを実現することができる。
別の例示的な例において、端末は、携帯電話、タブレットコンピュータなどと同様の機器であり得、端末は、モリブデンターゲット撮像装置と通信接続することができ、ここで、通信接続は有線接続であってもよく、無線接続であってもよい。本願実施例では、モリブデンターゲット撮像装置を使用して撮影してモリブデンターゲット画像を取得し、その後、通信接続を使用してモリブデンターゲット画像を端末に送信して、端末がモリブデンターゲット画像を取得することを実現することができる。
本願では、さらに、他の方式を採用して端末がモリブデンターゲット画像を取得することを実現することができ、ここでは、再び例を挙げて説明しないことに留意されたい。
ステップS204で開示された技術案において、端末が取得したモリブデンターゲット画像にしこり領域が存在しなくてもよく、しこり領域が存在してもよい。モリブデンターゲット画像にしこり領域が存在する場合、しこり領域の数は、1つであってもよく、複数であってもよい。ここで、モリブデンターゲット画像内のしこり領域に含まれるしこりは疑わしい悪性しこりであってもよく、疑わしい悪性しこりではなくてもよく、本願により、モリブデンターゲット画像内の、疑わしい悪性しこりが含まれたしこり領域を表記して、疑わしい悪性しこりの検査及び位置決めの目的を達成することができる。
例示的に、端末がモリブデンターゲット画像を取得した後、端末は、モリブデンターゲット画像に対して前処理して、ノイズを低減し及びターゲット画像を位置決めする目的を実現することができ、ここで、ターゲット画像は、モリブデンターゲット画像内の、人体部位を含む画像であり得、例えば、乳房マンモグラフィ画像内のターゲット画像は乳房を含む画像である。モリブデンターゲット画像に対して前処理するプロセスは、具体的に、端末がモリブデンターゲット画像におけるノイズを除去して、ノイズ除去されたモリブデンターゲット画像を取得するステップと、端末がノイズ除去されたモリブデンターゲット画像からターゲット画像を抽出するステップであって、ターゲット画像は人体部位を含む画像であるステップとを含み得る。
本願は、モリブデンターゲット画像におけるノイズを除去するために使用される技術的手段及びノイズ除去されたモリブデンターゲット画像からターゲット画像を抽出するために使用される技術的手段に対して特に限定しない。例えば、代替例において、正規化方法を使用して、線形ストレッチでモリブデンターゲット画像の画素値のグレースケール範囲を0〜255に広がって、モリブデンターゲット画像に対する後続の処理のロバスト性を向上させることができる。形態学的オープン操作及び二値化を使用して、モリブデンターゲット画像からターゲット画像を抽出することができ、例えば、乳房マンモグラフィ画像から乳房領域を抽出することができ、モリブデンターゲット画像におけるラベルなどの背景を削除することもできる。形態学的オープン操作は、モリブデンターゲット画像における細かい組織及びノイズを除去することができ、モリブデンターゲット画像の分割プロセスは大津セグメンテーション法(OTSU法)を使用して2つのカテゴリに割ることができ、乳房組織領域など、人体部位を含む画像領域を効率的に抽出することを実現する。モリブデンターゲット画像をヒストグラムに変換し、当該ヒストグラムに対してヒストグラム均等化して、モリブデンターゲット画像のヒストグラムに対する後続の処理のロバスト性を向上させることもできる。バイラテラルフィルタを使用して人体部位組織(乳房組織など)に存在する可能性のあるノイズを除去し、領域の均質性をある程度向上させることもでき、ここで、バイラテラルフィルタはセグメンテーションエッジを破壊しない。
端末がモリブデンターゲット画像に対して前処理することによりモリブデンターゲット画像におけるノイズを除去することができ、モリブデンターゲット画像に対する解析処理の精度を向上させることを実現し、さらに、疑わしい悪性しこりのスクリーニング精度を向上させる効果を得ることを実現することに留意されたい。上記した例示的な技術的手段に加えて、本願は、モリブデンターゲット画像に対して他のノイズ除去処理を実行して、モリブデンターゲット画像におけるノイズを除去し、及びノイズ除去されたモリブデンターゲット画像からターゲット画像を抽出することができ、ここでは、再び例を挙げて説明しないことにさらに留意されたい。
端末は、モリブデンターゲット画像を取得した後に、複数の候補領域から疑わしい悪性しこりが含まれたターゲット領域を決定するように、画像分割技術を使用してモリブデンターゲット画像から複数の候補領域を抽出することができる。
例示的に、モリブデンターゲット画像に対して前処理してターゲット画像を取得した後に、端末は、当該ターゲット画像を分割して、複数の候補領域をターゲット画像から抽出する目的を実現することができる。
例示的に、端末が、モリブデンターゲット画像から複数の候補領域を抽出するステップは、画像分割閾値を決定するステップと、画像分割閾値に従ってモリブデンターゲット画像を分割して、複数の候補領域を取得するステップとを含み得る。
代替例において、二次元ウェーブレット変換(例えば、レベル数は3である)を使用してモリブデンターゲット画像の次元を減らすことができ、低細部の画像において、正規化した後にモリブデンターゲット画像のヒストグラムを統計し、当該ヒストグラムに従って画像の分割を実行する。例示的に、ヒストグラムに対する分割は遺伝的アルゴリズムを使用することができる。画像分割閾値は遺伝的アルゴリズムを介して決定されることができ、具体的な決定プロセスは、次の通りである。遺伝子はバイナリコードの形を使用し、当該コードの長さはグレースケールレベル(0〜255)の数と等しく、即ち、バイナリコードの長さは256ビットである。特定のビットの値が0である場合、当該グレースケールレベルが画像分割閾値であることを表す。遺伝アルゴリズムの値関数は、クラス間の最大分散とクラス内の最小分散に基づき、一般的な遺伝的アルゴリズムプロセスを使用して、母数を初期化した後、収束するまで、反復選択、交差、突然変異の3つのプロセスを繰り返し(例えば、初期母数は30であり、反復回数は40であり、選択率は10%であり、交差率は80%であり、突然変異率は10%であるなど)、遺伝的アルゴリズムは、最適なバイナリコードを決定することができ、当該バイナリコードに従って画像分割閾値を決定することができる。例えば、当該バイナリコードの5番目と7番目の値が0であると、画像分割閾値はそれぞれ32と128であり、当該画像分割閾値に従ってモリブデンターゲット画像の像素値のグレースケールを3つのグレースケールレベルに分割することができ、それぞれは、グレースケール値が32より低いグレースケールレベル、グレースケール値が32と128の間であるグレースケールレベル、グレースケール値が128より高いグレースケールレベルである。決定された画像分割閾値に従って、モリブデンターゲット画像に対して分割操作を実行して、複数の候補領域を取得することができる。
例示的に、端末が画像分割閾値に従ってモリブデンターゲット画像を分割して、複数の候補領域を取得するステップは、端末が、グレースケールレベルに従って、モリブデンターゲット画像が画像分割閾値に従って分割することにより取得された複数の画像領域をソートするステップであって、グレースケールレベルは画像分割閾値と関連するステップと、端末が複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域を候補領域として決定するステップとを含み得る。ここで、第4閾値は実際のニーズに従って設定または調整されることができ、ここでは、特に限定しない。
例示的に、複数の画像領域においてグレースケールレベルが第4閾値より高い画像領域の数が第5閾値より多い場合、端末が、画像分割閾値に従ってモリブデンターゲット画像を分割して、複数の候補領域を取得するステップは、端末が、画像領域の面積に従って複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域をソートするステップと、端末が、複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域のうち、面積が第6閾値より大きい画像領域を候補領域として決定するステップであって、前記複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域のうち、面積が第6閾値より大きい画像領域の数は第5閾値と等しいステップとを含み得る。ここで、第5閾値及び第6閾値は実際のニーズに従って設定または調整されることができ、ここでは、特に限定しない。
例えば、遺伝的アルゴリズムを使用して決定された画像分割閾値はそれぞれ32および128であり、当該画像分割閾値に従ってモリブデンターゲット画像の像素値のグレースケールを3つのグレースケールレベルに分割することができ、前記グレースケールレベルはそれぞれ、降順で、グレースケール値が128より高いグレースケールレベル、グレースケール値が32と128の間であるグレースケールレベル、グレースケール値が32より低いグレースケールレベルである。ここで、決定された画像分割閾値に従ってモリブデンターゲット画像に対して分割操作を実行して、グレースケール値が128より高い画像領域を5個、グレースケール値が32と128の間である画像領域を10個、グレースケール値が32より低い画像領域を50個取得することができる。モリブデンターゲット画像により画像分割閾値に応じた分割により取得された複数の画像領域をグレースケールレベルの降順で配列した後、順次に、グレースケール値が128より高い5個の画像領域、グレースケール値が32と128の間である10個の画像領域、グレースケール値が32より低い50個の画像領域である。第4閾値が2であると仮定すると、グレースケール値が128より高い5つの画像領域及びグレースケール値が128より高い5個の画像領域、合計で15個の画像領域を候補領域として決定することができる。
実際の適用シナリオにおいて、疑わしい悪性しこりの位置決め及びスクリーニングの精度を向上させるには、候補領域の数を事前に設定する必要がある。代替例において、事前に決定された候補領域の数が10であり、即ち、第5閾値が10であると仮定すると、グレースケールレベルが第4閾値2より高い画像領域の数(グレースケール値が128より高い5個の画像領域及びグレースケール値が128より高い5個の画像領域であり、合計で15個の画像領域)は10より大きいため、15個の画像領域から10個を取得する必要がある。画像領域の面積の降順に従って当該15個の画像領域をソートする必要があり、その後、上位10の位置に相当する順位である画像領域を候補領域として使用する。
上記した画像分割技術によりモリブデンターゲット画像を分割した後、複数の候補領域を正確に取得することができるため、疑わしい悪性しこりの位置決め及びスクリーニングの精度を向上させる效果を実現することができることに留意されたい。
例示的に、画像分割閾値に従ってモリブデンターゲット画像を分割して、複数の候補領域を取得するステップは、端末が、モリブデンターゲット画像により画像分割閾値に従って分割して取得された複数の画像領域のそれぞれにおける、人体組織の接続を指示するために使用される接続線を切断して、複数の候補領域を取得するステップをさらに含み得る。
各画像領域内の、人体組織の接続を指示するために使用される接続線を切断するために使用される技術的手段は、形態学的オープン操作を含み得るが、これに限定されないことに留意されたい。モリブデンターゲット画像は人体部位組織を撮影して取得した画像であるため、モリブデンターゲット画像は人体組織の接続を指示するために使用される接続線を含み得、これらの接続線はモリブデンターゲット画像に対して画像分割する精度に影響を与えるため、端末はモリブデンターゲット画像が画像分割閾値に応じた分割により取得した複数の画像領域のそれぞれにおける、人体組織の接続を指示するために使用される接続線を切断して、取得した複数の候補領域の精度を向上させることを実現することができるため、疑わしい悪性しこりの位置決め及びスクリーニングの精度を向上させる効果を得ることにさらに留意されたい。
ステップS206で開示された技術案において、端末は、モリブデンターゲット画像から複数の候補領域を抽出した後、複数の候補領域からターゲット領域を決定し、モリブデンターゲット画像においてターゲット領域を表記することができ、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ここで、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、即ち、本願の実施例におけるターゲットしこりが、実際には、疑わしい悪性しこりであることに留意されたい。ここで、第1閾値及び第2閾値は実際のニーズに従って設定または調整されることができ、ここでは、特に限定しない。モリブデンターゲット画像においてターゲット領域を表記するために使用される表記フォーマットに対して、本願は特に限定せず、例えば、ターゲット領域にフレームを付けることができることにさらに留意されたい。
例示的に、端末は、深層学習トレーニングによって取得されたニューラルネットワークモデルを介してモリブデンターゲット画像に複数の候補領域におけるターゲット領域を表記するステップは、ニューラルネットワークモデルを使用して複数の候補領域における各候補領域に含まれるしこりがターゲットしこりである確率を取得するステップであって、当該ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用されるステップと、確率が第1閾値より大きい候補領域をターゲット領域として使用し、ターゲット領域をモリブデンターゲット画像に表記することを含み得る。
深層学習トレーニングによって取得されたニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用されることができ、即ち、端末は候補領域をニューラルネットワークモデルに入力して、当該候補領域に含まれるしこりがターゲットしこりである確率を取得することに留意されたい。本願の実施例では、深層学習トレーニングによって取得されたニューラルネットワークモデルを使用して、候補領域に含まれるしこりがターゲットしこりである確率を取得し、手動で関与することなく、ターゲットしこりが含まれたターゲット領域をモリブデンターゲット画像からすばやく正確にスクリーニングして位置決めすることができるため、疑わしい悪性しこりのスクリーニング及び位置決めの效率が大幅に向上する。
例示的に、端末がモリブデンターゲット画像を取得する前に、モリブデンターゲット画像からターゲットしこりが含まれたターゲット領域をさらに正確にスクリーニングして位置決めするように、端末は、まず、深層学習トレーニングを実行してトレーニング後のニューラルネットワークモデルを取得することができるため、トレーニング後のニューラルネットワークモデルを使用して各候補領域に含まれるしこりがターゲットしこりである確率をすばやく正確に取得することができる。具体的に、トレーニングプロセスは、端末がサンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行し、トレーニング後のニューラルネットワークモデルを取得し、ここで、深層学習トレーニングを実行するとき、入力パラメータはサンプルしこり領域を含むことをトレーニングすることができ、出力パラメータはサンプルしこり領域に含まれるしこりがターゲットしこりである確率を含むことをトレーニングすることができる。
端末がサンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行した後、トレーニング後のニューラルネットワークモデルを取得することができることに留意されたい。深層学習トレーニングを実行するとき、サンプルしこり領域の数が大きいほど、ニューラルネットワークモデルの精度は高くなるため、トレーニング後のニューラルネットワークモデルを使用して決定したターゲット領域の精度も高くなる。
例示的に、サンプルしこり領域は第1しこり領域及び第2しこり領域を含み得、ここで、第1しこり領域に含まれるしこりはターゲットしこりであり、第2しこり領域に含まれるしこりは非ターゲットしこりであり、または第2しこり領域はしこりを含まず、ここで、端末がサンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップは、端末が第1しこり領域と、第1しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係及び第2しこり領域と、第2しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行し、トレーニング後のニューラルネットワークモデルを取得するステップを含み得る。
代替例において、中国の病院データを使用し、専門家を雇ってデータ(数は2200を超える)を表記し、疑わしい悪性しこりを陽性サンプルとして使用し、残りの明らかな良性しこりと背景領域を陰性サンプルとして使用して、データを強化した後(モリブデンターゲット画像であるため、色空間のデータを強化する必要なく、主に、反転及びクロッピングされるデータを強化し、さらに、入力される疑わしい悪性しこりサンプルは、必ずしこり領域全体を含み、少量の背景領域に囲まれる)、本願のトレーニングデータとして、InceptionV3モデルに入力してトレーニングし、モデルの出力タイプを2に再設定することができる。ここで、モデルの重みの初期化は、まずImageNetデータセットを使用し、次に、パブリックデータセットDDSMを使用し、最後に、本願におけるトレーニングデータを使用して、転移学習を行い、最終のモデルの重みを取得する。例えば、降下法はRMSpropを使用し、バッチ処理の大きさは64であり、初期学習率は0.01であり、最大反復回数は100000である。モデルをトレーニングした後、任意に入力した候補領域に対して、トレーニング終了後のニューラルネットワークモデルの計算を介して、当該モデルが疑わしい悪性しこりである確率を取得することができ、通常、確率が0.5より大きいと、疑わしい悪性しこりと見なされる。
端末がサンプルしこり領域を使用して深層学習トレーニングする場合、サンプルしこり領域は、ターゲットしこりが含まれた第1しこり領域、非ターゲットしこりが含まれた第2しこり領域、しこりが含まれない画像領域を含み得、且つ、各タイプのサンプルの数は同等であり、それにより深層学習トレーニングにより取得されたニューラルネットワークモデルの精度を向上させる目的を達成することに留意されたい。
上述の深層学習トレーニングプロセスにより取得されたニューラルネットワークモデルは、各候補領域に含まれるしこりがターゲットしこりである確率を正確に決定することができる。第1閾値が0.5である仮定すると、深層学習トレーニングにより取得されたニューラルネットワークモデルを使用して、含まれたしこりがターゲットしこりである確率が0.5より大きい候補領域を決定し、即ち、ターゲット領域として決定することができ、当該ターゲット領域をモリブデンターゲット画像に表記する。ここで、上述の方法を使用して決定されたターゲット領域の数は1つであってもよく、複数であってもよく、またはモリブデンターゲット画像内にターゲット領域がなくてもよいことに留意されたい。本願の実施例は、深層学習トレーニングにより取得されたニューラルネットワークモデルを使用して、複数の候補領域からターゲットしこりが含まれたターゲット領域を決定することにより、手動で関与することなく、モリブデンターゲット画像内の疑わしい悪性しこりをすばやく正確にスクリーニング及び位置決めする目的を達成することができ、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を解決し、それにより、疑わしい悪性しこりのスクリーニング效率及び精度を向上させる技術的効果を実現する。
例示的に、ターゲットしこりが含まれたターゲット領域として決定し、端末が非最大抑制方法を使用して重複領域を削除することができ、即ち、確率が第1閾値より大きい複数の候補領域が存在する場合、確率が第1閾値より大きい候補領域をターゲット領域として決定するステップは、端末が確率の大きさに従って、複数の確率が第1閾値より大きい候補領域をソートするステップと、第1候補領域と第2候補領域との間の重複面積をそれぞれ計算するステップであって、第1候補領域は、複数の確率が第1閾値より大きい候補領域の中で最も大きい確率を有する候補領域であり、第2候補領域は、確率が第1閾値より大きい複数の候補領域のうちの、第1候補領域以外の候補領域であるステップと、確率が第1閾値より大きい複数の候補領域から、第1候補領域との重複面積が第3閾値より大きい第2候補領域を削除して、残りの候補領域を取得するステップと、残りの候補領域をターゲット領域として決定するステップとを含む。ここで、第3閾値は実際のニーズに従って設定または調整されることができ、ここでは、特に限定しない。
例えば、モリブデンターゲット画像から10個の候補領域を抽出し、深層学習トレーニングにより取得したニューラルネットワークモデルを使用して、10個の候補領域に含まれるしこりがターゲットしこりである、順次に、0.9、0.2、0.4、0.6、0.7、0.3、0.0、0.2、0.8、0.1である確率をそれぞれ取得し、第1閾値は0.5であり、10個の候補領域で確率が0.5より大きい候補領域はそれぞれ0.9、0.6、0.7及び0.8の確率に対応する候補領域である。ここで、当該4個の候補領域において、確率が0.6である候補領域と確率が0.9である候補領域との間の重複面積は2であり、確率が0.7である候補領域と確率が0.9である候補領域との間の重複面積は5であり、確率が0.8である候補領域と確率が0.9である候補領域との間の重複面積は10であり、第3閾値が6であると仮定すると、確率が0.8である候補領域を当該4個の候補領域から削除し、残りの候補領域をターゲット領域として決定することができる。
本願の実施例は、非最大抑制方法を使用して重複領域をターゲット領域から削除することにより、誤診率の低下を実現することができるため、疑わしい悪性しこりの位置決めの精度を向上させる效果を得ることに留意されたい。
例示的に、端末は複数の候補領域からターゲット領域を決定し、モリブデンターゲット画像にターゲット領域を表記した後、医者がターゲットしこりの具体的な位置及びターゲットしこりの大きさを明確且つ直感的に決定するように、当該ターゲット領域が表記されたモリブデンターゲット画像を出力することができる。
本願の実施例の画像処理方法は、乳癌の早期スクリーニングなどの医療診断の分野に適用することができる。本願の実施例の画像処理方法を使用して、乳癌のスクリーニングを手動で関与することなく、深層学習トレーニングにより取得したニューラルネットワークモデルを使用するだけで、疑わしい悪性しこりをすばやく正確に位置決めすることができることに留意されたい。
まず、本願の実施例では、トレーニング後のニューラルネットワークモデルを使用して疑わしい悪性しこりの正確な位置決めを実行するように、多くのトレーニングサンプルに深層学習トレーニングを実行してトレーニング後のニューラルネットワークモデルを取得することができる。ここで、深層学習トレーニングするサンプルは、陽性サンプルとして使用する疑わしい悪性しこり、陰性サンプルとして使用する残りの明らかな良性しこり及び背景領域などを含み得る。
その後、端末は、トレーニング後のニューラルネットワークモデルに対して疑わしい悪性しこりの位置決めを実行し、具体的なプロセスは、次のように説明することができる。端末は、乳房組織を撮影した後に乳房マンモグラフィ画像を取得し、次に、乳房マンモグラフィ画像に対して画像前処理を実行して、画像におけるノイズ及び不要なラベル背景を削除し、処理対象を乳房領域に集中し、その後、画像分割技術を介して候補のしこり領域を抽出した後、端末は、上述の深層学習トレーニングにより取得されたニューラルネットワークモデルを使用して候補のしこり領域に含まれるしこりが疑わしい悪性しこりであるかどうかを判断し、端末が乳房マンモグラフィ画像内に疑わしい悪性しこりが含まれた領域があると判断すると、乳房マンモグラフィ画像に当該領域を表記して、疑わしい悪性しこりをすばやく正確に位置決めする。
実際の適用シナリオにおいて、深層学習トレーニングにより取得したニューラルネットワークモデルはクラウドプラットフォームに配置されることができ、疑わしい悪性しこりを判断する必要がある場合、端末を使用してモリブデンターゲット画像を取得することができ、その後、モリブデンターゲット画像をクラウドプラットフォームにアップロードし、クラウドプラットフォームは、トレーニング後のニューラルネットワークモデルを使用して当該モリブデンターゲット画像内の疑わしい悪性しこりをスクリーニング及び位置決めすることができ、クラウドプラットフォームがモリブデンターゲット画像に疑わしい悪性しこりが存在すると判断すると、当該モリブデンターゲット画像で疑わしい悪性しこり領域を表記し、その後、疑わしい悪性しこりマークが付けられたモリブデンターゲット画像を端末に出力する。
本願実施例の画像処理方法を使用して、疑わしい悪性しこりのすばやいスクリーニング及び正確な位置決めを実現することができ、手動で関与することなく、疑わしい悪性しこりのスクリーニング效率及び位置決め精度を大幅に向上させる。
以下、本願が適用する乳癌検出に使用される乳房マンモグラフィ画像の疑わしい悪性しこりの位置決め技術の具体的な技術を詳細に説明する。
乳房マンモグラフィ画像の疑わしい悪性しこりの位置決め技術は、最新のコンピュータビジョン技術及び人工知能技術に基づき、教師なし分割及び教師付き分類法を融合して改善し、疑わしい悪性しこりの再現率を向上させる同時に誤診率を低下する。当該技術は、乳癌検出に関するアプリケーションをより適切にサービスすることができる。
当該技術はソフトウェアインターフェースの形でサービスを提供することができ、図3に示されたように、入力はモリブデンターゲット画像であり、ここで、当該モリブデンターゲット画像は3つのしこり領域(ここでは、例示的なものに過ぎず、モリブデンターゲット画像内のしこり領域の数に対して特に限定しない)を含み、当該技術処理により計算した後、疑わしい悪性しこりマークが付けられたモリブデンターゲット画像を出力することができ、ここで、図3に示されたように、点線で囲まれた領域など、当該モリブデンターゲット画像内の3つのしこり領域における1つの領域を疑わしい悪性しこり領域として決定する。
当該技術は、特定のハードウェア環境に依存しないことに留意されたい。
当該技術は、主に、遺伝的アルゴリズムに依存してモリブデンターゲット画像を分割し、分割して取得された候補領域は、主に、深層学習トレーニングにより取得したニューラルネットワークモデルスクリーニング疑わしい悪性しこりに依存し、ここで、深層学習には、大量の疑わしい悪性しこり及び疑わしくない悪性しこりサンプルをトレーニングする必要がある。
入力されたモリブデンターゲット画像に対する当該技術の処理プロセスは図4に示されたように、主に、前処理、分割及び分類である3つのプロセスに分ける。前処理プロセスの主な目的は、モリブデンターゲット画像におけるノイズ及び不要なラベル背景を削除して、処理対象を乳房領域に集中することであり、分割プロセスの主な目的は、候補領域を抽出することであり、分類プロセスでは、候補領域を解析し、疑わしい悪性しこりであるかどうかを判断することができる。以下、上述の3つのプロセスをそれぞれ詳細に説明する。
(1)前処理プロセスは、次の処理操作を含み得る。
正規化:線形ストレッチでモリブデンターゲット画像のグレースケール範囲を0〜255に広がって、後続処理のロバスト性を向上させる。
乳房領域分割:形態学的オープン操作及び二値化を使用して乳房領域を抽出し、ラベルなどの背景を削除し、形態学的オープン操作は、細かい組織及びノイズを除去することができ、分割プロセスは、大津セグメンテーション方法(OTSU法)を使用して2つのカテゴリに分類することができ、乳房領域を効率的に抽出することができる。
ヒストグラム均等化:後続の分割アルゴリズムは、モリブデンターゲット画像のヒストグラムに基づいて実行するため、ヒストグラム均等化を介して後続処理のロバスト性を向上させる必要がある。
バイラテラルフィルタ:バイラテラルフィルタを使用して乳房組織に存在する可能性のあるノイズを除去し、領域の均質性をある程度向上させ、さらに、バイラテラルフィルタはセグメンテーションエッジを破壊しない。
(2)分割プロセスは、次の処理操作を含み得る。
遺伝子の遺伝的分割:二次元ウェーブレット変換(レベル数は3である)を使用してモリブデンターゲット画像の次元を減らし、低細部の画像において、正規化した後に当該画像のヒストグラムを統計し、当該ヒストグラムに従って画像の分割を実行する。ヒストグラムの分割について、遺伝的アルゴリズムを採用して、遺伝子はバイナリコードの形を使用し、当該コードの長さはグレースケールレベルの数と等しく、ビット値が0である場合、当該グレースケールレベルが分割閾値であることを表す。遺伝アルゴリズムの値関数は、クラス間の最大分散とクラス内の最小分散に基づき、一般的な遺伝的アルゴリズムプロセスを使用して、母数を初期化した後、収束するまで、反復選択、交差、突然変異の3つのプロセスを繰り返し(例えば、初期母数は30であり、反復回数は40であり、選択率は10%であり、交差率は80%であり、突然変異率は10%である)、最後に、分割閾値を出力し、当該分割閾値に従って元のモリブデンターゲット画像に対して分割操作を実行する。
形態学的オープン操作:分割された画像に対して、胸腺接続を切断するなどの形態学的オープン操作を使用して、後続の領域抽出を容易にする。
領域ブロックの抽出:分割結果については、まず、グレースケールレベルが高い(例えば、グレースケールレベルが上位5に相当する)領域を候補領域として抽出する。グレースケールレベルの順序に従って決定された領域の数が事前に設定された数を満たさない場合、各領域の面積に従って面積の大きい領域を候補領域として選択して続けることができる。
(3)分類プロセスは、次の処理操作を含み得る。
ニューラルネットワークモデルトレーニング及び分類:中国の病院データを使用し、専門家を雇ってデータを表記し、疑わしい悪性しこりを陽性サンプルとして使用し、残りの明らかな良性しこりと背景領域を陰性サンプルとして使用して、データを強化した後(モリブデンターゲット写真であるため、色空間のデータを強化する必要なく、主に、反転及びクロッピングされるデータを強化し、さらに、入力される疑わしい悪性しこりサンプルは、必ずしこり領域全体を含み、少量の背景領域に囲まれる)、本願のトレーニングデータとして、InceptionV3モデルに入力してトレーニングし、モデルの出力タイプを2に再設定する。ここで、モデルの重みの初期化は、まずImageNetデータセットを使用し、次に、パブリックデータセットDDSMを使用し、最後に、本願におけるトレーニングデータを使用して、転移学習を行い、最終のモデルの重み(降下法はRMSpropを使用し、バッチ処理の大きさは64であり、初期学習率は0.01であり、最大反復回数は100000である)を取得する。モデルをトレーニングした後、任意に入力した候補領域に対して、ネットワークの計算を介して、当該モデルが疑わしい悪性しこりである確率を取得することができ、通常、確率が0.5より大きいと、疑わしい悪性しこりと見なされる。
非最大抑制:疑わしい悪性しこりであると判断された領域に対して、非最大抑制方法を使用して重複領域を削除し、ここで、重複度閾値を50%に設定し(ここでは例示的なものに過ぎず、特に限定しない)、主な目的は、誤診率を低下する同時に、疑わしい悪性しこりの位置決めの精度を向上させることができることである。
当該技術における分割方法は、完全畳み込みニューラルネットワークモデルに置き換えることもでき、分類で使用されるGoogleNetは、ResNetなどの他のネットワークモデル置き換えることもできることに留意されたい。
本願は分割方法を使用することに基づき、分割して取得された領域に対して、簡単な形態学的フィルタリング処理を実行した後は、深層学習トレーニングにより取得された分類器に依存して疑わしい悪性しこり分類を実行し、それにより結果の精度を向上させることだけでなく、プロセス全体の自動化を実現することができる。
本願では、しこり検出領域で始めて、従来のビジョン方法及び深層学習に基づく融合方法を使用し、アルゴリズムプロセスは高い新規性を持つことに留意されたい。深層学習方式を使用すると手動でスクリーニングすることを回避し、従来の方法では不規則で複雑な特徴を設計するのが困難であるという問題を克服し、分割後の処理の感度を下げることができる。本願は強い適切性を持ち、ハードウェア環境に依存せずに、様々な乳房タイプのモリブデンターゲットの写真を処理することができる。
本願実施例のさらに別の態様によれば、ニューラルネットワークモデルのトレーニング方法をさらに開示する。
本願実施例のニューラルネットワークモデルのトレーニング方法を使用して、深層学習トレーニングを実行して、トレーニング後のニューラルネットワークモデルを取得することができ、当該トレーニング後のニューラルネットワークモデルは本願の上述の実施例の画像処理方法に適用することができ、当該トレーニング後のニューラルネットワークモデルを使用して各候補領域に含まれるしこりがターゲットしこり(即ち、疑わしい悪性しこり)である確率をすばやく正確に決定するため、モリブデンターゲット画像内の疑わしい悪性しこり領域をすばやく正確に位置決めする目的を実現することに留意されたい。
図5は、本願実施例に係る例示的なニューラルネットワークモデルのトレーニング方法のフローチャートであり、図5に示されたように、当該ニューラルネットワークモデルのトレーニング方法は、次のステップを含む。
ステップS502において、端末はサンプルしこり領域を取得し、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定し、ここで、ターゲットしこりが悪性しこりである確率はターゲット閾値より大きい。
ステップS504において、端末は、サンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得し、ここで、深層学習トレーニングを実行するとき、入力パラメータはサンプルしこり領域を含むことをトレーニングし、出力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を含むことをトレーニングする。
上述のステップS502ないしステップS504により、深層学習トレーニングによりニューラルネットワークモデルを取得することを実現することができ、当該トレーニング後のニューラルネットワークモデルは、任意のしこり領域と、当該しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用されることができ、ここで、ターゲットしこりが悪性しこりである確率はターゲット閾値より大きく、ターゲット閾値は、実際のニーズに従って設定または調整されることができ、ここでは特に限定せず、即ち、ターゲットしこりは、実際には、疑わしい悪性しこりであり、トレーニング後のニューラルネットワークモジュールは、任意のしこり領域と、当該しこり領域に含まれるしこりが疑わしい悪性しこりである確率との間のマッピング関係を指示するために使用されることができる。
例示的に、サンプルしこり領域は第1しこり領域及び第2しこり領域を含み得、ここで、第1しこり領域に含まれるしこりはターゲットしこりであり、第2しこり領域に含まれるしこりは非ターゲットしこりであり、または第2しこり領域はしこりを含まない。トレーニングサンプルが様々なタイプのしこり領域を含むことにより、ニューラルネットワークモデルのトレーニング精度を向上させる効果を達成することができる。さらに、深層学習トレーニングを実行するとき、サンプルしこり領域の数が大きいほど、ニューラルネットワークモデルの精度は高くなる。
例示的に、端末がサンプルしこり領域を取得した後、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップは、端末がデータベースからサンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、データベースは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を事前に記憶することができることを含み得る。例えば、当該データベースは、大量の医療データが記憶された病院データベースなどであってもよい。
例示的に、端末がサンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップは、端末が、入力パラメータに従ってサンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、入力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を指示するために使用されるステップをさらに含み得る。例えば、当該入力パラメータは、医療専門家が医療データ及び経験に従って決定した、サンプルしこり領域に含まれるしこりがターゲットしこりである確率であってもよい。
本願の実施例は、他の方式を介して、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定することもでき、ここでは、再び例を挙げて説明しないことに留意されたい。
端末がサンプルしこり領域を取得し、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定した後に、本願の実施例は、サンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して、トレーニングされないニューラルネットワークを深層学習トレーニングを実行して、トレーニングするときに、入力パラメータにサンプルしこり領域を含み得ることをトレーニングすることができ、出力パラメータにサンプルしこり領域に含まれるしこりがターゲットしこりである確率を含み得ることをトレーニングすることができる。
例示的に、サンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップは、端末が第1しこり領域と、第1しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係及び第2しこり領域と、第2しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行し、トレーニング後のニューラルネットワークモデルを取得するステップを含み得る。
代替例において、中国の病院データを使用し、専門家を雇ってデータ(数は2200を超える)を表記し、疑わしい悪性しこりを陽性サンプルとして使用し、残りの明らかな良性しこりと背景領域を陰性サンプルとして使用して、データを強化した後(モリブデンターゲット画像であるため、色空間のデータを強化する必要なく、主に、反転及びクロッピングされるデータを強化し、さらに、入力される疑わしい悪性しこりサンプルは、必ず、しこり領域全体を含み、少量の背景領域に囲まれる)、本願のトレーニングデータとして、InceptionV3モデルに入力してトレーニングし、モデルの出力タイプを2に再設定することができる。ここで、モデルの重みの初期化は、まずImageNetデータセットを使用し、次に、パブリックデータセットDDSMを使用し、最後に、本願におけるトレーニングデータを使用して、転移学習を行い、最終のモデルの重みを取得する。例えば、降下法はRMSpropを使用し、バッチ処理の大きさは64であり、初期学習率は0.01であり、最大反復回数は100000である。モデルをトレーニングした後、任意に入力した候補領域に対して、トレーニング後のニューラルネットワークモデルの計算を介して、候補領域に含まれるしこりがターゲットしこりである確率を取得することができ、通常、確率が0.5より大きいと、疑わしい悪性しこりと見なされる。
サンプルしこり領域を使用して深層学習トレーニングする場合、サンプルしこり領域は、ターゲットしこりが含まれた第1しこり領域、非ターゲットしこりが含まれた第2しこり領域、しこりが含まれない画像領域を含み得、且つ、各タイプのサンプルの数は同等であり、それにより深層学習トレーニングにより取得されたニューラルネットワークモデルの精度を向上させる目的を達成することに留意されたい。
本願実施例のさらに別の態様によれば、端末に実装されたニューラルネットワークモデルのトレーニング機器をさらに開示する。当該トレーニング機器は、本願の上述の実施例におけるニューラルネットワークモデルのトレーニング方法を実行するために使用されることができることに留意されたい。当該トレーニング機器は、本願の上述の実施例におけるニューラルネットワークモデルのトレーニング方法を実行することにより、トレーニング後のニューラルネットワークモデルを取得することができ、当該トレーニング後のニューラルネットワークモデルは本願の上述の実施例の画像処理方法に適用することができ、当該トレーニング後のニューラルネットワークモデルを使用して各候補領域に含まれるしこりがターゲットしこり(即ち、疑わしい悪性しこり)である確率をすばやく正確に決定するため、モリブデンターゲット画像内の疑わしい悪性しこり領域をすばやく正確に位置決めする目的を実現する。
当該トレーニング機器が本願の上述の実施例におけるトレーニング方法を実行することにより、深層学習トレーニングを実行して、ニューラルネットワークモデルを取得し、トレーニング後のニューラルネットワークモデルを使用して、各候補領域に含まれるしこりがターゲットしこりである確率を正確に決定することができる。確率閾値が0.5である仮定すると、深層学習トレーニングにより取得したニューラルネットワークモデルを使用して、含まれたしこりがターゲットしこりである確率が0.5より大きい候補領域を決定し、即ち、ターゲット領域として決定することができ、当該ターゲット領域をモリブデンターゲット画像に表記する。
本願実施例は、深層学習トレーニングにより取得したニューラルネットワークモデルを使用して、複数の候補領域からターゲットしこりが含まれたターゲット領域を決定することにより、手動で関与することなく、疑わしい悪性しこりをすばやく正確にスクリーニング及び位置決めする目的を達成することができ、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を解決し、それにより、疑わしい悪性しこりのスクリーニング效率及び精度を向上させる技術的効果を実現する。
留意されたいのは、上述した各方法の実施例について、説明を簡単にするために、全て一連の動作の組み合わせに表現したが、本願によれば、特定のステップは他の順番で、または同時に実行できるため、当業者は、本願が記述された動作の順番に限定されないことを知っているはずである。次に、当業者は、明細書で説明された実施例のすべては例示的な実施例に属し、関する動作及びモジュールは本願によって必ずしも必要とされないことも知っているはずである。
以上の実施形態による説明を通じて、当業者は、上記の実施例に係る方法が、ソフトウェアと必要な汎用ハードウェアプラットフォームの形で実現できることはもちろん、ハードウェアによっても実現することもできることを明確に理解できるが、多くの場合、前者がより好ましい実施形態である。このような理解に基づき、本願の技術的解決策の実質的な部分又は関連技術に対する貢献度のある部分は、ソフトウェア製品の形に実装することができる。当該コンピュータソフトウェア製品は、記録媒体(例えば、ROM/RAM、磁気ディスク、光ディスクなど)に記憶され、端末機器(携帯電話、コンピュータ、サーバ、又はネットワーク機器等であり得る)に本願の各実施例に記載の方法を実行させるために、いくつかの命令を含む。
本願実施例のさらに別の態様によれば、上述の画像処理方法を実施例するように構成される画像処理装置をさらに開示する。当該実施例における画像処理装置は、本願実施例の画像処理方法を実行する端末に配置されることができる。
図6は、本願の実施例に係る例示的な画像処理装置の概略図であり、図6に示されたように、当該装置は、
モリブデンターゲット画像を取得するように構成される取得ユニット22と、モリブデンターゲット画像から複数の候補領域を抽出するように構成される第1抽出ユニット24と、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して複数の候補領域におけるターゲット領域をモリブデンターゲット画像に表記するように構成される表記ユニット26であって、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用される表記ユニット26とを含む。
当該実施例における取得ユニット22は、本願実施例におけるステップS202を実行するように構成されることができ、当該実施例における第1抽出ユニット24は、本願実施例におけるステップS204を実行するように構成されることができ、当該実施例における表記ユニット26は、本願実施例におけるテップS206を実行するように構成されることができることに留意されたい。
ここで、上述のモジュールと、対応するステップで実現される例示及び適用シナリオは同じであり、上述の実施例で開示された内容に限定されないことに留意されたい。上述のモジュールは、図1に示されたハードウェア環境で装置の一部として実行することができ、ソフトウェアを介して実現してもよく、ハードウェアを介して実現してもよいことに留意されたい。
例示的に、図7に示されたように、表記ユニット26は、ニューラルネットワークモデルを使用して複数の候補領域における各候補領域に含まれるしこりがターゲットしこりである確率を取得するように構成される取得モジュール262と、確率が第1閾値より大きい候補領域をターゲット領域として決定し、ターゲット領域をモリブデンターゲット画像に表記するように構成される第1決定モジュール264を含み得る。
例示的に、図7に示されたように、当該画像処理装置は、モリブデンターゲット画像を取得する前に、サンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するように構成されるトレーニングユニット21であって、深層学習トレーニングを実行するとき、入力パラメータはサンプルしこり領域を含むことをトレーニングし、出力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を含むことをトレーニングするトレーニングユニット21をさらに含み得る。
例示的に、サンプルしこり領域は第1しこり領域及び第2しこり領域を含み得、ここで、第1しこり領域に含まれるしこりはターゲットしこりであり、第2しこり領域に含まれるしこりは非ターゲットしこりであり、または第2しこり領域はしこりを含まず、ここで、図7に示されたように、トレーニングユニット21は、第1しこり領域と、第1しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係及び第2しこり領域と、第2しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するように構成されるトレーニングモジュール212を含み得る。
例示的に、図8に示されたように、確率が第1閾値より大きい複数の候補領域が存在する場合、第1決定モジュール264は、確率の大きさに従って複数の確率が第1閾値より大きい候補領域をソートするように構成される第1配列モジュール2642と、第1候補領域と第2候補領域との間の重複面積をそれぞれ計算するように構成される計算モジュール2644であって、第1候補領域は、複数の確率が第1閾値より大きい候補領域の中で最も大きい確率を有する候補領域であり、第2候補領域は、確率が第1閾値より大きい複数の候補領域のうちの、第1候補領域以外の候補領域である計算モジュール2644と、確率が第1閾値より大きい複数の候補領域から、第1候補領域との重複面積が第3閾値より大きい第2候補領域を削除して、残りの候補領域を取得するように構成される削除モジュール2646と、残りの候補領域をターゲット領域として決定するように構成される第1決定サブモジュール2648とを含み得る。
例示的に、図9に示されたように、第1抽出ユニット24は、画像分割閾値を決定するように構成される第2決定モジュール242と、画像分割閾値に従ってモリブデンターゲット画像を分割して、複数の候補領域を取得するように構成される分割モジュール244とを含み得る。
例示的に、図9に示されたように、分割モジュール244は、グレースケールレベルに従って、モリブデンターゲット画像が画像分割閾値に従って分割することにより取得された複数の画像領域をソートするように構成される第2配列モジュール2442であって、グレースケールレベルは画像分割閾値と関連する第2配列モジュール2442と、複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域を候補領域として決定するように構成される第2決定サブモジュール2444とを含み得る。
例示的に、図9に示されたように、複数の画像領域においてグレースケールレベルが第4閾値より高い画像領域の数が第5閾値より多い場合、分割モジュールは、画像領域の面積に従って複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域をソートするように構成される第3配列モジュール2446と、複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域内で、面積が第6閾値より大きい画像領域を候補領域として決定するように構成される第3決定サブモジュール2448であって、複数の画像におけるグレースケールレベルが第4閾値より高い画像領域内で、面積が第6閾値より大きい画像領域の数は第5閾値と等しい第3決定サブモジュール2448とを含み得る。
例示的に、図9に示されたように、分割モジュール244は、モリブデンターゲット画像により、画像分割閾値に従って分割して取得された複数の画像領域のそれぞれにおける、人体部位組織の接続を指示するために使用される接続線を切断して、複数の候補領域を取得するように構成される切断モジュール2441を含み得る。
例示的に、図10に示されたように、当該画像処理装置は、モリブデンターゲット画像を取得した後、モリブデンターゲット画像におけるノイズを除去して、ノイズ除去されたモリブデンターゲット画像を取得するように構成される除去ユニット202と、ノイズ除去されたモリブデンターゲット画像からターゲット画像を抽出するように構成される第2抽出ユニット204であって、ターゲット画像は人体部位の画像を含む第2抽出ユニット204とをさらに含み得、第1抽出ユニット24は、ターゲット画像から複数の候補領域を抽出するように構成される抽出モジュール240を含み得る。
例示的に、当該画像処理装置におけるモリブデンターゲット画像は乳房マンモグラフィ画像であってもよい。
ここで、上述のモジュールと、対応するステップとが実現する例示及び適用シナリオは同じであるが、上述の実施例で開示された内容に限定されないことに留意されたい。上述のモジュールは、図1に示されたハードウェア環境で装置の一部として実行することができ、ソフトウェアを介して実現してもよく、ハードウェアを介して実現してもよいことに留意されたい。
上述のモジュールを介して、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を解決することができるため、疑わしい悪性しこりのスクリーニング效率及び位置決め精度を向上させる技術的効果を達成する。
本願実施例のさらに別の態様によれば、上述の画像処理方法及びニューラルネットワークモデルのトレーニング方法を実施するように構成される電子装置をさらに開示する。
図11は、本願実施例に係る電子装置の構造ブロック図であり、図11に示されたように、当該電子装置は、1つまたは複数の(図では1つのみを示す)プロセッサ201、メモリ203を含み得、ここで、メモリ203はコンピュータプログラムを記憶することができ、プロセッサ201は、前記コンピュータプログラムを実行して、本願実施例の画像処理方法及びニューラルネットワークモデルのトレーニング方法を実行するように構成される。
ここで、メモリ203は、本願実施例における画像処理方法及び装置及びニューラルネットワークモデルのトレーニング方法及び機器に対応するプログラム指令/モジュールなどの、コンピュータプログラム及びモジュールを記憶することができる。プロセッサ201は、メモリ203に記憶されたコンピュータプログラム及びモジュールを実行することにより、様々な機能アプリケーション及びデータ処理を実行し、即ち、上述の的画像処理方法及びニューラルネットワークモデルのトレーニング方法を実現する。メモリ203が、高速ランダムアクセスメモリを含んでもよく、一つ以上の磁気記憶装置、フラッシュメモリ、又は他の不揮発性固体メモリ等の不揮発性メモリも含んでもよい。一部の具現例では、メモリ203は、プロセッサ201に対して遠隔に設置されたメモリを含んでもよく、これらの遠隔メモリはネットワークを介して端末に接続することができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせを含むが、これらに限定されない。
例示的に、図11に示されたように、当該電子装置は、伝送装置205及び入力出力機器207をさらに含み得る。ここで、伝送装置205は、1つのネットワークを介してデータを受信または送信するように構成される。上述のネットワークの具現例が、有線ネットワーク及び無線ネットワークを含んでもよい。一具現例では、伝送装置205が、一つのネットワークアダプタ(Network Interface Controller、NICと略称)を含み、ネットワークケーブルを介して、他のネットワークデバイス及びルータに接続することができ、それによりインターネット又はローカルエリアネットワークとの通信を行うことができる。一具現例では、伝送装置205は、無線方式でインターネットと通信するように構成される、無線周波(Radio Frequency、RFと略称)モジュールである。
図11に示される構造が例示的なものに過ぎず、電子装置は、スマートフォン(例えば、Android携帯電話、iOS携帯電話等)、タブレットPC、ハンドヘルドコンピュータ及びモバイルインターネットデバイス(Mobile Internet Devices、MIDと略称)、PAD等の端末機器でもよいことは、当業者なら知るはずである。図11は、上記の電子装置を限定するものではない。例えば、端末が、更に図11に示されるものより多いまたはより少ない部品(例えば、ネットワークインタフェース、表示装置等)を含んでもよく、または、図11に示されたものとは異なる構成を有してもよい。
例示的に、本実施例において、上述のメモリ203は、コンピュータプログラムを記憶するように構成されることができる。
例示的に、本実施例において、上述のプロセッサは、コンピュータプログラムを実行して、モリブデンターゲット画像を取得するステップと、モリブデンターゲット画像から複数の候補領域を抽出するステップと、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して複数の候補領域におけるターゲット領域をモリブデンターゲット画像に表記するステップであって、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用されるステップとを実行するように構成される。
プロセッサ201は、さらに、ニューラルネットワークモデルを使用して複数の候補領域における各候補領域に含まれるしこりがターゲットしこりである確率を取得するステップと、確率が第1閾値より大きい候補領域をターゲット領域として決定し、ターゲット領域をモリブデンターゲット画像で表記するステップとを実行するように構成される。
プロセッサ201は、さらに、モリブデンターゲット画像を取得する前に、サンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップであって、深層学習トレーニングを実行するとき、入力パラメータはサンプルしこり領域を含むことをトレーニングし、出力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を含むことをトレーニングするステップを実行するように構成される。
プロセッサ201は、さらに、第1しこり領域と、第1しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係及び第2しこり領域と、第2しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップであって、サンプルしこり領域は第1しこり領域及び第2しこり領域を含み、第1しこり領域に含まれるしこりはターゲットしこりであり、第2しこり領域に含まれるしこりは非ターゲットしこりであり、または第2しこり領域はしこりを含まないステップを実行するように構成される。
プロセッサ201は、さらに、確率が第1閾値より大きい複数の候補領域が存在する場合、確率の大きさに従って、複数の確率が第1閾値より大きい候補領域をソートするステップと、第1候補領域と第2候補領域との間の重複面積をそれぞれ計算するステップであって、第1候補領域は、複数の確率が第1閾値より大きい候補領域の中で最も大きい確率を有する候補領域であり、第2候補領域は、確率が第1閾値より大きい複数の候補領域のうちの、第1候補領域以外の候補領域であるステップと、確率が第1閾値より大きい複数の候補領域から、第1候補領域との重複面積が第3閾値より大きい第2候補領域を削除して、残りの候補領域を取得するステップと、残りの候補領域をターゲット領域として決定するステップとを実行するように構成される。
プロセッサ201は、さらに、画像分割閾値を決定するステップと、画像分割閾値に従ってモリブデンターゲット画像を分割して、複数の候補領域を取得するステップとを実行するように構成される。
プロセッサ201は、さらに、グレースケールレベルに従って、モリブデンターゲット画像が画像分割閾値に従って分割することにより取得された複数の画像領域をソートするステップであって、グレースケールレベルは画像分割閾値と関連するステップと、複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域を候補領域として決定するステップとを実行するように構成される。
プロセッサ201は、さらに、複数の画像領域においてグレースケールレベルが第4閾値より高い画像領域の数が第5閾値より多い場合、画像領域の面積に従って複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域をソートするステップと、複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域内で、面積が第6閾値より大きい画像領域を候補領域として決定するステップであって、前記複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域内で、面積が第6閾値より大きい画像領域の数は第5閾値と等しいステップとを実行するように構成される。
プロセッサ201は、さらに、モリブデンターゲット画像により、画像分割閾値に従って分割して取得された複数の画像領域のそれぞれにおける、人体部位組織の接続を指示するために使用される接続線を切断して、複数の候補領域を取得することを実行するように構成される。
プロセッサ201は、さらに、モリブデンターゲット画像を取得した後、モリブデンターゲット画像におけるノイズを除去して、ノイズ除去されたモリブデンターゲット画像を取得するステップと、ノイズ除去されたモリブデンターゲット画像からターゲット画像を抽出するステップであって、ターゲット画像は人体部位の画像を含み、ターゲット画像から複数の候補領域を抽出するステップを実行するように構成される。
プロセッサ201は、さらに、サンプルしこり領域を取得し、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、ターゲットしこりが悪性しこりである確率はターゲット閾値より大きいステップと、サンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップであって、深層学習トレーニングを実行するとき、入力パラメータはサンプルしこり領域を含むことをトレーニングし、出力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を含むことをトレーニングするステップとを実行するように構成される。
プロセッサ201は、さらに、第1しこり領域と、第1しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係及び第2しこり領域と、第2しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップであって、サンプルしこり領域は第1しこり領域及び第2しこり領域を含み、第1しこり領域に含まれるしこりはターゲットしこりであり、第2しこり領域に含まれるしこりは非ターゲットしこりであり、または第2しこり領域はしこりを含まないステップを実行するように構成される。
プロセッサ201は、さらに、データベースからサンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、データベースは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を事前に記憶するステップ、または入力パラメータに従ってサンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、入力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を指示するために使用されるステップを実行するように構成される。
例示的に、本実施例の具体的な例が上述の実施例で説明された例を参照することができるため、本実施例では繰り返して説明しない。
本願実施例を採用して、画像処理の技術案を開示する。モリブデンターゲット画像を取得し、モリブデンターゲット画像から複数の候補領域を抽出し、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して複数の候補領域におけるターゲット領域をモリブデンターゲット画像に表記し、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用されることにより、手動で関与することなく、モリブデンターゲット画像内の疑わしい悪性しこり領域を自動的に表記する目的を達成し、さらに、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を解決し、それにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度を向上させる技術的効果を実現する。
本願実施例のさらに別の態様によれば、記憶媒体をさらに開示する。当該記憶媒体には、コンピュータプログラムが記憶され、ここで、当該コンピュータプログラムは、実行されると、上述の実施例の画像処理方法及びニューラルネットワークモデルのトレーニング方法のステップを実行するように構成される。
例示的に、本実施例では、記憶媒体が、上述の実施例に示されたネットワークにおける複数のネットワーク機器のうちの少なくとも1つのネットワーク機器に実装されることができる。
例示的に、本実施例において、記憶媒体は、次のステップを実行するコンピュータプログラムを記憶するように構成される。
ステップS1において、モリブデンターゲット画像を取得する。
ステップS2において、モリブデンターゲット画像から複数の候補領域を抽出する。
ステップS3において、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して複数の候補領域におけるターゲット領域をモリブデンターゲット画像に表記し、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用される。
例示的に、記憶媒体は、さらに、ニューラルネットワークモデルを使用して複数の候補領域における各候補領域に含まれるしこりがターゲットしこりである確率を取得するステップと、確率が第1閾値より大きい候補領域をターゲット領域として決定し、ターゲット領域をモリブデンターゲット画像で表記するステップとを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、モリブデンターゲット画像を取得する前に、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップであって、分類トレーニングを実行するとき、入力パラメータはサンプルしこり領域を含むことをトレーニングし、出力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を含むことをトレーニングするステップを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、第1しこり領域と、第1しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係及び第2しこり領域と、第2しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行し、深層学習トレーニングにより取得されたニューラルネットワークモデルを取得するステップであって、サンプルしこり領域は第1しこり領域及び第2しこり領域を含み、第1しこり領域に含まれるしこりはターゲットしこりであり、第2しこり領域に含まれるしこりは非ターゲットしこりであり、または第2しこり領域はしこりを含まないステップを実行するコンピュータプログラムを記憶するように構成される
例示的に、記憶媒体は、さらに、確率が第1閾値より大きい複数の候補領域が存在する場合、確率の大きさに従って確率が第1閾値より大きい複数の候補領域をソートするステップと、第1候補領域と第2候補領域との間の重複面積をそれぞれ計算するステップであって、第1候補領域は、確率が第1閾値より大きい複数の候補領域の中で最も大きい確率を有する候補領域であり、第2候補領域は、確率が第1閾値より大きい複数の候補領域のうちの、第1候補領域以外の候補領域であるステップと、確率が第1閾値より大きい複数の候補領域から、第1候補領域との重複面積が第3閾値より大きい第2候補領域を削除して、残りの候補領域を取得するステップと、残りの候補領域をターゲット領域として決定するステップとを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、画像分割閾値を決定するステップと、画像分割閾値に従ってモリブデンターゲット画像を分割して、複数の候補領域を取得するステップとを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、グレースケールレベルに従って、モリブデンターゲット画像が画像分割閾値に従って分割することにより取得された複数の画像領域をソートするステップであって、グレースケールレベルは画像分割閾値と関連するステップと、複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域を候補領域として決定するステップとを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、複数の画像領域においてグレースケールレベルが第4閾値より高い画像領域の数が第5閾値より多い場合、画像領域の面積に従って複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域をソートするステップと、複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域内で、面積が第6閾値より大きい画像領域を候補領域として決定するステップであって、複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域内で、面積が第6閾値より大きい画像領域の数は第5閾値と等しいステップとを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、モリブデンターゲット画像により、画像分割閾値に従って分割して取得された複数の画像領域のそれぞれにおける、人体部位組織の接続を指示するために使用される接続線を切断して、複数の候補領域を取得するステップを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、モリブデンターゲット画像を取得した後、モリブデンターゲット画像におけるノイズを除去して、ノイズ除去されたモリブデンターゲット画像を取得するステップと、ノイズ除去されたモリブデンターゲット画像からターゲット画像を抽出するステップであって、ターゲット画像は人体部位の画像を含み、ターゲット画像から複数の候補領域を抽出するステップとを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、サンプルしこり領域を取得し、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、ターゲットしこりが悪性しこりである確率はターゲット閾値より大きいステップと、サンプルしこり領域と、サンプルしこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップであって、深層学習トレーニングを実行するとき、入力パラメータはサンプルしこり領域を含むことをトレーニングし、出力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を含むことをトレーニングするステップとを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、第1しこり領域と、第1しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係及び第2しこり領域と、第2しこり領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、ニューラルネットワークモデルを取得するステップであって、サンプルしこり領域は第1しこり領域及び第2しこり領域を含み、第1しこり領域に含まれるしこりはターゲットしこりであり、第2しこり領域に含まれるしこりは非ターゲットしこりであり、または第2しこり領域はしこりを含まないステップを実行するコンピュータプログラムを記憶するように構成される。
例示的に、記憶媒体は、さらに、データベースからサンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、データベースは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を事前に記憶するステップ、または入力パラメータに従ってサンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、入力パラメータは、サンプルしこり領域に含まれるしこりがターゲットしこりである確率を指示するために使用されるステップを実行するコンピュータプログラムを記憶するように構成される。
例示的に、本実施例の具体的な例が上述の実施例で説明された例を参照することができるため、本実施例では繰り返して説明しない。
例示的に、本実施例では、上述の実施例における方法の全部又は一部は、プログラムによって、端末機器に関連するハードウェアに命令することによって完了してもよいことを、当業者なら自明である。当該プログラムは、1つのコンピュータ読み取り可能な記憶媒体に記憶されてもよい。記憶媒体は、フラッシュディスク、読み取り専用メモリ(Read−Only Memory、ROMと略称)、ランダムアクセスメモリ(Random Access Memory、RAMと略称)、磁気ディスクまたは光ディスクなどを含んでもよい。
上述の本願実施例の番号は、実施例の優劣を表すものではなく、説明の便宜を図るためのものである。
上述の実施例における統合されたユニットがソフトウェア機能ユニットの形で実現され、スタンドアロン製品として販売または使用される場合、上述のコンピュータ読み取り可能な記憶媒体に記憶されることができる。このような理解に基づいて、本願の実質的な技術的特徴、関連技術に対する貢献度のある部分、又は当該技術的特徴の全部又は一部は、ソフトウェア製品に実装することができる。当該コンピュータソフトウェア製品が記憶媒体に記憶されることは、一つ以上のコンピュータデバイス(パーソナルコンピュータ、サーバ又はネットワークデバイス等であってもよい)に本願の各実施例に記載される方法のステップの全部又は一部を実行させる複数の命令を含む。
本願の上述の実施例では、各実施例の説明は、それぞれの重み付けがあるため、ある実施例で詳しく説明していない部分は、他の実施例の関連部分の説明を参照してもよい。
本願実施例が開示したクライアントが、他の形態でも代替することができることを理解されたい。ここで、上記で説明された装置実施例は例示的なものに過ぎず、例えば、前記ユニットの分離は、論理機能の分離に過ぎず、実際の実現時には別の分離方法があり、例えば、複数のユニットまたはコンポーネントを別のシステムに統合または集積したり、または一部の特徴を無視したり、または実行しないことができる。なお、表示または議論された相互結合または直接結合または通信接続は、電気的または他の形態であり得、一部のインターフェース、ユニットまたはモジュールを介した間接的な結合または通信接続であり得る。
前記分離部材として説明されたユニットは、物理的に分離されている場合とされていない場合があり、ユニットとして表示された部材は、物理ユニットである場合もそうでない場合もあり、1箇所に配置される場合もあれば、複数のネットワークユニットに分散される場合もある。実際のニーズにしたがって、その中のユニットの一部または全部を選択して本実施例の技術案の目的を実現することができる。
また、本願の各実施例における各機能ユニットを一つの処理ユニットに統合してもよく、各ユニットを別々に1つのユニットとして使用してもよいし、2つ以上のユニットを一つのユニットに統合してもよい。前記統合されたユニットは、ハードウェアの形で実装されてもよく、ソフトウェア機能ユニットの形で実装されてもよい。
以上に述べたのは、本願における例示的な実施例に過ぎず、当業者にとって、本出願の原理から逸脱することなく、いくつかの改善又は修正を加えることもでき、これらの改善及び修正も本出願の保護範囲と見なされるべきであることに留意されたい。
本願実施例において、モリブデンターゲット画像を取得し、モリブデンターゲット画像から複数の候補領域を抽出し、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して複数の候補領域におけるターゲット領域をモリブデンターゲット画像に表記し、ここで、ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、ターゲットしこりが悪性しこりである確率は第2閾値より大きく、ニューラルネットワークモデルは、候補領域と、候補領域に含まれるしこりがターゲットしこりである確率との間のマッピング関係を指示するために使用され、それにより、手動で関与することなく、モリブデンターゲット画像内のターゲットしこり領域を自動的に表記する目的を達成し、さらに、関連技術において、手動スクリーニング方式を採用してモリブデンターゲット画像内の疑わしい悪性しこりを位置決めすることにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度が低くなる技術的課題を解決し、それにより、疑わしい悪性しこりのスクリーニング効率及び位置決め精度を向上させる技術的効果を実現する。
21 トレーニングユニット
22 取得ユニット
24 第1抽出ユニット
26 表記ユニット
201 プロセッサ
202 除去ユニット
203 メモリ
204 第2抽出ユニット
205 伝送装置
207 入力出力機器
212 トレーニングモジュール
240 抽出モジュール
242 第2決定モジュール
244 分割モジュール
262 取得モジュール
264 第1決定モジュール
2441 切断モジュール
2442 第2配列モジュール
2444 第2決定サブモジュール
2446 第3配列モジュール
2448 第3決定サブモジュール
2642 第1配列モジュール
2644 計算モジュール
2646 削除モジュール
2648 第1決定サブモジュール

Claims (15)

  1. 画像処理方法であって、
    端末が、モリブデンターゲット画像を取得するステップと、
    前記端末が、前記モリブデンターゲット画像から複数の候補領域を抽出するステップと、
    前記端末が、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して、前記モリブデンターゲット画像に前記複数の候補領域におけるターゲット領域を表記するステップであって、前記ターゲット領域に含まれるしこりがターゲットしこりである確率は第1閾値より大きく、前記ターゲットしこりが悪性しこりである確率は第2閾値より大きく、前記ニューラルネットワークモデルは、前記候補領域と、前記候補領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を指示するために使用されるステップとを含む、前記画像処理方法。
  2. 前記端末が、深層学習トレーニングによって取得されたニューラルネットワークモデルを介して、前記モリブデンターゲット画像に前記複数の候補領域におけるターゲット領域を表記するステップは、
    前記端末が、前記ニューラルネットワークモデルを使用して、前記複数の候補領域における各候補領域に含まれるしこりが前記ターゲットしこりである確率を取得するステップと、
    前記端末が、前記確率が前記第1閾値より大きい候補領域を前記ターゲット領域として決定し、前記モリブデンターゲット画像に前記ターゲット領域を表記するステップとを含む、
    請求項1に記載の画像処理方法。
  3. 前記端末がモリブデンターゲット画像を取得する前に、前記方法は、
    前記端末が、サンプルしこり領域と、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、前記ニューラルネットワークモデルを取得するステップであって、深層学習トレーニングを実行するとき、入力パラメータは前記サンプルしこり領域を含むことをトレーニングし、出力パラメータは、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率を含むことをトレーニングするステップをさらに含む、
    請求項2に記載の画像処理方法。
  4. 前記サンプルしこり領域は第1しこり領域及び第2しこり領域を含み、前記第1しこり領域に含まれるしこりは前記ターゲットしこりであり、前記第2しこり領域に含まれるしこりは非ターゲットしこりであり、または前記第2しこり領域はしこりを含まず、前記端末が、サンプルしこり領域と、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、前記ニューラルネットワークモデルを取得するステップは、
    前記端末が、前記第1しこり領域と、前記第1しこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係及び前記第2しこり領域と、前記第2しこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、前記ニューラルネットワークモデルを取得するステップを含む、
    請求項3に記載の画像処理方法。
  5. 確率が前記第1閾値より大きい候補領域が複数ある場合、前記端末が、前記確率が前記第1閾値より大きい候補領域を前記ターゲット領域として決定するステップは、
    前記端末が、確率の大きさに従って前記確率が前記第1閾値より大きい複数の候補領域をソートするステップと、
    前記端末が、第1候補領域と第2候補領域との間の重複面積をそれぞれ計算するステップであって、前記第1候補領域は、前記確率が前記第1閾値より大きい複数の候補領域の中で最も高い確率を有する候補領域であり、前記第2候補領域は、前記確率が前記第1閾値より大きい複数の候補領域のうちの、前記第1候補領域以外の候補領域であるステップと、
    前記端末が、前記確率が前記第1閾値より大きい複数の候補領域から、前記第1候補領域との重複面積が第3閾値より大きい第2候補領域を削除して、残りの候補領域を取得するステップと、
    前記端末が、前記残りの候補領域を前記ターゲット領域として決定するステップとを含む、
    請求項2に記載の画像処理方法。
  6. 前記端末が前記モリブデンターゲット画像から複数の候補領域を抽出するステップは、
    前記端末が、画像分割閾値を決定するステップと、
    前記端末が、前記画像分割閾値に従って前記モリブデンターゲット画像を分割して、前記複数の候補領域を取得するステップとを含む、
    請求項1に記載の画像処理方法。
  7. 前記端末が前記画像分割閾値に従って前記モリブデンターゲット画像を分割して、前記複数の候補領域を取得するステップは、
    前記端末が、グレースケールレベルに従って、前記モリブデンターゲット画像が前記画像分割閾値に応じた分割により取得された複数の画像領域をソートするステップであって、前記グレースケールレベルは前記画像分割閾値に関連するステップと、
    前記端末が、前記複数の画像領域におけるグレースケールレベルが第4閾値より高い画像領域を前記候補領域として決定するステップとを含む、
    請求項6に記載の画像処理方法。
  8. 前記複数の画像領域においてグレースケールレベルが前記第4閾値より高い画像領域の数が第5閾値より多い場合、前記端末が、前記画像分割閾値に従って前記モリブデンターゲット画像を分割して、前記複数の候補領域を取得するステップは、
    前記端末が、画像領域の面積に従って前記複数の画像領域におけるグレースケールレベルが前記第4閾値より高い画像領域をソートするステップと、
    前記端末が、前記複数の画像領域の中で、グレースケールレベルが前記第4閾値より高い画像領域のうち、面積が第6閾値より大きい画像領域を前記候補領域として決定するステップであって、前記複数の画像領域の中で、グレースケールレベルが前記第4閾値より高い画像領域のうち、面積が前記第6閾値より大きい画像領域の数は前記第5閾値と等しいステップとを含む、
    請求項7に記載の画像処理方法。
  9. 前記端末が前記画像分割閾値に従って前記モリブデンターゲット画像を分割して、前記複数の候補領域を取得するステップは、
    前記端末が、前記モリブデンターゲット画像が前記画像分割閾値に応じた分割により取得された複数の画像領域のそれぞれにおける、人体部位組織の接続を指示するために使用される接続線を切断して、前記複数の候補領域を取得するステップを含む、
    請求項6に記載の画像処理方法。
  10. ニューラルネットワークモデルのトレーニング方法であって、
    端末が、サンプルしこり領域を取得し、前記サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップであって、前記ターゲットしこりが悪性しこりである確率はターゲット閾値より大きいステップと、
    前記端末が、前記サンプルしこり領域と、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、前記ニューラルネットワークモデルを取得するステップであって、深層学習トレーニングを実行するとき、入力パラメータは前記サンプルしこり領域を含むことをトレーニングし、出力パラメータは、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率を含むことをトレーニングするステップとを含む、前記ニューラルネットワークモデルのトレーニング方法。
  11. 前記サンプルしこり領域は第1しこり領域及び第2しこり領域を含み、前記第1しこり領域に含まれるしこりは前記ターゲットしこりであり、前記第2しこり領域に含まれるしこりは非ターゲットしこりであり、または前記第2しこり領域はしこりを含まず、前記端末が、サンプルしこり領域と、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、前記ニューラルネットワークモデルを取得するステップは、
    前記端末が、前記第1しこり領域と、前記第1しこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係及び前記第2しこり領域と、前記第2しこり領域に含まれるしこりが前記ターゲットしこりである確率との間のマッピング関係を利用して深層学習トレーニングを実行して、前記ニューラルネットワークモデルを取得するステップを含む、
    請求項10に記載のニューラルネットワークモデルのトレーニング方法。
  12. 前記端末が、前記サンプルしこり領域に含まれるしこりがターゲットしこりである確率を決定するステップは、
    前記端末が、データベースから前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率を決定するステップであって、前記データベースは、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率を事前に記憶するステップ、または、
    前記端末が、入力パラメータに従って前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率を決定するステップであって、前記入力パラメータは、前記サンプルしこり領域に含まれるしこりが前記ターゲットしこりである確率を指示するために使用されるステップを含む、
    請求項10に記載のニューラルネットワークモデルのトレーニング方法。
  13. 記憶媒体であって、
    コンピュータプログラムが記憶され、前記コンピュータプログラムは、実行されると、請求項1ないし12のいずれか一項に記載の方法を実行するように構成される、前記記憶媒体。
  14. 端末に実装された画像処理装置であって、
    請求項1ないし12のいずれか一項に記載の方法を実行するように構成される、前記画像処理装置。
  15. 電子装置であって、
    メモリ及びプロセッサを含み、前記メモリは、コンピュータプログラムを記憶するように構成され、前記プロセッサは、請求項10ないし12のいずれか一項に記載の方法を実行するために、前記コンピュータプログラムを実行するように構成される、前記電子装置。
JP2020543382A 2018-03-27 2019-03-25 画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法 Active JP7076681B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810261926.4 2018-03-27
CN201810261926.4A CN110197474B (zh) 2018-03-27 2018-03-27 图像处理方法和装置及神经网络模型的训练方法
PCT/CN2019/079456 WO2019184851A1 (zh) 2018-03-27 2019-03-25 图像处理方法和装置及神经网络模型的训练方法

Publications (2)

Publication Number Publication Date
JP2021514228A true JP2021514228A (ja) 2021-06-10
JP7076681B2 JP7076681B2 (ja) 2022-05-30

Family

ID=67751091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020543382A Active JP7076681B2 (ja) 2018-03-27 2019-03-25 画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法

Country Status (4)

Country Link
US (1) US11501431B2 (ja)
JP (1) JP7076681B2 (ja)
CN (1) CN110197474B (ja)
WO (1) WO2019184851A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3608701A1 (de) * 2018-08-09 2020-02-12 Olympus Soft Imaging Solutions GmbH Verfahren zur bereitstellung wenigstens einer auswertemethode für proben
US11069033B2 (en) * 2018-09-10 2021-07-20 University Of Florida Research Foundation, Inc. Neural network evolution using expedited genetic algorithm for medical image denoising
CN113450305B (zh) * 2020-03-26 2023-01-24 太原理工大学 医疗图像的处理方法、系统、设备及可读存储介质
CN111292839B (zh) * 2020-05-13 2020-10-13 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备和存储介质
CN111724391B (zh) * 2020-05-19 2023-04-07 浙江工业大学 一种基于动态阈值的淋巴癌图像精细分割方法
CN112150411B (zh) * 2020-08-28 2023-12-15 刘军 一种信息处理的方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065855A (ja) * 2003-08-21 2005-03-17 Fuji Photo Film Co Ltd 乳腺領域閾値決定方法および装置並びにプログラム
JP2013525011A (ja) * 2010-04-30 2013-06-20 ヴィユーコンプ インク 放射線画像における突起形成を伴う悪性質量の検出および分類
CN106780460A (zh) * 2016-12-13 2017-05-31 杭州健培科技有限公司 一种用于胸部ct影像的肺结节自动检测系统
US20170249739A1 (en) * 2016-02-26 2017-08-31 Biomediq A/S Computer analysis of mammograms
CN107464250A (zh) * 2017-07-03 2017-12-12 深圳市第二人民医院 基于三维mri图像的乳腺肿瘤自动分割方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU687958B2 (en) * 1993-11-29 1998-03-05 Arch Development Corporation Automated method and system for improved computerized detection and classification of masses in mammograms
US5949905A (en) * 1996-10-23 1999-09-07 Nichani; Sanjay Model-based adaptive segmentation
US20020009215A1 (en) * 2000-01-18 2002-01-24 Arch Development Corporation Automated method and system for the segmentation of lung regions in computed tomography scans
CN1213592C (zh) * 2001-07-31 2005-08-03 佳能株式会社 采用自适应二值化的图象处理方法和设备
US20060195266A1 (en) * 2005-02-25 2006-08-31 Yeatman Timothy J Methods for predicting cancer outcome and gene signatures for use therein
WO2006093523A2 (en) * 2004-07-15 2006-09-08 Kenji Suzuki Computerized scheme for distinction between benign and malignant nodules in thoracic low-dose ct
US7840046B2 (en) * 2006-06-27 2010-11-23 Siemens Medical Solutions Usa, Inc. System and method for detection of breast masses and calcifications using the tomosynthesis projection and reconstructed images
JP5684488B2 (ja) * 2009-04-20 2015-03-11 富士フイルム株式会社 画像処理装置、画像処理方法およびプログラム
US20130231258A1 (en) * 2011-12-09 2013-09-05 Veracyte, Inc. Methods and Compositions for Classification of Samples
GB2478593B (en) * 2010-03-12 2017-05-31 Inst For Medical Informatics Optimising the initialization and convergence of active contours for segmentation of cell nuclei in histological sections
US20130310680A1 (en) * 2012-05-21 2013-11-21 The Regents Of The University Of Colorado, A Body Corporate Three-dimensional optical imaging and therapy of prostate cancer
US9708667B2 (en) * 2014-05-13 2017-07-18 Rosetta Genomics, Ltd. MiRNA expression signature in the classification of thyroid tumors
CN105574839B (zh) * 2014-10-16 2021-03-09 中兴通讯股份有限公司 一种图像的处理方法和装置
CN106355188B (zh) * 2015-07-13 2020-01-21 阿里巴巴集团控股有限公司 图像检测方法及装置
WO2017092615A1 (zh) * 2015-11-30 2017-06-08 上海联影医疗科技有限公司 一种计算机辅助诊断系统及方法
CN105574859B (zh) * 2015-12-14 2018-08-21 中国科学院深圳先进技术研究院 一种基于ct图像的肝脏肿瘤分割方法及装置
US9739783B1 (en) * 2016-03-15 2017-08-22 Anixa Diagnostics Corporation Convolutional neural networks for cancer diagnosis
CN107103187B (zh) * 2017-04-10 2020-12-29 四川省肿瘤医院 基于深度学习的肺结节检测分级与管理的方法及系统
CN107616796B (zh) * 2017-08-31 2020-09-11 北京医拍智能科技有限公司 基于深度神经网络的肺结节良恶性检测方法及装置
EP3692164A4 (en) * 2017-10-06 2021-09-29 Youhealth Oncotech, Limited METHYLATION MARKERS FOR CANCER DIAGNOSIS
CN107798679B (zh) * 2017-12-11 2021-04-27 福建师范大学 乳腺钼靶图像乳房区域分割与钙化点检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065855A (ja) * 2003-08-21 2005-03-17 Fuji Photo Film Co Ltd 乳腺領域閾値決定方法および装置並びにプログラム
JP2013525011A (ja) * 2010-04-30 2013-06-20 ヴィユーコンプ インク 放射線画像における突起形成を伴う悪性質量の検出および分類
US20170249739A1 (en) * 2016-02-26 2017-08-31 Biomediq A/S Computer analysis of mammograms
CN106780460A (zh) * 2016-12-13 2017-05-31 杭州健培科技有限公司 一种用于胸部ct影像的肺结节自动检测系统
CN107464250A (zh) * 2017-07-03 2017-12-12 深圳市第二人民医院 基于三维mri图像的乳腺肿瘤自动分割方法

Also Published As

Publication number Publication date
WO2019184851A1 (zh) 2019-10-03
US11501431B2 (en) 2022-11-15
US20200320701A1 (en) 2020-10-08
CN110197474A (zh) 2019-09-03
JP7076681B2 (ja) 2022-05-30
CN110197474B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
JP7076681B2 (ja) 画像処理方法及び装置、並びにニューラルネットワークモデルのトレーニング方法
CN110232719B (zh) 一种医学图像的分类方法、模型训练方法和服务器
CN111488921B (zh) 一种全景数字病理图像智能分析系统及方法
CN110490850B (zh) 一种肿块区域检测方法、装置和医学图像处理设备
CN112508850B (zh) 基于深度学习的甲状腺细胞病理切片恶性区域的检测方法
US20170249746A1 (en) Imaging segmentation using multi-scale machine learning approach
CN108231190B (zh) 处理图像的方法和神经网络系统、设备、介质
US10610098B1 (en) Generalized retinal image screening system (GRIS)
US11967181B2 (en) Method and device for retinal image recognition, electronic equipment, and storage medium
CN110752028A (zh) 一种图像处理方法、装置、设备以及存储介质
US20220215548A1 (en) Method and device for identifying abnormal cell in to-be-detected sample, and storage medium
CN113313680B (zh) 一种结直肠癌病理图像预后辅助预测方法及系统
US11721023B1 (en) Distinguishing a disease state from a non-disease state in an image
CN111882559B (zh) Ecg信号的获取方法及装置、存储介质、电子装置
CN110473176B (zh) 图像处理方法及装置、眼底图像处理方法、电子设备
Leavline et al. On teaching digital image processing with MATLAB
CN112966687B (zh) 图像分割模型训练方法、装置及通信设备
WO2019073312A1 (en) METHOD AND DEVICE FOR INTEGRATING IMAGE CHANNELS IN A DEEP LEARNING MODEL FOR CLASSIFICATION
CN113223614A (zh) 一种染色体核型分析方法、系统、终端设备和存储介质
CN112560718A (zh) 物料信息的获取方法和装置、存储介质、电子装置
CN115130543B (zh) 图像识别方法和装置、存储介质及电子设备
WO2021139447A1 (zh) 一种宫颈异常细胞检测装置及方法
CN112116598A (zh) 一种花卉种类识别方法及系统
CN111179226A (zh) 视野图的识别方法、装置及计算机存储介质
CN110739068A (zh) 基于机器学习的皮肤病智能问诊方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220426

R150 Certificate of patent or registration of utility model

Ref document number: 7076681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150