JP7459357B1 - 画像認識方法、装置、デバイスおよび記憶媒体 - Google Patents

画像認識方法、装置、デバイスおよび記憶媒体 Download PDF

Info

Publication number
JP7459357B1
JP7459357B1 JP2023119935A JP2023119935A JP7459357B1 JP 7459357 B1 JP7459357 B1 JP 7459357B1 JP 2023119935 A JP2023119935 A JP 2023119935A JP 2023119935 A JP2023119935 A JP 2023119935A JP 7459357 B1 JP7459357 B1 JP 7459357B1
Authority
JP
Japan
Prior art keywords
image
recognized
recognition model
recognition
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023119935A
Other languages
English (en)
Inventor
聞▲タオ▼ 朱
少杰 李
海亮 黄
楊 徳富
成鋼 顔
Original Assignee
之江実験室
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 之江実験室 filed Critical 之江実験室
Application granted granted Critical
Publication of JP7459357B1 publication Critical patent/JP7459357B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

【課題】コンピュータ断層撮影(CT)画像の認識精度を向上させた画像認識方法、装置、デバイスおよび記憶媒体を提供する。【解決手段】方法は、認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、認識すべきCT画像の統計データを抽出し、認識モデルによって、認識すべきCT画像の統計データに基づいて認識すべきCT画像の第1の特徴表現を決定し、認識すべきCT画像に基づいて認識すべきCT画像の第2の特徴表現を決定し、認識すべきCT画像の統計データと、認識すべきCT画像の画像情報とに基づいて認識すべきCT画像を認識する。【選択図】図1

Description

本発明は、データ処理の技術分野に関し、特に、画像認識方法、装置、デバイスおよび記憶媒体に関する。
現在、コンピュータ断層撮影(Computed Tomography、CT)画像は、例えば、患者の肺のCT画像に基づく慢性閉塞性肺疾患(COPD)などの疾患の診断などの画像診断に広く使用されている。
先行技術では、深層学習モデルによってCT画像から特徴を抽出し、CT画像に含まれる患者の身体の特定部位の画像に基づいて、患者の身体の特定部位の病変の有無を認識することができるが、この認識方法の精度は低い。
従って、CT画像の認識精度をいかに向上させるかが喫緊の課題となっている。
本発明は先行技術の上記問題点を解決するための画像認識方法、装置、デバイスおよび記憶媒体を提供する。
本発明に用いられる技術的解決手段は、以下のとおりである。
本発明は画像認識方法を提供し、前記方法は、
ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するステップと、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するステップであって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられるステップと、
前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するステップであって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含むステップと、
前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るステップと、
前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るステップと、を含む。
オプションで、ユーザの認識すべきCT画像を取得するステップは、具体的に、
ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得するステップと、
前記オリジナルCT画像を分割して、前記ユーザの身体の特定部位に対応するCT画像を得るステップと、
前記ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得るステップと、を含む。
オプションで、前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得るステップは、具体的に、
前記統計データの少なくとも一部を正規化して、処理後の統計データを得るステップと、
前記処理後の統計データを前記予め訓練された認識モデルの第1の特徴抽出層に入力して前記第1の特徴表現を得るステップと、を含む。
オプションで、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るステップは、具体的に、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得るステップと、
前記処理後の認識すべきCT画像を前記予め訓練された認識モデルの第2の特徴抽出層に入力して前記第2の特徴表現を得るステップと、を含む。
オプションで、前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るステップは、具体的に、
前記第1の特徴表現と前記第2の特徴表現とを融合して融合特徴表現を得るステップと、
前記融合特徴表現に基づいて、前記認識すべきCT画像の認識結果を得るステップと、を含む。
オプションで、前記方法は、前記認識モデルを訓練するステップをさらに含み、具体的に、
各サンプルユーザの認識すべきCT画像を取得するステップであって、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含むステップと、
少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとするステップと、
前記訓練セット内の認識すべきCT画像によって前記認識モデルを初期訓練し、初期訓練された認識モデルを得るステップと、
前記テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を前記初期訓練された認識モデルに入力して、前記初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得るステップと、
前記初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練するステップと、を含む。
本発明は画像認識装置を提供し、前記装置は、
ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するための取得モジュールと、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するための決定モジュールであって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられる、決定モジュールと、
前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するための統計モジュールであって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含む、統計モジュールと、
前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るための特徴抽出モジュールと、
前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るための認識モジュールと、を含む。
オプションで、前記取得モジュールは、具体的に、
ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得し、
前記オリジナルCT画像を分割して、前記ユーザの身体の特定部位に対応するCT画像を得、
前記ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得るために用いられる。
オプションで、前記特徴抽出モジュールは、具体的に、
前記統計データの少なくとも一部を正規化して、処理後の統計データを得、
前記処理後の統計データを前記予め訓練された認識モデルの第1の特徴抽出層に入力して前記第1の特徴表現を得るために用いられる。
オプションで、前記特徴抽出モジュールは、具体的に、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得、
前記処理後の認識すべきCT画像を前記予め訓練された認識モデルの第2の特徴抽出層に入力して前記第2の特徴表現を得るために用いられる。
オプションで、前記認識モジュールは、具体的に、
前記第1の特徴表現と前記第2の特徴表現とを融合して融合特徴表現を得、
前記融合特徴表現に基づいて、前記認識すべきCT画像の認識結果を得るために用いられる。
オプションで、前記装置は、訓練モジュールをさらに含み、
前記訓練モジュールは、具体的に、
各サンプルユーザの認識すべきCT画像を取得し、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含み、
少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとし、
前記訓練セット内の認識すべきCT画像によって前記認識モデルを初期訓練し、初期訓練された認識モデルを得、
前記テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を前記初期訓練された認識モデルに入力して、前記初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得、
前記初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練するために用いられる。
本発明はコンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体はコンピュータプログラムを記憶しており、前記コンピュータプログラムがプロセッサによって実行されると、上記画像認識方法が実施される。
本発明は電子デバイスを提供し、前記電子デバイスは、メモリと、プロセッサと、前記メモリに記憶され、前記プロセッサ上で実行可能なコンピュータプログラムとを含み、前記プロセッサが前記コンピュータプログラムを実行すると、上記画像認識方法を実施する。
本発明で用いられる上記技術的解決手段の少なくとも1つは、以下の有益な効果を達成することができる。
本発明にて提供される画像認識方法は、まずユーザの認識すべきコンピュータ断層撮影(CT)画像を取得し、認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、認識すべきCT画像に対応する画像ヒストグラムを決定し、画像ヒストグラムは認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられ、画像ヒストグラムに基づいて、認識すべきCT画像の少なくとも1つの統計データを決定し、統計データは、認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含み、統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、認識すべきCT画像を認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得、第1の特徴表現と第2の特徴表現とに基づいて、認識すべきCT画像の認識結果を得る。
上記方法から分かるように、認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、認識すべきCT画像の統計データを抽出でき、認識モデルによって、認識すべきCT画像の統計データに基づいて認識すべきCT画像の第1の特徴表現を決定し、認識すべきCT画像に基づいて認識すべきCT画像の第2の特徴表現を決定することができるため、認識すべきCT画像の統計データと、認識すべきCT画像の画像情報とに基づいて認識すべきCT画像を認識することができ、認識の精度を向上させることができる。
ここで説明される添付図面は、本発明の理解を深めるために用いられ、本発明の一部を構成し、本発明の例示的な実施形態およびその説明は、本発明を説明するために用いられ、本発明の不当な限定を構成するものではない。
本発明にて提供される画像認識方法のフローを示す概略図である。 本発明にて提供される認識すべきCT画像に対応する画像ヒストグラムである。 本発明にて提供される認識すべきCT画像の認識プロセスを示す概略図である。 本発明にて提供される画像認識装置を示す概略図である。 本発明にて提供される電子デバイスを示す概略図である。
本発明の目的、技術的解決手段および利点をより明確にするために、以下、本発明の特定の実施形態および対応する添付図面と併せて、本発明の技術的解決手段を明確かつ完全に説明する。明らかに、説明された実施形態は、本発明の実施形態の一部に過ぎず、そのすべてではない。本発明の実施形態に基づいて、当業者が創作的な労力を要することなく得られる他のすべての実施形態は、いずれも本発明の保護範囲に属する。
以下、添付図面と併せて、本発明の各実施形態にて提供される技術的解決手段を詳細に説明する。
図1は、本発明にて提供される画像認識方法のフローを示す概略図であり、以下のステップを含む。
S101において、ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得する。
本発明において、業務プラットフォームは、ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得し、取得したユーザのオリジナルCT画像を分割して、ユーザのオリジナルCT画像からユーザの身体の特定部位に対応するCT画像を得てもよい。
上記において、業務プラットフォームが、取得したユーザのオリジナルCT画像を分割することは、所定の分割モデルにユーザのオリジナルCT画像を入力して、所定の分割モデルにより、ユーザの身体の特定部位に対応するCT画像を得ることであってもよい。ここでの分割モデルは、UNet、UNet++などのニューラルネットワークモデルであってもよい。
さらに、ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得てもよい。ここで、リサンプリングにより、認識すべきCT画像におけるボクセルのサイズを正規化することができる。
なお、リサンプリングにより得られた認識すべきCT画像のサイズは、オリジナル画像のサイズと異なる場合があるため、リサンプリングにより得られた認識すべきCT画像のサイズが、分割前のユーザのオリジナルCT画像のサイズと同じになるように、リサンプリングにより得られた認識すべき画像に対してトリミングなどの操作を行ってもよい。
上記におけるユーザの身体の特定部位は、例えば、肺、肝臓などの部位であってもよい。上記におけるボクセルは、ボリュームピクセル(Volume Pixel)であり、3次元空間での最小単位である。2次元空間におけるピクセルと類似し、3次元空間における3次元画像は、ボクセルと呼ばれる複数の小さな立方体から構成され得ると理解してもよい。
なお、異なるユーザの身体の特定部位に対応するCT画像のサイズが異なる場合があり(各ユーザの特定部位の体積が異なり、身体に占める割合も異なるため、分割されたユーザの身体の特定部位に対応するCT画像のサイズが異なる場合がある)、異なるユーザの身体の特定部位に対応するCT画像に含まれるボクセルのサイズも異なる場合がある。例えば、あるユーザの身体の特定部位に対応するCT画像に含まれるボクセルのサイズは(0.878906,0.878906,0.625)であり得るが、他のユーザの身体の特定部位に対応するCT画像に含まれるボクセルのサイズは(1,1,1)であり得る。従って、異なる認識すべきCT画像に含まれるボクセルの大きさが異なることによる、認識モデルが出力する認識結果への影響を回避するため、リサンプリングにより、認識すべきCT画像におけるボクセルのサイズを正規化する必要があり、また、分割されたユーザの身体の特定部位に対応するCT画像を、分割前のユーザのオリジナルCT画像と同じサイズにする必要がある。
本発明において、画像認識方法を実行するための実行主体は、サーバなどの、業務プラットフォーム上に設置された指定のデバイスであってもよいし、ノートパソコン、デスクトップパソコンなどのデバイスであってもよい。説明の便宜上、以下、実行主体としてサーバのみを例に、本発明にて提供される画像認識方法について説明する。
S102において、前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定し、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられる。
さらに、サーバが、認識すべきCT画像を取得した後、認識すべきCT画像に含まれる各ボクセルに対応するCT値を決定し、認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、図2に示すような、認識すべきCT画像に対応する画像ヒストグラムを決定してもよい。
図2は、本発明にて提供される認識すべきCT画像に対応する画像ヒストグラムである。
図2から分かるように、認識すべきCT画像に対応する画像ヒストグラムは、各CT値に対応するボクセルの数を表すために用いられる。例えば、図2における、CT値が-950HUのボクセルの数は5100である。なお、ここでの5100は、CT値-950HUに対応する周波数値、即ち認識すべきCT画像における、CT値が-950HUのボクセルの数である。
上記のCT値は、ハンスフィールドユニット(Hounsfield Unit、HU)値とも呼ばれ、X線が異なる組織を通過する際の減衰係数に対応する値を指す。
実際の応用シナリオでは、認識すべきCT画像には、CT値が-1024HUより小さいボクセルと、CT値が190HUより大きいボクセルも含まれることがあり、サーバはこれらのボクセルに対して閾値処理を行ってもよい。
具体的に、サーバは、CT値が-1024HUより小さいボクセルに対応するCT値を-1024HUに設定し、CT値が190HUより大きいボクセルに対応するCT値を190HUに設定してもよい。
S103において、前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定し、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含む。
さらに、サーバは、画像ヒストグラムに基づいて、認識すべきCT画像の少なくとも1つの統計データを決定してもよく、ここでの統計データは、認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含む。ここでのすべてのボクセルは、認識すべきCT画像に含まれるユーザの身体の特定部位に対応するすべてのボクセルを指す。
ここで、認識すべきCT画像に含まれる指定のボクセルは、画像ヒストグラムの指定のパーセンタイルにあるボクセルであってもよく、例えば、画像ヒストグラムの15パーセンタイルにあるボクセルを指定のボクセルとして使用してもよい。言い換えれば、ここでの15パーセンタイルにあるボクセルは、すべてのボクセルを、対応するCT値の大きさに従って、小さい順にソートした後、すべてのボクセルの15%に位置するボクセルである。
また、認識すべきCT画像に含まれる指定のボクセルは、各CT値のうち、最も周波数値の高いCT値に対応するボクセルを指してもよい。
また、上記における指定範囲は、所定の第1の指定範囲および第2の指定範囲を指してもよい。CT値が第1の指定範囲内にあることは、CT値が-950HU以下であってもよい。CT値が第2の指定範囲内にあることは、CT値が[-1024,-920]にあること、CT値が(-920,-720)にあること、CT値が[-720,190]にあることのうちの少なくとも1つであってもよい。
なお、CT値が上記の第1の指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合は、全体的に、ユーザの身体の特定部位の病変状況を反映することができ、上記の各第2の指定範囲は、ユーザの身体の特定部位の異なる領域の病変状況を反映することができる。
S104において、前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得る。
なお、上記第1の特徴抽出層および上記第2の特徴抽出層は、実際のニーズに応じて選択してもよく、例えば、上記第1の特徴抽出層は線形層であってもよく、上記第2の特徴抽出層はResNet18ネットワーク層であってもよい。
さらに、サーバが統計データを決定した後、決定された統計データの少なくとも一部を正規化して、処理後の統計データを得、処理後の統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得てもよい。
例示的に、統計データは、画像ヒストグラムの15パーセンタイルにあるボクセルに対応するCT値、最も周波数値の高いCT値、CT値が-950HU以下のボクセルの数がすべてのボクセルの総数に占める割合、CT値が[-1024,-920]にあるボクセルの数がすべてのボクセルの総数に占める割合、CT値が(-920,-720)にあるボクセルの数がすべてのボクセルの総数に占める割合、CT値が[-720,190]にあるボクセルの数がすべてのボクセルの総数に占める割合の6つの統計データを含む。この場合、サーバは、上記の6つの統計データを決定した後、画像ヒストグラムの15パーセンタイルにあるボクセルに対応するCT値と、最も周波数値の高いCT値とを正規化し、正規化された2つの統計データを、残りの4つの統計データとともに予め訓練された認識モデルの第1の特徴抽出層に入力し、第1の特徴抽出層を介して、正規化された2つの統計データと残りの4つの統計データとを結合して、線形変換を行うことにより、第1の特徴表現を得る。第1の特徴表現は、サイズが1×256の特徴ベクトルであってもよい。
また、サーバは、認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得、処理後の認識すべきCT画像を予め訓練された認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得てもよい。
例示的に、第2の特徴表現は、サイズが1×512の特徴ベクトルであってもよい。
S105において、前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得る。
さらに、サーバは、第1の特徴表現と第2の特徴表現とに基づいて、認識すべきCT画像の認識結果を得てもよい。
具体的に、サーバは、認識モデルの全結合層を介して、認識すべきCT画像の第1の特徴表現と第2の特徴表現とを融合して融合特徴表現を得、得られた融合特徴表現を認識モデルの意思決定層に入力して、認識すべきCT画像の認識結果を得てもよい。
また、実際の適用では、認識モデルをサーバにデプロイして認識すべきCT画像を認識する前に、認識モデルを予め訓練する必要がある。
ここで、認識モデルを訓練する方法は、各サンプルユーザの認識すべきCT画像を取得するステップであって、サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含むステップと、少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとするステップと、訓練セット内の認識すべきCT画像によって認識モデルを初期訓練し、初期訓練された認識モデルを得るステップと、テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を初期訓練された認識モデルに入力して、初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得るステップと、初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、認識モデルを訓練するステップと、を含み得る。
上記をさらに詳しく説明するために、本発明は、図3に示すような、前記認識モデルによる画像認識のプロセスを示す概略図をさらに提供する。
図3は、本発明にて提供される認識すべきCT画像の認識プロセスを示す概略図である。
図3から分かるように、サーバは、認識すべきCT画像および認識すべきCT画像に含まれる少なくとも1つの統計データを予め訓練された認識モデルに入力して、認識モデルの第1の特徴抽出層により認識すべきCT画像の第1の特徴表現を得、認識モデルの第2の特徴抽出層により認識すべきCT画像の第2の特徴表現を得てもよい。
さらに、認識モデルは全結合層を介して、認識すべきCT画像の第1の特徴表現と第2の特徴表現とを融合して融合特徴表現を得、意思決定層により、融合特徴表現に基づいて、認識すべきCT画像を認識し、認識すべきCT画像の認識結果を得てもよい。
上記から分かるように、サーバは、認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、認識すべきCT画像の統計データを抽出でき、認識モデルによって、認識すべきCT画像の統計データに基づいて認識すべきCT画像の第1の特徴表現を決定し、認識すべきCT画像に基づいて認識すべきCT画像の第2の特徴表現を決定することができるため、認識すべきCT画像の統計データと、認識すべきCT画像の画像情報とに基づいて認識すべきCT画像を認識することができ、認識の精度を向上させることができる。
以上が、本発明の1つまたは複数の実施形態にて提供される画像認識方法であり、同じ考えに基づいて、本発明は図4に示すような、対応する画像認識装置をさらに提供する。
図4は、本発明にて提供される画像認識装置を示す概略図であり、前記装置は、
ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するための取得モジュール401と、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するための決定モジュール402であって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられる、決定モジュール402と、
前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するための統計モジュール403であって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含む、統計モジュール403と、
前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るための特徴抽出モジュール404と、
前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るための認識モジュール405と、を含む。
オプションで、前記取得モジュール401は、具体的に、
ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得し、
前記オリジナルCT画像を分割して、前記ユーザの身体の特定部位に対応するCT画像を得、
前記ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得るために用いられる。
オプションで、前記特徴抽出モジュール404は、具体的に、
前記統計データの少なくとも一部を正規化して、処理後の統計データを得、
前記処理後の統計データを前記予め訓練された認識モデルの第1の特徴抽出層に入力して前記第1の特徴表現を得るために用いられる。
オプションで、前記特徴抽出モジュール404は、具体的に、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得、
前記処理後の認識すべきCT画像を前記予め訓練された認識モデルの第2の特徴抽出層に入力して前記第2の特徴表現を得るために用いられる。
オプションで、前記認識モジュール405は、具体的に、
前記第1の特徴表現と前記第2の特徴表現とを融合して融合特徴表現を得、
前記融合特徴表現に基づいて、前記認識すべきCT画像の認識結果を得るために用いられる。
オプションで、前記装置は、訓練モジュール406をさらに含み、
前記訓練モジュール406は、具体的に、
各サンプルユーザの認識すべきCT画像を取得し、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含み、
少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとし、
前記訓練セット内の認識すべきCT画像によって前記認識モデルを初期訓練し、初期訓練された認識モデルを得、
前記テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を前記初期訓練された認識モデルに入力して、前記初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得、
前記初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練するために用いられる。
本発明はコンピュータ可読記憶媒体をさらに提供し、当該コンピュータ可読記憶媒体はコンピュータプログラムを記憶しており、コンピュータプログラムは上記図1の方法を実行するために用いられる。
本発明は図5に示す電子デバイスをさらに提供する。図5に示すように、ハードウェアレベルでは、当該電子デバイスは、プロセッサ、内部バス、ネットワークインタフェース、内部メモリ、および不揮発性メモリを含み、もちろん、他の動作に必要なハードウェアも含み得る。プロセッサは、不揮発性メモリから対応するコンピュータプログラムを内部メモリに読み込んで実行し、上記図1で説明した方法を実施する。
もちろん、ソフトウェアによる実現の他に、本発明は、論理デバイスやハードウェアとソフトウェアの組み合わせなど、他の実現方式を排除するものではなく、つまり、以下の処理プロセスの実行主体は、各の論理ユニットに限定されず、ハードウェアや論理デバイスであってもよい。
1990年代には、ある技術の改良は、ハードウェアの改良(ダイオード、トランジスタ、スイッチなどの回路構造の改良など)とソフトウェアの改良(方法フローの改良)に明確に区別することができる。しかし、技術の発展に伴い、現在の方法フローの改良の多くは、ハードウェア回路構造に対する直接的な改良と見なすことができるようになった。設計者は、改良された方法フローをハードウェア回路にプログラミングすることで、対応するハードウェア回路構造を得ることがほとんどである。従って、方法フローの改良がハードウェア物理モジュールにより実現できないとは言い切れない。例えば、プログラマブルロジックデバイス(Programmable Logic Device、PLD)(例えばフィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA))はこのような集積回路であり、その論理機能がデバイスのユーザによるプログラミングによって決定される。チップメーカーが専用の集積回路チップを設計・製造する代わりに、設計者がプログラミングしてデジタルシステムを1枚のPLD上に「集積」する。そして、現在では、集積回路チップを手作りする代わりに、このプログラミングは「論理コンパイラ(logic compiler)」というソフトウェアを使って実現されることがほとんどであり、これは、プログラムを書くときに使うソフトウェアコンパイラと類似し、前のオリジナルコードをコンパイルするためには、特定のプログラミング言語で書く必要があり、これはハードウェア記述言語(Hardware Description Language、HDL)と呼ばれ、HDLは1種類だけではなく、ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware Description Language)など、多くの種類があり、現在最もよく使われているのはVHDL(Very-High-Speed Integrated Circuit Hardware Description Language)とVerilogである。方法フローを、上記のハードウェア記述言語のいくつかでちょっと論理的にプログラミングして集積回路にプログラミングするだけで、論理的な方法フローを実現するハードウェア回路は簡単に得られることは、当業者には明らかであろう。
コントローラは、任意の適切な方法で実現されてもよく、例えば、コントローラはマイクロプロセッサまたはプロセッサと、当該(マイクロ)プロセッサによって実行可能なコンピュータ可読プログラムコード(例えば、ソフトウェアまたはファームウェア)を記憶するコンピュータ可読記憶媒体と、論理ゲート、スイッチ、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、プログラマブルロジックコントローラおよび埋め込みマイクロコントローラの形態を採用してもよく、コントローラの例として、ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20、Silicone Labs C8051F320などのマイクロコントローラを含むが、これらに限定されず、メモリコントローラはさらに、メモリの制御ロジックの一部として実現されることも可能である。また、純粋なコンピュータ可読プログラムコードでコントローラを実現することに加えて、方法ステップを論理的にプログラミングすることで、コントローラに、論理ゲート、スイッチ、特定用途向け集積回路、プログラマブルロジックコントローラおよび埋め込みマイクロコントローラなどの形態で同じ機能を実行させることも完全に可能であることは、当業者には明らかであろう。従って、このようなコントローラを、ハードウェアコンポーネントとみなしてもよく、様々な機能を実現するためのその中に含まれる装置も、ハードウェアコンポーネント内の構造とみなしてもよい。または、さらに、様々な機能を実現するための装置を、方法を実現するソフトウェアモジュールであってもよいし、ハードウェアコンポーネント内の構造であってもよいと、みなしてもよい。
上記実施形態で説明したシステム、装置、モジュールまたはユニットは、具体的には、コンピュータチップ、エンティティ、または何らかの機能を有する製品によって実現されてもよい。典型的な実現デバイスはコンピュータである。具体的に、コンピュータは例えば、パーソナルコンピュータ、ラップトップコンピュータ、携帯電話、カメラ付き電話、スマートフォン、パーソナルデジタルアシスタント、メディアプレーヤ、ナビゲーションデバイス、電子メールデバイス、ゲーム機、タブレット、ウェアラブルデバイス、またはこれらのデバイスの任意のいくつかの組み合わせであってもよい。
なお、説明の便宜上、上記の装置を説明するときに機能によって様々なユニットに分けてそれぞれ説明する。もちろん、本発明を実施する際に、各ユニットの機能を同一または複数のソフトウェアおよび/またはハードウェアで実現することも可能である。
当業者であれば分かるように、本発明の実施形態が、方法、システム、またはコンピュータプログラム製品として提供されてもよい。従って、本発明は、ハードウェアだけからなる実施形態、ソフトウェアだけからなる実施形態、またはソフトウェアとハードウェアを組み合わせた実施形態なる形態を用いてもよい。さらに、本発明は、コンピュータで使用可能なプログラムコードを含む1つまたは複数のコンピュータで使用可能な記憶媒体(磁気ディスクメモリ、CD-ROM、光学メモリなどを含むが、これらに限定されない)において実施されるコンピュータプログラム製品の形態であってもよい。
本発明は、本発明の実施形態による方法、デバイス(システム)、およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照して説明される。フローチャートおよび/またはブロック図における各フローおよび/またはブロック、並びにフローチャートおよび/またはブロック図におけるフローおよび/またはブロックの組み合わせは、コンピュータプログラム命令によって実現されてもよいことが理解すべきである。これらのコンピュータプログラム命令は、マシンを生成するために、汎用コンピュータ、専用コンピュータ、埋め込みプロセッサ、または他のプログラム可能なデータ処理デバイスのプロセッサに提供されてもよく、それにより、コンピュータまたは他のプログラム可能なデータ処理デバイスのプロセッサによって実行される命令により、フローチャートの1つまたは複数のフロー、および/またはブロック図の1つまたは複数のブロックにおいて指定される機能を実現するための装置が生成される。
これらのコンピュータプログラム命令は、コンピュータまたは他のプログラム可能なデータ処理デバイスに特定の方法で作業するように指示することができるコンピュータ可読メモリに記憶されてもよく、その結果、当該コンピュータ可読メモリに記憶されている命令により、フローチャートの1つまたは複数のフローおよび/またはブロック図の1つまたは複数のブロックにおいて指定される機能を実現する命令装置を含む製品が生成される。
これらのコンピュータプログラム命令は、コンピュータまたは他のプログラム可能なデータ処理デバイスにロードしてもよく、それにより、一連の動作ステップがコンピュータまたは他のプログラム可能なデバイス上で実行されることで、コンピュータにより実施される処理が生成され、それにより、コンピュータまたは他のプログラム可能なデバイス上で実行される命令により、フローチャートの1つまたは複数のフロー、および/またはブロック図の1つまたは複数のブロック内で指定される機能を実現するためのステップが提供される。
典型的な構成では、コンピューティングデバイスは、1つ以上のプロセッサ(CPU)、入力/出力インタフェース、ネットワークインタフェース、およびメモリを含む。
メモリは、コンピュータ可読記憶媒体のうちの揮発性メモリ、ランダムアクセスメモリ(RAM)および/または不揮発性メモリなどの形態を含み得、例えば、読み出し専用メモリ(ROM)またはフラッシュメモリ(flash RAM)である。メモリは、コンピュータ可読記憶媒体の一例である。
コンピュータ可読記憶媒体は不揮発性および揮発性媒体、移動可能および非移動可能な媒体を含み、任意の方法または技術により情報記憶を実現し得る。情報はコンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータであってもよい。コンピュータの記憶媒体は、相変化メモリ(Phase Change RAM、PRAM)、スタティックランダムアクセスメモリ(Static Random-Access Memory、SRAM)、ダイナミックランダムアクセスメモリ(Dynamic Random Access Memory、DRAM)、他のタイプのランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、電気的消去可能プログラマブル読み出し専用メモリ(Electrically Erasable Programmable Read Only Memory、EEPROM)、フラッシュメモリ(flash Memory)または他のメモリ技術、コンパクトディスク読み出し専用メモリ(Compact Disc Read Only Memory、CD-ROM)、デジタル多用途ディスク(Digital Versatile Disc、DVD)または他の光学記憶、磁気カセットテープ、磁気テープ磁気ディスク記憶または他の磁気記憶デバイス、またはコンピューティングデバイスからアクセス可能な情報を記憶するために使用され得る任意の他の非伝送媒体を含むがそれらに限定されない。本明細書の定義によれば、コンピュータ可読記憶媒体は一時記憶コンピュータ可読記憶媒体(transitory Media)、例えば変調されたデータ信号およびキャリアを含まない。
また、用語「含む」、「含有」またはそのいずれかの他の変形は、非排他的な含有を含むことを意図し、それにより一連の要素を含むプロセス、方法、物品またはデバイスはそれらの要素を含むだけでなく、また明確に列挙されていない他の要素も含み、またはこのようなプロセス、方法、物品またはデバイスの固有の要素も含む。より多くの制限がない場合、文「1つの…を含む」により限定された要素は、前記要素を含むプロセス、方法、物品またはデバイスにさらに他の同じ要素が存在することを排除するものではない。
本発明は、プログラムモジュールのようなコンピュータによって実行されるコンピュータ実行可能命令の一般的な文脈で記述され得る。一般的に、プログラムモジュールは、特定のタスクを実行する、または特定の抽象データ型を実現するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。本発明は、通信ネットワークを介して接続されたリモート処理デバイスによってタスクが実行される分散コンピューティング環境においても実施され得る。分散コンピューティング環境において、プログラムモジュールは、記憶デバイスを含むローカルおよびリモートコンピュータ記憶媒体に配置され得る。
本発明における各実施形態はいずれも漸進の方式で説明され、各実施形態の間の同じまたは類似する部分は互いに参照すればよく、各実施形態の重点的に説明されたのは他の実施形態との相違点である。特に、システムの実施形態に対して、それは基本的に方法の実施形態と類似するため、簡単に説明し、関連する部分は方法の実施形態の一部の説明を参照すればよい。
上記は、本発明の実施形態にすぎず、本発明を限定するために使用されるものではない。当業者にとって、本発明は、様々な変更および変化があり得る。本発明の趣旨と原理から逸脱せず行った任意の修正、同等な置換、改善など、いずれも本発明の特許請求の範囲に含まれるものとするべきである。

Claims (9)

  1. ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するステップと、
    前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するステップであって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられるステップと、
    前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するステップであって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含むステップと、
    前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るステップと、
    前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るステップと、を含
    ここで、前記認識モデルを訓練するためのサンプルとして、サンプルユーザの認識すべきCT画像を採用し、前記認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練し、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含む、
    ことを特徴とする画像認識方法。
  2. ユーザの認識すべきCT画像を取得するステップは、
    ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得するステップと、
    前記オリジナルCT画像を分割して、前記ユーザの身体の特定部位に対応するCT画像を得るステップと、
    前記ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得るステップは、
    前記統計データの少なくとも一部を正規化して、処理後の統計データを得るステップと、
    前記処理後の統計データを前記予め訓練された認識モデルの第1の特徴抽出層に入力して前記第1の特徴表現を得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るステップは、
    前記認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得るステップと、
    前記処理後の認識すべきCT画像を前記予め訓練された認識モデルの第2の特徴抽出層に入力して前記第2の特徴表現を得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  5. 前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るステップは、
    前記第1の特徴表現と前記第2の特徴表現とを融合して融合特徴表現を得るステップと、
    前記融合特徴表現に基づいて、前記認識すべきCT画像の認識結果を得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  6. 前記認識モデル訓練は、
    少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとするステップと、
    前記訓練セット内の認識すべきCT画像によって前記認識モデルを初期訓練し、初期訓練された認識モデルを得るステップと、
    前記テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を前記初期訓練された認識モデルに入力して、前記初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得るステップと、
    前記初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  7. ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するための取得モジュールと、
    前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するための決定モジュールであって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられる、決定モジュールと、
    前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するための統計モジュールであって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含む、統計モジュールと、
    前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るための特徴抽出モジュールと、
    前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るための認識モジュールと、を含
    ここで、前記認識モデルを訓練するためのサンプルとして、サンプルユーザの認識すべきCT画像を採用し、前記認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練し、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含む、
    ことを特徴とする画像認識装置。
  8. コンピュータプログラムを記憶しているコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行されると、請求項1~6のいずれか1項に記載の方法が実施される、
    ことを特徴とするコンピュータ可読記憶媒体。
  9. メモリと、プロセッサと、前記メモリに記憶され、前記プロセッサ上で実行可能なコンピュータプログラムとを含む電子デバイスであって、前記プロセッサが前記コンピュータプログラムを実行すると、請求項1~6のいずれか1項に記載の方法を実施する、
    ことを特徴とする電子デバイス。
JP2023119935A 2023-04-19 2023-07-24 画像認識方法、装置、デバイスおよび記憶媒体 Active JP7459357B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202310422220.2A CN116152246B (zh) 2023-04-19 2023-04-19 一种图像识别方法、装置、设备及存储介质
CN202310422220.2 2023-04-19

Publications (1)

Publication Number Publication Date
JP7459357B1 true JP7459357B1 (ja) 2024-04-01

Family

ID=86362173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023119935A Active JP7459357B1 (ja) 2023-04-19 2023-07-24 画像認識方法、装置、デバイスおよび記憶媒体

Country Status (2)

Country Link
JP (1) JP7459357B1 (ja)
CN (1) CN116152246B (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112861831A (zh) 2021-04-25 2021-05-28 北京三快在线科技有限公司 一种目标物的识别方法、装置、存储介质及电子设备
CN113516210A (zh) 2021-09-14 2021-10-19 之江实验室 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置
CN113988162A (zh) 2021-10-20 2022-01-28 北京三快在线科技有限公司 模型训练及图像识别方法、装置、存储介质及电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165965A (ja) * 2003-12-05 2005-06-23 Canon Inc 画像認識システムおよび画像認識方法
CN109461495B (zh) * 2018-11-01 2023-04-14 腾讯科技(深圳)有限公司 一种医学图像的识别方法、模型训练的方法及服务器
CN111368893B (zh) * 2020-02-27 2023-07-25 Oppo广东移动通信有限公司 图像识别方法、装置、电子设备及存储介质
CN114758032B (zh) * 2022-06-15 2022-09-16 之江实验室 基于时空注意力模型的多相期ct图像分类系统及构建方法
CN115131500A (zh) * 2022-06-24 2022-09-30 沈阳东软智能医疗科技研究院有限公司 图像标注方法、装置、可读存储介质及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112861831A (zh) 2021-04-25 2021-05-28 北京三快在线科技有限公司 一种目标物的识别方法、装置、存储介质及电子设备
CN113516210A (zh) 2021-09-14 2021-10-19 之江实验室 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置
CN113988162A (zh) 2021-10-20 2022-01-28 北京三快在线科技有限公司 模型训练及图像识别方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN116152246A (zh) 2023-05-23
CN116152246B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
EP3961500A1 (en) Medical image detection method based on deep learning, and related device
TWI724669B (zh) 病灶檢測方法及其裝置及其設備及儲存媒體
WO2020118618A1 (zh) 一种乳腺肿块图像识别方法及装置
CN116977525B (zh) 一种图像渲染方法、装置、存储介质及电子设备
JP7459357B1 (ja) 画像認識方法、装置、デバイスおよび記憶媒体
CN116030247B (zh) 一种医学图像样本生成方法、装置、存储介质及电子设备
CN116630480A (zh) 一种交互式文本驱动图像编辑的方法、装置和电子设备
CN116229218B (zh) 一种模型训练、图像配准方法及装置
CN117911630B (zh) 一种三维人体建模的方法、装置、存储介质及电子设备
CN115082405B (zh) 颅内病灶的检测模型的训练方法、检测方法、装置及设备
CN116309924B (zh) 一种模型训练的方法、图像展示的方法及装置
CN114663362B (zh) 一种融合方法、装置以及设备
Raya et al. Semantic segmentation in egocentric video frames with deep learning for recognition of activities of daily living
CN116128940B (zh) 一种肋骨骨折检出假阳性的抑制方法、装置及设备
CN117726907B (zh) 一种建模模型的训练方法、三维人体建模的方法以及装置
CN117392485B (zh) 图像生成模型训练方法、业务执行方法、装置及介质
EP4123589A1 (en) Method and system for image processing
CN117893696A (zh) 一种三维人体数据生成方法、装置、存储介质及电子设备
CN117270688A (zh) 基于ar场景的防碰撞方法及装置
CN117911630A (zh) 一种三维人体建模的方法、装置、存储介质及电子设备
CN117522799A (zh) 一种医学图像分析方法、装置、存储介质及电子设备
CN116758062A (zh) 一种药物有效性评价方法及装置
CN117975202A (zh) 模型训练方法、业务执行方法、装置、介质及设备
CN112733715A (zh) 一种用于分型的神经网络模型及其应用
CN116168154A (zh) 一种预测方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R150 Certificate of patent or registration of utility model

Ref document number: 7459357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150