JP7459357B1 - 画像認識方法、装置、デバイスおよび記憶媒体 - Google Patents
画像認識方法、装置、デバイスおよび記憶媒体 Download PDFInfo
- Publication number
- JP7459357B1 JP7459357B1 JP2023119935A JP2023119935A JP7459357B1 JP 7459357 B1 JP7459357 B1 JP 7459357B1 JP 2023119935 A JP2023119935 A JP 2023119935A JP 2023119935 A JP2023119935 A JP 2023119935A JP 7459357 B1 JP7459357 B1 JP 7459357B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- recognized
- recognition model
- recognition
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000003860 storage Methods 0.000 title claims abstract description 22
- 238000002591 computed tomography Methods 0.000 claims abstract description 313
- 238000000605 extraction Methods 0.000 claims description 44
- 238000012549 training Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 17
- 230000003902 lesion Effects 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 10
- 238000012952 Resampling Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 208000006545 Chronic Obstructive Pulmonary Disease Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000010426 hand crafting Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
Description
ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するステップと、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するステップであって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられるステップと、
前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するステップであって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含むステップと、
前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るステップと、
前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るステップと、を含む。
ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得するステップと、
前記オリジナルCT画像を分割して、前記ユーザの身体の特定部位に対応するCT画像を得るステップと、
前記ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得るステップと、を含む。
前記統計データの少なくとも一部を正規化して、処理後の統計データを得るステップと、
前記処理後の統計データを前記予め訓練された認識モデルの第1の特徴抽出層に入力して前記第1の特徴表現を得るステップと、を含む。
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得るステップと、
前記処理後の認識すべきCT画像を前記予め訓練された認識モデルの第2の特徴抽出層に入力して前記第2の特徴表現を得るステップと、を含む。
前記第1の特徴表現と前記第2の特徴表現とを融合して融合特徴表現を得るステップと、
前記融合特徴表現に基づいて、前記認識すべきCT画像の認識結果を得るステップと、を含む。
各サンプルユーザの認識すべきCT画像を取得するステップであって、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含むステップと、
少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとするステップと、
前記訓練セット内の認識すべきCT画像によって前記認識モデルを初期訓練し、初期訓練された認識モデルを得るステップと、
前記テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を前記初期訓練された認識モデルに入力して、前記初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得るステップと、
前記初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練するステップと、を含む。
ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するための取得モジュールと、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するための決定モジュールであって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられる、決定モジュールと、
前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するための統計モジュールであって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含む、統計モジュールと、
前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るための特徴抽出モジュールと、
前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るための認識モジュールと、を含む。
ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得し、
前記オリジナルCT画像を分割して、前記ユーザの身体の特定部位に対応するCT画像を得、
前記ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得るために用いられる。
前記統計データの少なくとも一部を正規化して、処理後の統計データを得、
前記処理後の統計データを前記予め訓練された認識モデルの第1の特徴抽出層に入力して前記第1の特徴表現を得るために用いられる。
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得、
前記処理後の認識すべきCT画像を前記予め訓練された認識モデルの第2の特徴抽出層に入力して前記第2の特徴表現を得るために用いられる。
前記第1の特徴表現と前記第2の特徴表現とを融合して融合特徴表現を得、
前記融合特徴表現に基づいて、前記認識すべきCT画像の認識結果を得るために用いられる。
前記訓練モジュールは、具体的に、
各サンプルユーザの認識すべきCT画像を取得し、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含み、
少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとし、
前記訓練セット内の認識すべきCT画像によって前記認識モデルを初期訓練し、初期訓練された認識モデルを得、
前記テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を前記初期訓練された認識モデルに入力して、前記初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得、
前記初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練するために用いられる。
ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するための取得モジュール401と、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するための決定モジュール402であって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられる、決定モジュール402と、
前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するための統計モジュール403であって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含む、統計モジュール403と、
前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るための特徴抽出モジュール404と、
前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るための認識モジュール405と、を含む。
ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得し、
前記オリジナルCT画像を分割して、前記ユーザの身体の特定部位に対応するCT画像を得、
前記ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得るために用いられる。
前記統計データの少なくとも一部を正規化して、処理後の統計データを得、
前記処理後の統計データを前記予め訓練された認識モデルの第1の特徴抽出層に入力して前記第1の特徴表現を得るために用いられる。
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得、
前記処理後の認識すべきCT画像を前記予め訓練された認識モデルの第2の特徴抽出層に入力して前記第2の特徴表現を得るために用いられる。
前記第1の特徴表現と前記第2の特徴表現とを融合して融合特徴表現を得、
前記融合特徴表現に基づいて、前記認識すべきCT画像の認識結果を得るために用いられる。
前記訓練モジュール406は、具体的に、
各サンプルユーザの認識すべきCT画像を取得し、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含み、
少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとし、
前記訓練セット内の認識すべきCT画像によって前記認識モデルを初期訓練し、初期訓練された認識モデルを得、
前記テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を前記初期訓練された認識モデルに入力して、前記初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得、
前記初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練するために用いられる。
Claims (9)
- ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するステップと、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するステップであって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられるステップと、
前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するステップであって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含むステップと、
前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るステップと、
前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るステップと、を含み、
ここで、前記認識モデルを訓練するためのサンプルとして、サンプルユーザの認識すべきCT画像を採用し、前記認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練し、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含む、
ことを特徴とする画像認識方法。 - ユーザの認識すべきCT画像を取得するステップは、
ユーザのオリジナルコンピュータ断層撮影(CT)画像を取得するステップと、
前記オリジナルCT画像を分割して、前記ユーザの身体の特定部位に対応するCT画像を得るステップと、
前記ユーザの身体の特定部位に対応するCT画像をリサンプリングして、認識すべきCT画像を得るステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得るステップは、
前記統計データの少なくとも一部を正規化して、処理後の統計データを得るステップと、
前記処理後の統計データを前記予め訓練された認識モデルの第1の特徴抽出層に入力して前記第1の特徴表現を得るステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るステップは、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値を正規化して、処理後の認識すべきCT画像を得るステップと、
前記処理後の認識すべきCT画像を前記予め訓練された認識モデルの第2の特徴抽出層に入力して前記第2の特徴表現を得るステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るステップは、
前記第1の特徴表現と前記第2の特徴表現とを融合して融合特徴表現を得るステップと、
前記融合特徴表現に基づいて、前記認識すべきCT画像の認識結果を得るステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記認識モデルの訓練は、
少なくとも一部のサンプルユーザの認識すべきCT画像を訓練セットとし、他のサンプルユーザの認識すべきCT画像をテストセットとするステップと、
前記訓練セット内の認識すべきCT画像によって前記認識モデルを初期訓練し、初期訓練された認識モデルを得るステップと、
前記テストセット内の各認識すべきCT画像について、当該認識すべきCT画像を前記初期訓練された認識モデルに入力して、前記初期訓練された認識モデルによって当該認識すべきCT画像の認識結果を得るステップと、
前記初期訓練された認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - ユーザの認識すべきコンピュータ断層撮影(CT)画像を取得するための取得モジュールと、
前記認識すべきCT画像に含まれる各ボクセルに対応するCT値に基づいて、前記認識すべきCT画像に対応する画像ヒストグラムを決定するための決定モジュールであって、前記画像ヒストグラムは前記認識すべきCT画像に関わる各CT値に対応するボクセルの数を表すために用いられる、決定モジュールと、
前記画像ヒストグラムに基づいて、前記認識すべきCT画像の少なくとも1つの統計データを決定するための統計モジュールであって、前記統計データは、前記認識すべきCT画像に含まれる指定のボクセルに対応するCT値と、CT値が指定範囲内にあるボクセルの数がすべてのボクセルの総数に占める割合とを含む、統計モジュールと、
前記統計データを予め訓練された認識モデルの第1の特徴抽出層に入力して第1の特徴表現を得、前記認識すべきCT画像を前記認識モデルの第2の特徴抽出層に入力して第2の特徴表現を得るための特徴抽出モジュールと、
前記第1の特徴表現と前記第2の特徴表現とに基づいて、前記認識すべきCT画像の認識結果を得るための認識モジュールと、を含み、
ここで、前記認識モデルを訓練するためのサンプルとして、サンプルユーザの認識すべきCT画像を採用し、前記認識モデルによって得られた当該認識すべきCT画像の認識結果と、当該認識すべきCT画像の実際の認識結果との差を最小化することを最適化の目標として、前記認識モデルを訓練し、前記サンプルユーザは、身体の特定部位の少なくとも一部に病変を有する患者と、身体の特定部位の少なくとも一部に病変を有しない非患者とを含む、
ことを特徴とする画像認識装置。 - コンピュータプログラムを記憶しているコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行されると、請求項1~6のいずれか1項に記載の方法が実施される、
ことを特徴とするコンピュータ可読記憶媒体。 - メモリと、プロセッサと、前記メモリに記憶され、前記プロセッサ上で実行可能なコンピュータプログラムとを含む電子デバイスであって、前記プロセッサが前記コンピュータプログラムを実行すると、請求項1~6のいずれか1項に記載の方法を実施する、
ことを特徴とする電子デバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310422220.2A CN116152246B (zh) | 2023-04-19 | 2023-04-19 | 一种图像识别方法、装置、设备及存储介质 |
CN202310422220.2 | 2023-04-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7459357B1 true JP7459357B1 (ja) | 2024-04-01 |
Family
ID=86362173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023119935A Active JP7459357B1 (ja) | 2023-04-19 | 2023-07-24 | 画像認識方法、装置、デバイスおよび記憶媒体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7459357B1 (ja) |
CN (1) | CN116152246B (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861831A (zh) | 2021-04-25 | 2021-05-28 | 北京三快在线科技有限公司 | 一种目标物的识别方法、装置、存储介质及电子设备 |
CN113516210A (zh) | 2021-09-14 | 2021-10-19 | 之江实验室 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
CN113988162A (zh) | 2021-10-20 | 2022-01-28 | 北京三快在线科技有限公司 | 模型训练及图像识别方法、装置、存储介质及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165965A (ja) * | 2003-12-05 | 2005-06-23 | Canon Inc | 画像認識システムおよび画像認識方法 |
CN109461495B (zh) * | 2018-11-01 | 2023-04-14 | 腾讯科技(深圳)有限公司 | 一种医学图像的识别方法、模型训练的方法及服务器 |
CN111368893B (zh) * | 2020-02-27 | 2023-07-25 | Oppo广东移动通信有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN114758032B (zh) * | 2022-06-15 | 2022-09-16 | 之江实验室 | 基于时空注意力模型的多相期ct图像分类系统及构建方法 |
CN115131500A (zh) * | 2022-06-24 | 2022-09-30 | 沈阳东软智能医疗科技研究院有限公司 | 图像标注方法、装置、可读存储介质及电子设备 |
-
2023
- 2023-04-19 CN CN202310422220.2A patent/CN116152246B/zh active Active
- 2023-07-24 JP JP2023119935A patent/JP7459357B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861831A (zh) | 2021-04-25 | 2021-05-28 | 北京三快在线科技有限公司 | 一种目标物的识别方法、装置、存储介质及电子设备 |
CN113516210A (zh) | 2021-09-14 | 2021-10-19 | 之江实验室 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
CN113988162A (zh) | 2021-10-20 | 2022-01-28 | 北京三快在线科技有限公司 | 模型训练及图像识别方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116152246A (zh) | 2023-05-23 |
CN116152246B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3961500A1 (en) | Medical image detection method based on deep learning, and related device | |
TWI724669B (zh) | 病灶檢測方法及其裝置及其設備及儲存媒體 | |
WO2020118618A1 (zh) | 一种乳腺肿块图像识别方法及装置 | |
CN116977525B (zh) | 一种图像渲染方法、装置、存储介质及电子设备 | |
JP7459357B1 (ja) | 画像認識方法、装置、デバイスおよび記憶媒体 | |
CN116030247B (zh) | 一种医学图像样本生成方法、装置、存储介质及电子设备 | |
CN116630480A (zh) | 一种交互式文本驱动图像编辑的方法、装置和电子设备 | |
CN116229218B (zh) | 一种模型训练、图像配准方法及装置 | |
CN117911630B (zh) | 一种三维人体建模的方法、装置、存储介质及电子设备 | |
CN115082405B (zh) | 颅内病灶的检测模型的训练方法、检测方法、装置及设备 | |
CN116309924B (zh) | 一种模型训练的方法、图像展示的方法及装置 | |
CN114663362B (zh) | 一种融合方法、装置以及设备 | |
Raya et al. | Semantic segmentation in egocentric video frames with deep learning for recognition of activities of daily living | |
CN116128940B (zh) | 一种肋骨骨折检出假阳性的抑制方法、装置及设备 | |
CN117726907B (zh) | 一种建模模型的训练方法、三维人体建模的方法以及装置 | |
CN117392485B (zh) | 图像生成模型训练方法、业务执行方法、装置及介质 | |
EP4123589A1 (en) | Method and system for image processing | |
CN117893696A (zh) | 一种三维人体数据生成方法、装置、存储介质及电子设备 | |
CN117270688A (zh) | 基于ar场景的防碰撞方法及装置 | |
CN117911630A (zh) | 一种三维人体建模的方法、装置、存储介质及电子设备 | |
CN117522799A (zh) | 一种医学图像分析方法、装置、存储介质及电子设备 | |
CN116758062A (zh) | 一种药物有效性评价方法及装置 | |
CN117975202A (zh) | 模型训练方法、业务执行方法、装置、介质及设备 | |
CN112733715A (zh) | 一种用于分型的神经网络模型及其应用 | |
CN116168154A (zh) | 一种预测方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231227 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459357 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |