JP2022517769A - 三次元ターゲット検出及びモデルの訓練方法、装置、機器、記憶媒体及びコンピュータプログラム - Google Patents
三次元ターゲット検出及びモデルの訓練方法、装置、機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022517769A JP2022517769A JP2021539662A JP2021539662A JP2022517769A JP 2022517769 A JP2022517769 A JP 2022517769A JP 2021539662 A JP2021539662 A JP 2021539662A JP 2021539662 A JP2021539662 A JP 2021539662A JP 2022517769 A JP2022517769 A JP 2022517769A
- Authority
- JP
- Japan
- Prior art keywords
- actual
- image
- target detection
- predicted
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本願は、2019年12月27日に提出された出願番号201911379639.4の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
(1)
はそれぞれ、i番目のサブ画像に対応する予測所定点位置を表す。
はそれぞれ、i番目のサブ画像に対応する予測所定点位置を表す。
はそれぞれ、x、y、z方向での、第1位置損失値のサブ損失値を表す。
(2)
はそれぞれ、i番目のサブ画像に対応する予測領域寸法を表す。
はそれぞれ、i番目のサブ画像に対応する実際領域寸法を表す。
はそれぞれ、l(長さ)、w(幅)、h(高さ)方向での、第2位置損失値のサブ損失値を表す。
(3)
を得るための式は、式(4)に示すとおりである。
(4)
は、x,y,z方向での第1損失値のサブ損失値にそれぞれ対応する重みを表す。
は、l(長さ)、w(幅)、h(高さ)方向での第2位置損失値のサブ損失値にそれぞれ対応する重みを表す。
は、信頼度損失値に対応する重みを表す。
(5)
で表されてもよい。ここで、l(長さ)、w(幅)、h(高さ)方向での所定寸法の表現式は、式(6)に示すとおりである。
(6)
はそれぞれ、x、y、z方向での、制約された実際所定点位置の数値を表す。
はそれぞれ、(長さ)、w(幅)、h(高さ)方向での、所定寸法の寸法を表す。
はそれぞれ、x、y、z方向での、実際所定点位置の数値を表す。
は、端数切り捨て処理を表す。
と記される。全てのアノテーション枠の縦横高さの平均値を算出して所定の寸法とし、
と記す。
をsigmoid関数により区間[0,1]にマッピングし、該サブ画像内での相対的位置とする。具体的には、式(5)に示すとおりである。ここで、枠の信頼度予測値
をsigmoid関数により、区間[0,1]にマッピングする。前記
は、サブ画像の予測枠が該MRI画像における前十字靭帯の実際位置情報である確率値を表す。具体的には、式(5)に示すとおりである。
及び真値ベクトル
について、バイナリクロスエントロピー及び分散関数を利用して損失関数を演算する。式は、式(1)から(4)である。ここで、
はそれぞれ、寸法S×S×Sの中心点座標、縦横高さ及び信頼度の予測ベクトルである。
はそれぞれ、寸法S×S×Sの中心点座標、縦横高さ及び信頼度の真値ベクトルであり、
はそれぞれ、損失関数の各構成部の重み値である。
(9)
Claims (20)
- サンプル三次元画像を取得することであって、前記サンプル三次元画像に、三次元ターゲットの実際領域の実際位置情報が付記されている、ことと、
三次元ターゲット検出モデルを利用して前記サンプル三次元画像に対してターゲット検出を行い、前記サンプル三次元画像の1つ又は複数のサブ画像に対応する1つ又は複数の予測領域情報を得ることであって、各前記予測領域情報は、予測領域の予測位置情報及び予測信頼度を含む、ことと、
前記実際位置情報及び前記1つ又は複数の予測領域情報を利用して、前記三次元ターゲット検出モデルの損失値を決定することと、
前記損失値を利用して、前記三次元ターゲット検出モデルのパラメータを調整することと、を含む、三次元ターゲットモデルの訓練方法。 - 前記予測領域情報の数は、所定の数であり、前記所定の数は、前記三次元ターゲット検出モデルの出力寸法とマッチングし、
前記実際位置情報及び前記1つ又は複数の予測領域情報を利用して、前記三次元ターゲット検出モデルの損失値を決定することは、
前記実際位置情報を利用して、前記所定の数のサブ画像にそれぞれ対応する所定の数の実際領域情報を生成することであって、各前記実際領域情報は、前記実際位置情報及び実際信頼度を含み、前記実際領域の所定点の所在するサブ画像に対応する実際信頼度は、第1値であり、残りの前記サブ画像に対応する実際信頼度は、第1値未満である第2値である、ことと、
前記所定の数のサブ画像に対応する前記実際位置情報及び前記予測位置情報を利用して、位置損失値を得ることと、
前記所定の数のサブ画像に対応する前記実際信頼度及び前記予測信頼度を利用して、信頼度損失値を得ることと、
前記位置損失値及び前記信頼度損失値に基づいて、前記三次元ターゲット検出モデルの損失値を得ることと、を含むことを特徴とする
請求項1に記載の訓練方法。 - 前記実際位置情報は、前記実際領域の実際所定点位置及び実際領域寸法を含み、前記予測位置情報は、前記予測領域の予測所定点位置及び予測領域寸法を含み、
前記所定の数のサブ画像に対応する前記実際位置情報及び前記予測位置情報を利用して位置損失値を得ることは、
バイナリクロスエントロピーを利用して、前記所定の数のサブ画像に対応する前記実際所定点位置及び前記予測所定点位置に対して演算を行い、第1位置損失値を得ることと、
平均二乗誤差関数を利用して、前記所定の数のサブ画像に対応する前記実際領域寸法及び前記予測領域寸法に対して演算を行い、第2位置損失値を得ることと、を含み、
前記所定の数のサブ画像に対応する前記実際信頼度及び前記予測信頼度を利用して、信頼度損失値を得ることは、
バイナリクロスエントロピーを利用して、前記所定の数のサブ画像に対応する前記実際信頼度及び前記予測信頼度に対して演算を行い、信頼度損失値を得ることを含み、
前記位置損失値及び前記信頼度損失値に基づいて、前記三次元ターゲット検出モデルの損失値を得ることは、
前記第1位置損失値、前記第2位置損失値及び前記信頼度損失値に対して加重処理を行い、前記三次元ターゲット検出モデルの損失値を得ることを含むことを特徴とする
請求項2に記載の訓練方法。 - 前記実際位置情報及び前記1つ又は複数の予測領域情報を利用して、前記三次元ターゲット検出モデルの損失値を決定する前に、
前記実際位置情報の値、前記1つ又は複数の予測位置情報及び前記予測信頼度をいずれも所定の数値範囲内に制約することを更に含み、
前記実際位置情報及び前記1つ又は複数の予測領域情報を利用して、前記三次元ターゲット検出モデルの損失値を決定することは、
制約された前記実際位置情報及び前記1つ又は複数の予測領域情報を利用して、前記三次元ターゲット検出モデルの損失値を決定することを含むことを特徴とする
請求項1~3のうちいずれか一項に記載の訓練方法。 - 前記実際位置情報は、前記実際領域の実際所定点位置及び実際領域寸法を含み、前記予測位置情報は、前記予測領域の予測所定点位置及び予測領域寸法を含み、
前記実際位置情報の値をいずれも所定の数値範囲内に制約することは、
前記実際領域寸法と所定寸法との第1比を得て、前記第1比の対数値を、制約された実際領域寸法とすることと、
前記実際所定点位置と前記サブ画像の画像寸法との第2比を得て、前記第2比の小数部分を、制約された前記実際所定点位置とすることと、を含み、
前記1つ又は複数の予測位置情報及び前記予測信頼度をいずれも所定の数値範囲内に制約することは、
所定のマッピング関数を利用して、前記1つ又は複数の予測所定点位置及び予測信頼度をそれぞれ前記所定の数値範囲内にマッピングすることを含むことを特徴とする
請求項4に記載の訓練方法。 - 前記実際所定点位置と前記サブ画像の画像寸法との第2比を得ることは、
前記サンプル三次元画像の画像寸法と前記サブ画像の数との第3比を算出し、前記実際所定点位置と前記第3比との第2比を得ることを含むことを特徴とする
請求項5に記載の訓練方法。 - 前記所定の数値範囲は、0から1までの範囲であり、及び/又は、前記所定の寸法は、複数のサンプル三次元画像における実際領域の領域寸法の平均値であることを特徴とする
請求項5に記載の訓練方法。 - 三次元ターゲット検出モデルを利用して前記サンプル三次元画像に対してターゲット検出を行い、1つ又は複数の予測領域情報を得る前に、
前記サンプル三次元画像を三原色チャネル画像に変換するという前処理工程、
前記サンプル三次元画像の寸法を所定の画像寸法にスケーリングするという前処理工程、及び
前記サンプル三次元画像に対して正規化及び標準化処理を行うという前処理工程のうちの少なくとも1つを更に含むことを特徴とする
請求項1に記載の訓練方法。 - 被検三次元画像を取得することと、
三次元ターゲット検出モデルを利用して、前記被検三次元画像に対してターゲット検出を行い、前記被検三次元画像における三次元ターゲットに対応するターゲット領域情報を得ることであって、前記三次元ターゲット検出モデルは、請求項1から8のうちいずれか一項に記載の三次元ターゲット検出モデルの訓練方法によって得られたものである、ことと、を含む、三次元ターゲット検出方法。 - サンプル三次元画像を取得するように構成される画像取得モジュールであって、前記サンプル三次元画像に、三次元ターゲットの実際領域の実際位置情報が付記されている、画像取得モジュールと、
三次元ターゲット検出モデルを利用して前記サンプル三次元画像に対してターゲット検出を行い、前記サンプル三次元画像の1つ又は複数のサブ画像に対応する1つ又は複数の予測領域情報を得るように構成されるターゲット検出モジュールであって、各前記予測領域情報は、予測領域の予測位置情報及び予測信頼度を含む、ターゲット検出モジュールと、
前記実際位置情報及び前記1つ又は複数の予測領域情報を利用して、前記三次元ターゲット検出モデルの損失値を決定するように構成される損失決定モジュールと、
前記損失値を利用して、前記三次元ターゲット検出モデルのパラメータを調整するように構成されるパラメータ調整モジュールと、を備える、三次元ターゲット検出モデル訓練装置。 - 前記予測領域情報の数は、所定の数であり、前記所定の数は、前記三次元ターゲット検出モデルの出力寸法とマッチングし、前記損失決定モジュールは、
前記実際位置情報を利用して、前記所定の数のサブ画像にそれぞれ対応する所定の数の実際領域情報を生成するように構成される実際領域情報生成サブモジュールであって、各前記実際領域情報は、前記実際位置情報及び実際信頼度を含み、前記実際領域の所定点の所在するサブ画像に対応する実際信頼度は、第1値であり、残りの前記サブ画像に対応する実際信頼度は、第1値未満である第2値である、実際領域情報生成サブモジュールと、
前記所定の数のサブ画像に対応する前記実際位置情報及び前記予測位置情報を利用して、位置損失値を得るように構成される位置損失演算サブモジュールと、
前記所定の数のサブ画像に対応する前記実際信頼度及び前記予測信頼度を利用して、信頼度損失値を得るように構成される信頼度損失演算サブモジュールと、
前記位置損失値及び前記信頼度損失値に基づいて、前記三次元ターゲット検出モデルの損失値を得るように構成されるモデル損失演算サブモジュールと、を備えることを特徴とする
請求項10に記載の装置。 - 前記実際位置情報は、前記実際領域の実際所定点位置及び実際領域寸法を含み、前記予測位置情報は、前記予測領域の予測所定点位置及び予測領域寸法を含み、前記位置損失演算サブモジュールは、
バイナリクロスエントロピーを利用して、前記所定の数のサブ画像に対応する前記実際所定点位置及び前記予測所定点位置に対して演算を行い、第1位置損失値を得るように構成される第1位置損失演算部と、
平均二乗誤差関数を利用して、前記所定の数のサブ画像に対応する前記実際領域寸法及び前記予測領域寸法に対して演算を行い、第2位置損失値を得るように構成される第2位置損失演算部と、を備え、
前記信頼度損失演算サブモジュールは更に、バイナリクロスエントロピーを利用して、前記所定の数のサブ画像に対応する前記実際信頼度及び前記予測信頼度に対して演算を行い、信頼度損失値を得るように構成され、
前記モデル損失演算サブモジュールは更に、前記第1位置損失値、前記第2位置損失値及び前記信頼度損失値に対して加重処理を行い、前記三次元ターゲット検出モデルの損失値を得るように構成されることを特徴とする
請求項11に記載の装置。 - 前記実際位置情報の値、前記1つ又は複数の予測位置情報及び前記予測信頼度をいずれも所定の数値範囲内に制約するように構成される制約モジュールを更に備え、
前記損失決定モジュールは更に、制約された前記実際位置情報及び前記1つ又は複数の予測領域情報を利用して、前記三次元ターゲット検出モデルの損失値を決定するように構成されることを特徴とする
請求項10~12のうちいずれか一項に記載の装置。 - 前記実際位置情報は、前記実際領域の実際所定点位置及び実際領域寸法を含み、前記予測位置情報は、前記予測領域の予測所定点位置及び予測領域寸法を含み、前記数値制約モジュールは、
前記実際領域寸法と所定寸法との第1比を得て、前記第1比の対数値を、制約された実際領域寸法とするように構成される第1制約サブモジュールと、
前記実際所定点位置と前記サブ画像の画像寸法との第2比を得て、前記第2比の小数部分を、制約された前記実際所定点位置とするように構成される第2制約サブモジュールと、
所定のマッピング関数を利用して、前記1つ又は複数の予測所定点位置及び予測信頼度をそれぞれ前記所定の数値範囲内にマッピングするように構成される第3制約サブモジュールと、を備えることを特徴とする
請求項13に記載の装置。 - 前記第2制約サブモジュールは更に、前記サンプル三次元画像の画像寸法と前記サブ画像の数との第3比を算出し、前記実際所定点位置と前記第3比との第2比を得るように構成されることを特徴とする
請求項14に記載の装置。 - 前記サンプル三次元画像を三原色チャネル画像に変換し、前記サンプル三次元画像の寸法を所定の画像寸法にスケーリングし、前記サンプル三次元画像に対して正規化及び標準化処理を行うように構成される前処理モジュールを更に備えることを特徴とする
請求項10に記載の装置。 - 被検三次元画像を取得するように構成される画像取得モジュールと、
三次元ターゲット検出モデルを利用して、前記被検三次元画像に対してターゲット検出を行い、前記被検三次元画像における三次元ターゲットに対応するターゲット領域情報を得るように構成されるターゲット検出モジュールであって、前記三次元ターゲット検出モデルは、請求項10に記載の三次元ターゲット検出モデル訓練装置で得られたものである、ターゲット検出モジュールと、を備える、三次元ターゲット検出装置。 - 互いに結合されたメモリ及びプロセッサを備える電子機器であって、前記プロセッサは、メモリに記憶されたプログラム命令を実行して、請求項1~8のうちいずれか一項に記載の三次元ターゲット検出モデルの訓練方法又は請求項9に記載の三次元ターゲット検出方法を実現するように構成される、電子機器。
- プロセッサにより実行されるときに、前記プロセッサに請求項1~8のうちいずれか一項に記載の三次元ターゲット検出モデルの訓練方法、又は請求項9に記載の三次元ターゲット検出方法を実現させるためのプログラム命令を記憶した、コンピュータ可読記憶媒体。
- 電子機器で実行されるときに、前記電子機器におけるプロセッサに、請求項1~8のうちいずれか一項に記載の三次元ターゲット検出モデルの訓練方法、又は請求項9に記載の三次元ターゲット検出方法を実現させるためのコンピュータ可読コードを含む、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911379639.4 | 2019-12-27 | ||
CN201911379639.4A CN111179247A (zh) | 2019-12-27 | 2019-12-27 | 三维目标检测方法及其模型的训练方法及相关装置、设备 |
PCT/CN2020/103634 WO2021128825A1 (zh) | 2019-12-27 | 2020-07-22 | 三维目标检测及模型的训练方法及装置、设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022517769A true JP2022517769A (ja) | 2022-03-10 |
Family
ID=70654208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021539662A Pending JP2022517769A (ja) | 2019-12-27 | 2020-07-22 | 三次元ターゲット検出及びモデルの訓練方法、装置、機器、記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220351501A1 (ja) |
JP (1) | JP2022517769A (ja) |
CN (1) | CN111179247A (ja) |
TW (1) | TW202125415A (ja) |
WO (1) | WO2021128825A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179247A (zh) * | 2019-12-27 | 2020-05-19 | 上海商汤智能科技有限公司 | 三维目标检测方法及其模型的训练方法及相关装置、设备 |
CN112258572A (zh) * | 2020-09-30 | 2021-01-22 | 北京达佳互联信息技术有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN112712119B (zh) * | 2020-12-30 | 2023-10-24 | 杭州海康威视数字技术股份有限公司 | 确定目标检测模型的检测准确率的方法和装置 |
CN113435260A (zh) * | 2021-06-07 | 2021-09-24 | 上海商汤智能科技有限公司 | 图像检测方法和相关训练方法及相关装置、设备及介质 |
CN113938895B (zh) * | 2021-09-16 | 2023-09-05 | 中铁第四勘察设计院集团有限公司 | 铁路无线信号的预测方法、装置、电子设备及存储介质 |
CN114119588A (zh) * | 2021-12-02 | 2022-03-01 | 北京大恒普信医疗技术有限公司 | 一种训练眼底黄斑病变区域检测模型的方法、装置及系统 |
CN114005110B (zh) * | 2021-12-30 | 2022-05-17 | 智道网联科技(北京)有限公司 | 3d检测模型训练方法与装置、3d检测方法与装置 |
CN115457036B (zh) * | 2022-11-10 | 2023-04-25 | 中国平安财产保险股份有限公司 | 检测模型训练方法、智能点数方法和相关设备 |
CN117315402A (zh) * | 2023-11-02 | 2023-12-29 | 北京百度网讯科技有限公司 | 三维对象检测模型的训练方法及三维对象检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108257128A (zh) * | 2018-01-30 | 2018-07-06 | 浙江大学 | 一种基于3d卷积神经网络的肺结节检测装置的建立方法 |
US20190050981A1 (en) * | 2017-08-09 | 2019-02-14 | Shenzhen Keya Medical Technology Corporation | System and method for automatically detecting a target object from a 3d image |
CN109492697A (zh) * | 2018-11-15 | 2019-03-19 | 厦门美图之家科技有限公司 | 图片检测网络训练方法及图片检测网络训练装置 |
EP3462373A1 (en) * | 2017-10-02 | 2019-04-03 | Promaton Holding B.V. | Automated classification and taxonomy of 3d teeth data using deep learning methods |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229489B (zh) * | 2016-12-30 | 2020-08-11 | 北京市商汤科技开发有限公司 | 关键点预测、网络训练、图像处理方法、装置及电子设备 |
JP6799169B2 (ja) * | 2017-03-17 | 2020-12-09 | 本田技研工業株式会社 | マルチモーダル融合による3dオブジェクト検出と配向推定の結合 |
US10748036B2 (en) * | 2017-11-21 | 2020-08-18 | Nvidia Corporation | Training a neural network to predict superpixels using segmentation-aware affinity loss |
US10140544B1 (en) * | 2018-04-02 | 2018-11-27 | 12 Sigma Technologies | Enhanced convolutional neural network for image segmentation |
CN108648178A (zh) * | 2018-04-17 | 2018-10-12 | 杭州依图医疗技术有限公司 | 一种影像结节检测的方法及装置 |
CN108986085B (zh) * | 2018-06-28 | 2021-06-01 | 深圳视见医疗科技有限公司 | Ct图像肺结节检测方法、装置、设备及可读存储介质 |
CN109147254B (zh) * | 2018-07-18 | 2021-05-18 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
CN109102502B (zh) * | 2018-08-03 | 2021-07-23 | 西北工业大学 | 基于三维卷积神经网络的肺结节检测方法 |
CN109685768B (zh) * | 2018-11-28 | 2020-11-20 | 心医国际数字医疗系统(大连)有限公司 | 基于肺部ct序列的肺结节自动检测方法及系统 |
CN109635685B (zh) * | 2018-11-29 | 2021-02-12 | 北京市商汤科技开发有限公司 | 目标对象3d检测方法、装置、介质及设备 |
CN109685152B (zh) * | 2018-12-29 | 2020-11-20 | 北京化工大学 | 一种基于dc-spp-yolo的图像目标检测方法 |
CN109902556A (zh) * | 2019-01-14 | 2019-06-18 | 平安科技(深圳)有限公司 | 行人检测方法、系统、计算机设备及计算机可存储介质 |
CN109886307A (zh) * | 2019-01-24 | 2019-06-14 | 西安交通大学 | 一种基于卷积神经网络的图像检测方法及系统 |
CN109816655B (zh) * | 2019-02-01 | 2021-05-28 | 华院计算技术(上海)股份有限公司 | 基于ct图像的肺结节图像特征检测方法 |
CN110046572A (zh) * | 2019-04-15 | 2019-07-23 | 重庆邮电大学 | 一种基于深度学习的地标建筑物识别与检测方法 |
CN110223279B (zh) * | 2019-05-31 | 2021-10-08 | 上海商汤智能科技有限公司 | 一种图像处理方法和装置、电子设备 |
CN110533684B (zh) * | 2019-08-22 | 2022-11-25 | 杭州德适生物科技有限公司 | 一种染色体核型图像切割方法 |
CN110543850B (zh) * | 2019-08-30 | 2022-07-22 | 上海商汤临港智能科技有限公司 | 目标检测方法及装置、神经网络训练方法及装置 |
CN110598620B (zh) * | 2019-09-06 | 2022-05-06 | 腾讯科技(深圳)有限公司 | 基于深度神经网络模型的推荐方法和装置 |
CN111179247A (zh) * | 2019-12-27 | 2020-05-19 | 上海商汤智能科技有限公司 | 三维目标检测方法及其模型的训练方法及相关装置、设备 |
-
2019
- 2019-12-27 CN CN201911379639.4A patent/CN111179247A/zh not_active Withdrawn
-
2020
- 2020-07-22 WO PCT/CN2020/103634 patent/WO2021128825A1/zh active Application Filing
- 2020-07-22 JP JP2021539662A patent/JP2022517769A/ja active Pending
- 2020-12-11 TW TW109143832A patent/TW202125415A/zh unknown
-
2022
- 2022-06-23 US US17/847,862 patent/US20220351501A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190050981A1 (en) * | 2017-08-09 | 2019-02-14 | Shenzhen Keya Medical Technology Corporation | System and method for automatically detecting a target object from a 3d image |
EP3462373A1 (en) * | 2017-10-02 | 2019-04-03 | Promaton Holding B.V. | Automated classification and taxonomy of 3d teeth data using deep learning methods |
CN108257128A (zh) * | 2018-01-30 | 2018-07-06 | 浙江大学 | 一种基于3d卷积神经网络的肺结节检测装置的建立方法 |
CN109492697A (zh) * | 2018-11-15 | 2019-03-19 | 厦门美图之家科技有限公司 | 图片检测网络训练方法及图片检测网络训练装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111179247A (zh) | 2020-05-19 |
WO2021128825A1 (zh) | 2021-07-01 |
TW202125415A (zh) | 2021-07-01 |
US20220351501A1 (en) | 2022-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022517769A (ja) | 三次元ターゲット検出及びモデルの訓練方法、装置、機器、記憶媒体及びコンピュータプログラム | |
JP6947759B2 (ja) | 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法 | |
US20230038364A1 (en) | Method and system for automatically detecting anatomical structures in a medical image | |
RU2677764C2 (ru) | Координатная привязка медицинских изображений | |
CN107909622B (zh) | 模型生成方法、医学成像的扫描规划方法及医学成像系统 | |
JP6885517B1 (ja) | 診断支援装置及びモデル生成装置 | |
TW202025137A (zh) | 圖像處理方法及其裝置、電子設備及電腦可讀儲存媒體 | |
CN110853111B (zh) | 医学影像处理系统、模型训练方法及训练装置 | |
CN111724904A (zh) | 用于针对医学扫描的患者建模的多任务渐进式网络 | |
US20190130565A1 (en) | Method of processing medical image, and medical image processing apparatus performing the method | |
US20210248716A1 (en) | Systems and methods for consistent presentation of medical images using deep neural networks | |
CN110880366A (zh) | 一种医学影像处理系统 | |
CN114387317B (zh) | Ct图像和mri三维图像的配准方法、装置 | |
CN108701360A (zh) | 图像处理系统和方法 | |
JPWO2019220871A1 (ja) | 胸部x線画像の異常表示制御方法、異常表示制御プログラム、異常表示制御装置、及びサーバ装置 | |
CN116869555A (zh) | 扫描协议调节方法、装置以及存储介质 | |
US11080866B2 (en) | Dynamic image processing method and dynamic image processing device | |
CN115841476A (zh) | 肝癌患者生存期预测方法、装置、设备及介质 | |
Chernyshov et al. | Automated Segmentation and Quantification of the Right Ventricle in 2-D Echocardiography | |
JP2023038637A (ja) | 寸法データ算出装置、寸法データ算出方法、プログラム、製品製造システム、及び端末装置 | |
RU2478337C2 (ru) | Способ определения контура сердца на флюорографических снимках | |
CN112669405A (zh) | 图像重建方法、系统、可读存储介质和设备 | |
US20190095579A1 (en) | Biomechanical model generation for human or animal torsi | |
US20230046302A1 (en) | Blood flow field estimation apparatus, learning apparatus, blood flow field estimation method, and program | |
US20230169653A1 (en) | Medical image processing apparatus, medical image processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230307 |