JP7143931B2 - 制御方法、学習装置、識別装置及びプログラム - Google Patents
制御方法、学習装置、識別装置及びプログラム Download PDFInfo
- Publication number
- JP7143931B2 JP7143931B2 JP2021503238A JP2021503238A JP7143931B2 JP 7143931 B2 JP7143931 B2 JP 7143931B2 JP 2021503238 A JP2021503238 A JP 2021503238A JP 2021503238 A JP2021503238 A JP 2021503238A JP 7143931 B2 JP7143931 B2 JP 7143931B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinate values
- discriminator
- feature points
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000000605 extraction Methods 0.000 claims description 55
- 230000010365 information processing Effects 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 21
- 238000010586 diagram Methods 0.000 description 32
- 230000015654 memory Effects 0.000 description 21
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 10
- 230000000694 effects Effects 0.000 description 5
- 241000251468 Actinopterygii Species 0.000 description 4
- 210000003423 ankle Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
として前記コンピュータを機能させる。
図1は、本実施形態における情報処理システム100の概略構成を示す。情報処理システム100は、2つの学習モデル(それぞれ、「第1学習モデル」、「第2学習モデル」とも呼ぶ。)を用いた画像内の特徴点の抽出に関する処理を行う。
図1は、学習装置10及び識別装置30のハードウェア構成についても示している。ここで、学習装置10及び識別装置30のハードウェア構成について、引き続き図1を参照して説明する。
次に、学習装置10が実行する学習処理の詳細について説明する。
図2は、情報処理システム100の機能ブロック図である。図2に示すように、学習装置10のプロセッサ11は、機能的には、第1学習部14と、候補領域設定部15と、第2学習部16とを備える。
図4は、学習装置10が実行する学習処理の手順を示すフローチャートである。学習装置10は、図4に示すフローチャートの処理を、情報処理システム100が抽出すべき特徴点の種類毎に実行する。
次に、図2に示す学習装置10の機能構成に基づく効果について説明する。
次に、識別装置30が実行する識別処理の詳細について説明する。
(1)機能ブロック
識別装置30の機能的な構成について、再び図2の機能ブロック図を参照して説明する。図2に示すように、識別装置30のプロセッサ31は、機能的には、第1識別器処理部34と、候補領域設定部35と、第2識別器処理部36と、特徴点抽出部37と、を備える。
次に、識別装置30による処理の具体例について、図5及び図6を参照して説明する。
図7は、識別装置30が実行する識別処理の手順を示すフローチャートである。識別装置30は、図7に示すフローチャートの処理を、対象画像Imが入力された場合に、検出すべき特徴点の種類毎に実行する。
次に、図2に示す識別装置30の機能構成に基づく効果について説明する。
次に、上述の実施形態に好適な変形例について説明する。以下に説明する変形例は、任意に組み合わせて上述の実施形態に適用してもよい。
学習装置10は、図4のステップS13において、第1識別器による予測座標値Cp1と、これに対応する教師ラベル22が示す正解座標値との差のばらつきに基づき、候補領域ACを決定するための領域パラメータを生成した。しかし、候補領域ACの決定方法は、これに限定されない。以下では、候補領域ACの他の決定方法(第2~第4の決定方法)について具体的に説明する。
{(y_min1,x_min1,y_max1,x_max1),{(y_min2,x_min2, y_max2, x_max2),, ….}
を予め記憶しておく。ここでは、学習装置10は、一例として、矩形領域の頂点のうち、x座標及びy座標が最小となる頂点と、x座標及びy座標が最大となる頂点とをそれぞれ示す座標の組(例えば図12(A)に示す位置T11、T12の座標の組)を、候補パラメータとして記憶する。そして、学習装置10は、それらの各候補パラメータに基づく候補領域ACを切り出した切出し画像Ic1を第2識別器に入力することで、候補パラメータ毎に信頼度マップMcを取得する。そして、学習装置10は、取得した信頼度マップMcの精度が最大となる候補パラメータを、第1学習器が出力すべき正解データ(即ち教師ラベル22)として採用する。
図1に示す情報処理システム100の構成は一例であり、本発明を適用可能な構成はこれに限定されない。
識別装置30は、特徴点抽出部37に相当する機能を有しなくともよい。
情報処理システムが実行する制御方法であって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、
前記第1識別器に前記教師画像を入力することで出力される予測座標値に基づいて、前記教師画像から前記特徴点の候補領域を設定し、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成し、
前記第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、
前記第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する、制御方法。
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習部と、
前記第1識別器に前記教師画像を入力することで出力される予測座標値に基づいて、前記教師画像から前記特徴点の候補領域を設定する候補領域設定部と、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習部と、
を有する学習装置。
前記候補領域設定部は、前記予測座標値と、当該予測座標値に対する前記正解座標値との差を複数の前記教師画像に対して算出し、算出した前記差のばらつきに基づき、前記予測座標値から前記候補領域を設定する、付記2に記載の学習装置。
前記特徴点に関する正解座標値は、当該特徴点に対する候補領域を指定する複数の正解座標値であり、
前記第1学習部は、前記教師画像と、前記複数の正解座標値とに基づき、入力された画像から前記候補領域を指定する複数の予測座標値を出力する前記第1識別器を生成し、
前記候補領域設定部は、前記複数の予測座標値から前記候補領域を設定する、付記2に記載の学習装置。
前記第1学習部は、前記複数の正解座標値の複数の候補のうち、当該候補の各々が示す候補領域に対する前記信頼度マップの精度が最大となる候補を選定し、当該候補と、前記教師画像とに基づき、入力された画像から前記候補領域を指定する複数の予測座標値を出力する前記第1識別器を生成する、付記4に記載の学習装置。
前記候補領域設定部は、前記予測座標値から前記候補領域を設定するためのパラメータを生成する場合に、前記パラメータに対する複数の候補の各々に対する前記信頼度マップの精度に基づき、前記パラメータとして用いる前記候補を決定する、付記2に記載の学習装置。
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理部と、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定部と、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理部と、
を備える識別装置。
前記信頼度マップに基づき前記特徴点の候補となる座標値を算出し、当該座標値に対応する信頼度が所定の閾値以上の場合に、当該座標値を前記特徴点の座標値として決定する特徴点抽出部をさらに備える、付記6に記載の識別装置。
前記特徴点抽出部は、前記信頼度マップの重心位置を、前記特徴点の座標値として決定する、付記7または8に記載の識別装置。
前記特徴点抽出部は、前記信頼度の極大点となる座標値を、前記特徴点の座標値として決定する、付記7または8に記載の識別装置。
前記特徴点抽出部は、前記信頼度マップを近似させた関数に基づき、前記特徴点の座標値を決定する、付記7~10のいずれか一項に記載の識別装置。
前記候補領域設定部は、前記第1識別器が出力する予測座標値から前記候補領域を設定するためのパラメータである領域パラメータを記憶した記憶装置から読み出した当該領域パラメータと、前記予測座標値とに基づき、前記候補領域を設定する、付記6~10のいずれか一項に記載の識別装置。
学習装置が実行する制御方法であって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、
前記第1識別器に前記教師画像を入力することで出力される予測座標値に基づいて、前記教師画像から前記特徴点の候補領域を設定し、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する、制御方法。
識別装置が実行する制御方法であって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する、制御方法。
コンピュータが実行するプログラムであって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習部と、
前記第1識別器に前記教師画像を入力することで出力される予測座標値に基づいて、前記教師画像から前記特徴点の候補領域を設定する候補領域設定部と、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習部
として前記コンピュータを機能させる、プログラム。
コンピュータが実行するプログラムであって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理部と、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定部と、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理部
として前記コンピュータを機能させる、プログラム。
11、31 プロセッサ
12、32 メモリ
20 記憶装置
21 教師画像
22 教師ラベル
23 第1識別器情報
24 領域パラメータ情報
25 第2識別器情報
30 識別装置
13、33 インターフェース
100、100A、100B 情報処理システム
Claims (10)
- 情報処理システムが実行する制御方法であって、
対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された前記サンプル画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、
前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定し、
前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成し、
前記第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、
前記第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する、制御方法。 - 対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習手段と、
前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定する候補領域設定手段と、
前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習手段と、
を有する学習装置。 - 前記候補領域設定手段は、前記予測座標値と、当該予測座標値に対する前記正解座標値との差を複数の前記サンプル画像に対して算出し、算出した前記差のばらつきに基づき、前記予測座標値から前記候補領域を設定する、請求項2に記載の学習装置。
- 対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理手段と、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定手段と、
入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理手段と、
を備える識別装置。 - 前記信頼度マップに基づき前記特徴点の候補となる座標値を算出し、当該座標値に対応する信頼度が所定の閾値以上の場合に、当該座標値を前記特徴点の座標値として決定する特徴点抽出手段をさらに備える、請求項4に記載の識別装置。
- 前記特徴点抽出手段は、前記信頼度マップの重心位置を、前記特徴点の座標値として決定する、請求項5に記載の識別装置。
- 学習装置が実行する制御方法であって、
対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、
前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定し、
前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する、制御方法。 - 識別装置が実行する制御方法であって、
対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、
入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する、制御方法。 - コンピュータが実行するプログラムであって、
対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習手段と、
前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定する候補領域設定手段と、
前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習手段
として前記コンピュータを機能させるプログラム。 - コンピュータが実行するプログラムであって、
対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理手段と、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定手段と、
入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理手段
として前記コンピュータを機能させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/008018 WO2020178881A1 (ja) | 2019-03-01 | 2019-03-01 | 制御方法、学習装置、識別装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020178881A1 JPWO2020178881A1 (ja) | 2021-11-04 |
JP7143931B2 true JP7143931B2 (ja) | 2022-09-29 |
Family
ID=72338189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503238A Active JP7143931B2 (ja) | 2019-03-01 | 2019-03-01 | 制御方法、学習装置、識別装置及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220138984A1 (ja) |
EP (1) | EP3933755A4 (ja) |
JP (1) | JP7143931B2 (ja) |
AU (1) | AU2019433083B2 (ja) |
WO (1) | WO2020178881A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7388451B2 (ja) * | 2019-12-26 | 2023-11-29 | 日本電気株式会社 | 情報処理装置、制御方法及びプログラム |
JP7419993B2 (ja) * | 2020-07-02 | 2024-01-23 | コニカミノルタ株式会社 | 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置 |
KR20230110986A (ko) * | 2022-01-17 | 2023-07-25 | 연세대학교 산학협력단 | 자궁 경부에 대한 정보 제공 방법 및 이를 이용한 자궁 경부에 대한 정보 제공용 디바이스 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009211177A (ja) | 2008-02-29 | 2009-09-17 | Canon Inc | 特徴点位置決定方法及び装置 |
US20140355821A1 (en) | 2013-06-04 | 2014-12-04 | Apple Inc. | Object Landmark Detection in Images |
JP2016197371A (ja) | 2015-04-06 | 2016-11-24 | 大日本印刷株式会社 | 識別器生成装置、識別器生成方法、推定装置、推定方法、およびプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI226589B (en) * | 2003-04-28 | 2005-01-11 | Ind Tech Res Inst | Statistical facial feature extraction method |
JP6082312B2 (ja) | 2013-05-17 | 2017-02-15 | 日本電信電話株式会社 | テンプレート画像候補領域決定装置、テンプレート画像候補領域決定方法、及びプログラム |
DE102017216802A1 (de) * | 2017-09-22 | 2019-03-28 | Continental Teves Ag & Co. Ohg | Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug |
-
2019
- 2019-03-01 AU AU2019433083A patent/AU2019433083B2/en active Active
- 2019-03-01 US US17/434,096 patent/US20220138984A1/en active Pending
- 2019-03-01 JP JP2021503238A patent/JP7143931B2/ja active Active
- 2019-03-01 WO PCT/JP2019/008018 patent/WO2020178881A1/ja active Application Filing
- 2019-03-01 EP EP19918051.4A patent/EP3933755A4/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009211177A (ja) | 2008-02-29 | 2009-09-17 | Canon Inc | 特徴点位置決定方法及び装置 |
US20140355821A1 (en) | 2013-06-04 | 2014-12-04 | Apple Inc. | Object Landmark Detection in Images |
JP2016197371A (ja) | 2015-04-06 | 2016-11-24 | 大日本印刷株式会社 | 識別器生成装置、識別器生成方法、推定装置、推定方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
AU2019433083A1 (en) | 2021-08-05 |
US20220138984A1 (en) | 2022-05-05 |
EP3933755A1 (en) | 2022-01-05 |
EP3933755A4 (en) | 2022-03-16 |
AU2019433083B2 (en) | 2023-05-18 |
JPWO2020178881A1 (ja) | 2021-11-04 |
WO2020178881A1 (ja) | 2020-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10991072B2 (en) | Method and device for fusing panoramic video images | |
CN109325437B (zh) | 图像处理方法、装置和系统 | |
EP3798801A1 (en) | Image processing method and apparatus, storage medium, and computer device | |
Tsai et al. | Real-time indoor scene understanding using bayesian filtering with motion cues | |
JP7143931B2 (ja) | 制御方法、学習装置、識別装置及びプログラム | |
US11514625B2 (en) | Motion trajectory drawing method and apparatus, and device and storage medium | |
CN113761999B (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
EP2182469A2 (en) | System and method for sensing facial gesture | |
CN109859305A (zh) | 基于多角度二维人脸的三维人脸建模、识别方法及装置 | |
KR102476016B1 (ko) | 안구 위치 정보 확정 방법 및 장치 | |
CN111242852A (zh) | 边界感知对象移除和内容填充 | |
US10950056B2 (en) | Apparatus and method for generating point cloud data | |
CN103247045A (zh) | 一种从多视图中得到人造场景主方向及图像边缘的方法 | |
CN103514432A (zh) | 人脸特征提取方法、设备和计算机程序产品 | |
CN113870401B (zh) | 表情生成方法、装置、设备、介质和计算机程序产品 | |
CN111488812A (zh) | 障碍物位置识别方法、装置、计算机设备和存储介质 | |
CN109544516B (zh) | 图像检测方法及装置 | |
US20230237777A1 (en) | Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium | |
JP7238998B2 (ja) | 推定装置、学習装置、制御方法及びプログラム | |
CN111382618A (zh) | 一种人脸图像的光照检测方法、装置、设备和存储介质 | |
CN111931694A (zh) | 确定人物的视线朝向的方法、装置、电子设备和存储介质 | |
KR20160046399A (ko) | 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법 | |
CN112883920A (zh) | 基于点云深度学习的三维人脸扫描特征点检测方法和装置 | |
JP7385416B2 (ja) | 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム | |
JP2018120402A (ja) | イベント検出装置、イベント検出方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220829 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7143931 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |