JP7010778B2 - 観測位置推定装置、その推定方法、及びプログラム - Google Patents
観測位置推定装置、その推定方法、及びプログラム Download PDFInfo
- Publication number
- JP7010778B2 JP7010778B2 JP2018125200A JP2018125200A JP7010778B2 JP 7010778 B2 JP7010778 B2 JP 7010778B2 JP 2018125200 A JP2018125200 A JP 2018125200A JP 2018125200 A JP2018125200 A JP 2018125200A JP 7010778 B2 JP7010778 B2 JP 7010778B2
- Authority
- JP
- Japan
- Prior art keywords
- observation position
- posture
- likelihood
- estimated
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Analysis (AREA)
- Artificial Intelligence (AREA)
- Operations Research (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置であって、
前記第1観測位置において物体の画像を取得する画像取得手段と、
前記画像取得手段により取得された物体の画像から、該物体の画像の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する姿勢推定手段と、
前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップを記憶する第2記憶手段と、
前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップを記憶する第3記憶手段と、
前記姿勢推定手段により算出された第1尤度マップと、前記第2記憶手段に記憶された第2尤度マップと、前記第3記憶手段に記憶された第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する位置推定手段と、
を備える、ことを特徴とする観測位置推定装置
である。
この一態様において、前記位置推定手段は、前記姿勢推定手段により推定された第1尤度マップp(ξ|I1)と、前記第2記憶手段に記憶された第2尤度マップp(φ1|ξ)と、第3記憶手段に記憶された第3尤度マップp(θ|δ2、φ1)と、に基づいて、下記式を用いて、前記第2観測位置δ2(ハット)を推定してもよい。ただし、ξは前記物体の推定姿勢、I1は前記画像取得手段が前記第1観測位置で取得した物体の画像、φ1は前記第1観測位置、θは前記物体の姿勢、δ2は前記第2観測位置、である。
この一態様において、前記物体の姿勢毎の特徴量を学習する第1学習手段を更に備え、前記姿勢推定手段は、前記特徴量抽出手段により抽出された物体の特徴量と、前記第1学習手段により学習された物体の姿勢毎の特徴量と、を比較して、前記第1尤度マップを算出してもよい。
この一態様において、前記第2記憶手段は、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を学習し、前記第2尤度マップとして記憶する第2学習手段であってもよい。
この一態様において、前記第3記憶手段は、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を学習し、前記第3尤度マップとして記憶する第3学習手段であってもよい。
この一態様において、前記評価関数は、分布の分散を算出する関数、又は、分布のエントロピーを算出する関数、であってもよい。
この一態様において、前記位置推定手段は、前記評価関数の値が閾値以上又は閾値以下となるように、前記第2観測位置を少なくとも1つ推定してもよい。
上記目的を達成するための本発明の一態様は、
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置の推定方法であって、
前記第1観測位置において物体の画像を取得するステップと、
前記取得された物体の画像から、該物体の画像の特徴量を抽出するステップと、
前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出するステップと、
該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定するステップと、
を含む、ことを特徴とする観測位置推定装置の推定方法
であってもよい。
上記目的を達成するための本発明の一態様は、
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置のプログラムであって、
前記第1観測位置において物体の画像を取得する処理と、
前記取得された物体の画像から、該物体の画像の特徴量を抽出する処理と、
前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する処理と、
該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する処理と、
をコンピュータに実行させる、ことを特徴とする観測位置推定装置のプログラム
であってもよい。
例えば、生活支援ロボットが物を把持して移動するために、未知物体の姿勢を推定することが重要となる。このようなロボットは、カメラ等のセンサによって、物体を複数の観測位置で観測することで、物体の姿勢を高精度に推定することができる。
第1深層学習部3は、複数組の物体の画像及び物体の姿勢の学習データを用いて、物体の姿勢毎の特徴量を学習する(ステップS101)。
続いて、推定工程について説明する。画像取得部2は、第1観測位置において、物体の画像を取得する(ステップS104)。画像取得部2は、取得した物体の画像を特徴量抽出部7に出力する。
Claims (9)
- 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置であって、
前記第1観測位置において物体の画像を取得する画像取得手段と、
前記画像取得手段により取得された物体の画像から、該物体の画像の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する姿勢推定手段と、
前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップを記憶する第2記憶手段と、
前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップを記憶する第3記憶手段と、
前記姿勢推定手段により算出された第1尤度マップと、前記第2記憶手段に記憶された第2尤度マップと、前記第3記憶手段に記憶された第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する位置推定手段と、
を備える、ことを特徴とする観測位置推定装置。 - 請求項1又は2記載の観測位置推定装置であって、
前記物体の姿勢毎の特徴量を学習する第1学習手段を更に備え、
前記姿勢推定手段は、前記特徴量抽出手段により抽出された物体の特徴量と、前記第1学習手段により学習された物体の姿勢毎の特徴量と、を比較して、前記第1尤度マップを算出する、
ことを特徴とする観測位置推定装置。 - 請求項1乃至3のうちいずれか1項記載の観測位置推定装置であって、
前記第2記憶手段は、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を学習し、前記第2尤度マップとして記憶する第2学習手段である、
ことを特徴とする観測位置推定装置。 - 請求項1乃至4のうちいずれか1項記載の観測位置推定装置であって、
前記第3記憶手段は、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を学習し、前記第3尤度マップとして記憶する第3学習手段である、
ことを特徴とする観測位置推定装置。 - 請求項1乃至5のうちいずれか1項記載の観測位置推定装置であって、
前記評価関数は、分布の分散を算出する関数、又は、分布のエントロピーを算出する関数、である、
ことを特徴とする観測位置推定装置。 - 請求項1乃至6のうちいずれか1項記載の観測位置推定装置であって、
前記位置推定手段は、前記評価関数の値が閾値以上又は閾値以下となるように、前記第2観測位置を少なくとも1つ推定する、
ことを特徴とする観測位置推定装置。 - 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置の推定方法であって、
前記第1観測位置において物体の画像を取得するステップと、
前記取得された物体の画像から、該物体の画像の特徴量を抽出するステップと、
前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出するステップと、
該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定するステップと、
を含む、ことを特徴とする観測位置推定装置の推定方法。 - 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置のプログラムであって、
前記第1観測位置において物体の画像を取得する処理と、
前記取得された物体の画像から、該物体の画像の特徴量を抽出する処理と、
前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する処理と、
該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する処理と、
をコンピュータに実行させる、ことを特徴とする観測位置推定装置のプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018125200A JP7010778B2 (ja) | 2018-06-29 | 2018-06-29 | 観測位置推定装置、その推定方法、及びプログラム |
CN201910567033.7A CN110660100B (zh) | 2018-06-29 | 2019-06-27 | 观测位置推荐装置及其推荐方法以及计算机可读介质 |
US16/454,735 US10909717B2 (en) | 2018-06-29 | 2019-06-27 | Viewpoint recommendation apparatus, recommendation method thereof, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018125200A JP7010778B2 (ja) | 2018-06-29 | 2018-06-29 | 観測位置推定装置、その推定方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020004260A JP2020004260A (ja) | 2020-01-09 |
JP7010778B2 true JP7010778B2 (ja) | 2022-01-26 |
Family
ID=69008235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018125200A Active JP7010778B2 (ja) | 2018-06-29 | 2018-06-29 | 観測位置推定装置、その推定方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10909717B2 (ja) |
JP (1) | JP7010778B2 (ja) |
CN (1) | CN110660100B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11375176B2 (en) * | 2019-02-05 | 2022-06-28 | Nvidia Corporation | Few-shot viewpoint estimation |
US12008790B2 (en) * | 2019-09-24 | 2024-06-11 | Apple Inc. | Encoding three-dimensional data for processing by capsule neural networks |
KR102514301B1 (ko) * | 2020-02-07 | 2023-03-27 | 주식회사 딥아이 | 이종 센서 융합을 이용한 행동 분석 장치 |
US11532096B2 (en) * | 2020-05-21 | 2022-12-20 | Verizon Connect Development Limited | Systems and methods for utilizing a deep learning model to determine vehicle viewpoint estimations |
JP7419993B2 (ja) * | 2020-07-02 | 2024-01-23 | コニカミノルタ株式会社 | 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置 |
US11710254B2 (en) * | 2021-04-07 | 2023-07-25 | Ford Global Technologies, Llc | Neural network object detection |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7426292B2 (en) * | 2003-08-07 | 2008-09-16 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining optimal viewpoints for 3D face modeling and face recognition |
EP2274711A4 (en) * | 2008-03-31 | 2012-12-19 | Univ Southern California | ESTIMATING THE INSTALLATION OF PHOTOGRAPHIC IMAGES IN A 3D MODEL OF EARTH WITH HUMAN ASSISTANCE |
EP2395478A1 (en) * | 2010-06-12 | 2011-12-14 | Toyota Motor Europe NV/SA | Monocular 3D pose estimation and tracking by detection |
JP5631086B2 (ja) | 2010-07-12 | 2014-11-26 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム |
CN103221977B (zh) * | 2010-12-09 | 2015-10-14 | 松下电器产业株式会社 | 姿势状态估计装置及姿势状态估计方法 |
US9117113B2 (en) * | 2011-05-13 | 2015-08-25 | Liberovision Ag | Silhouette-based pose estimation |
EP2824425B1 (en) * | 2012-03-06 | 2017-05-17 | Nissan Motor Co., Ltd | Moving-object position/attitude estimation apparatus and method for estimating position/attitude of moving object |
JP6042289B2 (ja) * | 2013-08-23 | 2016-12-14 | 株式会社デンソーアイティーラボラトリ | 姿勢推定装置、姿勢推定方法およびプログラム |
US20150095360A1 (en) * | 2013-09-27 | 2015-04-02 | Qualcomm Incorporated | Multiview pruning of feature database for object recognition system |
JP6171849B2 (ja) * | 2013-10-29 | 2017-08-02 | 日産自動車株式会社 | 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法 |
JP6740033B2 (ja) * | 2016-06-28 | 2020-08-12 | キヤノン株式会社 | 情報処理装置、計測システム、情報処理方法及びプログラム |
US10940587B2 (en) * | 2017-04-28 | 2021-03-09 | Technion Research & Development Foundation Ltd. | Data association aware belief space planning and perception |
JP7059701B2 (ja) * | 2018-03-08 | 2022-04-26 | 富士通株式会社 | 推定装置、推定方法、及び推定プログラム |
US10171738B1 (en) * | 2018-05-04 | 2019-01-01 | Google Llc | Stabilizing video to reduce camera and face movement |
-
2018
- 2018-06-29 JP JP2018125200A patent/JP7010778B2/ja active Active
-
2019
- 2019-06-27 CN CN201910567033.7A patent/CN110660100B/zh active Active
- 2019-06-27 US US16/454,735 patent/US10909717B2/en active Active
Non-Patent Citations (3)
Title |
---|
F.Deinzer, 外2名,"Viewpoint selection - a classifier independent learning approach",4th IEEE Southwest Symposium on Image Analysis and Interpretation,米国,IEEE,2000年04月04日 |
Kai-Chi Chan, 外2名,"Selecting best viewpoint for human-pose estimation",2014 IEEE International Conference on Robotics and Automation (ICRA),米国,IEEE,2014年06月07日,p.4844-4849 |
高橋友和, 外5名,"複数カメラ入力によるアピアランスベース物体認識のためのカメラ配置決定手法",電子情報通信学会論文誌,日本,社団法人電子情報通信学会,2007年08月01日,第J90-D巻, 第8号,p.2182-2190 |
Also Published As
Publication number | Publication date |
---|---|
CN110660100A (zh) | 2020-01-07 |
US20200005480A1 (en) | 2020-01-02 |
US10909717B2 (en) | 2021-02-02 |
CN110660100B (zh) | 2023-04-14 |
JP2020004260A (ja) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7010778B2 (ja) | 観測位置推定装置、その推定方法、及びプログラム | |
JP6415066B2 (ja) | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム | |
JP6004809B2 (ja) | 位置姿勢推定装置、情報処理装置、情報処理方法 | |
CN113409384B (zh) | 一种目标物体的位姿估计方法和系统、机器人 | |
JP5787642B2 (ja) | 対象物保持装置、対象物保持装置の制御方法、およびプログラム | |
JP6430986B2 (ja) | ロボットを用いた位置決め装置 | |
WO2018146770A1 (ja) | 位置制御装置及び位置制御方法 | |
Motai et al. | Hand–eye calibration applied to viewpoint selection for robotic vision | |
KR20190102250A (ko) | 위치 제어 장치 및 위치 제어 방법 | |
CN112950667A (zh) | 一种视频标注方法、装置、设备及计算机可读存储介质 | |
JP6885856B2 (ja) | ロボットシステムおよびキャリブレーション方法 | |
JP2016091053A (ja) | 情報処理装置および容器形状の推定方法、ワークピッキングシステム、プログラム | |
WO2015029287A1 (ja) | 特徴点位置推定装置、特徴点位置推定方法および特徴点位置推定プログラム | |
CN116249607A (zh) | 用于机器人抓取三维物体的方法和装置 | |
CN113878588B (zh) | 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法 | |
JP6936974B2 (ja) | 位置姿勢推定装置、位置姿勢推定方法及びプログラム | |
JP2016148649A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP2016081264A (ja) | 画像処理方法、画像処理装置及びロボットシステム | |
JP2012243285A (ja) | 特徴点位置決定装置、特徴点位置決定方法及びプログラム | |
Ryan et al. | Probabilistic correspondence in video sequences for efficient state estimation and autonomous flight | |
JP7404282B2 (ja) | 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム | |
Kim et al. | Mesh modelling of 3D point cloud from UAV images by point classification and geometric constraints | |
JP2014178967A (ja) | 3次元物体認識装置及び3次元物体認識方法 | |
JP6719925B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP7074447B2 (ja) | モデル推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7010778 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |