JP7060686B2 - 画像処理およびオブジェクトの視点決定の方法ならびにシステム - Google Patents
画像処理およびオブジェクトの視点決定の方法ならびにシステム Download PDFInfo
- Publication number
- JP7060686B2 JP7060686B2 JP2020521926A JP2020521926A JP7060686B2 JP 7060686 B2 JP7060686 B2 JP 7060686B2 JP 2020521926 A JP2020521926 A JP 2020521926A JP 2020521926 A JP2020521926 A JP 2020521926A JP 7060686 B2 JP7060686 B2 JP 7060686B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- bounding box
- neural network
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
・ A.Mousavian、D.Anguelov、J.Flynn、および、J.Kosecka、「ディープ・ラーニングと幾何学を用いた3Dバウンディング・ボックス推定(3D Bounding Box Estimation Using Deep Learning and Geometry)」arXiv:1612.00496、2016、
・ P.Poirson、P.Ammirato,C.-Y.Fu、W.Liu、J.Kosecka、およびA.C.Berg、「高速シングルショット検出と姿勢推定(Fast Single Shot Detection and Pose Estimation)」、3DV、2016、
・ W.Liu、D.Anguelov、D.Erhan、C.Szegedy、S.Reed、C.-y.Fu、および、A.C.Berg、「SSD:シングルショット・マルチボックス検出器(SSD:Single Shot MultiBox Detector)」、ECCV、2016。
・ 画像上で見える少なくとも1つのオブジェクト(1つ以上のオブジェクト)のタイプ、
・ 少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスの画像内の位置および形状、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な視点、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な面内回転。
・ 画像上で見える少なくとも1つのオブジェクトのタイプ、
・ 少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスの画像内の位置および形状、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な視点、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な面内回転
について、どのサブネットワークを使用して配信するかを知っている。
・ テンプレート画像上で見える少なくとも1つのテンプレート・オブジェクトのタイプ、
・ 少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスのテンプレート画像内の位置および形状、
・ 少なくとも1つのテンプレート・オブジェクトの少なくとも1つの可能な視点、
・ 少なくとも1つのテンプレート・オブジェクトの少なくとも1つの可能な面内回転、および、式
Posは、テンプレート・オブジェクトの領域の予め定義された部分を囲む領域を有するバウンディング・ボックスを表し、
Negテンプレート・オブジェクトの領域の予め定義された部分を囲まない領域を有するバウンディング・ボックスを表し、
bは、PosまたはNegのいずれかに属するバウンディング・ボックスであり、
Lclassは、クラスの属性におけるエラーに関連する損失であり、
Lfitは、バウンディング・ボックスのコーナーの位置のエラーに関連する損失であり、
Lviewは、視点の属性におけるエラーに関連する損失であり、
Linplaneは、面内回転の属性におけるエラーに関連する損失であり、
α、β、およびγは、所定の係数である。
・ 画像上で見える少なくとも1つのオブジェクトのタイプ、
・ 少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスの画像内の位置および形状、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な視点、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な面内回転
について配信する。
・ 画像上で見える少なくとも1つのオブジェクトのタイプ、
・ 少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスの画像内の位置および形状、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な視点、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な面内回転、
上で分類を実行するようにさらに構成される。
・ 画像上、例えば各特徴マップ4s上で、で見える少なくとも1つのオブジェクトの種類、
・ この特徴マップ4s上の少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスの画像内の位置および形状、
・ この特徴マップ4s上の少なくとも1つのオブジェクトの少なくとも1つの可能な視点、
・ この特徴マップ4s上の少なくとも1つのオブジェクトの少なくとも1つの可能な面内回転、
を示すものとして解釈できる。
・ 画像上で見える少なくとも1つのオブジェクトのタイプ、
・ 少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスの画像内の位置および形状、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な視点、
・ 少なくとも1つのオブジェクトの少なくとも1つの可能な面内回転、
に対して配信するために各特徴マップにおいて分類を実行するための命令15、を含む。
・ 少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスのテンプレート画像内の位置および形状、
・ 少なくとも1つのテンプレート・オブジェクトの少なくとも1つの可能な視点、
・ 少なくとも1つのテンプレート・オブジェクトの少なくとも1つの可能な面内回転、および以下の式
を用いて取得することをさらに含む。ここで、
Posは、テンプレート・オブジェクトの領域の予め定義された部分を囲む領域を有するバウンディング・ボックスを表し、
Negテンプレート・オブジェクトの領域の予め定義された部分を囲まない領域を有するバウンディング・ボックスを表し、
bは、PosまたはNegのいずれかに属するバウンディング・ボックスであり、
Lclassは、クラスの属性におけるエラーに関連する損失であり、
Lfitは、バウンディング・ボックスのコーナーの位置のエラーに関連する損失であり、
Lviewは、視点の属性におけるエラーに関連する損失であり、
Linplaneは面内回転の属性におけるエラーに関連する損失であり、
α、β、およびγは、所定の係数である。
Claims (13)
- 画像を処理する方法であって、
該画像を、各特徴マップがそれぞれの解像度およびそれぞれの深度を有する複数の特徴マップ(4a,...,4f)を取得し(2)、
各特徴マップについて配信するために、各特徴マップ、すなわち、画像上で見える少なくとも1つのオブジェクトのタイプ、前記少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスの画像内の位置および形状、前記少なくとも1つのオブジェクトの少なくとも1つの可能な視点、前記少なくとも1つのオブジェクトの少なくとも1つの可能な面内回転について分類を実行する(3)
ように構成されたニューラル・ネットワークに入力する(1)ステップを含む方法であり、
前記ニューラル・ネットワークの予備訓練をさらに含み、前記予備訓練は、少なくとも1つの3次元テンプレート・オブジェクトが前記ニューラル・ネットワークにレンダリングされたテンプレート画像を入力するステップを含み、
前記予備訓練がさらに、
前記ニューラル・ネットワークを用いて、前記テンプレート画像の上で見える少なくとも1つのテンプレート・オブジェクトのタイプ、前記少なくとも1つのオブジェクトを取り囲む少なくとも1つの2次元バウンディング・ボックスの前記テンプレート画像内の位置および形状、前記少なくとも1つのテンプレート・オブジェクトの少なくとも1つの可能な視点、前記少なくとも1つのテンプレート・オブジェクトの少なくとも1つの可能な面内回転、を取得するステップと、
を含む、方法。 - 前記画像は、カラー画像、または、カラーおよび深度画像である、請求項1に記載の方法。
- 前記分類は、核パーセプトロン(3)の手段によって実行される、請求項1または2に記載の方法。
- 3つ以上の特徴マップが得られるか、または6つの特徴マップ(4a,...,4f)が得られ、該特徴マップの各々が異なる解像度を有する、請求項1ないし3のいずれか1項に記載の方法。
- 前記少なくとも1つのオブジェクトの前記少なくとも1つの可能な視点と、前記少なくとも1つのオブジェクトの前記少なくとも1つの可能な面内回転とを使用して、少なくとも1つのオブジェクの6Dポーズを取得するステップをさらに含む、請求項1ないし4のいずれか1項に記載の方法。
- 前記6Dポーズを取得するステップは、色ベースのアプローチ、輪郭ベースのアプローチ、または、深度ベースのアプローチを使用して、前記6Dポーズを精緻化するステップをさらに含む、請求項5に記載の方法。
- 前記可能な視点は、所定の視点の組の中から選択され、
テンプレート・オブジェクトが対称の場合、所定の視点のセットの視点が、テンプレート・オブジェクトを中心とする球の弧にすべて配置され、
テンプレート・オブジェクトが半対称の場合、所定の視点のセットの視点は、前記テンプレート・オブジェクトを中心とする球の1つの半球にすべて配置される、
請求項1に記載の方法。 - 前記ニューラル・ネットワークは、前記画像上で見えるオブジェクトにそれぞれ関連付けられた情報の1つ以上の群を出力し、
各群は、前記オブジェクトのタイプ、前記オブジェクトを囲むバウンディング・ボックスの位置および形状、前記視点、および前記面内回転を含み、
前記方法は、
前記ニューラル・ネットワークによって出力された各グループのスコア(例えば、スカラー値)を精緻化するステップと、
各スコアの所定の閾値を比較するステップと、前記閾値を超えるスコアを有するグループのみを保持するステップと
をさらに含む、請求項1ないし7のいずれか1項に記載の方法。 - 前記ニューラル・ネットワークによって出力される情報の2つのグループの2つのバウンディング・ボックスΜ、エリア閾値を超えてオーバラップする場合、最も高いスコアを有する情報のグループが保持される非最大抑制を含む、請求項8に記載の方法。
- 前記オブジェクトと前記画像を取得した画像取得モジュールとの間の距離は、前記少なくとも1つのバウンディング・ボックスの対角長を使用して決定される、請求項1ないし9のいずれか1項に記載の方法。
- 画像を処理するためのシステムであって、
該システムは、該画像が入力され得るニューラル・ネットワークを備え、
該ニューラル・ネットワークは、複数の特徴マップを取得し、
各特徴マップはそれぞれの解像度およびそれぞれの深度を有し、
各特徴マップについて配信するために、各特徴マップ、すなわち、前記画像の上で見える少なくとも1つのオブジェクトのタイプ、前記少なくとも1つのオブジェクトを囲む少なくとも1つの2次元バウンディング・ボックスの画像内の位置および形状、前記少なくとも1つのオブジェクトの少なくとも1つの可能な視点、前記少なくとも1つのオブジェクトの少なくとも1つの可能な面内回転に対して分類を実行するように構成される、システムであり、
該システムは、前記ニューラル・ネットワークの予備訓練を実行するようにさらに構成され、前記予備訓練は、少なくとも1つの3次元テンプレート・オブジェクトが前記ニューラル・ネットワークにレンダリングされたテンプレート画像を入力するステップを含み
、
前記予備訓練がさらに、
前記ニューラル・ネットワークを用いて、前記テンプレート画像の上で見える少なくとも1つのテンプレート・オブジェクトのタイプ、前記少なくとも1つのオブジェクトを取り囲む少なくとも1つの2次元バウンディング・ボックスの前記テンプレート画像内の位置および形状、前記少なくとも1つのテンプレート・オブジェクトの少なくとも1つの可能な視点、前記少なくとも1つのテンプレート・オブジェクトの少なくとも1つの可能な面内回転、を取得するステップと、
を含む、
システム。 - コンピュータプログラムがコンピュータによって実行されるときに、請求項1ないし10のいずれか1項に記載の方法のステップを実行するための命令を含むプログラム。
- 請求項1ないし10のいずれか1項に記載の方法のステップを実行するための命令を含むコンピュータプログラムを記録した、コンピュータによって読み取り可能な記録媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2017/076883 WO2019076467A1 (en) | 2017-10-20 | 2017-10-20 | METHOD AND SYSTEM FOR PROCESSING IMAGE AND DETERMINING POINTS OF VIEW OF OBJECTS |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020537790A JP2020537790A (ja) | 2020-12-24 |
JP7060686B2 true JP7060686B2 (ja) | 2022-04-26 |
Family
ID=60320825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020521926A Active JP7060686B2 (ja) | 2017-10-20 | 2017-10-20 | 画像処理およびオブジェクトの視点決定の方法ならびにシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11335024B2 (ja) |
EP (1) | EP3698324B1 (ja) |
JP (1) | JP7060686B2 (ja) |
CN (1) | CN111247559B (ja) |
WO (1) | WO2019076467A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020048620A1 (en) * | 2018-09-07 | 2020-03-12 | Toyota Motor Europe | Method and system for processing an image by determining rotation hypotheses |
JP2021196951A (ja) * | 2020-06-16 | 2021-12-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、学習済みモデルの製造方法、および画像処理システム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005530278A (ja) | 2002-06-20 | 2005-10-06 | アイデンティクス・インコーポレーテッド | ポーズ角度を推定するためのシステムおよび方法 |
JP2012141962A (ja) | 2010-12-14 | 2012-07-26 | Canon Inc | 位置姿勢計測装置及び位置姿勢計測方法 |
JP2013134599A (ja) | 2011-12-26 | 2013-07-08 | Toshiba Corp | 位置座標検出装置、位置座標検出方法および電子機器 |
JP2015072581A (ja) | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | 情報処理方法、情報処理装置、およびコンピュータプログラム |
JP2016066187A (ja) | 2014-09-24 | 2016-04-28 | Kddi株式会社 | 画像処理装置 |
JP2017142780A (ja) | 2015-12-07 | 2017-08-17 | ダッソー システムズDassault Systemes | 二次元画像からの三次元モデル化オブジェクトの認識 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140092281A1 (en) * | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating Images from Light Fields Utilizing Virtual Viewpoints |
EP2933779A1 (en) * | 2014-04-15 | 2015-10-21 | Alcatel Lucent | Capturing an environment with objects |
US10574974B2 (en) * | 2014-06-27 | 2020-02-25 | A9.Com, Inc. | 3-D model generation using multiple cameras |
CN106688011B (zh) * | 2014-09-10 | 2018-12-28 | 北京市商汤科技开发有限公司 | 用于多类别物体检测的方法和系统 |
GB201501510D0 (en) * | 2015-01-29 | 2015-03-18 | Apical Ltd | System |
KR102592076B1 (ko) * | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US20180012411A1 (en) * | 2016-07-11 | 2018-01-11 | Gravity Jack, Inc. | Augmented Reality Methods and Devices |
CN106254854B (zh) * | 2016-08-19 | 2018-12-25 | 深圳奥比中光科技有限公司 | 三维图像的获得方法、装置及系统 |
GB201616095D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | A neural network and method of using a neural network to detect objects in an environment |
US10235771B2 (en) * | 2016-11-11 | 2019-03-19 | Qualcomm Incorporated | Methods and systems of performing object pose estimation |
US10360494B2 (en) * | 2016-11-30 | 2019-07-23 | Altumview Systems Inc. | Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules |
US10878583B2 (en) * | 2016-12-02 | 2020-12-29 | Google Llc | Determining structure and motion in images using neural networks |
US10198655B2 (en) * | 2017-01-24 | 2019-02-05 | Ford Global Technologies, Llc | Object detection using recurrent neural network and concatenated feature map |
US10373369B2 (en) * | 2017-03-16 | 2019-08-06 | Qualcomm Technologies, Inc. | Three-dimensional pose estimation of symmetrical objects |
US20180295375A1 (en) * | 2017-04-05 | 2018-10-11 | Lyrical Labs Video Compression Technology, LLC | Video processing and encoding |
US10803616B1 (en) * | 2017-04-13 | 2020-10-13 | Facebook Technologies, Llc | Hand calibration using single depth camera |
US20180349746A1 (en) * | 2017-05-31 | 2018-12-06 | Uber Technologies, Inc. | Top-View Lidar-Based Object Detection |
WO2019041360A1 (zh) * | 2017-09-04 | 2019-03-07 | 华为技术有限公司 | 行人属性识别与定位方法以及卷积神经网络系统 |
US10445402B1 (en) * | 2017-09-29 | 2019-10-15 | Ambarella, Inc. | Fast and energy-efficient region of interest pooling for object detection with convolutional neural network |
EP3695347A4 (en) * | 2017-10-10 | 2022-04-20 | Nokia Technologies Oy | METHOD, SYSTEM AND DEVICE FOR PATTERN RECOGNITION |
US10223610B1 (en) * | 2017-10-15 | 2019-03-05 | International Business Machines Corporation | System and method for detection and classification of findings in images |
-
2017
- 2017-10-20 WO PCT/EP2017/076883 patent/WO2019076467A1/en unknown
- 2017-10-20 JP JP2020521926A patent/JP7060686B2/ja active Active
- 2017-10-20 CN CN201780096068.6A patent/CN111247559B/zh active Active
- 2017-10-20 US US16/757,550 patent/US11335024B2/en active Active
- 2017-10-20 EP EP17797535.6A patent/EP3698324B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005530278A (ja) | 2002-06-20 | 2005-10-06 | アイデンティクス・インコーポレーテッド | ポーズ角度を推定するためのシステムおよび方法 |
JP2012141962A (ja) | 2010-12-14 | 2012-07-26 | Canon Inc | 位置姿勢計測装置及び位置姿勢計測方法 |
JP2013134599A (ja) | 2011-12-26 | 2013-07-08 | Toshiba Corp | 位置座標検出装置、位置座標検出方法および電子機器 |
JP2015072581A (ja) | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | 情報処理方法、情報処理装置、およびコンピュータプログラム |
JP2016066187A (ja) | 2014-09-24 | 2016-04-28 | Kddi株式会社 | 画像処理装置 |
JP2017142780A (ja) | 2015-12-07 | 2017-08-17 | ダッソー システムズDassault Systemes | 二次元画像からの三次元モデル化オブジェクトの認識 |
Non-Patent Citations (2)
Title |
---|
Patrick Poirson, et al,Fast Single Shot Detection and Pose Estimation,2016 Fourth Unternational Conference on 3D Vision,米国,IEEE,2016年,676-684 |
Yu Xiang, et al,ObjectNet3D: A Large Scale Database for 3D Object Recognition,Network and Paralllel Computing,米国,Springer International Publishing,2016年 |
Also Published As
Publication number | Publication date |
---|---|
EP3698324A1 (en) | 2020-08-26 |
US11335024B2 (en) | 2022-05-17 |
WO2019076467A1 (en) | 2019-04-25 |
CN111247559A (zh) | 2020-06-05 |
CN111247559B (zh) | 2023-10-31 |
JP2020537790A (ja) | 2020-12-24 |
EP3698324B1 (en) | 2022-09-21 |
US20210374988A1 (en) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Park et al. | Pix2pose: Pixel-wise coordinate regression of objects for 6d pose estimation | |
US20190019014A1 (en) | System and method for pose-invariant face alignment | |
EP3340185B1 (en) | Fast rendering of quadrics and marking of silhouettes thereof | |
EP3340184A1 (en) | Fast rendering of quadrics | |
CN110832542B (zh) | 识别处理设备、识别处理方法和程序 | |
CN109426835A (zh) | 信息处理装置、信息处理装置的控制方法和存储介质 | |
JP6911123B2 (ja) | 学習装置、認識装置、学習方法、認識方法及びプログラム | |
KR101992044B1 (ko) | 정보 처리 장치, 방법, 및 컴퓨터 프로그램 | |
CN114511778A (zh) | 图像处理方法及装置 | |
EP3300025A1 (en) | Image processing device and image processing method | |
JP2018152055A (ja) | ビジョンシステムにおいてカラー画像と対照してカラーの候補ポーズをスコアリングするためのシステム及び方法 | |
JP4207883B2 (ja) | 視線誘導度算出システム | |
JP2020119127A (ja) | 学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法 | |
JP7060686B2 (ja) | 画像処理およびオブジェクトの視点決定の方法ならびにシステム | |
CN114627173A (zh) | 通过差分神经渲染进行对象检测的数据增强 | |
US11189053B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium | |
EP3881287A1 (en) | Methods and systems for evaluating the size of a garment | |
Deepu et al. | 3D Reconstruction from Single 2D Image | |
KR102587298B1 (ko) | 멀티뷰 어안 렌즈들을 이용한 실시간 전방위 스테레오 매칭 방법 및 그 시스템 | |
JP6822086B2 (ja) | シミュレーション装置、シミュレーション方法およびシミュレーションプログラム | |
JP7234378B2 (ja) | 回転仮説を決定することによって画像を処理する方法及びシステム | |
US9563816B2 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
JP5719277B2 (ja) | 物体座標系変換行列推定成否判定装置および物体座標系変換行列推定成否判定方法ならびにそのプログラム | |
Guo et al. | Probabilistic Inference for Camera Calibration in Light Microscopy under Circular Motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200617 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220414 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7060686 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |