JP6872044B2 - 対象物の外接枠を決定するための方法、装置、媒体及び機器 - Google Patents
対象物の外接枠を決定するための方法、装置、媒体及び機器 Download PDFInfo
- Publication number
- JP6872044B2 JP6872044B2 JP2019572712A JP2019572712A JP6872044B2 JP 6872044 B2 JP6872044 B2 JP 6872044B2 JP 2019572712 A JP2019572712 A JP 2019572712A JP 2019572712 A JP2019572712 A JP 2019572712A JP 6872044 B2 JP6872044 B2 JP 6872044B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute information
- key points
- processed
- information
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 96
- 238000013528 artificial neural network Methods 0.000 claims description 95
- 230000008569 process Effects 0.000 claims description 17
- 230000004913 activation Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 11
- 238000012935 Averaging Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 16
- 210000002569 neuron Anatomy 0.000 description 15
- 238000004891 communication Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000004394 hip joint Anatomy 0.000 description 4
- 210000003127 knee Anatomy 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 210000003423 ankle Anatomy 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
本願は、2017年11月21日に中国特許局に出願された、出願番号CN201711165979.8、発明の名称「対象物の外接枠を決定するための方法、装置及び電子機器」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本発明は、添付図面を伴う以下の詳細な説明によって、より明確に理解されることができる。
明細書の一部を形成する添付図面は、本願の実施例を説明するためのものであって、また実施例に対する説明と共に本願の原理を説明するためのものである。
本発明は、添付図面を伴う以下の詳細な説明によって、より明確に理解されることができる。
Claims (17)
- 対象物の複数のキーポイントのそれぞれの属性情報を取得することと、
前記対象物の複数のキーポイントのそれぞれの属性情報及び予め設定されたニューラルネットワークに基づいて、前記対象物の外接枠位置を決定することと、
を備え、
前記キーポイントの属性情報は、座標情報及び存在判別値を含むことを特徴とする対象物の外接枠を決定するための方法。 - 前記対象物の複数のキーポイントのそれぞれの属性情報及び予め設定されたニューラルネットワークに基づいて、前記対象物の外接枠位置を決定することは、
前記複数のキーポイントのそれぞれの属性情報に基づいて、前記複数のキーポイントから少なくとも1つの有効なキーポイントを決定することと、
前記少なくとも1つの有効なキーポイントのそれぞれの属性情報に基づいて、前記複数のキーポイントの属性情報を処理して、処理済みの複数のキーポイントの属性情報を得ることと、
前記処理済みの複数のキーポイントの属性情報を前記予め設定されたニューラルネットワークに入力して処理して、前記対象物の外接枠位置を得ることと、を含むことを特徴とする請求項1に記載の方法。 - 前記処理済みの複数のキーポイントの属性情報は、前記少なくとも1つの有効なキーポイントのそれぞれの処理済みの属性情報、及び前記複数のキーポイントのうちの前記少なくとも1つの有効なキーポイント以外の他のキーポイントの属性情報を含むことを特徴とする請求項2に記載の方法。
- 前記少なくとも1つの有効なキーポイントのそれぞれの属性情報に基づいて、前記複数のキーポイントの属性情報を処理して、処理済みの複数のキーポイントの属性情報を得ることは、
前記少なくとも1つの有効なキーポイントのそれぞれの属性情報に含まれる座標情報に基づいて、基準座標を決定することと、
前記基準座標及び前記少なくとも1つの有効なキーポイントのそれぞれの属性情報の座標情報に基づいて、前記有効なキーポイントのそれぞれの処理済みの属性情報の座標情報を決定することと、を含むことを特徴とする請求項2又は3に記載の方法。 - 前記少なくとも1つの有効なキーポイントのそれぞれの属性情報に含まれる座標情報に基づいて、基準座標を決定することは、
前記少なくとも1つの有効なキーポイントのそれぞれの座標情報が対応する座標を平均化処理して、前記基準座標を得ることを含み、及び/又は、
前記基準座標及び前記少なくとも1つの有効なキーポイントのそれぞれの属性情報の座標情報に基づいて、前記有効なキーポイントのそれぞれの処理済みの属性情報の座標情報を決定することは、
前記基準座標を原点として、前記少なくとも1つの有効なキーポイントのそれぞれの座標情報が対応する処理済みの座標情報を決定することを含むことを特徴とする請求項4に記載の方法。 - 前記処理済みの複数のキーポイントの属性情報を前記予め設定されたニューラルネットワークに入力して処理して、前記対象物の外接枠位置を得ることは、
前記処理済みの複数のキーポイントの属性情報を前記予め設定されたニューラルネットワークに入力して処理して、出力位置情報を得ることと、
前記基準座標及び前記出力位置情報に基づいて、前記対象物の外接枠位置を決定することと、を含むことを特徴とする請求項4又は5に記載の方法。 - 前記ニューラルネットワークは、少なくとも2層の全結合層を含むことを特徴とする請求項1〜6の何れか1項に記載の方法。
- 前記ニューラルネットワークは、第1層の全結合層及び第2層の全結合層の少なくとも一方の活性化関数が正規化線形ユニットReLu活性化関数を含む、3層の全結合層を含むことを特徴とする請求項1〜7の何れか1項に記載の方法。
- 対象物の複数のキーポイントのそれぞれの属性情報を取得するための取得モジュールと、
前記取得モジュールによって取得された前記対象物の複数のキーポイントのそれぞれの属性情報及び予め設定されたニューラルネットワークに基づいて、前記対象物の外接枠位置を決定するための決定モジュールと、
を備え、
前記キーポイントの属性情報は、座標情報及び存在判別値を含むことを特徴とする対象物の外接枠を決定するための装置。 - 前記決定モジュールは、
前記取得モジュールによって取得された複数のキーポイントのそれぞれの属性情報に基づいて、前記複数のキーポイントから少なくとも1つの有効なキーポイントを決定するための第1のサブモジュールと、
前記第1のサブモジュールによって決定された少なくとも1つの有効なキーポイントのそれぞれの属性情報に基づいて、前記複数のキーポイントの属性情報を処理して、処理済みの複数のキーポイントの属性情報を得るための第2のサブモジュールと、
前記第2のサブモジュールによって得られた処理済みの複数のキーポイントの属性情報を前記予め設定されたニューラルネットワークに入力して処理して、前記対象物の外接枠位置を得るための第3のサブモジュールと、を含み、
前記処理済みの複数のキーポイントの属性情報は、前記少なくとも1つの有効なキーポイントのそれぞれの処理済みの属性情報、及び前記複数のキーポイントのうちの前記少なくとも1つの有効なキーポイント以外の他のキーポイントの属性情報を含むことを特徴とする請求項9に記載の装置。 - 前記第2のサブモジュールは、
前記第1のサブモジュールによって決定された少なくとも1つの有効なキーポイントのそれぞれの属性情報に含まれる座標情報に基づいて、基準座標を決定するための第1のユニットと、
前記第1のユニットによって決定された基準座標及び前記少なくとも1つの有効なキーポイントのそれぞれの属性情報の座標情報に基づいて、前記有効なキーポイントのそれぞれの処理済みの属性情報の座標情報を決定するための第2のユニットと、を含むことを特徴とする請求項10に記載の装置。 - 前記第1のユニットは、
前記第1のサブモジュールによって決定された少なくとも1つの有効なキーポイントのそれぞれの座標情報が対応する座標を平均化処理して、前記基準座標を得ることに用いられ、及び/又は、
第2のユニットは、
前記第1のユニットによって決定された基準座標を原点として、前記少なくとも1つの有効なキーポイントのそれぞれの座標情報が対応する処理済みの座標情報を決定することに用いられることを特徴とする請求項11に記載の装置。 - 前記第3のサブモジュールは、
前記第2のサブモジュールによって得られた処理済みの複数のキーポイントの属性情報を前記予め設定されたニューラルネットワークに入力して処理して、出力位置情報を得ることと、
前記基準座標及び前記出力位置情報に基づいて、前記対象物の外接枠位置を決定することと、に用いられることを特徴とする請求項11又は12に記載の装置。 - 前記ニューラルネットワークは、少なくとも2層の全結合層を含むことを特徴とする請求項9〜13の何れか1項に記載の装置。
- 前記ニューラルネットワークは、第1層の全結合層及び第2層の全結合層の少なくとも一方の活性化関数が正規化線形ユニットReLu活性化関数を含む、3層の全結合層を含むことを特徴とする請求項9〜14の何れか1項に記載の装置。
- プロセッサによって実行される場合に、請求項1〜8の何れか1項に記載の方法を実行させるコマンドが記憶されているコンピュータ可読記憶媒体。
- 請求項1〜8の何れか1項に記載の方法をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711165979.8A CN108229305B (zh) | 2017-11-21 | 2017-11-21 | 用于确定目标对象的外接框的方法、装置和电子设备 |
CN201711165979.8 | 2017-11-21 | ||
PCT/CN2018/111464 WO2019100886A1 (zh) | 2017-11-21 | 2018-10-23 | 用于确定目标对象的外接框的方法、装置、介质和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020525959A JP2020525959A (ja) | 2020-08-27 |
JP6872044B2 true JP6872044B2 (ja) | 2021-05-19 |
Family
ID=62652771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019572712A Active JP6872044B2 (ja) | 2017-11-21 | 2018-10-23 | 対象物の外接枠を決定するための方法、装置、媒体及び機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11348275B2 (ja) |
JP (1) | JP6872044B2 (ja) |
CN (1) | CN108229305B (ja) |
SG (1) | SG11201913529UA (ja) |
WO (1) | WO2019100886A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN108229305B (zh) | 2017-11-21 | 2021-06-04 | 北京市商汤科技开发有限公司 | 用于确定目标对象的外接框的方法、装置和电子设备 |
CN110826357B (zh) * | 2018-08-07 | 2022-07-26 | 北京市商汤科技开发有限公司 | 对象三维检测及智能驾驶控制的方法、装置、介质及设备 |
CN111241887B (zh) * | 2018-11-29 | 2024-04-16 | 北京市商汤科技开发有限公司 | 目标对象关键点识别方法及装置、电子设备和存储介质 |
CN112115746B (zh) * | 2019-06-21 | 2024-06-18 | 富士通株式会社 | 人体动作识别装置及方法、电子设备 |
CN110782404B (zh) * | 2019-10-11 | 2022-06-10 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置及存储介质 |
CN110929792B (zh) * | 2019-11-27 | 2024-05-24 | 深圳市商汤科技有限公司 | 图像标注方法、装置、电子设备及存储介质 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5665401B2 (ja) * | 2010-07-21 | 2015-02-04 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9342888B2 (en) * | 2014-02-08 | 2016-05-17 | Honda Motor Co., Ltd. | System and method for mapping, localization and pose correction of a vehicle based on images |
IL231862A (en) * | 2014-04-01 | 2015-04-30 | Superfish Ltd | Image representation using a neural network |
JP2016006626A (ja) | 2014-05-28 | 2016-01-14 | 株式会社デンソーアイティーラボラトリ | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 |
WO2016004330A1 (en) * | 2014-07-03 | 2016-01-07 | Oim Squared Inc. | Interactive content generation |
CN104573715B (zh) | 2014-12-30 | 2017-07-25 | 百度在线网络技术(北京)有限公司 | 图像主体区域的识别方法及装置 |
WO2016179808A1 (en) | 2015-05-13 | 2016-11-17 | Xiaoou Tang | An apparatus and a method for face parts and face detection |
US9767381B2 (en) | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
WO2017095948A1 (en) | 2015-11-30 | 2017-06-08 | Pilot Ai Labs, Inc. | Improved general object detection using neural networks |
KR102592076B1 (ko) | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
CN107194338A (zh) | 2017-05-14 | 2017-09-22 | 北京工业大学 | 基于人体树图模型的交通环境行人检测方法 |
CN107220604A (zh) * | 2017-05-18 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于视频的跌倒检测方法 |
WO2018213972A1 (en) * | 2017-05-22 | 2018-11-29 | Intel Corporation | Region proposal filter for digital image processing |
CN107194361B (zh) * | 2017-05-27 | 2021-04-02 | 成都通甲优博科技有限责任公司 | 二维姿势检测方法及装置 |
US10438371B2 (en) * | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
CN108229305B (zh) * | 2017-11-21 | 2021-06-04 | 北京市商汤科技开发有限公司 | 用于确定目标对象的外接框的方法、装置和电子设备 |
-
2017
- 2017-11-21 CN CN201711165979.8A patent/CN108229305B/zh active Active
-
2018
- 2018-10-23 SG SG11201913529UA patent/SG11201913529UA/en unknown
- 2018-10-23 WO PCT/CN2018/111464 patent/WO2019100886A1/zh active Application Filing
- 2018-10-23 JP JP2019572712A patent/JP6872044B2/ja active Active
-
2019
- 2019-12-31 US US16/731,858 patent/US11348275B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2019100886A1 (zh) | 2019-05-31 |
US11348275B2 (en) | 2022-05-31 |
CN108229305A (zh) | 2018-06-29 |
US20200134859A1 (en) | 2020-04-30 |
JP2020525959A (ja) | 2020-08-27 |
CN108229305B (zh) | 2021-06-04 |
SG11201913529UA (en) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6872044B2 (ja) | 対象物の外接枠を決定するための方法、装置、媒体及び機器 | |
CN108460338B (zh) | 人体姿态估计方法和装置、电子设备、存储介质、程序 | |
CN108427927B (zh) | 目标再识别方法和装置、电子设备、程序和存储介质 | |
US11017210B2 (en) | Image processing apparatus and method | |
KR102420715B1 (ko) | 시스템 강화 학습 방법 및 장치, 전자 기기, 컴퓨터 저장 매체 | |
JP6850399B2 (ja) | 単眼画像の深度回復方法及び装置、コンピュータ機器 | |
US11983815B2 (en) | Synthesizing high resolution 3D shapes from lower resolution representations for synthetic data generation systems and applications | |
CN109711508B (zh) | 图像处理方法和装置 | |
JPWO2011086889A1 (ja) | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム | |
CN112927353A (zh) | 基于二维目标检测和模型对齐的三维场景重建方法、存储介质及终端 | |
EP3410389A1 (en) | Image processing method and device | |
Ozbay et al. | A hybrid method for skeleton extraction on Kinect sensor data: Combination of L1-Median and Laplacian shrinking algorithms | |
CN112287730A (zh) | 姿态识别方法、装置、系统、存储介质及设备 | |
CN114170688B (zh) | 人物交互关系识别方法、装置、电子设备 | |
CN117372604A (zh) | 一种3d人脸模型生成方法、装置、设备及可读存储介质 | |
JPWO2019229979A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN108027647B (zh) | 用于与虚拟对象交互的方法和设备 | |
CN112307799A (zh) | 姿态识别方法、装置、系统、存储介质及设备 | |
CN111968030B (zh) | 信息生成方法、装置、电子设备和计算机可读介质 | |
CN116686006A (zh) | 基于可变形模型的三维扫描配准 | |
CN115760888A (zh) | 图像处理方法、装置、计算机及可读存储介质 | |
CN113191462A (zh) | 信息获取方法、图像处理方法、装置及电子设备 | |
CN118212491B (zh) | 模型训练方法、三维姿态估计方法、装置及电子设备 | |
CN115115851B (zh) | 一种商品姿态估计的方法、装置及存储介质 | |
WO2022181252A1 (ja) | 関節点検出装置、学習モデル生成装置、関節点検出方法、学習モデル生成方法、及びコンピュータ読み取り可能な記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6872044 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |