JP2018536550A - 3次元空間におけるオブジェクト位置および範囲のためのアクティブカメラ移動決定 - Google Patents
3次元空間におけるオブジェクト位置および範囲のためのアクティブカメラ移動決定 Download PDFInfo
- Publication number
- JP2018536550A JP2018536550A JP2018528333A JP2018528333A JP2018536550A JP 2018536550 A JP2018536550 A JP 2018536550A JP 2018528333 A JP2018528333 A JP 2018528333A JP 2018528333 A JP2018528333 A JP 2018528333A JP 2018536550 A JP2018536550 A JP 2018536550A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- agent
- subsequent control
- control input
- subsequent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title abstract description 19
- 230000000007 visual effect Effects 0.000 claims abstract description 69
- 238000000034 method Methods 0.000 claims abstract description 64
- 238000012545 processing Methods 0.000 claims description 52
- 239000003795 chemical substances by application Substances 0.000 description 55
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 12
- 230000008901 benefit Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004886 process control Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 239000005022 packaging material Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 231100000735 select agent Toxicity 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40617—Agile eye, control position of camera, active vision, pan-tilt camera, follow object
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Manipulator (AREA)
Abstract
Description
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] 運動計画の方法であって、
制御可能カメラを有するエージェントの第1の姿勢からオブジェクトを観測することと、
前記カメラから収集されたビジュアルデータに基づく前記オブジェクトの予想される囲み測度が最小限に抑えられるように、少なくとも1つの後続の姿勢から前記オブジェクトを観測するために前記エージェントと前記カメラとを移動させるために、少なくとも1つの後続の制御入力を決定することと、
前記少なくとも1つの後続の制御入力に基づいて前記エージェントと前記カメラとを制御することとを備える、方法。
[C2] 前記決定することが、前記予想される囲み測度を最小限に抑えるためにコストを最小限に抑えることに基づく、C1に記載の方法。
[C3] 前記少なくとも1つの後続の制御入力が、複数の潜在的後続の制御入力のバッチ処理を使用して決定される、C1に記載の方法。
[C4] 前記少なくとも1つの後続の制御入力が順次決定される、C1に記載の方法。
[C5] 前記エージェントと前記カメラとが、最小数の制御入力を使用して前記オブジェクトの周りを移動するようにさらに制御される、C1に記載の方法。
[C6] 運動計画のための装置であって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサは、
制御可能カメラを有するエージェントの第1の姿勢からオブジェクトを観測することと、
前記カメラから収集されたビジュアルデータに基づく前記オブジェクトの予想される囲み測度が最小限に抑えられるように、少なくとも1つの後続の姿勢から前記オブジェクトを観測するために前記エージェントと前記カメラとを移動させるために、少なくとも1つの後続の制御入力を決定することと、
前記少なくとも1つの後続の制御入力に基づいて前記エージェントと前記カメラとを制御することとを行うように構成された、装置。
[C7] 前記少なくとも1つのプロセッサが、前記予想される囲み測度を最小限に抑えるためにコストを最小限に抑えることに基づいて前記少なくとも1つの後続の制御入力を決定するようにさらに構成された、C6に記載の装置。
[C8] 前記少なくとも1つのプロセッサが、複数の潜在的後続の制御入力のバッチ処理を使用して前記少なくとも1つの後続の制御入力を決定するようにさらに構成された、C6に記載の装置。
[C9] 前記少なくとも1つのプロセッサが、順次処理を使用して前記少なくとも1つの後続の制御入力を決定するようにさらに構成された、C6に記載の装置。
[C10] 前記少なくとも1つのプロセッサが、最小数の制御入力を使用して前記オブジェクトの周りを移動するように前記エージェントと前記カメラとを制御するようにさらに構成された、C6に記載の装置。
[C11] 運動計画のための装置であって、
制御可能カメラを有するエージェントの第1の姿勢からオブジェクトを観測するための手段と、
前記カメラから収集されたビジュアルデータに基づく前記オブジェクトの予想される囲み測度が最小限に抑えられるように、少なくとも1つの後続の姿勢から前記オブジェクトを観測するために前記エージェントと前記カメラとを移動させるために、少なくとも1つの後続の制御入力を決定するための手段と、
前記少なくとも1つの後続の制御入力に基づいて前記エージェントと前記カメラとを制御するための手段とを備える、装置。
[C12] 決定するための前記手段が、前記予想される囲み測度を最小限に抑えるためにコストを最小限に抑えることに基づいて前記少なくとも1つの後続の制御入力を決定する、C11に記載の装置。
[C13] 決定するための前記手段が、複数の潜在的後続の制御入力のバッチ処理を使用して前記少なくとも1つの後続の制御入力を決定する、C11に記載の装置。
[C14] 決定するための前記手段が、順次処理を使用して前記少なくとも1つの後続の制御入力を決定する、C11に記載の装置。
[C15] 制御するための前記手段が、最小数の制御入力を使用して前記オブジェクトの周りを移動するように前記エージェントと前記カメラとを制御する、C11に記載の装置。
[C16] 運動計画のためのプログラムコードをその上に符号化した非一時的コンピュータ可読媒体であって、前記プログラムコードは、プロセッサによって実行され、
制御可能カメラを有するエージェントの第1の姿勢からオブジェクトを観測するためのプログラムコードと、
前記カメラから収集されたビジュアルデータに基づく前記オブジェクトの予想される囲み測度を最小限に抑えるように、少なくとも1つの後続の姿勢から前記オブジェクトを観測するために前記エージェントと前記カメラとを移動させるために、少なくとも1つの後続の制御入力を決定するためのプログラムコードと、
前記少なくとも1つの後続の制御入力に基づいて前記エージェントと前記カメラとを制御するためのプログラムコードとを備える、非一時的コンピュータ可読媒体。
[C17] 前記予想される囲み測度を最小限に抑えるためにコストを最小限に抑えることに基づいて前記少なくとも1つの後続の制御入力を決定するためのプログラムコードをさらに備える、C16に記載の非一時的コンピュータ可読媒体。
[C18] 複数の潜在的後続の制御入力のバッチ処理を使用して前記少なくとも1つの後続の制御入力を決定するためのプログラムコードをさらに備える、C16に記載の非一時的コンピュータ可読媒体。
[C19] 順次処理を使用して前記少なくとも1つの後続の制御入力を決定するためのプログラムコードをさらに備える、C16に記載の非一時的コンピュータ可読媒体。
[C20] 最小数の制御入力を使用して前記オブジェクトの周りを移動するように前記エージェントと前記カメラとを制御するためのプログラムコードをさらに備える、C16に記載の非一時的コンピュータ可読媒体。
Claims (20)
- 運動計画の方法であって、
制御可能カメラを有するエージェントの第1の姿勢からオブジェクトを観測することと、
前記カメラから収集されたビジュアルデータに基づく前記オブジェクトの予想される囲み測度が最小限に抑えられるように、少なくとも1つの後続の姿勢から前記オブジェクトを観測するために前記エージェントと前記カメラとを移動させるために、少なくとも1つの後続の制御入力を決定することと、
前記少なくとも1つの後続の制御入力に基づいて前記エージェントと前記カメラとを制御することと
を備える、方法。 - 前記決定することが、前記予想される囲み測度を最小限に抑えるためにコストを最小限に抑えることに基づく、請求項1に記載の方法。
- 前記少なくとも1つの後続の制御入力が、複数の潜在的後続の制御入力のバッチ処理を使用して決定される、請求項1に記載の方法。
- 前記少なくとも1つの後続の制御入力が順次決定される、請求項1に記載の方法。
- 前記エージェントと前記カメラとが、最小数の制御入力を使用して前記オブジェクトの周りを移動するようにさらに制御される、請求項1に記載の方法。
- 運動計画のための装置であって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサは、
制御可能カメラを有するエージェントの第1の姿勢からオブジェクトを観測することと、
前記カメラから収集されたビジュアルデータに基づく前記オブジェクトの予想される囲み測度が最小限に抑えられるように、少なくとも1つの後続の姿勢から前記オブジェクトを観測するために前記エージェントと前記カメラとを移動させるために、少なくとも1つの後続の制御入力を決定することと、
前記少なくとも1つの後続の制御入力に基づいて前記エージェントと前記カメラとを制御することと
を行うように構成された、装置。 - 前記少なくとも1つのプロセッサが、前記予想される囲み測度を最小限に抑えるためにコストを最小限に抑えることに基づいて前記少なくとも1つの後続の制御入力を決定するようにさらに構成された、請求項6に記載の装置。
- 前記少なくとも1つのプロセッサが、複数の潜在的後続の制御入力のバッチ処理を使用して前記少なくとも1つの後続の制御入力を決定するようにさらに構成された、請求項6に記載の装置。
- 前記少なくとも1つのプロセッサが、順次処理を使用して前記少なくとも1つの後続の制御入力を決定するようにさらに構成された、請求項6に記載の装置。
- 前記少なくとも1つのプロセッサが、最小数の制御入力を使用して前記オブジェクトの周りを移動するように前記エージェントと前記カメラとを制御するようにさらに構成された、請求項6に記載の装置。
- 運動計画のための装置であって、
制御可能カメラを有するエージェントの第1の姿勢からオブジェクトを観測するための手段と、
前記カメラから収集されたビジュアルデータに基づく前記オブジェクトの予想される囲み測度が最小限に抑えられるように、少なくとも1つの後続の姿勢から前記オブジェクトを観測するために前記エージェントと前記カメラとを移動させるために、少なくとも1つの後続の制御入力を決定するための手段と、
前記少なくとも1つの後続の制御入力に基づいて前記エージェントと前記カメラとを制御するための手段と
を備える、装置。 - 決定するための前記手段が、前記予想される囲み測度を最小限に抑えるためにコストを最小限に抑えることに基づいて前記少なくとも1つの後続の制御入力を決定する、請求項11に記載の装置。
- 決定するための前記手段が、複数の潜在的後続の制御入力のバッチ処理を使用して前記少なくとも1つの後続の制御入力を決定する、請求項11に記載の装置。
- 決定するための前記手段が、順次処理を使用して前記少なくとも1つの後続の制御入力を決定する、請求項11に記載の装置。
- 制御するための前記手段が、最小数の制御入力を使用して前記オブジェクトの周りを移動するように前記エージェントと前記カメラとを制御する、請求項11に記載の装置。
- 運動計画のためのプログラムコードをその上に符号化した非一時的コンピュータ可読媒体であって、前記プログラムコードは、プロセッサによって実行され、
制御可能カメラを有するエージェントの第1の姿勢からオブジェクトを観測するためのプログラムコードと、
前記カメラから収集されたビジュアルデータに基づく前記オブジェクトの予想される囲み測度を最小限に抑えるように、少なくとも1つの後続の姿勢から前記オブジェクトを観測するために前記エージェントと前記カメラとを移動させるために、少なくとも1つの後続の制御入力を決定するためのプログラムコードと、
前記少なくとも1つの後続の制御入力に基づいて前記エージェントと前記カメラとを制御するためのプログラムコードと
を備える、非一時的コンピュータ可読媒体。 - 前記予想される囲み測度を最小限に抑えるためにコストを最小限に抑えることに基づいて前記少なくとも1つの後続の制御入力を決定するためのプログラムコードをさらに備える、請求項16に記載の非一時的コンピュータ可読媒体。
- 複数の潜在的後続の制御入力のバッチ処理を使用して前記少なくとも1つの後続の制御入力を決定するためのプログラムコードをさらに備える、請求項16に記載の非一時的コンピュータ可読媒体。
- 順次処理を使用して前記少なくとも1つの後続の制御入力を決定するためのプログラムコードをさらに備える、請求項16に記載の非一時的コンピュータ可読媒体。
- 最小数の制御入力を使用して前記オブジェクトの周りを移動するように前記エージェントと前記カメラとを制御するためのプログラムコードをさらに備える、請求項16に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562262249P | 2015-12-02 | 2015-12-02 | |
US62/262,249 | 2015-12-02 | ||
US15/069,834 | 2016-03-14 | ||
US15/069,834 US10268188B2 (en) | 2015-12-02 | 2016-03-14 | Active camera movement determination for object position and extent in three-dimensional space |
PCT/US2016/060079 WO2017095580A1 (en) | 2015-12-02 | 2016-11-02 | Active camera movement determination for object position and extent in three-dimensional space |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018536550A true JP2018536550A (ja) | 2018-12-13 |
JP2018536550A5 JP2018536550A5 (ja) | 2019-11-14 |
JP6907206B2 JP6907206B2 (ja) | 2021-07-21 |
Family
ID=57421934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018528333A Active JP6907206B2 (ja) | 2015-12-02 | 2016-11-02 | 運動計画の方法、運動計画のための装置及び非一時的コンピュータ可読記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10268188B2 (ja) |
EP (1) | EP3383594A1 (ja) |
JP (1) | JP6907206B2 (ja) |
CN (1) | CN108367436B (ja) |
WO (1) | WO2017095580A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11370111B2 (en) * | 2017-09-20 | 2022-06-28 | Magna International Inc. | System and method for adaptive bin picking for manufacturing |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US20200293860A1 (en) * | 2019-03-11 | 2020-09-17 | Infineon Technologies Ag | Classifying information using spiking neural network |
DE102020204829A1 (de) * | 2020-04-16 | 2021-10-21 | Kuka Deutschland Gmbh | Modellieren von Objekten mittels robotergeführter Kameras |
US11607809B2 (en) * | 2020-12-22 | 2023-03-21 | Intrinsic Innovation Llc | Robot motion planning accounting for object pose estimation accuracy |
US20230119076A1 (en) * | 2021-09-01 | 2023-04-20 | Arizona Board Of Regents On Behalf Of Arizona State University | Autonomous polarimetric imaging for photovoltaic module inspection and methods thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013052490A (ja) * | 2011-09-06 | 2013-03-21 | Mitsubishi Electric Corp | ワーク取り出し装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5831621A (en) | 1996-10-21 | 1998-11-03 | The Trustees Of The University Of Pennyslvania | Positional space solution to the next best view problem |
EP1658579B1 (en) | 2003-08-15 | 2016-09-28 | Scape A/S | Method for for classification and spatial localization of bounded 3d-objects |
US20060017720A1 (en) | 2004-07-15 | 2006-01-26 | Li You F | System and method for 3D measurement and surface reconstruction |
KR100721536B1 (ko) | 2005-12-09 | 2007-05-23 | 한국전자통신연구원 | 2차원 평면상에서 실루엣 정보를 이용한 3차원 구조 복원방법 |
WO2008076942A1 (en) | 2006-12-15 | 2008-06-26 | Braintech Canada, Inc. | System and method of identifying objects |
US8126260B2 (en) | 2007-05-29 | 2012-02-28 | Cognex Corporation | System and method for locating a three-dimensional object using machine vision |
US7983487B2 (en) | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
US20100246899A1 (en) * | 2009-03-26 | 2010-09-30 | Rifai Khalid El | Method and Apparatus for Dynamic Estimation of Feature Depth Using Calibrated Moving Camera |
EP2275993A2 (en) | 2009-07-14 | 2011-01-19 | Siemens Aktiengesellschaft | Method for estimating the visibility of features on surfaces of object instances in multi-object scenes and method for perception planning in multi-object scenes |
JP2013022705A (ja) | 2011-07-25 | 2013-02-04 | Sony Corp | ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム |
US10033979B2 (en) * | 2012-03-23 | 2018-07-24 | Avigilon Fortress Corporation | Video surveillance systems, devices and methods with improved 3D human pose and shape modeling |
US8996167B2 (en) * | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | User interfaces for robot training |
EP2887009A1 (en) * | 2013-12-23 | 2015-06-24 | Universität Zürich | Method for reconstructing a surface using spatially structured light and a dynamic vision sensor |
US9272417B2 (en) * | 2014-07-16 | 2016-03-01 | Google Inc. | Real-time determination of object metrics for trajectory planning |
-
2016
- 2016-03-14 US US15/069,834 patent/US10268188B2/en active Active
- 2016-11-02 WO PCT/US2016/060079 patent/WO2017095580A1/en active Application Filing
- 2016-11-02 EP EP16802185.5A patent/EP3383594A1/en active Pending
- 2016-11-02 CN CN201680070415.3A patent/CN108367436B/zh active Active
- 2016-11-02 JP JP2018528333A patent/JP6907206B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013052490A (ja) * | 2011-09-06 | 2013-03-21 | Mitsubishi Electric Corp | ワーク取り出し装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108367436B (zh) | 2021-05-18 |
EP3383594A1 (en) | 2018-10-10 |
CN108367436A (zh) | 2018-08-03 |
WO2017095580A1 (en) | 2017-06-08 |
US20170160737A1 (en) | 2017-06-08 |
US10268188B2 (en) | 2019-04-23 |
JP6907206B2 (ja) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6907206B2 (ja) | 運動計画の方法、運動計画のための装置及び非一時的コンピュータ可読記録媒体 | |
US11216971B2 (en) | Three-dimensional bounding box from two-dimensional image and point cloud data | |
US10946515B2 (en) | Deep machine learning methods and apparatus for robotic grasping | |
CN109964237B (zh) | 图像深度预测神经网络 | |
EP3583380B1 (en) | Shape estimating apparatus | |
JP2022514974A (ja) | 物体検出方法、装置、電子機器、及びコンピュータプログラム | |
JP6571274B2 (ja) | レーザ深度マップサンプリングのためのシステム及び方法 | |
JP2021089724A (ja) | 構造的制約及び物理的制約を伴う3d自動ラベル付け | |
TW201732739A (zh) | 集中於物件的有效三維重構 | |
CN110168614B (zh) | 用于生成混合现实中的动态虚拟内容的设备和方法 | |
US20210114209A1 (en) | Robot control device, and method and non-transitory computer-readable storage medium for controlling the same | |
JP2023535502A (ja) | 半教師付きキーポイントベースモデル | |
US20240033904A1 (en) | Simulating multiple robots in virtual environments | |
US20230158679A1 (en) | Task-oriented 3d reconstruction for autonomous robotic operations | |
Dyrstad et al. | Bin picking of reflective steel parts using a dual-resolution convolutional neural network trained in a simulated environment | |
CN112668596A (zh) | 三维物体识别方法及装置、识别模型训练方法及装置 | |
Oleksiienko et al. | Vpit: Real-time embedded single object 3d tracking using voxel pseudo images | |
US11475631B2 (en) | Training dataset generation for depth measurement | |
EP4206977A1 (en) | Electronic device and control method of electronic device | |
JP2024013228A (ja) | ビルディングシーンのセグメント化 | |
CN116324884A (zh) | 用于视觉定位的设备和方法 | |
Singh | Extended Indoor Layout Estimation using Monocular RGB for Efficient Path Planning and Navigation | |
Rodríguez Torres | Estimation of 3D object pose for packing problem with a deep learning approach | |
CN117333463A (zh) | 一种排水管网检测方法、系统、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191004 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6907206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |