JP2021126762A - カメラの視野内の遮蔽を決定するための方法およびシステム - Google Patents
カメラの視野内の遮蔽を決定するための方法およびシステム Download PDFInfo
- Publication number
- JP2021126762A JP2021126762A JP2020105779A JP2020105779A JP2021126762A JP 2021126762 A JP2021126762 A JP 2021126762A JP 2020105779 A JP2020105779 A JP 2020105779A JP 2020105779 A JP2020105779 A JP 2020105779A JP 2021126762 A JP2021126762 A JP 2021126762A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- region
- target feature
- computing system
- control circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000003993 interaction Effects 0.000 claims abstract description 24
- 230000000007 visual effect Effects 0.000 claims description 38
- 230000009471 action Effects 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 4
- 230000001939 inductive effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
Claims (20)
- コンピューティングシステムであって、
第一のカメラ視野を有する第一のカメラを含む少なくとも一つのカメラと通信するように構成された通信インターフェースと、
制御回路と、を備え、
前記制御回路は、複数の物体を有するスタックが前記第一のカメラ視野内にあるとき、
前記少なくとも一つのカメラによって生成されたカメラデータを受信することであって、前記カメラデータは、前記複数の物体の第一の物体のための少なくとも一つの物体構造から形成される、前記スタックの積み重ね構造を記述することと、
前記少なくとも一つのカメラによって生成されたカメラデータに基づいて、前記物体構造の標的特徴または前記物体構造上に配置された標的特徴を識別することであって、前記標的特徴は、前記物体構造の角、前記物体構造の縁、前記物体構造の表面上に配置された視覚的特徴、または前記物体構造の前記表面の輪郭のうちの少なくとも一つであることと、
前記標的特徴と同一平面であり、その境界が前記標的特徴を囲む二次元(2D)領域を決定することと、
前記第一のカメラの位置と前記2D領域の前記境界を接続することによって画定される三次元(3D)領域を決定することであって、前記三次元(3D)領域は、前記第一のカメラ視野の一部であることと、
前記カメラデータおよび前記3D領域に基づいて、遮蔽領域のサイズを決定することであって、前記遮蔽領域は、前記標的特徴と前記少なくとも一つのカメラとの間に位置し、かつ、前記3D領域内にある前記積み重ね構造の領域であることと、
前記遮蔽領域のサイズに基づいて、物体認識信頼パラメータの値を決定することと、
前記積み重ね構造とのロボットの相互作用を制御するための動作を、前記物体認識信頼パラメータの前記値に基づいて実行することと、
を行うように構成されている、コンピューティングシステム。 - 前記制御回路は、前記物体構造のサイズを記述するか、または前記物体構造の前記表面上に現れる視覚的特徴を記述する物体認識テンプレートの情報に基づいて、前記標的特徴を識別するように構成されている、請求項1に記載のコンピューティングシステム。
- 前記視覚的特徴は、前記物体構造の前記表面上に配置された画像であり、
前記制御回路は、前記標的特徴として前記画像を識別するように構成されている、請求項2に記載のコンピューティングシステム。 - 前記制御回路は、画像ノイズレベル、前記物体構造の形状、または前記物体構造の前記表面のテクスチャのうちの少なくとも一つに基づいて、前記2D領域のサイズを決定するように構成されている、請求項1に記載のコンピューティングシステム。
- 前記標的特徴は、前記物体構造の前記縁であり、
前記制御回路は、前記2D領域を、(i)定義されたサイズおよび(ii)前記縁上に位置する中心を有する領域として、決定するように構成されている、請求項1に記載のコンピューティングシステム。 - 前記標的特徴は、前記物体構造の前記角であり、
前記制御回路は、前記2D領域を、(i)定義されたサイズおよび(ii)前記角に位置する中心を有する領域として、決定するように構成されている、請求項1に記載のコンピューティングシステム。 - 前記3D領域は、前記第一のカメラ視野内に位置する仮想ピラミッドであり、
前記2D領域の境界が前記標的特徴を囲む当該2D領域は、第一の2D領域であり、
前記遮蔽領域は、前記第一の2D領域と平行であり、かつ、前記仮想ピラミッド内にある第二の2D領域である、請求項1に記載のコンピューティングシステム。 - 前記制御回路は、
前記カメラデータから、前記積み重ね構造の一つ以上の表面上のそれぞれの位置を表す複数の3Dデータ点を決定することと、
前記第一のカメラに対する前記標的特徴の奥行き値を、予想される奥行き値として決定することと、
前記予想される奥行き値に比べて前記第一のカメラにより近く、かつ、前記3D領域内にある前記積み重ね構造の前記一つ以上の表面上のそれぞれの位置を表すための、前記複数の3Dデータ点のサブセットを決定することであって、前記サブセットが、前記複数の3Dデータ点に関連したそれぞれの奥行き値と前記予想される奥行き値を比較することに基づいて決定されることと、
によって、前記遮蔽領域のサイズを決定するように構成されている、請求項1に記載のコンピューティングシステム。 - 前記3Dデータ点のサブセットは、i)少なくとも定義された差異閾値の分だけ前記予想される奥行き値よりも小さいそれぞれの奥行き値と関連し、かつ、ii)前記3D領域内にある3Dデータ点を、前記複数の3Dデータ点の中から識別することによって決定される、請求項8に記載のコンピューティングシステム。
- 前記通信インターフェースが通信するように構成された前記第一のカメラは、前記カメラデータの一部として、前記積み重ね構造の一つ以上の表面上の位置のそれぞれの奥行き値を示す複数の3Dデータ点を生成するよう構成された3Dカメラである、請求項1に記載のコンピューティングシステム。
- 前記通信インターフェースが通信するように構成された前記少なくとも一つのカメラは、前記カメラデータの一部として、2D画像を生成するよう構成された第二のカメラをさらに含み、
前記制御回路は、前記2D画像に基づいて前記標的特徴を識別するよう構成されている、請求項10に記載のコンピューティングシステム。 - 前記通信インターフェースが通信するように構成された前記第一のカメラは、2Dカメラであり、
前記通信インターフェースが通信するように構成された前記少なくとも一つのカメラは、前記カメラデータの一部として、前記積み重ね構造の一つ以上の表面上の位置のそれぞれの奥行き値を表すための複数の3Dデータ点を生成するように構成された第二のカメラをさらに含む、請求項1に記載のコンピューティングシステム。 - 前記制御回路は、
前記遮蔽領域のサイズと前記2D領域のサイズとの間の比を決定することと、
前記比に基づいて、前記物体認識信頼パラメータの前記値を決定することと、
によって、前記物体認識信頼パラメータの前記値を決定するように構成されている、請求項1に記載のコンピューティングシステム。 - 前記物体認識信頼パラメータの前記値は、前記比が定義された遮蔽閾値を超えるかどうかに基づいて決定される、請求項13に記載のコンピューティングシステム。
- 前記第一のカメラの前記位置は、前記第一のカメラの焦点である、請求項1に記載のコンピューティングシステム。
- 前記ロボットの相互作用を制御するための前記動作は、ロボット動作を引き起こすための移動コマンドを出力することを含み、
前記移動コマンドは、前記標的特徴のより少ない遮蔽を示す方法で前記物体認識信頼パラメータの前記値を変化させるように決定される、請求項1に記載のコンピューティングシステム。 - 前記制御回路は、前記カメラデータに基づいて、前記標的特徴に対する物体認識を実行するように構成され、
ロボットの相互作用を制御するための前記動作は、前記物体認識信頼パラメータの前記値に基づいて、前記物体認識を再実行するかどうか決定することを含むと共に、前記物体認識が再実行された後にロボット動作を決定することを含む、請求項1に記載のコンピューティングシステム。 - コンピューティングシステムによって行われる方法であって、
カメラデータを前記コンピューティングシステムによって受信するステップであって、前記コンピューティングシステムは、第一のカメラ視野を有する第一のカメラを含む少なくとも一つのカメラと通信するように構成された通信インターフェースを備え、前記カメラデータは、複数の物体を有するスタックが前記第一のカメラの視野内にあるとき、前記少なくとも一つのカメラによって生成され、前記カメラデータは、前記複数の物体の第一の物体のための少なくとも一つの物体構造から形成される、前記スタックのための積み重ね構造を記述するステップと、
前記少なくとも一つのカメラによって生成された前記カメラデータに基づいて、前記物体構造の標的特徴または前記物体構造上に配置された標的特徴を識別するステップであって、前記標的特徴は、前記物体構造の角、前記物体構造の縁、前記物体構造の表面上に配置される視覚的特徴、または前記物体構造の前記表面の輪郭のうちの少なくとも一つであるステップと、
前記標的特徴と同一平面であり、その境界が前記標的特徴を囲む二次元(2D)領域を決定するステップと、
前記第一のカメラの位置と前記2D領域の境界を接続することによって画定される三次元(3D)領域を決定するステップであって、前記三次元(3D)領域は、前記第一のカメラ視野の一部であるステップと、
前記カメラデータおよび前記3D領域に基づいて、遮蔽領域のサイズを決定するステップであって、前記遮蔽領域は、前記標的特徴と前記少なくとも一つのカメラとの間に位置し、かつ、前記3D領域内にある前記積み重ね構造の領域であるステップと、
前記遮蔽領域の前記サイズに基づいて、物体認識信頼パラメータの値を決定するステップと、
前記積み重ね構造とのロボットの相互作用を制御するための動作を、前記物体認識信頼パラメータの前記値に基づいて実行するステップと、
を含む、方法。 - 前記3D領域は、前記第一のカメラ視野内に位置する仮想ピラミッドであり、
前記2D領域の境界が前記標的特徴を囲む当該2D領域は、第一の2D領域であり、
前記遮蔽領域は、前記第一の2D領域と平行であり、かつ、前記仮想ピラミッド内にある第二の2D領域である、請求項18に記載の方法。 - 命令を有する非一時的コンピュータ可読媒体であって、コンピューティングシステムの制御回路によって実行されるとき、
前記カメラデータを受信することであって、前記コンピューティングシステムは、第一のカメラ視野を有する第一のカメラを含む少なくとも一つのカメラと通信するように構成された通信インターフェースを備え、前記カメラデータは、複数の物体を有するスタックが前記第一のカメラの視野内にあるとき、前記少なくとも一つのカメラによって生成され、前記カメラデータは、前記複数の物体の第一の物体のための少なくとも一つの物体構造から形成される、前記スタックのための積み重ね構造を記述することと、
前記少なくとも一つのカメラによって生成された前記カメラデータに基づいて、前記物体構造の標的特徴または前記物体構造上に配置された標的特徴を識別することであって、前記標的特徴は、前記物体構造の角、前記物体構造の縁、前記物体構造の表面上に配置される視覚的特徴、または前記物体構造の表面の輪郭のうちの少なくとも一つであることと、
前記標的特徴と同一平面であり、その境界が前記標的特徴を囲む二次元(2D)領域を決定することと、
前記第一のカメラの位置と前記2D領域の境界を接続することによって画定される三次元(3D)領域を決定することであって、前記三次元(3D)領域は、前記第一のカメラ視野の一部であることと、
前記カメラデータおよび前記3D領域に基づいて、遮蔽領域のサイズを決定することであって、前記遮蔽領域は、前記標的特徴と前記少なくとも一つのカメラとの間に位置し、かつ、前記3D領域内にある前記積み重ね構造の領域であることと、
前記遮蔽領域の前記サイズに基づいて、物体認識信頼パラメータの値を決定することと、
前記積み重ね構造とのロボットの相互作用を制御するための動作を、前記物体認識信頼パラメータの前記値に基づいて実行することと、
を前記制御回路に行わせる、非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/789,570 US11006039B1 (en) | 2020-02-13 | 2020-02-13 | Method and system for determining occlusion within a camera field of view |
US16/789,570 | 2020-02-13 | ||
JP2020080050A JP6723628B1 (ja) | 2020-02-13 | 2020-04-30 | カメラの視野内の遮蔽を決定するための方法およびシステム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020080050A Division JP6723628B1 (ja) | 2020-02-13 | 2020-04-30 | カメラの視野内の遮蔽を決定するための方法およびシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021126762A true JP2021126762A (ja) | 2021-09-02 |
JP2021126762A5 JP2021126762A5 (ja) | 2023-07-04 |
Family
ID=71523891
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020080050A Active JP6723628B1 (ja) | 2020-02-13 | 2020-04-30 | カメラの視野内の遮蔽を決定するための方法およびシステム |
JP2020105779A Pending JP2021126762A (ja) | 2020-02-13 | 2020-06-19 | カメラの視野内の遮蔽を決定するための方法およびシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020080050A Active JP6723628B1 (ja) | 2020-02-13 | 2020-04-30 | カメラの視野内の遮蔽を決定するための方法およびシステム |
Country Status (4)
Country | Link |
---|---|
US (3) | US11006039B1 (ja) |
JP (2) | JP6723628B1 (ja) |
CN (1) | CN113255415A (ja) |
DE (2) | DE102020205896A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11407111B2 (en) * | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
US10614340B1 (en) * | 2019-09-23 | 2020-04-07 | Mujin, Inc. | Method and computing system for object identification |
WO2021158773A1 (en) | 2020-02-06 | 2021-08-12 | Berkshire Grey, Inc. | Systems and methods for camera calibration with a fiducial of unknown position on an articulated arm of a programmable motion device |
CN116619386A (zh) * | 2021-05-18 | 2023-08-22 | 牧今科技 | 用于物体大小测量的机器人系统 |
US20230041378A1 (en) * | 2021-08-09 | 2023-02-09 | Mujin, Inc. | Systems and methods for object detection |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9823737B2 (en) | 2008-04-07 | 2017-11-21 | Mohammad A Mazed | Augmented reality personal assistant apparatus |
JP4649559B2 (ja) | 2009-03-05 | 2011-03-09 | 株式会社三次元メディア | 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体 |
JP2013101045A (ja) | 2011-11-08 | 2013-05-23 | Fanuc Ltd | 物品の3次元位置姿勢の認識装置及び認識方法 |
KR102111181B1 (ko) | 2012-08-21 | 2020-05-15 | 포토내이션 리미티드 | 어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법 |
US9154697B2 (en) | 2013-12-06 | 2015-10-06 | Google Inc. | Camera selection based on occlusion of field of view |
US9424470B1 (en) * | 2014-08-22 | 2016-08-23 | Google Inc. | Systems and methods for scale invariant 3D object detection leveraging processor architecture |
JP2016099257A (ja) | 2014-11-21 | 2016-05-30 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
US9508681B2 (en) | 2014-12-22 | 2016-11-29 | Google Inc. | Stacked semiconductor chip RGBZ sensor |
WO2017132636A1 (en) * | 2016-01-29 | 2017-08-03 | Pointivo, Inc. | Systems and methods for extracting information about objects from scene information |
JP6890422B2 (ja) | 2016-03-02 | 2021-06-18 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP6747665B2 (ja) | 2016-06-07 | 2020-08-26 | トヨタ自動車株式会社 | ロボット |
JP7065632B2 (ja) | 2018-02-13 | 2022-05-12 | Kyoto Robotics株式会社 | 箱状物ピッキング装置及びその方法 |
WO2019161300A1 (en) | 2018-02-18 | 2019-08-22 | Nvidia Corporation | Detecting objects and determining confidence scores |
CN108555908B (zh) | 2018-04-12 | 2020-07-28 | 同济大学 | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 |
US10369698B1 (en) | 2019-03-07 | 2019-08-06 | Mujin, Inc. | Method and system for performing automatic camera calibration for robot control |
US10510155B1 (en) | 2019-06-11 | 2019-12-17 | Mujin, Inc. | Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera |
US10565737B1 (en) | 2019-07-09 | 2020-02-18 | Mujin, Inc. | Method and system for performing automatic camera calibration for a scanning system |
-
2020
- 2020-02-13 US US16/789,570 patent/US11006039B1/en active Active
- 2020-04-10 CN CN202010277345.7A patent/CN113255415A/zh active Pending
- 2020-04-30 JP JP2020080050A patent/JP6723628B1/ja active Active
- 2020-05-11 DE DE102020205896.2A patent/DE102020205896A1/de active Pending
- 2020-06-19 JP JP2020105779A patent/JP2021126762A/ja active Pending
-
2021
- 2021-02-12 DE DE102021201369.4A patent/DE102021201369A1/de active Pending
- 2021-04-13 US US17/228,783 patent/US11924559B2/en active Active
-
2024
- 2024-02-29 US US18/591,980 patent/US20240276106A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102020205896A1 (de) | 2021-08-19 |
DE102021201369A1 (de) | 2021-08-19 |
JP2021126761A (ja) | 2021-09-02 |
US11006039B1 (en) | 2021-05-11 |
CN113255415A (zh) | 2021-08-13 |
US20240276106A1 (en) | 2024-08-15 |
US11924559B2 (en) | 2024-03-05 |
US20210258478A1 (en) | 2021-08-19 |
JP6723628B1 (ja) | 2020-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021126762A (ja) | カメラの視野内の遮蔽を決定するための方法およびシステム | |
CN110490922B (zh) | 基于第二图像更新第一图像的方法和处理系统 | |
US11724400B2 (en) | Information processing apparatus for determining interference between object and grasping unit, information processing method, and storage medium | |
JP6461369B2 (ja) | 視覚光、および、赤外の投射されるパターンを検出するためのイメージャ | |
KR102129103B1 (ko) | 적어도 3개의 이산 평면에 따른 머신 비젼 카메라의 보정을 위한 시스템 및 방법 | |
US7711182B2 (en) | Method and system for sensing 3D shapes of objects with specular and hybrid specular-diffuse surfaces | |
JP6338421B2 (ja) | 情報処理装置、情報処理装置の制御方法、把持システムおよびプログラム | |
WO2020217878A1 (ja) | 対象物の位置姿勢を検出する装置、方法およびプログラム | |
JP2017096939A (ja) | ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法 | |
US20210039257A1 (en) | Workpiece picking device and workpiece picking method | |
US11398085B2 (en) | Systems, methods, and media for directly recovering planar surfaces in a scene using structured light | |
CN111582196B (zh) | 用于确定相机视场内的遮挡的方法和系统 | |
US20190228541A1 (en) | Marker and Posture Estimating Method Using Marker | |
JP2014002739A (ja) | 移動装置を案内するためのシステムおよび方法 | |
US9560250B2 (en) | Information processing apparatus, measurement system, control system, light amount determination method and storage medium | |
KR20240013706A (ko) | 자기 위치 측정이 가능한 로봇 및 위치 측정 방법 | |
Cowan et al. | Edge-based placement of camera and light source for object recognition and location | |
CN113313803B (zh) | 垛型分析方法、装置、计算设备及计算机存储介质 | |
JP5703890B2 (ja) | 認識対象物、対象物認識装置およびプログラム、対象物認識システム | |
JP4546155B2 (ja) | 画像処理方法、画像処理装置および画像処理プログラム | |
CN118379330B (zh) | 基于四摄像头的目标跟踪方法、集群机器人和存储介质 | |
JP7386531B2 (ja) | 対象物の位置および姿勢の計測のためのマーカ、装置およびシステム | |
US20240013436A1 (en) | Unconstrained calibration system and method for sensor suites in robotics | |
WO2024055683A1 (zh) | 一种增强现实方法和计算装置 | |
CN117745837A (zh) | 焊缝三维信息的确定方法、确定装置与爬壁焊接机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230427 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240805 |