JP2018092449A - システム、治具、情報処理装置、情報処理方法、およびプログラム - Google Patents
システム、治具、情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2018092449A JP2018092449A JP2016236279A JP2016236279A JP2018092449A JP 2018092449 A JP2018092449 A JP 2018092449A JP 2016236279 A JP2016236279 A JP 2016236279A JP 2016236279 A JP2016236279 A JP 2016236279A JP 2018092449 A JP2018092449 A JP 2018092449A
- Authority
- JP
- Japan
- Prior art keywords
- image
- angle
- dictionary data
- object obj
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 43
- 238000003672 processing method Methods 0.000 title description 6
- 230000007613 environmental effect Effects 0.000 claims description 18
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 60
- 238000000034 method Methods 0.000 description 51
- 230000008569 process Effects 0.000 description 32
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 9
- 238000012795 verification Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0096—Programme-controlled manipulators co-operating with a working support, e.g. work-table
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
【解決手段】本発明のある観点によれば、オブジェクトの第1の画像を取得する第1の画像取得機能と、第1の画像におけるオブジェクトの角度を示す角度情報を取得する角度情報取得機能と、第1の画像および角度情報に基づいて辞書データを生成する辞書データ生成機能と、オブジェクトの、第1の画像とは異なる第2の画像を取得する第2の画像取得機能と、第2の画像および辞書データに基づいて、第2の画像におけるオブジェクトの角度を推定する角度推定機能とを単独で、または協働して実現する、1または複数の情報処理装置を含むシステムが提供される。
【選択図】図1
Description
図1は、本発明の第1の実施形態に係るシステム10を概略的に示す図である。図1を参照すると、システム10は、ネットワークNWによって互いに接続された、端末100と、データベース200と、ロボット300とを含む。端末100には、カメラ150と、雲台装置(platform device)160とが接続されている。ロボット300は、カメラ310と、マニピュレータ320とを有する。
図2は、図1に示すシステムにおける端末100の機能構成を示すブロック図である。図2を参照すると、端末100は、画像取得部110と、角度情報取得部120と、辞書データ生成部130とを含む。端末100は、例えばパーソナルコンピュータ、タブレット、またはスマートフォンなどであり、各部の機能は後述する情報処理装置のハードウェア構成によって実現される。具体的には、例えば、画像取得部110、角度情報取得部120、および辞書データ生成部130の機能は、情報処理装置に含まれるプロセッサによって実現される。辞書データ生成部130によって生成された辞書データ210は、ネットワークを介して端末100に接続されたデータベース200に格納される。データベース200の機能は、ネットワークに接続された1または複数の情報処理装置のストレージによって実現される。なお、端末100が複数のプロセッサを含む場合、複数のプロセッサが協働して上記の各部の機能を実現してもよい。また、後述するように、端末100のプロセッサが実現する機能の一部、または全部は、サーバにおいて実現することも可能である。以下、各部の機能について説明する。
以下、本実施形態に係るシステム10において上記の端末100とともに用いられる雲台装置160、および雲台装置160にオブジェクトobjを取り付けるための治具170の構成について、さらに説明する。
図5は、本発明の第1の実施形態において生成される辞書データについて概念的に説明するための図である。図5には、ある識別情報によって特定されるオブジェクトobj(図示された例ではコネクタ)に対応付けられる辞書データ210が例示されている。図示された例において、オブジェクトobjの角度は、3次元空間における直交座標系の3つの軸(X軸、Y軸、Z軸)の回りの回転量によって表されるベクトル量である。辞書データ210は、オブジェクトobjの角度について、X軸の回りの回転量(rot_X)について全周をNX個に分割し、Y軸の回りの回転量(rot_Y)について全周をNY個に分割し、Z軸の回りの回転量(rot_Z)について全周をNZ個に分割することによって定義されるNX×NY×NZ個の要素を少なくとも含む。それぞれの要素は、少なくとも1つの、オブジェクトobjの画像に対応する情報に対応付けられる。ここで、オブジェクトobjの画像に対応する情報は、例えば、オブジェクトobjが回転量(rot_X,rot_Y,rot_Z)で表される角度であるときにカメラ150がキャプチャした画像から抽出された特徴量でありうる。
図6は、図1に示すシステムにおけるロボット300の概略的な構成について説明するための図である。図6を参照すると、ロボット300は、カメラ310と、マニピュレータ320と、制御部330と、センサ340と、モータ350とを含む。ロボット300は、制御部330の制御に従って、例えばマニピュレータ320を用いてオブジェクトobjを把持し、カメラ310を用いてオブジェクトobjの画像をキャプチャすることができる。本実施形態では、マニピュレータ320も、上述した雲台装置160と同様に、オブジェクトobjを保持する保持手段の例である。制御部330は、例えば後述する情報処理装置のハードウェア構成によって実現される。
図7は、図1に示すシステムにおけるロボット300の機能構成を示すブロック図である。図7を参照すると、ロボット300は、カメラ310およびマニピュレータ320に加えて、画像取得部331と、辞書データ取得部332と、オブジェクト認識/角度推定部333と、結果出力部334と、辞書データ更新部335と、マニピュレータ制御部336と、角度情報取得/角度推定部337とを含む。カメラ310およびマニピュレータ320以外の各部は、例えば上述したロボット300の制御部330を実現する情報処理装置のプロセッサによって実現される。なお、制御部330が複数のプロセッサを含む場合、複数のプロセッサが協働して上記の各部の機能を実現してもよい。また、後述するように、制御部330のプロセッサが実現する機能の一部、または全部をサーバにおいて実現することも可能である。以下、各部の機能について説明する。なお、辞書データの更新に関する機能については、後にフローチャートを参照して詳述するため、ここでは簡潔な記載にとどめる。
以下、本実施形態に係るシステム10における処理フローの例について、図8〜図12を参照しながら説明する。
ここで、上記で図12を参照して説明した辞書データ更新処理は、追加の処理として、辞書データ210の更新前の検証処理を含んでもよい。第1の例として、図12に示したステップS351の前に、辞書データ更新処理を実行するか否かを検証する処理が実行されてもよい(ステップS371「検証処理1」として図示されている)。第1の例に係る検証処理において、画像取得部331は、ステップS353でオブジェクトobjが回転させられるよりも前に、オブジェクトobjの画像を再取得する。オブジェクト認識/角度推定部333は、再取得された画像におけるオブジェクトobjの角度を推定する。この推定におけるマッチングスコアが(図9に示したステップS311での推定とは異なり)閾値を超えている場合、辞書データ更新処理は中止され、少なくともステップS363の辞書データの更新は実行されない。
なお、上記の例では、角度情報取得/角度推定部337はオブジェクトobjが回転させられた後に角度を再推定したが、他の例において、角度情報取得/角度推定部337はロボット300がモータ350によってオブジェクトobjとともに移動させられた後で角度を再推定してもよい。ロボット300が移動したことによって、カメラ310が画像をキャプチャするときの環境条件が変化し、オブジェクトobjを回転させなくても信頼度の高い角度の推定ができる可能性がある。なお、ロボット300を移動させるための構成については、後述する第3の実施形態でより詳しく説明されている。
次に、本発明の第2の実施形態について説明する。なお、上述の第1の実施形態と同様に構成される部分については、共通した符号を付することによって重複した説明を省略する場合がある。
次に、本発明の第3の実施形態について説明する。なお、上述した第2の実施形態と同様に構成される部分については、共通した符号を付することによって重複した説明を省略する。
次に、図16を参照して、本発明の実施形態における情報処理装置のハードウェア構成例について説明する。図16は、本発明の実施形態における情報処理装置のハードウェア構成例を示すブロック図である。
Claims (18)
- オブジェクトの第1の画像を取得する第1の画像取得機能と、
前記第1の画像における前記オブジェクトの角度を示す角度情報を取得する角度情報取得機能と、
前記第1の画像および前記角度情報に基づいて辞書データを生成する辞書データ生成機能と、
前記オブジェクトの、前記第1の画像とは異なる第2の画像を取得する第2の画像取得機能と、
前記第2の画像および前記辞書データに基づいて、前記第2の画像における前記オブジェクトの角度を推定する角度推定機能と
を単独で、または協働して実現する、1または複数の情報処理装置を含むシステム。 - 前記辞書データは、前記オブジェクトの互いに異なる複数の画像と、前記複数の画像に共通する前記角度情報とに基づいて生成される要素を含む、請求項1に記載のシステム。
- 前記オブジェクトを保持する保持手段を含み、
前記角度情報取得機能は、前記保持手段から、前記保持手段が前記オブジェクトを保持している角度を示す前記角度情報を取得する、請求項1または2に記載のシステム。 - 前記保持手段は、
前記第1の画像をキャプチャする撮像装置の光軸に直交する第1の軸の回りに回動する基部、
前記基部上で前記第1の軸に対して対称な位置に固定される1対の支柱、
前記基部とは反対側で、前記第1の軸に直交する第2の軸の回りに枢動可能であるように前記1対の支柱にそれぞれ連結される1対のアーム、
前記1対の支柱とは反対側で、前記1対のアームの端部同士の間に固定されるホルダ、ならびに
前記基部が前記第1の軸の回りに回動する角度、および前記1対のアームが前記第2の軸の回りに枢動する角度を設定する制御部
を有する雲台装置と、
前記雲台装置の前記ホルダに取り付け可能な取付部材、
前記オブジェクトを取り付け可能なオブジェクトホルダ、および
前記取付部材と前記オブジェクトホルダとを連結し、前記取付部材が前記雲台装置の前記ホルダに取り付けられたときに、前記オブジェクトホルダに取り付けられた前記オブジェクトが前記第1の軸と前記第2の軸との交点の近傍に位置するように前記取付部材と前記オブジェクトホルダとの位置関係を規定する、連結部材
を有する治具と
を含み、
前記角度情報取得機能は、前記雲台装置の制御部から前記角度情報を取得する、請求項3に記載のシステム。 - 第1の軸の回りに回動する基部、前記基部上で前記第1の軸に対して対称な位置に固定される1対の支柱、前記基部とは反対側で、前記第1の軸に直交する第2の軸の回りに枢動可能であるように前記1対の支柱にそれぞれ連結される1対のアーム、前記1対の支柱とは反対側で、前記1対のアームの端部同士の間に固定されるホルダ、ならびに前記基部が前記第1の軸の回りに回動する角度、および前記1対のアームが前記第2の軸の回りに枢動する角度を設定する制御部を有する雲台装置に取り付け可能な治具であって、
前記雲台装置の前記ホルダに取り付け可能な取付部材と、
オブジェクトを取り付け可能なオブジェクトホルダと、
前記取付部材と前記オブジェクトホルダとを連結し、前記取付部材が前記雲台装置の前記ホルダに取り付けられたときに、前記オブジェクトホルダに取り付けられた前記オブジェクトが前記第1の軸と前記第2の軸との交点の近傍に位置するように前記取付部材と前記オブジェクトホルダとの位置関係を規定する、連結部材と
を備える治具。 - 前記連結部材は、前記取付部材が前記雲台装置の前記ホルダに取り付けられたときに前記雲台装置の前記1対のアームに沿って延び、前記1対のアームに沿った方向の長さを調節可能な構造を有する、請求項5に記載の治具。
- 前記オブジェクトホルダに取り付けられた前記オブジェクトの交換可能な背景を提供する背景板をさらに備える、請求項5または6に記載の治具。
- オブジェクトの互いに異なる複数の画像を取得する画像取得機能と、
前記複数の画像に共通する前記オブジェクトの角度を示す角度情報を取得する角度情報取得機能と、
前記複数の画像、および前記複数の画像に共通する前記角度情報に基づいて辞書データを生成する辞書データ生成機能と
を実現するプロセッサを備える情報処理装置。 - 前記複数の画像は、キャプチャされたときの環境条件が異なる複数の画像を含む、請求項8に記載の情報処理装置。
- 前記環境条件は、背景または光の配置を含む、請求項9に記載の情報処理装置。
- オブジェクトの第1の画像、および前記第1の画像における前記オブジェクトの角度を示す角度情報に基づいて生成された辞書データを取得する辞書データ取得機能と、
前記オブジェクトの、前記第1の画像とは異なる第2の画像を取得する画像取得機能と、
前記第2の画像および前記辞書データに基づいて、前記第2の画像における前記オブジェクトの角度を推定する角度推定機能と
を実現するプロセッサを備える情報処理装置。 - 前記角度推定機能は、
前記第2の画像に基づいて前記辞書データを枝狩りする機能、
前記第2の画像と前記枝狩りされた前記辞書データとのマッチングを実行する機能、および
前記マッチングの結果に基づいて前記角度を推定する機能
を含む、請求項11に記載の情報処理装置。 - 前記辞書データを枝狩りする機能は、
前記第2の画像から複数の特徴部分を抽出する機能、および
前記辞書データのうち、前記複数の特徴部分の位置関係が前記第2の画像と共通しない前記第1の画像に対応する要素を前記マッチングの対象から除外する機能
を含む、請求項12に記載の情報処理装置。 - 前記プロセッサは、前記第2の画像と前記辞書データとのマッチングの結果に基づいて前記オブジェクトを認識する機能をさらに実現する、請求項11〜13のいずれか1項に記載の情報処理装置。
- オブジェクトの互いに異なる複数の画像を取得するステップと、
前記複数の画像に共通する前記オブジェクトの角度を示す角度情報を取得するステップと、
プロセッサが、前記複数の画像、および前記複数の画像に共通する前記角度情報に基づいて辞書データを生成するステップと
を含む情報処理方法。 - オブジェクトの第1の画像、および前記第1の画像における前記オブジェクトの角度を示す角度情報に基づいて生成された辞書データを取得するステップと、
前記オブジェクトの、前記第1の画像とは異なる第2の画像を取得するステップと、
プロセッサが、前記第2の画像および前記辞書データに基づいて、前記第2の画像における前記オブジェクトの角度を推定するステップと
を含む情報処理方法。 - オブジェクトの互いに異なる複数の画像を取得する画像取得機能と、
前記複数の画像に共通する前記オブジェクトの角度を示す角度情報を取得する角度情報取得機能と、
前記複数の画像、および前記複数の画像に共通する前記角度情報に基づいて辞書データを生成する辞書データ生成機能と
をプロセッサに実現させるためのプログラム。 - オブジェクトの第1の画像、および前記第1の画像における前記オブジェクトの角度を示す角度情報に基づいて生成された辞書データを取得する辞書データ取得機能と、
前記オブジェクトの、前記第1の画像とは異なる第2の画像を取得する第2の画像取得機能と、
前記第2の画像および前記辞書データに基づいて、前記第2の画像における前記オブジェクトの角度を推定する角度推定機能と
をプロセッサに実現させるためのプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016236279A JP7051287B2 (ja) | 2016-12-05 | 2016-12-05 | システム、治具、および情報処理方法 |
CN202310244602.0A CN116402887A (zh) | 2016-12-05 | 2017-11-28 | 保持部件和信息处理系统 |
CN201780074636.2A CN110023992B (zh) | 2016-12-05 | 2017-11-28 | 信息处理系统、装置、方法和非暂时性有形介质 |
EP17879522.5A EP3550512A4 (en) | 2016-12-05 | 2017-11-28 | SYSTEM, DEVICE, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM |
US16/464,452 US11200695B2 (en) | 2016-12-05 | 2017-11-28 | System, jig, information processing device, information processing method, and program |
PCT/JP2017/042476 WO2018105434A1 (ja) | 2016-12-05 | 2017-11-28 | システム、治具、情報処理装置、情報処理方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016236279A JP7051287B2 (ja) | 2016-12-05 | 2016-12-05 | システム、治具、および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018092449A true JP2018092449A (ja) | 2018-06-14 |
JP7051287B2 JP7051287B2 (ja) | 2022-04-11 |
Family
ID=62492146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016236279A Active JP7051287B2 (ja) | 2016-12-05 | 2016-12-05 | システム、治具、および情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11200695B2 (ja) |
EP (1) | EP3550512A4 (ja) |
JP (1) | JP7051287B2 (ja) |
CN (2) | CN116402887A (ja) |
WO (1) | WO2018105434A1 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000288968A (ja) * | 1999-04-08 | 2000-10-17 | Fanuc Ltd | 教示モデル生成装置 |
JP2000293695A (ja) * | 1999-04-08 | 2000-10-20 | Fanuc Ltd | 画像処理装置 |
US20030144765A1 (en) * | 2002-01-31 | 2003-07-31 | Babak Habibi | Method and apparatus for single camera 3D vision guided robotics |
JP2006026790A (ja) * | 2004-07-15 | 2006-02-02 | Fanuc Ltd | 教示モデル生成装置 |
JP2007245283A (ja) * | 2006-03-15 | 2007-09-27 | Nissan Motor Co Ltd | ワーク姿勢検知装置、ワーク姿勢検知方法、ピッキングシステム、およびピッキング方法 |
WO2011086889A1 (ja) * | 2010-01-12 | 2011-07-21 | 日本電気株式会社 | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム |
JP2011523718A (ja) * | 2008-05-23 | 2011-08-18 | アウトスフィア インターナショナル リミテッド | オブジェクトの3dデジタル画像を作成及び公開するための3次元写真システム及び方法 |
JP2011180021A (ja) * | 2010-03-02 | 2011-09-15 | Docomo Technology Inc | サーバ装置、プログラム及び位置特定システム |
JP2015169515A (ja) * | 2014-03-06 | 2015-09-28 | 株式会社メガチップス | 姿勢推定システム、プログラムおよび姿勢推定方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4164737B2 (ja) | 2002-05-24 | 2008-10-15 | ソニー株式会社 | 物体認識装置及び方法並びにロボット装置 |
JP4449410B2 (ja) | 2003-10-27 | 2010-04-14 | ソニー株式会社 | ロボット装置及びその物体学習方法 |
CN1800902A (zh) * | 2005-11-14 | 2006-07-12 | 广州和创电子科技有限公司 | 三维旋转观察视频显微镜 |
JP5176572B2 (ja) * | 2008-02-05 | 2013-04-03 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP5665333B2 (ja) * | 2010-03-10 | 2015-02-04 | キヤノン株式会社 | 情報処理装置および情報処理装置の制御方法 |
JP5642410B2 (ja) | 2010-03-30 | 2014-12-17 | パナソニック株式会社 | 顔認識装置及び顔認識方法 |
JP5530984B2 (ja) * | 2010-07-26 | 2014-06-25 | 株式会社ジャパンディスプレイ | 検査装置及び検査方法 |
CN103415780B (zh) | 2011-01-10 | 2015-09-16 | 特林布尔公司 | 用于确定测量仪的位置和定向的方法和系统 |
JP5787642B2 (ja) | 2011-06-28 | 2015-09-30 | キヤノン株式会社 | 対象物保持装置、対象物保持装置の制御方法、およびプログラム |
KR101180471B1 (ko) * | 2011-09-27 | 2012-09-07 | (주)올라웍스 | 한정된 메모리 환경 하에서 얼굴 인식 성능 향상을 위한 참조 얼굴 데이터베이스 관리 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
JP5895569B2 (ja) | 2012-02-08 | 2016-03-30 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP2013251398A (ja) * | 2012-05-31 | 2013-12-12 | Panasonic Corp | 部品実装装置および部品実装方法 |
JP6157066B2 (ja) | 2012-06-11 | 2017-07-05 | キヤノン株式会社 | 画像処理装置、物体取出システム、画像処理方法及びプログラム |
US10071280B2 (en) * | 2012-11-07 | 2018-09-11 | Callaghan Innovation | Arm exercise device and system |
JP6028589B2 (ja) | 2013-01-23 | 2016-11-16 | 富士通株式会社 | 入力プログラム、入力装置および入力方法 |
US9111348B2 (en) | 2013-03-15 | 2015-08-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Computer-based method and system of dynamic category object recognition |
JP6126437B2 (ja) | 2013-03-29 | 2017-05-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US9955068B2 (en) * | 2013-07-15 | 2018-04-24 | Samsung Electronics Co., Ltd. | Apparatus and method for operating a composition of a picture in a portable terminal |
JP2016103094A (ja) | 2014-11-27 | 2016-06-02 | 株式会社豊田自動織機 | 画像処理方法、画像処理装置、および画像処理プログラム |
EP3345530A1 (en) * | 2015-09-01 | 2018-07-11 | Olympus Corporation | Imaging system, processing device, processing method, and processing program |
-
2016
- 2016-12-05 JP JP2016236279A patent/JP7051287B2/ja active Active
-
2017
- 2017-11-28 WO PCT/JP2017/042476 patent/WO2018105434A1/ja active Application Filing
- 2017-11-28 EP EP17879522.5A patent/EP3550512A4/en active Pending
- 2017-11-28 CN CN202310244602.0A patent/CN116402887A/zh active Pending
- 2017-11-28 CN CN201780074636.2A patent/CN110023992B/zh active Active
- 2017-11-28 US US16/464,452 patent/US11200695B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000288968A (ja) * | 1999-04-08 | 2000-10-17 | Fanuc Ltd | 教示モデル生成装置 |
JP2000293695A (ja) * | 1999-04-08 | 2000-10-20 | Fanuc Ltd | 画像処理装置 |
US20030144765A1 (en) * | 2002-01-31 | 2003-07-31 | Babak Habibi | Method and apparatus for single camera 3D vision guided robotics |
JP2006026790A (ja) * | 2004-07-15 | 2006-02-02 | Fanuc Ltd | 教示モデル生成装置 |
JP2007245283A (ja) * | 2006-03-15 | 2007-09-27 | Nissan Motor Co Ltd | ワーク姿勢検知装置、ワーク姿勢検知方法、ピッキングシステム、およびピッキング方法 |
JP2011523718A (ja) * | 2008-05-23 | 2011-08-18 | アウトスフィア インターナショナル リミテッド | オブジェクトの3dデジタル画像を作成及び公開するための3次元写真システム及び方法 |
WO2011086889A1 (ja) * | 2010-01-12 | 2011-07-21 | 日本電気株式会社 | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム |
JP2011180021A (ja) * | 2010-03-02 | 2011-09-15 | Docomo Technology Inc | サーバ装置、プログラム及び位置特定システム |
JP2015169515A (ja) * | 2014-03-06 | 2015-09-28 | 株式会社メガチップス | 姿勢推定システム、プログラムおよび姿勢推定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116402887A (zh) | 2023-07-07 |
EP3550512A4 (en) | 2020-05-13 |
JP7051287B2 (ja) | 2022-04-11 |
US11200695B2 (en) | 2021-12-14 |
WO2018105434A1 (ja) | 2018-06-14 |
CN110023992A (zh) | 2019-07-16 |
EP3550512A1 (en) | 2019-10-09 |
US20190378298A1 (en) | 2019-12-12 |
CN110023992B (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12031838B2 (en) | System, methods, device and apparatuses for preforming simultaneous localization and mapping | |
Rambach et al. | Learning to fuse: A deep learning approach to visual-inertial camera pose estimation | |
CN105979442B (zh) | 噪声抑制方法、装置和可移动设备 | |
GB2581843A (en) | Calibration system and method for robotic cells | |
CN112189218A (zh) | 基于场地的增强现实的方法和装置 | |
CN108827249A (zh) | 一种地图构建方法和装置 | |
CN111801198A (zh) | 一种手眼标定方法、系统及计算机存储介质 | |
WO2012131166A1 (en) | Method and apparatus for motion gesture recognition | |
JP2018013337A (ja) | 飛行物体の誘導位置決め装置および方法 | |
JP2017073753A (ja) | 補正方法、プログラム及び電子機器 | |
CN108958232A (zh) | 一种基于深度视觉的移动扫地机器人slam装置及算法 | |
US11340576B2 (en) | Method and apparatus for estimating system error of commissioning tool of industrial robot | |
US11546982B2 (en) | Systems and methods for determining lighting fixture arrangement information | |
CN104767927A (zh) | 一种对云台摄像设备进行方位控制的方法和装置 | |
CN116563491B (zh) | 一种数字孪生场景建模及标定方法 | |
WO2018105433A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11430193B1 (en) | Resilient interdependent spatial alignment to improve and maintain spatial alignment between two coordinate systems for augmented reality and other applications | |
WO2018105434A1 (ja) | システム、治具、情報処理装置、情報処理方法、およびプログラム | |
JPWO2021033242A1 (ja) | 画像認識装置、画像認識方法、及び、画像認識プログラム | |
CN114926542A (zh) | 基于光学定位系统的混合现实固定参考系校准方法 | |
CN113096254A (zh) | 目标物渲染方法及装置、计算机设备和介质 | |
US20200187333A1 (en) | Systems and methods of directing a lighting fixture in a venue | |
Xia et al. | Insight: An AR-enabled user interface for vision-based markerless interaction with IoT nodes | |
CN110345362A (zh) | 跟拍辅助器件、跟拍辅助设备及其定位控制器的定位控制方法 | |
US10052163B2 (en) | Assisting a surgeon to operate a surgical device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210430 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220120 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220120 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220131 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7051287 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |