JP2019184340A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019184340A
JP2019184340A JP2018073255A JP2018073255A JP2019184340A JP 2019184340 A JP2019184340 A JP 2019184340A JP 2018073255 A JP2018073255 A JP 2018073255A JP 2018073255 A JP2018073255 A JP 2018073255A JP 2019184340 A JP2019184340 A JP 2019184340A
Authority
JP
Japan
Prior art keywords
measurement
data
sensor
information processing
measurement data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018073255A
Other languages
English (en)
Other versions
JP6888580B2 (ja
Inventor
宏祐 服部
Hirosuke Hattori
宏祐 服部
嘉典 小西
Yoshinori Konishi
嘉典 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018073255A priority Critical patent/JP6888580B2/ja
Priority to CN201910180988.7A priority patent/CN110340883A/zh
Priority to EP19163344.5A priority patent/EP3550258B1/en
Priority to US16/358,746 priority patent/US11426876B2/en
Publication of JP2019184340A publication Critical patent/JP2019184340A/ja
Application granted granted Critical
Publication of JP6888580B2 publication Critical patent/JP6888580B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39058Sensor, calibration of sensor, potentiometer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Manipulator (AREA)

Abstract

【課題】3次元計測を好適に行うことのできる情報処理装置等を提供する。【解決手段】3D計測センサ13が3次元計測を行う複数の計測位置および/又は方向を決める決定部105と、3D計測センサを複数の計測位置および/又は方向の各々に順次移動させる制御部101と、複数の計測位置および/又は方向の各々において3D計測センサを用いて3次元計測を行うことにより複数の3D計測データを生成する計測部103と、複数の3D計測データを統合するデータ統合部107とを備える。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、3Dセンサ等で対象物を撮影し、当該撮影結果に応じて部材の位置を判別した上で、アームにより当該対象物を掴んだり組み立てたりするなどの操作を行う産業ロボットが普及しつつある。3Dセンサは通常、対象物表面で反射した反射光により3Dセンサから対象物表面までの距離を計測する。しかしながら、対象物が金属で構成されている部材である場合等には表面で鏡面反射が起きるため、好適な反射光が得られにくい。また対象物の形状によっては、反射光が得られにくい死角が生じることがある。この結果、鏡面反射等を生じさせる部材や複雑な形状の対象物は3D計測が困難であり、3Dセンサでの検出範囲の一部に3D計測が行えない領域が発生しやすい。
ここで、例えば特許文献1には、プロジェクタと3台以上の撮像手段とを用いて複数位置で3D計測を行う3次元計測装置が開示されている。この3次元計測装置では、複数位置で撮影した3D計測結果を所定の座標系で統合することにより、3次元計測を行う。
特許第5633058号
しかしながら、特許文献1記載の手法では、撮像手段の位置が固定されているため、対象物の形状や部材等によっては、依然として、死角や鏡面反射等により3D計測が行えない領域が残ることがある。また、複数台の撮像装置を使用するため、それぞれの装置の較正(キャリブレーション)や、撮像タイミングの制御が必要になるため、装置構成が複雑である。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、死角や鏡面反射等による未計測領域の少ない3次元計測を好適に行うことのできる情報処理装置、情報処理方法、およびプログラムを提供することを目的の1つとする。
本発明の一態様にかかる情報処理装置は、3D計測センサが3次元計測を行う複数の計測位置および/又は方向を決める決定部と、前記3D計測センサを前記複数の計測位置および/又は方向の各々に順次移動させる制御部と、前記複数の計測位置の各々において前記3D計測センサを用いて3次元計測を行うことにより複数の3D計測データを生成する計測部と、前記複数の3D計測データを統合するデータ統合部とを備える。
当該構成では、死角や鏡面反射等の影響により特定の計測位置からは計測対象物に対する3次元計測が行えなかった場合であっても、異なる計測位置から3次元計測が行えれば、両者を統合することで、3D計測データにおける欠損領域を狭めることができる。
上記構成において、前記データ統合部は、前記複数の3D計測データのうち、第1の3D計測データで3次元計測が行えなかった欠損領域が、当該第1の3D計測データとは計測位置および/又は方向の異なる第2の3D計測データで3次元計測が行えた場合に、前記第1の3D計測データの前記欠損領域に対して前記第2の3D計測データを適用する、ように構成されてもよい。
当該構成では、第1の3D計測データでの欠損領域を、第2の3D計測データで補完することにより、欠損領域を狭めることができる。
上記構成において、前記データ統合部は、前記第1の3D計測データおよび前記第2の3D計測データのいずれでも3次元計測が行えた領域に対しては、計測対象物からの距離が近い計測位置および/又は方向での計測結果を適用する、ように構成されてもよい。
3次元計測では一般的に、近い位置からの計測の方が高精度であるため、当該構成では、距離が近い位置からの3次元計測結果を適用することで、統合結果である3D計測データの精度を高めることができる。
上記構成において、前記データ統合部による前記複数の3D計測データの統合と、前記制御部による前記3D計測センサの移動とを並列に行う、ように構成されてもよい。
当該構成では、3D計測データの統合と3D計測センサの移動とを並列に行うことで、全体的な処理時間を低減させることができる。
上記構成において、前記制御部は、ロボットの有するロボットハンドにより前記3D計測センサを移動させる、ように構成されてもよい。
当該構成では、把持等の作業を行うロボットハンドを用いて3D計測センサを移動させることができる。この結果、作業を行うロボットハンドとは別に3D計測センサを移動させる機構を設ける必要がなく、また、作業を行うロボットハンドの位置から3D計測を行うことが可能となる。
上記構成において、前記制御部は、前記ロボットハンドに取り付けられた前記3D計測センサに対するハンドアイ・キャリブレーションを行う、ように構成されてもよい。
当該構成では、複数の3D計測データの統合において、精密に位置合わせを行うことができる。
上記構成において、前記データ統合部は、前記複数の計測位置および/又は方向の間の相対位置および相対的な回転角度を算出することにより、前記複数の3D計測データの座標系が同一になるように変換した上で前記複数の3D計測データを統合する、ように構成されてもよい。
特にロボットハンドを用いて3D計測センサを移動させる場合、ロボットハンドを持つロボットのエンコーダから計測位置および/又は方向を取得できることが多いため、当該構成では、それらを用いて、容易かつ好適に3D計測データの統合を行うことができる。
本発明の一態様にかかる情報処理方法は、3D計測センサが3次元計測を行う複数の計測位置および/又は方向を決める処理と、前記3D計測センサを前記複数の計測位置および/又は方向の各々に順次移動させる処理と、前記複数の計測位置および/又は方向の各々において前記3D計測センサを用いて3次元計測を行うことにより複数の3D計測データを生成する処理と、前記複数の3D計測データを統合する処理とを情報処理装置が行う。
当該構成では、死角や鏡面反射等の影響により特定の計測位置からは計測対象物に対する3次元計測が行えなかった場合であっても、異なる計測位置から3次元計測が行えれば、両者を統合することで、3D計測データにおける欠損領域を狭めることができる。
本発明の一態様にかかるプログラムは、3D計測センサが3次元計測を行う複数の計測位置および/又は方向を決める処理と、前記3D計測センサを前記複数の計測位置および/又は方向の各々に順次移動させる処理と、前記複数の計測位置および/又は方向の各々において前記3D計測センサを用いて3次元計測を行うことにより複数の3D計測データを生成する処理と、
前記複数の3D計測データを統合する処理とを情報処理装置に実行させる。
当該構成では、死角や鏡面反射等の影響により特定の計測位置からは計測対象物に対する3次元計測が行えなかった場合であっても、異なる計測位置から3次元計測が行えれば、両者を統合することで、3D計測データにおける欠損領域を狭めることができる。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されてもよい。
実施形態にかかる3D位置検出システムの処理の一例を説明するための図である。 実施形態にかかる3D位置検出システムの処理の一例を説明するための図である。 実施形態にかかる3D位置検出システムの構成の一例を模式的に例示するための図である。 実施形態にかかる情報処理装置の処理手順の一例を例示するフローチャートである。 実施形態にかかる情報処理装置の処理手順の一例を例示するフローチャートである。 実施形態にかかる情報処理装置の処理手順の一例を例示するフローチャートである。 実施形態にかかる情報処理装置のハードウェア構成の一例を模式的に例示するための図である。
以下、図面を参照して本発明の実施形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
[1 適用例]
図1Aおよび図1Bを参照しながら、実施形態にかかる全体の概要を説明する。実施形態にかかる情報処理装置は、例えば、ロボットハンド11を持つ産業ロボット10の先端に取り付けられた3D計測センサ13を用いて対象物Oの3次元位置を計測するためのものである。
3D計測センサ13は、対象物Oの表面からの反射光Lを検出することにより対象物Oの表面までの距離を計測する。これを一定範囲内に行うことで、対象物Oの表面の3次元座標を計測できる。なお、図1Aおよび図1Bの例では、3D計測センサ13が対象物Oに光を照射しているが、これに限られるものではなく、3D計測センサ13以外の光源からの光の反射光Lを3D計測センサ13で検出することにより対象物Oの表面までの距離を計測してもよい。なお、3D計測センサ13には、ステレオカメラやTOF(Time of Flight)センサ、位相シフト方式のセンサ等、種々のものを適用することができ、3D計測センサ13による3次元計測方法は任意である。
しかしながら、対象物Oが金属で構成されている場合等には対象物Oの表面で鏡面反射が生じる結果、好適な反射光Lが得られにくい。また、対象物Oの形状によっても、部分敵に反射光Lが得られにくい死角が生じる場合がある。好適な反射光Lが得られない領域では3次元位置を計測することはできない。以下、死角や鏡面反射等の影響により3次元位置が計測できなかった領域を「未計測領域」または「欠損領域」ともいう。
図1Aおよび図1Bに示すように、本実施形態にかかる3D位置検出システムは、ロボットハンド11により3D計測センサ13の位置および方向を変化させ、複数の位置および方向から対象物Oの3次元位置を計測する。たとえば、図1Aの3D計測センサ13の位置からは対象物Oの3次元位置が計測できなかった領域であっても、図1Bの3D計測センサ13の位置および方向から対象物Oの3次元位置が計測できれば、両者を統合することにより未計測領域を狭めることができる。このように、複数の位置および方向から計測した3次元位置を統合することにより、死角や鏡面反射等により生じる未計測領域を狭めつつ、1つの位置および方向のみの3次元位置計測よりも精度を向上させる。
なお、以下の説明では産業ロボット10のロボットハンド11を駆動させることにより3D計測センサ13の位置および方向を変化させるが、3D計測センサ13の位置および方向を移動させる方法はロボットハンド11に限られない。例えば、3D計測センサ13がレール上を任意に移動可能に設けられたり、あるいは車両型の移動ロボットやドローンに3D計測センサ13を取り付けたりすることも考えられる。
また、以下の説明では、3D計測センサ13の位置および方向の両者を変更する場合を例に説明するが、これに限られるものではなく、位置および方向の一方のみを変化させてもよい。
[2 構成例]
図2を参照しながら、本実施形態にかかる3D位置検出システム1の動作構成例を説明する。本実施形態にかかる3D位置検出システム1は、大きく産業ロボット10および情報処理装置100を含む。なお、情報処理装置100と産業ロボット10は、物理的に異なる装置として実現される必要はなく、産業ロボット10と情報処理装置100とを1台の装置として実現してもよい。
[2.1 産業ロボット10]
産業ロボット10は、ロボットハンド11および3D計測センサ13を含む。ロボットハンド11は、情報処理装置100のロボット制御部101による制御により、3D計測センサ13の3次元位置および方向を任意に変えるための機構である。ロボットハンド11に、対象物Oに対する任意の作業を行う機構を設けても良い。
3D計測センサ13は、情報処理装置100の3D計測部103による制御により、対象物Oに光を照射し、その反射光Lを検出することにより、対象物Oの表面までの距離を計測するための機構である。
[2.2 情報処理装置100]
情報処理装置100は、ロボット制御部101、3D計測部103、センサ位置決定部105、3D計測データ統合部107、出力部109、およびデータベース(DB)111を含む。
ロボット制御部101は、産業ロボット10のロボットハンド11との間で各種制御信号を送受信することにより、ロボットハンド11を動かす。特に、後述のセンサ位置決定部105が決めた位置および方向に3D計測センサ13が位置するように、ロボット制御部101はロボットハンド11を制御する。これによりロボットハンド11は、3D計測センサ13の3次元位置を変化させることができる。なお、3D計測センサ13が計測を行った際のロボットハンド11の姿勢情報は、ロボット制御部101が産業ロボット10の有するエンコーダからロボット姿勢データ115として取得し、DB111に格納する。ここで、ロボット制御部101が産業ロボット10の有するエンコーダから取得するロボット姿勢データ115には、ロボットの台座の設置位置を基準とするロボットハンド11の相対回転角度Rおよび相対位置tの情報を含むことができる。ロボット制御部101は、本発明の「制御部」の一例である。
3D計測部103は、産業ロボット10の3D計測センサ13との間で各種制御信号を送受信することにより、対象物O表面の3次元位置を計測する。センサ位置決定部105が決めた複数の位置および方向から3次元位置の計測を行う場合には、ロボット制御部101による制御の下、3D計測センサ13が各々の位置および方向に移動した時点で、3D計測部103は3次元位置の計測を行えばよい。3次元位置の計測結果は、3D計測データ113としてDB111に格納される。なお、3D計測部103は、3次元位置の計測精度を上げるため、3次元位置計測に先立ってハンドアイ・キャリブレーション(較正)処理を行ってもよい。3D計測部103は、本発明の「計測部」の一例である。
センサ位置決定部105は、3D計測センサ13が対象物Oの表面の3次元位置を計測するための3D計測センサ13の位置および方向を複数決める。計測を行う3D計測センサ13の位置および方向の決定方法は任意であるが、例えば同一円弧上や同一球面上を一定角度(例えば15度)ずつ3D計測センサ13を移動させるとともに対象物Oの方向に向くようにすることにより計測位置および方向を決めたり、ランダムに3D計測センサ13を移動させることにより計測位置および方向を決めたりすることが考えられる。あるいは、3次元位置の計測範囲における死角がなるべく少なくなるようにセンサ位置決定部105が3D計測センサ13の位置および方向を決めるようにすることも考えられる。センサ位置決定部105は、本発明の「決定部」の一例である。
3D計測データ統合部107は、複数の位置および方向で計測された3D計測結果である3D計測データ113の統合処理を行う。統合処理において3D計測データ統合部107は、たとえばまずロボット姿勢データ115を用いて、3D計測データ113の座標系が同一になるように変換した上で統合すればよい。より具体的には、3D計測データ統合部107はロボット姿勢データ115を用いて、3D計測データ113が生成された際の3D計測センサ13の各々の位置および方向の間の相対的な回転角度および相対位置を算出する。そのうえで、3D計測データ統合部107は3D計測データ113の座標系が同一になるように変換し、両者を統合する。統合方法は種々考えられるが、例えば、第1位置および方向で3次元位置が計測されず第2位置および方向で3次元位置が計測できた領域については、3D計測データ統合部107は後者を適用して3次元位置を決めればよい。また、第1位置および方向および第2位置および方向のいずれでも3次元位置が計測できた場合には、第1位置および方向並びに第2位置および方向のうち、対象物O表面の計測対象の位置からの直線距離が近い位置で計測された3次元位置計測結果を適用することが考えられる。より具体的には、例えば第1位置および第2位置から計測された3D計測データ113において、(x,y)座標が同一であれば、z座標の値がより小さい方を採用すればよい。
あるいは3D計測データ統合部107は、TSDF(Truncated Signed Distance Function)などのアルゴリズムを用いて3D計測データ113を統合することも考えられる。またこのとき、周囲の3次元位置の情報により未計測領域の3次元位置を補完してもよい。3D計測データ統合部107による処理の流れの具体例は、図4を参照しながら後述する。3D計測データ統合部107は、本発明の「データ統合部」の一例である。
出力部109は、3D計測データ統合部107により統合された3D計測データ113を外部へと出力する。出力先は種々考えられるが、例えば、対象物Oに対する把持操作等を行うために産業ロボット10を制御するための制御モジュールへ出力部109から3D計測データ113を出力すること等が考えられる。なお、制御モジュールはソフトウェアモジュールであるかハードウェアモジュールであるかは問わない。
DB(データベース)111は、各位置で計測された対象物O表面の位置を示す3D計測データ113、およびその際のロボットハンド11の姿勢情報を示すロボット姿勢データ115を格納および管理する。3D計測データ113には、計測範囲内における各々の3次元座標情報を含むことができる。また、ロボット姿勢データ115には、3D計測センサ13の座標および回転角度の情報を含むことができる。
[3 処理の流れ]
図3乃至図5を参照しながら、情報処理装置100の処理の流れを2つの例に分けて説明する。図3および図4は処理例1に関する、図5は処理例2に関する情報処理装置100の処理の流れを示すフローチャートである。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行されてもよい。また、各処理ステップ間に他のステップが追加されて実行されてもよい。さらに、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行されることもでき、便宜上複数に分けて記載されているステップを1ステップとして実行されることもできる。
[3.1 処理例1]
図3を参照しながら、処理例1に関する情報処理装置100の処理の流れを説明する。
まず3D計測部103は、3次元位置の計測に先立ち、計測位置に応じた3D計測データ113の座標変換に使用するために3D計測センサ13に対するハンドアイ・キャリブレーション(較正)処理を行う(S301)。なお、ハンドアイ・キャリブレーション処理は、計測の度に毎回行う必要はなく、3D計測センサ13を取り付けた後1回行えば十分である。
センサ位置決定部105は、3D計測センサ13で3次元位置計測を行う位置および方向を複数決める(S303)。
ロボット制御部101は、センサ位置決定部105が決めた位置および方向に3D計測センサ13が移動するように産業ロボット10のロボットハンド11を制御する(S305)。
センサ位置決定部105が決めた位置および方向に3D計測センサ13が移動すると、3D計測部103は計測範囲内(対象物Oの表面を含む)の3次元位置を計測する(S307)。
ロボット制御部101および3D計測部103は、それぞれロボットハンド11の姿勢位置を示すロボット姿勢データ115および3D計測部103が計測した3D計測データ113を取得し、DB111に格納する(S309)。
ロボット制御部101および3D計測部103は、センサ位置決定部105が決めた全ての位置および方向に対してS305乃至S309の処理を繰り返す(S311のNo)。
全ての位置および方向に対する処理が終わると(S311のYes)、3D計測データ統合部107はロボット姿勢データ115を用いて、3D計測データ113の統合処理を行う(S313)。
出力部109は、統合された3D計測データ113を出力する(S315)。
図4を参照しながら、S313に示した3D計測データ統合部107による3D計測データ113の統合処理の流れを説明する。ここでは、位置および方向0の3D計測データ113に対し、他の位置および方向の3D計測データ113を統合するものとする。
まず3D計測データ統合部107は、DB111に格納された任意の3D計測データ113の中から、3D計測データiを選択する(S401)。ここでiは自然数である。
次に3D計測データ統合部107は、ロボット姿勢データ115を用いて、位置および方向0における3D計測センサ13の位置および回転角度に対する位置および方向iにおける3D計測センサ13の相対回転角度Rおよび相対位置tを算出する。位置および方向iにおける相対回転角度Rおよび相対位置tは、以下の式により算出できる。
ここで、
は3D計測センサ13の位置および方向0を基準とした、3D計測センサ13の位置および方向iの相対回転角度および相対位置tを、
は、図3のS301に示したハンドアイ・キャリブレーションにおける、ロボットハンド11に対する3D計測センサ13の相対回転角度Rおよび位置tを、
は、位置および方向0のときの、産業ロボット10の台座の設置位置を基準とするロボットハンド11の相対回転角度Rおよび位置tを、
は、位置および方向iのときの、産業ロボット10の台座の設置位置を基準とするロボットハンド11の相対回転角度Rおよび相対位置tを、それぞれ示す。
3D計測データ統合部107は、3D計測データ0と3D計測データiとの精密位置合わせを行う(S405)。精密位置合わせの方法は種々考えられるが、例えば、S403で算出した位置および方向iにおける初期相対回転角度Rおよび相対位置tを元にICP(Iterative Closest Point)により位置合わせを行うことが考えられる。なお、産業ロボット10のロボットハンド11の駆動精度およびハンドアイ・キャリブレーションの精度が十分高いと考えられる場合には、S405の精密位置合わせの処理を省略してもよい。
このようにして位置および方向0および位置および方向iに対する相対回転角度Rおよび相対位置tを求め、両者の座標系を一致させた上で、3D計測データ統合部107は、3D計測データ0と3D計測データiとの統合処理を行う(S407)。先述のとおり、統合方法は種々考えられる。例えば、第1位置および方向で3次元位置が計測されず第2位置および方向で3次元位置が計測できた領域については、3D計測データ統合部107は後者を適用して3次元位置を決めればよい。また、第1位置および方向並びに第2位置および方向のいずれでも3次元位置が計測できた場合には、より直線距離の近い位置および方向で計測された3次元位置計測結果を適用することが考えられる。またこのとき、周囲の3次元位置の情報により未計測領域の3次元位置を補完してもよい。これにより、3次元位置の計測精度を向上させることができる。
このようにして統合処理が終わると、3D計測データ統合部107は、統合後の3D計測データにより、位置および方向0の3D計測データ0を更新する(S409)。
3D計測データ統合部107は、全ての位置および方向の3D計測データ113に対して、同様に位置および方向0の3D計測データとの統合処理を行う(S411のNo)。
[3.2 処理例2]
続いて、図5を参照しながら、3D計測データ113の生成にかかる処理例2を説明する。先述の処理例1は、全ての計測位置で3次元位置の計測を行った後、計測結果である3D計測データの統合処理を行っていたが、処理例2では、計測が完了した3D計測データ113から順次統合処理を行う。3D計測処理(図5のS505乃至S509)と統合処理(図5のS513)とを並列に処理すれば、処理時間の短縮を図ることができる。
S501乃至S509の処理は、図3を参照しながら説明した処理例1のS301乃至S309の処理と同様であるため、説明を省略する。
3D計測データ統合部107は、未処理の3D計測データ113が生成されると(S511のYes)、位置および方向0の3D計測データ113と、当該未処理の3D計測データ113との統合処理を行う(S513)。
3D計測データ113の統合処理は、図4を参照しながら説明したS403乃至S409と同様であるため説明を省略する。
ロボット制御部101、3D計測部103、および3D計測データ統合部107は、センサ位置決定部105が決めた全ての位置および方向に対するS505ないしS513の処理を繰り返す(S515のNo)。
センサ位置決定部105が決めた全ての位置および方向に対する処理が終わると(S515のYes)、出力部109は、統合された3D計測データ113を出力する(S517)。
[3.3 変形例]
なお、図3乃至図5を参照しながら説明した上記処理例1および2では、センサ位置決定部105が予め決めた全ての位置および方向に対して処理を行っているが、これに限られるものではない。例えば、統合後の3D計測データ113において計測できている領域の密度が一定値以上に達した場合、或いは統合後の3D計測データ113に対して物体認識を行い、認識できた物体数が一定数以上に達した場合等には処理を終了することも考えられる。
[4 ハードウェア構成]
図6を参照しながら、情報処理装置100を実現可能なハードウェア構成を説明する。図6は、本実施形態にかかる情報処理装置100のハードウェア構成の一例を模式的に例示する。
図6の例に示す情報処理装置100は、制御部601、記憶部605、通信インタフェース(I/F)部611、入力部613、及び出力部615を含み、各部はバスライン617を介して相互に通信可能に選択され得る。
制御部601は、CPU(Central Processing Unit)、RAM(Random Access Memory)603、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。より具体的には、たとえば、制御部601に含まれ得るCPUは、記憶部605から制御プログラム607をRAM603へ読込み、当該制御プログラム607を実行することで、図2に示すロボット制御部101、3D計測部103、センサ位置決定部105、3D計測データ統合部107、および出力部109に関する上述の各種処理を実行可能である。
記憶部605は、例えばハード・ディスク・ドライブ(HDD)、ソリッド・ステート・ドライブ(SSD)等の補助記憶装置であり制御部601で実行される制御プログラム607、及び、データベース(DB)111等を記憶する。DB111では、先述のとおり、3D計測データ113やロボット姿勢データ115等を管理することができる。
制御プログラム607は、図1乃至図5を参照しながら説明した情報処理装置100の処理を実行させるためのプログラムである。特に、図2に示したロボット制御部101、3D計測部103、センサ位置決定部105、3D計測データ統合部107、および出力部109の各構成は、制御プログラム607として実現しうる。
通信I/F部611は、例えば、有線又は無線により他の装置、例えば産業ロボット10と通信するための通信モジュールである。通信I/F部611が他の装置との通信に用いる通信方式は任意であるが、例えば、LAN(Local Area Network)やUSB(Universal Serial Bus)等が挙げられる。例えば、産業ロボット10のロボットハンド11や3D計測センサ13との間の制御信号の送受信は、通信I/F部611を介して行われることが考えられる。
入力部613は、例えば、マウスやキーボード、タッチパネル等で実現しうる、ユーザからの各種入力操作等を受け付けるためのデバイスである。出力部615は、例えば、ディスプレイやスピーカ等、表示や音声等により、情報処理装置100を利用するユーザ等へ各種情報を報知するための装置である。例えば、3D計測データ統合部107により統合された3D計測データ113を出力部109が表示装置に表示等させることにより、ユーザに提示することが考えられる。
[5 実施形態にかかる効果]
以上説明したように、本実施形態にかかる3D位置検出システム1では、3D計測センサ13をロボットハンド11に搭載した上で、ロボットハンド11により3D計測センサ13の位置を自由に変更することで、複数位置および方向から対象物Oの3次元位置に関する3D計測データ113を生成する。3D計測データ統合部107がそれらを統合することにより、ある位置および方向では3次元位置が計測できなかった領域も別の位置および方向で計測された3次元位置を適用することで、欠損(未計測領域)の少ない3D計測データ113を生成することができる。
また、複数位置および方向の3D計測データ113を統合することにより、1つの位置および方向のみで計測された3D計測データ113よりも計測精度を向上させることが可能である。
[6 付記]
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
[付記1]
3D計測センサ(13)が3次元計測を行う複数の計測位置および/又は方向を決める決定部(105)と、
前記3D計測センサ(13)を前記複数の計測位置および/又は方向の各々に順次移動させる制御部(101)と、
前記複数の計測位置の各々において前記3D計測センサ(13)を用いて3次元計測を行うことにより複数の3D計測データ(113)を生成する計測部(103)と、
前記複数の3D計測データを統合するデータ統合部(107)と
を備える情報処理装置(100)。
[付記2]
前記データ統合部(107)は、前記複数の3D計測データ(113)のうち、第1の3D計測データで3次元計測が行えなかった欠損領域が、当該第1の3D計測データとは計測位置および/又は方向の異なる第2の3D計測データで3次元計測が行えた場合に、前記第1の3D計測データの前記欠損領域に対して前記第2の3D計測データを適用する、
付記1記載の情報処理装置(100)。
[付記3]
前記データ統合部(107)は、前記第1の3D計測データおよび前記第2の3D計測データのいずれでも3次元計測が行えた領域に対しては、計測対象物からの距離が近い前記計測位置および/又は方向での計測結果を適用する、
付記2記載の情報処理装置(100)。
[付記4]
前記データ統合部(107)による前記複数の3D計測データ(113)の統合と、前記制御部(101)による前記3D計測センサ(13)の移動とを並列に行う、
付記1乃至付記3のいずれか1項記載の情報処理装置(100)。
[付記5]
前記制御部(101)は、前記ロボット(10)の有するロボットハンド(11)により前記3D計測センサ(13)を移動させる、
付記1乃至付記4のいずれか1項記載の情報処理装置(100)。
[付記6]
前記制御部(101)は、前記ロボットハンド(11)に取り付けられた前記3D計測センサ(13)に対するハンドアイ・キャリブレーションを行う、
付記5記載の情報処理装置(100)。
[付記7]
前記データ統合部(107)は、前記複数の計測位置および/又は方向の間の相対位置および相対的な回転角度を算出することにより、前記複数の3D計測データ(113)の座標系が同一になるように変換した上で前記複数の3D計測データ(113)を統合する、
付記乃至付記6のいずれか1項記載の情報処理装置(100)。
[付記8]
3D計測センサ(13)が3次元計測を行う複数の計測位置および/又は方向を決める処理と、
前記3D計測センサ(13)を前記複数の計測位置の各々に順次移動させる処理と、
前記複数の計測位置および/又は方向の各々において前記3D計測センサ(13)を用いて3次元計測を行うことにより複数の3D計測データ(113)を生成する処理と、
前記複数の3D計測データ(113)を統合する処理と
を情報処理装置(100)が行う、情報処理方法。
[付記9]
3D計測センサ(13)が3次元計測を行う複数の計測位置および/又は方向を決める処理と、
前記3D計測センサ(13)を前記複数の計測位置および/又は方向の各々に順次移動させる処理と、
前記複数の計測位置および/又は方向の各々において前記3D計測センサ(13)を用いて3次元計測を行うことにより複数の3D計測データ(113)を生成する処理と、
前記複数の3D計測データ(113)を統合する処理と
を情報処理装置(100)に実行させるためのプログラム(907)。
1…3D位置検出システム、10…産業ロボット、11…ロボットハンド、13…3D計測センサ、100…情報処理装置、101…ロボット制御部、103…3D計測部、105…センサ位置決定部、107…3D計測データ統合部、109…出力部、111…データベース(DB)、113…3D計測データ、115…ロボット姿勢データ、601…制御部、603…RAM、605…記憶部、607…制御プログラム、611…通信インタフェース(I/F)部、613…入力部、615…出力部、617…バスライン

Claims (9)

  1. 3D計測センサが3次元計測を行う複数の計測位置および/又は方向を決める決定部と、
    前記3D計測センサを前記複数の計測位置および/又は方向の各々に順次移動させる制御部と、
    前記複数の計測位置および/又は方向の各々において前記3D計測センサを用いて3次元計測を行うことにより複数の3D計測データを生成する計測部と、
    前記複数の3D計測データを統合するデータ統合部と
    を備える情報処理装置。
  2. 前記データ統合部は、前記複数の3D計測データのうち、第1の3D計測データで3次元計測が行えなかった欠損領域が、当該第1の3D計測データとは計測位置および/又は方向の異なる第2の3D計測データで3次元計測が行えた場合に、前記第1の3D計測データの前記欠損領域に対して前記第2の3D計測データを適用する、
    請求項1記載の情報処理装置。
  3. 前記データ統合部は、前記第1の3D計測データおよび前記第2の3D計測データのいずれでも3次元計測が行えた領域に対しては、計測対象物からの距離が近い計測位置および/又は方向での計測結果を適用する、
    請求項2記載の情報処理装置。
  4. 前記データ統合部による前記複数の3D計測データの統合と、前記制御部による前記3D計測センサの移動とを並列に行う、
    請求項1乃至請求項3のいずれか1項記載の情報処理装置。
  5. 前記制御部は、ロボットの有するロボットハンドにより前記3D計測センサを移動させる、
    請求項1乃至請求項4のいずれか1項記載の情報処理装置。
  6. 前記制御部は、前記ロボットハンドに取り付けられた前記3D計測センサに対するハンドアイ・キャリブレーションを行う、
    請求項5記載の情報処理装置。
  7. 前記データ統合部は、前記複数の計測位置および/又は方向の間の相対位置および相対的な回転角度を算出することにより、前記複数の3D計測データの座標系が同一になるように変換した上で前記複数の3D計測データを統合する、
    請求項1乃至請求項6のいずれか1項記載の情報処理装置。
  8. 3D計測センサが3次元計測を行う複数の計測位置および/又は方向を決める処理と、
    前記3D計測センサを前記複数の計測位置および/又は方向の各々に順次移動させる処理と、
    前記複数の計測位置および/又は方向の各々において前記3D計測センサを用いて3次元計測を行うことにより複数の3D計測データを生成する処理と、
    前記複数の3D計測データを統合する処理と
    を情報処理装置が行う、情報処理方法。
  9. 3D計測センサが3次元計測を行う複数の計測位置および/又は方向を決める処理と、
    前記3D計測センサを前記複数の計測位置および/又は方向の各々に順次移動させる処理と、
    前記複数の計測位置および/又は方向の各々において前記3D計測センサを用いて3次元計測を行うことにより複数の3D計測データを生成する処理と、
    前記複数の3D計測データを統合する処理と
    を情報処理装置に実行させるためのプログラム。
JP2018073255A 2018-04-05 2018-04-05 情報処理装置、情報処理方法、及びプログラム Active JP6888580B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018073255A JP6888580B2 (ja) 2018-04-05 2018-04-05 情報処理装置、情報処理方法、及びプログラム
CN201910180988.7A CN110340883A (zh) 2018-04-05 2019-03-11 信息处理装置、信息处理方法以及计算机可读存储介质
EP19163344.5A EP3550258B1 (en) 2018-04-05 2019-03-18 Information processing apparatus, information processing method, and program
US16/358,746 US11426876B2 (en) 2018-04-05 2019-03-20 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018073255A JP6888580B2 (ja) 2018-04-05 2018-04-05 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019184340A true JP2019184340A (ja) 2019-10-24
JP6888580B2 JP6888580B2 (ja) 2021-06-16

Family

ID=65818272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018073255A Active JP6888580B2 (ja) 2018-04-05 2018-04-05 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US11426876B2 (ja)
EP (1) EP3550258B1 (ja)
JP (1) JP6888580B2 (ja)
CN (1) CN110340883A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021111868A1 (ja) 2019-12-02 2021-06-10 ジック株式会社 ロボット用の座標系アライメント方法及びアライメントシステム並びにアライメント装置
JP2021135155A (ja) * 2020-02-27 2021-09-13 株式会社東芝 システム及び方法
DE112022000432T5 (de) 2021-03-24 2024-01-25 Fanuc Corporation Dreidimensionales Messsystem

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078908B2 (en) * 2016-08-12 2018-09-18 Elite Robotics Determination of relative positions
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
CN114310869B (zh) * 2020-09-29 2023-04-25 上海科技大学 机器人手眼标定方法、系统以及终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08254424A (ja) * 1995-03-15 1996-10-01 Canon Inc 三次元物体形状計測方法及び装置
US20140327746A1 (en) * 2013-05-06 2014-11-06 Iphoton Solutions, Llc Volume reconstruction of an object using a 3d sensor and robotic coordinates
JP2017010327A (ja) * 2015-06-23 2017-01-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017111019A (ja) * 2015-12-17 2017-06-22 ファナック株式会社 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
US20170251143A1 (en) * 2016-02-29 2017-08-31 Aquifi, Inc. System and method for assisted 3d scanning

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5550852A (en) 1978-10-06 1980-04-14 Hiroshi Okada Method of evolving white smoke from wedding cake
US20040243147A1 (en) * 2001-07-03 2004-12-02 Lipow Kenneth I. Surgical robot and robotic controller
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
DE10246781A1 (de) * 2002-10-08 2004-04-22 Stotz-Feinmesstechnik Gmbh Verfahren und Vorrichtung zur dreidimensionalen Vermessung von Objekten
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
WO2009024757A1 (en) * 2007-08-17 2009-02-26 Renishaw Plc Phase analysis measurement apparatus and method
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
US8244402B2 (en) * 2009-09-22 2012-08-14 GM Global Technology Operations LLC Visual perception system and method for a humanoid robot
EP2400261A1 (de) * 2010-06-21 2011-12-28 Leica Geosystems AG Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
US9393686B1 (en) * 2013-03-15 2016-07-19 Industrial Perception, Inc. Moveable apparatuses having robotic manipulators and conveyors to facilitate object movement
EP2981397B1 (en) * 2013-04-05 2017-06-14 ABB Schweiz AG A robot system and method for calibration
WO2015006224A1 (en) * 2013-07-08 2015-01-15 Vangogh Imaging, Inc. Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis
JP5633058B1 (ja) 2013-07-19 2014-12-03 株式会社三次元メディア 3次元計測装置及び3次元計測方法
JP2015089575A (ja) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 ロボット、制御装置、ロボットシステム及び制御方法
US10380764B2 (en) * 2013-12-18 2019-08-13 Cognex Corporation System and method for performing vision system planar hand-eye calibration from straight line features
JP2015199155A (ja) * 2014-04-07 2015-11-12 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
US9211643B1 (en) * 2014-06-25 2015-12-15 Microsoft Technology Licensing, Llc Automatic in-situ registration and calibration of robotic arm/sensor/workspace system
US9327406B1 (en) * 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
CN104154877B (zh) * 2014-09-03 2016-07-06 中国人民解放军国防科学技术大学 一种复杂凸面型物体三维重建与体积测量方法
JP6594129B2 (ja) * 2014-11-28 2019-10-23 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN104634276B (zh) * 2015-02-12 2018-08-07 上海图漾信息科技有限公司 三维测量系统、拍摄设备和方法、深度计算方法和设备
US9805294B2 (en) * 2015-02-12 2017-10-31 Mitsubishi Electric Research Laboratories, Inc. Method for denoising time-of-flight range images
CN105225269B (zh) * 2015-09-22 2018-08-17 浙江大学 基于运动机构的三维物体建模系统
US10812778B1 (en) * 2015-11-09 2020-10-20 Cognex Corporation System and method for calibrating one or more 3D sensors mounted on a moving manipulator
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
CN107121062A (zh) * 2016-12-07 2017-09-01 苏州笛卡测试技术有限公司 一种机器人三维扫描装置及方法
JP6964989B2 (ja) * 2017-02-09 2021-11-10 キヤノン株式会社 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
US10766136B1 (en) * 2017-11-03 2020-09-08 Amazon Technologies, Inc. Artificial intelligence system for modeling and evaluating robotic success at task performance
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08254424A (ja) * 1995-03-15 1996-10-01 Canon Inc 三次元物体形状計測方法及び装置
US20140327746A1 (en) * 2013-05-06 2014-11-06 Iphoton Solutions, Llc Volume reconstruction of an object using a 3d sensor and robotic coordinates
JP2017010327A (ja) * 2015-06-23 2017-01-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017111019A (ja) * 2015-12-17 2017-06-22 ファナック株式会社 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
US20170251143A1 (en) * 2016-02-29 2017-08-31 Aquifi, Inc. System and method for assisted 3d scanning
JP2019514240A (ja) * 2016-02-29 2019-05-30 アキフィ,インコーポレイティド 三次元走査支援システム及び方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021111868A1 (ja) 2019-12-02 2021-06-10 ジック株式会社 ロボット用の座標系アライメント方法及びアライメントシステム並びにアライメント装置
JP2021135155A (ja) * 2020-02-27 2021-09-13 株式会社東芝 システム及び方法
DE112022000432T5 (de) 2021-03-24 2024-01-25 Fanuc Corporation Dreidimensionales Messsystem

Also Published As

Publication number Publication date
US11426876B2 (en) 2022-08-30
JP6888580B2 (ja) 2021-06-16
CN110340883A (zh) 2019-10-18
EP3550258B1 (en) 2020-06-17
EP3550258A1 (en) 2019-10-09
US20190308324A1 (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP6888580B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Isa et al. Design and analysis of a 3D laser scanner
US20150377606A1 (en) Projection system
JP2014016354A (ja) レーザトラッカによる寸法データの自動計測
JP6703812B2 (ja) 3次元物体検査装置
EP2966401A1 (en) Shape examination method and device therefor
JP7376268B2 (ja) 三次元データ生成装置及びロボット制御システム
JP6747151B2 (ja) 追尾式レーザ干渉計による位置決め機械の検査方法及び装置
JP2015225083A (ja) レーザおよびレーザ光センサを使用して閉軌道を判定する方法ならびに閉軌道を判定する装置
KR101403377B1 (ko) 2차원 레이저 센서를 이용한 대상 물체의 6 자유도 운동 산출 방법
JP6043974B2 (ja) 三次元位置測定装置、三次元測定装置及び三次元位置測定プログラム
EP3693697B1 (en) Method for calibrating a 3d measurement arrangement and 3d measurement arrangement
JP2012145550A (ja) 追尾式レーザ干渉測定装置の標的間絶対距離計測方法および追尾式レーザ干渉測定装置
WO2022123850A1 (ja) 制御装置、制御方法、プログラム
JP2019184430A (ja) 3次元位置計測システム
WO2022173049A1 (ja) 情報処理方法、情報処理システム、プログラム
JP7450857B2 (ja) 計測パラメータの最適化方法及び装置、並びに、コンピュータ制御プログラム
Panasiuk et al. Study of the 3D scanning accuracy using industrial robot
Tang et al. 3-step-calibration of 3D vision measurement system based-on structured light
JPH07208913A (ja) レンジ・センサにおけるキャリブレーション方法
EP3467430B1 (en) Method and system for optically scanning and measuring objects
Galetto et al. Volumetric error compensation for the MScMS-II
CN116339232A (zh) 设备加工轨迹的规划方法、加工设备以及可读存储介质
JP2022178153A (ja) 情報処理システム、情報処理方法、プログラム
JP2009053162A (ja) 非接触3次元形状測定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210503

R150 Certificate of patent or registration of utility model

Ref document number: 6888580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250