JPWO2020008538A1 - 材質推定装置及びロボット - Google Patents

材質推定装置及びロボット Download PDF

Info

Publication number
JPWO2020008538A1
JPWO2020008538A1 JP2019545826A JP2019545826A JPWO2020008538A1 JP WO2020008538 A1 JPWO2020008538 A1 JP WO2020008538A1 JP 2019545826 A JP2019545826 A JP 2019545826A JP 2019545826 A JP2019545826 A JP 2019545826A JP WO2020008538 A1 JPWO2020008538 A1 JP WO2020008538A1
Authority
JP
Japan
Prior art keywords
unit
reflectance
light
shape
light beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019545826A
Other languages
English (en)
Inventor
幸康 堂前
幸康 堂前
泰憲 櫻本
泰憲 櫻本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020008538A1 publication Critical patent/JPWO2020008538A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity

Landscapes

  • Engineering & Computer Science (AREA)
  • Immunology (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

材質推定装置(70)は、対象物(5)に光線を投射する投光部(21)及び対象物(5)において反射された光線を受光する受光部(22)を備えた形状計測センサ(2)と、投光部(21)と受光部(22)との位置及び姿勢の関係を示す位置姿勢情報(311)と、対象物(5)の材質と反射率との関係を示す反射率材質関係情報(312)とを格納するデータベース(31)と、受光部(22)が受光した光線に基づいて生成された画像データと位置姿勢情報(311)とに基づいて、対象物(5)の表面形状を示す距離画像を生成する形状計測部(32)と、距離画像と、位置姿勢情報(311)と、反射率材質関係情報(312)とに基づいて、対象物(5)の材質を推定する材質推定部(33)とを備える。

Description

本発明は、物体の材質を推定する材質推定装置及びロボットに関する。
物体を操作するロボットは、形状計測センサにより物体の形状及び把持位置を認識した上で物体を把持する。二種類以上の物体を区別して操作する場合、形状計測センサにより物体の形状及び把持位置を認識した上で物体を把持して操作を行うが、物体の材質に応じて把持する力加減の変更が必要になる。
特許文献1には、光又は放射線を把持対象物に照射して非接触で材質を推定する手法が提案されている。
特開2008−049459号公報
しかしながら、特許文献1に開示される手法は、蛍光X線分析装置又は赤外分光光度計測装置といった分析装置を使用する必要があるため、生産現場に適用すると、生産現場に分析装置を設置するスペースを確保する必要がある。生産現場において、ロボットの設置スペースとは別に分析装置の設置スペースを確保することは、作業を行う装置の集積度の低下につながる。すなわち、生産現場においては、特許文献1に開示される手法を適用して物体の材質を推定することは困難であった。
本発明は、上記に鑑みてなされたものであって、分析装置を使用することなく物体の材質を推定できる材質推定装置を得ることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、対象物に光線を投射する投光部及び対象物において反射された光線を受光する受光部を備えた形状計測センサと、投光部と受光部との位置及び姿勢の関係を示す位置姿勢情報と、対象物の材質と反射率との関係を示す反射率材質関係情報とを格納する記憶部とを備える。本発明は、受光部が受光した光線に基づいて生成された画像データと位置姿勢情報とに基づいて、対象物の表面形状を示す距離画像を生成する形状計測部と、距離画像と、位置姿勢情報と、反射率材質関係情報とに基づいて、対象物の材質を推定する材質推定部とを備える。
本発明に係る材質推定装置は、分析装置を使用することなく物体の材質を推定できるという効果を奏する。
本発明の実施の形態1に係る材質推定装置及びロボットの構成を示す図 実施の形態1に係る材質推定装置の情報処理部の動作を示す図 実施の形態1に係る材質推定装置の材質推定部の動作を示すフローチャート 実施の形態1に係る材質推定装置の材質推定部による立体形状を推定する処理を模式的に示す図 実施の形態1に係る材質推定装置の材質推定部による立体形状の表面の反射状態を推定する処理における正反射点の定義を示す図 実施の形態1に係る材質推定装置の材質推定部による立体形状の表面の反射状態を推定する処理における拡散反射点の定義を示す図 実施の形態1に係る材質推定装置の材質推定部による立体形状の表面の反射状態を推定する処理における二次反射点の定義を示す図 実施の形態1に係る材質推定装置の材質推定部による立体形状の表面の反射状態を推定する処理における正反射点でありかつ二次反射点でもある点の定義を示す図 本発明の実施の形態2に係る材質推定装置の構成を示す図 本発明の実施の形態3に係る材質推定装置の構成を示す図 実施の形態3に係る材質推定装置の変形例の構成を示す図 実施の形態1、実施の形態2又は実施の形態3に係る情報処理部の機能をハードウェアで実現した構成を示す図 実施の形態1、実施の形態2又は実施の形態3に係る情報処理部の機能をソフトウェアで実現した構成を示す図
以下に、本発明の実施の形態に係る材質推定装置及びロボットを図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
図1は、本発明の実施の形態1に係る材質推定装置及びロボットの構成を示す図である。材質推定装置70は、対象物5の三次元形状を取得する形状計測センサ2と、情報処理部3とを有する。ロボット60は、対象物5を操作する操作部であるハンド4と、操作部であるハンド4を移動させるロボットアーム1を備える。
ロボットアーム1は、ハンド4を移動させる。なお、ロボットアーム1の代わりに直動ステージを用いてハンド4を移動させてもよい。
形状計測センサ2は、光を投射する投光部21及び投光部21から投射された光の反射光を受光する受光部22を有する。投光部21には、プロジェクタ又はレーザースリット投光装置を適用できる。受光部22にはデジタルカメラを適用できる。投光部21と受光部22との位置及び姿勢の関係が既知な場合、対象物5において反射した投光部21からの光を受光部22で受光することにより、三角測量の原理で形状計測センサ2から対象物5までの距離を取得することができる。
情報処理部3は、形状計測センサ2の投光部21と受光部22との位置及び姿勢の関係を示す位置姿勢情報311、対象物5の材質と反射率との関係を示す反射率材質関係情報312及び対象物5の材質と把持パラメータとを関連付けた材質把持パラメータ関係情報313が格納された記憶部であるデータベース31、形状計測センサ2から取得される情報を基に対象物5の表面形状を復元する形状計測部32、投光部21が投光した光線が受光部22で受光されるまでの光線経路に基づき、対象物5の材質を推定する材質推定部33、材質の推定結果に基づき把持方法又は把持手段を決定する制御部34を有する。把持パラメータは、ハンド4で対象物5を把持する際に、対象物5を挟む力加減、ハンド4の開閉量及びハンド4が対象物5を挟む把持位置、ハンド4が対象物5を把持する際のアプローチ方向、ロボットアーム1の動作速度及びロボットアーム1の動作軌跡を表す各パラメータを含む。材質把持パラメータ関係情報313は、材質名と把持パラメータとを関係付けたテーブルによって実現できる。情報処理部3での処理の詳細は後述する。
ハンド4は、対象物5を挟んで把持するフィンガー形状のグリッパである。
対象物5は、供給箱6に収容されている。対象物5は、特定の材質に限定されない。また、供給箱6に収容される対象物5は、2種類以上の物体が混在してもよい。供給箱6内での対象物5の置き方は、特定の置き方に限定されない。供給箱6内での対象物5の置き方は、ばら積み及び平置きを例示できるが、他の置き方でもよい。
図2は、実施の形態1に係る材質推定装置の情報処理部の動作を示す図である。形状計測部32には、形状計測センサ2の取得データ41が入力される。取得データ41とは、投光部21が発する光線の投光パターンを受光部22で撮影した画像のデータを指す。なお、形状計測センサ2の出力信号に基づいて画像データを生成する画像データ生成部を形状センサ2とは別に設け、画像データ生成部が出力する画像データを取得データ41とすることも可能である。形状計測部32は、取得データ41と位置姿勢情報311とに基づいて、三角測量の原理で形状計測データ42を作成する。形状計測データは距離画像と称されるデータであり、受光部22との距離が近いほど物体が明るく、受光部22との距離が遠いほど物体が暗く表示される画像データである。したがって、投光部21が対象物5に光線を投射している場合、距離画像は、対象物5の表面形状を含んでいる。
材質推定部33には、距離画像である形状計測データ42、位置姿勢情報311及び反射率材質関係情報312が入力される。材質推定部33の具体的な処理フローチャートは後述する。材質推定部33からは、画像に映っている物体の材質の推定結果である材質推定データ43が出力される。
制御部34には、材質推定部33で推定された材質推定データ43と、データベース31に蓄えられた材質把持パラメータ関係情報313とが入力される。制御部34は、推定された材質に適した把持パラメータ44を、材質把持パラメータ関係情報313に基づいて決定し、ロボット60に出力する。
対象物5が軟らかい材料で形成されている場合、重心から離れた位置を把持すると対象物5が自重で変形する可能性があるため、重心に近い位置で把持することが好ましい。また、対象物5が軟らかい材料で形成されている場合、ハンド4が対象物5に衝突すると対象物5に打痕が残る可能性があるため、ロボットアーム1がハンド4を移動させる速度は低速であることが好ましい。このように、制御部34は、材質推定データ43に基づいて、把持パラメータを変更することによってロボットアーム1及びハンド4の動作を変更する。
図3は、実施の形態1に係る材質推定装置の材質推定部の動作を示すフローチャートである。ステップS1において、材質推定部33は、投光部21が光線を投射する領域の立体形状を形状計測データ42から推定する。
図4は、実施の形態1に係る材質推定装置の材質推定部による立体形状を推定する処理を模式的に示す図である。投光部21は、特定の投光パターンで光線を発するため、物体の表面に投射された投光パターンは、物体の表面にあわせて形状が変形する。したがって、材質推定部33は、形状計測データ42が示す画像中での明暗のパターンの形状と、投光部21が発する光線の投光パターンとを比較することにより、投光部21が光線を投射する領域の立体形状の表面を推定する。
上記のように、形状計測データ42だけでは、形状計測センサ2から見た物体の表面の形状しか得られない。すなわち、図4に示すように、投光部21が光線を投射する領域に存在する対象物5までの距離を形状計測センサ2で計測した場合、形状計測データ42は、対象物5の表面だけが抽出された抜けのある形状を示すデータとなる。そこで、材質推定部33は、形状計測データ42に対して、データを補間したり、定義済のプリミティブ形状を当てはめたりすることで、投光部21が光線を投射する領域に存在する物体の立体形状を推定する。プリミティブ形状とは、直方体、立方体、円柱、球体及び錐体といった幾何学的に単純な形状である。なお、対象物5のCAD(Computer Aided Design)データとも称されるコンピュータ支援設計データがデータベース31に記憶されている場合には、CADデータを当てはめて対象物5の立体形状を推定してもよい。このように、材質推定部33は、プリミティブ形状又はCADデータといった定義済の形状データと形状計測データ42とを照合することにより、投光部21が光線を投射する領域に存在する物体の立体形状を推定する。図4には、投光部21が光線を投射する領域に存在する物体の立体形状の推定結果を破線で示している。図4に示す対象物5は中実の物体であるが、材質推定部33が推定する立体形状は、外形形状である。すなわち、対象物5が中実であっても中空であっても、材質推定部33による立体形状の推定結果は同じとなる。
ステップS2において、材質推定部33は、投光部21が光線を投射する領域に存在する物体の立体形状の表面における反射状態を推定する。立体形状の表面における反射状態の推定とは、位置姿勢情報311と、立体形状とをもとに、立体形状の表面の各点が、後述する正反射点10、拡散反射点11及び二次反射点12のいずれに該当するかを判定することを指す。正反射点10は、鏡面反射点とも称される。
図5は、実施の形態1に係る材質推定装置の材質推定部による立体形状の表面の反射状態を推定する処理における正反射点の定義を示す図である。立体形状の表面上のある点において、投光部21から出た光線が鏡面反射して受光部22に入射する場合に、鏡面反射が発生する立体形状の点を正反射点10と定義する。正反射点10となりうる位置は、投光部21及び受光部22の距離及び姿勢に基づいて特定可能である。
図6は、実施の形態1に係る材質推定装置の材質推定部による立体形状の表面の反射状態を推定する処理における拡散反射点の定義を示す図である。立体形状の表面上のある点において、投光部21から出た光線の拡散反射成分が受光部22に入射する場合に、拡散反射が発生する点を拡散反射点11と定義する。投光部21から出た光線が拡散反射して受光部22に入射する場合、受光部22に入射する光線は基準値と同じ強度である。したがって、基準値と同じ強度の光線が受光部22に入射する場合には、拡散反射点11であると判断できる。
図7は、実施の形態1に係る材質推定装置の材質推定部による立体形状の表面の反射状態を推定する処理における二次反射点の定義を示す図である。投光部21から出た光線が立体形状で二回鏡面反射されて、反射光が最終的に受光部22に入射する場合に、最後の鏡面反射が発生する点を二次反射点12と定義する。投光部21から出た光線が二次反射して受光部22に入射する場合、受光部22に入射する光線は基準値未満の強度である。なお、立体形状で二回以上反射された光線は、大きく減衰する。したがって、立体形状で三回以上鏡面反射された反射光、すなわち三次以上の反射光は、無視しても材質推定結果に影響を与える可能性は小さい。実施の形態1においては、三次以上の反射光の考慮は省略する。
図8は、実施の形態1に係る材質推定装置の材質推定部による立体形状の表面の反射状態を推定する処理における正反射点でありかつ二次反射点でもある点の定義を示す図である。立体形状によっては、正反射点10で反射された光線と、二次反射光との両方が受光部22に入射する場合がある。すなわち、正反射点10でありかつ二次反射点12でもある点が存在しうる。正反射点10で反射された光線と、二次反射光との両方が受光部22に入射する場合には、受光部22に入射する光線は基準値を超える強度となる。したがって、立体形状の表面の点において反射された光線が、基準値未満の強度又は基準値を超える強度で受光部22に入射する場合には、光線が反射される点は二次反射点12であると判断できる。なお、基準値に幅を持たせてもよい。すなわち、上限閾値と下限閾値との間の値が基準値であり、受光部22に入射する光線の強度が上限閾値を超える場合又は下限閾値未満の場合に二次反射点12と判断してもよい。
ステップS3において、材質推定部33は、立体形状の表面における拡散反射点11の拡散反射率を推定する。立体形状の表面のある点が、拡散反射点11に該当する場合、物体反射光のモデルより、光線の強度と光線方向とから拡散反射率を推定することができる。すなわち、投光部21と拡散反射点11との位置関係及び投光部21が発する光線の投光パターンとに基づいて、投光部21から拡散反射点11に到達する光線の強度を特定する。受光部22に入射した光線の強度を投光部21から拡散反射点11に到達する光線の強度で除することで、拡散反射率を推定できる。立体形状の表面のある点が、拡散反射点11に該当する場合、拡散反射率が推定できていれば、光線の強度と光線方向とから鏡面反射率も推定することができる。
ステップS4において、材質推定部33は、立体形状の表面における拡散反射点11の鏡面反射率を推定する。なお、鏡面反射率は、正反射率とも称される。立体形状のある点が正反射点10に該当する場合も同様に、光線の強度と光線方向とから鏡面反射率を推定することができる。その際、拡散反射率が既知である必要があるが、正反射点10周辺の拡散反射点11で推定した拡散反射率を用いることで、鏡面反射率を推定することができる。
ステップS5において、材質推定部33は、正反射点10、拡散反射点11及び二次反射点12を補間する。一般に、正反射点10、拡散反射点11及び二次反射点12は、対象物5の表面にある程度の大きさをもって分布する。また、外乱の影響により、ある点で反射されて受光部22に入射する光線の強度が基準値を超えたり、基準値を下回ったりすることがありうる。したがって、正反射点10、拡散反射点11又は二次反射点12の領域の中に、他の種類の小さい反射点が存在すると推定される可能性がある。したがって、材質推定部33は、正反射点10、拡散反射点11及び二次反射点12のいずれかに囲まれた閾値以下の大きさの領域は、その領域を囲む正反射点10、拡散反射点11又は二次反射点12と同じであるとする補間処理を行う。なお、補間処理を行った点の反射率と同じであると推定する。
ステップS6において、材質推定部33は、投光部21が光線を投射する領域に存在する物体の立体形状と反射率とに基づいて、物体領域を推定する。すなわち、材質推定部33は、投光部21が光線を投射する領域のどこに対象物5が存在するかを推定する。材質の異なる複数の対象物5が混在する場合、拡散反射率及び鏡面反射率は互いに異なる。また、対象物5を収容する供給箱6の拡散反射率及び鏡面反射率は、対象物5とは異なる。材質が同じであるが別々の対象物5は、拡散反射率及び鏡面反射率は同じであるが、形状が不連続である。したがって、材質推定部33は、形状、拡散反射率及び鏡面反射率の変化が滑らかな領域を一つの物体と推定する。ここで、「変化が滑らか」とは、形状計測データ42である距離画像で隣接する画素に対応する二つの点において、位置の差又は反射率の差が閾値以下であることを意味する。また、材質推定部33は、形状、拡散反射率及び鏡面反射率の変化が滑らかな領域に囲まれた二次反射領域なども、同一の物体と推定する。このような特定の条件に基づく推定であったり、機械学習に基づき領域をセグメンテーションするなどの方法により、材質推定部33は、複数の立体形状に分かれて推定された一つの物体を、一つの物体の物体領域と推定することができる。
ステップS7において、材質推定部33は、反射率材質関係情報312に基づいて、物体領域ごとの材質を推定する。材質推定部33は、データベース31に蓄えられた反射率材質関係情報312と、推定した物体領域ごとに、拡散反射率及び鏡面反射率とから、物体の材質を推定する。すなわち、材質推定部33は、反射率材質関係情報312において拡散反射点での反射率に関係付けられている材質を、対象物5の材質と推定する。
実施の形態1に係る材質推定装置70は、物体の材質を、高価で特殊なセンサを使うことなく、物体操作に使われる形状計測センサを用いて物体の材質を推定できる。したがって、様々な種類の物体に応じた操作の制御が可能となる。実施の形態1に係る材質推定装置70は、ロボット60に通常用いられている、投光部21と受光部22とを持つ形状計測センサ2を用いて、物体の材質を推定する。これにより、蛍光X線分析装置又は赤外分光光度計測装置といった分析装置を用いず、安価かつ現実的な装置構成で、様々な種類の物体の材質を推定することができる。
実施の形態2.
図9は、本発明の実施の形態2に係る材質推定装置の構成を示す図である。実施の形態2の係るロボット60は、ロボットアーム1に吸着ハンド13が設置されている点で、実施の形態1に係るロボット60と相違する。実施の形態2に係る材質推定装置70において、データベース31には、操作部の種類と対象物5の材質とを関連付けたデータが記憶される。
対象物5を操作する操作部は、対象物5を保持するのに適するか否かは、対象物5の材質によって異なる。したがって、実施の形態1に係る材質推定装置70と同様に対象物5の材質を推定することにより、対象物5の材質に合わせて操作部を使い分けることができる。具体的に説明すると、対象物5が柔軟物であれば、ハンド4で挟むよりも吸着ハンド13で吸い付ける方が、対象物5を把持しやすい。また、対象物5がメッシュ状である場合には、吸着ハンド13で吸い付けるよりもハンド4で挟む方が対象物5を把持しやすい。
実施の形態2に係る材質推定装置70は、対象物5の材質の推定結果に基づいて、ハンド4で挟んで対象物5を把持するか、吸着ハンド13で吸い付けて対象物5を把持するかを切り替えることができ、対象物5を効率的に把持できる。
実施の形態3.
図10は、本発明の実施の形態3に係る材質推定装置の構成を示す図である。実施の形態3に係る材質推定装置70は、情報処理部3がネットワーク50を通じて形状計測センサ2に接続されている点で実施の形態1に係る材質推定装置70と相違する。
実施の形態3に係る材質推定装置70は、情報処理部3をロボットアーム1から離して設置することが可能である。材質と反射率との関係を示すデータをデータベース31に多く記憶させるほど、材質推定の精度は高くなるが、データベース31が大型化し、情報処理部3の設置スペースが拡大する。ロボットアーム1が設置される生産現場において情報処理部3の設置スペースが大きくなることは、生産性を向上させる妨げとなる。実施の形態3に係る材質推定装置70は、情報処理部3をロボットアーム1から離して設置することにより、生産現場に作業用のスペースを確保でき、生産性を向上させることができる。
図11は、実施の形態3に係る材質推定装置の変形例の構成を示す図である。複数のロボット60のロボットアーム1に形状計測センサ2が設置されており、情報処理部3は、ネットワーク50を通じて複数の形状計測センサ2に接続されている。上記のように、データベース31に記憶させておく情報量が多いほど材質推定の精度が向上する。したがって、複数のロボット60に共通して情報処理部3を設置することにより、精度の高い材質推定結果に基づいて、把持パラメータを変更することができる。
また、複数のロボット60のいずれかにおける操作の成否情報をもとに、材質と把持パラメータとの関係を更新したり、材質推定部33の材質推定方法を変更したりすることで、より性能の高い操作を実現することができる。
上記実施の形態1、実施の形態2又は実施の形態3に係る情報処理部3の機能は、処理回路により実現される。処理回路は、専用のハードウェアであっても、記憶装置に格納されるプログラムを実行する演算装置であってもよい。
処理回路が専用のハードウェアである場合、処理回路は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、特定用途向け集積回路、フィールドプログラマブルゲートアレイ、又はこれらを組み合わせたものが該当する。図12は、実施の形態1、実施の形態2又は実施の形態3に係る情報処理部の機能をハードウェアで実現した構成を示す図である。処理回路29には、情報処理部3の機能を実現する論理回路29aが組み込まれている。処理回路29を実現するハードウェアには、マイクロコントローラを例示できる。
処理回路29が演算装置である場合、情報処理部3の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。
図13は、実施の形態1、実施の形態2又は実施の形態3に係る情報処理部の機能をソフトウェアで実現した構成を示す図である。処理回路29は、プログラム29bを実行する中央処理装置291と、中央処理装置291がワークエリアに用いるランダムアクセスメモリ292と、プログラム29bを記憶する記憶装置293を有する。記憶装置293に記憶されているプログラム29bを中央処理装置291がランダムアクセスメモリ292上に展開し、実行することにより、情報処理部3の機能が実現される。ソフトウェア又はファームウェアはプログラム言語で記述され、記憶装置293に格納される。
処理回路29は、記憶装置293に記憶されたプログラム29bを読み出して実行することにより、情報処理部3の機能を実現する。プログラム29bは、情報処理部3の機能を実現する手順及び方法をコンピュータに実行させるものであるとも言える。
なお、処理回路29は、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。
このように、処理回路29は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。
以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
1 ロボットアーム、2 形状計測センサ、3 情報処理部、4 ハンド、5 対象物、6 供給箱、10 正反射点、11 拡散反射点、12 二次反射点、13 吸着ハンド、21 投光部、22 受光部、29 処理回路、29a 論理回路、29b プログラム、31 データベース、32 形状計測部、33 材質推定部、34 制御部、41 取得データ、42 形状計測データ、43 材質推定データ、44 把持パラメータ、50 ネットワーク、60 ロボット、70 材質推定装置、291 中央処理装置、292 ランダムアクセスメモリ、293 記憶装置、311 位置姿勢情報、312 反射率材質関係情報、313 材質把持パラメータ関係情報。
図2は、実施の形態1に係る材質推定装置の情報処理部の動作を示す図である。形状計測部32には、形状計測センサ2の取得データ41が入力される。取得データ41とは、投光部21が発する光線の投光パターンを受光部22で撮影した画像のデータを指す。なお、形状計測センサ2の出力信号に基づいて画像データを生成する画像データ生成部を形状計測センサ2とは別に設け、画像データ生成部が出力する画像データを取得データ41とすることも可能である。形状計測部32は、取得データ41と位置姿勢情報311とに基づいて、三角測量の原理で形状計測データ42を作成する。形状計測データは距離画像と称されるデータであり、受光部22との距離が近いほど物体が明るく、受光部22との距離が遠いほど物体が暗く表示される画像データである。したがって、投光部21が対象物5に光線を投射している場合、距離画像は、対象物5の表面形状を含んでいる。

Claims (7)

  1. 対象物に光線を投射する投光部及び前記対象物において反射された前記光線を受光する受光部を備えた形状計測センサと、
    前記投光部と前記受光部との位置及び姿勢の関係を示す位置姿勢情報と、前記対象物の材質と反射率との関係を示す反射率材質関係情報とを格納する記憶部と、
    前記受光部が受光した前記光線に基づいて生成された画像データと前記位置姿勢情報とに基づいて、前記対象物の表面形状を示す距離画像を生成する形状計測部と、
    前記距離画像と、前記位置姿勢情報と、前記反射率材質関係情報とに基づいて、前記対象物の材質を推定する材質推定部とを備えることを特徴とする材質推定装置。
  2. 前記材質推定部は、
    前記対象物の表面の点であって、前記点において反射されて前記受光部に入射する前記光線の強度が基準値未満又は前記基準値を超える強度である拡散反射点での反射率を、前記位置姿勢情報及び前記光線の投光パターンと、前記受光部が受光する光線の強度とに基づいて推定し、
    前記反射率材質関係情報において前記拡散反射点での反射率に関係付けられている材質を、前記対象物の材質と推定することを特徴とする請求項1に記載の材質推定装置。
  3. 前記材質推定部は、
    前記距離画像が示す表面形状と定義済の形状データとの照合により前記光線が投射された領域の立体形状を推定し、前記立体形状の表面の各点での前記光線の反射率に基づいて、前記対象物の立体形状を推定することを特徴とする請求項1又は2に記載の材質推定装置。
  4. 前記記憶部、前記形状計測部及び前記材質推定部と、前記形状計測センサとがネットワークを通じて接続されたことを特徴とする請求項1から3のいずれか1項に記載の材質推定装置。
  5. 前記対象物を把持する操作部を備えたロボットアームを制御する制御部を有し、
    前記制御部は、前記材質推定部による前記対象物の材質の推定結果に基づいて、前記操作部が前記対象物を把持する操作の条件を示す把持パラメータを変更することを特徴とする請求項1から4のいずれか1項に記載の材質推定装置。
  6. 前記制御部は、前記操作部を複数備えた前記ロボットアームを制御し、前記対象物の材質の推定結果に基づいて、前記対象物を操作する操作に用いる前記操作部を決定することを特徴とする請求項5に記載の材質推定装置。
  7. 対象物を把持する操作部を備えたロボットアームと、前記対象物の材質を推定する請求項5又は6に記載の材質推定装置とを備えることを特徴とするロボット。
JP2019545826A 2018-07-03 2018-07-03 材質推定装置及びロボット Pending JPWO2020008538A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/025262 WO2020008538A1 (ja) 2018-07-03 2018-07-03 材質推定装置及びロボット

Publications (1)

Publication Number Publication Date
JPWO2020008538A1 true JPWO2020008538A1 (ja) 2020-07-27

Family

ID=69059411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019545826A Pending JPWO2020008538A1 (ja) 2018-07-03 2018-07-03 材質推定装置及びロボット

Country Status (2)

Country Link
JP (1) JPWO2020008538A1 (ja)
WO (1) WO2020008538A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419082B2 (ja) 2020-01-24 2024-01-22 株式会社東芝 荷役装置および物品把持機構
KR20210102458A (ko) * 2020-03-11 2021-08-19 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 정보를 취득하는 방법 및 장치
CN116033999A (zh) 2020-09-02 2023-04-28 发那科株式会社 机器人系统以及控制方法
JP7276992B2 (ja) * 2021-08-06 2023-05-18 東芝エレベータ株式会社 エレベータの利用者検知システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06288912A (ja) * 1993-02-25 1994-10-18 Black & Decker Inc 拡散反射材料の識別装置及び方法
JP2001137828A (ja) * 1999-11-12 2001-05-22 Takeshi Hashimoto 廃棄物の素材の種類の判断方法
WO2006006624A1 (ja) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. 物品保持システム、ロボット及びロボット制御方法
JP2017010327A (ja) * 2015-06-23 2017-01-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017136677A (ja) * 2015-07-29 2017-08-10 キヤノン株式会社 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム
WO2018092860A1 (ja) * 2016-11-16 2018-05-24 三菱電機株式会社 干渉回避装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3859574B2 (ja) * 2002-10-23 2006-12-20 ファナック株式会社 3次元視覚センサ
CN101870108B (zh) * 2006-01-13 2011-09-28 松下电器产业株式会社 机械手臂的控制装置
JP2008055584A (ja) * 2006-09-04 2008-03-13 Toyota Motor Corp 物体把持を行うロボット及びロボットによる物体の把持方法
US9182221B2 (en) * 2011-06-13 2015-11-10 Canon Kabushiki Kaisha Information processing apparatus and information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06288912A (ja) * 1993-02-25 1994-10-18 Black & Decker Inc 拡散反射材料の識別装置及び方法
JP2001137828A (ja) * 1999-11-12 2001-05-22 Takeshi Hashimoto 廃棄物の素材の種類の判断方法
WO2006006624A1 (ja) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. 物品保持システム、ロボット及びロボット制御方法
JP2017010327A (ja) * 2015-06-23 2017-01-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017136677A (ja) * 2015-07-29 2017-08-10 キヤノン株式会社 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム
WO2018092860A1 (ja) * 2016-11-16 2018-05-24 三菱電機株式会社 干渉回避装置

Also Published As

Publication number Publication date
WO2020008538A1 (ja) 2020-01-09

Similar Documents

Publication Publication Date Title
JPWO2020008538A1 (ja) 材質推定装置及びロボット
US10974386B2 (en) Robot simulation apparatus and robot simulation method
JP5281414B2 (ja) ワーク自動把持のための方法及びシステム
JP6126437B2 (ja) 画像処理装置および画像処理方法
US9118823B2 (en) Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image
US9616569B2 (en) Method for calibrating an articulated end effector employing a remote digital camera
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
US10913157B2 (en) Robot simulation apparatus and robot simulation method
US11426876B2 (en) Information processing apparatus, information processing method, and program
JP6541397B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6255125B2 (ja) 画像処理装置、画像処理システム、および画像処理方法
JP2011186928A (ja) 情報処理装置および情報処理装置の制御方法
JP6392922B1 (ja) 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法
JP2020001127A (ja) ピッキングシステム,ピッキング処理装置及びプログラム
JP2021020285A (ja) ロボット設定装置及びロボット設定方法
JP6237122B2 (ja) ロボット、画像処理方法及びロボットシステム
JP2019060695A (ja) 3次元物体検出装置、ロボット、及びプログラム
US10656097B2 (en) Apparatus and method for generating operation program of inspection system
CN113313803B (zh) 垛型分析方法、装置、计算设备及计算机存储介质
JP7164451B2 (ja) 三次元計測装置
WO2023188407A1 (ja) ロボットシステム
Nilsson et al. Virtual machine vision in computer aided robotics
US20220193901A1 (en) Robot motion planning accounting for object pose estimation accuracy
Rebull Mestres Implementation of an automated eye-in hand scanning system using best-path planning
Zamazal Collaborative Robot for Control of Small Touch Screen Devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190821

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602