JP2024019989A - センシング装置およびセンシング方法 - Google Patents
センシング装置およびセンシング方法 Download PDFInfo
- Publication number
- JP2024019989A JP2024019989A JP2022122817A JP2022122817A JP2024019989A JP 2024019989 A JP2024019989 A JP 2024019989A JP 2022122817 A JP2022122817 A JP 2022122817A JP 2022122817 A JP2022122817 A JP 2022122817A JP 2024019989 A JP2024019989 A JP 2024019989A
- Authority
- JP
- Japan
- Prior art keywords
- information
- far
- infrared
- distance information
- partial surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000010438 heat treatment Methods 0.000 claims abstract description 80
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 239000000284 extract Substances 0.000 claims abstract description 10
- 238000005259 measurement Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 13
- 230000032258 transport Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 19
- 239000012780 transparent material Substances 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 12
- 239000000463 material Substances 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000004806 packaging method and process Methods 0.000 description 6
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000005022 packaging material Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000007429 general method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
【課題】透明な素材を含む物体の3次元形状を正確に計測することが可能なセンシング装置およびセンシング方法を提供する。【解決手段】計算機1は、物体30の視覚情報を基に画像35を生成し、画像35のうち物体30が占める領域を物体領域36として抽出し、物体30の距離情報のうち物体30のエッジ部分の距離情報を抽出してエッジ距離情報37を生成し、物体30の遠赤外線情報を基に物体領域36に対応する遠赤外線画像41を生成し、物体30を加熱するように加熱装置4を制御し、物体30の加熱前後の遠赤外線画像41,42から物体30の部分表面形状情報44,45を推定し、部分表面形状情報44,45を用いてエッジ距離情報37を補間することにより物体30の補間エッジ距離情報57を生成し、補間エッジ距離情報57を3次元形状情報に変換して出力する。【選択図】 図1
Description
本発明は、センシング装置およびセンシング方法に関する。
近年、少子高齢化による労働人口減少に伴い、人手不足解消や生産性向上を目的としたシステム制御の自動・自律化への期待が高まっている。例えば、産業・物流分野では作業対象物であるワークを自動でピッキングするロボットなどのニーズが高い。ピッキング作業の自動化には、カメラなどのセンサを配置して、ワークの3次元形状を計測しワークの把持する位置情報などをロボットに教示する必要がある。一般的な3次元形状の計測方法としては、カメラを複数台設置あるいはカメラとプロジェクタを設置し、三角測量の原理により計測する方法がある。この時、カメラは可視光センサを使用することが多く、紙などの素材で梱包されたワークは正確に梱包素材の3次元形状を認識できる。しかし、ブリスターパックなどの透明な素材でワークが梱包されている場合は、梱包部分の形状が取得できず、中のワーク本体の形状のみを取得してしまい、ピッキングする際に透明な梱包部分を押し潰して破壊する恐れがある。そのため、透明部分の3次元形状を取得には可視光センサだけでなく遠赤外線カメラを併用する方法が期待される。例えば、特許文献1では、可視光カメラと遠赤外線カメラを固定した撮像装置にて、ワークを複数箇所から計測することで3次元形状を取得している。
特許文献1の技術を活用すれば、ワーク本体が透明な素材で梱包されたワークに対し、正しく透明部分の形状を認識でき、梱包部分を破壊せずにピッキングすることができる。しかし、撮像装置を移動させて複数枚の画像を取得するには、キャリブレーションの精度に依存するだけでなく、1つのワークのピッキングに時間を要してしまいシステム全体の効率を低下してしまう恐れがある。
本発明は、上記課題に鑑みてなされたものであり、その目的は、透明な素材を含む物体の3次元形状を正確に計測することが可能なセンシング装置およびセンシング方法を提供することにある。
上記目的を達成するために、本発明は、物体の3次元形状を計測するセンシング装置において、計算機と、加熱装置とを備え、前記計算機は、前記物体の視覚情報を基に画像を生成する画像生成部と、前記画像のうち前記物体が占める領域を物体領域として抽出する物体領域抽出部と、前記物体の距離情報のうち前記物体のエッジ部分の距離情報を抽出してエッジ距離情報を生成するエッジ距離情報生成部と、前記物体の遠赤外線情報を基に前記物体領域に対応する遠赤外線画像を生成する遠赤外線画像生成部と、前記物体を加熱するように前記加熱装置を制御する加熱装置制御部と、前記物体の加熱前後の遠赤外線画像から前記物体の部分表面形状情報を推定する部分表面形状推定部と、前記部分表面形状情報を用いて前記エッジ距離情報を補間することにより前記物体の補間エッジ距離情報を生成する形状補間部と、前記補間エッジ距離情報を3次元形状情報に変換して出力する物体形状出力部とを有するものとする。
また、物体の3次元形状を計測するセンシング方法において、物体の視覚情報を基に前記物体の画像を生成する手順と、前記画像のうち前記物体が占める領域を物体領域として抽出する手順と、前記物体の距離情報のうち前記物体のエッジ部分の距離情報を抽出してエッジ距離情報を生成する手順と、前記物体の遠赤外線情報を基に前記物体領域に対応する遠赤外線画像を生成する手順と、前記物体を加熱する手順と、前記物体を加熱した後の前記物体の遠赤外線画像を生成する手順と、前記物体の加熱前後の遠赤外線画像から前記物体の部分表面形状情報を推定する手順と、前記部分表面形状情報を用いて前記エッジ距離情報を補間することにより前記物体の補間エッジ距離情報を生成する手順と、前記補間エッジ距離情報を3次元形状情報に変換する手順とを備えるものとする。
以上のように構成した本発明によれば、物体の加熱前後の遠赤外線画像から物体の部分表面形状情報を生成し、物体のエッジ距離情報を部分表面形状情報を用いて補間することで、透明な素材を含む物体3次元形状を正確に計測することが可能となる。
本発明によれば、透明な素材を含む物体の3次元形状を正確に計測することが可能となる。
以下、本発明の実施形態について図面を用いて説明する。なお、各図中、同等の要素には同一の符号を付し、重複した説明は適宜省略する。
図1は本発明の第1の実施例におけるセンシング装置およびセンシングシステムの構成図である。図1に示すセンシング装置100は、物体の3次元形状を計測する装置であり、計算機1と、加熱装置4とを備える。図1において、計算機1の機能部5~12の機能は、演算装置、主記憶装置、および外部記憶装置を有する計算機1において実現される。
センシング装置100は、物体の視覚情報、距離情報および遠赤外線情報を基に物体の3次元形状を計測する。物体の視覚情報および距離情報を取得する手段としては、可視光センサを用いることが好ましい。本実施例では、可視光センサとしてステレオカメラ2を用いるが、可視光センサはこれに限定されるものではない。例えば、可視光カメラの横にプロジェクタを併設し距離情報を計測するセンサや、機械学習などにより可視光カメラの画像から距離情報を推定するセンサを代用する形態も可能である。センシングシステム200は、センシング装置100、可視光センサ2、および遠赤外線センサ3により構成される。
図1に示す機能部5~12の概要を説明する。画像生成部5はステレオカメラ2の左右の可視光カメラで取得した情報を基に2枚の画像を生成する機能、物体領域抽出部6は画像生成部5により生成した2枚の画像を解析することで画像中の物体領域を抽出する機能、エッジ距離情報生成部7は前記物体領域に対応する距離情報を解析し、物体のエッジ部分の距離情報を抽出する機能、遠赤外線画像生成部8は遠赤外線カメラ3によって前記物体領域に対応する遠赤外線画像を生成する機能、加熱装置制御部9は前記物体領域を加熱装置4により加熱するよう制御する機能、部分表面形状推定部10は遠赤外線画像生成部8により生成した加熱前後の前記物体領域の遠赤外線画像を解析し、物体領域の表面形状の一部を推定する機能、形状補間部11は前記推定した表面形状を用いて、エッジ距離情報生成部7により生成したエッジ距離情報を補間する機能、物体形状出力部12は前記補間した3次元形状情報に変換して出力する機能である。以下、機能部6~12の詳細について説明する。
図2は、物体領域抽出部6の機能ブロック図である。物体領域抽出部6は、画像生成部5によって生成したステレオカメラ2の撮像画像から3次元情報を取得する3次元情報取得部20と、取得した3次元情報を解析し画像中の物体領域を抽出する物体領域抽出部21とを備える。3次元情報取得部20は、ステレオカメラ2の撮像画像から視差を算出することで3次元情報を取得する。視差の算出方法としては、ブロックマッチングなどの一般的な方法を用いることで算出する。算出した視差情報を、カメラの設置位置や姿勢情報のパラメータから、3次元空間上の点群情報といった3次元情報に変換する。本手法以外にも、2枚のカメラ画像から3次元情報を取得できる方法であれば、特に限定しない。
物体領域抽出部21は、カメラ画像と3次元情報から物体領域を抽出する。抽出方法としては、例えば、物体が存在するカメラ画像と予め撮影した物体が存在しない背景のカメラ画像との差分領域を物体領域として抽出する方法や、同様に物体が存在する場合にて算出した3次元情報と存在しない場合にて算出した3次元情報との差分領域を物体領域として抽出する方法や、画像により求めた物体領域と3次元情報により求めた物体領域との共通部分を最終的な物体領域として抽出する方法などがあり、特に限定しない。
図3は、エッジ距離情報生成部7の処理を説明する図である。図3において、30はロボットにてピッキングする対象の物体(以下、ワーク)の一例、31はワーク30の梱包材のうち紙素材で形成された部分、32はワーク30の梱包材のうち透明な素材(プラスチック、ガラスなど)で形成された部分、33は梱包材31,32で梱包されたワーク本体、34はセンシング装置100にて計測を行う際にワーク30を設置するための台座、35はステレオカメラ2によって台座34上のワーク30を撮影した際の、片方の可視光カメラ2の撮像画像の一例、36は物体領域抽出部6によって撮像画像35から抽出した物体領域、37はエッジ距離情報生成部7によって生成したエッジ距離情報を示している。
エッジ距離情報生成部7は、物体領域36内の3次元情報を解析することで、ワーク30のエッジ距離情報を生成する。エッジ距離情報の生成方法の一例を説明する。まず、3次元情報から撮像画像35の各画素に対応する位置のステレオカメラ2からの距離値を求め、各画素に当該距離値を紐づけた情報を距離画像として生成する。次に、距離画像の各画素の距離値を上下左右に隣接する画素の距離値と比較し、両者に閾値以上の差があれば当該画素をエッジ部分として抽出し、比較した距離値の小さい方を当該エッジ部分の画素に紐づけた情報をエッジ距離情報として生成する。
図4は、エッジ距離情報生成部7により生成したエッジ距離情報37の一例を示す図である。エッジ部分の各画素にはカメラからの距離値(単位:cm)が格納されており、エッジ部分以外の各画素には値は格納されない。エッジ距離情報37によりワーク30の外形部分の距離情報を表すことが可能となり、透明な梱包材31,32に対しても外枠の距離情報を取得することができる。なお、本例以外にもワーク30のエッジ部分に対応する距離情報を取得可能な方法であれば、特に方法は限定しない。また、距離画像の解像度については、撮像画像と同等のものを使用しても良く、ダウンサンプリング処理などにより解像度を低下させた距離画像を使用しても良い。
図5は、遠赤外線画像生成部8の処理を説明する図である。図5において、40は遠赤外線カメラ3からの情報を基に生成したワーク30および台座34の遠赤外線画像、41は遠赤外線画像40から物体領域36に対応する遠赤外線画像を抽出したものを示している。遠赤外線画像は温度情報を含み、温度情報は素材の違いなどにより異なる。また、遠赤外線画像は、各画素に温度の値が紐づけた情報であり、撮像画像や距離画像と同じく、画像情報として扱う。また、遠赤外線画像の解像度については、撮像画像と同等のもの、あるいは解像度が低いものを使用しても良く、特に限定しない。
図1に戻り、加熱装置制御部9は、加熱装置4によりワーク30を加熱する。加熱装置4はステレオカメラ2や遠赤外線カメラ3と近い位置に設置し、ワーク30を撮影する向きも同方向(本例ではワーク30の真上)であることが理想であるが、カメラによりワーク30を撮影する向きと同じ方向からワーク30の加熱が可能な手段であれば、特に限定しない。また、本実施例では、加熱装置4として、温風装置を想定しているが、ワーク30の温度上昇を促すことが可能な装置であれば、特に限定しない。センシング装置100では、加熱装置4によりワーク30の加熱が完了した際に、加熱装置制御部9から遠赤外線画像生成部8に対して、再度遠赤外線カメラ3にてワーク30を計測する指令を送信することで、加熱前後のワーク30の遠赤外線画像を生成する。なお、加熱装置4による加熱方法として、予め設定した時間で毎回加熱する方法や、事前に生成したエッジ距離情報や遠赤外線画像を活用し、加熱装置4から物体30までの大よその距離を推定しておき、当該距離に応じて加熱時間を変更する方法や、遠赤外線画像における温度の値が全体的に高い場合はワーク30が温まりやすい素材であると判定して加熱時間を短縮する方法や、ワーク30の事前情報(形状、寸法、素材など)に応じて加熱時間または加熱方向を調整する方法などを用いても良く、特に限定しない。
図6は、部分表面形状推定部10の処理を説明する図である。図6において、41は図5で示した加熱前のワーク領域(物体領域)に対応する遠赤外線画像の一例、42,43は加熱装置制御部9により加熱した後のワーク領域に対応する遠赤外線画像の一例、44,45は部分表面形状推定部10によって出力される部分表面形状情報の一例を示している。加熱装置4は遠赤外線カメラ3と近接した位置に設置し、真上からワーク30を加熱するため、ワーク30の高い位置にある部分(遠赤外線カメラ3やステレオカメラ2に近い部分)であるほど、早く加熱されるため、温度変化が大きくなる。例えば、本例のワーク30の場合、透明な梱包部分が最も加熱装置4に近い位置にあるため、42のように透明な梱包部分の温度が最も高くなる。また、ワーク30の紙部分自体も加熱されるため、温度変化が生じ紙素材の領域を計測することができる。一方で、ワーク本体33については、温まりにくい素材でできていれば、42のように透明な梱包部分よりも温度が低くなり、ワーク本体33の領域を計測することができず、温まりやすい素材であれば、遠赤外線画像43のように透明な梱包部分よりも温度が高くなりワーク本体33の領域を計測できる。本発明では、透明な梱包部分の領域を取得したいため、遠赤外線画像43のワーク本体33の領域はノイズとなってしまう。そのため、加熱前に生成した遠赤外線画像41を使用し、加熱前に閾値以上の温度値を持つ領域については、加熱後に生成した遠赤外線画像43から削除するというノイズ除去などの処理を加えても良い。部分表面形状推定部10では、ノイズ除去などを実施後の最終的な加熱後の遠赤外線画像42から、温度値が類似している領域を部分表面形状情報44,45として出力する。なお、部分表面形状情報を抽出する際に、温度値だけでなく領域の位置情報を使用しても良く、温度値が類似している領域が複数存在し、これらの領域が事前に定めた閾値よりも離れている場合はそれぞれ別の部分表面形状情報として出力しても良く、特に限定しない。
図7は、形状補間部11の機能ブロック図である。形状補間部11は、ステレオカメラ2からの情報を基に生成したエッジ距離情報と遠赤外線カメラ3からの情報を基に推定した部分表面形状情報の2つの計測情報を同一センサ空間上の情報に校正する計測情報校正部50と、校正後の計測情報を比較してワークの3次元形状を補間する形状補間実行部51とを備える。以下、計測情報校正部50と形状補間実行部51について説明する。
計測情報校正部50は、ステレオカメラ2と遠赤外線カメラ3の設置位置や姿勢情報、解像度の情報などから、エッジ距離情報と部分表面形状情報を同一センサ空間上の情報に校正する。校正方法として、本例では各計測情報を画像情報として扱っているため、解像度を片方のサイズに合致するように画像をリサイズした後、一般的なチェックマーカなどを使用したキャリブレーション手法により求めたセンサ間の回転行列や並進ベクトルにより、各計測情報の座標情報を同一空間上に変換することで、校正する。解像度のリサイズについては、エッジ距離情報と部分表面形状情報のどちらの解像度に合致させるかは特に限定しない。キャリブレーション方法については、図4に示したエッジ距離情報と、図6に示した部分表面形状情報44,45を比較できるような座標変換が可能な方法であれば特に限定せず、本例のように各計測情報を画像情報として扱う場合は、画像間の位置合わせといった2次元空間内での座標変換方法を用いても良い。
図8は、形状補間実行部51の処理を説明する図である。図8において、55はエッジ距離情報37においてエッジ部分の距離値が記載された初期エッジ距離情報の一例、56,57は形状補間実行部51によって補間された補間エッジ距離情報の一例を示している。形状補間実行部51は、計測情報校正部50により校正した部分表面形状情報44,45を用いて、初期エッジ距離情報55を補間する。補間の流れとしては、部分表面形状情報44,45とエッジ距離情報37を比較し、フィッティング処理などにより各部分表面形状情報の外周部分が、エッジ距離情報37のどのエッジ部分に対応するかを判定する。そして、部分表面形状情報の外周部分に対応する初期エッジ距離情報55の値を比較することで、ステレオカメラ2から遠方にある部分表面形状情報を順番に使用しつつ初期エッジ距離情報55の補間処理を実行する。なお、補間に使用する部分表面形状情報の順番を決める際に、ステレオカメラ2からの距離を使用するのではなく、部分表面形状情報の大きさを使用しても良い。補間処理としては、部分表面形状情報の外周部分に対応するエッジ距離情報の距離値を基準距離値として使用し、各画素の周囲(上下左右の位置)に空白がある場合は基準距離値を埋めていくといった処理を、基準距離値よりも小さい距離値を含む画素が見つかるまで物体領域内で繰り返す方法など、初期エッジ距離情報55の値を用いて空白部分を埋めていく方法であれば特に限定しない。本例の場合、部分表面形状情報44,45の外周部分のエッジ距離情報を比較すると、部分表面形状情報44の距離値の方が15cm大きいため、部分表面形状情報44を使用して初期エッジ距離情報55を補間して、補間エッジ距離情報56を生成する。そして、補間エッジ距離情報56に対して、部分表面形状情報45を使用してエッジ距離情報を補間し、補間エッジ距離情報57を生成する。本例では、補間エッジ距離情報56の空白部分を埋めていく際に、基準距離値(80)よりも大きい距離値(85)を含む画素が見つかるため、当該画素の距離値を基準距離値(80)で上書きすることで、最終的な補間エッジ距離情報57を生成する。
物体形状出力部12では、形状補間部11により生成した補間エッジ距離情報から3次元点群を生成し、最終的なワークの3次元形状情報として出力する。
(まとめ)
本実施例では、物体30の3次元形状を計測するセンシング装置100において、計算機1と、加熱装置4とを備え、計算機1は、物体30の視覚情報を基に物体30の画像35を生成する画像生成部5と、画像35のうち物体30が占める領域を物体領域36として抽出する物体領域抽出部6と、物体30の距離情報のうち物体30のエッジ部分の距離情報を抽出してエッジ距離情報37を生成するエッジ距離情報生成部7と、物体30の遠赤外線情報を基に物体領域36に対応する遠赤外線画像41~43を生成する遠赤外線画像生成部8と、物体30を加熱するように加熱装置4を制御する加熱装置制御部9と、物体30の加熱前後の遠赤外線画像41~43から物体30の部分表面形状情報44,45を推定する部分表面形状推定部10と、部分表面形状情報44,45を用いてエッジ距離情報37を補間することにより物体30の補間エッジ距離情報57を生成する形状補間部11と、補間エッジ距離情報57を3次元形状情報に変換して出力する物体形状出力部12とを有する。
本実施例では、物体30の3次元形状を計測するセンシング装置100において、計算機1と、加熱装置4とを備え、計算機1は、物体30の視覚情報を基に物体30の画像35を生成する画像生成部5と、画像35のうち物体30が占める領域を物体領域36として抽出する物体領域抽出部6と、物体30の距離情報のうち物体30のエッジ部分の距離情報を抽出してエッジ距離情報37を生成するエッジ距離情報生成部7と、物体30の遠赤外線情報を基に物体領域36に対応する遠赤外線画像41~43を生成する遠赤外線画像生成部8と、物体30を加熱するように加熱装置4を制御する加熱装置制御部9と、物体30の加熱前後の遠赤外線画像41~43から物体30の部分表面形状情報44,45を推定する部分表面形状推定部10と、部分表面形状情報44,45を用いてエッジ距離情報37を補間することにより物体30の補間エッジ距離情報57を生成する形状補間部11と、補間エッジ距離情報57を3次元形状情報に変換して出力する物体形状出力部12とを有する。
また、本実施例におけるセンシングシステム200は、センシング装置100と、物体30の視覚情報および距離情報を取得する可視光センサ2と、物体30の遠赤外線情報を取得する遠赤外線センサ3とを備える。
また、本実施例では、物体の3次元形状を計測するセンシング方法において、物体30の視覚情報を基に物体30の画像35を生成する手順と、画像35のうち物体30が占める領域を物体領域36として抽出する手順と、物体30の距離情報のうち物体30のエッジ部分の距離情報を抽出してエッジ距離情報37を生成する手順と、物体30の遠赤外線情報を基に物体領域36に対応する遠赤外線画像41を生成する手順と、物体30を加熱する手順と、物体30を加熱した後の遠赤外線画像42,43を生成する手順と、物体30の加熱前後の遠赤外線画像41~43から物体30の部分表面形状情報44,45を推定する手順と、部分表面形状情報44,45を用いてエッジ距離情報37を補間することにより物体30の補間エッジ距離情報57を生成する手順と、補間エッジ距離情報57を3次元形状情報に変換する手順とを備える。
以上のように構成した本実施例によれば、物体30の加熱前後の遠赤外線画像41~43から物体30の部分表面形状情報44,45を生成し、物体30のエッジ距離情報37を部分表面形状情報44,45を用いて補間することで、透明な素材を含む物体30の3次元形状を正確に計測することが可能となる。
また、本実施例におけるエッジ距離情報生成部7は、画像35の各画素に対応する位置の可視光センサ2からの距離値を算出し、画像35の各画素に前記距離値を紐づけた情報を距離画像として生成し、前記距離画像の隣接する画素同士で距離値の差分を算出し、前記差分が所定の閾値以上となる画素を、前記エッジ部分を構成する画素として抽出し、前記エッジ部分を構成する各画素に、各画素の距離値と隣接する画素の距離値のうち小さい方の値を紐づけた情報をエッジ距離情報37として生成する。これにより、可視光センサ2で取得した情報からエッジ距離情報37を生成することが可能となる。
また、本実施例における遠赤外線画像生成部8は、物体領域36の各画素に物体30の遠赤外線情報を紐づけた情報を遠赤外線画像41として生成する。これにより、物体領域36に対応する遠赤外線画像41を取得することが可能となる。
また、本実施例における加熱装置制御部9は、物体領域36、エッジ距離情報37、物体30を加熱する前の遠赤外線画像41、および物体30の事前情報のうち少なくとも1つの情報に基づいて、加熱装置4による物体30の加熱時間または加熱方向を調整する。これにより、部分表面形状情報44,45の推定に適した温度状態となるように物体30を加熱することが可能となる。
また、本実施例における部分表面形状推定部10は、物体30の部分表面形状情報44,45を推定する際に、物体30を加熱する前の遠赤外線画像41を用いて、物体30を加熱した後の遠赤外線画像43に含まれるノイズを除去する。これにより、部分表面形状情報44,45の推定精度を向上させることが可能となる。
また、本実施例における形状補間部11は、エッジ距離情報37および部分表面形状情報44,45の各座標を同一空間上の座標に変換することによりエッジ距離情報37および部分表面形状情報44,45を校正する計測情報校正部50と、校正後のエッジ距離情報37を校正後の部分表面形状情報44,45を用いて補間する形状補間実行部51とを有する。これにより、エッジ距離情報37の補間精度を向上させることが可能となる。
また、本実施例における部分表面形状情報44,45は、複数の部分表面形状にそれぞれ対応した複数の部分表面形状情報44,45を含み、形状補間部11は、複数の部分表面形状情報44,45をエッジ距離情報37の補間に使用する順番を、可視光カメラ2から前記複数の部分表面形状までの各距離または前記複数の部分表面形状の各大きさに基づいて決定する。これにより、エッジ距離情報37の補間精度を向上させることが可能となる。
また、本実施例における可視光センサ2は、ステレオカメラ、プロジェクタを併設した可視光カメラ、および画像から距離を推定する機能を備えた可視光カメラのいずれかで構成されている。これにより、物体30の視覚情報と距離情報とを同時に取得することが可能となる。
なお、本実施例では、部分表面形状が四角形となるワークを例に説明したが、ワークの形状は特に限定しない。例えば、透明な梱包部分が半球形状である場合、加熱後の遠赤外線情報はカメラに最も近い頂点部分の温度が最大となり、カメラから離れるほど温度が低くなるといった情報となる。この場合、温度が最も低い部分のエッジ距離情報は生成できるため、その基準距離値を使い、遠赤外線画像から推定した3次元情報により補間するなどの方法により、部分表面形状情報を推定しても良く、あるいは物体形状のカテゴリ毎に対応する遠赤外線画像のモデルを保持しておき、遠赤外線画像から3次元モデルを生成し、エッジ距離情報を用いて部分表面形状情報を推定する方法などを使用しても良い。
図9は、本発明の第2の実施例におけるピッキングロボットシステムの構成図である。図9に示すピッキングロボットシステム300は、ピッキングロボット60と、ベルトコンベア61と、センシングシステム200とを備える。ピッキングロボットシステム300は、ベルトコンベア61に流れるワーク30の3次元形状をセンシングシステム200により計測し、ピッキングロボット60によりワーク30を把持して運搬するシステムである。
図9において、遠赤外線カメラ3a、加熱装置4、およびピッキングロボット60は、ベルトコンベア61の上流から下流に向かって順に、ベルトコンベア61の近傍に設置されている。ステレオカメラ2および遠赤外線カメラ3bは、ピッキングロボット64の近傍に設置されている。
図9において、画像生成部5、物体領域抽出部6、エッジ距離情報生成部7、遠赤外線画像生成部8、加熱装置制御部9、形状補間部11、および物体形状出力部12は、第1の実施例と同じまたは類似する機能を有する。ロボット制御部13は、物体形状出力部12により出力されたワーク30の3次元形状情報を用いてピッキングロボット64を制御し、ワーク30を把持して所定の位置に運搬する機能を有する。事前遠赤外線画像14は、ワーク30を加熱する前に生成したワーク30の遠赤外線画像である。校正情報15は、遠赤外線カメラ3a,3bの計測情報を校正するためのパラメータ情報である。以下、部分表面形状推定部10とロボット制御部13について説明する。
部分表面形状推定部10は、第1の実施例における部分表面形状推定部10(図1に示す)の機能をほぼ踏襲しており、事前遠赤外線画像14、およびピッキングロボット60近傍の遠赤外線カメラ3bにて計測した遠赤外線画像から部分表面形状情報を生成する。遠赤外線カメラ3a,3bは、計測情報校正部50(図7に示す)で説明した方法により予めキャリブレーションを実施して校正情報15を生成することで、各カメラの計測情報を同一の座標空間上で扱えるようにしておく。校正情報15を用いることで、遠赤外線カメラ3aとステレオカメラ2の計測情報も同一の座標空間で表現できるため、事前遠赤外線画像14と物体領域抽出部6により抽出した物体領域を比較することで、物体領域に対応する加熱前の遠赤外線画像を生成でき、第1の実施例と同様のフローにて部分表面形状情報を推定できる。
ロボット制御部13では、物体形状出力部12により出力されたワーク30の3次元形状情報を用いて、ピッキングロボット64によるワーク30の運搬を実行する。本例では、得られる3次元形状情報はステレオカメラ2により計測したものであるため、事前にピッキングロボット64とステレオカメラ2のキャリブレーションを実施しておく。キャリブレーションの方法としては、ピッキングロボット64のアーム部分にキャリブレーションボードを設置し、ステレオカメラ2により計測して校正情報を推定する方法など、特に限定しない。ロボット制御部13では、3次元形状情報を3次元点群座標として扱い、ピッキングロボット64に対して、把持位置と運搬位置の座標情報を教示することで、ワーク30を運搬する。なお、把持位置と運搬位置を決める方法は特に限定しない。また、把持に使用するアーム部分についても人の手のような形に限定せず、真空ポンプを使用した吸着アームなどでも良く、特に限定しない。
(まとめ)
本実施例では、センシングシステム200と、ピッキングロボット60と、物体30をピッキングロボット60まで搬送するベルトコンベア61とを備えたピッキングロボットシステム300において、遠赤外線センサ3a,3bは、加熱装置4で加熱する前の物体30の遠赤外線情報を取得する第1遠赤外線センサ3aと、加熱装置4で加熱した後の物体30の遠赤外線情報を取得する第2遠赤外線センサ3bとを含み、計算機1は、物体30の3次元形状情報を用いてピッキングロボット60を制御するロボット制御部13を有する。
本実施例では、センシングシステム200と、ピッキングロボット60と、物体30をピッキングロボット60まで搬送するベルトコンベア61とを備えたピッキングロボットシステム300において、遠赤外線センサ3a,3bは、加熱装置4で加熱する前の物体30の遠赤外線情報を取得する第1遠赤外線センサ3aと、加熱装置4で加熱した後の物体30の遠赤外線情報を取得する第2遠赤外線センサ3bとを含み、計算機1は、物体30の3次元形状情報を用いてピッキングロボット60を制御するロボット制御部13を有する。
以上のように構成した本実施例によれば、第1遠赤外線センサ3aにより計測した加熱前の物体30の遠赤外線情報と、第2遠赤外線センサ3bにより計測した加熱後の物体30の遠赤外線情報から物体30の部分表面形状を生成し、当該部分表面形状を用いて可視光センサ2により計測した物体30のエッジ距離情報を補間することで、システム全体の効率を維持しつつ、透明な素材を含む物体30の3次元形状を正確に計測することが可能となる。
また、本実施例おける計算機1は、物体30の計測を行うごとにエッジ距離情報と部分表面形状情報とを対応づけて記憶し、新たに生成したエッジ距離情報が過去に生成したエッジ距離情報と一致した場合に、加熱装置4による物体30の加熱および遠赤外線センサ3a,3bによる遠赤外線情報の取得を省略し、過去に生成したエッジ距離情報に対応する部分表面形状情報を用いて、新たに生成したエッジ距離情報を補間することにより、物体30の3次元形状情報を生成しても良い。これにより、システム全体の効率を向上させることが可能となる。
以上、本発明の実施例について詳述したが、本発明は、上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、本発明は必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成に他の実施例の構成の一部を加えることも可能であり、ある実施例の構成の一部を削除し、あるいは、他の実施例の一部と置き換えることも可能である。
1…計算機、2…ステレオカメラ(可視光センサ)、3…遠赤外線カメラ(遠赤外線センサ)、3a…遠赤外線カメラ(第1遠赤外線センサ)、3b…遠赤外線カメラ(第2遠赤外線センサ)、4…加熱装置、5…画像生成部、6…物体領域抽出部、7…エッジ距離情報生成部、8…遠赤外線画像生成部、9…加熱装置制御部、10…部分表面形状推定部、11…形状補間部、12…物体形状出力部、13…ロボット制御部、14…事前遠赤外線画像、15…校正情報、21…物体領域抽出部、30…ワーク(物体)、31,32…梱包材、33…ワーク本体、34…台座、35…撮像画像、36…物体領域、37…エッジ距離情報、40~43…遠赤外線画像、44,45…部分表面形状情報、50…計測情報校正部、51…形状補間実行部、55…初期エッジ距離情報、56,57…補間エッジ距離情報、60…ピッキングロボット、61…ベルトコンベア、100…センシング装置、200…センシングシステム、300…ピッキングロボットシステム。
Claims (12)
- 物体の3次元形状を計測するセンシング装置において、
計算機と、
加熱装置とを備え、
前記計算機は、
前記物体の視覚情報を基に画像を生成する画像生成部と、
前記画像のうち前記物体が占める領域を物体領域として抽出する物体領域抽出部と、
前記物体の距離情報のうち前記物体のエッジ部分の距離情報を抽出してエッジ距離情報を生成するエッジ距離情報生成部と、
前記物体の遠赤外線情報を基に前記物体領域に対応する遠赤外線画像を生成する遠赤外線画像生成部と、
前記物体を加熱するように前記加熱装置を制御する加熱装置制御部と、
前記物体の加熱前後の遠赤外線画像から前記物体の部分表面形状情報を推定する部分表面形状推定部と、
前記部分表面形状情報を用いて前記エッジ距離情報を補間することにより前記物体の補間エッジ距離情報を生成する形状補間部と、
前記補間エッジ距離情報を3次元形状情報に変換して出力する物体形状出力部とを有する
ことを特徴とするセンシング装置。 - 請求項1に記載のセンシング装置において、
前記遠赤外線画像生成部は、前記物体領域の各画素に前記物体の遠赤外線情報を紐づけた情報を前記遠赤外線画像として生成する
ことを特徴とするセンシング装置。 - 請求項1に記載のセンシング装置において、
前記加熱装置制御部は、前記物体領域、前記エッジ距離情報、前記物体を加熱する前の前記遠赤外線画像、および前記物体の事前情報のうち少なくとも1つの情報に基づいて、前記加熱装置による前記物体の加熱時間または加熱方向を調整する
ことを特徴とするセンシング装置。 - 請求項1に記載のセンシング装置において、
前記部分表面形状推定部は、前記物体の部分表面形状を推定する際に、前記物体を加熱する前の前記遠赤外線画像を用いて、前記物体を加熱した後の前記遠赤外線画像に含まれるノイズを除去する
ことを特徴とするセンシング装置。 - 請求項1に記載のセンシング装置において、
前記形状補間部は、
前記エッジ距離情報および前記部分表面形状情報の各座標を同一空間上の座標に変換することにより前記エッジ距離情報および前記部分表面形状情報を校正する計測情報校正部と、
校正後の前記エッジ距離情報を校正後の前記部分表面形状情報を用いて補間する形状補間実行部とを有する
ことを特徴とするセンシング装置。 - 請求項1に記載のセンシング装置と、
前記物体の視覚情報および距離情報を取得する可視光センサと、
前記物体の遠赤外線情報を取得する遠赤外線センサとを備える
ことを特徴とするセンシングシステム。 - 請求項6に記載のセンシングシステムにおいて、
前記エッジ距離情報生成部は、
前記画像の各画素に対応する位置の前記可視光センサからの距離値を算出し、
前記画像の各画素に前記距離値を紐づけた情報を距離画像として生成し、
前記距離画像の隣接する画素同士で距離値の差分を算出し、
前記差分が所定の閾値以上となる画素を、前記エッジ部分を構成する画素として抽出し、
前記エッジ部分を構成する各画素に、各画素の距離値と隣接する画素の距離値のうち小さい方の値を紐づけた情報を前記エッジ距離情報として生成する
ことを特徴とするセンシングシステム。 - 請求項6に記載のセンシングシステムにおいて、
前記部分表面形状情報は、複数の部分表面形状にそれぞれ対応した複数の部分表面形状情報を含み、
前記形状補間部は、前記複数の部分表面形状情報を前記エッジ距離情報の補間に使用する順番を、前記可視光センサから前記複数の部分表面形状までの各距離または前記複数の部分表面形状の各大きさに基づいて決定する
ことを特徴とするセンシングシステム。 - 請求項6に記載のセンシングシステムにおいて、
前記可視光センサは、ステレオカメラ、プロジェクタを併設した可視光カメラ、および画像から距離を推定する機能を備えた可視光カメラのいずれかで構成されている
ことを特徴とするセンシングシステム。 - 請求項6に記載のセンシングシステムと、
ピッキングロボットと、
前記物体を前記ピッキングロボットまで搬送するベルトコンベアとを備えたピッキングロボットシステムにおいて、
前記遠赤外線センサは、前記加熱装置で加熱する前の前記物体の遠赤外線情報を取得する第1遠赤外線センサと、前記加熱装置で加熱した後の前記物体の遠赤外線情報を取得する第2遠赤外線センサとを含み、
前記計算機は、前記物体の3次元形状情報を用いて前記ピッキングロボットを制御するロボット制御部を有する
ことを特徴とするピッキングロボットシステム。 - 請求項10に記載のピッキングロボットシステムにおいて、
前記計算機は、
前記物体の計測を行うごとに前記エッジ距離情報と前記部分表面形状情報とを対応づけて記憶し、
新たに生成した前記エッジ距離情報が過去に生成した前記エッジ距離情報と一致した場合に、前記加熱装置による前記物体の加熱および前記遠赤外線センサによる前記遠赤外線情報の取得を省略し、前記過去に生成した前記エッジ距離情報に対応する前記部分表面形状情報を用いて、新たに生成した前記エッジ距離情報を補間することにより、前記物体の3次元形状情報を生成する
ことを特徴とするピッキングロボットシステム。 - 物体の3次元形状を計測するセンシング方法において、
前記物体の視覚情報を基に前記物体の画像を生成する手順と、
前記画像のうち前記物体が占める領域を物体領域として抽出する手順と、
前記物体の距離情報のうち前記物体のエッジ部分の距離情報を抽出してエッジ距離情報を生成する手順と、
前記物体の遠赤外線情報を基に前記物体領域に対応する遠赤外線画像を生成する手順と、
前記物体を加熱する手順と、
前記物体を加熱した後の前記物体の遠赤外線画像を生成する手順と、
前記物体の加熱前後の遠赤外線画像から前記物体の部分表面形状情報を推定する手順と、
前記部分表面形状情報を用いて前記エッジ距離情報を補間することにより前記物体の補間エッジ距離情報を生成する手順と、
前記補間エッジ距離情報を3次元形状情報に変換する手順とを備える
ことを特徴とするセンシング方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022122817A JP2024019989A (ja) | 2022-08-01 | 2022-08-01 | センシング装置およびセンシング方法 |
PCT/JP2023/015838 WO2024029142A1 (ja) | 2022-08-01 | 2023-04-20 | センシング装置およびセンシング方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022122817A JP2024019989A (ja) | 2022-08-01 | 2022-08-01 | センシング装置およびセンシング方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024019989A true JP2024019989A (ja) | 2024-02-14 |
Family
ID=89849152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022122817A Pending JP2024019989A (ja) | 2022-08-01 | 2022-08-01 | センシング装置およびセンシング方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024019989A (ja) |
WO (1) | WO2024029142A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002084552A (ja) * | 2000-09-07 | 2002-03-22 | Fuji Xerox Co Ltd | カラオケ用立体画像表示装置およびカラオケ用立体画像表示方法 |
US9694498B2 (en) * | 2015-03-30 | 2017-07-04 | X Development Llc | Imager for detecting visual light and projected patterns |
CN106003076B (zh) * | 2016-06-22 | 2019-01-01 | 徐琳 | 一种基于立体视觉的喷塑机器人 |
US10958895B1 (en) * | 2017-10-04 | 2021-03-23 | Amazon Technologies, Inc. | High speed automated capture of 3D models of packaged items |
-
2022
- 2022-08-01 JP JP2022122817A patent/JP2024019989A/ja active Pending
-
2023
- 2023-04-20 WO PCT/JP2023/015838 patent/WO2024029142A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024029142A1 (ja) | 2024-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3006893B1 (en) | Methods for improving the accuracy of dimensioning-system measurements | |
JP6415066B2 (ja) | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム | |
CN105818167B (zh) | 采用远距数字摄像头校准铰接的末端执行器的方法 | |
US20190152054A1 (en) | Gripping system with machine learning | |
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
JP5839971B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP4004899B2 (ja) | 物品の位置姿勢検出装置及び物品取出し装置 | |
JP6004809B2 (ja) | 位置姿勢推定装置、情報処理装置、情報処理方法 | |
JP5743499B2 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
US20200147804A1 (en) | Operating system, control device, and computer program product | |
JP5627325B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
KR101919463B1 (ko) | 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템 | |
JP2011179907A (ja) | 位置姿勢計測装置、位置姿勢計測方法およびプログラム | |
JP6836561B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2008506953A (ja) | 機械視覚のための方法及び装置 | |
JP2012042396A (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
EP3250346B1 (en) | 3d segmentation for robotic applications | |
Fan et al. | A shape-based stereo matching algorithm for binocular vision | |
JP7330970B2 (ja) | コンピュータ生成された参照物体を有するマシンビジョンシステム | |
WO2024029142A1 (ja) | センシング装置およびセンシング方法 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP6040264B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
CN113793383A (zh) | 一种3d视觉识别取放系统及方法 | |
JP6845929B2 (ja) | 三次元計測装置、および方法 |