JP2017138176A - 三次元情報取得システム、三次元情報取得方法及びピッキングシステム - Google Patents

三次元情報取得システム、三次元情報取得方法及びピッキングシステム Download PDF

Info

Publication number
JP2017138176A
JP2017138176A JP2016018627A JP2016018627A JP2017138176A JP 2017138176 A JP2017138176 A JP 2017138176A JP 2016018627 A JP2016018627 A JP 2016018627A JP 2016018627 A JP2016018627 A JP 2016018627A JP 2017138176 A JP2017138176 A JP 2017138176A
Authority
JP
Japan
Prior art keywords
dimensional information
unit
light
information acquisition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016018627A
Other languages
English (en)
Inventor
潤 岸和田
Jun Kishiwada
潤 岸和田
高橋 達也
Tatsuya Takahashi
達也 高橋
村井 俊晴
Toshiharu Murai
俊晴 村井
大内田 茂
Shigeru Ouchida
茂 大内田
丸山 剛
Takeshi Maruyama
剛 丸山
健司 永島
Kenji Nagashima
健司 永島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016018627A priority Critical patent/JP2017138176A/ja
Publication of JP2017138176A publication Critical patent/JP2017138176A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

【課題】三次元情報を精度良く取得する三次元情報取得システムの提供。【解決手段】光Lを対象物Pへ投射する照明部10と、照明部10からの光の反射光L’を検知する検知部20と、対象物Pと照明部10からの投射領域との位置関係を変更させる位置変化部40と、位置変化部40による位置関係の変更前において検知部20により撮影される第1の画像R1と、位置変化部による位置関係の変更後において検知部20により撮影される第2の画像R2と、を用いて三次元情報を算出する三次元情報取得システム。【選択図】図1

Description

本発明は、三次元情報取得システム、三次元情報取得方法及びピッキングシステムに関する。
近年、対象物を撮影した画像から三次元データを生成する三次元情報取得システムの開発が進められている。
かかる三次元情報取得システムにおいて、対象物の位置や形状、材質などの諸条件によっては、撮影時に反射による白飛びなどの情報欠落が生じてしまう問題がある。
このような問題の対策として、カメラの位置を変化させて情報欠落のない画像を撮影する方法が知られている(例えば特許文献1等参照)。
しかしながら、カメラの位置を変化させての撮影を含むため、精度確保が困難であるという問題があった。
本発明は、以上のような問題点に鑑みてなされたものであり、三次元情報を精度良く取得する三次元情報取得システムの提供を目的とする。
上述した課題を解決するため、本発明の三次元情報取得システムは、光を対象物へ投射する照明部と、前記照明部からの光の反射光を検知する検知部と、前記対象物と前記照明部からの投射領域との位置関係を変更させる位置変化部と、前記位置変化部による前記位置関係の変更前において前記検知部により撮影される第1の画像と、前記位置変化部による前記位置関係の変更後において前記検知部により撮影される第2の画像と、を用いて三次元情報を算出する三次元情報取得システム。
本発明の三次元情報取得システムによれば、三次元情報を精度良く取得する。
本発明の実施形態にかかるピッキングシステムの全体構成の一例を示す図である。 図1に示したピッキングシステムの一部の構成の一例を示す図である。 図1に示した照明部の構成の一例を示す断面図である。 図3に示した画像形成素子の表示するモザイクパターンの一例を示す図である。 図1に示した三次元情報取得システムの機能構成の一例を示すブロック図である。 三次元情報取得システムによって撮影される画像の一例を示した模式図である。 物体認識の動作の一例を示すフローチャートである。 第2の実施形態にかかるピッキングシステムの全体構成の一例を示す図である。 第2の実施形態において撮影される画像の一例を示した模式図である。
以下、本発明の実施形態の一例を図面を用いて説明する。
図1には、本発明の第1の実施形態にかかる三次元情報生成装置100を有し、物体認識機能を備えたピッキングシステムたるピッキング装置300が示されている。
図1では、鉛直方向をZ方向として、Z方向に垂直で紙面に垂直な方向をY方向、Z方向とY方向とに垂直な方向をX方向とする。
ピッキング装置300は、三次元情報取得システムを構成する三次元情報生成装置100と、三次元情報生成装置100の測定対象たるワークPが載置される台301と、ワークPを掴んで取り出す多関節ロボットたるロボット302と、を有している。
ピッキング装置300はまた、三次元情報生成装置100からの三次元データを基にワークPを認識するとともにロボット302を制御するためのコンピュータ303を有している。
台301は、後述するデータ生成領域Wの領域内にワークPが配置されるように置かれた台である。なお、図1では、台301のみデータ生成領域Wの表示のために斜視図として表示している。
ロボット302は、コンピュータ303からの指示に基づいて、ワークPを掴んで取り出すことができるように開閉可能に設けられた爪部3021と、爪部3021を自由に移動可能な態様で支持する多関節アーム3022と、を有している。
なお、ロボット302は、かかる構成に限定されるものではなく、ワークPを取り出せる機構であれば良く、例えば電磁石やエアーによって吸着して取り出すロボットハンドであっても良い。また、ワークPの開口部を検知して爪部3021を差し込んで把持する機構や、ワークPの頂点を検知して吸着する機構であっても良い。
コンピュータ303は、三次元情報生成装置100からの三次元データを基にロボット302とワークPとの間の相対的な距離を認識する認識部3031と、ロボット302を動かすコントローラ3032と、を有している。
認識部3031は、三次元情報生成装置100を用いて取得された三次元データなどを用いてロボット302がワークPを把持する位置を算出する。例えばあらかじめ登録されている三次元データと取得された三次元データとを比較してマッチング処理をかけることでワークPの位置、姿勢を認識する認識手段がある。なお、マッチング処理方法は三次元データのみで実施するCADマッチングやサーフェスマッチングであっても良いし、三次元データと併せて輝度情報などの二次元情報を用いてエッジ抽出処理などを複合的に実施する手法でも良い。
三次元情報生成装置100は、図1に示すように、台301上の所定の範囲であるデータ生成領域Wに光Lを投射する照明部10と、データ生成領域Wの範囲内にある光Lの反射光L’を検知する検知部たるセンサ部としてのカメラ20と、を有している。
三次元情報生成装置100は、カメラ20によって検知された反射光L’の輝度が所定値以上となる高輝度領域Qを判別する、図2に示す判別部30と、判別部30の判断に基づいて高輝度領域Qの位置を変化させる位置変化部たるミラー駆動部40と、を有している。
カメラ20は、後述するように、撮影された複数の画像を用いて、ワークPまでの距離等の情報を含む三次元情報の取得を行う。
なお、本実施形態では、カメラ20が三次元情報を取得するとしたが、コンピュータ303を用いて行っても良いし、外部のコンピュータを用いても良い。
照明部10は、図3に示すように、可視の単色レーザ光を発射する光源たるレーザダイオード11と、レーザダイオード11から射出された光Lを平行光束に偏向するカップリングレンズ12と、集光レンズ13と、を有している。
照明部10は、集光レンズ13の焦点近傍に配置された透過拡散板14と、透過拡散板14を透過した光Lを内部で反射することで輝度分布が均一になるように出射するライトトンネル15と、を有している。
照明部10は、光Lにモザイクパターンを付与するためにライトトンネル15の出射側に配置された画像形成素子16と、光Lを投射範囲Wへ向けて投射する投射光学系17と、ミラー18とを有している。
ミラー18は、光Lの進行方向であり、X方向と平行なA方向において投射光学系17よりも下流側に配置され、ミラー駆動部40によってA方向に沿って移動可能となっている。
レーザダイオード11は、波長が440nm〜500nmの青色レーザ光を射出する発光ダイオードである。なお、本実施形態では青色レーザ光としたが、かかる構成に限定されるものではなく、異なる波長のレーザ光を用いても良いし、レーザ光以外の光を用いても良い。ただし、データ生成領域Wにおける輝度の一様性を確保し、また投射光学系17における収差を抑えることを考えると、単色光がより望ましい。
集光レンズ13は、カップリングレンズ12によって平行光束として偏向された光Lを集光する。
透過拡散板14は、拡散角が半値全幅で5〜10°程度に設定された拡散板であり、集光レンズ13によって焦点に集光された光Lを、モアレや照度分布を生じない程度に拡散する。
ライトトンネル15は、内部が中空の筒状の部材であり、内壁面には反射面15aが形成されて光Lを繰り返し反射させることで、光Lの輝度分布を均一にしつつ、光Lを出射側たる+A方向に移送する伝送手段である。
なお、ここではライトトンネル15を中空の筒状であるとしたが、反射面15aによって反射を繰り返しながら透過可能であれば、ガラス柱などの透過性部材を芯とする中実の部材であっても良い。
一般に、ライトトンネル15内における反射回数すなわち光Lが反射面15aによって反射される回数が多いほど光Lの輝度分布は均一化される一方で、光Lの強度は反射による減衰の影響で低下する。かかる反射回数は、ライトトンネル15の長さと、光Lの入射角によって変化する。
したがって、ライトトンネル15の長さは、伝送効率を保ちつつ輝度分布を均一化できる程度に必要最小限の長さにすることが望ましい。
また、ライトトンネル15を透過した光Lは、画像形成素子16に投射されて画像情報を付与されるので、画像形成素子16以上の大きさを持つことが望ましい。すなわち、ライトトンネル15の出射側開口及び入射側開口の大きさは、画像形成素子16の大きさ以上であることが望ましい。さらに、ライトトンネル15の出射側開口が大きい場合には、光Lのうち、画像形成素子16に当たらない部分については無駄が生じてしまう。したがって、光Lの利用効率向上のためには、出射側開口は、組み付け精度を含めて画像形成素子16に光Lが当たる必要十分な大きさであることが望ましい。
画像形成素子16は、図4に示すようなモザイク状のマスクパターン(モザイクパターン)をアルミやクロムなどの反射部材によって描画することで、入射した光Lにモザイクパターンを付与する。
画像形成素子16は、光Lの一部を透過、一部を遮光(あるいは減光)することによって、所望のモザイクパターンを形成する。
なお、本実施形態においては、反射によってモザイクパターンを形成する画像形成素子16を用いたが、液晶素子などのように、任意のセルの透過率を制御することでモザイクパターンを形成する透過型の画像形成素子を用いても良い。
画像形成素子16によってモザイクパタ−ンを付与された光Lは、投射光学系17によって拡大投影される。
投射光学系17の+A方向側には、ミラー18が配置されており、ミラー18は光Lを台301へ向けて反射する。
ミラー18は、ミラー駆動部40によって±A方向へと駆動可能に支持された反射部である。ミラー18は、±A方向へ移動することで、投射光学系17によって拡大投射された光Lの照明部10における出射位置を変化させる出射位置調整手段である。
ミラー18は、+A方向に移動距離aだけ移動することで光Lの照明部10からの出射位置を調整することにより、後述するようにデータ生成領域Wの範囲を変えることなく、データ生成領域Wの範囲内における高輝度領域Qの位置を変化させる。
言い換えるとミラー駆動部40は、ミラー18を移動させることによって照明部10からの光の投射領域の位置を変化させる。ミラー駆動部40は、このように、ワークPと照明部10からの光の投射領域との位置関係を変更する位置変化部としての機能を有している。
なお、当該高輝度領域Qはカメラ20のサチュレーションによって三次元データの取得が難しい部位であるが、逆に低輝度のために三次元データの取得が難しい低輝度領域についても、ミラー18を移動させることによって照明部10からの光の投射領域の位置を変化させ、ワークPと照明部10からの光の投射領域との関係を変更しても良い。
かかる構成によれば、照明部10の影になる部分であっても、三次元データの取得が行えるようになる効果がある。
カメラ20は、ステレオカメラであり、図5にブロック図として示すように、第1カメラ20aと、第2カメラ20bと、を有している。
カメラ20は、第1カメラ20aと第2カメラ20bとが撮影した画像を元に視差情報を計算する視差計算部21と、光量や輝度などによる補正を行う補正パラメータ記録部22と、低下したMTF特性を復元するための画像処理部23と、を有している。
第1カメラ20aと第2カメラ20bとは、何れも反射光L’を検知することでデータ生成領域Wの範囲内の画像を撮影する撮像手段である。
本実施形態では、カメラ20はステレオカメラであり、以降の説明では特に区別する必要があるときには第1カメラ20aによって撮影される輝度画像をR1aと表記し、第2カメラ20bによって撮影される輝度画像をR1bとする。なお、第1カメラ20aと第2カメラ20bとが左右に配置されたタイプのステレオカメラとして説明するが、2つのカメラの配置される方向は限定されるものではない。また、特に区別する必要のないときには画像Rとの表記を用いる。後述する位置変化後に撮影される画像Rについても同様である。
なお、反射光L’は、ここではワークPに当たることによって反射された反射光の他、台301上で反射された光なども含んで良い。
補正パラメータ記録部22は、第1カメラ20aによって撮影される輝度画像たる画像R1aと、第2カメラ20bによって撮影される輝度画像たる画像R1bについて、各補正パラメータにしたがって画像補正を行う。
視差計算部21は、第1カメラ20aと、第2カメラ20bとがそれぞれ撮影した画像を元にして、具体的には、擬似的に基線方向と水平方向とが一致した2枚の画像を比較することで、画像の水平方向の視差から、視差画像すなわち三次元データを取得する。
また、カメラ20は、画像処理部23を用いてMTF特性を復元させ、解像度が向上した輝度画像を出力する。
なお、本実施形態においては、かかる視差計算部21と、補正パラメータ記録部22と、画像処理部23と、は何れもカメラ20が有するとしたが、コンピュータ303などの外部機器に組み込まれた機能であっても良い。
カメラ20は、視差計算部21によって計算された視差画像に基づいて、ワ―クPまでの距離dを算出する。言い換えると、画像形成素子16によって付与されたモザイクパターンの投影された画像データからの視差ワ―クPまでの距離dを算出する。
ところで、このような三次元情報生成装置100において、ワークPとカメラ20との間の距離dを精度良く測定しようとするときには、カメラ20によって撮影される画像データには、モザイクパターンの情報の欠落が無いことが望ましい。
しかしながら、ワークPとして金属等の光沢物をピックアップするときのように、ワークPの反射率が高いような場合には、特に、一例として、光Lの入射角と反射光L’の出射角とが一致する点でしばしば画像の輝度が所定値以上となってしまうような高輝度領域Qが生じる。
言い換えると高輝度領域Qは、光Lの入射角と反射光L’の出射角とが一致する正反射が生じる箇所であるといえる。
かかる高輝度領域Qでは、しばしばカメラ20の感度の上限値を超えて飽和してしまうために、高輝度領域Q内の輝度情報が欠落してしまうことと同様の影響を与えてしまう。
具体的には、高輝度領域Q内では、データ生成領域Wに投影したモザイクパターンがつぶれてしまい、輝度の強弱を認識できない状態になってしまう。
すなわち画像R1aまたは画像R1bに高輝度領域Qが生じると、画像R1aと画像R1bとを用いて視差計算部21によって計算された視差画像も、かかる高輝度領域Qに示される範囲において、視差情報の精度が低下する。
そのため、高輝度領域Qの範囲内では、十分な視差情報が得られず、三次元データの精度が低下するという問題が生じるおそれがある。
従来の撮像装置などでは、このような所謂サチュレーションが生じてしまうような場合には、サチュレーションが生じないような位置にカメラの位置を変えることで、三次元データの精度の低下を防ぐ技術が知られている。
しかしながら、本実施形態における三次元情報生成装置100のように、ランダムに配置されたワークPを取り扱うような場合には、全くサチュレーションを生じないようなカメラ20の位置を選択することがそもそも困難であった。
また、モザイクパターンを認識可能な程度に高精度なテクスチャ情報の取得が必要であるために、単に光量を落してサチュレーションを生じないようにするということも難しかった。
そこで、本実施形態においては、カメラ20は、図6(a)〜(c)に示すように、撮影された第1の画像たる画像R1a、R1bのデータ生成領域W内において、入射した光の輝度が所定値以上となる高輝度領域Qを検知したことを条件として、第2の画像たる画像R2a、R2bを撮影する。
画像R1a、R1bが撮影されたとき、ランダムに配置されたワークPに対して、斜線で塗りつぶされた高輝度領域Qの範囲にある情報は、反射光L’によってカメラ20が飽和してしまい、視差情報を得ることが難しい。
画像R2a、R2bは、図6(b)に模式的に示すように、画像R1a、R1bを撮影したときのデータ生成領域Wとデータ生成領域W’が略同一であり、かつ高輝度領域Q’の位置関係が異なる画像である。ここで略同一とは、画像R1a、R1bと画像R2a、R2bとを用いて構成される三次元データの範囲内においてデータ生成領域Wとデータ生成領域W’とが重複していることを示し、多少の形状や大きさの変化については許容してよい。
すなわち、第1の画像R(画像R1a、R1b)はミラー駆動部40による位置関係の変更前においてカメラ20により撮影される画像である。同様に、ミラー駆動部40による位置関係の変更後においてカメラ20により撮影される画像が第2の画像R(画像R2a、R2b)である。
認識部3031は、画像R(画像R1a、R1b)を用いて作成した視差情報と、画像R(画像R1a、R1b)を用いて作成した視差情報と、を重畳させることで欠落のない三次元データを作成する(図6(c)に模式的に図示)。
このとき、図6(c)に模式的に示すように、高輝度領域Qの範囲内の視差情報が互いに補完されるので、三次元情報が精度良く取得される。
このような画像R(画像R1a、R1b)と画像R(画像R2a、R2b)と、を用いてワークPを正しく認識する物体認識方法について図7のフローチャートを用いて説明する。
まず、照明部10は、光LをワークPへ向けて照射する(ステップS100)。このときの光Lが当たる領域が投射領域であり、例えばワークPに正反射して所定値以上の輝度となる高輝度領域Qを含んでいる。かかるステップS100は、照明部10により光LをワークPへ投射する第1のステップたる投射ステップである。
カメラ20は、台301上のデータ生成領域W内の画像R(画像R1a、R1b)を撮影する(ステップS101)。かかるステップS101は、反射光L’を用いて第1の画像R(画像R1a、R1b)を撮影する第1撮影ステップたる第2のステップである。
判別部30は、ステップS101において撮影された画像R1aと画像R1bとを精査し、画像R1aまたは画像R1bに高輝度領域Qが形成されているか否かを検知する(ステップS102)。例えば、画像R1aと画像R1bとをいくつかの矩形のセルに分割し、それぞれのセル内の輝度情報を取得して所定の輝度よりも大きい領域がないかどうかを判別する。あるいは、画像R1aと画像R1bとにおけるすべての画素について輝度が所定値よりも大きいか否かについて判別しても良い。
かかるステップS102は、言い換えると反射光L’の輝度が所定値以上の高輝度領域Qを判別するための判別ステップである。
なお、本実施形態では判別ステップは高輝度領域を判別するとしたが、輝度情報が所定値よりも低い低輝度領域を判別するものであっても良い。
ステップS102において、判別部30が画像R1aまたは画像R1bに高輝度領域Qを検知したときには、ミラー駆動部40は、ミラー18を+A方向に移動距離aだけ移動させて、光Lの出射位置を変更させる(ステップS103)。
このとき、かかるミラー18の移動距離aは、図6において既に示したように、画像R1a、R1bの高輝度領域Qと画像R2a、R2bの高輝度領域Q’とが互いに重複しない程度にずらされれば十分である。すなわち、照明部10からワークPまでの距離dに比べて、ミラー18の移動距離aは十分小さい。例えば、距離dが1m程度のときに、移動距離aは数十mm程度の移動量でよい。
なお、判断部30が高輝度領域Qを検知したことを条件として、自動でミラー駆動部40がミラー18を移動させるとしても良い。
このようにミラー18を移動させることで、光Lが正反射する箇所が変わるので、画像R(画像R2a、R2b)のデータ生成領域Wを変えることなく、高輝度領域Qの位置が図6に破線で示すように高輝度領域Q’の位置へと変化する。
言い換えると、ミラー駆動部40は、ミラー18を移動させてワークPと照明部10からの投射領域との位置関係を変更させる。
かかるステップS103は、カメラ20、ワークP、光Lを投射する照明部10の少なくとも何れか1つを動かすことで、高輝度領域Qの位置を変化させる第3のステップたる位置変化ステップである。なお本実施形態ではミラー18を動かす場合についてのみ述べたが、台301を移動させることでワークPを動かしても良いし、カメラ20を動かすとしても良い。
ピッキング装置300は、カメラ20によってワークPとの距離dを視差情報として含んだ三次元データを取得し、認識部3031でワークPとロボット302との相対的な位置関係を認識し、コントローラー3032を用いてロボット302を制御する。したがって、ロボット302とカメラ20との位置関係は変化しないことが望ましい。そこで本実施形態においては、ミラー18を移動させることで、照明部10からの光Lの出射位置を変化させて、ロボット302やカメラ20との位置関係を変化させることなく、高輝度領域Q’のみの位置が異なった画像R(画像R2a、R2b)を撮影している。
かりに、カメラ20や台301を移動させて第2の画像R(画像R2a、R2b)を撮影する場合には、かかる移動量と、移動方向とをコンピュータ303などに記憶しておき、かかる移動量に基づいてロボット302の動作量を補正することが望ましい。
また、本実施形態では、高輝度領域が全く重複しない位置まで動かして第2の画像を撮影する場合について述べたが、ワークの位置情報を取得する上で必要ない部分であれば重複していても構わない。
ここで、高輝度領域Qに含まれる情報がワークPの位置情報を取得する上で必要か不要かを判別するには、例えば、後述する三次元情報取得ステップにおいて、三次元情報の点群の数が所定の数値を超えるかどうかを判定すれば良い。
カメラ20は、判別部30が高輝度領域Qを検知したことを条件として、データ生成領域W’が画像Rのデータ生成領域Wと同一で、高輝度領域Q’の位置が画像R(画像R1a、R1b)の高輝度領域Qとは異なる第2の画像R(画像R2a、R2b)を撮影する(ステップS104)。
このときステップS104は、第1の画像Rとデータ生成領域Wが同一で、高輝度領域Qの位置が異なる第2の画像Rを撮影する第2撮影ステップである。
視差計算部21は、第1の画像R(画像R1a、R1b)におけるモザイクパターンのテクスチャ情報と、第2の画像R(画像R2a、R2b)におけるモザイクパターンのテクスチャ情報と、を用いて三次元情報を取得する(ステップS105)。
かかるステップS105は、第1の画像R(画像R1a、R1b)と第2の画像R(画像R2a、R2b)とを用いて三次元情報を取得する第4のステップたる三次元情報取得ステップである。
カメラ20はステレオカメラであるから、当然、第1の画像R(画像R1a、R1b)と第2の画像R(画像R2a、R2b)とは、それぞれが一対の第1カメラ20aと第2カメラ20bとを用いて撮影された画像から生成されている
すなわち、視差計算部21は、第1の画像Rと第2の画像Rとを含む合計すると4枚の画像から、ワークPまでの距離情報を含んだ三次元情報を取得する。
ここではステレオカメラを用いた三次元情報取得方法についてのみ述べたが、カメラ20は、単眼カメラを用い、単眼カメラと照明部を用いた他の三次元情報取得技術、例えば位相シフト法を利用しても良い。
また、第1の画像Rと第2の画像Rとを用いる場合について述べたが、ステップS103とステップS104とを繰り返し、さらに多くの高輝度領域Qが重複しない画像を用いて三次元情報を取得しても良い。かかる構成により、得られる三次元情報の精度が向上する。
また、視差計算部21は、画像R(画像R1a、R1b)と画像R(画像R2a、R2b)とを用いて、重複させた左右の画像から視差を算出することで、三次元情報を取得するとしても良い。
また、第1カメラ20aと、第2カメラ20bとで画像R1aと画像R1bとを撮影し、ステップS102の判別を行った後に、本実施形態で説明した処理に代えて次のような処理を行っても良い。
すなわち、画像R1aまたは画像R1bに高輝度領域Qがある場合にはミラー18を移動させて、移動後に第1カメラ20aによって撮影された画像R2aと、移動後に第2カメラ20bによって撮影された画像R2bとをそれぞれ撮影する。
移動前に撮影された画像R1aと画像R1bと、移動後に撮影された画像R2aと画像R2bとを用いて、高輝度領域Qの部分が互いに補完されるように合成された左右それぞれの輝度画像を作成する。
当該輝度画像は、高輝度領域Qの部分の輝度情報の欠落が無い左右の画像であるから、かかる画像を用いて視差計算部21は三次元情報を取得しうる。
このような処理によっても精度の良い三次元情報を得られる。
なお、判別ステップにおいて、高輝度領域Qが無いと判断された場合には、情報の欠落がないため、ステップS105へと移行する。
コンピュータ303は、ステップS105において形成された三次元画像の情報に基づいて、ワークPを認識し、ロボット302を動作させてワークPを取り出す(ステップS106)。
かかる工程は、認識部3031が三次元情報生成装置100の情報に基づいてワークPを認識するための認識ステップである。ピッキング装置300は、かかる方法により、ワークPを物体として認識する。
ピッキング装置300は、ロボット302がワークPを取り出すと、新しいワークPについてステップS101〜ステップS106までの工程を、全てのワークPを処理するまで繰り返し行う。
本実施形態では、ミラー駆動部40は、照明部10からの光Lの出射位置を変更することで高輝度領域Qの位置関係を変更する。
かかる構成により、情報欠落の生じた画像を用いたときにも三次元情報が正しく取得されるとともに、ロボット302とワークPとの相対位置を変化させずに済むので、制御が単純化される。
本実施形態では、照明部10は、光Lを拡大投射する投射光学系17と、投射光学系17の物体側に配置されてデータ生成領域Wに向けて光Lを反射するミラー18と、を有している。
かかる構成により、ミラー18の移動によって投射光学系17を透過した光Lの収差や結像位置などの光学的な条件に与える影響を抑制し、ミラー18が移動しても精度良くカメラ20が画像を撮影する。
また、本実施形態では、ミラー駆動部40は、ミラー18の位置を+A方向に変化させてワークPと高輝度領域Qとの位置関係を変更する。
かかる構成により、ミラー18が光軸方向に沿って移動するから、ミラー18の大きさを最小化しつつミラー18の移動による光学的な条件に与える影響を抑制し、ミラー18が移動しても精度良くカメラ20が画像を撮影する。
本実施形態では、照明部10により光LをワークPへ投射する第1のステップS100と、照明部10からの光Lの反射光L’をカメラ20により検知する第2のステップS101と、を有している。
また、ワークPと照明部10からの投射領域との位置関係をミラー駆動部40により変更させる第3のステップS103と、ミラー駆動部40による前記位置関係の変更前においてカメラ20により撮影される第1の画像Rと、ミラー駆動部40による前記位置関係の変更後においてカメラ20により撮影される第2の画像Rと、を用いて三次元情報を取得する第4のステップS105と、を有している。
かかる構成により、三次元情報が精度良く取得される。
本実施形態では、反射光L’の輝度が所定値以上の高輝度領域Qを判別する判別ステップS102を有している。
また、判別ステップS102において、高輝度領域Qを検知したことを条件として、ステップS103においてミラー駆動部40がワークPと照明部10からの投射領域との位置関係を変更させる。
かかる構成により、三次元情報の取得が難しい場合であっても、自動で投射領域との位置関係が変更されて三次元情報が精度良く取得される。
本発明の第2の実施形態として、図8に示すピッキング装置400について説明する。なお、第1の実施形態と同様の構成については、同一の符号を付して説明を省略する。
ピッキング装置400は、ワークPが載置されてXY方向について移動可能な支持台401と、支持台401を駆動するための支持台駆動部50と、を有している。
支持台駆動部50は、アクチュエータであり、第1の実施形態において述べたような判別部30の判断に基づいて、支持台401をワークPを載置した状態でXY方向に移動させる。ここで支持台401が移動すると、当然、照明部10から投射される光Lと、ワークPとの位置関係が変化するから、カメラ20が支持台401の位置を変化させる前後で撮影を行うと、高輝度領域Qの位置が変化する。こうすることにより、ワークPと照明部10からの光の投射領域との位置関係が異なる画像が撮影される。
すなわち、支持台駆動部50は、本実施形態において位置変化部としての機能を有している。
図9(a)、(b)に、支持台401をX方向に平行に所定距離x’だけ移動させる場合について説明する。なお、図9(a)、(b)において支持台401の移動前において撮影される画像R(画像R1a、R1b)を、支持台401に投影する一点鎖線で模式的に示す。
同様に、図9(b)に、支持台401の移動後に撮影された画像R(画像R2a、R2b)を、支持台401に投影する二点鎖線で模式的に示す。
かかる移動前後においては、照明部10からの光Lの入射角と、反射光L’の出射角とは、カメラ20と照明部10との位置関係が変化しないため、高輝度領域Qの絶対位置は変化しない。
したがって、図9(b)から明らかなように、ワークPの位置などを基準として、あるいは画像R(画像R2a、R2b)における撮影範囲を、画像R(画像R1a、R1b)に比べて支持台401の移動距離x’分だけX方向に縮めるように設定することにより、重複部分が取得される。
かかる重複部分においては、高輝度領域Qの位置が異なるために、2つの画像を用いて互いの三次元情報の補完が可能である。
かかる重複部分にワークPが含まれるように、かつ移動前における高輝度領域Qと移動後における高輝度領域Q’の位置が重複しないように移動距離x’を定めれば、より精度の高い三次元情報を取得することができる。
つまり位置変更の前後で撮影された画像R(画像R1a、R1b)と画像R(画像R2a、R2b)とを用いて情報欠落の無い三次元情報が取得される。
なお、画像を合成する場合の詳しいフローチャートについては、位置変化ステップが移動させる対象が異なるのみで、図7において既に説明しているため、省略する。
また、第1の実施形態におけるミラー駆動部40と、第2の実施形態における支持台駆動部50と、を併せて用いても良い。
以上述べたように、第1、第2の実施形態では、反射光L’を用いて第1の画像Rを撮影するカメラ20を有している。
第1、第2の実施形態にかかる三次元情報取得システムは、位置変化部による位置関係の変更前においてカメラ20により撮影される第1の画像Rと、位置変化部による位置関係の変更後においてカメラ20により撮影される第2の画像Rと、を用いて三次元情報を取得する。
かかる構成により、三次元情報が精度良く取得される。
第1、第2の実施形態では、データ生成領域Wに光Lを投射する照明部10を有している。
かかる構成により、三次元情報が精度良く取得される。
以上本発明の好ましい実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、上述の説明で特に限定していない限り、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形・変更が可能である。
例えば、上記実施形態において、取得された輝度情報において飽和した箇所が多い場合や、ロボットによる掴み損ないが生じたとき、あるいはワークが認識できなかったときなど、投射領域を変更して再度設定の上で撮影しても良い。
また、位置変化部は、特定の1方向にのみ移動させる場合について説明したが、かかる移動方向は限定されるものではなく、また、2方向に独立して動かしても良い。
また、判別部を用いず、使用者が判断することでマニュアル操作によって位置変化部による位置変更を行っても良い。
本発明の実施の形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施の形態に記載されたものに限定されるものではない。
10 照明部
20 検知部(カメラ)
21 視差計算部
23 画像処理部
40 位置変化部(ミラー駆動部)
50 位置変化部(支持台駆動部)
100 三次元情報取得装置
300 ピッキングシステム(物体認識システム)(ピッキング装置)
400 ピッキングシステム(物体認識システム)(ピッキング装置)
401 支持台
A 光軸方向
L 光
L’ 反射光
P 測定対象(ワーク)
Q、Q’ 高輝度領域
1a、R1b 第1の画像
2a、R2b 第2の画像
W、W’ データ生成領域
Z 鉛直方向
S100 第1のステップ(投射ステップ)
S101 第2のステップ(第1撮影ステップ)
S102 判別ステップ
S103 第3のステップ(位置変化ステップ)
S104 第2撮影ステップ
S105 第4のステップ(三次元情報取得ステップ)
S106 認識ステップ
特開2013−130426号公報

Claims (14)

  1. 光を対象物へ投射する照明部と、
    前記照明部からの光の反射光を検知する検知部と、
    前記対象物と前記照明部からの投射領域との位置関係を変更させる位置変化部と、
    前記位置変化部による前記位置関係の変更前において前記検知部により撮影される第1の画像と、前記位置変化部による前記位置関係の変更後において前記検知部により撮影される第2の画像と、を用いて三次元情報を算出する三次元情報取得システム。
  2. 請求項1に記載の三次元情報取得システムであって、
    前記照明部は光源と前記光源からの光を反射するミラーと、を有し、
    前記位置変化部により前記ミラーの位置を変えることを特徴とする三次元情報取得システム。
  3. 請求項2に記載の三次元情報取得システムであって、
    前記光源の光を前記ミラーに導く投射光学系を備え、
    前記位置変化部は、前記ミラーを前記投射光学系の光軸に沿った方向へ移動させることを特徴とする三次元情報取得システム。
  4. 請求項1乃至3の何れか1つに記載の三次元情報取得システムであって、
    前記対象物が載置される支持台を有し、
    前記位置変化部は、前記支持台を駆動させることを特徴とする三次元情報取得システム。
  5. 請求項1乃至4の何れか1つに記載の三次元情報取得システムであって、
    前記検知部に入射する前記光の輝度を判別する判別部を備え、
    前記判別部により所定の輝度の範囲を超えたことを条件として、前記位置変化部により前記対象物と前記照明部からの投射領域との位置関係を変更させることを特徴とする三次元情報取得システム。
  6. 請求項1乃至5の何れか1つに記載の三次元情報取得システムであって、
    前記位置変化部による前記位置関係の変更により、前記第1の画像と前記第2の画像との間で高輝度領域の位置を変えることを特徴とする三次元情報取得システム。
  7. 照明部により光を対象物へ投射する第1のステップと、
    前記照明部からの光の反射光を検知部により検知する第2のステップと、
    前記対象物と前記照明部からの投射領域との位置関係を位置変化部により変更させる第3のステップと、
    前記位置変化部による前記位置関係の変更前において前記検知部により撮影される第1の画像と、前記位置変化部による前記位置関係の変更後において前記検知部により撮影される第2の画像と、を用いて三次元情報を算出する第4のステップと、
    を有する三次元情報取得方法。
  8. 請求項7に記載の三次元情報取得方法であって、
    前記照明部は光源と前記光源からの光を反射するミラーを有し、
    前記第3のステップにおいて前記位置変化部は前記ミラーの位置を変えることを特徴とする三次元情報取得方法。
  9. 請求項7または8に記載の三次元情報取得方法であって、
    前記第3のステップにおいて前記位置変化部は、前記対象物が載置される支持台を駆動させることを特徴とする三次元情報取得方法。
  10. 請求項7乃至9の何れか1つに記載の三次元情報取得方法であって、
    前記検知部に入射する前記光の輝度を判別する判別ステップを有し、
    前記判別ステップにおいて、前記光の輝度が所定の輝度の範囲を超えた高輝度領域を検知したことを条件として、前記第3のステップにおいて前記位置変化部が前記対象物と前記照明部からの投射領域との位置関係を変更させることを特徴とする三次元情報取得方法。
  11. 請求項10に記載の三次元情報取得方法であって、
    前記第3のステップは、前記検知部、前記測定対象、前記照明部の少なくとも何れか1つを動かすことで、前記投射領域の位置を変化させることを特徴とする三次元情報取得方法。
  12. 光を対象物へ投射する照明部と、
    前記照明部からの光の反射光を検知する検知部と、を有し、
    前記照明部は光源と前記光源からの光を反射するミラーとを有し、
    前記ミラーの位置を移動させる位置変化部と、
    前記位置変化部による前記位置関係の変更前において前記検知部により撮影される第1の画像と、前記位置変化部による前記位置関係の変更後において前記検知部により撮影される第2の画像と、を用いて三次元情報を取得する三次元情報取得システム。
  13. 光を対象物へ投射する照明部と、
    前記照明部からの光の反射光を検知する検知部と、
    前記対象物が載置される支持台と、を有し、
    前記支持台の位置を移動させる位置変化部と、
    前記位置変化部による前記位置関係の変更前において前記検知部により撮影される第1の画像と、前記位置変化部による前記位置関係の変更後において前記検知部により撮影される第2の画像と、を用いて三次元情報を取得する三次元情報取得システム。
  14. 請求項1乃至13の何れか1つに記載の三次元情報取得システムと、対象物を移動させるロボットと、を備え、
    前記三次元情報取得システムによって得られた三次元情報に基づき前記ロボットを稼働させるピッキングシステム。
JP2016018627A 2016-02-03 2016-02-03 三次元情報取得システム、三次元情報取得方法及びピッキングシステム Pending JP2017138176A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016018627A JP2017138176A (ja) 2016-02-03 2016-02-03 三次元情報取得システム、三次元情報取得方法及びピッキングシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016018627A JP2017138176A (ja) 2016-02-03 2016-02-03 三次元情報取得システム、三次元情報取得方法及びピッキングシステム

Publications (1)

Publication Number Publication Date
JP2017138176A true JP2017138176A (ja) 2017-08-10

Family

ID=59565788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016018627A Pending JP2017138176A (ja) 2016-02-03 2016-02-03 三次元情報取得システム、三次元情報取得方法及びピッキングシステム

Country Status (1)

Country Link
JP (1) JP2017138176A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019100852A (ja) * 2017-12-01 2019-06-24 オムロン株式会社 画像処理システム、及び画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019100852A (ja) * 2017-12-01 2019-06-24 オムロン株式会社 画像処理システム、及び画像処理方法
US11118901B2 (en) 2017-12-01 2021-09-14 Omron Corporation Image processing system and image processing method

Similar Documents

Publication Publication Date Title
KR100753885B1 (ko) 촬상 장치
US20060164526A1 (en) Image processing device and image capturing device
US7715020B2 (en) Three-dimensional shape measuring system
JP2019156641A (ja) フォークリフト用の画像処理装置、および制御プログラム
US20070229850A1 (en) System and method for three-dimensional image capture
JP2013101045A (ja) 物品の3次元位置姿勢の認識装置及び認識方法
JP2005324297A (ja) ロボット
CN104658462B (zh) 投影机以及投影机的控制方法
KR102102291B1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
JP7093915B2 (ja) 表面形状測定方法
JP2016075658A (ja) 情報処理システムおよび情報処理方法
TW202021340A (zh) 用於相機之紅外光預閃光
JP2017528714A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの制御
CN108141561A (zh) 投影型显示装置和图像校正方法
JP2014106094A (ja) 形状測定装置
JP5874252B2 (ja) 対象物との相対位置計測方法と装置
JP2010181247A (ja) 形状測定装置及び形状測定方法
JP3818028B2 (ja) 3次元画像撮像装置および3次元画像撮像方法
JP2017138176A (ja) 三次元情報取得システム、三次元情報取得方法及びピッキングシステム
JP5540664B2 (ja) 光軸調整システム、光軸調整装置、光軸調整方法、及びプログラム
JP4024124B2 (ja) 位置特定装置、その方法およびそのプログラム
JP2008292570A (ja) 投射型映像表示装置
WO2022050279A1 (ja) 三次元計測装置
WO2014073590A1 (ja) 3次元計測装置および3次元計測方法
JP2017037017A (ja) 距離測定装置及び距離測定方法