JP6287231B2 - 測距装置及びロボットピッキングシステム - Google Patents
測距装置及びロボットピッキングシステム Download PDFInfo
- Publication number
- JP6287231B2 JP6287231B2 JP2014004121A JP2014004121A JP6287231B2 JP 6287231 B2 JP6287231 B2 JP 6287231B2 JP 2014004121 A JP2014004121 A JP 2014004121A JP 2014004121 A JP2014004121 A JP 2014004121A JP 6287231 B2 JP6287231 B2 JP 6287231B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- light
- distance measurement
- measuring device
- calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Description
この「ステレオ測距」では、2つのカメラで撮影した2つの画像間に生じる視差Δを利用して、三角測量の原理により奥行きを算出するが、ステレオ測距において視差Δを求めるためには、ウィンドマッピングを行って各画像において互いに対応する点(対応点)を探し出す必要がある。
特に視差Δが発生する方向における2つのカメラの並進ズレ(水平ズレとも言う)が発生すると、そのズレがそのまま視差Δの誤差となってしまい、正確な距離を算出できなくなる。
距離測定可能なステレオカメラをFA(ファクトリーオートメーション)におけるロボットピッキング等に応用する場合には、特に正確な測距が求められ並進ズレの影響も顕著である。
ロボットアームが確実にワークを掴むためにはステレオカメラが常に正しく距離測定をできていなければならないが、振動や温度変化などでカメラの位置が数μmずれてしまうことがある(並進ズレ)。
その結果、ステレオカメラによる正確な距離を算出できなくなり、ロボットアームがワークを掴み損ねる事態が発生し得る。
より具体的には、特許文献1では、予め設定した上記の発光点とステレオカメラとの距離と、ステレオカメラで測距した発光点までの距離を比較することにより、ステレオカメラにおけるカメラ同士の位置ずれ等を検知し、それを校正する。
この方法によれば、キャリブレーションボードを使って人力にてキャリブレーションを行う必要がなく、生産性の向上を図ることが出来る。
しかしながら、そのレンズ光学系に対する温度変化や振動などの影響を考慮すると、必ずしも空中発光点とステレオカメラとの距離を一定に制御可能であるとは言えない。
そのため、キャリブレーションの基準となる発光点のまでの距離の精度を確保しにくく、信頼性の高い正確な校正を行うことが出来ない。
上記の問題点を鑑みて、本発明は、信頼性の高いキャリブレーションが可能な測距装置を提供することを目的とする。
まず、図1、図2を用いて、本実施形態に係る測距装置の前提となるステレオ測距の原理を説明する。
図1、図2は、「ステレオ測距」で用いられる三角測量の原理を利用した測距方法の原理を説明する図である。
「ステレオ測距」を用いた測距方法においては、1対の2次元センサと1対のレンズとを組み合わせることにより、2つのカメラを構成し、計測対象物のずれ(視差)を検出し、三角測量の原理で距離を計測する。
カメラ102aは、レンズ103a、二次元センサ105bを備え、カメラ102bは、レンズ103a、二次元センサ105bを備えている。
レンズ103aを通して得た計測対象物像104aと、レンズ103bを通して得た計測対象物像104bは、計測対象物101上の同一点が視差Δだけずれて2次元センサ105a、105b(図2)に至る。そして、これらの計測対象物像は、複数の受光素子(画素)で受光されて電気信号に変換される。
ここでレンズ103a、103bの光軸間の距離は基線長と呼ばれ、これをBとし、レンズと被写体との距離をA、レンズの焦点距離をfとしたとき、A≫fであるときには次式(1)が成り立つ。
A=Bf/Δ・・・式(1)
基線長B、およびレンズの焦点距離fは既知であるから、視差Δを検出すれば(式1)を用いて被写体までの距離Aを算出することができる。
なお、上記の方法は、2つの2次元センサに映った計測対象物101について、画素の輝度値の分布特性に基づいて対応点を探し出す方法である。対応点の探索には、差分絶対値和(SAD:Sum Of Absolute Difference)相関法や位置限定相関法(POC:Phase-Only Correlation)などを適用出来る。
図3は、本実施形態に係る測距装置の構成を示す図である。
図3に示すように、本実施形態に係る測距装置1は、ステレオ画像を撮影するためのステレオカメラ10と、ステレオカメラ10によって取得したステレオ画像を用いて測距を行うための制御を行う測距制御部Ctrを備えている。
ステレオカメラ10は、第1カメラ(基準カメラ)11及び第2カメラ(参照カメラ)12と、これらのステレオカメラのキャリブレーションを行うための基準となるパターン35を投光面20に投射するレーザ装置13と、を備えている。なお、図3の例では、ステレオカメラ10において、レーザ装置13は、第1カメラ11、第2カメラ12の間に配置されている。
第1カメラ11は、被写体(測距対象物)からの光を取り込む第1レンズ11aと、第1レンズ11aからの入射光に基づく画像を取得する撮像素子(撮像手段)11bとを備えている。
第1レンズ11a、第2レンズ12aの焦点距離やF値などの光学仕様は互いに同じである。
また、第1カメラ11の撮像素子11b、第2カメラ12の撮像素子12bのセンササイズや画素ピッチなどセンサ仕様も互いに同じである。
さらに、第1カメラ11、第2カメラ12の第1レンズ11a、第2レンズ12aは、互いに光軸が平行となるように配置されている。
また、レーザ装置13は、後述するようなレーザ光束を出射するレーザ光源13bとレーザ用レンズ13aとを備えている。
図4に示すレーザ光源13bは、VCSEL(Vertical Cavity Surface Emitting LASER:垂直共振器面発光レーザ)と呼ばれる複数の発光点(発光部)30を備え、これらの発光点から複数のレーザ光(レーザ光束L1)を出射可能なレーザ光源である。
レーザ光源13が備える複数の発光点30から出射されたレーザ光束L1は、その光軸上に配置されるレーザ用レンズ13aに取り込まれ、図3に示すように出射方向前方の任意の投光面20に結像されて発光パターンを形成する。
発光点30が複数存在するため、投光面20には複数の結像点(スポット)35を有する発光パターン(スポット群)が形成されることになる。
レーザ光源13bにおける発光点30の位置は、半導体プロセスによって精度良く位置決めされているため、投光面20に投影される複数のスポット35は高い位置精度を保っている。
ステレオカメラ10のキャリブレーションを行うにあたってスポット35は必ずしも複数である必要はなく、一つであっても構わない。
また、スポット35を形成するために用いる光源は、レーザ光源に限定されず、LED等を用いても良いが、より正確なパターンを形成するためには、レーザ光源を用いることが望ましい。
図5、図6は、本実施形態の測距装置を適用したロボットピッキングシステムにおいて、測距装置の動作及びキャリブレーションの態様を説明する図である。
図5に示すように、ロボット80によりピッキングするワークWが積載された箱90を直上位置から撮影可能な位置にステレオカメラ10を設置する。
ステレオカメラ10によって測距可能な範囲は、第1カメラ、第2カメラの画角が重なる領域であり、この領域内に収まるように箱90を配置する。
生成された距離画像は、測距制御部Ctrと接続されたロボット80に入力される。
そのワークWをロボット80でピッキングした後、再度ステレオカメラ10で箱90内のワークWを撮影し、同様に最もピッキングしやすいワークを検知し、そのワークWをロボット80でピッキングする。
距離画像をもとにロボット80がピッキングを行う方法は、従来周知(例えば特開2002−90113公報)であるので、詳細な説明を割愛する。
この工程を繰り返して箱90の中のワークWを1つずつロボット80によりピッキングし、全てをピッキングし終わったら、空になった箱90は図示しないコンベアや人力により移動する。
なお、最もピッキングしやすいワークの検出は、測距装置1からロボット80に入力された距離画像を用いて、ロボット80側で行っても良い。すなわち、測距装置1からの出力を用いてロボットが動作する。これにより、作業を止めることなく、ロボットピッキングを行うことが出来、作業効率を向上することが出来る。
図5に示すピッキングの工程において、測距装置1では組み付け誤差や、温度などの環境変化、振動によって生じるカメラ間の並進誤差によらず正確な測距を行えるよ、う、視差演算によって算出した距離を、校正データを用いて校正する。
この校正データを作成したり、経時の環境変化や振動に伴う並進誤差の変動に対応するために校正データを修正することが、本実施形態における「キャリブレーション」である。
キャリブレーション工程において、測距装置1は、図6に示すようにレーザ装置13からレーザ光束L1を出射し、例えば床面などの任意の距離(1m程度)離れた投光面20に対して複数のスポット35を形成する。
測距装置1(のレンズ)からスポット35(投光面20)までの距離A2は、レンズにずれが生じない限りは常に一定である。本実施形態の測距装置1は、このスポット35までの距離A2を用いて、下記に詳述するステレオカメラ10のキャリブレーションを行う。すなわち、これら複数のスポットを基準点としてステレオカメラのキャリブレーション(校正)を行う。
キャリブレーションが終了すると、再びワークWが運ばれてきて、図5に示すようにロボット80によるピッキングが行われる。
図7を用いて、本実施形態の測距装置による測距動作及びキャリブレーションの方法を説明する。
測距制御部Ctrは、制御部50と、画像入力部51と、距離画像生成部52と、校正データ保持部53と、校正ずれ判定部54と、校正データ生成部55と、対象物検知部56と、画像出力部57と、を備えている。
制御部50は、本実施形態に係る測距装置の機能を実現するための制御プログラムを実行するCPU(Central Processing Unit)と、制御プログラムを格納するROM(Read Only Memory)と、制御プログラムやその他の一時データが展開されるRAM(Random Access Memory)を備える。
画像入力部51は、2つのカメラ(第1カメラ11、第2カメラ12)と測距制御部Ctrとのインターフェイスであり、これらのカメラで撮影・取得された2つの画像を測距制御部Ctrに取り込む。
また、校正データ保持部53には、距離画像生成部52が算出した距離を校正するための校正データが保持されている。
距離画像生成部52は、第1カメラ11、第2カメラ12の組み付け誤差や温度などの環境変化、あるいは振動に関わらず正確な測距を行うために、ステレオ画像を用いた視差演算によって算出した距離を、この校正データを用いて校正する。
すなわち校正データは、上記の式(1)A=Bf/Δにおいて、組み付け誤差や環境変化による第1カメラ11、第2カメラ12のズレによる基線長B/視差Δ(図1を参照)の変化を吸収して正確な距離Aを算出するための係数である。
第1カメラ11と第2カメラ12の互いのズレにより基線長Bが既知の値とは異なる基線長B’、さらに異なる視差Δ’となっている場合でも、距離A’に対して(B/Δ)/(B’/Δ’)を掛け合わせることにより正確な距離Aを得ることが出来る。
校正データとしての(B/Δ)/(B’/Δ’)は、ステレオカメラ10から予め決められた(既知の)基準距離aにある基準対象物をステレオカメラ10によって測距し、測距結果Aと基準距離aとを比較することによって(比率を求めることで)得ることが出来る。
なお、温度などの室内環境は、常に刻々と変化するものであるため、必要に応じて校正データを修正する。
ロボットピッキング等を行う現場ではステレオカメラ10を構成するする2つのカメラ11、12は、例えば天井における予め決められた位置に固定されており、スポット35を投光する投光面20までの距離(基準距離a)も予め決まっている。
基準距離aは、校正データ保持部53に保持されており、本実施形態の場合、図6に示す距離A2と同じである。
校正ずれ判定部54は距離画像生成部52が求めた距離と校正データ保持部53に保持される基準距離aとを比較する。
比較の結果、その差違|a−A|が所定未満であれば、校正ずれ判定部54は、正確な測距が出来ており現在の校正データを使用可能(校正ずれ無し)と判定し、所定以上の差異であれば、校正データの修正/作成要と判定する。
校正ずれ有りと判定した場合、校正ずれ判定部54は、基準距離aと測距結果Aの比較結果を校正データ生成部55に出力する。
校正データ生成部55は、校正ずれ判定部54による判定結果に基づいてステレオカメラ10の校正データを修正し、修正したデータを校正データ保持部53に修正したデータを送る。
対象物検知部56は、生成された距離画像を用いて最もピッキングし易い(高さ方向で最も近い)ワークを検知し、ロボット80に対して指示を行う。
画像出力部57は、測距制御部Ctrとロボット80との通信インターフェイスであり、生成した距離画像や最もピッキングのし易いワークについての情報をロボット80に対して出力する。
さらに、測距制御部Ctrは、ステレオカメラを接続したパーソナルコンピュータとして実現しても良く、この場合、上記処理部は、パーソナルコンピュータのCPUによるソフトウェア処理によって実現される。
なお、上記の校正データの修正、作成処理は、あくまで一例であり、実現可能なその他の方法であっても構わない。
まず、電源投入に伴い制御部50がステレオカメラ10を始動させる(ステップS101)。
ステレオカメラが始動すると、制御部50はステレオカメラの校正モードを開始する(ステップS102)。
制御部50は、校正モードとしてレーザ装置13を作動させ(ステップS103)、図3、図6で説明したスポット35を形成する(ステップS104)。
次に、制御部50は、距離画像生成部52を制御して、第1カメラ11、第2カメラ12によって取得したスポット画像を用いてスポット35が形成される投光面20までの予め決められた(既知の)距離を測定させる(ステップS105)。この時、上記したように、距離画像生成部52は、校正データ保持部53に保持される校正データを用いて測距結果に対して校正を行っている。
次に、制御部50は、校正ずれ判定部54を制御し、ステップS105で測定した距離(測距結果)Aと校正データ保持部53に保持される基準距離aとを比較する(ステップS106)。
そして、制御部50は、全てのスポットについて測距結果Aと基準距離aとの比較が終わったか否かを判断する(ステップS109)。
比較が終わっていれば(ステップS109でYes)、校正モードを終了する(ステップS109)。
比較が終わっていなければ、次のスポットについて、ステップS105〜ステップS108の処理を繰り返す。
ステップS107において測距結果Aと基準距離aとの間に所定値以上のズレがない場合(ステップS107でNo)、制御部50は、全てのスポットについて測距結果Aと基準距離aとの比較が終わったか否かを判断する(ステップS109)。
比較が終わっていれば(ステップS109でYes)、校正モードを終了する(ステップS110)。
比較が終わっていなければ、次のスポットについて、ステップS105〜ステップS108の処理を繰り返す。
すべてのワークWのピッキングが終了すると、ワークWを入れていた箱90は空となって移動する。空の箱が移動したら次のワークが同様にして運ばれてくる。
次のワークWが運ばれて来るまでのワークWが存在しない時間に上記に示したキャリブレーションを行う。ただし、必ずしもワークWが存在しない時に毎回校正を行う必要はなく、定期的にキャリブレーションを行えばよい。
ワークがあると検知した場合(ステップS111でYes)、制御部50は、ロボットアームによってワークが全てピックされて、対象物検知部56によってワークが検知されなくなる(ステップS111でNo)のを待機する。
対象物検知部56によってワークが検知されなくなると、制御部50は、ステップS102に戻り、校正モードを再び開始する。
ステップS102からステップS110までのループは、測距装置1の電源OFFまで繰り返されるものとする。
図4で説明したようにレーザ装置13は、その内部に複数の発光点30を有するレーザ光源13bが搭載されている。
例えば図9(a)に示すように、レーザ光源13bが備える全ての発光点30が発光した場合は、投光面20には、全ての発光点30に対応するスポット35が結像する。
一方、図9(b)に示すように、レーザ光源13bの一部の発光点30が発光した場合には、投光面20には一部の発光点30に対応するスポット35のみが結像する。
すなわち、レーザ光源13bにおいて、発光する発光点30の数や位置を変えることで、投光面20におけるスポットの数や位置を変えることが出来る。
従って、ステレオカメラ10の第1レンズ11a、第2レンズ12aの画角が大きい場合には、より広い領域でスポット35が結像面に結像するように発光する発光点30の数を増やす。
その一方で、第1レンズ11a、第2レンズ12aの画角が小さい場合には、より狭い領域で結像するように発光させる発光点30の数を減らすことが出来る。
生産規模が大きく箱90が大きい場合には、画角の広いレンズを使い、生産規模が小さく箱が小さい場合には画角の狭いレンズを使うことになり、それに応じてスポットの形成領域を大小させることとなる。
そのような場合でも、レーザ装置13の部品交換の必要は無く、制御部50による制御によってレーザ光源13bの発光点30の数を変えるだけで対応することが出来る。
このように、画角の異なるレンズに応じてレーザ光が形成するスポットの位置も異なるようにすることでレンズ仕様に合わせた最適な発光パターンを提供できる。
発光点30を順次発光させ、スポット35を一つずつ用いて複数回のキャリブレーションを繰り返すように制御してもよい。
また、図4を用いて上記に説明したように、レーザ光源13bにおける発光点30の位置は、半導体プロセスによって精度良く位置決めされているため、投光面20に投影される複数のスポット35は高い位置精度を保っている。
VCSELを用いた本実施形態のレーザ光源13bは、上述した特許文献1とは異なり複数のスポット35を生成するための可動部を必要としないため、振動や経時変化に対しても安定で、繰り返し再現性も高い。
よって、スポットの形成位置のばらつきが小さくなり、本実施形態によっては、より正確且つ信頼性の高いキャリブレーションを行うことが出来る。
その結果、頻繁に校正を行う必要が無くなり、生産性の向上を実現することが出来る。
また従来は、図11に示すようなキャリブレーションボード200に設けられたパターン201をステレオカメラにて撮影し、得られた距離と、現実のキャリブレーションボードとステレオカメラの距離に基づいてキャリブレーションを行っていた。
しかし、このキャリブレーション方法は人手が必要であるため、キャリブレーションの度に生産ラインの停止が必要であるなど生産性の面において大きな問題点を抱えていた。
それに対し、本実施形態の測距装置においては、レーザ光源13bによって、距離が既知の投光面にスポットを形成し、それを利用してキャリブレーションを行うため、自動的な処理が可能であり、生産性を大幅に向上することが可能である。
図10は、本実施形態に係る測距装置の変形構成例を示す図である。
なお、図10では、測距制御部Ctrについては表示を省略している。
図10に示す変形例は、図3に示す構成よりも広い領域を用いてステレオカメラのキャリブレーションを行うことが出来る構成である。
図3、図4に示す構成と同様に、レーザ光源13bは複数の発光点30を有するVCSELである。
VCSELの発光点30は、例えば、「光通信用面発光レーザ(VCSEL)の高性能化に関する研究 平成15年度 大儀義孝」においては8×8の発光点30が250μm間隔で配置されている。
この場合、レーザ光源13bの幅方向両端側の発光点30は1750μm離れることになる。
画角の大きいレンズで広い領域を測距するステレオカメラの場合、スポット35が形成される領域が狭く、レンズの画角内でスポット35が存在しない部分が出てくることがある。これでは、ステレオカメラの正しいキャリブレーションができなくなることがある。
そこで、図10に示すステレオカメラ10Aでは、より広い領域にスポット35を形成できるように、レーザ用レンズ13aから出射するレーザ光束L1の光路上にビームスプリッタ(光学手段)60を配置している。
そして、レーザ光束L1を、このビームスプリッタ60によってレーザ光束L1の光路と同方向に直進するレーザ光束L10と、レーザ光束L1の光路と直交する方向(90度)に光路(進路)を変更されるレーザ光束L11とに分割する。
また、光路を変更されたレーザ光束L11は、その光路上に配置されたミラー61によって光路をさらに90度(直交方向)変更されて、第4レンズ63から出射して投光面20Bにスポット35を形成する。なお、レーザ光束L10とレーザ光束L11の光路は、互いに平行である。
このように、ビームスプリッタ60によってレーザ光源13bからのレーザ光束L1を分割し、発光パターンを2つ照射出来るようにしたことで、図3の場合に比べてより広い領域を使ってステレオカメラのキャリブレーションを行うことが出来る。
これにより画角の広いレンズで大きい面積を測距するステレオカメラであっても、正確にキャリブレーションを行うことが可能となる。
また、キャリブレーションの基準点となる複数のスポット35は、反射部材を回動させて、光を走査させて形成するのではなく、予め発光点の位置が高精度に位置決めされているVCSELと呼ばれるマルチビーム光源を用いる。従って、振動や経時によるズレが生じることなく、高いキャリブレーション精度を確保することが出来る。
なお、本実施形態では、ステレオカメラとして、レンズ及び撮像素子よりなるカメラユニットを複数備えるカメラを例示したが、それに限定されるものではない。
また、レンズ及び撮像素子の組み合わせのうち、少なくともレンズについては2つに限らず、3つ又はそれ以上のレンズを備えるようにしても良い。
また、本実施形態の測距装置は,ロボットピッキングに限らず、精密な測距が求められるその他の用途に使用可能であることは言うまでも無い。
第1の発明おいて、複数のレンズ11a、12aを介して複数の画像情報を取得する撮像手段11b、12bと、複数の画像情報に基づいて測距対象に対する測距を行う測距制御手段Ctrと、少なくとも一つの発光部30を有し、任意の投光面20に少なくとも一つのスポット光35を形成可能な光源と、を備え、測距制御手段Ctrは、投光面20に形成したスポット35までの距離に基づいて、測距対象に対する測距結果を校正する。
レーザ光源13bによって投光面に正確なスポットを形成し、それを基準として測距結果の構成(キャリブレーション)を行うため、自動的且つ正確な処理が可能であり、生産性を大幅に向上することが可能である。
第2の発明においては、測距制御手段Ctrは、各レンズ間の位置ずれによる測距結果の変動を校正する。
本発明によれば、環境変化や振動などレンズ間の位置ずれに応じて信頼性の高いキャリブレーションを行い、精度の高い測距を可能とすることが出来る。
測距制御手段Ctrは、予め決められた投光面20までの距離と、投光面20に形成したスポット光35に対する実際の測距距離と、を比較し、この比較結果に基づいて、測距対象に対する測距結果を校正する。
予め距離が決められた投光面に形成したスポット光までの距離を測定した結果と予め距離が決められた投光面までの距離を比較することで、正確にレンズ間の位置ずれを検知するとともに、キャリブレーションも正確に行うことが出来る。
本発明においては、光源13bは複数の発光部30を備え、複数の発光部30のうちの発光する発光部30をレンズの画角に応じて切り換え可能である。
これによれば、画角の異なるレンズに応じてレーザ光が形成するスポットの位置も異なるようにすることでレンズ仕様に合わせた最適なパターンを生成出来る。
光源13bから出射された光を複数系統に分割し、一以上のスポット光を含むパターンを投光面に複数形成する光学手段(ビームスプリッタ)60を備えた。
これにより、ビームスプリッタ60によってレーザ光源13bからのレーザ光束L1を分割し、発光パターンを2つ照射出来るようにしたことで、図3の場合に比べてより広い領域を使ってステレオカメラのキャリブレーションを行うことが出来る。
これにより画角の広いレンズで大きい面積を測距するステレオカメラであっても、信頼性の高いキャリブレーションを行うことが可能となる。
測距装置に接続されたピッキングロボットが、測距装置によって測定されたピッキング対象までの距離を用いてピッキング動作を行う。
本発明によれば、スポット光を用いた信頼性の高いキャリブレーションを行うことによりピッキング対象までの距離を正確に測定できるため、正確にピッキングを行い、生産性を著しく向上させることが出来る。
Claims (5)
- 複数のレンズを介して複数の画像情報を取得する撮像手段と、
前記複数の画像情報に基づいて測距対象に対する測距を行う測距制御手段と、
複数の発光部を有し、任意の投光面に少なくとも一つのスポット光を形成可能な光源と、を備え、
前記光源は、前記複数の発光部のうちの発光する発光部を前記レンズの画角に応じて切り換え可能であり、
前記測距制御手段は、前記光源により前記投光面に形成された前記スポット光までの距離に基づいて、前記測距対象に対する測距結果を校正することを特徴とする測距装置。 - 複数のレンズを介して複数の画像情報を取得する撮像手段と、
前記複数の画像情報に基づいて測距対象に対する測距を行う測距制御手段と、
少なくとも一つの発光部を有する光源と、
前記光源から出射された光を複数系統に分割し、一以上のスポット光を含むパターンを任意の投光面に複数形成可能な光学手段と、
を備え、
前記測距制御手段は、前記光学手段により前記投光面に形成された前記パターンに含まれる前記スポット光までの距離に基づいて、前記測距対象に対する測距結果を校正することを特徴とする測距装置。 - 請求項1又は2に記載の測距装置において、
前記測距制御手段は、前記各レンズ間の位置ずれによる前記測距結果の変動を校正することを特徴とする測距装置。 - 請求項1乃至3の何れか一項に記載の測距装置において、
前記測距制御手段は、予め決められた前記投光面までの距離と、前記投光面に形成された前記スポット光に対する実際の測距距離と、を比較し、該比較結果に基づいて、前記測距対象に対する測距結果を校正することを特徴とする測距装置。 - 請求項1乃至4の何れか一項に記載の測距装置と、該測距装置に接続されたピッキングロボットと、を備え、
前記ピッキングロボットは、前記測距装置によって測定されたピッキング対象までの距離を用いてピッキング動作を行うことを特徴とするロボットピッキングシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014004121A JP6287231B2 (ja) | 2014-01-14 | 2014-01-14 | 測距装置及びロボットピッキングシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014004121A JP6287231B2 (ja) | 2014-01-14 | 2014-01-14 | 測距装置及びロボットピッキングシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015132540A JP2015132540A (ja) | 2015-07-23 |
JP6287231B2 true JP6287231B2 (ja) | 2018-03-07 |
Family
ID=53899847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014004121A Active JP6287231B2 (ja) | 2014-01-14 | 2014-01-14 | 測距装置及びロボットピッキングシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6287231B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6967715B2 (ja) * | 2017-04-18 | 2021-11-17 | パナソニックIpマネジメント株式会社 | カメラ校正方法、カメラ校正プログラム及びカメラ校正装置 |
WO2018193579A1 (ja) * | 2017-04-20 | 2018-10-25 | 矢崎総業株式会社 | 画像認識装置 |
JP2018204950A (ja) * | 2017-05-30 | 2018-12-27 | 株式会社東海理化電機製作所 | 画像認識装置 |
CN107218904B (zh) * | 2017-07-14 | 2020-03-17 | 北京航空航天大学 | 一种基于锯齿靶标的线结构光视觉传感器标定方法 |
CN107255443B (zh) * | 2017-07-14 | 2020-09-01 | 北京航空航天大学 | 一种复杂环境下双目视觉传感器现场标定方法及装置 |
JP7056540B2 (ja) * | 2018-12-18 | 2022-04-19 | 株式会社デンソー | センサ校正方法およびセンサ校正装置 |
JP2022011740A (ja) * | 2020-06-30 | 2022-01-17 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN113155756B (zh) * | 2021-03-31 | 2022-10-04 | 中国科学院长春光学精密机械与物理研究所 | 光斑在线标定方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09273931A (ja) * | 1996-04-03 | 1997-10-21 | Sokkia Co Ltd | 測量方法 |
US6271918B2 (en) * | 1999-02-04 | 2001-08-07 | National Research Council Of Canada | Virtual multiple aperture 3-D range sensor |
CN1605827A (zh) * | 2004-11-11 | 2005-04-13 | 天津大学 | 双目立体结构多功能视觉传感器 |
JP5145585B2 (ja) * | 2007-06-08 | 2013-02-20 | 国立大学法人 熊本大学 | 物標検出装置 |
JPWO2009119229A1 (ja) * | 2008-03-26 | 2011-07-21 | コニカミノルタホールディングス株式会社 | 3次元撮像装置及び3次元撮像装置の校正方法 |
-
2014
- 2014-01-14 JP JP2014004121A patent/JP6287231B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015132540A (ja) | 2015-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6287231B2 (ja) | 測距装置及びロボットピッキングシステム | |
CN107957237B (zh) | 具有闪光对准的激光投影仪 | |
US9689971B2 (en) | Laser ranging calibration method and apparatus using the same | |
KR100753885B1 (ko) | 촬상 장치 | |
US20170161889A1 (en) | Laser projection system and method | |
EP2435783B1 (en) | Hybrid sensor | |
US10737387B2 (en) | Robot arm calibration device and method thereof | |
US20120062706A1 (en) | Non-contact sensing system having mems-based light source | |
JP3594706B2 (ja) | 光源位置調整装置 | |
KR102469816B1 (ko) | 3차원 재구성 시스템 및 3차원 재구성 방법 | |
JP2017019072A (ja) | 位置計測システム | |
US20150085108A1 (en) | Lasergrammetry system and methods | |
JP2019049484A (ja) | 物体検出システム及び物体検出プログラム | |
US20170309035A1 (en) | Measurement apparatus, measurement method, and article manufacturing method and system | |
US20210156881A1 (en) | Dynamic machine vision sensor (dmvs) that performs integrated 3d tracking | |
CN116105600B (zh) | 基于双目相机的瞄准目标的方法、处理装置及激光跟踪仪 | |
JP6714393B2 (ja) | 計測装置、システム、計測方法、および物品の製造方法 | |
CN116342710B (zh) | 用于激光跟踪仪的双目相机的标定方法 | |
JP2018116032A (ja) | 被計測物の形状を計測する計測装置 | |
JP2018189459A (ja) | 計測装置、計測方法、システム、および物品製造方法 | |
US20220155065A1 (en) | Measurement apparatus, control apparatus, and control method | |
WO2022068818A1 (en) | Apparatus and method for calibrating three-dimensional scanner and refining point cloud data | |
US20170328706A1 (en) | Measuring apparatus, robot apparatus, robot system, measuring method, control method, and article manufacturing method | |
JP2003090711A (ja) | 3次元画像撮像装置および方法 | |
JP4651550B2 (ja) | 三次元座標計測装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171107 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180122 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6287231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |