JP5630208B2 - 形状計測装置、ロボットシステムおよび形状計測方法 - Google Patents

形状計測装置、ロボットシステムおよび形状計測方法 Download PDF

Info

Publication number
JP5630208B2
JP5630208B2 JP2010238308A JP2010238308A JP5630208B2 JP 5630208 B2 JP5630208 B2 JP 5630208B2 JP 2010238308 A JP2010238308 A JP 2010238308A JP 2010238308 A JP2010238308 A JP 2010238308A JP 5630208 B2 JP5630208 B2 JP 5630208B2
Authority
JP
Japan
Prior art keywords
workpiece
scanning
distance
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010238308A
Other languages
English (en)
Other versions
JP2012093104A (ja
Inventor
半田 博幸
博幸 半田
健 有江
健 有江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2010238308A priority Critical patent/JP5630208B2/ja
Priority to EP11180428A priority patent/EP2444210A1/en
Priority to US13/238,482 priority patent/US20120098961A1/en
Priority to CN201110320596.XA priority patent/CN102528810B/zh
Publication of JP2012093104A publication Critical patent/JP2012093104A/ja
Application granted granted Critical
Publication of JP5630208B2 publication Critical patent/JP5630208B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object

Description

この発明は、形状計測装置、ロボットシステムおよび形状計測方法に関し、特に、レーザ光を照射するレーザ照射部を備える形状計測装置、ロボットシステムおよび形状計測方法に関する。
従来、レーザ光を照射するレーザ照射部を備える形状計測装置(3次元姿勢認識手法)が知られている(たとえば、特許文献1参照)。
上記特許文献1の形状計測装置(3次元姿勢認識手法)には、ラインレーザ(レーザ光)を照射するレーザ装置(レーザ照射部)と、レーザ装置から照射され、部品群(計測対象物)により反射された反射光を受光するCCDカメラとが設けられている。この3次元姿勢認識手法では、レーザ装置が部品群上を所定の開始位置から終了位置まで移動しながらラインレーザを照射するように構成されており、CCDカメラにより受光された部品群からの反射光に基づいて、部品群の最高点が算出される。そして、部品群のうちの最高点に対応する部品が、ロボットハンドによって取り出される。また、最高点に対応する部品が取り出された後、再びレーザ装置が部品群上を所定の開始位置から終了位置まで移動しながらラインレーザを照射することにより、残った部品群のうちから部品群の最高点が算出され、最高点に対応する部品が、ロボットハンドによって取り出される。
特開2001−277167号公報
しかしながら、上記特許文献1に記載の形状計測装置(3次元姿勢認識手法)では、部品群のうちからロボットハンドによって部品が取り出される毎に、レーザ装置が部品群(計測対象物)上を所定の開始位置から終了位置まで移動しながらラインレーザを照射するように構成されているため、ラインレーザによる部品群の走査を繰り返し行う場合には、部品群の走査に要する合計の時間が比較的長くなるという問題点がある。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、計測対象物の走査に要する合計の時間を短くすることが可能な形状計測装置、ロボットシステムおよび形状計測方法を提供することである。
課題を解決するための手段および発明の効果
上記目的を達成するために、この発明の第1の局面による形状計測装置は、レーザ光を照射するレーザ照射部と、レーザ照射部から照射されたレーザ光をワークの載置されている領域に走査する走査部と、走査部から照射され、ワークにより反射されたレーザ光の反射光を検出することにより、ワークの載置されている領域を検出するとともに、ワークの3次元計測を行うカメラと、カメラによって検出されたワークの載置されている領域に応じて、かつ、ワークを載置する面の近傍に設けられるとともにワークを載置する面から所定の高さを有しワークの載置されている領域を間違って認識するのを抑制する不感帯領域を考慮して、走査部による走査範囲を変更するように制御する制御部とを備える。
この第1の局面による形状計測装置では、上記のように、カメラによって検出された計測対象物の載置されている領域に応じて走査部による走査範囲を変更するように制御する制御部を備えることによって、たとえば計測対象物が広い範囲に複数載置されている初期状態では、走査範囲を大きくする一方、計測対象物が徐々に取り除かれて、計測対象物が小さい範囲に載置されている場合に、計測対象物が載置されている範囲に応じて走査範囲を小さくすることができる。これにより、走査部による走査範囲が小さくなる分、計測対象物の走査に要する合計の時間を短くすることができる。
この発明の第2の局面によるロボットシステムは、ワークを把持する把持部を有するロボットと、レーザ光を照射するレーザ照射部と、レーザ照射部から照射されたレーザ光をワークの載置されている領域に走査する走査部と、走査部から照射され、ワークにより反射されたレーザ光の反射光を検出することにより、ワークの載置されている領域を検出するとともに、ワークの3次元計測を行うカメラと、カメラによって検出されたワークの載置されている領域に応じて、かつ、ワークを載置する面の近傍に設けられるとともにワークを載置する面から所定の高さを有しワークの載置されている領域を間違って認識するのを抑制する不感帯領域を考慮して、走査部による走査範囲を変更するように制御する制御部とを含む形状計測装置とを備える。
この第2の局面によるロボットシステムでは、上記のように、カメラによって検出された計測対象物の載置されている領域に応じて走査部による走査範囲を変更するように制御する制御部を備えることによって、たとえば計測対象物が広い範囲に複数載置されている初期状態では、走査範囲を大きくする一方、計測対象物が徐々に取り除かれて、計測対象物が小さい範囲に載置されている場合に、計測対象物が載置されている範囲に応じて走査範囲を小さくすることができる。これにより、走査部による走査範囲が小さくなる分、計測対象物の走査に要する合計の時間を短くすることができるので、ロボットが計測対象物を把持して移動させる動作に要する合計の時間を短くすることができる。
この発明の第3の局面による形状計測方法は、レーザ光をワークの載置されている領域に走査するステップと、ワークにより反射されたレーザ光の反射光を検出することにより、ワークの載置されている領域を検出するとともに、ワークの3次元計測を行うステップと、検出されたワークの載置されている領域に応じて、かつ、ワークを載置する面の近傍に設けられるとともにワークを載置する面から所定の高さを有しワークの載置されている領域を間違って認識するのを抑制する不感帯領域を考慮して、レーザ光の走査範囲を変更するステップとを備える。




この第3の局面による形状計測方法では、上記のように、検出された計測対象物の載置されている領域に応じてレーザ光の走査範囲を変更するステップを備えることによって、たとえば計測対象物が広い範囲に複数載置されている初期状態では、走査範囲を大きくする一方、計測対象物が徐々に取り除かれて、計測対象物が小さい範囲に載置されている場合に、計測対象物が載置されている範囲に応じて走査範囲を小さくすることができる。これにより、走査部による走査範囲が小さくなる分、計測対象物の走査に要する合計の時間を短くすることができる形状計測方法を提供することができる。
本発明の第1実施形態によるロボットシステムの全体構成を示す図である。 本発明の第1実施形態によるロボットシステムのセンサユニットを示す図である。 図2に示すロボットシステムのセンサユニットの側面図である。 図2に示すロボットシステムのセンサユニットの上面図である。 本発明の第1実施形態によるロボットシステムのワークを走査する状態を示す図である。 本発明の第1実施形態によるロボットシステムのブロック図である。 本発明の第1実施形態によるロボットシステムの3次元計測の動作を示すフローチャートである。 本発明の第1実施形態によるロボットシステムの3次元計測の開始時の動作を示す図である。 図8に示すロボットシステムの3次元計測において走査を開始してから最初にワークを検出した状態を示す図である。 図9に示す検出されたワークに基づいて走査の走査開始角度が修正された状態を示す図である。 本発明の第1実施形態によるロボットシステムの3次元計測において走査を開始してから最後にワークを検出した状態を示す図である。 図11に示す検出されたワークに基づいて走査の走査終了角度が修正された状態を示す図である。 本発明の第1実施形態によるロボットシステムの3次元計測においてワークがなくなった状態を示す図である。 本発明の第2実施形態によるロボットシステムのワークを走査する状態を示す側面図である。 本発明の第2実施形態によるロボットシステムのワークを走査する状態を示す斜視図である。 本発明の第2実施形態によるロボットシステムのパレットを3次元計測する状態を示す側面図である。 本発明の第2実施形態によるロボットシステムのパレットを3次元計測する状態を示す斜視図である。 本発明の第2実施形態によるロボットシステムのパレットを3次元計測した結果の画像を示す図である。 本発明の第2実施形態によるロボットシステムのパレットおよびワークを3次元計測した結果の画像を示す図である。 図19に示すパレットおよびワークを3次元計測した結果から図18に示すパレットを3次元計測した結果を差分した状態の画像を示す図である。
以下、本発明の実施形態を図面に基づいて説明する。
(第1実施形態)
まず、図1を参照して、本発明の第1実施形態によるロボットシステム100の全体構成について説明する。
図1に示すように、ロボットシステム100には、ロボット1と、ストッカ2と、ロボットコントローラ3と、センサユニット(距離画像センサユニット)4と、ユーザコントローラ5と、搬送用パレット6とが設けられている。なお、センサユニット4は、本発明の「形状計測装置」の一例である。
ストッカ2は、樹脂などにより形成された箱(パレット)からなり、ストッカ2の内部には、たとえばボルトなどの複数のワーク200が載置されている。ロボット1は、垂直多関節型のロボットであり、ロボット1の先端には、ストッカ2内に載置されたワーク200を1つずつ把持するためのハンド装置7が設けられている。なお、ハンド装置7は、本発明の「把持部」の一例である。また、ハンド装置7に把持されたワーク200は、次の工程にワーク200を搬送するための搬送用パレット6に移動されるように構成されている。ロボット1の各関節部には、図示しないサーボモータが内蔵されており、サーボモータは、予めロボットコントローラ3により教示されている動作命令に従って制御されるように構成されている。
次に、図2〜図5を参照して、本発明の第1実施形態によるロボットシステム100のセンサユニット4の構成について説明する。
図2に示すように、センサユニット4には、高速カメラ11と、レーザスキャナ12とが設けられている。なお、高速カメラ11は、本発明の「カメラ」の一例である。また、図3に示すように、センサユニット4の内部には、センサコントローラ13が設けられている。なお、センサコントローラ13は、本発明の「制御部」の一例である。また、高速カメラ11には、CMOSセンサなどからなる撮像素子14が設けられている。なお、CMOSセンサからなる撮像素子14では、CMOSセンサに含まれる全ての画素から画素データを抽出して、画像を形成するように構成されている。また、高速カメラ11には、所定の範囲の波長だけを通過させるバンドパスフィルタ11aが設けられている。
図3および図4に示すように、レーザスキャナ12は、レーザスリット光を発生するレーザ発生器15と、レーザスリット光を反射するミラー部16と、ミラー部16を回転駆動させるモータ17と、ミラー部16の回転角度を検出する角度検出器18と、ミラー部16を固定する治具19とを備えている。なお、レーザ発生器15は、本発明の「レーザ照射部」の一例である。また、ミラー部16は、本発明の「走査部」の一例である。
図5に示すように、レーザ発生器15から発生されたレーザスリット光は、ミラー部16によって反射されて、ワーク200に照射されるように構成されている。なお、レーザ発生器15から発生されたレーザスリット光は、ミラー部16の回転中心に照射されるように構成されている。また、ミラー部16が回転駆動することにより、ワーク200が載置される領域全体が、レーザスリット光により走査されるように構成されている。また、ミラー部16によって照射され、ワーク200によって反射されたレーザスリット光の反射光は、高速カメラ11によって撮影されるように構成されている。
また、モータ17(ミラー部16)の回転角度と、受光した光の撮像素子14の位置と、レーザ発生器15、ミラー部16および高速カメラ11の幾何学的関係とに基づいて、三角測量の原理を用いることによって、高速カメラ11とワーク200(ワーク200が載置される面20)との間の距離を3次元計測するように構成されている。
次に、図6を参照して、本発明の第1実施形態によるロボットシステム100のセンサコントローラ13の構成について説明する。
図6に示すように、センサコントローラ13には、レーザスキャナ12のモータ17を制御するモータ制御部31が設けられている。また、センサコントローラ13には、ロボットコントローラ3とユーザコントローラ5とに接続される通信部32が設けられている。
また、通信部32には、第1距離設定部33が接続されるとともに、第1距離設定部33には、第1距離記憶部34が接続されている。第1距離設定部33は、高速カメラ11とワーク200が載置される面20との間の距離L1(図5参照)を設定する機能を有する。また、第1距離記憶部34は、第1距離設定部33により設定される距離L1を記憶する機能を有する。また、通信部32には、第2距離設定部35が接続されるとともに、第2距離設定部35には、第2距離記憶部36が接続されている。第2距離設定部35は、ワーク200が載置される面20近傍の不感帯領域の高さd(距離d)(図5参照)を設定する機能を有する。また、第2距離記憶部36は、第2距離設定部35により設定されるワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を記憶する機能を有する。なお、ワーク200が載置される面20近傍の不感帯領域の高さd(距離d)は、たとえばワーク200のZ方向の高さh(図5参照)の1/2に設定される。
また、第1距離記憶部34には、走査角度設定部37が接続されている。走査角度設定部37は、ミラー部16が、レーザスリット光の走査を開始する走査開始角度θLS1(図5参照)と走査終了角度θLE1とを設定する機能を有する。なお、レーザスリット光の走査角度は、Z方向に沿った直線を基準(0度)とする。また、ミラー部16の回転角度θと、ミラー部16に反射したレーザスリット光の走査角度θとの関係は、ミラー部16の法線に対するレーザスリット光の入射角と反射角とが等しいので、下記の式(1)によって表わされる。
θ=2×θ ・・・(1)
また、走査開始角度θLS1および走査終了角度θLE1は、高速カメラ11とワーク200を載置する面20との間の距離L1(図5参照)と、高速カメラ11の中心からミラー部16の回転中心までの距離と、高速カメラ11の視野角度θとから幾何学的に求められる。
また、走査角度設定部37には、走査角度修正部38が接続されている。また、走査角度修正部38には、第1角度記憶部39と、第2角度記憶部40とが接続されている。ここで、第1実施形態では、第1角度記憶部39は、ミラー部16が走査を開始して、高速カメラ11からワーク200までの距離(たとえばLa、図9参照)が、最初に、高速カメラ11とワーク200が載置される面20との間の距離L1からワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下になった際(La≦L2)のレーザスリット光の走査角度(たとえばθLP1、図9参照)が記憶されるように構成されている。なお、高速カメラ11からワーク200までの距離Laは、本発明の「第1の距離」の一例である。また、高速カメラ11とワーク200が載置される面20との間の距離L1からワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を差分した距離L2は、本発明の「第2の距離」の一例である。
また、第1実施形態では、第2角度記憶部40は、ミラー部16が走査を終了するまでにおいて、高速カメラ11からワーク200までの距離(たとえばLn、図11参照)が、最後に、高速カメラ11とワーク200が載置される面20との間の距離L1からワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下になった際(Ln≦L2)のレーザスリット光の走査角度(たとえばθLPn、図11参照)が記憶されるように構成されている。また、走査角度修正部38は、第1角度記憶部39および第2角度記憶部40に記憶された角度に基づいて、走査角度設定部37に設定されるレーザスリット光の走査を開始する走査開始角度θLS1および走査終了角度θLE1を修正する機能を有する。すなわち、第1実施形態では、ワーク200が載置される領域に応じて、走査開始角度θLS1および走査終了角度θLE1を変更するように構成されている。
また、センサコントローラ13には、高速カメラ11に接続される画像取得部41と、画像取得部41に接続される認識部42とが設けられている。画像取得部41は、高速カメラ11に設けられる撮像素子14によって撮像された画像を取得する機能を有する。認識部42は、画像取得部41によって取得された高速カメラ11の画像から、複数のワーク200を個別に認識する機能を有する。
次に、図5〜図13を参照して、第1実施形態のロボットシステム100によるワーク200の3次元計測の動作について説明する。なお、第1実施形態では、説明を簡略化するために、ワーク200はストッカ2の内部ではなく、図5に示す面20上に直接載置されている場合の動作について説明する。
図7に示すステップS1において、図5に示すように、ミラー部16から照射され、ワーク200(ワーク200を載置する面20)によって反射された反射光を高速カメラ11が受光することにより、高速カメラ11からワーク200(ワーク200を載置する面20)までの距離が計測される。具体的には、モータ17(ミラー部16)の回転角度と、受光した光の撮像素子14の位置と、レーザ発生器15、ミラー部16および高速カメラ11の幾何学的関係とに基づいて、三角測量の原理を用いることによって、高速カメラ11とワーク200(ワーク200が載置される面20)との間の距離が3次元計測される。その後、ステップS2において、計測された高速カメラ11とワーク200(ワーク200が載置される面20)との間の距離が、センサコントローラ13の第1距離設定部33を介して第1距離記憶部34に記憶される。
次に、ステップS3において、ワーク200が載置される面20近傍の不感帯領域の高さd(距離d)がユーザによりユーザコントローラ5を用いて手動で入力されたか否かが判断される。そして、ステップS3において、不感帯領域の高さd(距離d)が入力されと判断された場合には、ステップS4に進む。なお、ステップS3の判断は、不感帯領域の高さd(距離d)が入力されるまで、繰り返し行われている。そして、ステップS4において、ユーザにより設定された距離dが、第2距離設定部35を介して第2距離記憶部36に記憶される。なお、ワーク200が載置される面20近傍の不感帯領域の高さd(距離d)は、たとえばワーク200のZ方向の高さh(図5参照)の1/2に設定される。
次に、ステップS5において、上記ステップS2において記憶された高速カメラ11とワーク200(ワーク200を載置する面20)との間の距離のうち、高速カメラ11の光軸方向(Z方向)の最大値が算出されて、高速カメラ11とワーク200を載置する面20との間の距離L1として設定される。なお、高速カメラ11とワーク200を載置する面20との間の距離L1は、上記ステップS1およびステップS2を行わずに、ユーザによりユーザコントローラ5を用いて手動で設定されるようにしてもよい。
そして、ステップS6において、距離L1と、高速カメラ11の中心からミラー部16の回転中心までの距離と、高速カメラ11の視野角度θとの幾何学的関係から、レーザスリット光の走査開始角度θLS1と走査終了角度θLE1とが算出されて、センサコントローラ13の走査角度設定部37に設定される。なお、図5に示すように、Z方向に積み上げられたワーク200の全てを走査可能なように、走査開始角度θLS1は、照射されるレーザスリット光が、高速カメラ11が撮像可能な面20上の領域Cを矢印X1方向に超えるように設定される。一方、走査終了角度θLE1は、照射されるレーザスリット光と、高速カメラ11が撮像可能な面20上の領域Cの矢印X2方向の境界とが一致するように設定される。
次に、ステップS7において、ワーク200の3次元計測が開始される。具体的には、図8に示すように、上記ステップS6において設定された走査開始角度θLS1と走査終了角度θLE1とに基づいて、レーザスリット光が照射(ミラー部16が回転駆動)される。すなわち、レーザスリット光は、走査角度θL1の範囲で走査される。これにより、レーザ発生器15から発生され、ミラー部16によって反射されたレーザスリット光がワーク200(ワーク200を載置する面20)に照射された後、ワーク200(ワーク200を載置する面20)により反射される。この反射光が高速カメラ11に入射されることにより、ワーク200(ワーク200を載置する面20)が撮影される。そして、モータ17(ミラー部16)の回転角度と、受光した光の撮像素子14の位置と、レーザ発生器15、ミラー部16および高速カメラ11の幾何学的関係とに基づいて、三角測量の原理を用いることによって、高速カメラ11とワーク200との間の距離Lが3次元計測される。
なお、ミラー部16が回転駆動されることにより、高速カメラ11とワーク200との間の距離Lの3次元計測も連続して行われる。そして、連続して行われる3次元計測の間において、ステップS8において、高速カメラ11からワーク200までの距離Lが、高速カメラ11とワーク200が載置される面20との間の距離L1からワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下(L≦L1−d)になったか否かが判断される。
そして、たとえば図9に示すように、ミラー部16が走査を開始した後、ワーク200aの表面上の点Paにおいて反射された反射光に基づいて、高速カメラ11とワーク200aの点Paとの間の距離Laが計測され、ステップS8において、距離Laが、高速カメラ11とワーク200が載置される面20との間の距離L1からワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下(La≦L1−d)になった場合に、ステップS9に進む。そして、ステップS9において、ワーク200aの表面上の点Paにおいて反射された際のレーザスリット光の走査角度θLP1が、センサコントローラ13の第1角度記憶部39(図6参照)に記憶される。
また、ミラー部16による走査が引き続き行われ、ステップS10において、高速カメラ11からワーク200までの距離Lが、高速カメラ11とワーク200が載置される面20との間の距離L1からワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下か否か(L≦L1−d)が判断される。そして、ステップS10において、高速カメラ11からワーク200までの距離Lが、高速カメラ11とワーク200が載置される面20との間の距離L1から不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下と判断されている間は、ステップS10の動作が繰り返して行われる。
そして、たとえば、後述する図11に示すように、ワーク200nの表面上の点Pnにおいて反射された反射光に基づいて、高速カメラ11とワーク200nの点Pnとの間の距離Lnが計測された後、ステップS10において、高速カメラ11からワーク200nまでの距離Lが、高速カメラ11とワーク200が載置される面20との間の距離L1からワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を差分した距離L2(L1−d)より大きくなった(L>L1−d)と判断された場合には、ステップS11に進む。なお、図9に示すように、ワーク200の載置される位置、姿勢によっては、ステップS10において、高速カメラ11からワーク200までの距離Lが、高速カメラ11とワーク200が載置される面20との間の距離L1からワーク200が載置される面20近傍の不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以上になると判断されることなく、ミラー部16の走査が終了する場合もある。
そして、ステップS12において、レーザスリット光の走査角度が走査終了角度θLE1以上になったか否か(レーザスリット光の走査角度が走査終了角度θLE1に達したか否か)が判断される。ステップS12において、レーザスリット光の走査角度が走査終了角度θLE1に達していないと判断された場合には、ステップS8に戻る。ステップS12において、レーザスリット光の走査角度が走査終了角度θLE1より大きくなったと判断された場合には、ステップS13に進む。
ステップS13では、3次元計測された計測データが、センサコントローラ13の認識部42によって画像認識処理される。そして、予め記憶されているワーク200のテンプレートと、画像認識処理された計測データとを比較することにより、複数のワーク200が個々に認識される。なお、個々のワーク200が認識される際、個々のワーク200の位置および姿勢(傾き、上下など)も同時に認識される。そして、認識された複数のワーク200の中から、最もロボット1のハンド装置7(図1参照)が把持しやすいワーク200(たとえばワーク200a)が、ワーク200の位置および姿勢に基づいて、判断される。そして、最も把持しやすいワーク200aの位置および姿勢が、センサコントローラ13からロボットコントローラ3に伝達される。これにより、ロボット1のハンド装置7により、ワーク200aが把持されるとともに、ワーク200aは、次の工程にワーク200aを搬送するための搬送用パレット6に移動される。
次に、ステップS14に進んで、次回の走査の際の走査開始角度がセンサコントローラ13の走査角度修正部38および走査角度設定部37(図6参照)により修正、設定される。具体的には、上記ステップS9において、第1角度記憶部39に記憶されたレーザスリット光の走査角度θLP1から所定の角度(たとえば2度)を加算した角度(θLP1+2)が、次回の走査の際の走査開始角度θLS2として、センサコントローラ13の走査角度修正部38および走査角度設定部37(図6参照)により修正、設定される。なお、図9に示す状態では、上記ステップS10において、高速カメラ11からワーク200までの距離Lが、高速カメラ11とワーク200が載置される面20との間の距離L1から不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以上になると判断されることなく、ミラー部16の走査が終了しているので、走査終了角度θLE1は、修正されない。
その後、ステップS7に戻って、3次元計測が再び開始される。具体的には、図10に示すように、上記ステップS14において設定された走査開始角度θLS2と走査終了角度θLE1とに基づいて、ミラー部16が回転駆動される。すなわち、レーザスリット光は、走査角度θL2(<θL1)の範囲で走査される。その後、ステップS8〜ステップS14の動作が繰り返し行われる。そして、図10に示す状態では、ステップS8において、高速カメラ11とワーク200bの点Pbとの間の距離Lbが、高速カメラ11とワーク200が載置される面20との間の距離L1から不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下(Lb≦L1−d)になったと判断されて、ワーク200bの表面上の点Pbにおいて反射された際のレーザスリット光の走査角度θLP2が、センサコントローラ13の第1角度記憶部39(図6参照)に記憶される。そして、ステップS14に進んで、レーザスリット光の走査角度θLP2から所定の角度(たとえば2度)を加算した角度(θLP2+2)が、次回の走査の際の走査開始角度θLS3として設定される。
そして、再び、ステップS8〜ステップS14の動作が繰り返し行われることにより、ワーク200の3次元計測と、ロボット1のハンド装置7によるワーク200の搬送用パレット6への移動とが繰り返し行われ、たとえば図11に示すように、ワーク200の数が減少した状態となる。この場合、レーザスリット光は、走査角度θL3(<θL2)の範囲で操作されている。そして、ワーク200nの表面上の点Pnにおいて反射されて、高速カメラ11からワーク200nまでの距離Lnが計測された後、ステップS10において、高速カメラ11とワーク200が載置される面20との間の距離L1から不感帯領域の高さd(距離d)を差分した距離L2(L1−d)より大きくなった(L>L1−d)と判断される。その後、ステップS11において、高速カメラ11からワーク200nまでの距離L(Ln)が、最後に、高速カメラ11とワーク200が載置される面20との間の距離L1から不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下になった(L≦L1−d)際(ワーク200nの表面上の点Pnにおいて反射された際)のレーザスリット光の走査角度θLPnが、センサコントローラ13の第2角度記憶部40(図6参照)に記憶される。そして、ステップS13に進んで、ロボット1のハンド装置7により、ワーク200nが把持されるとともに、ワーク200nは、次の工程にワーク200nを搬送するための搬送用パレット6に移動される。その後、ステップS14に進んで、レーザスリット光の走査角度θLPnから所定の角度(たとえば2度)を差分した角度(θLPn―2)が、次回の走査の際の走査終了角度θLE2として、センサコントローラ13の走査角度修正部38および走査角度設定部37(図6参照)により修正、設定される。
その後、上記設定された走査終了角度θLE2に基づいて、図12に示すように、レーザスリット光は、走査角度θL4(<θL3)の範囲で照射される。そして、ワーク200oが認識される。その後、ロボット1のハンド装置7により、ワーク200oが把持されるとともに、ワーク200oは、次の工程にワーク200oを搬送するための搬送用パレット6に移動される。そして、図13に示すように、全てのワーク200が移動された状態となる。その後、改めて、レーザスリット光が、走査角度θL4(図12参照)の範囲で照射されて、ワーク200が認識されないことが確認された後、最初に設定された走査開始角度θLS1および走査終了角度θLE1に基づいて、レーザスリット光による走査が行われる。これにより、レーザスリット光の走査範囲を徐々に小さくしながら、ワーク200の搬送用パレット6への移動が繰り返し行われている最中に、ロボット1のハンド装置7がワーク200に接触することに起因して、ワーク200がレーザスリット光の走査範囲から外れた位置に移動した場合でも、走査範囲外のワーク200を認識することが可能となる。
第1実施形態では、上記のように、高速カメラ11によって検出されたワーク200の載置されている領域に応じてミラー部16による走査範囲を変更するように制御するセンサコントローラ13を備えることによって、たとえばワーク200が広い範囲に複数載置されている初期状態では、走査範囲を大きくする一方、ワーク200が徐々に取り除かれて、ワーク200が小さい範囲に載置されている場合に、ワーク200が載置されている範囲に応じて走査範囲を小さくすることができる。これにより、ミラー部16によるレーザスリット光の走査範囲が小さくなる分、ワーク200の走査に要する合計の時間を短くすることができる。その結果、ロボット1がワーク200を把持して搬送用パレット6に移動させる動作に要する合計の時間を短くすることができる。
また、第1実施形態では、上記のように、高速カメラ11によって検出されたワーク200の載置されている領域に応じて走査開始角度および走査終了角度のうちの少なくとも一方を変更することによって、ミラー部16による走査範囲を変更する制御を行うようにセンサコントローラ13を構成する。これにより、走査開始角度および走査終了角度のうちの少なくとも一方を小さくすることにより、ミラー部16による走査範囲が小さくなるので、ワーク200の走査に要する合計の時間を短くすることができる。
また、第1実施形態では、上記のように、検出されたワーク200からの反射光に基づいて、高速カメラ11とワーク200との間の距離Lを算出するとともに、高速カメラ11とワーク200との間の距離Lに基づいて、ミラー部16による走査範囲を変更するようにセンサコントローラ13を構成する。これにより、ワーク200が載置されている状態(数)に応じて、容易に、ミラー部16による走査範囲を変更することができる。
また、第1実施形態では、上記のように、高速カメラ11とワーク200との間の距離Lが、高速カメラ11とワーク200を載置する面20との間の距離L1からワーク200を載置する面の近傍の不感帯領域の高さ(距離d)を差分した距離L2以下に最初になった際のレーザスリット光の走査角度に基づいて、走査開始角度を変更するようにセンサコントローラ13を構成する。これにより、不感帯領域の高さd(距離d)未満のたとえばワーク200が載置される面20上に存在するゴミからの反射光を検出することに起因して、ワーク200が載置されている領域を間違って認識するのを抑制することができる。
また、第1実施形態では、上記のように、高速カメラ11とワーク200との間の距離Lが、高速カメラ11とワーク200を載置する面20との間の距離L1からワーク200を載置する面20の近傍の不感帯領域の高さ(距離d)を差分した距離L2以下に最後になった際のミラー部16の回転角度に基づいて、走査終了角度を変更するようにセンサコントローラ13を構成する。これにより、不感帯領域の高さd(距離d)未満のたとえばワーク200が載置される面20上に存在するゴミからの反射光を検出することに起因して、ワーク200が載置されている領域を間違って認識するのを抑制することができる。
また、第1実施形態では、上記のように、不感帯領域の高さd(距離d)を、ワーク200の高さhの1/2になるように構成する。これにより、ワーク200の高さhの1/2未満のゴミなどからの反射光を検出することに起因して、ワーク200が載置されている領域を間違って認識するのを抑制することができる。
(第2実施形態)
次に、図14および図15を参照して、第2実施形態のロボットシステム101について説明する。この第2実施形態では、ワーク200が面20上に直接載置されている第1実施形態と異なり、ワーク200が箱状のパレット102の中に載置されている。
図14および図15に示すように、第2実施形態のロボットシステム101では、複数のワーク200が箱状のパレット102の中に載置されている。なお、第2実施形態のその他の構成は、上記第1実施形態と同様である。
次に、図14〜図20を参照して、第2実施形態によるセンサコントローラ13の3次元計測の動作について説明する。
まず、ワーク200の3次元計測に先立って、図16および図17に示すように、ワーク200がパレット102に載置されていない状態で、パレット102と、パレット102が載置されている面103などの3次元計測が行われる。具体的には、高速カメラ11からパレット102の枠102aまでの距離、高速カメラ11からパレット102の内低面102bまでの距離、パレット102からパレット102が載置されている面103までの距離などが計測される。これにより、図18に示すように、パレット102を矢印Z1方向(図16および図17参照)から見た画像がセンサコントローラ13の認識部42により認識される。
次に、図14および図15に示すように、パレット102にワーク200が載置された状態で、センサユニット4によるパレット102とワーク200との3次元計測が行われる。なお、3次元計測の具体的な動作は、上記第1実施形態と同様である。そして、センサユニット4によるパレット102とワーク200との3次元計測が行われることにより、図19に示すように、パレット102とワーク200とを矢印Z1方向(図14および図15参照)から見た画像がセンサコントローラ13の認識部42により認識される。なお、この状態では、高速カメラ11とワーク200との間の距離とともに、高速カメラ11とパレット102との間の距離も得られるため、上記した第1実施形態のように、高速カメラ11とワーク200との間の距離Lに基づいて、レーザスリット光の走査範囲の修正を行うことができない。
そこで、パレット102とワーク200との3次元計測の結果(距離情報、図19参照)から、予め計測されたパレット102の3次元計測の結果(距離情報、図18参照)を差分する。これにより、図20に示すように、ワーク200の3次元計測の結果(画像)がセンサコントローラ13の認識部42により認識される。その結果、上記第1実施形態と同様に、高速カメラ11とワーク200との間の距離Lに基づいて、レーザスリット光の走査範囲の修正を行うことが可能となる。なお、第2実施形態によるワーク200の3次元計測のその他の動作は、上記第1実施形態と同様である。
第2実施形態では、上記のように、ワーク200は、パレット102の内部に載置されており、高速カメラ11によって検出されたパレット102の内部におけるワーク200の載置されている領域に応じてミラー部16による走査範囲を変更するようにセンサコントローラ13を構成する。これにより、パレット102からの反射光を検出することに起因して、ワーク200が載置されている領域を間違って認識するのを抑制することができる。
また、第2実施形態では、上記のように、パレット102の内部にワーク200が載置されている状態の高速カメラ11による3次元計測の結果から、パレット102の内部にワーク200が載置されていない状態の高速カメラ11による3次元計測の結果を差分することによって、高速カメラ11によって検出されたパレット102の内部におけるワーク200の載置されている領域に応じてミラー部16による走査範囲を変更するようにセンサコントローラ13を構成する。これにより、パレット102からの反射光を検出することに起因して、ワーク200が載置されている領域を間違って認識するのを容易に抑制することができる。
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
たとえば、上記第1および第2実施形態では、高速カメラからワークまでの距離Lが、高速カメラとワークが載置される面との間の距離L1からワークが載置される面近傍の不感帯領域の高さd(距離d)を差分した距離L2(L1−d)以下(L≦L1−d)になった際のレーザスリット光の走査角度に基づいて、走査開始角度および走査終了角度を修正する例を示したが、本発明はこれに限られない。たとえば、高速カメラからワークまでの距離Lが、高速カメラとワークが載置される面との間の距離L1未満(L<L1)になった際のレーザスリット光の走査角度に基づいて、走査開始角度および走査終了角度を修正してもよい。
また、上記第1および第2実施形態では、不感帯領域の高さd(距離d)を、ワークの高さhの1/2に設定する例を示したが、本発明はこれに限られない。本発明では、距離dは、ワークの高さh以下であればよい。
また、上記第1および第2実施形態では、高速カメラとワークとの間の距離Lに基づいて、レーザスリット光の走査開始角度および走査終了角度の両方を修正する例を示したが、本発明はこれに限られない。たとえば、レーザスリット光の走査開始角度または走査終了角度の一方のみを修正するようにしてもよい。
また、上記第1および第2実施形態では、撮像素子のCMOSセンサに含まれる全ての画素から画素データを抽出して、画像が形成される例を示したが、本発明はこれに限られない。たとえば、レーザスリット光の走査範囲が小さくなるのに対応させて、画素データが抽出されるCMOSセンサの画素数を少なくするようにしてもよい。これにより、画素データが抽出される画素数が少なくなる分、画素データの抽出を高速に行うことができる。
1 ロボット
4 センサユニット(形状計測装置)
7 ハンド装置(把持部)
11 高速カメラ(カメラ)
13 センサコントローラ(制御部)
15 レーザ発生器(レーザ照射部)
16 ミラー部(走査部)
100、101 ロボットシステム

Claims (10)

  1. レーザ光を照射するレーザ照射部と、
    前記レーザ照射部から照射された前記レーザ光をワークの載置されている領域に走査する走査部と、
    前記走査部から照射され、前記ワークにより反射された前記レーザ光の反射光を検出することにより、前記ワークの載置されている領域を検出するとともに、前記ワークの3次元計測を行うカメラと、
    前記カメラによって検出された前記ワークの載置されている領域に応じて、かつ、前記ワークを載置する面の近傍に設けられるとともに前記ワークを載置する面から所定の高さを有し、前記ワークの載置されている領域を間違って認識するのを抑制する不感帯領域を考慮して、前記走査部による走査範囲を変更するように制御する制御部とを備える、形状計測装置。
  2. 前記制御部は、前記カメラによって検出された前記ワークの載置されている領域に応じて走査開始角度および走査終了角度のうちの少なくとも一方を変更することによって、前記走査部による走査範囲を変更する制御を行うように構成されている、請求項1に記載の形状計測装置。
  3. 前記制御部は、検出された前記ワークからの反射光に基づいて、前記カメラと前記ワークとの間の第1の距離を算出するとともに、前記カメラと前記ワークとの間の前記第1の距離に基づいて、前記走査部による走査範囲を変更するように構成されている、請求項1または2に記載の形状計測装置。
  4. 前記制御部は、前記カメラと前記ワークとの間の前記第1の距離が、前記カメラと前記ワークを載置する面との間の距離から前記ワークを載置する面の近傍の前記不感帯領域の高さを差分した第2の距離以下に最初になった際のレーザ光の走査角度に基づいて、前記走査開始角度を変更するように構成されている、請求項3に記載の形状計測装置。
  5. 前記制御部は、前記カメラと前記ワークとの間の前記第1の距離が、前記カメラと前記ワークを載置する面との間の距離から前記ワークを載置する面の近傍の前記不感帯領域の高さを差分した第2の距離以下に最後になった際のレーザ光の走査角度に基づいて、前記走査終了角度を変更するように構成されている、請求項3または4に記載の形状計測装置。
  6. 前記第2の距離は、前記カメラと前記ワークを載置する面との間の距離から前記ワークの高さを差分した距離以上で、かつ、前記カメラと前記ワークを載置する面との間の距離未満である、請求項4または5に記載の形状計測装置。
  7. 前記ワークは、箱状の容器の内部に載置されており、
    前記制御部は、前記カメラによって検出された前記箱状の容器の内部における前記ワークの載置されている領域に応じて前記走査部による走査範囲を変更するように構成されている、請求項1〜6のいずれか1項に記載の形状計測装置。
  8. 前記制御部は、前記箱状の容器の内部に前記ワークが載置されている状態の前記カメラによる3次元計測の結果から、前記箱状の容器の内部に前記ワークが載置されていない状態の前記カメラによる3次元計測の結果を差分することによって、前記カメラによって検出された前記箱状の容器の内部における前記ワークの載置されている領域に応じて前記走査部による走査範囲を変更するように構成されている、請求項7に記載の形状計測装置。
  9. ワークを把持する把持部を有するロボットと、
    レーザ光を照射するレーザ照射部と、前記レーザ照射部から照射された前記レーザ光を前記ワークの載置されている領域に走査する走査部と、前記走査部から照射され、前記ワークにより反射された前記レーザ光の反射光を検出することにより、前記ワークの載置されている領域を検出するとともに、前記ワークの3次元計測を行うカメラと、前記カメラによって検出された前記ワークの載置されている領域に応じて、かつ、前記ワークを載置する面の近傍に設けられるとともに前記ワークを載置する面から所定の高さを有し、前記ワークの載置されている領域を間違って認識するのを抑制する不感帯領域を考慮して、前記走査部による走査範囲を変更するように制御する制御部とを含む形状計測装置とを備える、ロボットシステム。
  10. レーザ光をワークの載置されている領域に走査するステップと、
    前記ワークにより反射された前記レーザ光の反射光を検出することにより、前記ワークの載置されている領域を検出するとともに、前記ワークの3次元計測を行うステップと、
    検出された前記ワークの載置されている領域に応じて、かつ、前記ワークを載置する面の近傍に設けられるとともに前記ワークを載置する面から所定の高さを有し、前記ワークの載置されている領域を間違って認識するのを抑制する不感帯領域を考慮して、前記レーザ光の走査範囲を変更するステップとを備える、形状計測方法。
JP2010238308A 2010-10-25 2010-10-25 形状計測装置、ロボットシステムおよび形状計測方法 Expired - Fee Related JP5630208B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010238308A JP5630208B2 (ja) 2010-10-25 2010-10-25 形状計測装置、ロボットシステムおよび形状計測方法
EP11180428A EP2444210A1 (en) 2010-10-25 2011-09-07 Shape measuring system and shape measuring method
US13/238,482 US20120098961A1 (en) 2010-10-25 2011-09-21 Shape measuring apparatus, robot system, and shape measuring method
CN201110320596.XA CN102528810B (zh) 2010-10-25 2011-10-20 形状计测装置、机器人系统及形状计测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010238308A JP5630208B2 (ja) 2010-10-25 2010-10-25 形状計測装置、ロボットシステムおよび形状計測方法

Publications (2)

Publication Number Publication Date
JP2012093104A JP2012093104A (ja) 2012-05-17
JP5630208B2 true JP5630208B2 (ja) 2014-11-26

Family

ID=44674459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010238308A Expired - Fee Related JP5630208B2 (ja) 2010-10-25 2010-10-25 形状計測装置、ロボットシステムおよび形状計測方法

Country Status (4)

Country Link
US (1) US20120098961A1 (ja)
EP (1) EP2444210A1 (ja)
JP (1) JP5630208B2 (ja)
CN (1) CN102528810B (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170028557A1 (en) * 2015-07-28 2017-02-02 Comprehensive Engineering Solutions, Inc. Robotic navigation system and method
EP2722640A4 (en) * 2011-06-20 2014-11-19 Yaskawa Denki Seisakusho Kk DEVICE FOR MEASURING A THREE DIMENSIONAL SHAPE AND ROBOTIC SYSTEM
US9255830B2 (en) * 2012-05-21 2016-02-09 Common Sensing Inc. Dose measurement system and method
JP6092530B2 (ja) 2012-06-18 2017-03-08 キヤノン株式会社 画像処理装置、画像処理方法
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP6270157B2 (ja) 2012-07-30 2018-01-31 国立研究開発法人産業技術総合研究所 画像処理システムおよび画像処理方法
WO2014102856A1 (ja) * 2012-12-25 2014-07-03 平田機工株式会社 搬送システム
JP2014159988A (ja) * 2013-02-19 2014-09-04 Yaskawa Electric Corp 物体検出装置、ロボットシステム、及び物体検出方法
JP2014159989A (ja) * 2013-02-19 2014-09-04 Yaskawa Electric Corp 物体検出装置及びロボットシステム
SG11201506229RA (en) * 2013-02-27 2015-09-29 Hitachi Ltd Image analysis device, image analysis system, and image analysis method
KR101374802B1 (ko) 2013-03-29 2014-03-13 이철희 농업용 로봇시스템
FR3007126B1 (fr) 2013-06-14 2018-04-20 European Aeronautic Defence And Space Company Eads France Dispositif de controle robotise d'une structure par ultrason-laser
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
JP2015230229A (ja) * 2014-06-04 2015-12-21 株式会社リコー 非接触レーザスキャニング分光画像取得装置及び分光画像取得方法
CN105486251B (zh) * 2014-10-02 2019-12-10 株式会社三丰 形状测定装置、形状测定方法及点感测器的定位单元
JP6431333B2 (ja) * 2014-10-15 2018-11-28 キヤノン株式会社 加工装置
US9855661B2 (en) * 2016-03-29 2018-01-02 The Boeing Company Collision prevention in robotic manufacturing environments
MX2017009060A (es) * 2017-06-23 2019-02-08 Magna Exteriors Inc Sistema de inspeccion tridimensional.
JP6622772B2 (ja) * 2017-09-26 2019-12-18 ファナック株式会社 計測システム
JP7172305B2 (ja) * 2018-09-03 2022-11-16 セイコーエプソン株式会社 三次元計測装置およびロボットシステム
JP7308689B2 (ja) * 2019-08-06 2023-07-14 株式会社キーエンス 三次元形状測定装置
JP7434686B2 (ja) * 2019-12-27 2024-02-21 川崎重工業株式会社 シート層の検査装置及び検査方法
US20210291435A1 (en) * 2020-03-19 2021-09-23 Ricoh Company, Ltd. Measuring apparatus, movable apparatus, robot, electronic device, fabricating apparatus, and measuring method
JP2022189080A (ja) * 2021-06-10 2022-12-22 ソニーセミコンダクタソリューションズ株式会社 測距装置、および測距方法
JP7387117B2 (ja) * 2021-08-09 2023-11-28 株式会社Mujin 計算システム、方法及び非一時的コンピュータ可読媒体

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4300836A (en) * 1979-10-22 1981-11-17 Oregon Graduate Center For Study And Research Electro-optical scanning system with self-adaptive scanning capability
JPS60200385A (ja) * 1984-03-26 1985-10-09 Hitachi Ltd 姿勢判定方式
JPH01134573A (ja) * 1987-11-19 1989-05-26 Kawasaki Heavy Ind Ltd 画像処理方法
JPH0821081B2 (ja) * 1987-12-03 1996-03-04 ファナック株式会社 ウィンドウの制御方法
JP2809348B2 (ja) * 1989-10-18 1998-10-08 三菱重工業株式会社 3次元位置計測装置
JPH03202290A (ja) * 1989-12-27 1991-09-04 Toyota Motor Corp ばら積み物体の取出装置
JPH04244391A (ja) * 1991-01-30 1992-09-01 Toyota Motor Corp ロボットを用いた段バラシ装置
JPH05288516A (ja) * 1992-04-07 1993-11-02 Honda Motor Co Ltd 非接触式位置検出装置
JPH06229732A (ja) * 1993-01-29 1994-08-19 Fanuc Ltd スポット光ビーム走査型3次元視覚センサ
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
JP3873401B2 (ja) * 1996-11-19 2007-01-24 コニカミノルタセンシング株式会社 3次元計測システム
JPH11291187A (ja) * 1998-04-14 1999-10-26 Kobe Steel Ltd 積荷位置姿勢認識装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP2001051058A (ja) * 1999-08-11 2001-02-23 Minolta Co Ltd 距離測定装置
JP2001277167A (ja) * 2000-03-31 2001-10-09 Okayama Pref Gov Shin Gijutsu Shinko Zaidan 3次元姿勢認識手法
JP2001319225A (ja) * 2000-05-12 2001-11-16 Minolta Co Ltd 3次元入力装置
US7164810B2 (en) * 2001-11-21 2007-01-16 Metrologic Instruments, Inc. Planar light illumination and linear imaging (PLILIM) device with image-based velocity detection and aspect ratio compensation
EP1402230A1 (en) * 2001-06-29 2004-03-31 Square D Company Overhead dimensioning system and method
JP2004012143A (ja) * 2002-06-03 2004-01-15 Techno Soft Systemnics:Kk 立体計測装置
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP4548595B2 (ja) * 2004-03-15 2010-09-22 オムロン株式会社 センサ装置
JP4911341B2 (ja) * 2006-03-24 2012-04-04 株式会社ダイフク 物品移載装置
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP5360369B2 (ja) * 2008-09-11 2013-12-04 株式会社Ihi ピッキング装置と方法
JP5201411B2 (ja) * 2008-11-21 2013-06-05 株式会社Ihi バラ積みピッキング装置とその制御方法
JP4650565B2 (ja) * 2008-12-15 2011-03-16 パナソニック電工株式会社 人体検知センサ

Also Published As

Publication number Publication date
JP2012093104A (ja) 2012-05-17
US20120098961A1 (en) 2012-04-26
CN102528810A (zh) 2012-07-04
EP2444210A1 (en) 2012-04-25
CN102528810B (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
JP5630208B2 (ja) 形状計測装置、ロボットシステムおよび形状計測方法
JP5201411B2 (ja) バラ積みピッキング装置とその制御方法
US7966094B2 (en) Workpiece picking apparatus
JP4821934B1 (ja) 3次元形状計測装置およびロボットシステム
JP5382621B2 (ja) 移載装置
JP5561260B2 (ja) ロボットシステム及び撮像方法
JP5716826B2 (ja) 3次元形状計測装置およびロボットシステム
JP3930490B2 (ja) 物品取出し装置
EP2581178A1 (en) Workpiece takeout system, robot apparatus, and method for producing a to-be-processed material
WO2016171263A1 (ja) 形状測定装置及び形状測定方法
JP2013078825A (ja) ロボット装置、ロボットシステムおよび被加工物の製造方法
CN1733579A (zh) 搬运机器人系统
CN107803589B (zh) 激光焊接系统
JP2008023630A (ja) アームを誘導可能な移動体およびアームを誘導する方法
JP6801566B2 (ja) 移動ロボット
CN114341930A (zh) 图像处理装置、拍摄装置、机器人以及机器人系统
JP2018176164A (ja) レーザ溶接装置
JP2008260043A (ja) 溶接方法、および段差部の検出装置
JP3082829B2 (ja) 溶接線自動認識法及び装置
JP7162503B2 (ja) 物品情報取得システム
JP6907678B2 (ja) 移動ロボット
WO2023032400A1 (ja) 自動搬送装置、及びシステム
JP2005177777A (ja) パラメータ設定方法及びパラメータ設定装置
JP2021133458A (ja) 3次元計測装置および3次元計測システム
JP2010186946A (ja) トリミング方法およびトリミング装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140922

R150 Certificate of patent or registration of utility model

Ref document number: 5630208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees