JP4492654B2 - 3次元計測方法および3次元計測装置 - Google Patents

3次元計測方法および3次元計測装置 Download PDF

Info

Publication number
JP4492654B2
JP4492654B2 JP2007222356A JP2007222356A JP4492654B2 JP 4492654 B2 JP4492654 B2 JP 4492654B2 JP 2007222356 A JP2007222356 A JP 2007222356A JP 2007222356 A JP2007222356 A JP 2007222356A JP 4492654 B2 JP4492654 B2 JP 4492654B2
Authority
JP
Japan
Prior art keywords
image
measurement
dimensional
coordinates
measurement target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007222356A
Other languages
English (en)
Other versions
JP2009053147A (ja
Inventor
紫朗 藤枝
博司 矢野
泰之 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2007222356A priority Critical patent/JP4492654B2/ja
Priority to DE102008041523.5A priority patent/DE102008041523B4/de
Priority to US12/230,442 priority patent/US8564655B2/en
Publication of JP2009053147A publication Critical patent/JP2009053147A/ja
Application granted granted Critical
Publication of JP4492654B2 publication Critical patent/JP4492654B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0691Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of objects while moving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、光学的3次元計測手段を用いて、所定形状の計測対象物に対する3次元計測を実行する方法、およびこの方法が適用された3次元計測装置に関する。
従来の3次元計測装置には、計測対象物について多数の3次元座標を算出し、算出された各座標に基づく3次元イメージを表示する機能を具備するものがある。たとえば、下記の特許文献1には、顕微鏡鏡筒や撮像装置を具備する顕微鏡拡大観察システムにおいて、複数の合焦点領域を合成することにより撮像対象領域に含まれる各画素の高さ情報を求め、これらの高さ情報が付与された画素群による三次元画像データを、種々の方向から観察した状態を示す画像を表示することが記載されている。
特開2000−39566号公報
特許文献1に記載されている発明は、撮像手段の視野に含まれる部位全体を計測対象とするが、工場の製造ラインや検査ラインでは、計測が必要とされる部位が限られることが多い。また、インライン計測で処理を高速化する必要があるため、計測が必要な部位のみに限定して3次元計測を行いたい、という要望が強い。その一方で、計測結果の出力については、単に数値情報を出力するだけではなく、ユーザの視覚により計測結果を容易に確認できるような表示がほしい、という要望もある。
この発明は、計測対象物における3次元計測の対象部位が限定される場合でも、計測結果を計測対象物の全体像に対応づけてわかりやすく示した画像を表示することにより、上記の要望に応えることを、目的とする。
この発明による3次元計測方法は、あらかじめ1または複数の計測対象部位が定められた計測対象物を、光学的3次元計測手段を用いて観測し、カメラの光軸と交わる所定の平面を基準平面として、各計測対象部位につき、少なくとも基準平面からの距離を表す座標を算出するものである。
上記の方法では、『光学的3次元計測手段』として、複数のカメラを用いたステレオ法による3次元計測装置、光切断法が適用された3次元計測装置などを用いることができる。『カメラの光軸と交わる所定の平面』は、たとえば計測対象物を支持する平面であるが、現実に存在する平面に限らず、計測対象部位より後方または前方に設定された仮想平面を基準平面としてもよい。
たとえば、計測対象部位の支持面を基準平面として、光学的3次元計測手段により計測対象物を上方から観測する場合には、この基準平面からの距離を表す座標は、計測対象部位の高さを表すことになる。
一方、凹部や段差のように周囲より後退した部位を計測する場合には、計測対象部位の周囲の高さに合わせて仮想平面を設定し、これを基準平面としてもよい。
この発明による3次元計測方法では、以下の第1〜第3のステップを実行する。
第1ステップでは、カメラにより計測対象物を撮像して2次元画像を生成し、この2次元画像から計測対象部位を抽出して3次元計測処理を実行する。第2ステップでは、2次元画像中の計測対象部位に対応する画素に基準平面からの距離として3次元計測により算出された座標を設定し、その他の画素に基準平面からの距離として一定の値座標を設定する。そして、この2次元画像の座標系を構成する2軸(以下、x軸およびy軸とする。)と前記基準平面からの距離を表す軸(以下z軸とする。)とによる3次元空間において、前記設定のなされた各画素を、それぞれ設定された距離を表す座標と2次元画像中の当該画素の座標とにより特定される位置に仮想配置して、各画素を所定の方向から透視変換する。さらに第3ステップでは、透視変換により生成された2次元画像を、計測対象部位とその他の部位とを識別できるように加工して表示する。
上記の方法によれば、2次元画像を構成する各画素のうち計測対象部位に対応する画素には、3次元計測により算出されたz座標が設定され、計測対象部位以外の画素には、z座標として一定の値z(たとえばz=0)が設定される。このように各画素にz座標を設定し、これらの画素が、x,y,zの各軸による仮想の3次元空間に配置されたものとして透視変換を実行するので、計測対象部位を、そのz座標の大きさを反映した場所に投影できるとともに、計測対象でない部位についても奥行き感のある画像を生成することができる。
さらに、透視変換により生成された画像を、計測対象部位とその他の部位とを識別できるように加工して表示するので、ユーザは、計測対象部位と周囲との関係を把握しながら、3次元計測結果を視覚により容易に確認することができる。
なお、透視変換処理の対象となる画像は、必ずしも計測対象物の全体像を含む必要はないが、3次元計測の対象とされた部位をすべて含み、かつ計測対象でない部位を十分に広い範囲で含むように設定されるのが望ましい。
上記方法の好ましい一態様では、第2ステップにおいて、計測対象部位を正面視する方向から撮像することにより生成された正面視画像を透視変換の対象画像に設定するとともに、この正面視画像を表示しながら、この正面視の方向を基準として透視変換の方向を設定する操作を受け付け、この操作により設定された方向から3次元空間に仮想配置された画素群を透視変換する。
上記の態様によれば、ユーザ自身が設定した任意の方向からの透視変換画像が生成されるので、計測結果を確認する上での自由度が高められる。また、計測対象物を正面視した状態を基準として設定した方向に基づいて透視変換が行われるので、ユーザが意図したイメージに近い画像を表示することができる。
より好ましい態様による3次元計測方法では、第1ステップにおいて、光学的3次元計測手段として、各視野が所定の範囲で重なり合った複数台のカメラを用いて3次元計測を行う装置を使用し、各カメラにより生成された複数の2次元画像からそれぞれ計測対象部位を抽出して当該計測対象部位に対応する座標を特定した後に、各2次元画像で特定された座標を用いて基準平面に対する相対位置を表す座標を算出する。また、第2ステップでは、3次元計測に使用されたいずれかの2次元画像を対象に、この画像中の各構成画素のうち、計測対象部位に対応するものとして座標が特定された画素に基準平面からの距離を表す座標として算出された座標を設定し、その他の画素に、基準平面からの距離を表す座標として一定の値の座標を設定する。
上記の方法では、複数台のカメラを用いた3次元計測処理を行うとともに、この3次元計測に使用されたいずれかの2次元画像を透視変換の対象として、実際に3次元計測に使用した画素に計測されたz座標を設定して、透視変換処理を行うので、ユーザは、3次元計測の対象とされた部位に誤りがないかどうかや計測値の適否を容易に判別することができる。
さらに、他の好ましい態様では、第1ステップにおいて、計測対象部位として2次元画像中の特徴点またはあらかじめ登録した特徴パターンを含む領域を抽出するとともに、特徴パターンを含む領域を抽出した場合には、その領域内の一代表点を対象に3次元計測処理を実行する。また、特徴点に対しては、第3ステップにおいて、透視変換により生成された画像を、当該画像中の当該特徴点に対応する位置に識別のためのマークを設定したものに加工する。また、特徴パターンを含む領域に対しては、第2ステップにおいて、当該領域に含まれる全ての画素に基準平面からの距離を表す座標として、代表点に対する3次元計測処理により求めた座標を一律に設定して、前記3次元空間への各画素の仮想配置および透視変換を実行することにより、領域全体を前記3次元計測の結果を反映する位置に投影する。このようにすれば、1つの特徴点または領域内の一点に3次元計測の対象を限定するとともに、3次元計測結果をわかりやすく表示することができる。
他の好ましい態様では、第3ステップにおいて、計測対象部位について、基準平面からの距離として計測対象部位以外の各画素に設定された一定の値の座標を設定して透視変換を行った場合に当該計測対象部位が投影される位置を求め、この位置と計測対象部位が実際に投影される位置との間に補助線が設定されるように透視変換により生成された画像を加工する。このようにすれば、補助線の長さによって、計測対象部位に対する計測結果を容易に確認することができる。
つぎに、この発明に係る3次元計測装置は、それぞれの視野が所定の範囲で重なるように位置関係および光軸方向を定めて配置された複数台のカメラと、各カメラの視野が重なる範囲に入った計測対象物を各カメラにより撮像して生成された複数の2次元画像を、個別に入力する画像入力手段と、計測対象物のあらかじめ定めた1または複数の計測対象部位につき、それぞれ各入力画像から当該部位を抽出して3次元計測の対象とする座標を特定し、特定された各座標を用いて各計測対象部位に対する3次元計測処理を実行する計測手段と、計測手段による計測結果を表す2次元の処理結果画像を生成する処理結果画像生成手段と、処理結果画像を表示するための表示手段とを備える。
さらに、この装置では、計測手段は、各カメラの光軸と交わる所定の平面を基準平面として、3次元計測処理により、各計測対象部位につき、少なくとも基準平面からの距離を表す座標を算出する。また処理結果画像生成手段は、複数台のカメラのうちの特定のカメラにより生成された画像を対象に、この画像中の各構成画素のうち、計測対象部位として抽出された箇所の画素に、基準平面からの距離を表す座標として3次元計測により算出された座標を設定し、その他の画素に基準平面からの距離を表す座標として一定の値の座標を設定する。そして特定の画像の座標系を構成する2軸(x軸およびy軸)と基準平面からの距離を表す軸(z軸)とによる3次元空間において、前記設定のなされた各画素を、それぞれ設定された距離を表す座標と特定のカメラによる画像中の当該画素の座標とにより特定される位置に仮想配置して、各画素を所定の方向から透視変換し、この透視変換画像を計測対象部位とその他の部位とを識別できるように加工したものを処理結果画像として生成する。
上記構成の3次元計測装置によれば、複数台のカメラにより生成された画像を用いて各計測対象部位に対する3次元計測を精度良く行うとともに、この計測に使用された特定の画像を用いた透視変換処理により、実際の3次元計測に用いられた画素のz座標の大きさを、その周囲の奥行き感とともに表示することができる。
好ましい態様による3次元計測装置では、特定のカメラは計測対象物を正面視する方向から撮像を行うように配置されるとともに、この正面視の方向を基準にして透視変換の方向を設定する操作を行うための操作部がさらに設けられる。また、処理結果画像生成手段は、特定のカメラにより生成された計測対象物の正面視画像を表示手段に表示し、この状態下で操作部による設定操作を受け付けて、この操作により設定された方向から3次元空間に仮想配置された画素群を透視変換する。この態様によれば、ユーザ自身が設定した任意の方向からの透視変換画像を表示することができ、計測結果を確認する上での自由度が高められる。また、計測対象物を正面視した状態を基準に設定した方向に基づく透視変換により、ユーザが意図したイメージに近い画像を表示することができる。
さらに他の好ましい態様による3次元計測装置では、計測手段は、各入力画像から計測対象部位として、特徴点またはあらかじめ登録した特徴パターンを含む領域を抽出するとともに、特徴パターンを含む領域を抽出した場合には、その領域内の一代表点を対象に3次元計測を実行する。また、処理結果画像生成手段は、特徴点に対しては、透視変換により生成された画像を、当該画像中の当該特徴点に対応する位置に識別のためのマークを付したものに加工し、特徴パターンを含む領域に対しては、当該領域に含まれる全ての画素に基準平面からの距離を表す座標として、代表点に対する3次元計測処理により求めた座標を一律に設定して、3次元空間への各画素の仮想配置および透視変換を実行することにより、領域全体を前記代表点に対する3次元計測の結果を反映する位置に投影する。
さらに他の好ましい態様による3次元計測装置では、処理結果画像生成手段は、計測対象部位について、基準平面からの距離として計測対象部位以外の各画素に設定された一定の値の座標を設定して透視変換を行った場合に当該計測対象部位が投影される位置を求め、この位置と計測対象部位が実際に投影される位置との間に補助線が設定されるように、透視変換により生成された画像を加工して表示する。
上記の3次元計測方法および3次元計測装置によれば、計測対象部位が限定され、計測対象物の全体の立体形状を表す結果がえられない場合でも、3次元計測により得た座標の大きさを確認すると同時に、計測対象部位とその周囲との関係や正しい部位が計測されたかどうかを確認できるような画像を表示することができ、利便性を高めることができる。
図1は、この発明が適用された3次元計測装置の撮像部の構成を、その設置例とともに示す。
この実施例の3次元計測装置は、工場の生産ライン又は検査ラインを搬送される同形状の計測対象物(以下、「ワークW」という。)を撮像部1により順に撮像し、各ワークWのあらかじめ定められた計測対象部位の高さを計測するものである。計測された高さ情報は、ロボットハンド等の駆動系の位置決め制御や、検査における判別処理などに使用される。
撮像部1は、筐体15内に2台のカメラC0,C1を組み込んだ構成のもので、ワーク搬送路Lの上方に設置される。一方のカメラC0は、ワークWの上面を正面から撮像するように、光軸を鉛直方向に向けて設置される。他方のカメラC1は、カメラC0と視野が重なるようにして、斜め上方からワークWを撮像するように設置される。
図2は、3次元計測装置の全体構成を示すブロック図である。図中の10は、コンピュータが組み込まれた制御処理部であって、撮像部1のほか、操作部11、表示部12などが接続される。
制御処理部10内には、各カメラC0,C1に対応する画像入力部100,101、画像メモリ102、設定処理部103、画像処理部104、パラメータ算出部105、パラメータ記憶部106、3次元計測部107、座標変換部108、変換後画像生成部109、出力部110などが設けられる。これらのうち、画像入力部100,101、画像メモリ102およびパラメータ記憶部106を除く各部は、専用のプログラムによりコンピュータに設定された機能である。専用のプログラムは、ハードディスク、フラッシュディスクなどの大容量メモリ装置(図示せず。)に格納される。画像メモリ102やパラメータ記憶部106も、このメモリ装置内に設定される。
画像処理部104は、正面視を行うカメラC0からの画像を、3次元計測の対象部位を抽出する基準画像として、この基準画像に対し、2値化、エッジ抽出、パターンマッチング等の手法により、ワークWのあらかじめ定められた計測対象部位(この実施例では、エッジ構成点などの特徴点またはある特徴パターンを含む領域を計測対象部位とする。)を抽出し、3次元計測のための座標を特定する。また、他方のカメラC1から入力された画像(以下、「比較画像」という。)を対象に、基準画像中の計測対象部位に対応する点または領域を検索し、同様に3次元計測のための座標を特定する。
設定処理部103は、操作部11から、画像処理部104が実行すべき処理の具体的内容(たとえば計測対象部位の抽出方法、抽出処理の対象範囲)や、後記する透視変換処理に使用される角度情報などを設定する操作を受け付け、その設定操作の内容を、画像処理部104や座標変換部108に設定する。
3次元計測部107は、画像処理部104により抽出された基準画像中の代表点の座標と、これに対応する比較画像側の代表点の座標とを用いて3次元座標を算出する。算出結果は出力部110に渡され、表示部12や図示しない外部装置に出力される。
パラメータ記憶部106には、3次元計測処理に用いられる複数のパラメータが保存される。これらのパラメータは、各カメラC0,C1により構成されるステレオ座標系の変化や、実際の空間における位置を表す空間座標系とステレオ座標系との関係(各座標の原点間の距離、空間座標系に対するステレオ座標系の回転ずれ量など)の変化に応じて変動するもので、本処理に先立ち、複数の特徴点を有するキャリブレーションワークを用いたキャリブレーションにより求められる。このキャリブレーションの際の特徴点の抽出処理は、画像処理部104により実行され、パラメータ算出部105により、各パラメータを導出するための演算が実行される。
この実施例では、ワークWのあらかじめ定められた数カ所を計測対象部位として、それぞれの部位の高さを計測し、計測結果を表す数値情報を図示しない外部装置に出力する。同時に、ユーザに、正しい計測対象部位を処理できたかどうかや計測対象部位の高さを認識させる目的で、計測結果を表す画像(以下、「処理結果画像」という。)を作成し、この画像を表示部12に表示するようにしている。この画像は、3次元計測に使用された正面視画像(カメラC0により生成された基準画像)を透視変換した結果をベースに生成される。
座標変換部108は、この透視変換のための演算(後記する(1)(2)式によるもの)を実行する。変換後画像生成部109は、この演算結果に基づき、画像メモリ102内の基準画像を用いて処理対象画像を生成する。生成された画像は、出力部110から表示部12に出力され、表示される。
以下、この実施例における計測対象部位や処理結果画像について、具体例を示しながら、詳細に説明する。
図3は、カメラC0により生成された基準画像の一例を示す。この基準画像は、ワークW(この例ではIC)の一部を撮像して生成されたもので、複数の電極ピン、パッケージに印字された文字列(型番を表す。)、パッケージに形成された段差部分などが表されている。なお、この実施例では、基準画像の左右方向をx軸方向とし、上下方向をy軸方向とする。
図中、+印で示される各点P1〜P4および点線枠で示す領域Rが、計測対象部位である。以下では、これらを「計測対象点」および「計測対象領域」という。
計測対象点P1,P2は、画像中の6本の電極ピンのうちの左端および右端のピンの一構成点である。これらの計測対象点P1,P2は、図示しない照明光により電極ピンの長さ方向に生じたエッジや部品本体からの距離に基づき抽出される。なお、計測対象部位の電極ピンを2本に限定したのは、図示の便宜上のものであり、実際には、いずれの電極ピンでも、少なくとも1点の計測対象点が抽出される。
残りの計測対象点P3,P4は、パッケージの段差部分の境界線の構成点である。これらの点も、エッジ抽出等の処理により抽出される。
計測対象領域Rには、文字列「5B」が含まれる。この計測対象領域Rは、上記の文字列のモデルを用いたパターンマッチングにより抽出されたものである。
3次元計測部107は、上記の計測対象点P1〜P4や計測対象領域Rについて、カメラC0により生成された基準画像とカメラC1により生成された比較画像との間で対応関係にある座標の組毎に、三角測量の原理に基づき、高さを表す座標(z座標)を算出する。なお、計測対象領域Rについては、この領域Rの中心点の座標を各画像から抽出して、z座標を算出するが、算出されたz座標は、計測対象領域R内のすべての画素に適用される。
上記のz座標は、ワークWの支持面(具体的にはワーク搬送ラインの上面である。)またはこの支持面から所定距離離れた仮想の水平面の高さをゼロとおいて算出される。処理結果画像は、基準画像のx軸およびy軸に、高さを表すz軸を組み合わせた3次元座標系を設定し、基準画像の各構成画素を、この3次元座標系に仮想配置して透視変換処理を実行することにより、生成される。
各画素を3次元座標系に配置する処理では、x,y座標については、元の基準画像の座標(ピクセル単位の座標)がそのまま適用される。z座標については、計測対象点や計測対象領域に相当する画素には、高さ計測により算出されたz座標(単位はmm)が設定される。一方、計測対象外の画素はxy平面に位置するものとして、z座標がゼロに設定される。
図4は、処理結果画像の表示例を示す。この処理結果画像は、図3に示した基準画像中の各画素を上記した要領で3次元座標系に仮想配置し、これらの画素群を斜め上方から観測した3次元イメージを表すものである。この画像中の計測対象点P1〜P4に対応する各点P1´〜P4´には、識別のための+印が表示されている。また、これらの点P1´〜P4´には、計測対象点の高さが0であった場合の対応点から、所定の色彩による補助線(図中、点線で表現する。)が立ち上げられている。よって、これらの補助線の長さにより、各計測対象点P1〜P4の高さを確認することができる。
計測対象領域Rに対応する領域R´は、計測された高さに基づき導出された位置に表示されている。さらに、この例では、この計測対象領域Rの高さを0と仮定したときの対応領域R1を特定して、この領域R1を所定の色彩(図4では、網点パターンにより表す。)でマーキングしている。さらにこの領域R1と領域R´との頂点間には、計測対象点P1´〜P4´と同様に、補助線が設定されている。
さらに、この処理結果画像の奥行き側の2辺には、x,y,zの各軸の方向および座標を表すためのグリッド線gが表示されている。ただし、このグリッド線gを表示するか否かは、操作部11により適宜選択することができる。
上記の画像表示によれば、カメラC0による正面視画像全体が、奥行き感のある斜視画像に変換されて表示されるとともに、実際に高さ計測の対象となった部位が、その計測値を反映した位置に、補助線とともに表示される。よってユーザは、計測すべき部位が正しく計測されたかどうかや、計測値の適否を、容易に認識することができる。
さらに、この実施例では、上記の透視変換の方向をユーザに設定させることにより、所望の方向からワークWを観測した状態を示す斜視画像を得られるようにしている。
透視変換の方向は、画素群が配置される3次元座標系に対する方位角θおよび仰角φにより設定される。方位角θは、高さを表すz軸回りの方位であって、たとえばx軸の正方向を基準にした角度により表される。仰角φは、xy平面を基準にした角度として表される。
なお、ユーザの設定操作は、角度θやφの具体的な数値を入力するものに限らない。たとえば、表示部12にx,y,zの各軸を表示して、これらの軸をマウスのドラッグ操作により回転させ、その回転角度からθやφを特定してもよい。
ここで、基準画像中の各画素の3次元空間における配置位置を(x,y,z)として、この配置による画素群を、上記の角度θ,φにより表される方向から透視変換すると、変換後の各画素の座標(x´,y´)は、下記の(1)式により算出される。
Figure 0004492654
係数a,b,c,d,eは、(1)式の下に示したとおりである。
また(1)式中の(x,y)は、基準画像中の3次元座標系の原点に対応する座標である。また(x,y)は、変換後の画像の表示位置をx,yの各軸方向において移動させた場合の移動量を示す。mxyは、変換後画像のx,yの各軸方向における倍率であり、mは、変換後画像のz方向における倍率である。
上記の(1)式によれば、3次元座標系に仮想配置された各画素を、それぞれ変換後画像を表す2次元座標系の特定の1点に変換することができる。
さらに、(1)式を変形することにより、z座標が既知であることを前提にして、変換後の画像中の1つの座標(x´,y´)について、基準画像側の対応画素の座標(x,y)を求める式を導出することができる。具体的な演算式は(2)式のようになる。
Figure 0004492654
図5は、図3に示した基準画像を用いて、図4に示した処理変換画像を生成するための処理の手順を示す。
この処理では、まず、基準画像全体を対象にした透視変換処理を実行する。具体的には、変換後画像の各座標(x´,y´)について、それぞれz=0として(2)式を実行することにより、基準画像側で(x´,y´)に対応する座標(x,y)を算出する(ステップA)。つぎに、変換後画像の各座標に、上記の演算により特定された基準画像側の対応座標の画像データを設定する(ステップB)。これらステップA,Bの処理により、正面視状態を表す基準画像を、斜視状態を表す画像に変換することができる。
つぎに、ステップCでは、計測対象領域Rについて計測されたz座標を、(2)式中のzにあてはめて、ステップAと同様に、変換後画像の画素毎に、その座標(x´,y´)を用いて(2)式を実行する。また、この演算により算出された座標(x,y)が基準画像側の計測対象領域内の座標に一致したとき、演算にあてはめた座標(x´,y´)を計測対象領域Rに対応するものとして特定する。さらに、ステップDでは、ステップCで特定された各座標の画像データを、それぞれ基準画像側の対応画素(ステップCの演算で算出された座標(x,y)の画素)の画像データに変更する。
上記のステップC,Dの処理により、変換後画像における計測対象領域の画像を、計測された高さに応じた位置に移動させることができる。
さらにステップEでは、再びステップAの演算結果を用いて、変換後画像の中から、z=0とした場合に計測対象領域に対応する座標を特定し、特定された各座標の画像データをマーキング用の色彩を表すデータに置き換える。
つぎに、ステップFでは、計測対象点および計測対象領域の各頂点について、基準画像側の座標(x,y)を用いた(1)式を実行して、変換後画像における対応点の座標(x´,y´)を求める。なお、ここでは、各点毎に、計測されたz座標をあてはめた演算と、z=0とした演算の2通りの演算を実行する。
ステップGでは、ステップFの演算結果に基づき、変換後画像に対し、計測されたz座標に基づく対応点を表す+マークや、この対応点とz=0の場合の対応点とを結ぶ補助線の画像データを設定する。
上記の処理では、変換後画像の各画素につき、それぞれ(2)式を用いて変換前の基準画像における対応画素を特定し、その対応画素の画像データをあてはめるようにしたので、倍率mxy,mにより拡大された画像を生成する場合でも、大半の画素に画像データを設定することが可能になり、画像の精度を安定させることができる。
上記の変換に用いられる方位角θや仰角φを設定する操作は、本処理に先立つティーチングにおいて、ワークWのモデルの正面視画像を表示した状態で行われる。また本処理において処理対象画像が表示された後も、θやφの変更操作を受け付け、これに応じて処理対象画像の表示を変更することができる。
正面視画像に対応する平面は、仮想の3次元座標系のxy平面に相当するので、ユーザにとって、角度θやφは、正面視していた視線の方向を斜めに変更した場合の変更後の方向に相当すると解釈できる。またユーザの想定した観察方向から撮像を行った場合のイメージに近い斜視画像を表示することができるので、計測結果の確認に適した方向を容易に判別して、設定操作を行うことができる。
図6は、1つのワークWに対して実行される処理の流れを示す。
この処理は、カメラC0,C1による撮像対象範囲に計測対象のワークWが搬入されたことにより開始される。まず最初のステップ1では、各カメラC0,C1を同時に駆動することにより、基準画像および比較画像の生成を行う。
ステップ2では、基準画像を対象に、前記した各種の画像処理により計測対象点や計測対象領域を抽出し、それぞれについて高さ計測に用いる座標を特定する。また比較画像に対しても、上記の計測対象点や計測対象領域に対応する点や領域を抽出し、高さ計測に用いる座標を特定する。
ステップ3では、各画像間で対応する座標毎に前出のパラメータを用いた演算を実行することにより、高さを表すz座標を算出する。
この後、ステップ4では、前出の図5に示した画像変換処理により、処理結果画像を作成する。さらに、作成された処理結果画像の表示(ステップ5)、および高さの計測値の出力(ステップ6)を行い、しかる後に処理を終了する。
つぎに、上記の実施例では、計測対象領域については、領域の中心点の座標を用いて算出されたz座標を、領域全体の高さとして示したが、これに限らず、所定広さの領域に含まれる複数の代表点について個別に高さを計測し、その計測結果を反映した処理結果画像を表示することもできる。
図7は、一例として、三角形状の領域の各頂点a,b,cについて高さ計測を実行し、これらの点を、基準画像中のx,y座標および計測されたz座標に基づき透視変換した例を示す。この画像では、各頂点a,b,cを、それぞれ(1)式により特定された対応点a´,b´,c´の位置に変換するとともに、図4の例と同様の補助線を設定することにより、各点の計測された高さを表現している。一方、領域全体の画像は、z=0として(2)式を実行することにより、所定の範囲に投影されている。
図7の例によれば、点c´における補助線が他の補助線より短くなっており、これにより、点cが点a,bより低くなっていることを認識することができる。このような表示により、特定の面の傾きや凹凸の有無などの確認に適した処理結果画像を示すことが可能になる。
また、この種の計測では、基準とする平面より高いものを計測対象とする場合に限らず、周囲より落ち込んでいる部分を計測する場合もある。このような計測を行う場合にも、同様の透視変換処理による処理結果画像を作成し、表示を行うことができる。
図8は、正方形状のケース体に形成された半球状の凹部を計測対象とする例を示す。
この実施例では、凹部の外周縁を表すエッジの中から径方向に対向する一対のエッジ点p,qを抽出し、これらの点p,qと、凹部の中心点に相当する点o(線分pqの中点)の3点を計測対象点として、各点のz座標を算出する。そして、これら計測対象点に算出されたz座標をあてはめ、(1)式を用いて変換後画像における対応点o´,p´,q´を求める。一方、全ての画素に、z座標として0より大きい一定の値をあてはめ、(2)式に基づく透視変換処理により、基準画像全体を変換する。
なお、各画素には、一定のz座標として、たとえば、ケース体本体の標準的な高さをあてはめるとよい。または凹部の外側にも計測対象点を1点設けてz座標を計測し、その計測値を各画素に共通に設定してもよい。
図8の例では、上記の変換処理により、ケース体全体の斜視画像が表示されるとともに、各計測対象点o,p,qについて、計測されたz座標に応じた位置に対応点o´,p´,q´が表示され、さらに高さを表す補助線が設定される。
この表示によれば、凹部の中心点oが外周縁に対してどの程度落ち込んでいるかや、目的とする部位を正しく計測しているかなどを、容易に確認することができる。
なお、上記の各実施例では、ステレオカメラを用いた3次元計測処理に使用された画像を用いることによって、実際にz座標の算出に用いられた部位の計測結果を表す処理結果画像を表示したが、ステレオ法以外の方法による3次元計測でも、計測対象部位に対応する画素を特定することができれば、同様の処理結果画像を作成し、表示することができる。
図9は、上記各例と同様の処理結果画像の表示を行うことが可能な3次元計測装置の構成例を示す。
この装置は、光切断法による高さ計測を行うもので、レーザスリット光22を照射する投光部20および2次元カメラ21と、図示しない制御処理部とにより構成される。ワークWはICであり、計測対象は電極ピン30である。
カメラ21は、先の実施例のカメラC0と同様に、ワークWの正面視画像を生成するように、光軸を鉛直方向に向けて配備される。投光部20は、ワークWの斜め上方に配置され、各電極ピン30の並び方向に沿ってスリット光22を照射する。
この実施例の制御処理部は、カメラ21により生成された画像から、スリット光22の反射光による光線像を抽出し、この光線像に含まれる複数の点を計測対象点として、それぞれの座標を所定の演算式にあてはめることにより、各計測対象点に対応する高さを算出する。
上記の実施例でも、ワークWの正面視画像中の所定の画素を対象に高さ計測を実行するので、この計測に使用された正面視画像において、計測に使用された画素を、計測された高さに応じた位置に変換することができる。したがって、3次元計測の手法は異なるものの、先のステレオ法による3次元計測装置と同様の方法で処理結果画像を生成し、表示することができる。
撮像装置の構成および設置例を示す斜視図である。 3次元計測装置の構成を示す機能ブロック図である カメラC0により生成された正面視画像の例を示す説明図である。 処理結果画像の表示例を示す説明図である。 画像変換処理の手順を示すフローチャートである。 計測処理の手順を示すフローチャートである。 画像変換の他の例を示す説明図である。 画像変換の他の例を示す説明図である。 3次元計測装置の他の構成例および計測例を示す説明図である。
符号の説明
C0,C1 カメラ
10 制御処理部
11 操作部
12 表示部
104 画像処理部
107 3次元計測部
108 座標変換部

Claims (9)

  1. あらかじめ1または複数の計測対象部位が定められた計測対象物を、カメラを含む光学的3次元計測手段を用いて観測し、前記カメラの光軸と交わる所定の平面を基準平面として、各計測対象部位につき少なくとも前記基準平面からの距離を表す座標を算出する3次元計測方法であって、
    前記カメラにより計測対象物を撮像して2次元画像を生成し、この2次元画像から前記計測対象部位を抽出して3次元計測処理を実行する第1ステップと、
    前記2次元画像中の前記計測対象部位に対応する画素に、前記基準平面からの距離として前記3次元計測処理により算出された座標を設定するとともに、その他の画素に前記基準平面からの距離として一定の値の座標を設定し、前記2次元画像の座標系を構成する2軸と前記基準平面からの距離を表す軸とによる3次元空間において、前記設定のなされた各画素を、それぞれ設定された距離を表す座標と前記2次元画像中の当該画素の座標とにより特定される位置に仮想配置して、各画素を所定の方向から透視変換する第2ステップと、
    前記透視変換により生成された2次元画像を、前記計測対象部位とその他の部位とを識別できるように加工して表示する第3ステップとを、実行することを特徴とする3次元計測方法。
  2. 請求項1に記載された方法において、
    前記第2ステップでは、前記計測対象物を正面視する方向から撮像することにより生成された正面視画像を透視変換の対象画像に設定するとともに、この正面視画像を表示しながら、この正面視の方向を基準にして透視変換の方向を設定する操作を受け付け、この操作により設定された方向から前記3次元空間に仮想配置された画素群を透視変換する、3次元計測方法。
  3. 請求項1または2に記載された方法において、
    前記第1ステップでは、前記光学的3次元計測手段として、各視野が所定の範囲で重なり合った複数台のカメラを用いて3次元計測を行う装置を使用して、各カメラにより生成された複数の2次元画像からそれぞれ計測対象部位を抽出して当該計測対象部位に対応する座標を特定した後に、各2次元画像で特定された座標を用いて前記基準平面からの距離を表す座標を算出し、
    前記第2ステップでは、前記3次元計測に使用されたいずれかの2次元画像を対象に、この画像中の各構成画素のうち、計測対象部位に対応するものとして座標が特定された画素に前記基準平面からの距離を表す座標として算出された座標を設定し、その他の画素に前記基準平面からの距離を表す座標として前記一定の値の座標を設定する、3次元計測方法。
  4. 請求項1に記載された方法において、
    前記第1ステップでは、前記計測対象部位として、2次元画像中の特徴点またはあらかじめ登録した特徴パターンを含む領域を抽出するとともに、特徴パターンを含む領域を抽出した場合には、その領域内の一代表点を対象に3次元計測処理を実行し、
    前記特徴点に対しては、前記第3ステップにおいて、前記透視変換により生成された画像を、当該画素中の当該特徴点に対応する位置に識別のためのマークを設定したものに加工し、
    前記特徴パターンを含む領域に対しては、前記第2ステップにおいて、当該領域に含まれる全ての画素に基準平面からの距離を表す座標として、前記代表点に対する3次元計測処理により求めた座標を一律に設定して、前記3次元空間への各画素の仮想配置および透視変換を実行することにより、領域全体を前記代表点に対する3次元計測の結果を反映する位置に投影する、3次元計測方法。
  5. 請求項1に記載された方法において、
    前記第3ステップでは、前記計測対象部位について、前記基準平面からの距離として計測対象部位以外の各画素に設定された一定の値の座標を設定して透視変換を行った場合に当該計測対象部位が投影される位置を求め、この位置と前記計測対象部位が実際に投影される位置との間に補助線が設定されるように前記透視変換により生成された画像を加工する、3次元計測方法。
  6. それぞれの視野が所定の範囲で重なるように位置関係および光軸方向を定めて配置された複数台のカメラと、
    前記各カメラの視野が重なる範囲に入った計測対象物を各カメラにより撮像して生成された複数の2次元画像を、個別に入力する画像入力手段と、
    前記計測対象物のあらかじめ定めた1または複数の計測対象部位につき、それぞれ各入力画像から当該部位を抽出して3次元計測の対象とする座標を特定し、特定された各座標を用いて各計測対象部位に対する3次元計測処理を実行する計測手段と、
    前記計測手段による計測結果を表す2次元の処理結果画像を生成する処理結果画像生成手段と、
    前記処理結果画像を表示するための表示手段とを備え、
    前記計測手段は、各カメラの光軸と交わる所定の平面を基準平面として、前記3次元計測処理により、各計測対象部位につき、少なくとも基準平面からの距離を表す座標を算出し、
    前記処理結果画像生成手段は、前記複数台のカメラのうちの特定のカメラにより生成された画像を対象に、この画像中の各構成画素のうち、計測対象部位として抽出された箇所の画素に、前記基準平面からの距離を表す座標として3次元計測により算出された座標を設定し、その他の画素に前記基準平面からの距離を表す座標として一定の値の座標を設定し、前記特定のカメラによる画像の座標系を構成する2軸と前記基準平面からの距離を表す軸とによる3次元空間において、前記設定のなされた各画素を、それぞれ設定された距離を表す座標と前記特定のカメラによる画像中の当該画素の座標とにより特定される位置に仮想配置して、各画素を所定の方向から透視変換し、この透視変換画像を前記計測対象部位とその他の部位とを識別できるように加工したものを処理結果画像として生成する、3次元計測装置。
  7. 前記特定のカメラは前記計測対象物を正面視する方向から撮像を行うように配置されるとともに、この正面視の方向を基準にして透視変換の方向を設定する操作を行うための操作部をさらに備え、
    前記処理結果画像生成手段は、前記特定のカメラにより生成された計測対象物の正面視画像を表示手段に表示し、この状態下で前記操作部による設定操作を受け付けて、この操作により設定された角度が表す方向から前記3次元空間に仮想配置された画素群を透視変換する、請求項6に記載された3次元計測装置。
  8. 前記計測手段は、各入力画像から前記計測対象部位として、特徴点またはあらかじめ登録した特徴パターンを含む領域を抽出するとともに、特徴パターンを含む領域を抽出した場合には、その領域内の一代表点を対象に3次元計測処理を実行し、
    前記処理結果画像生成手段は、前記特徴点に対しては、前記透視変換により生成された画像を、当該画像中の当該特徴点に対応する位置に識別のためのマークを付したものに加工し、前記特徴パターンを含む領域に対しては、当該領域に含まれる全ての画素に基準平面からの距離を表す座標として、前記代表点に対する3次元計測処理により求めた座標を一律に設定して、前記3次元空間への各画素の仮想配置および透視変換を実行することにより、領域全体を前記代表点に対する3次元計測の結果を反映する位置に投影する、請求項6に記載された3次元計測装置。
  9. 前記処理結果画像生成手段は、前記計測対象部位について、前記基準平面からの距離として計測対象部位以外の各画素に設定された一定の値の座標を設定して透視変換を行った場合に当該計測対象部位が投影される位置を求め、この位置と前記計測対象部位が実際に投影される位置との間に補助線が設定されるように前記透視変換により生成された画像を加工する、請求項6に記載された3次元計測装置。
JP2007222356A 2007-08-29 2007-08-29 3次元計測方法および3次元計測装置 Active JP4492654B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007222356A JP4492654B2 (ja) 2007-08-29 2007-08-29 3次元計測方法および3次元計測装置
DE102008041523.5A DE102008041523B4 (de) 2007-08-29 2008-08-25 Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
US12/230,442 US8564655B2 (en) 2007-08-29 2008-08-28 Three-dimensional measurement method and three-dimensional measurement apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007222356A JP4492654B2 (ja) 2007-08-29 2007-08-29 3次元計測方法および3次元計測装置

Publications (2)

Publication Number Publication Date
JP2009053147A JP2009053147A (ja) 2009-03-12
JP4492654B2 true JP4492654B2 (ja) 2010-06-30

Family

ID=40406939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007222356A Active JP4492654B2 (ja) 2007-08-29 2007-08-29 3次元計測方法および3次元計測装置

Country Status (3)

Country Link
US (1) US8564655B2 (ja)
JP (1) JP4492654B2 (ja)
DE (1) DE102008041523B4 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5218177B2 (ja) * 2009-03-13 2013-06-26 オムロン株式会社 画像処理装置および方法
JP5257335B2 (ja) 2009-11-24 2013-08-07 オムロン株式会社 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US9013469B2 (en) * 2011-03-04 2015-04-21 General Electric Company Method and device for displaying a three-dimensional view of the surface of a viewed object
US9875574B2 (en) 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
US9984474B2 (en) 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US10157495B2 (en) 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
KR101276208B1 (ko) * 2011-05-30 2013-06-18 전자부품연구원 스테레오 카메라용 보정 시스템 및 스테레오 영상 보정 장치
DE202011051565U1 (de) * 2011-10-06 2011-11-03 Leuze Electronic Gmbh & Co. Kg Optischer Sensor
KR20130086773A (ko) * 2012-01-26 2013-08-05 두산인프라코어 주식회사 비전 기반 공작물 셋업 방법
US9521294B2 (en) 2012-06-04 2016-12-13 Hewlett-Packard Development Company, L.P. Adjusting digital images for parallax
CN103033132B (zh) * 2012-12-20 2016-05-18 中国科学院自动化研究所 基于单目视觉的平面测量方法及装置
JP6149676B2 (ja) * 2013-10-09 2017-06-21 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム
DE102013111761B4 (de) * 2013-10-25 2018-02-15 Gerhard Schubert Gmbh Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
US9842430B2 (en) 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object
US9818039B2 (en) 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9600928B2 (en) 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
DE102014114506B4 (de) * 2014-10-07 2020-06-04 Sick Ag Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation
US10121249B2 (en) * 2016-04-01 2018-11-06 Baja Education, Inc. Enhanced visualization of areas of interest in image data
JP6817804B2 (ja) * 2016-12-16 2021-01-20 クラリオン株式会社 区画線認識装置
JP7378934B2 (ja) * 2019-01-29 2023-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
US10928186B2 (en) * 2019-04-02 2021-02-23 Premier Innovations, LLC System and method for thickness measurement in tortilla production
CN110365884A (zh) * 2019-07-29 2019-10-22 威米深智(苏州)工业技术有限公司 一种高精度光学引导局部成像方法
DE102020101191A1 (de) * 2020-01-20 2021-07-22 Carl Zeiss Microscopy Gmbh Mikroskop und Verfahren zum Ermitteln eines Messortes eines Mikroskops
JPWO2021199730A1 (ja) * 2020-03-31 2021-10-07

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349586A (ja) * 2005-06-17 2006-12-28 Omron Corp 3次元計測方法および3次元計測装置
JP2007206211A (ja) * 2006-01-31 2007-08-16 Eyemetrics Japan Co Ltd 眼鏡装着シミュレーション方法及び装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5479252A (en) * 1993-06-17 1995-12-26 Ultrapointe Corporation Laser imaging system for inspection and analysis of sub-micron particles
DE4419359A1 (de) * 1994-06-03 1995-12-07 Wolfram Dipl Ing Kirchner Verfahren zur Erfassung, Auswertung, Ausmessung und Speicherung von Geo-Informationen
JP2000039566A (ja) * 1998-07-24 2000-02-08 Sony Corp 拡大観察装置
GB2372656A (en) * 2001-02-23 2002-08-28 Ind Control Systems Ltd Optical position determination
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
KR101155816B1 (ko) * 2005-06-17 2012-06-12 오므론 가부시키가이샤 3차원 계측을 행하는 화상 처리 장치 및 화상 처리 방법
US8023156B2 (en) * 2007-04-10 2011-09-20 Xerox Corporation Image output color management system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349586A (ja) * 2005-06-17 2006-12-28 Omron Corp 3次元計測方法および3次元計測装置
JP2007206211A (ja) * 2006-01-31 2007-08-16 Eyemetrics Japan Co Ltd 眼鏡装着シミュレーション方法及び装置

Also Published As

Publication number Publication date
US8564655B2 (en) 2013-10-22
DE102008041523A1 (de) 2009-04-30
US20090059242A1 (en) 2009-03-05
DE102008041523B4 (de) 2020-09-03
JP2009053147A (ja) 2009-03-12

Similar Documents

Publication Publication Date Title
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
JP5310130B2 (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP5257335B2 (ja) 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP4774824B2 (ja) 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
JP6080407B2 (ja) 3次元計測装置及びロボット装置
JP4885584B2 (ja) レンジファインダ校正方法及び装置
EP1788345A1 (en) Image processing device and image processing method performing 3d measurement
US11654571B2 (en) Three-dimensional data generation device and robot control system
KR20060132454A (ko) 화상 처리 장치
JP2010237193A (ja) キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
US11446822B2 (en) Simulation device that simulates operation of robot
CN104976950B (zh) 物件空间信息量测装置与方法及取像路径的计算方法
CN107680125A (zh) 在视觉系统中自动选择三维对准算法的系统和方法
JP6545033B2 (ja) 三次元温度分布表示装置
JP7225109B2 (ja) 作業支援システムおよび作業支援方法
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
JP2020134221A (ja) 走査経路生成装置、走査経路生成プログラム、走査経路生成方法、及び外観検査システム
JP2004252815A (ja) 画像表示装置、画像表示方法およびプログラム
WO2022168617A1 (ja) ワーク検出装置、ワーク検出方法、ワーク検出システム及びワーク検出プログラム
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
US20240070910A1 (en) Processing method and processing device for generating cross-sectional image from three-dimensional position information acquired by visual sensor
TW202333920A (zh) 取得工件位置之裝置、機器人之控制裝置、機器人系統及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100329

R150 Certificate of patent or registration of utility model

Ref document number: 4492654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250