JP4935606B2 - 撮像システム - Google Patents

撮像システム Download PDF

Info

Publication number
JP4935606B2
JP4935606B2 JP2007254804A JP2007254804A JP4935606B2 JP 4935606 B2 JP4935606 B2 JP 4935606B2 JP 2007254804 A JP2007254804 A JP 2007254804A JP 2007254804 A JP2007254804 A JP 2007254804A JP 4935606 B2 JP4935606 B2 JP 4935606B2
Authority
JP
Japan
Prior art keywords
camera
pattern
target
unit
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007254804A
Other languages
English (en)
Other versions
JP2009088881A (ja
Inventor
博司 矢野
紫朗 藤枝
泰之 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2007254804A priority Critical patent/JP4935606B2/ja
Publication of JP2009088881A publication Critical patent/JP2009088881A/ja
Application granted granted Critical
Publication of JP4935606B2 publication Critical patent/JP4935606B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P20/00Technologies relating to chemical industry
    • Y02P20/50Improvements relating to the production of bulk chemicals
    • Y02P20/52Improvements relating to the production of bulk chemicals using catalysts, e.g. selective catalysts

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Description

本発明は撮像システムに関し、特に、撮像システムに含まれるカメラの視野を調整するための技術に関する。
従来、互いに異なる2つの位置から計測対象を撮影することにより得られた2つの撮影画像を用いて、計測対象の3次元形状情報や計測対象までの距離情報を得る「ステレオ法」が知られている。このステレオ法では、2つの撮影画像間において生じる計測対象の結像位置ずれ(視差)を利用して、三角測量の原理に基づくことにより奥行き距離が算出される。
ステレオ法を採用した3次元計測システムは、たとえば特開2006−250889号公報(特許文献1)に開示されている。上記文献に開示された3次元計測システムは2台のカメラを含む。なお、このシステムでは3次元計測に先立ってキャリブレーションが実行される。
特開2006−250889号公報
ステレオ法を利用した画像検査システムは、様々な分野で利用されている。このような画像検査システムの代表的な利用分野として、工場の製造ラインでの製品検査を挙げることができる。
工場の製造ラインに従来導入されていた画像検査システムは、カメラの視野が小さく、かつワーキングディスタンス(レンズの前面からワークまでの距離)も短いものが多かった。したがってユーザは、製造ラインへの画像検査システムの導入時に、ワークとカメラの視野との位置関係の調整、あるいはワーキングディスタンスの調整を比較的容易に行なうことができた。
近年、サイズの大きな工業製品への画像検査システムの適用が注目されつつある。サイズが大きく、かつ、複雑な組立作業を必要とする製品の場合には、製造ラインにおいて人による作業と機械による作業とが混在する可能性が高い。したがって、その製造ラインに画像検査システム用のカメラを設置する場合には、カメラが製品(すなわちワーク)の移動や組立作業を妨げないように、カメラを製品から遠ざける必要がある。このためカメラのワーキングディスタンスは必然的に長くなる。
カメラのワーキングディスタンスが長くなると、カメラの向き(レンズの光軸の方向)をわずかに変化させただけでもカメラの視野は大幅に移動する。したがって作業者がワーク上の所定の検査領域を撮像するためにカメラの光軸方向を調整する場合、その調整に要する時間が長くなる可能性が高くなる。
さらに上述した3次元計測システムの場合には、複数のカメラの視野同士を重ねあわさなければならない。よって3次元計測システムの場合には、カメラのワーキングディスタンスが長くなるほど複数のカメラの視野の調整が困難になる可能性が高い。
本発明は、上述の課題を解決するためになされたものであって、その目的は、ワーキングディスタンスが長い場合にも、カメラの視野の調整を容易に行なうことが可能な撮像システムを提供することである。
本発明は要約すれば、撮像システムであって、カメラと、カメラの撮像対象であるターゲットと、記憶部とを備える。記憶部は、カメラがターゲットの全体を撮像したときの画像に対応する全体パターン、全体パターンに含まれる所定の基準パターン、およびカメラの視野内において基準パターンが配置されるべき目標位置に関するパターン情報を記憶する。撮像システムは、さらに、演算部と、報知部と、制御部とを備える。演算部は、カメラが撮像したターゲットの撮像画像と、記憶部に記憶されるパターン情報とを用いて、撮像画像内に含まれる基準パターンの撮像画像内の位置を算出するとともに、その算出した撮像画像内の基準パターンの位置に基づいて、目標位置に対するずれの度合いを求める。報知部は、演算部が求めたずれの度合いを報知する。制御部は、報知部を制御する。制御部は、演算部が求めたずれの度合いに応じて、報知部の報知の態様を変化させる。
好ましくは、ターゲットの表面は、その中心部に基準パターンが配置されるとともに、中心部の周囲に周囲領域が配置される。カメラから撮像距離だけ離れた位置にカメラに向けてターゲットが設置された場合において、周囲領域の外側輪郭線の間隔は、カメラの視野を基準面とすると、基準面の幅より大きく、かつ、基準パターンの周囲に基準パターンを中心として互いに対称な2方向にそれぞれ基準面を並べることにより形成される領域の幅よりも小さい。基準パターンは、ターゲットの表面内の周囲領域に形成されたパターンとは異なるパターンである。パターン情報において、目標位置はカメラの視野内の中心に設定される。
「パターン」は、模様を有するパターン、無地のパターンを含む。「異なるパターン」は、無地パターンであって、明るさや色が異なる場合を含む。
「周囲領域の外側輪郭線の間隔」および「基準面の幅」は、互いに同方向の周囲領域の外側輪郭線の間隔(周囲領域の幅)および基準面の幅である。周囲領域の外側輪郭線の間隔(周囲領域の幅)は、特定の方向について、基準面(カメラの視野と同じ形状の仮想的な面)の幅以上であり、かつ、基準パターンを挟んで2つの基準面が並べられることにより形成される領域の幅以下である場合を含む。さらに、周囲領域の外側輪郭線の間隔(周囲領域の幅)は、基準パターンの全周囲方向について、基準面の幅以上であり、かつ、基準パターンを挟んで2つの基準面が並べられることにより形成される領域の幅以下である場合を含む。これにより、カメラがターゲットを撮像した場合、カメラの視野内には基準パターンが含まれる。
好ましくは、ターゲットの表面は、その中心部に基準パターンが配置されるとともに、中心部の周囲に周囲領域が配置される。カメラから撮像距離だけ離れた位置にカメラに向けてターゲットが設置された場合において、周囲領域の外側輪郭線の間隔は、カメラの視野を基準面とすると、基準パターンの周囲に基準パターンを中心として互いに対称な2方向にそれぞれ基準面を並べることにより形成される領域の幅よりも大きい。周囲領域には、基準面よりも小さい領域ごとに1つの密度で、互いに異なるとともに基準パターンとも異なる複数のパターンが配置される。パターン情報において、目標位置はカメラの視野内の中心に設定される。
周囲領域の外側輪郭線の間隔が、基準パターンを挟んで2つの基準面が並べられることにより形成される領域の幅以上である場合、ターゲット上のある場所をカメラが撮像している限り、その場所を特定できるパターンが配置されている必要がある。基準面よりも小さい領域ごとに1つの密度で、互いに異なるとともに基準パターンとも異なる複数のパターンが配置されることによって、カメラの視野に対応する領域ごとに異なるパターンが配置される。
本発明の他の局面に従うと、撮像システムであって、カメラと、記憶部とを備える。記憶部は、カメラの撮像の対象であり、かつ平面に形成された所定のパターンに関する情報を記憶する。所定のパターンは、カメラの視野の中心の目標位置を基準とした、視野の中心の相対位置を特定するためのパターンである。撮像システムは、演算部と、報知部と、制御部とをさらに備える。演算部は、カメラが撮像した所定のパターンの画像と記憶部に記憶される所定のパターンに関する情報とを用いて、相対位置を算出する。演算部は、算出した相対位置に基づいて、視野の中心の目標位置と視野の中心の位置とのずれの度合いを求める。報知部は、演算部が求めたずれの度合いを報知する。制御部は、報知部を制御する。制御部は、演算部が求めたずれの度合いに応じて、報知部の報知の態様を変化させる。
本発明のさらに他の局面に従うと、撮像システムであって、カメラと、記憶部とを備える。記憶部は、カメラの撮像の対象であり、かつ平面に形成された所定のパターンに関する情報を記憶する。所定のパターンは、カメラの視野の中心の目標位置を基準とした、視野の中心の相対位置を特定するためのパターンである。撮像システムは、演算部と、報知部と、制御部とをさらに備える。演算部は、カメラが撮像した所定のパターンの画像と記憶部に記憶される所定のパターンに関する情報とに基づいて、カメラの視野が移動中か否か判定する。演算部は、カメラの視野が移動中である場合には、相対位置の変化に基づいて、カメラの視野の移動方向を求める。報知部は、カメラの視野の移動方向を報知する。制御部は、報知部を制御する。制御部は、演算部が求めたカメラの視野の移動方向に応じて、報知部の報知の態様を変化させる。
好ましくは、制御部は、カメラの視野の移動方向が視野の中心の目標位置に近づく方向である場合と、カメラの視野の移動方向が視野の中心の目標位置から遠ざかる方向である場合とで、報知の態様を異ならせる。
好ましくは、報知部は、光源を含む。制御部は、光源から出力される光の出力パターンを変化させることにより、報知の態様を変化させる。
好ましくは、報知部は、音声出力装置を含む。制御部は、音声出力装置から出力される音声の出力パターンを変化させることにより、報知の態様を変化させる。
好ましくは、報知部は、光源と、音声出力装置とを含む。制御部は、光源から出力される光の出力パターンと音声出力装置から出力される音声の出力パターンとを同時に変化させることにより、報知の態様を変化させる。
好ましくは、報知部は、カメラに取り付けられる。
好ましくは、カメラは複数設けられる。
本発明によれば、ワーキングディスタンスが長い場合にもカメラの視野の調整を容易に行なうことができる。
以下において、本発明の実施の形態について図面を参照して詳しく説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。
[撮像システムの構成]
図1は、本実施の形態に従う撮像システム50を説明する図である。本実施の形態では撮像システム50はステレオ法を採用した画像検査システムである。ただし本発明の撮像システムは、画像検査システムに限定されるものではない。
図1を参照して、撮像システム50はカメラ1,2と、画像処理装置15と、モニタ11とを備える。
カメラ1,2は、互いに異なる2つの位置に設けられ、かつワーク100の検査対象部分を撮像する。本実施の形態ではカメラの台数は2である。ただし撮像システムの用途に応じてカメラの台数を定めればよいためカメラの台数は特に限定されない。
画像処理装置15はカメラ1,2の各々がワーク100の検査対象部分を撮像することにより得られた撮影画像を用いて、その部分の3次元形状情報あるいは高さの情報などを得る。そして、画像処理装置15はその情報に基づいて検査を実行する。
モニタ11は、カメラ1,2の各々が撮像したワーク100の検査対象部分の画像を表示する。
図1に示すワーク100は自動車である。自動車のように、そのサイズが大きく、かつ、複雑な組立作業を要する製品の製造ラインでは、人による作業と機械による作業とが混在する場合がある。このような製造ラインにカメラを設置した場合、カメラが製品の移動や組立作業を妨げるのを防ぐ必要がある。このため、ワーキングディスタンスを長くする必要がある。
本実施の形態では、カメラ1,2の視野同士が重なり合うように各々のカメラの視野の中心方向を調整しなければならない。ワーキングディスタンスはたとえば2mであり、比較的長い。このためカメラ1(カメラ2)の向きがわずかにずれてもカメラ1(カメラ2)の視野が大幅に移動する。また、カメラ1(カメラ2)の視野は画像検査の精度を確保するため、たとえば5cm四方程度である。このような状況では、カメラ1(カメラ2)の視野内に検査対象部分が含まれるようにカメラの視野の中心方向を調整することは難しいと考えられる。しかし本実施の形態によれば、カメラ1(カメラ2)の視野内に所望の領域が含まれるようにカメラ1(カメラ2)の視野の中心方向を容易に調整することができる。
なお、以下の説明において、カメラ1,2に共通の説明においては、カメラ1,2を区別せずに単に「カメラ」と呼ぶことにする。
また、以下の説明において、「カメラの向き」とは、カメラの視野の中心方向を意味する。
また、以下の説明において、「視野の位置ずれ(単に「位置ずれ」と呼ぶ場合もある)」とは、カメラの視野の目標位置に対するカメラの視野中心の位置のずれ(または、そのずれの大きさ)を意味する。
図2は、撮像システム50の全体構成を説明するブロック図である。図2を参照して、撮像システム50は、入力部10と、画像処理装置15と、報知部30と、ターゲット40とを備える。
入力部10は、カメラ1,2と、タッチパネル3と、キーボード4とを含む。カメラ1,2の調整時において、カメラ1,2の各々は、ターゲット40の表面に形成されたパターンを写し、そのパターンの画像を画像処理装置15に出力する。カメラの調整は、具体的には、カメラの向きの調整、フォーカスの調整、絞りの調整などを含む。
ターゲット40は、カメラの調整のために用いられる。ターゲット40は、具体的にはガラス等の透明部材でできた板である。ターゲット40の表面(平面)には、その表面での基準位置に対する、その表面での相対位置を特定するためのパターンが形成されている。
カメラの調整時には、ターゲット40の表面での基準位置をカメラの視野の中心の目標位置に設定する。カメラがターゲット40を写している場合には、カメラが撮像したパターンの画像から、カメラの視野の中心の相対位置を求めることができる。本実施の形態では、その相対位置に基づいて、位置ずれの度合い、および、その位置ずれを修正するためのカメラの視野の移動方向が求められる。
タッチパネル3およびキーボード4は、ユーザが撮像システム50に各種の指示および設定内容を入力するためのものである。なお指示内容および設定内容をユーザが入力するための手段としては、たとえばマウス等の他の手段が用いられてもよい。
画像処理装置15は、パラメータ部20と、演算部21と、出力制御部22とを含む。
パラメータ部20は、ターゲット情報パラメータ記憶部25と、調整パラメータ記憶部26とを含む。ターゲット情報パラメータ記憶部25は、ターゲット40のパターンに関する情報を記憶する。具体的には、ターゲット情報パラメータ記憶部25は、カメラがターゲット40の全体を撮像したときの画像に対応する全体パターン、全体パターンに含まれる所定の基準パターン、およびカメラの視野内において基準パターンが配置されるべき視野内の目標位置に関するパターン情報を記憶する。
本実施の形態では、ターゲット40に形成されるパターンは、カメラの視野の中心の目標位置を基準とした、カメラの視野の中心の相対位置を特定するためのパターンである。ターゲット情報パラメータ記憶部25は、このパターンに関する情報を記憶する。したがって、このパターン情報では、目標位置はカメラの視野内の中心に設定される。
また「カメラの視野内において基準パターンが配置されるべき視野内の目標位置」とはカメラの視野の中心位置である。ただし、本発明の撮像システムは、基準パターンがカメラの視野内に入るようにカメラの視野を調整するものである。したがって、カメラの視野の中心に基準パターンが位置するものと限定されるものではなく、カメラの視野内における基準パターンの目標位置は、適宜定めることが可能である。
調整パラメータ記憶部26は、ターゲット40の表面での視野の位置ずれの度合いを決定するためのパラメータ、フォーカスずれの度合いを決定するためのパラメータ、および絞りのずれの度合いを決定するためのパラメータなどを記憶する。なお調整パラメータ記憶部26に記憶された情報は書換え不可能な情報でもよいし、ユーザがタッチパネル3(あるいはキーボード4)を操作することにより書換えられてもよい。
演算部21は、カメラ1が撮像したターゲット40の表面のパターンの画像と、ターゲット情報パラメータ記憶部25に記憶されるターゲット40のパターンに関する情報とを用いて、その撮像画像に含まれる基準パターンの撮像画像内の位置を算出する。さらに、演算部21は、その算出した撮像画像内の基準パターンの位置に基づいて、目標位置に対するカメラ1の視野の相対位置を算出する。さらに演算部21は、算出した相対位置に基づいて、位置ずれの度合いを求める。
さらに、演算部21は、カメラ1の視野が移動中か否かを判定する。カメラ1の視野が移動中である場合には、演算部21はカメラ1の視野の移動方向を求める。
さらに、演算部21は、フォーカスずれの度合い、絞りのずれの度合いを算出する。
なお、演算部21は、カメラ2についても同様に、位置ずれの度合い、視野の移動方向、フォーカスずれの度合い、および絞りのずれの度合いを求める。以下では代表的にカメラ1に関する処理について説明することにする。
演算部21は、画像処理部27を含む。画像処理部27は、カメラ向き推定部31と、フォーカス推定部32と、絞り推定部33とを含む。
カメラ向き推定部31は、カメラ1から出力される画像データを受けて、カメラ1の視野の位置ずれ量、および位置ずれの方向を推定する。フォーカス推定部32は、カメラ1のフォーカスのずれを推定する。絞り推定部33は、カメラ1の絞りのずれを推定する。
演算部21は、さらに比較部28を含む。比較部28は、カメラ向き推定結果−パラメータ比較部34と、フォーカス推定結果−パラメータ比較部35と、絞り推定結果−パラメータ比較部36とを含む。
カメラ向き推定結果−パラメータ比較部34は、カメラ向き推定部31が推定したカメラ1の視野の位置ずれと調整パラメータ記憶部26に記憶される位置ずれのパラメータとを比較するとともに、その比較結果に基づいてカメラ1の視野の位置ずれの度合いを算出する。
フォーカス推定結果−パラメータ比較部35は、フォーカス推定部32が推定したフォーカスずれと調整パラメータ記憶部26に記憶されるパラメータとを比較するとともに、その比較結果に基づいてフォーカスずれの度合いを算出する。
絞り推定結果−パラメータ比較部36は、絞り推定部33が推定した絞りのずれと調整パラメータ記憶部26に記憶されるパラメータとを比較するとともに、その比較結果に基づいて絞りのずれの度合いを算出する。
出力制御部22は、演算部21の演算結果(位置ずれの度合い、および視野の移動方向)に応じて報知部30を制御する。報知部30は、モニタ11と、スピーカー12と、光源13とを含む。
出力制御部22は、演算部21の演算結果に応じて報知部30の報知の態様を変化させる。以下、出力制御部22の制御の具体例を説明する。
第1の例では、出力制御部22はスピーカー12から出力される音声の出力パターンを変化させる。第2の例では、出力制御部22は、光源13から出力される光の出力パターンを変化させる。第3の例では、出力制御部22は、スピーカー12から出力される音声の出力パターンと光源13から出力される光の出力パターンとを同時に変化させる。
ユーザ(カメラ1,2を設置する作業者を含めるものとする)がカメラ1の向きを調整する場合、報知部30は、カメラ1の視野の位置ずれの度合いをユーザに報知する。出力制御部22は、演算部21が算出したカメラ1の視野の位置ずれの度合いに応じて報知部30の報知の態様を変化させる。出力制御部22は、ユーザがカメラ1の向きを変化させたとき(カメラ1の視野の移動時)には、カメラ1の視野の移動方向に応じて報知部30の報知の態様を変化させる。カメラ2の調整時にも同様の処理が行なわれる。これによりワーキングディスタンスが長くても、ユーザはカメラ1(カメラ2)の視野の中心が目標位置に重なるようにカメラ1(カメラ2)の向きを調整することができる。
図3は、スピーカー12および光源13の配置の具体例を示す図である。図3を参照して、スピーカー12および光源13はカメラ1に取り付けられる。これにより、ユーザはカメラ1の向きを調整しながら、スピーカー12から出力される音声あるいは光源13から出力される光により、その調整結果を知ることができる。同様にカメラ2にもスピーカー12および光源13が取り付けられる。
図1に示すようにカメラ1,2が取り付けられた場合、モニタ11は、カメラ1,2の設置場所から離れた場所に設けられる可能性が高い。たとえばユーザがモニタ11に表示される情報を参照しながらカメラ1の向きを調整した場合には、ユーザの負担が大きくなると考えられる。図3に示すようにスピーカー12および光源13を配置することによって、ユーザはスピーカー12から出力される音声および/または光源13から出力される光を確認しながらカメラ1の向きを調整することができる。これによりユーザはモニタ11に表示された画像を確認しなくてもよくなる。よってユーザの負担を軽減できる。
[カメラの調整]
図4は、図2に示す撮像システムの処理フローを示す図である。図4および図2を参照して、撮像システム50の処理は、大きくは、立ち上げ時の処理(ステップS1〜S3の処理)と、運用時(および保守時)の処理(ステップS4,S5の処理)とに分けられる。
撮像システム50の立ち上げ時に、まず複数のカメラ(カメラ1,2)が設置される(ステップS1)。カメラ1,2は、異なる撮影角度からワーク100の同一面を同時に撮影できるように調整される。この調整のフローについては後に詳細に説明する。
次にカメラ1,2のキャリブレーションが行なわれる(ステップS2)。キャリブレーションの方法としては、たとえば特開2006−250889号公報に開示される方法を適用することができる。
続いて、ワークにおける計測位置等の計測条件が設定される(ステップS3)。
次に、3次元計測が行なわれる(ステップS4)。画像処理装置15は3次元計測の結果をモニタ11に出力したり、他の処理装置に出力したりする(ステップS5)。
ステップS1での処理において、ワークディスタンスが短い場合と長い場合とではカメラの設置に必要な処理が異なる。
そこで以下では、ワークディスタンスが短い場合にカメラを設置する処理と、ワークディスタンスが長い場合にカメラを設置する処理(すなわち本実施の形態におけるカメラの設置処理)とを説明する
図5は、ワークディスタンスが短い場合の複数のカメラの設置処理を示すフローチャートである。図5および図2を参照してターゲット40を置く(ステップS11)。次に、ターゲット40からのワーキングディスタンス(図5では「WD」と示す)に応じてカメラ1を設置する(ステップS12)。ワーキングディスタンスの長さは、たとえばユーザが腕を動かした場合に、カメラ1のレンズおよびターゲット40にユーザの手が触れることができる程度の長さである。
続いて、カメラ1がターゲット40に向けられる(ステップS13)。ワーキングディスタンスがカメラ1の視野に対して比較的短いため、カメラ1をターゲット40に向けることによりターゲット40を撮像することができる。これによりモニタ11はカメラ1が撮像したターゲット40の画像を表示する(ステップS14)。
続いて、ユーザはレンズの前に手をかざし、モニタ11を見ながらカメラ1の向きを調整する(ステップS15)。さらに、ユーザは自分の手をターゲット40に近づけながらカメラ1の向きを調整する(ステップS16)。
ユーザの手がターゲット40の位置に達すると、ユーザはカメラ1がターゲット40を写していることをモニタ11により確認する。そしてユーザはカメラ1がターゲット40を写している状態でモニタ11を見ながらカメラ1の位置を最終的に調整してカメラ1を固定する(ステップS17)。
続いて、すべてのカメラについて調整されたか否かが判定される(ステップS18)。すべてのカメラが調整された場合(ステップS18においてYES)、全体の処理は終了する。未調整のカメラが存在する場合(ステップS18においてNO)、処理はステップS12に戻り、カメラ2についてもステップS12〜S17の処理が実行される。
図6は、カメラの視野の大きさとターゲットの大きさとの関係がワーキングディスタンスにより変化することを示す図である。
図6(A)に示すようにワーキングディスタンスWDが短い場合にはカメラの視野に対してターゲット40が大きい。よって、カメラ1がターゲット40を写すことが容易になる。また、図6(A)の矢印によって示されるように、カメラ1の向きが左右に変化した場合にもカメラ1はターゲット40を写すことができる。したがってカメラ1の視野の中心をターゲット上の目標位置に容易に一致させることができる。
一方、図6(B)に示すようにワーキングディスタンスWDが長い場合には、カメラ1の向きがわずかに変化した場合(図6(B)に示す矢印の方向にカメラの向きが変化した場合)にもカメラの視野にターゲット40が入らなくなる可能性が大きくなる。ワーキングディスタンスが長くなった場合、図5のフローチャートの処理では、次のような課題が生じると考えられる。
まず、ステップS13において、カメラ1がターゲット40を写していない可能性がある。さらに、ワーキングディスタンスが長い(たとえば2m)ため、ステップS15〜S17の処理を行なうことが困難となる。
さらに、モニタ11がユーザから離れた位置に設置される可能性がある。したがってユーザがモニタ11に表示された画像を参照しつつカメラの向きを調整することが困難になる。本実施の形態によれば、このような課題を解決することができる。
図7は、本実施の形態に従うカメラの調整を示すフローチャートである。図7および図5を参照して、図7のフローチャートの処理は、ステップS11とステップS12との間にステップS21の処理が追加される点、およびステップS14〜S16の処理に代えてステップS22〜S25の処理が実行される点で図5のフローチャートに示す処理と異なる。図7のフローチャートの処理の他のステップの処理は図5のフローチャートにおいて対応するステップの処理と同様である。したがって以下ではステップS21〜S25の処理を主に説明する。
図7および図2を参照して、ステップS21では、ターゲットの情報が画像処理装置15に入力され、ターゲット情報パラメータ記憶部25に記憶される。ステップS12においてカメラ1が設置される。ステップS13においてターゲット40にカメラ1が向けられる。
演算部21(より特定的には画像処理部27)は、ターゲット情報パラメータ記憶部25に記憶されるターゲット40の情報に基づいて、カメラ1から出力される画像の中に含まれるターゲット40の画像をサーチする(ステップS22)。
次に、演算部21は、そのサーチ結果から、カメラ1(またはカメラ2)の視野の位置ずれの大きさ、位置ずれを修正するための視野の移動方向、フォーカスずれの度合い、および絞りのずれの度合いを演算する(ステップS23)。具体的に説明すると、カメラ向き推定部31は、カメラ1の視野が移動中か否かを判定する。カメラ1の視野が移動していない場合には、カメラ向き推定部31は、カメラ1の視野の位置ずれの大きさを推定する。さらに、カメラ向き推定結果−パラメータ比較部34は、その位置ずれの大きさを調整パラメータ記憶部26に記憶される位置ずれのパラメータと比較することにより位置ずれの度合いを演算する。
一方、カメラ向き推定部31は、カメラ1の視野が移動中である場合には、その視野の移動方向を推定する。
フォーカス推定部32はカメラ1のフォーカスずれを推定する。フォーカス推定結果−パラメータ比較部35は、そのフォーカスずれと、調整パラメータ記憶部26に記憶されるパラメータとを比較することにより、フォーカスずれの度合いを演算する。
絞り推定部33はカメラ1の絞りのずれを推定する。絞り推定結果−パラメータ比較部36は、その絞りのずれと、調整パラメータ記憶部26に記憶されるパラメータとを比較することにより、絞りのずれの度合いを演算する。
演算部21は、これらの演算結果を出力制御部22に出力する。出力制御部22は、その演算結果に基づいて報知部30を制御する。これにより報知部30は演算部21の演算結果をユーザに報知する(ステップS24)。
続いて、報知部30の報知の態様に基づいて、演算部21の算出結果が所定のレベルに達したか否かが判定される(ステップS25)。演算部21の算出結果が所定のレベルに達していない場合(ステップS25においてNO)、処理はステップS13に戻る。演算部21の算出結果が所定のレベルに達した場合、(ステップS25においてYES)、ステップS17の処理が実行される。
演算部21の算出結果が所定のレベルに達していない場合とは、たとえば位置ずれの度合いが大きい場合であり、演算部21の算出結果が所定のレベルに達した場合とは、位置ずれの度合いが小さくなった場合である。なお、位置ずれの度合いが所定のレベルに達した状態とはカメラ1の視野の中心が目標位置に一致した場合でもよいし、カメラ1の視野の中心が目標位置の近傍に位置する(位置ずれの大きさが所定値以下になる)場合でもよい。
ステップS17では、ユーザはモニタ11を適宜見ながらカメラ1の位置を最終的に調整するとともに、カメラ1を固定する(ステップS17)。
続いて、図7に示すステップS22〜S24の処理についてより詳しく説明する。なおステップS22の処理については、ターゲットおよびサーチ処理を説明する。
[ターゲットについて]
図8は、ターゲット40の第1の例を示す図である。図8を参照して、ターゲット40の表面には複数の黒色の円形パターン41が所定の間隔(たとえば5mm)で二次元方向に配置され、かつターゲット40の表面の中央には白(中抜き)の円形パターン42が配置される。ターゲット40は、円形パターン42がワークの撮像対象領域内の所定の位置(たとえば中心)と重なるようにワークの表面に設置される。これにより円形パターン42の位置(円形パターン42の中心位置である必要はなく、円形パターン42内の位置であればよい)が目標位置となる。
したがって、カメラ1がターゲット40を写し、かつ、その視野の中心の位置が複数の黒色の円形パターン41のいずれかに重なる場合には、目標位置(円形パターン42の位置)に対する視野の相対位置を求めることができる。これにより目標位置とカメラ1の視野の中心位置との距離を求めることができる。したがって、位置ずれの度合い、および、その位置ずれを修正するための視野の移動方向を求めることが可能になる。
円形パターン42はターゲット40の表面の中央部に配置される基準パターンであり、複数の円形パターン41からなる領域は、中央部の周囲に配置される周囲領域である。周囲領域の外側輪郭線は、ターゲット40の輪郭に対応する。また、カメラの視野を破線の枠により図8に示す。この破線の枠により囲まれた領域は、カメラの視野と同じ形状の仮想的な面である。以下では、この面を「基準面」と呼ぶ。図8に示す1点鎖線の枠、および破線の枠は基準面を表わしている。
ここで「周囲領域の外側輪郭線の間隔」および「基準面の幅」を、互いに同方向の周囲領域の外側輪郭線の間隔(周囲領域の幅)および基準面の幅であるとする。この方向はある特定の方向(たとえばX方向)でもよいし、円形パターン42の全周囲方向でもよい。図8に示すように、周囲領域の外側輪郭線の間隔(ターゲット40のX方向の幅)は、基準面の幅以上である。さらに、ターゲット40のX方向の幅は、基準パターンである円形パターン42を挟んで2つの基準面が並べられることにより形成される領域A1のX方向の幅より小さい。これにより、カメラがターゲット40を撮像した場合、カメラの視野内には基準パターンが含まれる。よってカメラの視野を調整できる。
図9は、ターゲット40の第2の例を示す図である。図9を参照して、ターゲット40の表面には、ターゲット40の表面を複数の領域に等分するための格子が形成され、かつ、各領域にはその領域を一意に識別するための数字が記される。図9では領域の数は100であるが、領域の数はこの値に限定されるものではない。
図9に示すターゲット40をカメラ1が撮像した場合、カメラに写った領域の数字からカメラの視野の中心位置を特定することができる。さらに、ユーザが目標位置に対応する領域に記載された数字を画像処理装置15に入力することにより、目標位置に対する視野の相対位置を求めることができる。したがって位置ずれの大きさ、および、その位置ずれを修正するための視野の移動方向を求めることが可能になる。
ターゲット40の表面は、その中心部に基準パターン(実線の枠で示す)が配置されるとともに、中心部の周囲に周囲領域が配置される。なお、破線の枠は、図8と同様に「基準面」を示す。領域A2は、カメラから撮像距離だけ離れた位置にカメラに向けてターゲットが設置された場合において、基準パターンの周囲に基準パターンを中心として互いに対称な2方向(+X方向および−X方向)にそれぞれ基準面を並べることにより形成される領域である。周囲領域の外側輪郭線(ターゲット40の輪郭線)の間隔、すなわちターゲット40のX方向(+X方向および−X方向)の幅は、領域A2のX方向の幅よりも大きい。
図9に示すターゲット40の場合、周囲領域には、基準面よりも小さい領域(格子で区切られた1つの領域)ごとに1つの密度で、互いに異なるとともに基準パターンとも異なる複数のパターンが配置される。
すなわちターゲット40のX方向(+X方向および−X方向)の幅が、領域A2のX方向の幅よりも大きいため、ターゲット上のある場所をカメラが撮像している限り、その場所を特定できるパターンが配置されている必要がある。基準面よりも小さい領域ごとに1つの密度で、互いに異なるとともに基準パターンとも異なる複数のパターンが配置されることによって、カメラの視野に対応する領域ごとに異なるパターンが配置される。これにより、ターゲット40の表面においてカメラが撮像している領域を特定することが可能になる。
図10は、ターゲット40の第3の例を示す図である。
図10(A)は、ターゲット40の表面に形成されたパターンを示す図である。
図10(A)を参照して、ターゲット40の表面には白黒パターンが形成される。
図10(B)は、図10(A)に示すパターンの一部である白黒パターン44を拡大した図である。図10(B)を参照して、白黒パターン44において白色の領域は光を透過させる領域を示す。
図10(A)では+X方向および+Y方向により定まる領域に形成されるパターンのみを具体的に示す。ただし、同様のパターンが+X方向および−Y方向により定まる領域、−X方向および+Y方向により定まる領域、−X方向および−Y方向により定まる領域にも形成されてもよい。ターゲット40はX軸およびY軸の交点43がワークの撮像対象領域内の所定の位置(たとえば中心)と重なるようにワークの表面に設置される。すなわち交点43が目標位置となる。
白黒パターンは、カメラの視野の場所に応じて異なる。これにより目標位置に対する視野の相対位置を求めることができる。したがって位置ずれの大きさ、および、その位置ずれを修正するための視野の移動方向を求めることが可能になる。
[ターゲットのサーチ処理]
「サーチ処理」とは、カメラが撮像した画像を予め生成されたモデル画像と比較することによりパターン認識を行なうとともに、その認識結果に基づいてカメラがターゲット表面のどの部分を写しているかを求める処理である。
図11は、図7のフローチャートにおけるステップS22の処理を詳細に説明するための図である。図11を参照して、ステップS22のサーチ処理はステップS30〜S35の処理からなる。
図11および図2を参照して、ステップS30において、ターゲット40に形成されたパターンからマッチングのためのモデルデータを生成する処理が実行される。この処理は、たとえばカメラ向き推定部31により実行され、モデルデータは、ターゲット情報パラメータ記憶部25に記憶される。
ステップS31において、カメラ向き推定部31にはカメラ1が撮像したターゲットの画像のデータが入力される。ステップS32において、カメラ向き推定部31はその画像に対して前処理を実行する。「前処理」とは、画像認識を容易にするために行なわれる処理であり、具体的にはノイズ除去、濃淡画像生成、2値化、エッジ抽出、大きさの正規化などである。
続いてステップS33において、カメラ向き推定部31は前処理後の画像から、マッチングに必要なデータ(特徴)を抽出する処理を行なう。ステップS33の処理は、たとえば、濃淡値の抽出、セグメントデータの抽出などである。
続いてステップS34において、カメラ向き推定部31はステップS33において抽出されたデータとモデルデータとのマッチングを行なう。カメラ向き推定部31は抽出データとモデルデータとの類似度、抽出データの特徴点とモデルデータの対応する点との距離などに基づいて、抽出データを最も類似するパターンにクラス分けする。これにより、カメラ1の視野、すなわちカメラ1が撮像したターゲット40の部分が特定されるとともに、カメラ1の視野の中心の位置が決定される。
たとえば図9に示すターゲットを用いた場合には、ステップS34において、カメラの視野の中心に位置する領域に記載された数字が認識される。数字を認識するための技術としては、既存の文字認識技術(たとえば光学式文字読取装置に用いられる文字認識技術)を用いることができる。
ステップS35において、演算部21は認識結果を出力する。
[視野の位置ずれおよび移動方向の演算]
以下では、図9に示したターゲットをカメラ1が撮像するものとする。なお、図8あるいは図10に示すターゲット40を用いた場合にも、以下の処理と同様の処理が行なわれることにより視野の位置ずれの大きさ、および視野の移動方向が求められる。
図12は、図7のステップS23におけるカメラの視野の位置ずれ移動方向の推定を説明する図である。図12において、破線の枠で囲まれた領域はカメラの視野を示す。また、実線の枠は、目標位置を含むカメラの視野を示す。図12中の矢印によって示されるように、カメラの視野を破線の枠で囲まれた領域から実線の枠で囲まれた領域まで移動させる必要がある。
既に述べたように、カメラ向き推定部31は、ステップS22の処理においてカメラの視野の中央に記載された数字(23)を認識する。一方、目標位置に対応する数字(56)はユーザによって予め設定される。これにより目標位置を基準とした、視野の中心の相対位置が特定される。
カメラ向き推定部31は、数字「23」が記載された長方形の中心と数字「56」が記載された長方形の中心とを結ぶ線分の距離を算出することにより視野の中心位置と目標位置との距離を算出する。長方形の長辺および短辺の長さ、ならびに数字(1〜100)の配置に関する情報は、予めターゲット情報パラメータ記憶部25に記憶されている。したがって、たとえば、演算部21は数字「23」と記載された長方形の中心と、数字「56」が記載された長方形の中心と、数字「26」が記載された長方形の中心とを頂点とする直角三角形(図12において破線で示す)の3辺の長さを算出する。その直角三角形の斜辺の長さが目標位置に対する位置ずれの大きさである。
さらに、カメラ向き推定部31は、カメラの視野の中心の相対位置の変化に基づいて、カメラの視野の移動方向を求めるともに、その移動方向が目標位置に対して近づく方向(以下では正方向と呼ぶ)および遠ざかる方向(以下では逆方向と呼ぶ)のいずれであるかを判断する。
図12に示す矢印の方向は「+X方向および+Y方向」である。カメラ向き推定部31は、カメラ1の視野の移動方向が「+X方向および+Y方向」であれば、視野の移動方向が正方向であると判断する。カメラ1の視野の移動方向が「+X方向」かつ「+Y方向」でない場合(たとえば「+X方向および−Y方向」に視野が移動する場合)には、カメラ向き推定部31は視野の移動方向が逆方向であると判断する。
なお、視野の移動方向の検出のためのアルゴリズムには公知のものを用いることができる。たとえばオプティカルフローを利用した動体検出のプログラムを実行することによりカメラの視野の移動方向が検出される。
カメラ向き推定結果−パラメータ比較部34は、算出した位置ずれの大きさと、調整パラメータ記憶部26に記憶されるパラメータとを用いて、位置ずれの度合いを求める。
図13は、カメラ向き推定結果−パラメータ比較部34により求められる位置ずれの度合いを示す図である。図13を参照して、位置ずれ量Dは、カメラ向き推定部31が算出した位置ずれの大きさであり、A,B,Cは調整パラメータ記憶部26に記憶されるパラメータである。
位置ずれ量DがA以下の場合には、位置ずれの度合いは「1」である。位置ずれ量DがAより大きくかつB以下の場合には、位置ずれの度合いは「2」である。位置ずれ量DがBより大きい場合には、位置ずれの度合いは「3」である。つまり位置ずれの度合いを示す数字が小さくなるほどカメラの視野の中心位置が目標位置に近づく。なおAは0以上かつBより小さい値である。
カメラ向き推定結果−パラメータ比較部34は、カメラの視野の動きが止まっている場合に、位置ずれの度合いを示す情報を出力制御部22に出力する。また、カメラの視野が動いている場合、カメラ向き推定部31は出力制御部22にカメラの視野の移動方向を示す情報を出力する。出力制御部22は、これらの情報に基づいて報知部30の報知の態様(報知パターン)を決定する。
図14は、出力制御部22により決定される報知部30の報知パターンを示す図である。
図14(A)は、位置ずれの度合いと報知パターンとの対応関係を示す図である。図14(A)を参照して、位置ずれの度合い「1」,「2」,「3」とパターン1〜3とがそれぞれ対応付けられる。
図14(B)は、視野の移動方向と、報知パターンとの対応関係を示す図である。図14(B)を参照して、視野の移動方向が「正」の場合の報知パターンはパターン4である。視野の移動方向が「逆」の場合の報知パターンはパターン5である。
なお、フォーカスずれおよび絞りのずれの演算は、たとえば以下のように実行される。フォーカス推定部32は、ターゲット40の表面に形成された格子の線の太さを測定することによりフォーカスずれを推定する。絞り推定部33は、ターゲット表面の黒色の領域と白色の領域とのコントラストに基づいて絞りのずれを推定する。
[出力制御部22による報知部の制御]
まず、出力制御部22が光源13を制御する例について説明する。
図15は、図14のパターン1〜パターン5に対応する光源13の発光状態を説明する図である。図15を参照して、「オン状態」とは光源13から光が出力されている状態であり、「オフ状態」とは光源13から光が出力されていない状態に対応する。なお、以下に説明するパターンの情報は出力制御部22に予め記憶されている。
パターン1の場合、光源13は光を連続的に出力する。
パターン2の場合、光源13は、一定の時間が経過するごとに3回点滅する。
パターン3の場合、光源13は、一定の時間が経過するごとに3回点滅する。なおパターン2に比べてパターン3のほうが、ある点滅動作と、その点滅動作の次の点滅動作との間隔が長くなる。
パターン4の場合、一定の時間が経過するごとに光源13が1回点滅する。
パターン5の場合、一定の時間が経過するごとに光源13は5回点滅する。
図14(A)および図15を参照して、位置ずれの度合いが小さくなるに連れて、報知パターンがパターン3,パターン2,パターン1の順に変化する。したがって点滅動作の繰返し間隔が短くなる。これにより、ユーザは、カメラの視野の中心が目標位置に近づいたことを容易に把握することができる。
また、ユーザは、光源13の点滅回数から、カメラの視野の移動方向が正方向および逆方向のいずれであるかを把握できる。
出力制御部22がスピーカー12を制御する例について説明する。この場合にも出力制御部22は図15のパターン1〜パターン5に従って、スピーカー12を制御する。図15において、スピーカー12が音声を出力する状態が「オン状態」である。
出力制御部22がスピーカー12および光源13を制御する例について説明する。この場合にも出力制御部22はパターン1〜パターン5に従って、スピーカー12と光源13とを同時に制御する。これにより、「オン状態」において音と光とが同時に発せられる。
なお、図14(A),(B)に示すパターン1〜パターン5に対応する報知の態様は上述の態様に限定されない。出力制御部22は、スピーカー12から発せられる音の周波数を報知パターンに応じて変化させてもよい。また、スピーカー12から音声メッセージが出力される場合、出力制御部22は、報知パターンに応じて音声メッセージの内容を変えてもよい。
同様に、出力制御部22は、報知パターンに応じて光源13の明るさを変化させてもよい。また、出力制御部22は、光源13から発せられる光の色を変化させてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本実施の形態に従う撮像システム50を説明する図である。 撮像システム50の全体構成を説明するブロック図である。 スピーカー12および光源13の配置の具体例を示す図である。 図2に示す撮像システムの処理フローを示す図である。 ワークディスタンスが短い場合の複数のカメラの設置処理を示すフローチャートである。 カメラの視野の大きさとターゲットの大きさとの関係がワーキングディスタンスにより変化することを示す図である。 本実施の形態に従うカメラの調整を示すフローチャートである。 ターゲット40の第1の例を示す図である。 ターゲット40の第2の例を示す図である。 ターゲット40の第3の例を示す図である。 図7のフローチャートにおけるステップS22の処理を詳細に説明するための図である。 図7のステップS23におけるカメラの視野の位置ずれ移動方向の推定を説明する図である。 カメラ向き推定結果−パラメータ比較部34により求められる位置ずれの度合いを示す図である。 出力制御部22により決定される報知部30の報知パターンを示す図である。 図14のパターン1〜パターン5に対応する光源13の発光状態を説明する図である。
符号の説明
1,2 カメラ、3 タッチパネル、4 キーボード、10 入力部、11 モニタ、12 スピーカー、13 光源、15 画像処理装置、20 パラメータ部、21 演算部、22 出力制御部、25 ターゲット情報パラメータ記憶部、26 調整パラメータ記憶部、27 画像処理部、28 比較部、30 報知部、31 カメラ向き推定部、32 フォーカス推定部、33 絞り推定部、34 カメラ向き推定結果−パラメータ比較部、35 フォーカス推定結果−パラメータ比較部、36 絞り推定結果−パラメータ比較部、40 ターゲット、41,42 円形パターン、43 交点、44 白黒パターン、50 撮像システム、100 ワーク、A1,A2 領域。

Claims (10)

  1. カメラと、
    前記カメラの撮像対象であるターゲットと、
    前記カメラが前記ターゲットの全体を撮像したときの画像に対応する全体パターン、前記全体パターンに含まれる所定の基準パターン、および前記カメラの視野内において前記基準パターンが配置されるべき目標位置に関するパターン情報を記憶する記憶部と、
    前記カメラが撮像した前記ターゲットの撮像画像と、前記記憶部に記憶される前記パターン情報とを用いて、前記撮像画像内に含まれる前記基準パターンの前記撮像画像内の位置を算出するとともに、その算出した前記撮像画像内の前記基準パターンの位置に基づいて、前記目標位置に対するずれの度合いを求める演算部と、
    前記演算部が求めた前記ずれの度合いを報知するための報知部と、
    前記報知部を制御する制御部とを備え、
    前記制御部は、前記演算部が求めた前記ずれの度合いに応じて、前記報知部の報知の態様を変化させ
    前記ターゲットの表面は、その中心部に前記基準パターンが配置されるとともに、前記中心部の周囲に周囲領域が配置され、
    前記カメラから撮像距離だけ離れた位置に前記カメラに向けて前記ターゲットが設置された場合において、前記周囲領域の外側輪郭線の間隔は、前記カメラの視野を基準面とすると、前記基準面の幅より大きく、かつ、前記基準パターンの周囲に前記基準パターンを中心として互いに対称な2方向にそれぞれ前記基準面を並べることにより形成される領域の幅よりも小さく、
    前記基準パターンは、前記ターゲットの表面内の前記周囲領域に形成されたパターンとは異なるパターンであり、
    前記パターン情報において、前記目標位置は前記カメラの視野内の中心に設定される、撮像システム。
  2. カメラと、
    前記カメラの撮像対象であるターゲットと、
    前記カメラが前記ターゲットの全体を撮像したときの画像に対応する全体パターン、前記全体パターンに含まれる所定の基準パターン、および前記カメラの視野内において前記基準パターンが配置されるべき目標位置に関するパターン情報を記憶する記憶部と、
    前記カメラが撮像した前記ターゲットの撮像画像と、前記記憶部に記憶される前記パターン情報とを用いて、前記撮像画像内に含まれる前記基準パターンの前記撮像画像内の位置を算出するとともに、その算出した前記撮像画像内の前記基準パターンの位置に基づいて、前記目標位置に対するずれの度合いを求める演算部と、
    前記演算部が求めた前記ずれの度合いを報知するための報知部と、
    前記報知部を制御する制御部とを備え、
    前記制御部は、前記演算部が求めた前記ずれの度合いに応じて、前記報知部の報知の態様を変化させ、
    前記ターゲットの表面は、その中心部に前記基準パターンが配置されるとともに、前記中心部の周囲に周囲領域が配置され、
    前記カメラから撮像距離だけ離れた位置に前記カメラに向けて前記ターゲットが設置された場合において、前記周囲領域の外側輪郭線の間隔は、前記カメラの視野を基準面とすると、前記基準パターンの周囲に前記基準パターンを中心として互いに対称な2方向にそれぞれ前記基準面を並べることにより形成される領域の幅よりも大きく、
    前記周囲領域には、前記基準面よりも小さい領域ごとに1つの密度で、互いに異なるとともに前記基準パターンとも異なる複数のパターンが配置され、
    前記パターン情報において、前記目標位置は前記カメラの視野内の中心に設定される、撮像システム。
  3. 前記基準パターンは、前記カメラの視野の中心の目標位置を基準とした、前記視野の中心の相対位置を特定するためのパターンであり、
    前記演算部は、前記撮像画像内に含まれる前記基準パターンの前記撮像画像内の位置として、前記相対位置を算出し、算出した相対位置に基づいて、前記カメラの視野の中心の目標位置と前記視野の中心の位置とのずれの度合いを求める、請求項1または2に記載の撮像システム。
  4. 前記演算部は、さらに、前記カメラが撮像した前記基準パターンの画像と、前記記憶部に記憶される前記基準パターンに関する情報とに基づいて、前記カメラの視野が移動中か否か判定するとともに、前記カメラの視野が移動中である場合には、前記カメラの視野の中心の目標位置に対する前記視野の中心の位置の相対位置の変化に基づいて、前記カメラの視野の移動方向を求め、
    前記制御部は、前記演算部が求めた前記カメラの視野の移動方向に応じて、前記報知部の報知の態様を変化させる、請求項3に記載の撮像システム。
  5. 前記制御部は、前記カメラの視野の移動方向が前記視野の中心の目標位置に近づく方向である場合と、前記カメラの視野の移動方向が前記視野の中心の目標位置から遠ざかる方向である場合とで、前記報知の態様を異ならせる、請求項に記載の撮像システム。
  6. 前記報知部は、光源を含み、
    前記制御部は、前記光源から出力される光の出力パターンを変化させることにより、前記報知の態様を変化させる、請求項1からのいずれか1項に記載の撮像システム。
  7. 前記報知部は、音声出力装置を含み、
    前記制御部は、前記音声出力装置から出力される音声の出力パターンを変化させることにより、前記報知の態様を変化させる、請求項1からのいずれか1項に記載の撮像システム。
  8. 前記報知部は、
    光源と、
    音声出力装置とを含み、
    前記制御部は、前記光源から出力される光の出力パターンと前記音声出力装置から出力される音声の出力パターンとを同時に変化させることにより、前記報知の態様を変化させる、請求項1からのいずれか1項に記載の撮像システム。
  9. 前記報知部は、前記カメラに取り付けられる、請求項1からのいずれか1項に記載の撮像システム。
  10. 前記カメラは複数設けられる、請求項1からのいずれか1項に記載の撮像システム。
JP2007254804A 2007-09-28 2007-09-28 撮像システム Active JP4935606B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007254804A JP4935606B2 (ja) 2007-09-28 2007-09-28 撮像システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007254804A JP4935606B2 (ja) 2007-09-28 2007-09-28 撮像システム

Publications (2)

Publication Number Publication Date
JP2009088881A JP2009088881A (ja) 2009-04-23
JP4935606B2 true JP4935606B2 (ja) 2012-05-23

Family

ID=40661732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007254804A Active JP4935606B2 (ja) 2007-09-28 2007-09-28 撮像システム

Country Status (1)

Country Link
JP (1) JP4935606B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6703463B2 (ja) * 2016-09-13 2020-06-03 株式会社ディスコ 調整方法及び装置
JP7142320B2 (ja) * 2018-04-19 2022-09-27 パナソニックIpマネジメント株式会社 加熱調理器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09133514A (ja) * 1995-11-10 1997-05-20 Hitachi Koki Co Ltd 画像測定装置
JP2005354306A (ja) * 2004-06-09 2005-12-22 Brother Ind Ltd 画像入出力装置
JP4470187B2 (ja) * 2004-12-03 2010-06-02 株式会社日立メディコ 超音波装置、超音波撮像プログラム及び超音波撮像方法
US8233041B2 (en) * 2005-06-17 2012-07-31 Omron Corporation Image processing device and image processing method for performing three dimensional measurements

Also Published As

Publication number Publication date
JP2009088881A (ja) 2009-04-23

Similar Documents

Publication Publication Date Title
JP6394281B2 (ja) 車載注意喚起システム、報知制御装置
EP2416113B1 (en) Position and orientation measurement apparatus and position and orientation measurement method
JP2015142181A (ja) 制御装置、制御方法
JP5584832B2 (ja) 円柱状物体の直径測定装置及び測定方法、測定プログラム
JP2004260785A (ja) 画像歪み補正機能を備えたプロジェクタ装置
JP2006349586A (ja) 3次元計測方法および3次元計測装置
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
JP2008021092A (ja) ロボットシステムのシミュレーション装置
KR20110019821A (ko) 중장비 동작 안전 모니터링 시스템 및 방법
JP2009053147A (ja) 3次元計測方法および3次元計測装置
JP2011186928A (ja) 情報処理装置および情報処理装置の制御方法
JP5624370B2 (ja) 移動体検出装置及び移動体検出方法
JPWO2014076769A1 (ja) 検出装置、方法及びプログラム
JP2012168845A (ja) 物体検出装置、および、物体検出方法
JP2022120663A (ja) 装置判別システム、装置判別方法及び装置判別プログラム
JP2012226645A (ja) 画像処理装置および方法、記録媒体並びにプログラム
JP4935606B2 (ja) 撮像システム
JP2011185630A (ja) シーラー塗布形状監視装置
KR20120068014A (ko) 표면 검사용 조명·촬상 시스템 및 데이터 구조
US11559888B2 (en) Annotation device
WO2020111053A1 (ja) 監視装置、監視システム、監視方法、監視プログラム
JP2021027584A (ja) 画像処理装置、画像処理方法およびプログラム
JP2015200976A (ja) 移動量推定装置、移動量推定方法、およびプログラム
JP2007010419A (ja) 対象物の3次元形状検証システム。
JP2021026599A (ja) 画像処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4935606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150