JP6841297B2 - ビジュアルサーボシステム - Google Patents

ビジュアルサーボシステム Download PDF

Info

Publication number
JP6841297B2
JP6841297B2 JP2019103056A JP2019103056A JP6841297B2 JP 6841297 B2 JP6841297 B2 JP 6841297B2 JP 2019103056 A JP2019103056 A JP 2019103056A JP 2019103056 A JP2019103056 A JP 2019103056A JP 6841297 B2 JP6841297 B2 JP 6841297B2
Authority
JP
Japan
Prior art keywords
image
robot
reference image
camera
visual servo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019103056A
Other languages
English (en)
Other versions
JP2020196081A (ja
Inventor
巧人 矢野
巧人 矢野
真広 濃野
真広 濃野
一弘 小菅
一弘 小菅
翔悟 荒井
翔悟 荒井
義大 宮本
義大 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Denso Corp
Original Assignee
Tohoku University NUC
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Denso Corp filed Critical Tohoku University NUC
Priority to JP2019103056A priority Critical patent/JP6841297B2/ja
Priority to US16/886,821 priority patent/US20200376678A1/en
Publication of JP2020196081A publication Critical patent/JP2020196081A/ja
Application granted granted Critical
Publication of JP6841297B2 publication Critical patent/JP6841297B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Program-controlled manipulators
    • B25J9/16Program controls
    • B25J9/1694Program controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Program-control systems
    • G05B19/02Program-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of program data in numerical form
    • G05B19/188Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of program data in numerical form characterised by special applications and not provided for in the relevant subclasses, (e.g. making dies, filament winding)
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39391Visual servoing, track end effector with camera image feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、ビジュアルサーボシステムに関するものである。
従来、操作物体を操作するロボットを制御する技術として、ビジュアルサーボが知られている。ビジュアルサーボでは、ロボットによって操作物体を目標の位置と姿勢に位置決めするため、操作中の物体がカメラによって撮影される。これによって得られた画像が現在画像である。また、事前に目標の位置と姿勢でロボットが物体を把持しているシーンがカメラで撮像される。これによって得られた画像が目標画像である。ビジュアルサーボでは、この目標画像と現在画像からロボットへの制御入力が算出される。制御入力の計算法としては、画像ベース法が知られている。画像ベース法では、目標画像の特徴量に対する現在画像の特徴量の偏差に基づいて、制御入力が決定される(非特許文献1参照)。
橋本、"日JALサーボ−V−特徴ベースビジュアルサーボ"、"システム/制御/情報、Vol.54、No.5、pp206−213、2010
しかし、画像ベース法を用いたビジュアルサーボでは、目標の位置の近傍で目標画像の特徴量に対する現在画像の特徴量の偏差が小さくなり、位置決めにかかる時間が増大する。
本発明は上記点に鑑み、画像ベース法を用いたビジュアルサーボにおいて、目標の位置の近傍で目標画像に対する現在画像の特徴量の偏差を従来よりも大きくすることを目的とする。
上記目的を達成するための請求項1に記載の発明は、物体を移動させるビジュアルサーボシステムであって、前記物体(5)を操作するロボット(1)と、前記ロボットに操作される前記物体に光を照射すると共に、前記ロボットとは異なる位置に固定される照射装置(2)と、前記照射装置が照射した光が前記物体に当たっている状態で前記物体を撮影して現在画像を出力すると共に、前記ロボットとは異なる位置に固定されるカメラ(3)と、前記物体が目標の位置および姿勢にあって前記照射装置から照射された光が前記物体に当たっていれば前記カメラによって撮影されると想定される目標画像を記憶媒体から読み出す読出部と、前記現在画像と前記目標画像の輝度値の差に基づいて前記ロボットへの制御入力を算出して前記ロボットへ入力する入力部と、を備え、前記照射装置によって照射される光は、所定の方向に沿って輝度値が変動する参照画像に従った輝度分布を有する光であり、前記参照画像において、前記所定の方向に交差する他の方向に沿っても輝度値が変動し、前記参照画像において、前記他の方向に沿って輝度値の大小が交互に入れ替わり、前記他の方向は前記所定の方向に直交し、前記参照画像は格子模様の画像となる、ビジュアルサーボシステムである。
このように、目標画像および現在画像の輝度値を特徴量として用い、かつ、所定の方向に沿って輝度値が変動する参照画像に従った輝度分布の光が用いられることで、目標の位置の近傍において、目標画像に対する現在画像の特徴量の偏差を従来よりも大きくすることができる。これは、目標画像および現在画像の輝度値を特徴量として用いた場合、参照画像における画素に関する輝度値の1階微分の自乗が大きいほど、目標画像に対する現在画像の特徴量の偏差が大きくなるからである。
なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。
実施形態に係るビジュアルサーボシステムの概略構成図である。 参照画像の一部を示す図である。 照射によって物体に表れる模様を示す図である。 ビジュアルサーボシステムの作動ブロック図である。 数式を示す図である。 プロジェクタ2、カメラ3、物体5の位置関係を示す図である。 数式を示す図である。 種々のN、Mにおけるにじみの評価結果を示す表である。 本実施形態における位置決め精度と収束速度を示す実験結果である。 プロジェクタが照射しない場合における位置決め精度と収束速度を示す実験結果である。 実験環境を示す図である。 三次元的な位置決め誤差を表す図である。
以下、本発明の一実施形態について説明する。本実施形態のビジュアルサーボシステムは、図1に示すように、ロボット1と、プロジェクタ2と、カメラ3と、制御装置4と、を備えている。プロジェクタ2は照射装置に対応する。
ロボット1は、生産工場等に配置される産業用ロボットアームであり、部品等の物体5を把持して、物体5に対してあらかじめ定められた目標の位置および姿勢が実現するよう、物体5を移動させる。目標の位置は、例えば、床6の上に置かれたキッティングトレー7内の所定位置である。ロボット1は、このような機能を実現するため、部品を把持するハンド11、複数のリンク12、13、14、および複数の関節15、16、17を有している。
ハンド11は、物体5を把持および開放することができる不図示の把持機構を有する部材である。リンク12の一端は関節15を介してハンド11に接続される。リンク13の一端は関節16を介してリンク12の他端に接続される。リンク14の一端は関節17を介してリンク13の他端に接続され、他端は固定物18に接続されている。
関節15は、サーボモータ等で構成され、ハンド11のリンク12に対する位置および姿勢を変化させる。関節16は、サーボモータ等で構成され、リンク12のリンク13に対する位置および姿勢を変化させる。関節17は、サーボモータ等で構成され、リンク13のリンク14に対する位置および姿勢を変化させる。
ロボット1は、このようなものに限らず、ハンドと、複数のリンクと、それらハンドとリンクの間の相対位置および相対姿勢を変化させる1個以上の関節とを備えるものであれば、どのようなものでもよい。例えば、5軸制御のロボットアームであってもよい。
プロジェクタ2は、ロボット1が物体5を把持して操作し、目標の位置の近傍にある物体5に光を照射する装置である。プロジェクタ2は、ロボット1とは異なる位置に固定されている。また、プロジェクタ2の光学中心および光軸は、固定である。プロジェクタ2によって照射される光は、プロジェクタ2内においてあらかじめ記憶された参照画像に従った輝度分布の光である。参照画像は、プロジェクタ画像ともいう。参照画像の詳細については後述する。
カメラ3は、ロボット1が物体5を把持して操作し、目標の位置の近傍にある物体5およびその近傍を撮影し、その結果得られた撮影画像である現在画像を、制御装置4に出力する。カメラ3は、ロボット1とは異なる位置に固定されている。また、カメラ3の光学中心および光軸は、固定である。
制御装置4は、カメラ3から取得した現在画像に基づいて、物体5が目標の位置および姿勢を実現するよう、ロボット1を制御する装置である。制御装置4は、メモリ41、演算部42等を有する装置であり、例えば、マイクロコンピュータであってもよい。メモリ41は、RAM、ROM、フラッシュメモリ等を含む非遷移的実体的記憶媒体である。演算部42は、メモリ41からプログラムを読み出して当該プログラムに従った処理を実行することで、以下で説明する処理を実行する。
ここで、参照画像について説明する。参照画像は、図2に示すように、所定の方向Xpに沿ってもそれに交差直交する他の方向Ypに沿っても輝度値が変化する画像である。また、参照画像は、輝度値が高輝度値の部分と低輝度値の部分が所定の方向Xpに沿っても他の方向Ypに沿っても交互に入れ替わる画像である。図2においては、白色部分が高輝度値の画素を示し、黒色部分が低輝度値の画素を示している。
より具体的には、方向Xpに沿って、輝度値が高輝度値と低輝度値の間でN個の画素毎に交互に入れ替わる。また、方向Ypに沿って、輝度値が高輝度値と低輝度値の間でM個の画素毎に交互に入れ替わる。ここで、NおよびMは1でもよいし2以上でもよい。また、NとMは同じ値であってもよいし異なっていてもよい。例えばN=M=45である。
ここで、高輝度値は低輝度値よりも高い値である。例えば、高輝度値が設定上の最大輝度値(例えば255)で低輝度値は設定上の最小輝度値(すなわちゼロ)であってもよいし、そうでなくてもよい。高輝度値と低輝度値の差の絶対値は、最大輝度値と最小輝度値の差の絶対値の1/2以上であってもよいし、1/3以上であってもよい。また、高輝度値は、参照画像中のすべての画素で同じ値であってもよいし、同じ値でなくてもよい。同様に、低輝度値は、参照画像中のすべての画素で同じ値であってもよいし、同じ値でなくてもよい。
以下、ビジュアルサーボシステムの作動について説明する。ロボット1は、まず物体5を把持した状態で、目標の位置の近傍まで物体5を移動させる。これにより、物体5は、プロジェクタ2の照射範囲内かつカメラ3の撮影範囲内に入る。
したがって、物体5には、プロジェクタ2によって参照画像に従った輝度分布で照射された光が当たる。物体5の表面に当たった光は、反射してカメラ3に入射する。このとき、カメラ3によって撮影されて出力される現在画像においては、図3に示すように、物体5の表面に参照画像に対応した模様が表れている。ただし、物体5の表面の形状や傾きに応じて、物体5の表面に表れる模様は、参照画像に対して歪んでいる。
図4に示すように、このようにしてカメラ3から出力される現在画像は、制御装置4によって取得される。制御装置4の演算部42は、カメラ3から現在画像を取得すると、この現在画像の輝度値と、メモリ41から読み出した目標画像の輝度値との差を、算出する。なお、輝度値の差は、2つの画像において対応する画素間での差である。
ここで、メモリ41に記録されている目標画像について説明する。目標画像は、物体5が目標の位置および姿勢にあってプロジェクタ2から照射された光が物体5に当たっていればカメラ3によって撮影されると想定される画像である。この目標画像は、あらかじめ物体5または物体5と同じ材質、形状、表面形状を有するものを、ロボット1に把持させて、目標の位置および姿勢におき、プロジェクタ2に照射を行わせ、カメラ3に撮影を行わせることで、取得可能である。このようにして取得された目標画像は、あらかじめ制御装置4のメモリ41(例えば不揮発性メモリ)に記録され、その後、ロボット1の制御時に演算部42によって上述のように読み出される。演算部42は、目標画像をメモリ41から読み出すことで、読出部として機能する。
更に演算部42は、算出された現在画像と目標画像の輝度値の差に、図2に示すように、画像ヤコビアンの擬似逆行列Jを作用させ、更に、ゲインλを乗算する。画像ヤコビアンは、従来と同様にあらかじめ決められる。ただしその際、画像の特徴量は画像の各画素の輝度値そのものである。画像ヤコビアンの擬似逆行列Jの作用およびゲインλの乗算の結果得られた値が、ロボット1に対する制御入力である。この制御入力は、関節15、16、17各々の角度θdの時間微分すなわち角速度である。このように、本実施形態のビジュアルサーボシステムの制御則は、図5の式(13)のようになる。ここで、I(t)が現在画像を示し、Iが目標画像を示す。演算部42は、この制御入力をロボット1に入力することで、入力部として機能する。
ロボット1は、このように入力された角度θdの時間微分に従って、関節15、16、17を作動させる。これにより、ロボット1は、物体5を目標の位置および姿勢に近づけるよう変位させる。このような現在画像に基づくロボット1の制御が時間の経過とともに繰り返されることで、物体5の位置が目標の位置および姿勢に十分近付くと、位置決めが完了する。
ここで、本実施形態の技術的意義について説明する。まず、従来の画像ベース法を用いたビジュアルサーボについて説明する。
従来からのビジュアルサーボ法の目的は、ロボットによって把持された物体を目標位置姿勢に位置決めを行うことである。操作中の物体は環境に設置された一台のカメラによって撮像される。また、事前に目標位置姿勢でロボットが物体を把持しているシーンをカメラで撮像し、目標画像とする。ビジュアルサーボでは、目標画像とフィードバックした現時刻の画像からロボットへの制御入力を計算する。制御入力の計算法には、位置ベース法と画像ベース法の二種類に大別されるが、ここでは画像ベース法について説明する。
画像ベース法では、画像から直接計算された特徴量をフィードバックしてロボットを制御する。ここで、特徴量とは、注目物体のエッジ、重心座標など、ロボットーカメラ間キャリブレーションやカメラモデルを利用せずに計算できる特徴を表す多次元ベクトルである。最も基礎的な制御測は、図5の式(1)によって与えられる。
ここで、θ∈Rはロボットの関節角速度指令値、λはゲイン、Jは画像ヤコビアンの疑似逆行列、s(I)は現在画像Iから特徴量への写像である。画像ヤコビアンは、目標画像と現在画像の偏差からロボットの関節角速度空間への写像であり、厳密にはロボットの関節角度に依存する。しかし、目標位置姿勢近傍では、画像ヤコビアンが一定とみなせると考え、時不変のヤコビアンを与えることも多い。この場合、画像ヤコビアンは、図5の式(2)で計算できる。ここで、図5の式(3)、(4)、(5)、(6)が成り立つ。
式(3)−(6)で、目標位置姿勢に操作物体があるときの画像特徴量と関節角度が、それぞれsとθで、操作物体を目標位置姿勢からわずかにずらしたときの画像特徴量と関節角度が、それぞれsとθで与えられている。つまり、式(2)で画像ヤコビアンを計算する際には、操作物体を目標位置姿勢からn回わずかにずらした画像を取得する必要がある。
以上で説明した画像ベース法には、
1.操作対象の物体にテクスチャが乏しいと位置決め誤差が発生しやすい
2.目標位置近傍で一般に画像偏差が小さくなり、位置決めにかかる時間が増大する
という問題が指摘されている。
以下、本実施形態の説明に戻る、本実施形態では、上記の問題に対応するためにプロジェクタ2が用いられている。
本実施形態のビジュアルサーボ法では、図1に示した様に、プロジェクタ2を使ってパタン光を操作物体に照射し、その反射光をカメラによって撮像し、画像ベースビジュアルサーボを行う。パタン光の投影によって、
1.テクスチャが乏しい操作物体に対する位置決め誤差を低減する、
2.目標位置近傍での画像偏差が大きくなり、位置決めにかかる時間が短縮する、
という2つの効果が期待される。パタン光は構造化光ともいう。ビジュアルサーボの位置決め精度を決める大きな要因の一つに参照画像に基づいた照射パタンがある。以下に、照射パタンの技術的意義を説明する。
図6に示す二次元空間を考える。この空間には、物体5、ロボット1、プロジェクタ2、カメラ3が設置されており、座標系Σが固定されている。カメラ3は、その光軸がZ軸方向に一致するように設置される。つまり、座標系Σはカメラ座標系である。カメラ3の撮像はピンホールカメラモデルに従うと仮定する。すなわち、位置(x,z)にある点は、透視投影変換によって、カメラ画像平面上の式(7)におけるXに投影される。
ここで、fはカメラ3の焦点距離である。プロジェクタ2は、位置(x,z)に、その光軸がz軸に対してθの角度をなすように設置される。このように設置されたプロジェクタ2の位置姿勢をξ:=[x,y,θと書く。また、プロジェクタ2の投影もピンホールカメラモデルに従うと仮定する。
いま、操作物体の位置姿勢をxと書き、二次元空間内で操作物体の表面形状を表す関数をs(x)で表す。物体5の目標位置姿勢をxとする。いま、ロボット1によって物体5を操作中に、少なくとも物体5の一部がカメラ3によって撮像され、かつ撮像された箇所にはプロジェクタ2によってパタン光が照射されていると仮定する。以上の条件の下で、参照画像平面上のXから照射された光が操作物体表面(x、s(x))で反射し、カメラ画像平面Xに到達すると考えることができる。いま、この関係を、参照画像平面からカメラプロジェクタ平面への写像gを用いて、図5の式(8)のように表す。
次に、プロジェクタ2から照射されるパタン光について考える。参照画像平面XからI(X)の輝度で照射を行う。つまり、I(X)が参照画像を表す関数である。
いま、カメラ画像平面Xに入射する光線の輝度を考える。この光線は、図5の式(9)に示されるプロジェクタ画素Xから照射される光である。ここで、g−1はgの逆関数である。このプロジェクタ画素から照射された光線の輝度はI(X)であるので、式(9)を使うと、Xに入射する光の強度p(X、x)は、図5の式(10)のように書ける。ここでは、プロジェクタ2から照射された輝度がカメラ3で観測される輝度に等しいと仮定した。
いま、物体5が目標位置ξに移動したとき、同じカメラ画像平面Xに入射する光線は、図5の式(11)に示すプロジェクタ画素X から照射される。したがって、カメラ画素Xで観測される輝度p(X、x)は、図5の式(12)のようになる。
ここで、本実施形態のビジュアルサーボシステムの制御側は、図5の式(13)で与えられる。式(13)は、式(1)の特徴量sを画像Iに変更することによって得られる。画像Iは各画素に輝度値が格納されている行列データである。したがって、画像から特徴量を抽出する計算を必要とせず、式(1)で表される従来の画像ベース法と比較して、高速な計算が可能となる。
位置決め誤差を低減し、位置決めにかかる時間を短縮するために、目標位置近傍で式(13)の画像偏差を最大化する照射パタンIを、式(14)に基づいて求める。ここで、式(15)が成立し、|ξ|はベクトルξのユークリッドノルムを表す。位置姿勢xが目標位置姿勢近傍であることを考慮して、式(15)をx近傍でテーラー展開すると、図7の式16を得る。ここで、O(Δx)はΔx:=x−xの3次以降の余剰項を表す。
式(17)において、BとCはそれぞれ、物体5の形状、カメラ3とプロジェクタ2の位置姿勢に依存する。項Aは、照射パタンに依存する項なので、これを最大化するIを求める。いま、X=g(s(x)、X)であるので、項Aは、式(18)の様に書ける。この式は、参照画像平面上で照射輝度を画素座標で1階微分した際の大きさを表している。参照画像はある大きさを持つ画素から構成されることを考慮すれば、式(17)を最大化する照射パタンは、例えば、格子パタンとなる。このような観点から、本実施形態では、参照画像として、既に説明した格子模様の画像が用いられる。
ただし、参照画像に従ってプロジェクタ2が照射した光による物体5表面の模様を異なるカメラ3で撮影した場合、にじみが発生する場合がある。にじみは、上述の参照画像におけるN、Mの値が小さいほど発生し易い。
図8に、N、Mについて種々の値を設定したときの、カメラ3で撮影された現在画像におけるにじみの程度の実験結果を示す。この図において、黒ピクセル平均値とは、1つの現在画像において、輝度値が126以下の画素を黒ピクセルに分類したときの、当該現在画像全体における黒ピクセルの輝度値の平均値である。同様に、白ピクセル平均値とは、1つの現在画像において、輝度値が127以上の画素を白ピクセルに分類したときの、当該現在画像全体における白ピクセルの輝度値の平均値である。そして、差分は、白ピクセル平均値と黒ピクセル平均値の差である。この差分が大きいほど、にじみが少ない。なお、この実験における各画素がとれる値の範囲は、最低輝度値0以上かつ最高輝度値255以下である。図8の実験結果においては、N=M=45となる場合が、最もにじみが少ないと共に、白ピクセル平均値が高かった。またN、Mが、2以上の方が、1である場合に比べ、にじみが少ない。
図9に、本実施形態における位置決め精度と収束速度を示す実験結果を示す。また、図10には、比較例として、図9の実験と同じ条件でプロジェクタ2による照射を行わなかった場合の実験結果を示す。なお、ゲインλの絶対値に関しては、図9の実験の方が図10の実験よりも大きい。図9、図10において、横軸は時間、縦軸は、目標画像と現在画像の画像偏差のSSDである。SSDは、Sum of Squared Differenceの略称である。
図9、図10の実験環境を図11に示す。カメラ3はフォトロン製のハイスピードカメラIDP−Express R2000、プロジェクタ2はエプソン製のEB−W420を使用した。カメラ3とプロジェクタ2の界オズ度はそれぞれ512×512[ピクセル]、1280×800[ピクセル]で、カメラのフレームレートは50[fps]である。
図9、図10に示すように、プロジェクタ2による照射を行った方が、そうでない場合に比べ、収束すなわち位置決めの完了が速いことがわかる。これは、本実施形態の方法で、目標画像に対する現在画像の特徴量の偏差が大きくなり、そのため、ゲインλの絶対値を大きくすることができるようになったからである。なお、図9の時点T1、図10の時点T2が、図4に示すビジュアルサーボ処理が開始した時点である。
また、図12に、比較例のビジュアルサーボと本実施形態の、終端時刻における、レーザーセンサで計測した3次元的な位置決め誤差を示す。このグラフが示す通り、本実施形態の方法で、位置決め誤差を顕著に低減することができる。
以上説明した通り、本実施形態においては、プロジェクタ2によって照射される光は、所定の方向Xpに沿って輝度値が変動する参照画像に従った輝度分布の光である。このように、目標画像および現在画像の輝度値を特徴量として用い、かつ、所定の方向Xpに沿って輝度値が変動する参照画像に従った輝度分布の光が用いられることで、目標の位置の近傍において、目標画像に対する現在画像の特徴量の偏差を従来よりも大きくすることができる。これは、上述の通り、目標画像および現在画像の輝度値を特徴量として用いた場合、参照画像における画素に関する輝度値の1階微分の自乗が大きいほど、目標画像に対する現在画像の特徴量の偏差が大きくなるからである。
また、参照画像において、所定の方向Xpに沿って輝度値の大小が交互に入れ替わる。このようになっていることで、画素に関する輝度値の1階微分の自乗の、参照画像全体における総和を、画素の輝度値が単調減少または単調増加する場合に比べ、大きくすることができる。ひいては、目標画像に対する現在画像の特徴量の偏差を大きくすることができる。
また、参照画像において、所定の方向Xpに沿って輝度値の大小が交互に入れ替わるのは、複数画素毎にである。このようになっていることで、カメラ3で撮影された画像における画素のにじみを低減することができ、ひいては、目標画像に対する現在画像の特徴量の偏差を大きくすることができる。
また、参照画像において、所定の方向Xpに交差する他の方向Ypに沿っても輝度値が変動する。このようになっていることで、目標の位置および姿勢に対するずれに対して、より柔軟に対応して、目標画像に対する現在画像の特徴量の偏差を大きくすることができる。
また、参照画像は格子模様の画像となる。このように、参照画像が格子模様の画像となることで、参照画像中のほぼ全方向に沿って、輝度値の大小が交互に入れ替わる。
(他の実施形態)
なお、本発明は上記した実施形態に限定されるものではなく、適宜変更が可能である。また、上記実施形態において、実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではない。また、上記実施形態において、実施形態の構成要素の個数、数値、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではない。特に、ある量について複数個の値が例示されている場合、特に別記した場合および原理的に明らかに不可能な場合を除き、それら複数個の値の間の値を採用することも可能である。また、上記実施形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に特定の形状、位置関係等に限定される場合等を除き、その形状、位置関係等に限定されるものではない。また、上記実施形態において、センサから車両の外部環境情報(例えば車外の湿度)を取得することが記載されている場合、そのセンサを廃し、車両の外部のサーバまたはクラウドからその外部環境情報を受信することも可能である。あるいは、そのセンサを廃し、車両の外部のサーバまたはクラウドからその外部環境情報に関連する関連情報を取得し、取得した関連情報からその外部環境情報を推定することも可能である。また、本発明は、上記実施形態に対する以下のような変形例および均等範囲の変形例も許容される。なお、以下の変形例は、それぞれ独立に、上記実施形態に適用および不適用を選択できる。すなわち、以下の変形例のうち明らかに矛盾する組み合わせを除く任意の組み合わせを、上記実施形態に適用することができる。
上記実施形態において、参照画像の輝度値が変動する方向Xp、Ypは、直交している。しかし、必ずしも直交していなくてもよい。直交している場合は、上記実施形態のように、参照画像は矩形の格子模様の画像であったが、直交していない場合は、参照画像は平行四辺形の格子模様の画像となる。また、参照画像は、格子模様に限らず、水玉模様であってもよい。
また、参照画像は、方向Xpに沿ってのみ輝度値が変動するようになっていてもよい。その場合、参照画像はストライプ模様の画像となる。
また、上記実施形態の参照画像は、方向Xpに沿って高輝度値と低輝度値が交互に入れ替わるようになっているが、必ずしもそのようになっていなくてもよい。例えば、参照画像においては、方向Xpに沿って輝度が単調増加または単調減少するようになっていてもよい。
上記実施形態では、照射装置として、プロジェクタ2が例示されているが、プロジェクタ2以外の装置が照射装置として使用されていてもよい。例えば、可視光レーザー照射装置が用いられてもよい。その場合でも、可視光レーザー照射装置は、参照画像に従った輝度分布の光を照射する。
本開示に記載の制御装置4及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御装置4及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御装置4及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
1 ロボット
2 プロジェクタ
3 カメラ
4 制御装置
5 物体

Claims (3)

  1. 物体を移動させるビジュアルサーボシステムであって、
    前記物体(5)を操作するロボット(1)と、
    前記ロボットに操作される前記物体に光を照射すると共に、前記ロボットとは異なる位置に固定される照射装置(2)と、
    前記照射装置が照射した光が前記物体に当たっている状態で前記物体を撮影して現在画像を出力すると共に、前記ロボットとは異なる位置に固定されるカメラ(3)と、
    前記物体が目標の位置および姿勢にあって前記照射装置から照射された光が前記物体に当たっていれば前記カメラによって撮影されると想定される目標画像を記憶媒体から読み出す読出部と、
    前記現在画像と前記目標画像の輝度値の差に基づいて前記ロボットへの制御入力を算出して前記ロボットへ入力する入力部と、を備え、
    前記照射装置によって照射される光は、所定の方向に沿って輝度値が変動する参照画像に従った輝度分布を有する光であり、
    前記参照画像において、前記所定の方向に交差する他の方向に沿っても輝度値が変動し、
    前記参照画像において、前記他の方向に沿って輝度値の大小が交互に入れ替わり、
    前記他の方向は前記所定の方向に直交し、
    前記参照画像は格子模様の画像となる、ビジュアルサーボシステム。
  2. 前記参照画像において、前記所定の方向に沿って輝度値の大小が交互に入れ替わる、請求項1に記載のビジュアルサーボシステム。
  3. 前記参照画像において、前記所定の方向に沿って輝度値の大小が複数画素毎に交互に入れ替わる、請求項2に記載のビジュアルサーボシステム。
JP2019103056A 2019-05-31 2019-05-31 ビジュアルサーボシステム Active JP6841297B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019103056A JP6841297B2 (ja) 2019-05-31 2019-05-31 ビジュアルサーボシステム
US16/886,821 US20200376678A1 (en) 2019-05-31 2020-05-29 Visual servo system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019103056A JP6841297B2 (ja) 2019-05-31 2019-05-31 ビジュアルサーボシステム

Publications (2)

Publication Number Publication Date
JP2020196081A JP2020196081A (ja) 2020-12-10
JP6841297B2 true JP6841297B2 (ja) 2021-03-10

Family

ID=73550644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019103056A Active JP6841297B2 (ja) 2019-05-31 2019-05-31 ビジュアルサーボシステム

Country Status (2)

Country Link
US (1) US20200376678A1 (ja)
JP (1) JP6841297B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230234233A1 (en) * 2022-01-26 2023-07-27 Nvidia Corporation Techniques to place objects using neural networks
US12440983B1 (en) * 2022-12-04 2025-10-14 Anyware Robotics Inc. Learning-embedded motion planning
CN119871430B (zh) * 2025-02-28 2025-10-14 华中科技大学 一种基于正交视觉系统的机器人空间视觉伺服控制方法及系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6841780B2 (en) * 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
JP5322206B2 (ja) * 2008-05-07 2013-10-23 国立大学法人 香川大学 3次元形状の計測方法および装置
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2015157339A (ja) * 2014-02-25 2015-09-03 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6357949B2 (ja) * 2014-07-29 2018-07-18 セイコーエプソン株式会社 制御システム、ロボットシステム、及び制御方法
JP2016217778A (ja) * 2015-05-15 2016-12-22 セイコーエプソン株式会社 制御システム、ロボットシステム、及び制御方法
JP2018044828A (ja) * 2016-09-13 2018-03-22 株式会社東芝 物体認識方法、プログラム、および光学システム
JP2018116032A (ja) * 2017-01-20 2018-07-26 キヤノン株式会社 被計測物の形状を計測する計測装置
JP2018144155A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6549644B2 (ja) * 2017-06-27 2019-07-24 ファナック株式会社 機械学習装置、ロボット制御システム及び機械学習方法
JP2019059004A (ja) * 2017-09-28 2019-04-18 セイコーエプソン株式会社 ロボットシステム
JP6734253B2 (ja) * 2017-12-20 2020-08-05 ファナック株式会社 ワークを撮像する視覚センサを備える撮像装置
US11153503B1 (en) * 2018-04-26 2021-10-19 AI Incorporated Method and apparatus for overexposing images captured by drones
JP7135495B2 (ja) * 2018-06-26 2022-09-13 セイコーエプソン株式会社 三次元計測装置、制御装置およびロボットシステム
JP7101250B2 (ja) * 2018-09-04 2022-07-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびプレイフィールド逸脱検知方法
DE102018218095B4 (de) * 2018-09-28 2022-01-13 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Kantenermittlung eines Messobjekts in der optischen Messtechnik und Koordinatenmessgerät
US20210299879A1 (en) * 2018-10-27 2021-09-30 Gilbert Pinter Machine vision systems, illumination sources for use in machine vision systems, and components for use in the illumination sources
US11328380B2 (en) * 2018-10-27 2022-05-10 Gilbert Pinter Machine vision systems, illumination sources for use in machine vision systems, and components for use in the illumination sources
CN113795355B (zh) * 2019-04-12 2025-02-18 株式会社尼康 驱动系统、终端效应器系统、终端效应器单元及配接器
KR20210028503A (ko) * 2019-09-04 2021-03-12 삼성전자주식회사 물체 인식 시스템 및 방법

Also Published As

Publication number Publication date
JP2020196081A (ja) 2020-12-10
US20200376678A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
JP6527178B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
US10647001B2 (en) Calibration device, calibration method, and computer readable medium for visual sensor
CN114310901B (zh) 用于机器人的坐标系标定方法、装置、系统以及介质
CN106408556B (zh) 一种基于一般成像模型的微小物体测量系统标定方法
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
US8619144B1 (en) Automatic camera calibration
JP6815309B2 (ja) 作動システムおよびプログラム
CN110136208A (zh) 一种机器人视觉伺服系统的联合自动标定方法及装置
JP6812095B2 (ja) 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
JP6984633B2 (ja) 対象物の位置姿勢を検出する装置、方法およびプログラム
JP6841297B2 (ja) ビジュアルサーボシステム
CN116051634B (zh) 一种视觉定位方法、终端及存储介质
CN106097300A (zh) 一种基于高精度运动平台的多相机标定方法
JP2015090298A (ja) 情報処理装置、情報処理方法
CN115861445A (zh) 一种基于标定板三维点云的手眼标定方法
CN109389645B (zh) 相机自校准方法、系统、相机、机器人及云端服务器
JP6582405B2 (ja) 組立装置、ロボットハンド位置修正方法、およびロボットハンド位置修正プログラム
CN114339058A (zh) 一种基于视觉标志的机械臂飞拍定位方法
CN115781698A (zh) 分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质
KR100784734B1 (ko) 산업용 로봇 시스템의 타원 보간방법
KR102696176B1 (ko) 머신 좌표계와 영상 좌표계의 정합 방법 및 장치
CN120014070A (zh) 一种基于三维机器视觉相机标定的方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R150 Certificate of patent or registration of utility model

Ref document number: 6841297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250