JP4044454B2 - Position measurement using zoom - Google Patents

Position measurement using zoom Download PDF

Info

Publication number
JP4044454B2
JP4044454B2 JP2003030249A JP2003030249A JP4044454B2 JP 4044454 B2 JP4044454 B2 JP 4044454B2 JP 2003030249 A JP2003030249 A JP 2003030249A JP 2003030249 A JP2003030249 A JP 2003030249A JP 4044454 B2 JP4044454 B2 JP 4044454B2
Authority
JP
Japan
Prior art keywords
measurement
image
zoom
data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003030249A
Other languages
Japanese (ja)
Other versions
JP2004239791A5 (en
JP2004239791A (en
Inventor
功一 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003030249A priority Critical patent/JP4044454B2/en
Publication of JP2004239791A publication Critical patent/JP2004239791A/en
Publication of JP2004239791A5 publication Critical patent/JP2004239791A5/ja
Application granted granted Critical
Publication of JP4044454B2 publication Critical patent/JP4044454B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、計測対象を単眼カメラのズーム機能により移動する焦点におけるスクリーン上に結像させて視差による三角測量法の原理により前記計測対象の位置を計測するズームによる位置計測方法に関する。特に、本発明は、自律ロボット等の、動き等が画像計測によって自動化される機械への適用を狙ったものである。つまり、視覚(カメラ)を有し、撮像した画像から環境や作業対象などの抽出、特定、認識等が行える自動化機械(ロボット)等に適用して有用である。
【0002】
【従来の技術】
一般的なロボットには、信号を対象物等に放出し、信号の変化から検出を行う能動センサが広く用いられている。能動センサの大きな欠点は、同種の信号を放出するセンサが同一環境下に複数個存在した場含、信号の混信が避けられないことである。例えば、能動センサとして一般的な超音波センサや赤外線センサは、互いの信号の干渉のために計測不可能となる場合が多い。このように、ロボットに搭載可能なセンサの種類は混信しない信号の組合せまでに制限されてしまう。さらに、複数のロボットが存在する環境下では、混信しない組合せのセンサを用意することはきわめて非現実的である。
【0003】
このような能動センサによる信号の混信間題に対して、視覚(カメラ)は、外部からの光を受けるだけなので信号の混信はない。また、将来、ロボットが周囲に複数存在するような県境を想定するならぱ、非干渉のセンサは不可欠であり、その点で視覚の利用は有力である。しかしながら、視覚の利用による間題点もあり、以下に述べる。ロボットの視覚では、二台以上のカメラから構成されるステレオ視による画像計測が広く利用されている。ステレオ視は、見え方の異なる二枚以上の画像から計測対象の位置を算出することになる。
【0004】
計測の前提条件としては、それぞれの画像上の計測対象が一致していなけれぱならないが、このために、類似のパターンが存在する環境では計測対象の対応付け(見分け、分解能)が困難な場合が生じる。また、計測対象の対応付けを行うためには、二台のカメラの正確な設置、明度やコントラスト等のカメラ・パラメータの調整は不可欠である。特に、複数のカメラの、明度などのカメラ・パラメータを完全に合わせることはほぽ不可能であり、殆どのステレオ視では色彩までの調整は行われていない。実際には、モノクロ・カメラでの明度・コントラスト調整までが限界である。
【0005】
そのようなことから、カメラのパラメータ調整およびステレオ視の対応付け間題を避けるために、単眼のカメラによる位置計測法が提案されている。これはマニピユレータ(ロボット・ハンド)等、先端にカメラを取り付けたもので、計測対象を迫跡(トラッキング)しながら、視点を移動させることにより、ステレオ視と同様に視差を得て、三角測量の原理で位置計測を行うものである。この方法では、マニピュレータの精度により比較的高精度に計測を行うことができるが、設備的には大規模となり、小型の移動型ロボット等には搭載できない。
【0006】
そこで、単眼カメラのズーム機能だけで位置計測を行う方法として、レンズの被写界深度を利用したレンズ焦点法(例えば下記非特許文献1参照)やズームレンズによる相似形撮像の画像処理装置(下記特許文献1参照)が拳げられる。これらの方法では、被写体のピントと焦点合わせ(焦点)の関係から、被写体までの距離を求める方法である。具体的には、オートフオーカス・カメラに広く利用された方法であるが、ロボットへ適用するには次の2つの間題がある。
【0007】
【非特許文献1】
K.Ohba,J.C.Pedraza Ortega:”Micro−observation technique for tele−micro−operation”,Advanced Robotics,vol.15,No.8,pp.779−878,2000.
【特許文献1】
特開平5−209730号公報(図2および段落0018)
【0008】
【発明が解決しようとする課題】
(l)これらの計測方法では被写体のピント合わせを行えることが前提であり、これらの技術を口ボットに搭載した場合、絶えず移動するロボットにピント合わせを自動的に判断させる必要がある。現時点で、ロボットにこの判断を要求することは困難である。また、(2)これらの方法による計測精度はカメラの被写体深度に依存するが、被写界深度が浅くなるほど、ピント合わせが困難になり、また、ロボットによる画像認識を考慮すると、ロボットが処理する画像はできるだけピントが合っていることが望ましい。したがって、ロボットの視覚には被写界の深度の浅いレンズは不適切である。さらに、前記特許文献1のズームレンズによる相似形撮像の画像処理装置では、微小な視差を精度良く測定する必要があって、事実上大きな誤差を生じ、実際の使用に耐えるものではない。
【0009】
そこで、本発明は、前記従来のズームによる位置計測方法の諸課題を解決して、誤差の予測や画像補間技術を用いて高解像度化技術を駆使することにより、自律移動するロボット等にも最適な単眼レンズを用いたズーム制御による低コストかつコンパクトな装置が実現できるズームによる位置計測方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
このため、本発明が採用した技術解決手段は、
計測対象を単眼カメラのズーム機能により移動する焦点におけるスクリーン上に結像させて視差による三角測量法の原理により前記計測対象の位置を計測するズームによる位置計測方法において、感光面を原点とする三次元座標に、ズーム制御とともに探索しつつ追跡した前記計測対象の画像を取得し、該取得した画像データから計測対象の位置を計測して該計測データを保存、処理するにあたり、少なくとも二つの焦点位置から計測点の三次元位置を求める際に、画像上での計測点の位置と焦点距離の組合せから求められた計測不可能な領域である計測の不確かさを計測精度の評価指標として採用し、ズーム制御により取得された計測対象の複数の画像データから最も計測精度の高い組合せを選定して計測点の三次元位置計測データとすることを特徴とするズームによる位置計測方法である。
また、前記ズーム制御とともに探索しつつ追跡した前記計測対象の画像の取得および該画像データからの計測データの保存制御と、前記単眼カメラのレンズの歪み補正、画像の拡大処理、不確かさを計測精度の評価指標とした計測データの確定制御とを並列的に行うようにするとともに、最も新しいデータを基準として、過去に遡るデータの探索を可能にしたことを特徴とするズームによる位置計測方法である。
また、前記取得した計測データにつき、画像が撮影された時点でのカメラの内部パラメータに基づいて、レンズの歪み補正を行うようにしたことを特徴とするズームによる位置計測方法である。
また、前記画像データの拡大処理を行うようにしたことを特徴とするズームによる位置計測方法である。
【0011】
【実施の形態】
以下、本発明のズームによる位置計測方法の実施の形態を図面に基づいて説明する。本発明の基本的な構成は、図2に示すように、計測対象Mを単眼カメラのズーム機能により移動する焦点におけるスクリーン上に結像させて視差による三角測量法の原理により前記計測対象の位置を計測するズームによる位置計測方法において、感光面を原点とする三次元座標に、ズーム制御とともに探索しつつ追跡した前記計測対象の画像を取得し、該取得した画像データから計測対象の位置を計測して該計測データを保存、処理することを特徴とするものである。
【0012】
以下、原理の説明および実験結果による優位性について詳述する。始めに、本発明のズームによる位置計測方法のロボット業界での有用性について述べる。現在、ヒューマノイドなどの高度知能ロボットの研究が盛んであるが、現在の成果は、手足等の機構が完成したに過ぎない。次のステップとしては、身体を持ったロボットが知能を獲得することであると考えられるが、現状ではセンシング・デバイスは貧弱であると言わざるを得ない。視覚(カメラ)は、知能ロボットの実現に有力なデバイスであるが、位置計測技術に関してステレオ視に代わるものはなく、本発明の計測方法はステレオ視とは別のアプローチとして確立する可能性が高い。将来的には、ロボットは小型化に向かう傾向もあり、本位置計測方法はその点でもステレオ視より有利である。
【0013】
<基本計測原理>
ズームによる位置計測方法は基本的にはステレオ視による計測方法と同様で、異なる二つの視点から計測点を求める方法である。その計測原理を図1に示す。この図はカメラの横から見た場合である。カメラから見える計測点Mは、ズームによって移動した焦点f1 , 2 , ・・・fn の位置により、スクリーン上の位置v1 ,v2 ,・・・vn のように見え方が異なる。これはステレオ視と同様に視差が生じていることを意味し、三角測量の計測原理より計測点Mの位置を求めることができる。
【0014】
図1および図2のように座標を定義したとき、感光面の位置を原点とし、スクリーン上に写る計測点の位置を時u,vとする。さらに、スクリーン上の計測点の位置(u,v)より、計測点Mの存在する方位θ,φと定義する。この座標系において、計測点Mの位置は次式で求めることができる。
x=(f2 −f1 )q1 2 /(q2 −q1
y=(f2 −f1 )p1 2 /(p2 −p1 )・・・・・・・・(1)
z=(f1 1 −f2 2 )/(p1 −p2
=(f1 1 −f2 2 )/(q1 −q2
ただし、q1 =tanφ1 、q2 =tanφ1 、p1 =tanθ1 、p2 =tanθ2 であり、ピンホール・モデルで考えると、q1 =v1 /f1 ,q2 =v2 /f2 ,p1 =u1 /f1 ,p2 =u2 /f2 として求めることができる。また、連続的に焦点距離を移動させた場合の焦点距離f1 ,f2 ,f3 ,・・・fn より、任意の焦点距離fi ,fj の画像から計測点の位置を求めることもできる。
【0015】
<計測のアルゴリズム>
本計測方法のおおまかなアルゴリズムを次の図3に示す。本アルゴリズムは、大きく二つの処理に分かれる。一つは、「計測対象の探索」を行い、画像を取得し、計測対象の追跡(トラッキング)をしながらズーム機構を制御し、計測データを記録する。この処理は連続的に行われる。追跡された計測対象については、撮像した画像のフレーム番号(撮像した時間)、その時点での計測対象の画像(スクリーン)上の位置と焦点距離等のカメラの内部パラメータ等、これらの組のデータが複数記録される。記録されたデータは、好適にはコンピユータ上のメモリに保存し、ある程度のデータを蓄積するようにする。また、追跡アルゴリズム上、過去の画像が必要となる場合もあるので、必要に応じてメモリ容量がある限り画像データを保存する場合もある。
【0016】
もう一つの処理の流れについて説明する。記録されたデータを取得し、画像が撮影された時点でのカメラの内部パラメータに基づいて「レンズの歪み補正」を行い、正確に、画像上の計測対象の位置(計測点)を定める。また、画像の解像度が不充分なときは、画像の拡大処理を行い、「画像解像度の分解能」を向上させる。本計測方法では、最低二つの焦点位置から計測点の三次元の位置を求めることができるが、計測精度として「計測の不確かさ」を画像上での計測点の位置と焦点距離の組合せから求めることができる。この計測の不確かさを計測精度の評価指標とし、記録された複数のデータから最も計測精度の高い組合せを選び、それを計測データと決定する。以上の二つの処理は、並列的に行わせるようにし、撮像遅れの影響を最小限に留めるために、現時点で記録されたばかりのデータを基準として、過去に遡るようにデータの探索を行う。
【0017】
<計測対象の探索>
本計測方法では、ズームの効果を有効利用するために、計測対象の追跡(トラッキング)を利用する。このためには、パン・チルト制御機構を有するカメラの利用が望ましい。図4に計測対象の追跡方法を示す、図4において、まず画像中から対象物の探索を行う(ステップ1)。たとえば図中の箱を計測する場合には、箱が画像の中心となるようにカメラの向きを制御する(ステップ2)。例えば、一般的な線分抽出アルゴリズムを適用した場合、箱の稜線(エッジ)を抽出することができ、線分の交点を計測点として選択することができる(図5はその一例)。このとき、箱を画像の中心になるようカメラを向けた状態であれば、ズームイン(望遠)によって計測点は画像上の縁に移動する。計測点が画像上を移動することは、「焦点の移動によって視差が生じていること」を意味する。本計測方法では、この原理を積極的に利用するために、カメラの向きを制御することが望ましい。
【0018】
<レンズの歪み補正>
本計測方法では、画像上の位置から計測点の方位を正確に求める必要がある。理想的には、光学系が既知のズーム・カメラを用いることが望ましい。しかし、一般的には複数のレンズを組合せてズーム機能が実現されており、この場合にはレンズの歪みが生じてしまう。このような場合には、レンズの歪みを補正する必要がある。レンズ補正のモデルの概要を図6に示す。図6は、ズーム・レンズのモデルを横から見た図である。これはピンホール・モデルを想定した場合で、例えば、ある計測点の方位を求める場合、モデル上から求められる計測点の方位と、実際に存在する計測点の方位との誤差があった場合には、係数αでレンズの歪みを補正する。p点における実際の計測点の方位θは、
θ=αtan-1(v/f)
より求められる。ただし、レンズの歪みは焦点距離と画像上の位置(感光面上の位置)によって、歪みの程度が異なる。このため、焦点距離、感光面上の位置毎に求め、これによって部分的な歪みをも補正することが可能となる。
【0019】
<計測の不確かさ>
デジタル画像における計測では、l画素が占める領域が不確かさとして考えることができる。すなわち、図7に示すように、1画素が占める領域よりも高い分解能で計測点を求めることはできない。この領域は位置計測上の不確かさとなる。ズームによる位置計測方法では、図8のように各焦点からの不確かな領域が重なった部分が、位置計測の不確かな領域となり、これを計測精度とすることできる。図8のような計測の不確かさを求めるには、図9に示すように画像上の計測点を画素の寸法(△u,△v)の領域である4点の位置a,b,c,d点から求める。ズームによる位置計測方法では、二つの焦点での画像上の位置a,b,c,dおよびa’,b’,c’,d’の計8点の位置から、それぞれに対応した画像上の位置を前記式(1)に代入することによって、計測の不確かな領域を求めることができる。
【0020】
以上のように計測の不確かさを求めることによって、計測精度を評価することが可能となる。高い計測精度を得るためには、「視差を大きくとること」、「高い画像解像度を有すること(図9の画素が精細であれぱ不確かさの領域が狭くなる)」の二つを満たす必要がある。視差については、「画像上での計測点の見え方が大きく異なること」、「2焦点間の距離が長いこと」の二つの条件が必要である。ただし、2焦点間の距離を長くとることは計測点が画像枠から外れてしまうので、常に計測点を追跡しながら、計測対象が画像から消えないようにズームを制御する必要がある。本位置計測方法のアルゴリズムでは、計測対象の追跡(トラッキング)を行いながら、焦点の異なる複数の画像から、以上で述べた条件を評価しながら最も計測精度の高い組合せを探索し、それを計測値とする。
【0021】
<画像解像度の分解能>
不確かさについて述べたとおり、デジタル画像を利用する場合には可能な限り精細な画素を得る必要がある。このため計測精度が不充分なときは、画像拡大法を適用し、画像解像度を上げる。これによって画像上の画素寸法が小さくなり、不確かな領域は小さくなる。
【0022】
以上説明したような理論構成に基づくズーム計測方法の効果を検証するために、実際にカメラを用いて行った実験結果について以下に述べる。
<実験装置>
本研究では、ズーム計測方法の効果を検証するために、実際にカメラを用いて計測実険を行った。本実険では、画像キャプチヤ・ボードを実装したパソコン(Personal Computer以下PC)を用意し、ズーム機構を制御することができるCCDカメラ(Sony製EVI‐D30)をPCに接続した。本カメラは、RS‐232C準拠のシリアル・インタフェースを装備しており、PCからのコマンドによって視点の向きおよぴズーム機構を制御することができる。ズームによる焦点距離fは5.4〜64.8〔mm〕まである。このシステム構成を図10に示す。そして、カメラの仕様を図11の表図に示す。本カメラからの映像はNTSCビデオ信号として出力され、この映像をPCによって有効画素数内の320×240〔pixel〕または640×480〔pixe1〕の解像度で画像を取得することができる。
【0023】
<計測点の注視>
本研究では、PC上に画像上のある特徴的なパターンを探索し、これを注視しながら画像上の計測点を求めるプログラムを作成した。また本ブログラムは、ズーム機能を制御することも可能であるので、ズームによって視点を移動させながら、視点の異なった画像上の計測点の位置から、三次元上の計測点の位置を計測することにした。図12のような計測対象を用意した。図12は、高さ8.0〔mm〕、幅8.0〔mm〕の矩形が60〔mm〕間隔で6個横一列に並んだ画像である。この画像中の矩形を計測対象とした。図12のような類似パターンが規則的に配列された画像では、ステレオ視では左右画像の計測点の対応付けが困難な場合が生じる。本発明のズーム計測方法では、一般的なトラッキング手法(注視点の追跡手法)を適用することによって、計測点の対応付けをロバストに行うことが可能となる。
【0024】
本実験では、計測点の抽出に、「二値化(Binarization)」、「ラベリング(Labe1ing)」、「微粒子除去(Remove Noise)」の画倹処理を行い、ラベリングによって計測点の抽出を行った。そして、抽出パターンの中心を計測点とすることとした。図12のパターン画像をカメラの前方(z方向〉に0.43〔m〕、カメラの高さ(x方向)に0.0〔m〕の位置に設置した(図13)。このとき、パターンは、y方向に一0.16、−0.10、一0.04、0.02、0.08〔m〕の位置となる。そして、焦点距離がf=5.4[mm]からf=8.0およぴ20.0〔mm〕までズームしながら、計測点のトラッキングを行った。この様子を図14に示す。本実験のような簡単なトラッキング手法を適用するだけで、ロバストに計測点を追跡することが可能であることが分かった。
【0025】
<サブピクセル・オーダの計測点の抽出>
本実験では実時間での注視を考慮し、320×240〔pixe1〕で画像の取込みを行うこととした。ズーム計測方法では、微小な視差から計測点の位置を算出するため、可能な限り高い解像度を得る必要があるため、ラベリングされた領域を縦横6倍まで拡大し、その領域で重心演算を行い、計測点の中心を求めることとした。これはサブピクセル(Kazunori UMEDA,Takatoshi TAKAHASHI:”Subpixel Stereo Method:a New Methodology of Stereo Vision”)まで画像上の計測点を求めることに相当する。一例として抽出した領域を縦横6倍まで拡大した画像の一部を図15示す。画像の拡大に関しては一次補間法を適用した。
【0026】
<計測結果>
本研究で用いたCCDカメラの素子寸法、焦点距離等の値はすべて理論値であり、本実験で画像計測に用いるためにはそれらの値を補正しなけれぱならない。しかも焦点距離毎の補正は複雑であるので、ズーム計測方法におけるパラメータである焦点距離fw , ft スクリーン上の計測点の位置uw , vw およびut , vt からなる多項式を立て補正係数αを求めることにした。本実験では、画像の歪みとなるレンズに入射する光の屈折を想定し、式(1)より、p=α・ut / ft とし、α=A・P(A、Pは行列)より任意の計測点(z=0.43〔m〕以外)の6か所のfw ,ft , uw , vw , ut , vt および真値より求められるαから各項の係数を求めた。ただし、A=〔α1 ,α2 ,α3 ,α4 ,α5 ,α6 〕,P=〔fw , ft , uw , vw , ut , vt T である。
【0027】
その結果、α1 =3.06×102 ,α2 =5.10×10-6,α3 =8.48×10-4,α4 =3.8,α5 =6.57×10-6,α6 =−1.83×10-3となり、補正係数αはおおよそ1.0〜1.2となった。計測結果を図16に示す。本実険での前方6点の内、中心に近い4点が充分な精度で計測することができた。図16において、破線上の「+」は真の計測点の位魔(True Points)、「○」は計測値(Measured Points)を意味する。また、○上に描かれている線分は本実験で用いたCCDカメラおよぴ画像の解像度から算出される計測の不確かさの領域を示している。線分で表された計測の不確かさより、z方向に比ベ、y方向の不確かさが極めて狭いことを確認した。計測点A、BおよぴDは誤差が僅かであり、不確かさも真値を含めるように位置しているため、充分な計測精度が得られたことが分かった。特に、y軸方向で数ミリ程度の誤差で計測することができた。これに対して計測点Cはやや真値から離れており、不確かさの領域で見ても誤差と分かった。その理由は、画像処理上のノイズ等の影響で計測点がずれたためだと考えられる。
【0028】
<ズームによる計測点の高分解能化>
ズーム計測方法の特長として、ズームによる画像拡大(計測点の高分解能化)が挙げられる。ズーム計測方法では、微小な視差から計測を行うため、計測の不確かさの領域がz方向に広がる。しかし、計測点の高分解能化によって領域がある程度小さくなるので、図16の結果のように4点全てに対して菱形てはなく、焦点と計測結果を結んだ線分のような狭い領域になる。
【0029】
<考察>
<視差と計測精度との関係>
本実験結果に基づいて、視差による影響について考察する。ズーム計測方法では、視点の移動に伴い視差が変化する。このため、視差と計測精度の開係を把握することが必要である。そこで、y軸およぴz軸方向の不確かさの領域を計測精度として考え、視差と不確かさの関係を調べることにした。図17およぴ図18は横軸に視差、縦軸に不確かさをとり、これらの関係を表している。白のプロットは真値より、前記式(1)に基づいて理論値から算出した。黒のプロツトは計測結果における計測精度を表しており、すなわち、図16で示した不確かさの領域である。図17および図18において、視差が大きいほど不碓かさが縮小し、精度の高い計測が可能となることを確認した。
【0030】
<ズーム計測方法におげる計測の不確かさ>
図17および図18において、各計測点における計測値と真値はともに近い値となった。このことからも、充分な計測結果が得られたことが確認できた。さらに、すべての計測結果が、真値から求めた理論的な視差と不確かさの関係を表す曲線上に位置した。このことは、近似的な補正が正しく行えたことと、サブピクセルまで計測点を求められたことを意味する。よって、計測点Cの誤差の原因は、レンズ等の歪みによるものではなく、画像上のノイズやゆらぎによる画像処理上の問題であることが分かった。
【0031】
<ズーム計測方法の実用化の課題>
本実験結果より、微小な視差であってもサブピクセル・オーダまで計測点を求めることによって、充分な計測が可能であることが分かった。ズーム計測方法で、より実用的な計測結果を得るためには、(1)高解像度で画像を取得すること。(2)レンズの歪みなどのカメラ内部パラメータを補正できること。の2つが要求される。(1)に関しては、DVカメラなどのデバイスがディジタル化されるだけでなく高解像度化しており、将来的にはズーム計測方法にとって充分な解像度が得られるようになると考えられる。また、近年のコンピュータの処理速度の向上を考慮すると、画像の取込みおよぴ処理も高速に行われるようになると期待される。(2)に関しては、さまざまな歪み補正法が提案されている。しかし、ズーム機能を有するカメラは複数のレンズを組み合わせており、これを理論的に補正するのは手問のかかる作業である。より簡便な補正方法の開発が望まれる。
【0032】
<おわりに>
本研究では、ステレオ視のような計測点の対応付け問題を回避するために、単眼による注視に着目し、注視しながら焦点距離を変え視点を移動させる「ズーム視」について述べた。そして、ズーム視に基づいて計測点の位置を求める新たな画像計測方法として「ズーム計測方法」を提案した。本研究では、ズーム視の定式化およぴ不確かさの算出方法を給じ、実際にズーム機構付きCCDカメラを用いて、類似パターンの位置を計測した。そして、計測結果と不確かさの評価によりズーム計測方法の有用性を示した。
【0033】
以上述べたように、本ズーム計測方法によれば、(1)一台のカメラだけを利用するため、ステレオ視のように複数のカメラの設置やカメラ・パラメータの調整は不要となる。また、ズーム機能を装備したカメラを用いるだけなので、設備的にも簡便で小型である。(2)注視による計測点の追跡(トラッキング)技術を適用することにより、ステレオ視で問題となる計測点の対応付け問題を回避することができる。具体的には、タイル張り、格子模様の等類似パターンが存在する対象物であっても、本計測方法ではある計測対象を常に注視し追跡できるので、ステレオ視のような対応付け間題が生じない。(3)レンズ焦点法のようにピントぽけの画像を作り出す必要がないので、本計測方法を適用しながら、画像認識等の高度画像処理、知覚処理等も、同時に適用することができる。
【0034】
以上、本発明の実施の形態について説明してきたが、本発明の趣旨の範囲内で、単眼カメラの形式、ズーム機能の形態、スクリーンの形状、形式およびその三次元座標の設定形態、ズーム制御形態、単眼カメラによる探索、追跡形態、計測対象画像の取得形態、画像データからの位置の計測形態、該計測データの保存形態、カメラの内部パラメータの設定形態、レンズの歪み補正形態、画像の拡大処理形態、計測精度の評価指標としての計測の不確かさの設定形態、計測データの保存制御形態および計測データの確定制御形態との並列的制御形態、新しいデータを基準とする過去に遡るデータの探索形態等については適宜選定することができる。また、実験装置の各諸元等は例示的なもので、これらを限定的に解釈してはならない。
【0035】
【発明の効果】
以上、詳細に説明したように、本発明では、計測対象を単眼カメラのズーム機能により移動する焦点におけるスクリーン上に結像させて視差による三角測量法の原理により前記計測対象の位置を計測するズームによる位置計測方法において、感光面を原点とする三次元座標に、ズーム制御とともに探索しつつ追跡した前記計測対象の画像を取得し、該取得した画像データから計測対象の位置を計測して該計測データを保存、処理するようにしたので、ロボット等のように移動する計測主体に適用しても、注視による計測点の追跡技術の適用により計測対象が類似パターンであっても容易に視認して、感光面を原点とする三次元座標にて画像の取得と処理が確実に行え、しかも、複数のカメラの設置やカメラ・パラメータの調整が不要で、ズーム機能を装備した一台のカメラを用いるだけで、設備的にも簡便で小型化が可能となる。
【0036】
また、前記取得した計測データにつき、画像が撮影された時点でのカメラの内部パラメータに基づいて、レンズの歪み補正を行うようにした場合は、対象物である計測点のより正確な方位を求めることが可能となる。さらに、画像の拡大処理を行うようにした場合は、画像の解像度が不充分なときには、画像解像度の分解能を高めて計測値をより正確に求めることが可能となる。さらにまた、少なくとも二つの焦点位置から計測点の三次元位置を求めるにあたり、画像上での計測点の位置と焦点距離の組合せから求められた計測不可能な領域である計測の不確かさを計測精度の評価指標として採用し、取得された複数の画像データから最も計測精度の高い組合せを選定して計測データとする場合は、計測の不確かさを認識することでより高い精度で計測値を求めることができる。
【0037】
また、前記ズーム制御とともに探索しつつ追跡した前記計測対象の画像の取得および該画像データからの計測データの保存制御と、前記レンズの歪み補正、画像の拡大処理、不確かさを計測制度の評価指標とした計測データの確定制御とを並列的に行うようにするとともに、最も新しいデータを基準として、過去に遡るデータの探索を可能にした場合は、撮像遅れの影響を最小限に留めることができる。かくして、誤差の予測や画像補間技術を用いて高解像度化技術を駆使することにより、自律移動するロボット等にも最適な単眼レンズを用いたズーム制御による低コストかつコンパクトな装置が実現できるズームによる位置計測方法が提供される。
【図面の簡単な説明】
【図1】本発明の基礎となるズームによる位置計測の基本原理の説明図である。
【図2】本発明のズームによる位置計測方法にて採用される感光面を原点とする三次元座標図である。
【図3】本発明のズームによる位置計測方法のアルゴリズムの概要図である。
【図4】同、計測対象の追跡方法例図である。
【図5】同、ズームインによる計測点の移動例図である。
【図6】同、レンズの歪み補正の概念図である。
【図7】同、デジタル画像における計測の不確かさの説明図である。
【図8】同、ズームによる位置計測方法における計測の不確かさの説明図である。
【図9】同、デジタル画像上の1画素の領域説明図である。
【図10】本発明のズームによる位置計測法の効果を検証する実験装置のシステム構成図である。
【図11】同、カメラの仕様例の表図である。
【図12】同、計測対象である計測点の配列例図である。
【図13】同、カメラの前方に設置された計測点の配列例図である。
【図14】同、計測点の追跡例状態図である。
【図15】同、計測点の拡大例図である。
【図16】同、計測点の計測結果例図である。
【図17】同、y方向における視差と不確かさとの関係図による計測値と真値との計測結果例図である。
【図18】同、z方向における視差と不確かさとの関係図による計測値と真値との計測結果例図である。
【符号の説明】
M 計測対象の三次元位置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a position measurement method using zoom, in which a measurement target is imaged on a screen at a focal point that is moved by a zoom function of a monocular camera, and the position of the measurement target is measured according to the principle of triangulation using parallax. In particular, the present invention aims to be applied to a machine such as an autonomous robot whose movement is automated by image measurement. That is, the present invention is useful when applied to an automated machine (robot) having a vision (camera) and capable of extracting, specifying, and recognizing an environment and a work target from a captured image.
[0002]
[Prior art]
In general robots, active sensors that emit a signal to an object or the like and detect from a change in the signal are widely used. A major drawback of active sensors is that signal interference is unavoidable, including when there are multiple sensors that emit the same type of signal in the same environment. For example, an ultrasonic sensor and an infrared sensor that are common as active sensors often cannot be measured due to interference between signals. As described above, the types of sensors that can be mounted on the robot are limited to combinations of signals that do not interfere with each other. Further, in an environment where there are a plurality of robots, it is extremely impractical to prepare a combination of sensors that do not interfere with each other.
[0003]
In contrast to the signal interference problem caused by such active sensors, the vision (camera) only receives light from the outside, so there is no signal interference. Also, in the future, assuming a prefectural border where there are multiple robots in the vicinity, non-interfering sensors are indispensable, and visual use is promising in that respect. However, there are some problems due to the use of vision. In the vision of a robot, image measurement by stereo vision composed of two or more cameras is widely used. In stereo viewing, the position of the measurement target is calculated from two or more images having different appearances.
[0004]
As a precondition for measurement, the measurement target on each image must match. For this reason, it is sometimes difficult to associate (distinguish, resolution) the measurement target in an environment where similar patterns exist. Arise. In addition, in order to associate measurement targets, it is essential to accurately install two cameras and adjust camera parameters such as brightness and contrast. In particular, it is impossible to perfectly match camera parameters such as brightness of a plurality of cameras, and adjustment to the color is not performed in most stereo visions. In practice, there is a limit to brightness and contrast adjustment with a monochrome camera.
[0005]
For this reason, a position measurement method using a monocular camera has been proposed in order to avoid the problem of camera parameter adjustment and stereo vision correspondence. This is a manipulator (robot, hand), etc. with a camera attached to the tip. By moving the viewpoint while tracking the object to be measured, parallax is obtained in the same way as in stereo vision, and triangulation The position is measured in principle. In this method, measurement can be performed with relatively high accuracy due to the accuracy of the manipulator, but the facility is large and cannot be mounted on a small mobile robot or the like.
[0006]
Therefore, as a method for measuring the position only with the zoom function of the monocular camera, a lens focusing method using the depth of field of the lens (for example, see Non-Patent Document 1 below) or an image processing apparatus for similar imaging with a zoom lens (described below) (See Patent Document 1). In these methods, the distance to the subject is obtained from the relationship between the focus of the subject and the focus (focus). Specifically, this method is widely used for autofocus cameras, but there are the following two problems when applied to a robot.
[0007]
[Non-Patent Document 1]
K. Ohba, J .; C. Pedraza Ortega: “Micro-observation technology for tele-micro-operation”, Advanced Robotics, vol. 15, no. 8, pp. 779-878, 2000.
[Patent Document 1]
JP-A-5-209730 (FIG. 2 and paragraph 0018)
[0008]
[Problems to be solved by the invention]
(L) In these measurement methods, it is premised that the subject can be focused, and when these techniques are mounted on the mouth bot, it is necessary to have the robot that moves constantly automatically determine the focus. At present, it is difficult to request this determination from the robot. Also, (2) the measurement accuracy by these methods depends on the subject depth of the camera, but as the depth of field becomes shallower, focusing becomes more difficult, and considering the image recognition by the robot, the robot processes It is desirable that the image is in focus as much as possible. Therefore, a lens with a shallow depth of field is not appropriate for robot vision. Furthermore, in the image processing apparatus for similar imaging using the zoom lens of Patent Document 1, it is necessary to accurately measure a minute parallax, which causes a large error in practice and does not endure actual use.
[0009]
Therefore, the present invention solves the problems of the conventional position measurement method using the zoom, and is optimal for autonomously moving robots and the like by making full use of high resolution technology using error prediction and image interpolation technology. An object of the present invention is to provide a zoom position measurement method that can realize a low-cost and compact apparatus by zoom control using a simple monocular lens.
[0010]
[Means for Solving the Problems]
For this reason, the technical solution means adopted by the present invention is:
In the position measurement method by zoom, which measures the position of the measurement object according to the principle of triangulation method by parallax by forming an image on the screen at the focal point moving by the zoom function of the monocular camera,Acquire the image of the measurement object tracked while searching with zoom control at the three-dimensional coordinates with the photosensitive surface as the origin, measure the position of the measurement object from the acquired image data, and store and process the measurement data In determining the three-dimensional position of the measurement point from at least two focal positions, the measurement accuracy, which is an unmeasurable area obtained from the combination of the measurement point position and focal length on the image, is measured. Position measurement by zoom, which is used as an evaluation index for measurement, and selects the combination with the highest measurement accuracy from a plurality of image data of the measurement target acquired by zoom control, and uses it as three-dimensional position measurement data of measurement points In the wayis there.
  Also,Zoom controlAcquisition of the image of the measurement target tracked while searching and storage control of the measurement data from the image data,Distortion correction of the lens of the monocular camera,In addition to performing image enlargement processing and measurement data deterministic control in parallel with uncertainty as an evaluation index of measurement accuracy, it is now possible to search for data that goes back in the past based on the newest data This is a characteristic position measurement method using zoom.
  Also, the zoom position measurement method is characterized in that lens distortion correction is performed on the acquired measurement data based on an internal parameter of the camera at the time when the image is taken.
  Also,The image dataThe zoom position measurement method is characterized in that zooming processing is performed.
[0011]
Embodiment
Embodiments of a position measurement method using zoom according to the present invention will be described below with reference to the drawings. As shown in FIG. 2, the basic configuration of the present invention is to form an image of a measurement object M on a screen at a focal point that is moved by a zoom function of a monocular camera, and position the measurement object according to the principle of triangulation using parallax. In the position measurement method using zoom to measure the image, the image of the measurement target tracked while searching together with the zoom control is acquired in three-dimensional coordinates with the photosensitive surface as the origin, and the position of the measurement target is measured from the acquired image data Thus, the measurement data is stored and processed.
[0012]
Hereinafter, the principle and the superiority based on the experimental results will be described in detail. First, the usefulness in the robot industry of the position measurement method using zoom according to the present invention will be described. Currently, research on highly intelligent robots such as humanoids is actively conducted, but the present result is only a mechanism such as a limb. The next step is thought to be that a robot with a body acquires intelligence, but at the present time, sensing devices are poor. Vision (camera) is a powerful device for realizing intelligent robots, but there is no substitute for stereo vision in terms of position measurement technology, and the measurement method of the present invention is likely to be established as an approach different from stereo vision. . In the future, robots will tend to be smaller, and this position measurement method is also advantageous over stereo vision in that respect.
[0013]
<Basic measurement principle>
The position measurement method using zoom is basically the same as the measurement method using stereo vision, and is a method for obtaining measurement points from two different viewpoints. The measurement principle is shown in FIG. This figure is a view from the side of the camera. The measurement point M seen from the camera is the focal point f moved by zooming.1,f2,... fnPosition on the screen depending on the position of1, V2, ... vnIt looks different. This means that a parallax has occurred as in the case of stereo vision, and the position of the measurement point M can be obtained from the measurement principle of triangulation.
[0014]
When the coordinates are defined as in FIGS. 1 and 2, the position of the photosensitive surface is the origin, and the positions of the measurement points on the screen are u and v. Furthermore, from the position (u, v) of the measurement point on the screen, it is defined as the azimuth θ, φ where the measurement point M exists. In this coordinate system, the position of the measurement point M can be obtained by the following equation.
x = (f2-F1) Q1q2/ (Q2-Q1)
y = (f2-F1) P1p2/ (P2-P1(1)
z = (f1p1-F2p2) / (P1-P2)
= (F1q1-F2q2) / (Q1-Q2)
However, q1= Tanφ1, Q2= Tanφ1, P1= Tan θ1, P2= Tan θ2And when considering the pinhole model, q1= V1/ F1, Q2= V2/ F2, P1= U1/ F1, P2= U2/ F2Can be obtained as Also, the focal length f when the focal length is continuously moved1, F2, FThree, ... fnFrom an arbitrary focal length fi, FjThe position of the measurement point can also be obtained from the image.
[0015]
<Measurement algorithm>
A rough algorithm of this measurement method is shown in FIG. This algorithm is roughly divided into two processes. One is “search for a measurement target”, acquires an image, controls the zoom mechanism while tracking the measurement target, and records measurement data. This process is performed continuously. For the tracked measurement target, these sets of data, such as the frame number of the captured image (captured time), the camera's internal parameters such as the position and focal length of the measurement target image (screen) at that time Are recorded. The recorded data is preferably stored in a memory on the computer so that a certain amount of data is accumulated. In addition, a past image may be required in the tracking algorithm, and therefore image data may be stored as long as there is a memory capacity.
[0016]
Another process flow will be described. The recorded data is acquired, and “lens distortion correction” is performed based on the internal parameters of the camera at the time when the image was taken, and the position (measurement point) of the measurement target on the image is accurately determined. When the image resolution is insufficient, the image enlargement process is performed to improve the “image resolution resolution”. In this measurement method, the three-dimensional position of the measurement point can be obtained from at least two focal positions, but the measurement accuracy is obtained from the combination of the measurement point position and the focal length on the image. be able to. This measurement uncertainty is used as an evaluation index for measurement accuracy, and a combination having the highest measurement accuracy is selected from a plurality of recorded data and determined as measurement data. The above two processes are performed in parallel, and in order to keep the influence of the imaging delay to a minimum, the data is searched back to the past on the basis of the data just recorded at the present time.
[0017]
<Search for measurement target>
In this measurement method, tracking of the measurement target (tracking) is used in order to effectively use the zoom effect. For this purpose, it is desirable to use a camera having a pan / tilt control mechanism. FIG. 4 shows a method for tracking a measurement target. In FIG. 4, first, an object is searched from an image (step 1). For example, when measuring the box in the figure, the direction of the camera is controlled so that the box becomes the center of the image (step 2). For example, when a general line segment extraction algorithm is applied, a ridge line (edge) of the box can be extracted, and an intersection of the line segments can be selected as a measurement point (FIG. 5 shows an example thereof). At this time, if the camera is directed so that the box becomes the center of the image, the measurement point moves to the edge on the image by zooming in (telephoto). The movement of the measurement point on the image means that “parallax is generated by the movement of the focal point”. In this measurement method, it is desirable to control the orientation of the camera in order to actively use this principle.
[0018]
<Lens distortion correction>
In this measurement method, it is necessary to accurately obtain the orientation of the measurement point from the position on the image. Ideally, it is desirable to use a zoom camera with a known optical system. However, in general, a zoom function is realized by combining a plurality of lenses, and in this case, distortion of the lens occurs. In such a case, it is necessary to correct lens distortion. An outline of the lens correction model is shown in FIG. FIG. 6 is a side view of the zoom lens model. This is a case where a pinhole model is assumed.For example, when obtaining the orientation of a certain measurement point, if there is an error between the orientation of the measurement point obtained from the model and the orientation of the actual measurement point. Corrects lens distortion by a coefficient α. The orientation θ of the actual measurement point at point p is
θ = αtan-1(V / f)
More demanded. However, the degree of distortion of the lens differs depending on the focal length and the position on the image (position on the photosensitive surface). For this reason, it is possible to obtain a focal length and a position on the photosensitive surface, thereby correcting partial distortion.
[0019]
<Measurement uncertainty>
In measurement in a digital image, the area occupied by one pixel can be considered as uncertainty. That is, as shown in FIG. 7, the measurement point cannot be obtained with a higher resolution than the area occupied by one pixel. This region is an uncertainty in position measurement. In the position measurement method using zoom, a portion where uncertain regions from the respective focal points overlap as shown in FIG. 8 becomes an uncertain region of position measurement, which can be used as measurement accuracy. In order to obtain the measurement uncertainty as shown in FIG. 8, as shown in FIG. 9, the measurement points on the image are positioned at four positions a, b, c, and so on, which are regions of pixel dimensions (Δu, Δv). Obtained from point d. In the position measurement method by zooming, a total of eight positions a, b, c, d and a ′, b ′, c ′, d ′ on the image at two focal points are displayed on the corresponding images. By substituting the position into the equation (1), an uncertain region of measurement can be obtained.
[0020]
As described above, measurement accuracy can be evaluated by obtaining measurement uncertainty. In order to obtain high measurement accuracy, it is necessary to satisfy the following two requirements: “large parallax” and “high image resolution (if the pixel in FIG. 9 is fine, the area of uncertainty is narrow)” is there. Regarding the parallax, two conditions are necessary: “the appearance of the measurement point on the image is greatly different” and “the distance between the two focal points is long”. However, if the distance between the two focal points is increased, the measurement point is out of the image frame. Therefore, it is necessary to control the zoom so that the measurement target does not disappear from the image while always tracking the measurement point. The algorithm of this position measurement method searches the combination with the highest measurement accuracy while evaluating the above-mentioned conditions from multiple images with different focal points while tracking the measurement target, and measuring it And
[0021]
<Image resolution resolution>
As described for uncertainty, when using a digital image, it is necessary to obtain as fine a pixel as possible. For this reason, when the measurement accuracy is insufficient, an image enlargement method is applied to increase the image resolution. This reduces the pixel size on the image and reduces the uncertainty area.
[0022]
  In order to verify the effect of the zoom measurement method based on the theoretical configuration as described above, the results of experiments actually performed using a camera are described below.
<Experimental equipment>
In this research, in order to verify the effect of the zoom measurement method, the actual measurement was performed using a camera. In this actual case, the imageCapuchiA personal computer (Personal Computer, hereinafter referred to as PC) mounted with a board was prepared, and a CCD camera (EVI-D30 manufactured by Sony) capable of controlling the zoom mechanism was connected to the PC. This camera is equipped with an RS-232C compliant serial interface and can control the viewing direction and zoom mechanism by commands from the PC. The focal length f by zooming is 5.4 to 64.8 [mm]. This system configuration is shown in FIG. The specifications of the camera are shown in the table of FIG. The video from this camera is output as an NTSC video signal, and this video can be acquired by a PC at a resolution of 320 × 240 [pixel] or 640 × 480 [pixel 1] within the number of effective pixels.
[0023]
<Looking at measurement points>
In this research, we searched for a characteristic pattern on the image on the PC, and created a program to find the measurement point on the image while gazing at it. Since this program can also control the zoom function, the position of the measurement point in three dimensions is measured from the position of the measurement point on the image with a different viewpoint while moving the viewpoint by zooming. It was to be. A measurement object as shown in FIG. 12 was prepared. FIG. 12 shows an image in which six rectangles having a height of 8.0 [mm] and a width of 8.0 [mm] are arranged in a horizontal row at intervals of 60 [mm]. The rectangle in this image was set as the measurement target. In an image in which similar patterns as shown in FIG. 12 are regularly arranged, it may be difficult to associate the measurement points of the left and right images in stereo view. In the zoom measurement method of the present invention, it is possible to robustly associate measurement points by applying a general tracking method (gazing point tracking method).
[0024]
In this experiment, the measurement points were extracted by performing thumbtack processing such as “binarization”, “labeling”, and “remove noise”, and the measurement points were extracted by labeling. . Then, the center of the extraction pattern is set as a measurement point. 12 was placed at a position of 0.43 [m] in front of the camera (z direction) and 0.0 [m] in the height of the camera (x direction) (FIG. 13). Is in the y direction at positions of 0.16, -0.10, 0.04, 0.02, and 0.08 [m], and the focal length is f = 5.4 [mm] to f. = Tracking the measurement point while zooming to 8.0 and 20.0 [mm], as shown in Fig. 14. By applying a simple tracking method like this experiment, it is robust. It was found that it was possible to track the measurement points.
[0025]
<Extracting measurement points of subpixel order>
In this experiment, in consideration of gaze in real time, it was decided to capture an image at 320 × 240 [pixel1]. In the zoom measurement method, since the position of the measurement point is calculated from minute parallax, it is necessary to obtain the highest possible resolution. Therefore, the labeled area is enlarged up to 6 times in length and width, and the center of gravity is calculated in the area. The center of the measurement point was determined. This corresponds to obtaining the measurement points on the image up to the sub-pixel (Kazunori UMEDA, Takashi TAKAHASHI: “Subpixel Stereo Method: a New Methodology of Stereo Vision”). As an example, FIG. 15 shows a part of an image obtained by enlarging the extracted region up to 6 times in length and width. A linear interpolation method was applied to enlarge the image.
[0026]
<Measurement results>
The values of the CCD camera element size, focal length, etc. used in this study are all theoretical values, and these values must be corrected for use in image measurements in this experiment. Moreover, since the correction for each focal length is complicated, the focal length f, which is a parameter in the zoom measurement method.w, ftMeasurement point position u on the screenw, vwAnd ut, vtThe correction coefficient α is determined by setting a polynomial consisting of In this experiment, the refraction of light incident on the lens, which causes image distortion, is assumed, and p = α · u from Equation (1).t/ ftAnd f at six measurement points (except z = 0.43 [m]) from α = A · P (A and P are matrices).w, ft, uw, vw, ut, vtThe coefficient of each term was obtained from α obtained from the true value. However, A = [α1, Α2, ΑThree, ΑFour, ΑFive, Α6], P = [fw, ft, uw, vw, ut, vt]TIt is.
[0027]
As a result, α1= 3.06 × 102, Α2= 5.10 × 10-6, ΑThree= 8.48 × 10-Four, ΑFour= 3.8, αFive= 6.57 × 10-6, Α6= −1.83 × 10-3Thus, the correction coefficient α is approximately 1.0 to 1.2. The measurement results are shown in FIG. Of the 6 points in front of the actual vehicle, 4 points close to the center could be measured with sufficient accuracy. In FIG. 16, “+” on the broken line means a true measurement point (True Points), and “◯” means a measured value (Measured Points). Also, the line segment drawn on the circle indicates the region of measurement uncertainty calculated from the resolution of the CCD camera and image used in this experiment. From the measurement uncertainty represented by the line segment, it was confirmed that the uncertainty in the y direction was extremely narrow compared to the z direction. The measurement points A, B, and D have a slight error, and the uncertainty is located so as to include the true value. Therefore, it was found that sufficient measurement accuracy was obtained. In particular, measurement was possible with an error of about several millimeters in the y-axis direction. On the other hand, the measurement point C is slightly away from the true value, and it was found to be an error even when viewed in the uncertainty region. The reason is considered to be that the measurement point has shifted due to the influence of noise or the like on the image processing.
[0028]
<High resolution of measurement points by zooming>
As a feature of the zoom measurement method, image enlargement by zooming (high resolution of measurement points) can be mentioned. In the zoom measurement method, since measurement is performed from a minute parallax, the measurement uncertainty region extends in the z direction. However, since the area is reduced to some extent by increasing the resolution of the measurement point, it is not a diamond for all four points as in the result of FIG. 16, but a narrow area such as a line segment connecting the focus and the measurement result. .
[0029]
<Discussion>
<Parallax andMeasurement accuracyRelationship with>
Based on the results of this experiment, the effects of parallax will be discussed. In the zoom measurement method, the parallax changes as the viewpoint moves. For this reason, it is necessary to grasp the relationship between parallax and measurement accuracy. Therefore, the region of uncertainty in the y-axis and z-axis directions is considered as measurement accuracy, and the relationship between parallax and uncertainty is examined. In FIGS. 17 and 18, the horizontal axis represents parallax and the vertical axis represents uncertainty, and these relationships are represented. The white plot was calculated from the theoretical value based on the formula (1) from the true value. The black plot represents the measurement accuracy in the measurement result, that is, the uncertainty region shown in FIG. 17 and 18, it was confirmed that the greater the parallax, the smaller the dullness and the higher the accuracy of measurement possible.
[0030]
<Measurement uncertainty in the zoom measurement method>
In FIG. 17 and FIG. 18, the measured value and the true value at each measurement point are close to each other. From this, it was confirmed that sufficient measurement results were obtained. Furthermore, all measurement results were located on a curve representing the relationship between the theoretical parallax and the uncertainty obtained from the true value. This means that approximate correction has been correctly performed and measurement points have been obtained up to the sub-pixel. Therefore, it has been found that the cause of the error at the measurement point C is not a distortion of the lens or the like, but a problem in image processing due to noise or fluctuation on the image.
[0031]
<Issues for practical application of zoom measurement method>
From the results of this experiment, it was found that sufficient measurement is possible by obtaining measurement points up to the subpixel order even with a small parallax. To obtain more practical measurement results with the zoom measurement method, (1) obtain an image with high resolution. (2) Camera internal parameters such as lens distortion can be corrected. Are required. With regard to (1), devices such as DV cameras are not only digitized but also increased in resolution, and it is considered that in the future, sufficient resolution for the zoom measurement method will be obtained. In view of the recent increase in computer processing speed, it is expected that image capture and processing will also be performed at high speed. Regarding (2), various distortion correction methods have been proposed. However, a camera having a zoom function combines a plurality of lenses, and correcting this theoretically is a troublesome task. Development of a simpler correction method is desired.
[0032]
<Conclusion>
In this study, to avoid the problem of mapping measurement points like stereo vision, we focused on gaze with a single eye and described “zoom vision” in which the focal point is changed and the viewpoint is moved while gazing. Then, the “zoom measurement method” was proposed as a new image measurement method for obtaining the position of the measurement point based on the zoom view. In this study, we provided a zoom vision formulation and an uncertainty calculation method, and actually measured the position of similar patterns using a CCD camera with a zoom mechanism. And the usefulness of the zoom measurement method was shown by evaluation of the measurement result and uncertainty.
[0033]
As described above, according to this zoom measurement method, (1) since only one camera is used, it is not necessary to install a plurality of cameras and adjust camera parameters as in stereo view. Moreover, since only a camera equipped with a zoom function is used, the equipment is simple and small. (2) By applying the tracking (tracking) technique of measurement points by gaze, it is possible to avoid the problem of associating measurement points, which is a problem in stereo vision. Specifically, even if there are objects with similar patterns such as tiled and latticed patterns, this measurement method can always keep a close eye on a measurement object, and thus a matching problem such as stereo vision arises. Absent. (3) Since it is not necessary to create an out-of-focus image unlike the lens focusing method, advanced image processing such as image recognition, perceptual processing, and the like can be applied simultaneously while applying this measurement method.
[0034]
The embodiment of the present invention has been described above. However, within the scope of the present invention, a monocular camera format, a zoom function configuration, a screen configuration, a format and its three-dimensional coordinate setting configuration, and a zoom control configuration , Search with a monocular camera, tracking form, acquisition form of a measurement target image, measurement form of a position from image data, storage form of the measurement data, camera internal parameter setting form, lens distortion correction form, image enlargement processing Form, setting form of measurement uncertainty as an evaluation index of measurement accuracy, parallel control form with storage control form of measurement data and confirmation control form of measurement data, search form of data going back to the past based on new data Etc. can be selected as appropriate. Moreover, each specification etc. of an experimental apparatus are illustrations, and these should not be interpreted limitedly.
[0035]
【The invention's effect】
As described above in detail, in the present invention, a zoom is performed in which a measurement target is imaged on a screen at a focal point that is moved by a zoom function of a monocular camera, and the position of the measurement target is measured by the principle of triangulation using parallax. In the position measurement method according to the method, the image of the measurement target tracked while searching together with the zoom control is acquired in three-dimensional coordinates with the photosensitive surface as the origin, and the position of the measurement target is measured from the acquired image data. Since data is stored and processed, even if it is applied to a moving subject such as a robot, it can be easily viewed even if the measurement target is a similar pattern by applying measurement point tracking technology by gaze. , You can reliably acquire and process images in 3D coordinates with the photosensitive surface as the origin, and there is no need to install multiple cameras or adjust camera parameters. Only used one camera equipped with a function, it is possible to equipment specifically to be simple and compact.
[0036]
In addition, when the obtained measurement data is subjected to lens distortion correction based on the internal parameters of the camera at the time when the image is taken, a more accurate azimuth of the measurement point that is the object is obtained. It becomes possible. Furthermore, when the image enlargement process is performed, when the resolution of the image is insufficient, it is possible to increase the resolution of the image resolution and obtain the measurement value more accurately. Furthermore, when determining the three-dimensional position of a measurement point from at least two focal positions, the measurement accuracy is the measurement uncertainty, which is an unmeasurable area obtained from the combination of the position of the measurement point on the image and the focal length. When selecting the combination with the highest measurement accuracy from multiple acquired image data and using it as measurement data, obtain measurement values with higher accuracy by recognizing measurement uncertainty. Can do.
[0037]
Further, acquisition of the image of the measurement object tracked while searching together with the zoom control and storage control of the measurement data from the image data, distortion correction of the lens, image enlargement processing, and uncertainty are evaluated as an evaluation index of the measurement system. In addition to performing the final control of the measured data in parallel, it is possible to search for data that goes back in the past based on the newest data, and to minimize the effects of imaging delays. . Thus, by making full use of high resolution technology using error prediction and image interpolation technology, it is possible to realize a low-cost and compact device by zoom control using a monocular lens that is optimal for autonomously moving robots, etc. A position measurement method is provided.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of a basic principle of position measurement by zoom, which is the basis of the present invention.
FIG. 2 is a three-dimensional coordinate diagram with a photosensitive surface as an origin adopted in the position measurement method using zoom according to the present invention.
FIG. 3 is a schematic diagram of an algorithm of a position measurement method using zoom according to the present invention.
FIG. 4 is a diagram illustrating an example of a tracking method of a measurement target.
FIG. 5 is a diagram illustrating an example of movement of measurement points by zooming in.
FIG. 6 is a conceptual diagram of lens distortion correction.
FIG. 7 is an explanatory diagram of measurement uncertainty in a digital image.
FIG. 8 is an explanatory diagram of measurement uncertainty in the position measurement method using zoom.
FIG. 9 is an explanatory diagram of an area of one pixel on the digital image.
FIG. 10 is a system configuration diagram of an experimental apparatus for verifying the effect of the position measurement method using zoom according to the present invention.
FIG. 11 is a table of an example of camera specifications.
FIG. 12 is an example of an array of measurement points to be measured.
FIG. 13 is an arrangement diagram of measurement points installed in front of the camera.
FIG. 14 is a state diagram of an example of tracking measurement points.
FIG. 15 is an enlarged view of measurement points.
FIG. 16 is an example of a measurement result of measurement points.
FIG. 17 is an example of a measurement result of a measurement value and a true value according to a relationship diagram of parallax and uncertainty in the y direction.
FIG. 18 is an example of a measurement result of a measured value and a true value according to a relationship diagram between parallax and uncertainty in the z direction.
[Explanation of symbols]
      M Measurement target3D position

Claims (4)

計測対象を単眼カメラのズーム機能により移動する焦点におけるスクリーン上に結像させて視差による三角測量法の原理により前記計測対象の位置を計測するズームによる位置計測方法において、感光面を原点とする三次元座標に、ズーム制御とともに探索しつつ追跡した前記計測対象の画像を取得し、該取得した画像データから計測対象の位置を計測して該計測データを保存、処理するにあたり、少なくとも二つの焦点位置から計測点の三次元位置を求める際に、画像上での計測点の位置と焦点距離の組合せから求められた計測不可能な領域である計測の不確かさを計測精度の評価指標として採用し、ズーム制御により取得された計測対象の複数の画像データから最も計測精度の高い組合せを選定して計測点の三次元位置計測データとすることを特徴とするズームによる位置計測方法。 In a position measurement method using zoom, which measures the position of the measurement object according to the principle of triangulation method by parallax by forming an image on the screen at the focal point moving by the zoom function of the monocular camera, the third order with the photosensitive surface as the origin In the original coordinates, acquire the image of the measurement target tracked while searching together with zoom control, measure the position of the measurement target from the acquired image data, and store and process the measurement data, at least two focus positions When measuring the three-dimensional position of the measurement point from the measurement uncertainty, the measurement uncertainty, which is a non-measurable area obtained from the combination of the measurement point position on the image and the focal length, is used as an evaluation index for measurement accuracy. Select the combination with the highest measurement accuracy from the multiple image data of the measurement target acquired by zoom control, and use it as the 3D position measurement data of the measurement point Position measuring method according to the zoom characterized and. 前記ズーム制御とともに探索しつつ追跡した前記計測対象の画像の取得および該画像データからの計測データの保存制御と、前記単眼カメラのレンズの歪み補正、画像の拡大処理、不確かさを計測精度の評価指標とした計測データの確定制御とを並列的に行うようにするとともに、最も新しいデータを基準として、過去に遡るデータの探索を可能にしたことを特徴とする請求項1に記載のズームによる位置計測方法。Acquisition of the image of the measurement object tracked while searching with the zoom control and storage control of the measurement data from the image data , distortion correction of the lens of the monocular camera, image enlargement processing, evaluation of uncertainty and measurement accuracy evaluation The zoom position according to claim 1, wherein the measurement data used as the index is determined and controlled in parallel, and the search for data going back in the past is made possible based on the newest data. Measurement method. 前記取得した計測データにつき、画像が撮影された時点でのカメラの内部パラメータに基づいて、レンズの歪み補正を行うようにしたことを特徴とする請求項1または2に記載のズームによる位置計測方法。 3. The position measurement method using zoom according to claim 1, wherein the obtained measurement data is subjected to lens distortion correction based on an internal parameter of the camera at the time when the image is taken. . 前記画像データの拡大処理を行うようにしたことを特徴とする請求項1〜3のいずれかに記載のズームによる位置計測方法。The zoom position measurement method according to claim 1, wherein the image data is enlarged.
JP2003030249A 2003-02-07 2003-02-07 Position measurement using zoom Expired - Fee Related JP4044454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003030249A JP4044454B2 (en) 2003-02-07 2003-02-07 Position measurement using zoom

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003030249A JP4044454B2 (en) 2003-02-07 2003-02-07 Position measurement using zoom

Publications (3)

Publication Number Publication Date
JP2004239791A JP2004239791A (en) 2004-08-26
JP2004239791A5 JP2004239791A5 (en) 2005-07-28
JP4044454B2 true JP4044454B2 (en) 2008-02-06

Family

ID=32957187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003030249A Expired - Fee Related JP4044454B2 (en) 2003-02-07 2003-02-07 Position measurement using zoom

Country Status (1)

Country Link
JP (1) JP4044454B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4224449B2 (en) 2004-11-30 2009-02-12 本田技研工業株式会社 Image extraction device
JP4461091B2 (en) 2004-11-30 2010-05-12 本田技研工業株式会社 Position detection apparatus and correction method thereof
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4032052B2 (en) 2004-11-30 2008-01-16 本田技研工業株式会社 Position detection apparatus and correction method thereof
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4851239B2 (en) * 2006-06-05 2012-01-11 株式会社トプコン Image processing apparatus and processing method thereof
JP4851240B2 (en) * 2006-06-05 2012-01-11 株式会社トプコン Image processing apparatus and processing method thereof
JP5580637B2 (en) 2010-03-30 2014-08-27 オリンパス株式会社 Image processing apparatus, operation method of endoscope apparatus, and program
WO2013011608A1 (en) 2011-07-19 2013-01-24 パナソニック株式会社 Image encoding device, integrated circuit therefor, and image encoding method
WO2014016995A1 (en) 2012-07-26 2014-01-30 日本電気株式会社 Three-dimensional object-measurement device, control program for three-dimensional object-measurement device, and control method for three-dimensional object-measurement device
JP6065670B2 (en) * 2013-03-13 2017-01-25 株式会社リコー Three-dimensional measurement system, program and method.
JP2015061200A (en) * 2013-09-18 2015-03-30 コニカミノルタ株式会社 Image display device, image display method, and image display program
CN106324790B (en) * 2016-08-12 2020-04-03 中国科学院光电技术研究所 Coupling mirror automatic adjustment method based on monocular vision pose measurement
CN110132225B (en) * 2019-05-10 2021-03-12 西安电子科技大学 Monocular oblique non-coaxial lens distance measuring device

Also Published As

Publication number Publication date
JP2004239791A (en) 2004-08-26

Similar Documents

Publication Publication Date Title
CN110136208B (en) Joint automatic calibration method and device for robot vision servo system
TWI555379B (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
JP5911934B2 (en) Contour measurement device and robot system
JP4044454B2 (en) Position measurement using zoom
CN105894499B (en) A kind of space object three-dimensional information rapid detection method based on binocular vision
US6519359B1 (en) Range camera controller for acquiring 3D models
CN107471218B (en) Binocular vision-based hand-eye coordination method for double-arm robot
CN108177143A (en) A kind of robot localization grasping means and system based on laser vision guiding
JP2023526239A (en) Method and system for imaging a scene, such as a medical scene, and tracking objects in the scene
JP2007278845A (en) Image processing apparatus and its processing method
CN109141240B (en) A kind of measurement of adaptive 3 D and information acquisition device
CN108020200A (en) A kind of depth measurement method and system
JP2903964B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP7191309B2 (en) Automatic Guidance, Positioning and Real-time Correction Method for Laser Projection Marking Using Camera
JP7353757B2 (en) Methods for measuring artifacts
EP3599989A1 (en) High speed pupil detection system and method
JP3988574B2 (en) Image processing device
JPH06167564A (en) Position measuring system and device using fish eye lens
JP3991501B2 (en) 3D input device
CN112288801A (en) Four-in-one self-adaptive tracking shooting method and device applied to inspection robot
JP3941631B2 (en) Three-dimensional imaging apparatus and method
JPH09145318A (en) Three-dimensional measuring equipment
JP3998863B2 (en) Depth detection device and imaging device
JPH08329222A (en) Three-dimensional position recognition device
JP2007025830A (en) Method and device for recognizing three-dimensional object

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070814

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071115

R150 Certificate of patent or registration of utility model

Ref document number: 4044454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131122

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees