JP2004077221A - Image measurement program - Google Patents

Image measurement program Download PDF

Info

Publication number
JP2004077221A
JP2004077221A JP2002235831A JP2002235831A JP2004077221A JP 2004077221 A JP2004077221 A JP 2004077221A JP 2002235831 A JP2002235831 A JP 2002235831A JP 2002235831 A JP2002235831 A JP 2002235831A JP 2004077221 A JP2004077221 A JP 2004077221A
Authority
JP
Japan
Prior art keywords
image
local area
motion parallax
local region
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002235831A
Other languages
Japanese (ja)
Inventor
Hiroaki Okamoto
岡本 浩明
Susumu Kawakami
川上 進
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002235831A priority Critical patent/JP2004077221A/en
Publication of JP2004077221A publication Critical patent/JP2004077221A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve a measurement precision of feature parameters of a plane. <P>SOLUTION: A movement parallax detection unit 21 detects movement parallax of each local region in an input image picked up by a camera 11. A local region setting part 101 sets the local region so as to change the resolution in each local region based on a movement parallax distribution. A cylindrical array vote unit 25 votes a detected result of the movement parallax detection unit 21 to a vote space constituted by the feature parameters of the plane. A peak extraction unit 26 extracts the feature parameters based a voted result. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像にあらわれた点や面から、空間内におけるそれらの位置や向きなどを計測するための画像計測プログラムに関するものであり、特に、平面の特徴パラメータの計測精度を高めることができる画像計測プログラムに関するものである。
【0002】
【従来の技術】
図28は、滑走路に着陸する飛行機を操縦しているパイロットの網膜に写るオプティカルフローのパターンを示す図である。オプティカルフローは、同図中心部から放射状にそれぞれ配されたベクトルで表され、局所領域(円内)における局所速度(局所運動視差)である。
【0003】
パイロットは、オプティカルフローのパターンから、滑走路の傾き(三次元方位)や“このままで進むと何秒後に滑走路に到達するか”を知覚して、的確に飛行機を着陸させている。すなわち、パイロットはこのパターンから、平面(滑走路1)の三次元方位と“平面(滑走路1)を横切るまでの時間”を計測して着陸している。
【0004】
ここで、我々が廊下を歩く場合について考察する。我々が廊下の壁にぶつかる方向に歩くと、上述のオプティカルフローのパターンが網膜上に生じ、そのパターンから壁を横切るまでの時間(壁に衝突するまでの時間)を計測して、同時に計測される壁の三次元方位からそれを避ける方向に回避移動をする。
【0005】
一方、壁に平行に歩いている場合には、いつまでもぶつかることがない(すなわち、無限時間経過後にぶつかる)ことを計測して、そのままの方向に歩き続ける。このようにして、曲がりくねった廊下でも壁を的確に回避して歩くことができる。
【0006】
また、事務所内を歩く場合も、ホワイトボード、机、ロッカ等の“平面で構成される物体”を同じように回避して歩くことができる。さらに、自動車を運転する場合も、同様な“平面の三次元計測”を行って高速道路の走行や車庫入れ等を行っている。
【0007】
このように、我々は、視覚により、平面から構成される物体に関する三次元幾何情報(平面の三次元方位と平面を横切るまでの時間)を計測して的確な移動を可能にしている。なお、我々は、曲面の物体でも“それに接する平面群”の三次元的幾何情報を計測して空間的に認識することができる。
【0008】
このような“平面の三次元幾何情報”を画像から計測できるようになれば、移動ロボット、自動車、そして飛行機などを環境に適応してまたは障害物を回避しながら移動させることが可能になる。
【0009】
図28に示したオプティカルフローのパターンの各速度要素、すなわち、局所領域内の局所運動については、それを動画像から計測する技術がこれまでに報告されている(特開平05−165956号公報、特開平05−165957号公報、特開平06−044364号公報、特開平09−081369号公報;“2次元相関およびコンボリューションをハフ平面のρ座標に沿って1次元的に行う方法,” 川上と岡本, 信学技報, vol. IE96−19, pp.31−38, 1996;“A cell model for the detection of local image motion on the magnocellular pathway of the visual cortex,”Kawakami, S. and Okamoto, H., Vision Research, vol. 36, pp. 117−147, 1996)。
【0010】
ここで、特開2000−357235号公報には、このオプティカルフローのパターンを統合して“平面の三次元幾何情報(平面の三次元方位、平面を横切るまでの時間、平面までの最短距離)”を計測する画像計測装置が開示されている。
【0011】
以下では、特開2000−357235号公報に開示されている従来の画像計測装置について説明する。かかる画像計測装置は、オプティカルフローのパターンなどの画像から、平面の三次元幾何情報や点の位置情報などを計測する装置である。
【0012】
はじめに、従来の画像計測の原理について説明する。
【0013】
(1.平面の三次元方位と横切るまでの時間の計測法)
まず、平面の三次元幾何情報のうち、平面の三次元方位(法線ベクトル)nsと平面を横切るまでの時間を計測する方法について説明する。
【0014】
ここで、平面がある移動方向vに移動しているとする。図29には、平面2(三次元方位ns)が、現時刻t0から次の時刻t1へと移動し、さらに時刻tcに平面2がカメラ中心Oを横切る様子が図示されている。
【0015】
同図において、各時刻における平面2上の三角形の頂点(白丸)は、眼球の網膜(または球面カメラ)の上に、カメラ中心と各頂点を結んだ線と眼球面(または球面カメラ)との交点(黒丸)として写る。
【0016】
以降では簡単のために、眼球(または球面カメラ)の直径は1とする。従って、カメラ中心と黒丸を結ぶベクトルは、大きさ1の“単位ベクトル”となる。
【0017】
(1.1. 平面の三次元方位nsを計測する原理)
図30は、平面の三次元方位を計測する原理を説明する図であり、図29に示した時刻tcの様子を抜き出したものである。
【0018】
この時刻tcでは、平面2がカメラ中心Oを通るため、平面2上の点群(白丸)が球面3上で“大円gnsの上の点群(黒丸)”として縮退して投影される。この大円gnsは、平面2と球面3との交線である。従って、ベクトルpcは、平面2の三次元方位nsと直交する。
【0019】
この関係から、平面2の三次元方位nsは、ベクトルpcの「極変換」として次のようにして計測される。すなわち、各ベクトルpcについてそれを中心とする大円(大円は球面3上で最も大きい円)を描くと、それら大円群は、一点で交差し、その交差点として平面2の三次元方位nsが計測される。
【0020】
このように、平面2上の複数の点についてベクトルpcが判ると、極変換を行って平面2の三次元方位nsを求めることができる。ここで、極変換の用語を説明しておくと、上記の球面3上のベクトルpcおよび大円がそれぞれ「極」および「極線」と言われ、極(ベクトルpc)を極線(大円gns)に変換する操作が「極変換(polar transformation)(または双対変換(duality))」と称される。
【0021】
(1.2. 平面を横切るまでの規格化時間ntcを計測する原理)
つぎに、規格化時間ntcを計測する原理を説明する。ここで、規格化時間ntcは、平面2を横切るまでの時間tcを“現時刻t0と次の時刻t1の時間差Δt”で規格化した時間であり、次の式(1)で表される。また、時間差Δtは、次の式(2)で表される。
【0022】
ntc=tc/Δt ・・・(1)
Δt=t1−t0  ・・・(2)
【0023】
図31は、図30に示した球面3上に投影された三角形(黒丸)が移動する様子を示す図である。現時刻t0での三角形1p0、2p0、3p0が次の時刻t1では1p1、2p1、3p1に移動する。次に平面2(図30参照)を横切る時刻tcでは、平面2の三次元方位nsと直交する大円gnsにおける三点1pc、2pc、3pcに縮退して移動し、最後に無限時間経過後には移動方向vに収束する。
【0024】
三角形の各頂点(黒丸)は、移動方向vとそれらを結ぶ大円1g、2g、3gの上を移動する。なお、移動方向vは、無限時間経過後の位置であることから、以降ではpinfとも記す。
【0025】
規格化時間ntcを計測するための準備として、図32を参照して、現時刻の位置(点)p0、次時刻の位置(点)p1、そして無限時間経過後の位置(点)pinfを知って、現時刻における点の三次元的な距離(すなわち、カメラ中心Oから点P0までの距離)d0を計測する原理について説明する。
【0026】
図32には、図31に示した移動軌跡を表す大円の一つg(1g、2g、3gのうちいずれか一つ)で球面3を切断した断面を示す図である。同図に示した三角形OP0P1に正弦定理を用いると、点P0までの距離d0と、現在から次時刻までの移動距離Δxとの間には、次の式(3)で表した関係がある。
【0027】
Δx/sin(p0p1)=d0/sin(pinfp1) ・・・(3)
【0028】
ここで、p0p1は、p0からp1への中心角であり、pinfp1は、pinfからp1への中心角である。式(3)を変形すると、点P0までの距離d0は、次の式(4)で求められる。
【0029】
d0=Δx sin(pinfp1)/sin(p0p1) ・・・(4)
【0030】
ここで、大円の三点a、b、c(図示略)についての「単比(abc)」は、次の(5)式で定義される(「射影幾何(グーリエビッチ著、東京図書)」の6頁参照)。
【0031】
(abc)=ac/bc=sin(ac)/sin(bc) ・・・(5)
【0032】
この単比を用いると式(4)は、次の式(6)で表される。この単比表現により中心投影の方式によらなくなるため、”球面カメラ”や眼球の大円上を移動する上記の三点p0、p1、pcだけでなく、”平面カメラ画像”の直線の上を移動する三点p0,p1,pcからでも距離d0を計測することができる。すなわち、画像を撮影するカメラ方式によらずに、点の距離d0を三次元計測できる。
【0033】
d0=Δx(pinfp0p1) ・・・(6)
【0034】
以上の準備に基づいて、図33を参照して、平面2を横切るまでの時間、すなわち、規格化時間ntcを計測する原理を説明する。図33は、図32に、時刻tcにカメラ中心Oを横切っている平面2を書き加えた図である。移動速度をVとすると、現在から次の時刻までの移動距離Δxは、現在から次の時刻までの時間差Δtと次の式(7)の関係にある。
【0035】
Δx=V Δt ・・・(7)
【0036】
このことから、式(4)および式(6)に、式(7)を代入すると次の式(8)が導出される。
【0037】

Figure 2004077221
【0038】
また、現在から平面2を横切るまでの時間をtcとすると、三角形O0PPcに正弦定理を適用して上記と同様に変形すると、距離d0は、次の式(9)から求められる。
【0039】
Figure 2004077221
【0040】
ここで、式(8)と式(9)の比をとって整理すると、平面を横切るまでの規格化時間ntcは、次の式(10a)および式(10b)から求められる。
【0041】
Figure 2004077221
【0042】ここで、大円上の四点a,b,c,dについての複比{abcd}は、“二つの単比、(abc)と(abd)、の比”として次の式(11a)で定義され、その複比には、式(11c)の関係がある(「射影幾何(グーリエビッチ著、東京図書)」の257頁および119頁参照)。
【0043】
Figure 2004077221
【0044】
この複比の定義(式(11a))を用いると、式(10)は、次の式(12a)で表される。
【0045】
ntc={pinfp0p1pc}・・・(12a)
【0046】
このように、移動軌跡上の四点p0,p1,pc,pinfが判ると、規格化時間ntcは式(12)の複比として求められる。
【0047】
ここで、式(12a)の射影幾何学的な意味について考察する。「射影幾何学(弥永と平野著、朝倉書店)」の86頁によると、「基点系a,b,cによるdの座標λを複比といい、{abcd}で表される」として複比が定義されている(「射影幾何(グーリエビッチ著、東京図書)」の119頁にも同様の記載あり)。
【0048】
この定義において、基点系a,b,cを基点系pinf,p0,p1に換え、また複比の値λをntcに換えると、「基点系pinf,p0,p1によるpcの座標ntcを複比といい、{pinfp0p1pc}で表される」になる。
【0049】
従って、射影幾何学的には、 式(12a)は、「規格化時間ntcは、原点、無限遠点、単位点をそれぞれp0,pinf,p1とする基点系で計測したpcの座標である」 (12b)を意味する。
【0050】
式(12a)の複比は、射影幾何学の基本的な不変量であり、任意の射影と切断に対して変わらない。つまり、球面カメラや平面カメラなどの任意のカメラ方式の画像に対して複比は変わらない。
【0051】
従って、球面カメラや眼球の大円上を移動する上記の四点p0、p1、pc、pinfだけでなく、平面カメラ画像の直線の上を移動する四点p0、p1、pc、pinfからでも平面を横切るまでの規格化時間ntcを複比として計測することができる。すなわち、画像を撮影するカメラの方式によらずに、規格化時間ntcを計測できることを示している。
【0052】
(1.3. 複比変換と極変換により平面の三次元幾何情報を求める方法)
以上の原理で用いた四つの位置(点)p0、p1、pc、pinfを知ることができるかどうかについて考察する。
【0053】
まず、現時刻の位置p0と次の時刻の位置p1はカメラ画像から知ることができる。次に、無限時刻の位置pinfは、平面(またはカメラ)の移動方向vに等しいから知ることができる。上記の四つの位置のうち直接に知ることができないのは、平面がカメラ中心を横切る時刻tcでの位置pcである。
【0054】
式(10a)または式(12a)を変形して得られる「複比変換」により、その位置pcを推定でき、次にそのpcを1.1の方法で「極変換」することにより、平面の三次元幾何情報(三次元方位ns0と横切るまでの規格化時間ntc0)を計測できることを以下に示す。
【0055】
(1.3.1 複比変換)
この複比変換は、規格化時間ntcおよび三つの時刻での位置p0、p1、pinfを知って、三次元幾何情報の決定に重要な上記の位置pcを計算するものである。式(12a)において四つの変数ntc、p0、p1、pinfが判るから、残りの変数pcを求めることができる。この計算は射影幾何学の複比の計算法としてよく知られている。
【0056】
この計算を具体的に数式で表す。図33の球の断面部分を取り出して図34に示す。pinfを基点にして、それからの中心角a、b、xでp0、p1、pcの位置を表す(注:この基点は任意の位置でよい)。各種の中心角を纏めて下記に示す。
【0057】
pinfp1=b pinfpc=x p0p1=b−a p0pc=x−aこれら中心角を用いて上記の複比変換を数式で示す。式(10a)の右辺すなわち複比を、式(13)の中心角を用いて表すと次の式(14a)となる。
【0058】
pinfp0=a ・・・(13)
ntc=(sin(b)/sin(b−a))/(sin(x)/sin(x−a))・・・(14a)
【0059】
式(14)を変形すると、pcとpinfとの中心角xは、次の式(14b)で与えられる。
【0060】
x=tan−1((sin(a)sin(b))/(cos(a)sin  (b)−ntc sin(b−a)))・・・(14b)
【0061】
従って、規格化時間ntcおよび三つの時刻の位置p0、p1、pinfを与えると、平面を横切る時刻での位置pcが式(14b)により計算されること、すなわち複比変換の数式が示された。
【0062】
ここで、一般の動画像処理やオプティカルフローの研究では上記で用いた“次の時刻の位置p1”の代わりに、“現時刻からの変化分p1−p0(すなわち、運動視差τであり中心角p0p1で表される)”を扱うことが多い。
【0063】
オプティカルフローのパターン(図28)の各矢印がこの変化分であり、矢印の始点が現時刻位置p0で終点が次時刻位置p1である。図34では、その変化分を角度τで表した。この場合の複比変換の数式を以下に示す。各種の中心角は、次の式(15)で表される。
【0064】
pinfp0=a・・・(15)
【0065】
p0p1=τ pinfpc=x pinfp1=a+τ p0pc=x−aであり、式(10a)の右辺を式(15)の中心角を用いて表すと、次の式(16a)で表される。
【0066】
ntc=(sin(a+τ)/sin(τ))/(sin(x)/sin(x−a)) ・・・(16a)
【0067】
これを変形すると、pcとpinfとの中心角xは、次の式(16b)で与えられ、複比変換の別の数式が得られた。
【0068】
x=tan−1((sin(a)sin(a+τ))/(cos(a)sin(a+τ)−ntc sin(τ))) ・・・(16b)
【0069】
(1.3.2 平面の三次元方位と横切るまでの規格化時間の決定法)
つぎに、上記の複比変換を用いて、平面の三次元方位nsと横切るまでの規格化時間ntcを決定する方法を説明する。それは以下の四つの(1)〜(4)のステップで行われる。
【0070】
(1)規格化時間ntcを任意に設定する。
【0071】
(2)画像内の各点について、現在と次の時刻での位置p0、p1をカメラ画像から知り、また無限時間経過後の位置pinfを移動方向vから知って、それらを式(14b)または式(16b)に代入して複比変換を行って、位置pcを計算する。
【0072】
(3)1.1の“平面の三次元方位nsを計測する原理”に基づいて、平面の三次元方位nsの候補を求める。すなわち、ステップ(2)で求めた位置pcを極変換して、球面上に大円を描く。
【0073】
ここで、大円を描く意味を説明する。もしステップ(1)で与えた規格化時間ntcが真の規格化時間ntc0であれば、図30で述べたように、それら大円の交差点として平面の三次元方位ns0が求まる。しかし、ステップ(1)では任意に規格化時間ntcを与えているため、一般には一点で交差しない。
【0074】
従って、ここで描く大円は、平面の三次元方位nsの候補を求めたことになる。なお、上記大円の強度は“画像内の位置p0の明るさ”にし、また複数の大円が交わる場所ではそれら大円の強度を加算した強度にする。
【0075】
(4)以上のステップを規格化時間ntcを変えて行い、ステップ(3)で描かれる複数の大円が一点で交差するパラメータ値を求める。そのパラメータ値として平面を横切るまでの規格化時間ntc0が得られる。
【0076】
また、上記の交差点の座標として、平面の方位ns0が得られる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。
【0077】
ここで、ステップ(2)の複比変換で計算した位置pcの幾何学的意味を説明しておく。位置pcは、任意時刻ntcΔtでの位置を「予測」したものである。
【0078】
この予測は、複比変換のベースである式(10a)の導出過程から明らかであるが、直感的には式(12b)を言い換えて「任意時刻ntcΔt(すなわち規格化時間ntc)の位置を予測するには、原点、無限遠点、単位点をそれぞれp0,pinf,p1とする基点系において、座標が規格化時間ntcの位置pcを求めればよい」とすると理解できる。
【0079】
このようにして予測される位置pcが大円上に並ぶ時刻が、図30に示した“平面がカメラ中心Oを横切る時刻ntc0Δt(すなわちtc0)”であり、その時刻に対応して“平面を横切るまでの規格化時間ntc0”が決定される。
【0080】
位置pcを極変換した大円は一点で交わり、その交差点の座標として平面の三次元方位ns0が決定される(図30)。
【0081】
(1.3.3 上記ステップの幾何学的意味)
上述の各ステップの幾何学的意味を図35により説明する。図35(a)に示されているように、球面カメラ画像の上の各点は、現時刻の位置p0から次の時刻の位置p1に移動し、次に“平面がカメラ中心を横切る時刻”での位置pcを経て、最後に無限時間経過後には“平面(またはカメラ)の移動方向vに等しい位置pinf”に到達する(図31参照)。
【0082】
位置pcの決定(ステップ(2)の意味):“現在と次の時刻の位置p0,p1”およびステップ(1)で与えた“規格化時間ntc”を式(14b)により複比変換して、“平面がカメラ中心を横切る時刻”での位置pcを決定する。
【0083】
この様子を図35(a)に示す。なお、式(16b)の複比変換を用いる場合は、次の時刻の位置p1の代わりに“現時刻の位置p0から次の時刻の位置p1への差ベクトルτ”を用いる。
【0084】
平面方位の候補群{ns}の描画(ステップ(3)の意味):上記で決定された位置pcを極変換して、球面上に大円、すなわち平面方位の候補群{ns}を図35(a)のように描く。
【0085】
もしステップ(1)で与えた規格化時間ntcが真の規格化時間ntc0であれば、画像内の複数の点に対応するこれら大円の交差点として平面の三次元方位ns0が求まる。
【0086】
円柱配列の座標値として三次元幾何情報を決定(ステップ(4)の意味):図35(a)の球面を平面の上に射影して、球面上の像を「円」の内部に変換する。
【0087】
射影する方法には、等立体角射影法、等距離射影法、正射影法等が知られている(「最新レンズ設計講座23レンズ設計に付随する諸問題(1) (中川著、写真工業、1982年)」;「昭和59年度実用原子力発電施設作業ロボット開発委託研究成果報告書(極限作業ロボット技術研究組合)」の4.2.2.1節;「昭和60年度実用原子力発電施設作業ロボット開発委託研究成果報告書(極限作業ロボット技術研究組合)」の4.2.2.1節)。
【0088】
その円を規格化時間ntcを縦軸にして積み重ねて、図35(b)のような「円柱配列」にする。このようにすると、ステップ(1)の幾何学的意味がはっきりする。
【0089】
つまり、ステップ(1)で任意に与えた規格化時間ntcは、この円柱の高さ座標を指定したことになり、ステップ(2)と(3)では、その高さでの断面円、すなわち、図35(a)の球面像を「円」の内部に変換したものを描いたことになる。
【0090】
ステップ(1)では任意に規格化時間ntcを与えているため、図35(b)の上面に示すように大円は一点で交差しないが、その高さが真の規格化時間ntc0に等しくなる断面円では、大円が一点で交差する。
【0091】
従って、この円柱の「高さ座標」として平面の規格化時間ntc0が得られ、また「断面円内での交差座標」として三次元方位ns0が得られる(図35(b))。
【0092】
(1.4 シミュレーションによる確認)
1.3.2と1.3.3で説明した“平面の三次元幾何情報を計測するアルゴリズム”が正しいことを計算機シミュレーションで示す(図36参照)。
【0093】
まず、入力データを説明する。球面カメラ(または眼球)の真正面に垂直な平面があり、カメラ中心までの距離が3mである。その平面が、それに垂直な方向(すなわち、平面の三次元方位ns0と平行な方向)に、カメラに向かって1m/秒の速度で移動する。
【0094】
その平面の上に8個の点があり、それらの点の“現在と次の時刻の球面上位置p0、p1”が入力画像データとして観測される。なお、現在から次の時刻までの時間差Δtは0.05秒であり、無限時刻の位置pinfはカメラの移動方向vに等しく視野中心にある。
【0095】
以上から、カメラが平面を横切るまでの時間tcは3/1=3秒であり、従って規格化時間ntc0は3/0.05=60である。また、平面の三次元方位ns0は視野中心にある。
【0096】
現在と次の時刻の位置p0、p1および無限時間経過後の位置pinfから、前述のアルゴリズム(複比変換と極変換)により、平面の三次元幾何情報(ntc0とns0)を求めたシミュレーション結果を図36に示す。1.3.3で説明した各規格化時間ntcでの“円柱の断面円”を並べて示す。
【0097】
各断面円は、図35(a)の球面を“1.3.3で説明した等距離射影方式”で球を通る平面上に射影してある。右下が現在時刻に対応するntc=0での断面円で、左上の無限時刻に対応するntc=無限に向かって、規格化時間ntcが大きくなる順に並べてある。
【0098】
各断面円について説明する。各断面円には、位置p0、p1と規格化時間ntcから「複比変換」で計算した位置pcがドットで描かれており、平面上の8個の点に対応して8個の位置pcが描かれている。
【0099】
この位置pcは、1.3.2で述べたように、任意時刻ntcΔtで各点の見える位置を「予測」したものである。次に、位置pcを「極変換」した8個の大円が描かれている。
【0100】
最初の断面円(右下、ntc=0)では、それら大円が散らばって存在するが、規格化時間ntcが大きくなるにつれて収束していき、規格化時間ntcが60の断面円(右端の上から2番目)ではそれら大円が一点で交差する。
【0101】
これよりも規格化時間ntcが大きくなるとまた発散していく。このように、規格化時間ntc=60の高さでだけ大円が一点で交差する。この高さntcが上述の“平面を横切るまでの規格化時間ntc0”の値60に等しい。また、一点に交差する方位は視野の中心にあり、上述の“平面の三次元方位ns0”に等しい。
【0102】
(1.5 移動方向に平面を横切るまでの規格化距離ndcを計測する方法)
規格化距離ndcは、“移動方向に平面を横切るまでの距離dc(この距離は図33のVtcである)”を“現在から次の時刻までの移動距離Δx”で規格化したものであり、式(17a)で表される。
【0103】
ndc=dc/Δx=Vtc/Δx ・・・(17a)
【0104】
式(17a)に式(7)を代入し、また式(1)を用いて変形すると次の式(17b)が導出される。
【0105】
ndc=Vtc/(VΔt)=tc/Δt=ntc ・・・(17b)
【0106】
規格化距離ndcは、前述の“規格化時間ntc”に等しいことが示された。従って、規格化時間ntcを求める方法(1.3.2)をそのまま用いて規格化距離ndcを計測できる。
【0107】
図37は、従来の画像計測装置10の構成を示すブロック図である。カメラ11は、図28に対応する入力画像を、時刻t0および時刻t1(>時刻t0)で2フレーム分撮影する。
【0108】
時刻t0に対応する入力画像のデータは、時刻t0画像レジスタ12に格納される。図39には、時刻t0画像レジスタ12に格納された入力画像G0が図示されている。この入力画像G0は、図28に対応しており、時刻t0でカメラ11に撮像されたものである。
【0109】
一方、時刻t1に対応する入力画像のデータは、時刻t1画像レジスタ13に格納される。同入力画像も、図28に対応しており、時刻t1でカメラ11に撮像されたものである。
【0110】
移動方向v抽出ユニット14は、時刻t0画像レジスタ12に格納された入力画像における全点の位置{ip0}と、時刻t1画像レジスタ13に格納された入力画像における全点の位置{ip1}とから、前述した移動方向vを抽出する。なお、この移動方向vを既知として与えてもよい。
【0111】
pinf設定ユニット15は、移動方向v抽出ユニット14により抽出された移動方向vを無限時刻の位置pinfとして後述する複比変換ユニット23に設定する。局所領域番号i走査ユニット16は、入力画像内の各点を含む局所領域を表す局所領域番号iを下限値iminから上限値imaxまで走査する。
【0112】
局所領域画像切出しユニット17は、時刻t0画像レジスタ12に格納された入力画像と、時刻t1画像レジスタ13に格納された入力画像のそれぞれから、上記局所領域番号iに対応する局所領域の中心画素ip0を中心とする時刻t0局所領域画像GK0および時刻t1局所領域画像GK1を切り出す。
【0113】
図38に示したように、時刻t0局所領域画像GK0は、中心画素ip0を中心とする所定面積の画像である。局所領域番号iが走査されることにより、図39に示したように、時刻t0画像レジスタ12に格納された入力画像G0からは、複数の時刻t0局所領域画像GK0、・・・が順次切り出される。
【0114】
なお、図38に示したように、時刻t0局所領域画像GK0に対応する局所領域が四角囲みで図示されているが、図12では、時刻t0局所領域画像GK0に対応する局所領域が便宜的に丸囲みで図示されている。また、図39に示した複数の時刻t0局所領域画像GK0、・・・のそれぞれは、同一面積の局所領域であって同一の分解能(解像度)とされている。
【0115】
なお、一方、時刻t1画像レジスタ13に格納された入力画像から切り出される複数の時刻t1局所領域画像GK1(図38参照)も、複数の時刻t0局所領域画像GK0と同様にして、同一面積の局所領域であって同一の分解能(解像度)とされている。
【0116】
図37に戻り、ip0変換ユニット18は、局所領域番号i走査ユニット16で走査された局所領域番号iを中心画素ip0に変換する。運動視差番号k走査ユニット19は、運動視差番号kを下限値kminから上限値kmaxまで走査する。この運動視差番号kは、運動視差のシリアル番号であり、図41に示したように、運動視差kτすなわち視差ベクトル(kτx、 kτy)と対応している。
【0117】
運動視差kτ変換ユニット20は、運動視差番号k走査ユニット19により走査された運動視差番号kに基づいて、運動視差kτを出力する。
【0118】
運動視差検出ユニット21は、図38に示したように、時刻t0局所領域画像GK0、時刻t1局所領域画像GK1および運動視差kτに基づいて、つぎの式(18)から応答強度を計算する。
【0119】
応答強度=ΣxΣy ia0(x,y)ia1(x−kτx,y−kτy) ・・(18)
【0120】
ここで、ia0(x,y)は、現時刻の局所領域画像(図38左上)内の(x,y)画素の強度であり、ia1(x,y)は次時刻の局所領域画像(図38左下)内の(x,y)画素の強度である。
【0121】
なお、応答強度は、前述した特開平05−165956号公報、特開平05−165957号公報、特開平06−044364号公報、特開平09−081369号公報;“2次元相関およびコンボリューションをハフ平面のρ座標に沿って1次元的に行う方法,” 川上と岡本, 信学技報, vol. IE96−19, pp.31−38, 1996;“A cell model for the detection of local image motion on the magnocellular pathway of the visual cortex,”Kawakami, S. and Okamoto, H., Vision Research, vol. 36, pp. 117−147, 1996に開示された方法によっても求められる。
【0122】
図37に戻り、規格化時間ntc走査ユニット22は、下限値ntc,minから上限値ntc,maxまで規格化時間ntcを走査する。複比変換ユニット23は、四つのパラメータntc、kτ、ip0、pinfに基づいて、位置ikpcの情報を出力する。
【0123】
極変換ユニット24は、上記の位置ikpcを球面上の大円に極変換して、その大円を構成する点群の位置{ikpGC}を出力する。円柱配列投票ユニット25は、規格化時間ntc(高さ)の大円上の点群に、運動視差検出ユニット21からの応答強度(平面パラメータ)を投票する。
【0124】
ピーク抽出ユニット26は、上記円柱配列の中で投票された応答強度が極大(ピーク)になる点を抽出する。この極大点は、大円群が一点に交差する場所である。この極大点の高さ座標として平面を横切るまでの規格化時間ntc0が求められ、また断面円内の座標として平面の三次元方位ns0が求められる。
【0125】
つぎに、従来の画像計測装置10の動作について、図40に示したフローチャートを参照しつつ説明する。
【0126】
(1)無限時刻の位置pinfを下記のようにして設定する(ステップSA1)。すなわち、移動方向v抽出ユニット14は、時刻t0画像レジスタ12に格納された入力画像(入力画像G0:図39参照)と、時刻t1画像レジスタ13に格納された入力画像に基づいて、時刻t0および時刻t1における全点の位置{ip0}、{ip1}から移動方向vを抽出する。次に、pinf設定ユニット15は、移動方向v抽出ユニット14で抽出された移動方向vに等しいとして無限時刻の位置pinfを複比変換ユニット23に設定する。
【0127】
(2)局所領域番号i走査ユニット16は、画像内の各点の局所領域番号iを下限値iminから上限値imaxまで走査する(ステップSA2、ステップSA3、ステップSA17)。(iを走査)
【0128】
(3)局所領域画像切出しユニット17は、時刻t0画像レジスタ12に格納された入力画像(入力画像G0:図39参照)および時刻t1画像レジスタ13に格納された入力画像のそれぞれから、局所領域番号i走査ユニット16により走査された局所領域番号iに対応する中心画素ip0を中心とする時刻t0局所領域画像GK0および時刻t1局所領域画像GK1を切り出す(図38参照)。
【0129】
(4)運動視差番号k走査ユニット19は、運動視差番号kを下限値kminから上限値kmaxまで走査する。(ステップSA5、ステップSA6、ステップSA16)。 (kを走査)
【0130】
(5)運動視差kτ変換ユニット20は、運動視差番号k走査ユニット19により走査された運動視差番号kに基づいて、運動視差kτを出力する(ステップSA7)。
【0131】
但し、運動視差kτすなわち視差ベクトル(kτx、 kτy)の方向が、図35(a)に示したip0からv(すなわち、pinf)への方向と違っている場合には、この移動方向vと矛盾する運動視差のため、ステップSA9〜ステップSA14がスキップされる(ステップSA8の判断結果が「No」)。
【0132】
(6)運動視差検出ユニット21は、図38に示したように、時刻t0局所領域画像GK0、時刻t1局所領域画像GK1および運動視差kτに基づいて、上述した式(18)から応答強度を計算する(ステップSA9)。
【0133】
(7) 規格化時間ntc走査ユニット22は、下限値ntc,minから上限値ntc,maxまで規格化時間ntcを走査する(ステップSA10、ステップSA11、ステップSA15)。
【0134】
(8)ip0変換ユニット18は、局所領域番号iを中心画素ip0に変換する。複比変換ユニット23は、以上で設定された四つのパラメータntc,kτ,ip0,pinfに基づいて、位置ikpcを出力する(ステップSA12)。
【0135】
(9)極変換ユニット24は、球面上の大円に極変換して、その大円を構成する点群の位置{ikpGC}を出力する(ステップSA13)。
【0136】
(10)円柱配列投票ユニット25は、高さntcの大円上の点群に、運動視差検出ユニット21からの応答強度(平面パラメータ)を投票する(ステップSA14)。ここまでの処理で、位置ip0の点が複比変換および極変換された一個の大円が、高さがntcの断面円内に描かれる。
【0137】
(ntcを走査(ステップSA15))
(kを走査(ステップSA16))
(iを走査(ステップSA17))
【0138】
(11)ここまでの処理で、全ての高さ{ntc}の断面円内に、入力画像内の全ての点{ip0}が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
【0139】
(12)ピーク抽出ユニット26は、円柱配列の中で投票された強度が極大(ピーク)になる点を抽出する。この極大点が大円群が一点に交差する場所である。この極大点の高さ座標として平面を横切るまでの規格化時間ntc0が求められ、また断面円内の座標として平面の三次元方位ns0が求められる(ステップSA18)。
【0140】
【発明が解決しようとする課題】
ところで、図28に示したように、オプティカルフロー(局所速度)は、入力画像の中心部(移動方向近く)ほど小さく、周辺部(移動方向から離れた部分)ほど大きくなる。同図では、中心部ほど局所速度ベクトルのスカラ量が小さく、周辺部ほど同スカラ量が大きくなる様子が図示されている。
【0141】
ここで、従来の画像計測装置10では、図39に示したように入力画像の全体に亘って均一な分解能で局所運動検出が行われているため、局所速度が分解能以下となってしまい、正しく局所運動を検出できない領域が大きくなるという問題があった。
【0142】
また、従来の画像計測装置10では、同入力画像の全体に亘って局所領域(同図丸囲みされた領域)のサイズが均一であるため、局所速度が局所領域のサイズを超えてしまい、正しく局所運動を検出できない領域が大きくなるという問題があった。
【0143】
このように、局所領域内の局所運動を正しく検出できない領域が大きくなった場合には、投票空間(円柱配列)への平面の特徴パラメータの投票を正しく行うことができず、結果として平面の特徴パラメータの計測精度が低くなるという問題があった。
【0144】
本発明は、上記に鑑みてなされたもので、平面の特徴パラメータの計測精度を高めることができる画像計測プログラムを提供することを目的とする。
【0145】
【課題を解決するための手段】
上記目的を達成するために、本発明は、コンピュータを、画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、前記運動視差の分布に応じて前記局所領域の分解能を、局所領域毎に変化するように設定する局所領域設定手段、前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、として機能させるための画像計測プログラムである。
【0146】
この発明によれば、運動視差の分布に応じて局所領域の分解能を、局所領域毎に変化するように設定し、運動視差の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、局所領域の位置によって運動視差が分解能以下となるという事態が回避され、平面の特徴パラメータの計測精度を高めることができる。
【0147】
また、本発明は、コンピュータを、画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、前記運動視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定手段、前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、として機能させるための画像計測プログラムである。
【0148】
この発明によれば、運動視差の分布に応じて局所領域のサイズを、局所領域毎に変化するように設定し、運動視差の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、運動視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができる。
【0149】
また、本発明は、コンピュータを、画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、前記運動視差の分布に応じて前記局所領域の分解能およびサイズを、局所領域毎に変化するように設定する局所領域設定手段、前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、として機能させるための画像計測プログラムである。
【0150】
この発明によれば、運動視差の分布に応じて局所領域の分解能およびサイズを、局所領域毎に変化するように設定し、運動視差の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、局所領域の位置によって運動視差が分解能以下となったり、運動視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができる。
【0151】
また、本発明は、コンピュータを、画像における各局所領域内の両眼視差をそれぞれ検出する両眼視差検出手段、前記両眼視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定手段、前記両眼視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、として機能させるための画像計測プログラムである。
【0152】
この発明によれば、両眼視差の分布に応じて局所領域のサイズを、局所領域毎に変化するように設定し、両眼視差の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、局所領域の位置によって両眼視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができる。
【0153】
【発明の実施の形態】
以下、図面を参照して本発明にかかる画像計測プログラムの実施の形態1〜3について詳細に説明する。
【0154】
図1は、本発明にかかる実施の形態1の構成を示すブロック図である。同図において、図37の各部に対応する部分には同一の符号を付ける。
【0155】
ここで、実施の形態1の動作原理について、図2〜図6を参照して説明する。図2は、図39に対応している。実施の形態1では、図2に示した時刻t0で入力された入力画像G0の時刻t0局所領域画像GK0の各分解能を、図3(a)および図4(a)に示したように、中心部ほど高く、周辺部ほど低くなるように設定される。
【0156】
なお、時刻t1の入力画像(図示略)においても、局所領域画像の各分解能を中心部ほど高く、周辺部ほど低くなるように設定される。
【0157】
また、実施の形態1では、図2に示した入力画像G0の時刻t0局所領域画像GK0の各サイズを、図3(b)および図4(b)に示したように、中心部ほど小さく、周辺部ほど大きくなるように設定される。
【0158】
なお、時刻t1の入力画像(図示略)においても、局所領域画像の各サイズを中心部ほど小さく、周辺部ほど大きくなるように設定される。
【0159】
実際には、実施の形態1では、図3(c)および図4(c)に示したように、分解能とサイズとの比が一定となるように設定される。
【0160】
ここで、図5に示したように、球面レンズ等の撮像面の中心部ほど入力画像上の局所速度が遅く(運動視差が小さく)、中心部より離れた周辺部ほど局所速度が速い(運動視差が大きい)。同様にして、図6(a)および(b)に示したように、撮像面の中心部ほど局所速度が遅く(運動視差が小さく)、周辺部ほど局所速度が速い(運動視差が大きい)。
【0161】
そこで、実施の形態1では、入力画像の位置(中心部、周辺部)における局所速度の変化に対応させて、入力画像の局所領域画像の分解能(およびサイズ)を中心部ほど高く(小さく)し、周辺部ほど低く(大きく)することにより、前述した従来の問題点を解決している。
【0162】
図1に示した画像計測装置100において、局所領域設定部101は、時刻t0画像レジスタ12および時刻t1画像レジスタ13のそれぞれに格納された入力画像について、位置(中心部、周辺部)に応じて分解能およびサイズを変化させた局所領域画像に関する局所領域を設定する。この設定結果としての局所領域設定情報は、図7に示したテーブル150に格納される。なお、局所領域設定情報の詳細については、後述する。
【0163】
局所領域番号i走査ユニット102は、局所領域画像を識別するための局所領域番号iを走査する。
【0164】
局所領域画像切出しユニット103は、局所領域設定情報テーブル150を参照して、時刻t0画像レジスタ12に格納された入力画像と、時刻t1画像レジスタ13に格納された入力画像とのそれぞれから、上記局所領域番号iに対応する時刻t0局所領域画像GK0および時刻t1局所領域画像GK1を切り出す。
【0165】
次に、実施の形態1の動作について、図9〜図12に示したフローチャートを参照しつつ説明する。図9に示したステップSB1では、図1に示した局所領域設定部101は、時刻t0画像レジスタ12に格納されている入力画像に対して、図3(c)に示したように分解能およびサイズを位置によって変化させた局所領域を設定するという第1の局所領域設定処理を実行する。
【0166】
具体的には、図10に示したステップSC1では、局所領域設定部101は、時刻t0画像レジスタ12に格納された図8(a)に示した入力画像G0におけるβ方向(半径方向)のピッチΔβを設定する。ここで、同図に示した画角βは、図8(b)に示したようにカメラ焦点と撮像面との間の角度である。また、ピッチΔβは、例えば、図8(c)に示したf(β)より設定される。
【0167】
ステップSC2では、局所領域設定部101は、図8(a)に示した入力画像G0におけるα方向(円周方向)のピッチΔαを設定する。ステップSC3では、局所領域設定部101は、局所領域番号iに1を設定する。ステップSC4では、局所領域設定部101は、局所領域番号i(=1)に対応する局所領域におけるβ方向の位置を計算(Δβを積分)する。
【0168】
ステップSC5では、局所領域設定部101は、局所領域番号i(=1)に対応する局所領域画像における中心画素ip0(図38参照)を決定する。ステップSC6では、局所領域設定部101は、原画像と局所領域画像との画素比を設定する。
【0169】
具体的には、図8(d)および(e)に示したように、入力画像G0の中心部付近の原画像200Aが上記局所領域番号iに対応する画像である場合には、分解能を高くするために、画像比として1が設定され、局所領域画像200B(図8(e))が設定される。
【0170】
また、図8(f)および(g)に示したように、入力画像G0の中心部から少し離れた位置の原画像201Aの場合には、原画像200A(図8(d)参照))よりもサイズが大きくとられ、分解能を低くするための画像比として2が設定され、局所領域画像201B(図8(g))が設定される。この場合には、原画像201Aの2×2画素が平均化され、局所領域画像201Bで1画素とされている。なお、画像比は、重み付き平均化等により原画像を局所領域画像に変換できることから、整数に限定されない。
【0171】
また、図8(h)および(i)に示したように、入力画像G0の周辺部の原画像202Aの場合には、原画像201A(図8(f)参照))よりもさらにサイズが大きくとられ、分解能をさらに低くするための画像比として3が設定され、局所領域画像202B(図8(i))が設定される。この場合には、原画像202Aの3×3画素が平均化され、局所領域画像202Bで1画素とされている。
【0172】
このように、局所領域画像200B(図8(e)参照)、局所領域画像201B(図8(g)参照)および局所領域画像202B(図8(i)参照)は、入力画像G0の中心部から周辺部にかけてそれぞれ設定されており、分解能が高から低とされているとともに、サイズが小から大とされている。
【0173】
ただし、局所領域画像200B(図8(e)参照)、局所領域画像201B(図8(g)参照)および局所領域画像202B(図8(i)参照)のそれぞれの画素数は、一定(k×k画素)である。
【0174】
ステップSC7では、局所領域設定部101は、局所領域番号i(=1)に対応する局所領域画像200B(図8(e)参照)におけるm(縦方向座標)に1を設定する。ステップSC8では、局所領域設定部101は、上記局所領域画像200Bにおけるl(横方向座標)に1を設定する。
【0175】
ここで、局所領域画像(局所領域画像200B等)を構成する各画素は、画素番号(l、m)で表される。一方、原画像(原画像200A等)を構成する各画素は、画素番号(a、b)で表される。
【0176】
ステップSC9では、局所領域設定部101は、局所領域番号i(=1)に対応する局所領域画像200B(図8(e)参照)と原画像200A(図8(d)参照)との関係を対応付けるために、局所領域画像200B(図8(e)参照)の画素番号(l、m)と原画像200Aの画素番号(a、b)との対応関係を決定する。
【0177】
ステップSC10では、局所領域設定部101は、局所領域設定情報テーブル150(図7参照)に、局所領域番号i(=1)に対応付けて、局所領域画像200Bの画素番号(l、m)および原画像200Aの画素番号(a、b)からなる局所領域設定情報を格納する。
【0178】
ステップSC11では、局所領域設定部101は、局所領域画像200Bの画素の強度ia0(x、y)を計算する。この画素の強度ia0(x、y)は、図38に示した時刻t0局所領域画像GK0の強度ia0(x、y)に対応している。
【0179】
ステップSC12では、局所領域設定部101は、lがlmaxであるか否かを判断し、この場合、判断結果を「No」とする。ステップSC15では、局所領域設定部101は、lを1インクリメントしlを走査する。以後、ステップSC12の判断結果が「Yes」になるまで、ステップSC9以降の処理が実行される。
【0180】
そして、ステップSC12の判断結果が「Yes」になると、ステップSC13では、局所領域設定部101は、mがmmaxであるか否かを判断し、この場合、判断結果を「No」とする。ステップSC16では、局所領域設定部101は、mを1インクリメントし、mを走査する。以後、ステップSC13の判断結果が「Yes」になるまで、ステップSC8以降の処理が実行される。
【0181】
そして、ステップSC13の判断結果が「Yes」になると、ステップSC14では、局所領域設定部101は、局所領域番号iがimaxであるか否かを判断し、この場合、判断結果を「No」とする。ステップSC17では、局所領域設定部101は、局所領域番号iを1インクリメントする。
【0182】
以後、ステップSC14の判断結果が「Yes」になるまで、ステップSC4以降の処理が実行される。これにより、図4(c)に示したように、時刻t0画像レジスタ12に格納された入力画像に関して局所領域番号i(1〜imax)に対応する複数の局所領域画像が設定される。これらの局所領域画像は、入力画像の中心部ほど分解能が高くサイズが小さく、周辺部ほど分解能が低くサイズが大きいという特徴を備えている。
【0183】
そして、ステップSC14の判断結果が「Yes」になると、図9に示したステップSB2では、図1に示した局所領域設定部101は、上述した第1の局所領域設定処理と同様にして、時刻t1画像レジスタ13に格納されている入力画像に対して、分解能およびサイズを位置によって変化させた局所領域を設定するという第2の局所領域設定処理を実行する。
【0184】
具体的には、図11に示したステップSD1では、局所領域設定部101は、局所領域番号iに1を設定する。
【0185】
ステップSD2では、局所領域設定部101は、局所領域番号i(=1)に対応する局所領域画像におけるm(縦方向座標)に1を設定する。ステップSD3では、局所領域設定部101は、上記局所領域画像におけるl(横方向座標)に1を設定する。
【0186】
ステップSD4では、局所領域設定部101は、図7に示した局所領域設定情報テーブル150から、局所領域番号iに対応する局所領域設定情報(局所領域画像の画素番号(l、m)および原画像の画素番号(a、b))を読み出す。
【0187】
ステップSD5では、ステップSC11(図10参照)と同様にして、ステップSD4で読み出された局所領域画像情報に基づいて、局所領域画像の画素の強度ia0(x、y)を計算する。
【0188】
ステップSD6では、局所領域設定部101は、lがlmaxであるか否かを判断し、この場合、判断結果を「No」とする。ステップSD9では、局所領域設定部101は、lを1インクリメントしlを走査する。以後、ステップSD6の判断結果が「Yes」になるまで、ステップSD4以降の処理が実行される。
【0189】
そして、ステップSD9の判断結果が「Yes」になると、ステップSD7では、局所領域設定部101は、mがmmaxであるか否かを判断し、この場合、判断結果を「No」とする。ステップSD10では、局所領域設定部101は、mを1インクリメントし、mを走査する。以後、ステップSD7の判断結果が「Yes」になるまで、ステップSD3以降の処理が実行される。
【0190】
そして、ステップSD7の判断結果が「Yes」になると、ステップSD8では、局所領域設定部101は、局所領域番号iがimaxであるか否かを判断し、この場合、判断結果を「No」とする。ステップSD11では、局所領域設定部101は、局所領域番号iを1インクリメントする。
【0191】
以後、ステップSD8の判断結果が「Yes」になるまで、ステップSD2以降の処理が実行される。これにより、時刻t1画像レジスタ13に格納された入力画像について局所領域番号i(1〜imax)に対応する複数の局所領域画像が設定される。これらの局所領域画像は、入力画像の中心部ほど分解能が高くサイズが小さく、周辺部ほど分解能が低くサイズが大きいという特徴を備えている。
【0192】
そして、ステップSD8の判断結果が「Yes」になると、図9に示したステップSB3では、画像計測処理が実行される。具体的には、図12に示した画像計測処理が実行される。同図に示したフローチャートは、以下のように、前述した図40に示したフローチャートと同様である。
【0193】
(1)無限時刻の位置pinfを下記のようにして設定する(ステップSE1)。すなわち、移動方向v抽出ユニット14は、時刻t0画像レジスタ12に格納された入力画像と、時刻t1画像レジスタ13に格納された入力画像に基づいて、時刻t0および時刻t1における全点の位置{ip0}、{ip1}から移動方向vを抽出する。次に、pinf設定ユニット15は、移動方向v抽出ユニット14で抽出された移動方向vに等しいとして無限時刻の位置pinfを複比変換ユニット23に設定する。
【0194】
(2)局所領域番号i走査ユニット102は、画像内の各点の局所領域番号iを下限値iminから上限値imaxまで走査する(ステップSE2、ステップSE3、ステップSE17)。(iを走査)
【0195】
(3)局所領域画像切出しユニット103は、局所領域設定情報テーブル150を参照して、時刻t0画像レジスタ12に格納された入力画像および時刻t1画像レジスタ13に格納された入力画像のそれぞれから、局所領域番号i走査ユニット102により走査された局所領域番号iに対応する中心画素ip0を中心とする時刻t0局所領域画像GK0および時刻t1局所領域画像GK1を切り出す(ステップSE4、図38参照)。
【0196】
(4)運動視差番号k走査ユニット19は、運動視差番号kを下限値kminから上限値kmaxまで走査する。(ステップSE5、ステップSE6、ステップSE16)。 (kを走査)
【0197】
(5)運動視差kτ変換ユニット20は、運動視差番号k走査ユニット19により走査された運動視差番号kに基づいて、運動視差kτを出力する(ステップSE7)。
【0198】
但し、運動視差kτすなわち視差ベクトル(kτx、kτy)の方向が、図35(a)に示したip0からv(すなわち、pinf)への方向と違っている場合には、この移動方向vと矛盾する運動視差のため、ステップ9〜ステップSE14がスキップされる(ステップSE8の判断結果が「No」)。
【0199】
(6)運動視差検出ユニット21は、図38に示したように、時刻t0局所領域画像GK0、時刻t1局所領域画像GK1および運動視差kτに基づいて、上述した式(18)から応答強度を計算する(ステップSE9)。
【0200】
(7) 規格化時間ntc走査ユニット22は、下限値ntc,minから上限値ntc,maxまで規格化時間ntcを走査する(ステップSE10、ステップSE11、ステップSE15)。
【0201】
(8)ip0変換ユニット18は、局所領域番号iを中心画素ip0に変換する。複比変換ユニット23は、以上で設定された四つのパラメータntc,kτ,ip0,pinfに基づいて、位置ikpcを出力する(ステップSE12)。
【0202】
(9)極変換ユニット24は、球面上の大円に極変換して、その大円を構成する点群の位置{ikpGC}を出力する(ステップSE13)。
【0203】
(10)円柱配列投票ユニット25は、高さntcの大円上の点群に、運動視差検出ユニット21からの応答強度(平面パラメータ)を投票する(ステップSE14)。ここまでの処理で、位置(中心画素)ip0の点が複比変換および極変換された一個の大円が、高さがntcの断面円内に描かれる。
【0204】
(ntcを走査(ステップSE15))
(kを走査(ステップSE16))
(iを走査(ステップSE17))
【0205】
(11)ここまでの処理で、全ての高さ{ntc}の断面円内に、入力画像内の全ての点{ip0}が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
【0206】
(12)ピーク抽出ユニット26は、円柱配列の中で投票された強度が極大(ピーク)になる点を抽出する。この極大点は、大円群が一点に交差する場所である。この極大点の高さ座標として平面を横切るまでの規格化時間ntc0が求められ、また断面円内の座標として平面の三次元方位ns0が求められる(ステップSE18)。
【0207】
以上説明したように、実施の形態1によれば、運動視差の分布に応じて図2に示したように局所領域画像の分解能およびサイズを、局所領域画像毎に変化するように設定し、運動視差検出ユニット21の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、局所領域画像の位置によって運動視差が分解能以下となったり、運動視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができる。
【0208】
(実施の形態2)
図13は、本発明にかかる実施の形態2の構成を示すブロック図である。同図において、図1の各部に対応する部分には同一の符号を付ける。同図に示した画像計測装置300において、要素番号j走査ユニット301は、円柱配列投票ユニット302における円柱配列の要素番号jを走査する。
【0209】
円柱配列投票ユニット302には、高さ(規格化時間)ntcの大円上の点群に、運動視差検出ユニット21からの応答強度(平面パラメータ)を投票する。
【0210】
ピーク抽出ユニット303は、上記円柱配列の中で投票された応答強度が極大(ピーク)になる点を抽出する。この極大点は、大円群が一点に交差する場所である。この極大点の高さ座標として平面を横切るまでの規格化時間ntc0が求められ、また断面円内の座標として平面の三次元方位ns0が求められる。
【0211】
ijτテーブル作成ユニット304は、ijτテーブル350(図14参照)を作成する。局所領域番号i走査ユニット305は、局所領域番号i走査ユニット102と同様にして、局所領域番号iを走査する。ip0出力ユニット306は、アドレス(i、j)に対応する画像内の中心画素ip0を出力する。
【0212】
要素番号j走査ユニット307は、要素番号j走査ユニット301と同様にして、円柱配列投票ユニット302における円柱配列の要素番号jを走査する。ntcj出力ユニット308は、アドレス(i、j)に対応する円柱配列要素(ntcj)を出力する。nsj出力ユニット309は、アドレス(i、j)に対応する円柱配列要素(nsj)を出力する。
【0213】
つぎに、実施の形態2の動作について、図15〜図17に示したフローチャートを参照しつつ説明する。
【0214】
図15に示したステップSF1では、図13に示した局所領域設定部101は、ステップSB1(図9参照)と同様にして、時刻t0画像レジスタ12に格納されている入力画像に対して、図3(c)に示したように分解能およびサイズを位置によって変化させた局所領域を設定するという第1の局所領域設定処理を実行する。
【0215】
ステップSF2では、局所領域設定部101は、ステップSB2(図9参照)と同様にして、時刻t1画像レジスタ13に格納されている入力画像に対して、図3(c)に示したように分解能およびサイズを位置によって変化させた局所領域を設定するという第2の局所領域設定処理を実行する。
【0216】
ステップSF3では、ijτテーブル作成ユニット304は、ijτテーブル350(図14参照)を作成するためのijτテーブル作成処理を実行する。
【0217】
具体的には、図16に示したフローチャートに従って、次の手順でijτテーブル作成処理が実行される。
【0218】
(1)無限時刻の位置pinfを下記のようにして設定する(ステップSG1)。すなわち、移動方向v抽出ユニット14は、時刻t0画像レジスタ12に格納された入力画像(入力画像G0:図2参照)と、時刻t1画像レジスタ13に格納された入力画像に基づいて、時刻t0および時刻t1における全点の位置{ip0}、{ip1}から移動方向vを抽出する。次に、pinf設定ユニット15は、移動方向v抽出ユニット14で抽出された移動方向vに等しいとして無限時刻の位置pinfをijτテーブル作成ユニット304に設定する。
【0219】
(2)局所領域番号i走査ユニット305は、画像内の各点(中心画素)ip0に対応する局所領域番号iを下限値iminから上限値imaxまで走査する(ステップSG2、ステップSG3およびステップSG10)。(iを走査)
【0220】
(3)要素番号j走査ユニット307は、円柱配列投票ユニット302における円柱配列内の要素(nsj、ntcj)に対応する要素番号jを下限値jminから上限値jmaxまで走査する(ステップSG4、ステップSG5、ステップSG9)。(jを走査)
【0221】
(4)ip0出力ユニット306、nsj出力ユニット309およびntcj出力ユニット308は、アドレス(i、j)に対応する、画像内の画素(中心画素)ip0および円柱配列要素(nsj、ntcj)を出力する(ステップSG6)。
【0222】
(5)ijτテーブル作成ユニット304は、以上で設定された四つのパラメータ(nsj、ntcj、ip0、pinf)に基づいて、特開2000−357235号公報に記載された方法に従って運動視差ijτを計算する(ステップSG7)。
【0223】
(6)ijτテーブル作成ユニット304は、運動視差ijτを、ijτテーブル350(図14参照)のアドレス(i、j)に対応する内容として格納する(ステップSG8)。
【0224】
図15に戻り、ステップSF4では、画像計測処理が実行される。具体的には、図17に示したフローチャートに従って、次の手順で画像計測処理が実行される。この画像計測処理では、ijτテーブル350(図14参照)を用いて、平面の三次元方位ns0と規格化時間ntc0が検出される。
【0225】
(1)図13に示した局所領域番号i走査ユニット102により、画像内の各点(中心画素)ip0の局所領域番号iを下限値iminから上限値imaxまで走査する(ステップSH1、ステップSH2およびステップSH10)。(iを走査)
【0226】
(2)局所領域画像切出しユニット103は、局所領域設定情報テーブル150を参照して、時刻t0画像レジスタ12に格納された入力画像(入力画像G0:図2参照)および時刻t1画像レジスタ13に格納された入力画像のそれぞれから、局所領域番号i走査ユニット102により走査された局所領域番号iに対応する中心画素ip0を中心とする時刻t0局所領域画像GK0および時刻t1局所領域画像GK1を切り出す(ステップSH3、図38参照)。
【0227】
(3)要素番号j走査ユニット301は、円柱配列投票ユニット302における円柱配列内の要素(nsj、ntcj)の要素番号jを下限値jminから上限値jmaxまで走査する(ステップSH4、ステップSH5およびステップSH9)。(jを走査)
【0228】
(4)ijτテーブル350においては、アドレス(i、j)をキーとして、運動視差ijτが運動視差検出ユニット21へ出力される(ステップSH6)。
【0229】
(5)運動視差検出ユニット21は、図38に示した時刻t0局所領域画像GK0、時刻t1局所領域画像GK1および運動視差ijτに基づいて、つぎの式(19)から応答強度を計算する(ステップSE7)。
【0230】
応答強度=ΣxΣy ia0(x,y)ia1(x−ijτx,y−ijτy)・・・(19)
【0231】
(6)運動視差検出ユニット21は、上記応答強度を、円柱配列投票ユニット302における円柱配列の要素(nsj、ntcj)に投票する(ステップSH8)。
【0232】
(jを走査(ステップSH9))
(iを走査(ステップSH10))
【0233】
(7)ピーク抽出ユニット303は、円柱配列投票ユニット302における円柱配列の中で投票された応答強度が極大(ピーク)になる点を抽出する。この極大点は、大円群が一点に交差する場所である。この極大点の高さ座標として、平面を横切るまでの規格化時間ntc0が求められ、また断面円内の座標として平面の三次元方位ns0が求められる(ステップSH11)。
【0234】
以上説明したように、実施の形態2によれば、実施の形態1と同様の効果を奏する。
【0235】
(実施の形態3)
さて、前述した実施の形態1および2では、時刻t0および時刻t1に対応する2フレーム分の入力画像に基づいて画像計測を行う構成例について説明したが、2台のカメラ(右カメラおよび左カメラ)を用いて、右入力画像および左入力画像に基づいて画像計測を行うように構成してもよい。以下では、この構成例を実施の形態3として説明する。
【0236】
図18は、本発明にかかる実施の形態3の構成を示すブロック図である。同図に示した画像計測装置400において、右カメラ401および左カメラ403は、図19に示したように、平面を撮像するものであり、左右に配置されている。
【0237】
図20に示した左画像404Lは、左カメラ403により撮影されたものであり、右画像402Rは、右カメラ401により撮像されたものである。ここで、左カメラ403と右カメラ401とが離れているため、左画像404Lと右画像402Rとでは写り方に違いがでる。
【0238】
具体的には、左画像404Lから切り出した左局所領域画像GKLと、右画像402Rから切り出した右局所領域画像GKRとでは、ズレ量が両眼視差として表れる。
【0239】
ここで、特開2000−357235号公報に記載されているように、実施の形態1および2で述べた運動視差アルゴリズムの現時刻の位置p0、次の時刻の位置p1、そして無限時刻の位置pinfを、右画像402Rでの位置pR、左画像404Lでの位置pL、右カメラ401と左カメラ403とを結ぶ視軸上の位置Paxisに置き換えると、そのアルゴリズムを用いてステレオ画像から(i)平面の三次元方位ns、(ii)視軸方向に平面を横切るまでの規格化距離ndc、(iii)平面までの規格化最短距離nds、そして(iv)点までの規格化距離nd0を決定できる。
【0240】
図18に戻り、右画像レジスタ402には、右カメラ401で撮像された右画像402R(図20参照)のデータが格納される。左画像レジスタ404には、左カメラ403で撮像された左画像404L(図20参照)が格納される。
【0241】
局所領域設定部405は、前述した局所領域設定部101(図1参照)と同様にして、右画像レジスタ402および左画像レジスタ404にそれぞれ格納された右画像402Rおよび左画像404Lについて、位置(中心部、周辺部)に応じて、図21に示したように局所領域画像のサイズを変化させる。同図においては、局所領域画像は、中心部ほどサイズが大きく、周辺部ほどサイズが小さく設定される。
【0242】
ここで、中心部ほどサイズを大きく、周辺部ほどサイズを小さく設定するのは、サイズを図22に示したように、撮像面の中心部ほど画像上の局所速度が速く(両眼視差が大きく)、中心部より離れた周辺部ほど局所速度が遅い(両眼視差が小さい)からである。このようにサイズを設定することにより、平面の特徴パラメータの計測精度を高めているのである。
【0243】
図18に戻り、局所領域設定部405は、局所領域設定情報テーブル150(図7参照)と同様にして、局所領域設定情報テーブル450に、局所領域番号iに対応付けて、図22に示したサイズ分布の各局所領域画像に関する局所領域設定情報を格納する。
【0244】
Paxis設定ユニット406は、後述するように、視軸上の位置Paxisを視軸方向axisに等しいとしてijσテーブル作成ユニット408に設定する。局所領域番号i走査ユニット407は、画像内の各点ipRのアドレス(局所領域番号)iを下限値iminから上限値imaxまで走査する。
【0245】
ijσテーブル作成ユニット408は、ijσテーブル460(図23参照)を作成する。局所領域番号i走査ユニット409は、画像内の各点ipRのアドレス(局所領域番号)iを下限値iminから上限値imaxまで走査する。
【0246】
ipR出力ユニット410は、アドレス(i、j)に対応する画像内の各点ipRを出力する。要素番号j走査ユニット411は、円柱配列投票ユニット417における円柱配列内の要素(nsj、ndcj)のアドレス(要素番号)jを下限値jminから上限値jmaxまで走査する。
【0247】
ndcj出力ユニット412は、アドレス(i、j)に対応する円柱配列要素(ndcj)を出力する。nsj出力ユニット413は、アドレス(i、j)に対応する円柱配列要素(nsj)を出力する。
【0248】
局所領域画像切出しユニット414は、局所領域設定情報テーブル450を参照して、右画像レジスタ402に格納された右画像402Rおよび左画像レジスタ404に格納された左画像404Lから、アドレスiに対応する画素ipRを中心とする右局所領域画像GKR、左局所領域画像GKLをそれぞれ切り出す。
【0249】
両眼視差検出ユニット416は、右局所領域画像GKR、左局所領域画像GKLおよび両眼視差ijσに基づいて、応答強度を計算する。円柱配列投票ユニット417には、高さntcの大円上の点群に、両眼視差検出ユニット416からの応答強度(平面パラメータ)が投票される。
【0250】
ピーク抽出ユニット418は、円柱配列投票ユニット417の投票結果に基づいて、後述する規格化距離ndc0および平面の三次元方位ns0を求める。
【0251】
つぎに、実施の形態3の動作について、図24〜図26に示したフローチャートを参照しつつ説明する。
【0252】
図24に示したステップSI1では、図18に示した局所領域設定部405は、ステップSB1(図9参照)と同様にして、右画像レジスタ402に格納されている右画像402Rに対して、図21に示したようにサイズ(但し、分解能は一定)を位置によって変化させた局所領域を設定した後、局所領域設定情報を局所領域設定情報テーブル450に格納するという第1の局所領域設定処理を実行する。
【0253】
ステップSI2では、局所領域設定部405は、ステップSB2(図9参照)と同様にして、左画像レジスタ404に格納されている左画像404Lに対して、図21に示したようにサイズ(但し、分解能は一定)を位置によって変化させた局所領域を設定した後、局所領域設定情報を局所領域設定情報テーブル450に格納するという第2の局所領域設定処理を実行する。
【0254】
ステップSI3では、ijσテーブル作成ユニット408は、ijσテーブル460(図14参照)を作成するためのijσテーブル作成処理を実行する。
【0255】
具体的には、図25に示したフローチャートに従って、次の手順でijσテーブル作成処理が実行される。
【0256】
(1)Paxis設定ユニット406は、視軸上の位置Paxisを視軸方向axisに等しいとしてijσテーブル作成ユニット408に設定する(ステップSJ1)。なお、視軸方向axisは、ステレオカメラ(右カメラ401と左カメラ403)の幾何学的配置より、既知である。
【0257】
(2)局所領域番号i走査ユニット409は、画像内の各点ipRのアドレスiを下限値iminから上限値imaxまで走査する(ステップSJ2、ステップSJ3、ステップSJ10)。(iを走査)
【0258】
(3)要素番号j走査ユニット411は、円柱配列投票ユニット417における円柱配列内の要素(nsj、ndcj)のアドレスjを下限値jminから上限値jmaxまで走査する(ステップSJ4、ステップSJ5、ステップSJ9)。(jを走査)
【0259】
(4)ipR出力ユニット410、ndcj出力ユニット412およびnsj出力ユニット413は、これらアドレス(i、j)に対応する、画像内の画素ipRおよび円柱配列要素(nsj、ndcj)を出力する(ステップSJ6)。
【0260】
(5)ijσテーブル作成ユニット408は、以上で設定された四つのパラメータnsj、ndcj、ipR、paxisに基づいて、特開2000−357235号公報に開示された方法で両眼視差ijσを計算する(ステップSJ7)。
【0261】
(6)ijσテーブル作成ユニット408は、両眼視差ijσを、ijσテーブル460(図23参照)のアドレス(i、j)に対応する内容として格納する(ステップSJ8)。
【0262】
(jを走査(ステップSJ9))
(iを走査(ステップSJ10))
【0263】
以上により、ijσテーブル460(図23参照)が得られる。
【0264】
図24に戻り、ステップSI4では、画像計測処理が実行される。具体的には、図26に示したフローチャートに従って、次の手順で画像計測処理が実行される。この画像計測処理では、ijσテーブル460(図23参照)を用いて、平面の三次元方位ns0と規格化距離ndc0が検出される。
【0265】
(1)局所領域番号i走査ユニット407は、画像内の各点ipRのアドレスiを下限値iminから上限値imaxまで走査する(ステップSK1、ステップSK2、ステップSK10)。(iを走査)
【0266】
(2)局所領域画像切出しユニット414は、局所領域設定情報テーブル450を参照して、右画像レジスタ402に格納された右画像402Rおよび左画像レジスタ404に格納された左画像404Lから、アドレスiに対応する画素ipRを中心とする右局所領域画像GKR、左局所領域画像GKLをそれぞれ切り出す(ステップSK3)。
【0267】
(3)要素番号j走査ユニット415は、円柱配列投票ユニット417における円柱配列内の要素(nsj、ndcj)のアドレスjを下限値jminから上限値jmaxまで走査する(ステップSK4、ステップSK5、ステップSK9)。(jを走査)
【0268】
(4)両眼視差検出ユニット416は、アドレス(i、j)をキーとして、ijσテーブル460(図23参照)より両眼視差ijσのデータを出力させる(ステップSK6)。
【0269】
(5)両眼視差検出ユニット416は、右局所領域画像GKR、左局所領域画像GKLおよび両眼視差ijσに基づいて、応答強度をつぎの式(20)より計算する(ステップSK7)。
【0270】
応答強度=ΣxΣy iaR(x,y)iaL(x−ijσx,y−ijσy)・・・(20)
【0271】
(6)両眼視差検出ユニット416は、応答強度を円柱配列投票ユニット417内の要素(nsj、ndcj)に投票する(ステップSK8)。
【0272】
(jを走査(ステップSK9))
(iを走査(ステップSK10))
【0273】
(7)ピーク抽出ユニット418は、円柱配列投票ユニット417における円柱配列の中で投票された強度が極大(ピーク)になる点を抽出する。この極大点は、大円群が一点に交差する場所である。この極大点の高さ座標とし平面までの規格化距離ndc0が求められ、また断面円内の座標として平面の三次元方位ns0が求められる(ステップSK11)。
【0274】
なお、実施の形態3においては、図19に示したように2台の左カメラ403および右カメラ401を用いて、両眼視差を検出する構成例について説明したが、左カメラ403(または右カメラ401)を右方(または左方)へ真横に移動させて両眼視差を検出する構成としてもよい。
【0275】
以上説明したように、実施の形態3によれば、両眼視差の分布に応じて図21に示したように局所領域画像のサイズを、局所領域画像毎に変化するように設定し、両眼視差検出ユニット416の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、局所領域画像の位置によって両眼視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができる。
【0276】
以上本発明にかかる実施の形態1〜3について図面を参照して詳述してきたが、具体的な構成例はこれらの実施の形態1〜3に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。
【0277】
例えば、前述した実施の形態1〜3においては、画像計測装置100(図1参照)、画像計測装置300(図13参照)または画像計測装置400(図18参照)の機能を実現するためのプログラムを図27に示したコンピュータ読み取り可能な記録媒体600に記録して、この記録媒体600に記録されたプログラムを同図に示したコンピュータ500に読み込ませ、実行することにより各機能を実現してもよい。
【0278】
同図に示したコンピュータ500は、上記プログラムを実行するCPU(Central Processing Unit)510と、キーボード、マウス等の入力装置520と、各種データを記憶するROM(Read Only Memory)530と、演算パラメータ等を記憶するRAM(Random Access Memory)540と、記録媒体600からプログラムを読み取る読取装置550と、ディスプレイ、プリンタ等の出力装置560と、装置各部を接続するバス570とから構成されている。
【0279】
CPU510は、読取装置550を経由して記録媒体600に記録されているプログラムを読み込んだ後、プログラムを実行することにより、前述した機能を実現する。なお、記録媒体600としては、光ディスク、フレキシブルディスク、ハードディスク等が挙げられる。
【0280】
(付記1)コンピュータを、
画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、
前記運動視差の分布に応じて前記局所領域の分解能を、局所領域毎に変化するように設定する局所領域設定手段、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、
として機能させるための画像計測プログラム。
【0281】
(付記2)前記局所領域設定手段は、前記運動視差が小さいほど前記分解能を高く設定し、前記運動視差が大きいほど前記分解能を低く設定することを特徴とする付記1に記載の画像計測プログラム。
【0282】
(付記3)前記局所領域設定手段は、前記運動視差が小さい前記画像の中心部ほど前記分解能を高く設定し、前記運動視差が大きい前記画像の周辺部ほど前記分解能を低く設定することを特徴とする付記1に記載の画像計測プログラム。
【0283】
(付記4)コンピュータを、
画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、
前記運動視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定手段、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、
として機能させるための画像計測プログラム。
【0284】
(付記5)前記局所領域設定手段は、前記運動視差が小さいほど前記サイズを小さく設定し、前記運動視差が大きいほど前記サイズを大きく設定することを特徴とする付記4に記載の画像計測プログラム。
【0285】
(付記6)前記局所領域設定手段は、前記運動視差が小さい前記画像の中心部ほど前記サイズを小さく設定し、前記運動視差が大きい前記画像の周辺部ほど前記サイズを大きく設定することを特徴とする付記4に記載の画像計測プログラム。
【0286】
(付記7)コンピュータを、
画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、
前記運動視差の分布に応じて前記局所領域の分解能およびサイズを、局所領域毎に変化するように設定する局所領域設定手段、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、
として機能させるための画像計測プログラム。
【0287】
(付記8)前記局所領域設定手段は、前記運動視差が小さいほど前記分解能を高く設定し、前記運動視差が大きいほど前記分解能を低く設定するとともに、前記運動視差が小さいほど前記サイズを小さく設定し、前記運動視差が大きいほど前記サイズを大きく設定することを特徴とする付記7に記載の画像計測プログラム。
【0288】
(付記9)前記局所領域設定手段は、前記運動視差が小さい前記画像の中心部ほど前記分解能を高く設定し、前記運動視差が大きい前記画像の周辺部ほど前記分解能を低く設定するとともに、前記運動視差が小さい前記画像の中心部ほど前記サイズを小さく設定し、前記運動視差が大きい前記画像の周辺部ほど前記サイズを大きく設定することを特徴とする付記7に記載の画像計測プログラム。
【0289】
(付記10)前記局所領域設定手段は、前記分解能と前記サイズとの比が一定となるように設定することを特徴とする付記7〜9のいずれか一つに記載の画像計測プログラム。
【0290】
(付記11)前記計測手段は、前記運動視差検出手段の検出結果を平面の特徴パラメータで構成される投票空間に投票する投票手段と、前記投票の結果に基づいて、前記特徴パラメータを計測する特徴パラメータ計測手段とから構成されていることを特徴とする付記1〜10のいずれか一つに記載の画像計測プログラム。
【0291】
(付記12)前記運動視差検出手段は、前記局所領域毎に予め求められた運動視差情報を格納する運動視差情報テーブルを参照して、前記画像における各局所領域内の運動視差をそれぞれ検出することを特徴とする付記1〜11のいずれか一つに記載の画像計測プログラム。
【0292】
(付記13)前記コンピュータを、前記局所領域設定手段による局所領域設定情報に基づいて、前記画像から前記局所領域を切り出す切り出し手段として機能させ、前記運動視差検出手段は、切り出された局所領域内の運動視差を検出することを特徴とする付記1〜12のいずれか一つに記載の画像計測プログラム。
【0293】
(付記14)前記局所領域設定手段は、前記局所領域設定情報を局所領域設定情報テーブルに格納し、前記切り出し手段は、前記局所領域設定情報テーブルを参照して、前記画像から前記局所領域を切り出すことを特徴とする付記13に記載の画像計測プログラム。
【0294】
(付記15)コンピュータを、
画像における各局所領域内の両眼視差をそれぞれ検出する両眼視差検出手段、
前記両眼視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定手段、
前記両眼視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、
として機能させるための画像計測プログラム。
【0295】
(付記16)前記局所領域設定手段は、前記両眼視差が小さいほど前記サイズを小さく設定し、前記両眼視差が大きいほど前記サイズを大きく設定することを特徴とする付記15に記載の画像計測プログラム。
【0296】
(付記17)前記局所領域設定手段は、前記両眼視差が大きい前記画像の中心部ほど前記サイズを大きく設定し、前記両眼視差が小さい前記画像の周辺部ほど前記サイズを小さく設定することを特徴とする付記15に記載の画像計測プログラム。
【0297】
(付記18)前記局所領域設定手段は、各局所領域の分解能を一定に設定することを特徴とする付記15〜17のいずれか一つに記載の画像計測プログラム。
【0298】
(付記19)前記計測手段は、前記両眼視差検出手段の検出結果を平面の特徴パラメータで構成される投票空間に投票する投票手段と、前記投票の結果に基づいて、前記特徴パラメータを計測する特徴パラメータ計測手段とから構成されていることを特徴とする付記15〜18のいずれか一つに記載の画像計測プログラム。
【0299】
(付記20)前記両眼視差検出手段は、前記局所領域毎に予め求められた両眼視差情報を格納する両眼視差情報テーブルを参照して、前記画像における各局所領域内の両眼視差をそれぞれ検出することを特徴とする付記15〜19のいずれか一つに記載の画像計測プログラム。
【0300】
(付記21)前記コンピュータを、前記局所領域設定手段による局所領域設定情報に基づいて、前記画像から前記局所領域を切り出す切り出し手段として機能させ、前記両眼視差検出手段は、切り出された局所領域内の両眼視差を検出することを特徴とする付記15〜20のいずれか一つに記載の画像計測プログラム。
【0301】
(付記22)前記局所領域設定手段は、前記局所領域設定情報を局所領域設定情報テーブルに格納し、前記切り出し手段は、前記局所領域設定情報テーブルを参照して、前記画像から前記局所領域を切り出すことを特徴とする付記21に記載の画像計測プログラム。
【0302】
(付記23)前記両眼視差検出手段は、左右に配置された二台の撮像装置からそれぞれ得られた画像に基づいて、前記両眼視差を検出することを特徴とする付記15〜22のいずれか一つに記載の画像計測プログラム。
【0303】
(付記24)前記両眼視差検出手段は、撮像装置を真横に移動させた場合に得られる画像に基づいて、前記両眼視差を検出することを特徴とする付記15〜22のいずれか一つに記載の画像計測プログラム。
【0304】
(付記25)画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段と、
前記運動視差の分布に応じて前記局所領域の分解能を、局所領域毎に変化するように設定する局所領域設定手段と、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段と、
を備えたことを特徴とする画像計測装置。
【0305】
(付記26)前記局所領域設定手段は、前記運動視差が小さいほど前記分解能を高く設定し、前記運動視差が大きいほど前記分解能を低く設定することを特徴とする付記25に記載の画像計測装置。
【0306】
(付記27)前記局所領域設定手段は、前記運動視差が小さい前記画像の中心部ほど前記分解能を高く設定し、前記運動視差が大きい前記画像の周辺部ほど前記分解能を低く設定することを特徴とする付記25に記載の画像計測装置。
【0307】
(付記28)画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段と、
前記運動視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定手段と、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段と、
を備えたことを特徴とする画像計測装置。
【0308】
(付記29)前記局所領域設定手段は、前記運動視差が小さいほど前記サイズを小さく設定し、前記運動視差が大きいほど前記サイズを大きく設定することを特徴とする付記28に記載の画像計測装置。
【0309】
(付記30)前記局所領域設定手段は、前記運動視差が小さい前記画像の中心部ほど前記サイズを小さく設定し、前記運動視差が大きい前記画像の周辺部ほど前記サイズを大きく設定することを特徴とする付記28に記載の画像計測装置。
【0310】
(付記31)画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段と、
前記運動視差の分布に応じて前記局所領域の分解能およびサイズを、局所領域毎に変化するように設定する局所領域設定手段と、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段と、
を備えたことを特徴とする画像計測装置。
【0311】
(付記32)前記局所領域設定手段は、前記運動視差が小さいほど前記分解能を高く設定し、前記運動視差が大きいほど前記分解能を低く設定するとともに、前記運動視差が小さいほど前記サイズを小さく設定し、前記運動視差が大きいほど前記サイズを大きく設定することを特徴とする付記31に記載の画像計測装置。
【0312】
(付記33)前記局所領域設定手段は、前記運動視差が小さい前記画像の中心部ほど前記分解能を高く設定し、前記運動視差が大きい前記画像の周辺部ほど前記分解能を低く設定するとともに、前記運動視差が小さい前記画像の中心部ほど前記サイズを小さく設定し、前記運動視差が大きい前記画像の周辺部ほど前記サイズを大きく設定することを特徴とする付記31に記載の画像計測装置。
【0313】
(付記34)前記局所領域設定手段は、前記分解能と前記サイズとの比が一定となるように設定することを特徴とする付記31〜33のいずれか一つに記載の画像計測装置。
【0314】
(付記35)前記計測手段は、前記運動視差検出手段の検出結果を平面の特徴パラメータで構成される投票空間に投票する投票手段と、前記投票の結果に基づいて、前記特徴パラメータを計測する特徴パラメータ計測手段とから構成されていることを特徴とする付記25〜34のいずれか一つに記載の画像計測装置。
【0315】
(付記36)前記運動視差検出手段は、前記局所領域毎に予め求められた運動視差情報を格納する運動視差情報テーブルを参照して、前記画像における各局所領域内の運動視差をそれぞれ検出することを特徴とする付記25〜35のいずれか一つに記載の画像計測装置。
【0316】
(付記37)前記局所領域設定手段による局所領域設定情報に基づいて、前記画像から前記局所領域を切り出す切り出し手段を備え、前記運動視差検出手段は、切り出された局所領域内の運動視差を検出することを特徴とする付記25〜36のいずれか一つに記載の画像計測装置。
【0317】
(付記38)前記局所領域設定手段は、前記局所領域設定情報を局所領域設定情報テーブルに格納し、前記切り出し手段は、前記局所領域設定情報テーブルを参照して、前記画像から前記局所領域を切り出すことを特徴とする付記37に記載の画像計測装置。
【0318】
(付記39)画像における各局所領域内の両眼視差をそれぞれ検出する両眼視差検出手段と、
前記両眼視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定手段と、
前記両眼視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段と、
を備えたことを特徴とする画像計測装置。
【0319】
(付記40)前記局所領域設定手段は、前記両眼視差が小さいほど前記サイズを小さく設定し、前記両眼視差が大きいほど前記サイズを大きく設定することを特徴とする付記39に記載の画像計測装置。
【0320】
(付記41)前記局所領域設定手段は、前記両眼視差が大きい前記画像の中心部ほど前記サイズを大きく設定し、前記両眼視差が小さい前記画像の周辺部ほど前記サイズを小さく設定することを特徴とする付記39に記載の画像計測装置。
【0321】
(付記42)前記局所領域設定手段は、各局所領域の分解能を一定に設定することを特徴とする付記39〜41のいずれか一つに記載の画像計測装置。
【0322】
(付記43)前記計測手段は、前記両眼視差検出手段の検出結果を平面の特徴パラメータで構成される投票空間に投票する投票手段と、前記投票の結果に基づいて、前記特徴パラメータを計測する特徴パラメータ計測手段とから構成されていることを特徴とする付記39〜42のいずれか一つに記載の画像計測装置。
【0323】
(付記44)前記両眼視差検出手段は、前記局所領域毎に予め求められた両眼視差情報を格納する両眼視差情報テーブルを参照して、前記画像における各局所領域内の両眼視差をそれぞれ検出することを特徴とする付記39〜43のいずれか一つに記載の画像計測装置。
【0324】
(付記45)前記局所領域設定手段による局所領域設定情報に基づいて、前記画像から前記局所領域を切り出す切り出し手段を備え、前記両眼視差検出手段は、切り出された局所領域内の両眼視差を検出することを特徴とする付記39〜44のいずれか一つに記載の画像計測装置。
【0325】
(付記46)前記局所領域設定手段は、前記局所領域設定情報を局所領域設定情報テーブルに格納し、前記切り出し手段は、前記局所領域設定情報テーブルを参照して、前記画像から前記局所領域を切り出すことを特徴とする付記45に記載の画像計測装置。
【0326】
(付記47)前記両眼視差検出手段は、左右に配置された二台の撮像装置からそれぞれ得られた画像に基づいて、前記両眼視差を検出することを特徴とする付記39〜46のいずれか一つに記載の画像計測装置。
【0327】
(付記48)前記両眼視差検出手段は、撮像装置を真横に移動させた場合に得られる画像に基づいて、前記両眼視差を検出することを特徴とする付記39〜46のいずれか一つに記載の画像計測装置。
【0328】
(付記49)画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出工程と、
前記運動視差の分布に応じて前記局所領域の分解能を、局所領域毎に変化するように設定する局所領域設定工程と、
前記運動視差検出工程の検出結果に基づいて、平面の特徴パラメータを計測する計測工程と、
を含むことを特徴とする画像計測方法。
【0329】
(付記50)前記局所領域設定工程では、前記運動視差が小さいほど前記分解能を高く設定し、前記運動視差が大きいほど前記分解能を低く設定することを特徴とする付記49に記載の画像計測方法。
【0330】
(付記51)前記局所領域設定工程では、前記運動視差が小さい前記画像の中心部ほど前記分解能を高く設定し、前記運動視差が大きい前記画像の周辺部ほど前記分解能を低く設定することを特徴とする付記49に記載の画像計測方法。
【0331】
(付記52)画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出工程と、
前記運動視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定工程と、
前記運動視差検出工程の検出結果に基づいて、平面の特徴パラメータを計測する計測工程と、
を含むことを特徴とする画像計測方法。
【0332】
(付記53)前記局所領域設定工程では、前記運動視差が小さいほど前記サイズを小さく設定し、前記運動視差が大きいほど前記サイズを大きく設定することを特徴とする付記52に記載の画像計測方法。
【0333】
(付記54)前記局所領域設定工程では、前記運動視差が小さい前記画像の中心部ほど前記サイズを小さく設定し、前記運動視差が大きい前記画像の周辺部ほど前記サイズを大きく設定することを特徴とする付記52に記載の画像計測方法。
【0334】
(付記55)画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出工程と、
前記運動視差の分布に応じて前記局所領域の分解能およびサイズを、局所領域毎に変化するように設定する局所領域設定工程と、
前記運動視差検出工程の検出結果に基づいて、平面の特徴パラメータを計測する計測工程と、
を含むことを特徴とする画像計測方法。
【0335】
(付記56)前記局所領域設定工程では、前記運動視差が小さいほど前記分解能を高く設定し、前記運動視差が大きいほど前記分解能を低く設定するとともに、前記運動視差が小さいほど前記サイズを小さく設定し、前記運動視差が大きいほど前記サイズを大きく設定することを特徴とする付記55に記載の画像計測方法。
【0336】
(付記57)前記局所領域設定工程では、前記運動視差が小さい前記画像の中心部ほど前記分解能を高く設定し、前記運動視差が大きい前記画像の周辺部ほど前記分解能を低く設定するとともに、前記運動視差が小さい前記画像の中心部ほど前記サイズを小さく設定し、前記運動視差が大きい前記画像の周辺部ほど前記サイズを大きく設定することを特徴とする付記55に記載の画像計測方法。
【0337】
(付記58)前記局所領域設定工程では、前記分解能と前記サイズとの比が一定となるように設定することを特徴とする付記55〜57のいずれか一つに記載の画像計測方法。
【0338】
(付記59)前記計測工程は、前記運動視差検出工程の検出結果を平面の特徴パラメータで構成される投票空間に投票する投票工程と、前記投票の結果に基づいて、前記特徴パラメータを計測する特徴パラメータ計測工程とを含むことを特徴とする付記49〜58のいずれか一つに記載の画像計測方法。
【0339】
(付記60)前記運動視差検出工程では、前記局所領域毎に予め求められた運動視差情報を格納する運動視差情報テーブルを参照して、前記画像における各局所領域内の運動視差をそれぞれ検出することを特徴とする付記49〜59のいずれか一つに記載の画像計測方法。
【0340】
(付記61)前記局所領域設定工程による局所領域設定情報に基づいて、前記画像から前記局所領域を切り出す切り出し工程を含み、前記運動視差検出工程では、切り出された局所領域内の運動視差を検出することを特徴とする付記49〜60のいずれか一つに記載の画像計測方法。
【0341】
(付記62)前記局所領域設定工程では、前記局所領域設定情報を局所領域設定情報テーブルに格納し、前記切り出し工程では、前記局所領域設定情報テーブルを参照して、前記画像から前記局所領域を切り出すことを特徴とする付記61に記載の画像計測方法。
【0342】
(付記63)画像における各局所領域内の両眼視差をそれぞれ検出する両眼視差検出工程と、
前記両眼視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定工程と、
前記両眼視差検出工程の検出結果に基づいて、平面の特徴パラメータを計測する計測工程と、
を含むことを特徴とする画像計測方法。
【0343】
(付記64)前記局所領域設定工程では、前記両眼視差が小さいほど前記サイズを小さく設定し、前記両眼視差が大きいほど前記サイズを大きく設定することを特徴とする付記63に記載の画像計測方法。
【0344】
(付記65)前記局所領域設定工程では、前記両眼視差が大きい前記画像の中心部ほど前記サイズを大きく設定し、前記両眼視差が小さい前記画像の周辺部ほど前記サイズを小さく設定することを特徴とする付記63に記載の画像計測方法。
【0345】
(付記66)前記局所領域設定工程では、各局所領域の分解能を一定に設定することを特徴とする付記63〜65のいずれか一つに記載の画像計測方法。
【0346】
(付記67)前記計測工程は、前記両眼視差検出工程の検出結果を平面の特徴パラメータで構成される投票空間に投票する投票工程と、前記投票の結果に基づいて、前記特徴パラメータを計測する特徴パラメータ計測工程とを含むことを特徴とする付記63〜66のいずれか一つに記載の画像計測方法。
【0347】
(付記68)前記両眼視差検出工程では、前記局所領域毎に予め求められた両眼視差情報を格納する両眼視差情報テーブルを参照して、前記画像における各局所領域内の両眼視差をそれぞれ検出することを特徴とする付記63〜67のいずれか一つに記載の画像計測方法。
【0348】
(付記69)前記局所領域設定工程による局所領域設定情報に基づいて、前記画像から前記局所領域を切り出す切り出し工程を含み、前記両眼視差検出工程では、切り出された局所領域内の両眼視差を検出することを特徴とする付記63〜68のいずれか一つに記載の画像計測方法。
【0349】
(付記70)前記局所領域設定工程では、前記局所領域設定情報を局所領域設定情報テーブルに格納し、前記切り出し工程では、前記局所領域設定情報テーブルを参照して、前記画像から前記局所領域を切り出すことを特徴とする付記69に記載の画像計測方法。
【0350】
(付記71)前記両眼視差検出工程では、左右に配置された二台の撮像装置からそれぞれ得られた画像に基づいて、前記両眼視差を検出することを特徴とする付記63〜70のいずれか一つに記載の画像計測方法。
【0351】
(付記72)前記両眼視差検出工程では、撮像装置を真横に移動させた場合に得られる画像に基づいて、前記両眼視差を検出することを特徴とする付記63〜70のいずれか一つに記載の画像計測方法。
【0352】
【発明の効果】
以上説明したように、本発明によれば、運動視差の分布に応じて局所領域の分解能を、局所領域毎に変化するように設定し、運動視差の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、局所領域の位置によって運動視差が分解能以下となるという事態が回避され、平面の特徴パラメータの計測精度を高めることができるという効果を奏する。
【0353】
また、本発明によれば、運動視差の分布に応じて局所領域のサイズを、局所領域毎に変化するように設定し、運動視差の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、運動視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができるという効果を奏する。
【0354】
また、本発明によれば、運動視差の分布に応じて局所領域の分解能およびサイズを、局所領域毎に変化するように設定し、運動視差の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、局所領域の位置によって運動視差が分解能以下となったり、運動視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができるという効果を奏する。
【0355】
また、本発明によれば、運動視差が小さいほど分解能を高く設定し、運動視差が大きいほど分解能を低く設定するとともに、運動視差が小さいほどサイズを小さく設定し、運動視差が大きいほどサイズを大きく設定することとしたので、局所領域の位置によって運動視差が分解能以下となったり、運動視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができるという効果を奏する。
【0356】
また、本発明によれば、両眼視差の分布に応じて局所領域のサイズを、局所領域毎に変化するように設定し、両眼視差の検出結果に基づいて、平面の特徴パラメータを計測することとしたので、局所領域の位置によって両眼視差が局所領域のサイズを超えるという事態が回避され、平面の特徴パラメータの計測精度を高めることができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明にかかる実施の形態1の構成を示すブロック図である。
【図2】同実施の形態1の動作原理を説明する図である。
【図3】同実施の形態1における局所領域画像の分解能およびサイズの変化を説明する図である。
【図4】同実施の形態1における局所領域画像の分解能およびサイズの変化を説明する図である。
【図5】撮像面における入力画像上の局所速度の変化を説明する図である。
【図6】撮像面における入力画像上の局所速度の変化を説明する図である。
【図7】図1に示した局所領域設定情報テーブル150を示す図である。
【図8】同実施の形態1における局所領域の設定を説明する図である。
【図9】同実施の形態1の動作を説明するフローチャートである。
【図10】図9に示した第1の局所領域設定処理を説明するフローチャートである。
【図11】図9に示した第2の局所領域設定処理を説明するフローチャートである。
【図12】図9に示した画像計測処理を説明するフローチャートである。
【図13】本発明にかかる実施の形態2の構成を示すブロック図である。
【図14】図13に示したijτテーブル350を示す図である。
【図15】同実施の形態2の動作を説明するフローチャートである。
【図16】図15に示したijτテーブル作成処理を説明するフローチャートである。
【図17】図15に示した画像計測処理を説明するフローチャートである。
【図18】本発明にかかる実施の形態3の構成を示すブロック図である。
【図19】図18に示した右カメラ401および左カメラ403の配置例を示す図である。
【図20】同実施の形態3における両眼視差を説明する図である。
【図21】同実施の形態3における局所領域設定を説明する図である。
【図22】撮像面における入力画像上の局所速度の変化を説明する図である。
【図23】図18に示したijσテーブル460を示す図である。
【図24】同実施の形態3の動作を説明するフローチャートである。
【図25】図24に示したijσテーブル作成処理を説明するフローチャートである。
【図26】図24に示した画像計測処理を説明するフローチャートである。
【図27】本発明にかかる実施の形態1〜3の変形例の構成を示すブロック図である。
【図28】滑走路に着陸する飛行機のパイロットの網膜に写るオプティカルフローのパターンを示す図である。
【図29】平面2が移動する様子を示す図である。
【図30】平面2の三次元方位nsを計測する原理を説明する図である。
【図31】図30に示した球面3上に投影された三角形(黒丸)が移動する様子を示す図である。
【図32】点までの距離を計測する原理を説明する図である。
【図33】平面を横切るまでの時間を計測する原理を説明する図である。
【図34】中心角の定義を説明する図である。
【図35】円柱配列により規格化時間を計測する原理を説明する図である。
【図36】規格化時間計測を計算機シミュレーションした結果を示す図である。
【図37】従来の画像計測装置10の構成を示すブロック図である。
【図38】図37に示した運動視差検出ユニット21の構成を示すブロック図である。
【図39】従来の画像計測装置10の動作原理を説明する図である。
【図40】従来の画像計測装置10の動作を説明するフローチャートである。
【図41】運動視差kτと視差ベクトル(kτx、kτy)との対応関係を示す図である。
【符号の説明】
100 画像計測装置
101 局所領域設定部
102 局所領域番号i走査ユニット
103 局所領域画像切出しユニット
150 局所領域設定情報テーブル
300 画像計測装置
301 要素番号j走査ユニット
302 円柱配列投票ユニット
304 ijτテーブル作成ユニット
400 画像計測装置
401 右カメラ
403 左カメラ
405 局所領域設定部
408 ijσテーブル作成ユニット
414 局所領域画像切出しユニット
416 両眼視差検出ユニット
417 円柱配列投票ユニット
450 局所領域設定情報テーブル
460 ijσテーブル[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image measurement program for measuring positions and orientations in space from points and planes appearing in an image, and in particular, to an image measurement program capable of improving the measurement accuracy of a feature parameter of a plane. It concerns the measurement program.
[0002]
[Prior art]
FIG. 28 is a diagram showing an optical flow pattern reflected on the retina of a pilot operating an airplane landing on the runway. The optical flow is represented by vectors radially arranged from the center of the drawing, and is a local velocity (local motion parallax) in a local region (within a circle).
[0003]
The pilot perceives the runway inclination (three-dimensional azimuth) and "how many seconds later the robot will reach the runway" based on the optical flow pattern, and properly land the airplane. That is, the pilot measures the three-dimensional azimuth of the plane (runway 1) and the “time to cross the plane (runway 1)” from this pattern and lands.
[0004]
Now consider the case where we walk in the corridor. When we walk in the direction of hitting the corridor wall, the above-mentioned optical flow pattern occurs on the retina and measures the time it takes to cross the wall from that pattern (the time it takes to hit the wall) and simultaneously Move from the three-dimensional direction of the wall to avoid it.
[0005]
On the other hand, when walking parallel to the wall, it is measured that the vehicle will not hit the vehicle forever (that is, the vehicle will hit the vehicle after an infinite time elapses), and continues walking in the same direction. In this way, even in a winding corridor, it is possible to walk around walls precisely.
[0006]
Also, when walking in the office, it is possible to avoid the "object consisting of a plane" such as a whiteboard, a desk, a rocker, etc. in the same manner. Furthermore, when driving a car, the same "three-dimensional measurement of a plane" is performed to drive on a highway or enter a garage.
[0007]
In this way, we measure the three-dimensional geometric information (the three-dimensional azimuth of the plane and the time required to cross the plane) on the object composed of the plane by visual perception, thereby enabling accurate movement. In addition, we can measure the three-dimensional geometric information of the “plane group in contact with it” even on a curved object and recognize it spatially.
[0008]
If such “planar three-dimensional geometric information” can be measured from an image, a mobile robot, a car, an airplane, and the like can be moved while adapting to the environment or avoiding obstacles.
[0009]
For each velocity element of the optical flow pattern shown in FIG. 28, that is, for a local motion in a local region, a technique for measuring the local motion from a moving image has been reported (Japanese Patent Application Laid-Open No. 05-165596, JP-A-05-165957, JP-A-06-044364, and JP-A-09-08369; "Method of performing two-dimensional correlation and convolution one-dimensionally along ρ coordinate of Hough plane," Okamoto, IEICE Technical Report, vol. IE96-19, pp. 31-38, 1996; Moto, H., Vision Research, vol. 36, pp. 117-147, 1996).
[0010]
Here, Japanese Patent Application Laid-Open No. 2000-357235 discloses that this optical flow pattern is integrated to “3D geometric information of plane (3D orientation of plane, time to cross plane, shortest distance to plane)”. There is disclosed an image measuring device for measuring the distance.
[0011]
Hereinafter, a conventional image measuring device disclosed in Japanese Patent Application Laid-Open No. 2000-357235 will be described. Such an image measuring device is a device for measuring planar three-dimensional geometric information, point position information, and the like from an image such as an optical flow pattern.
[0012]
First, the principle of the conventional image measurement will be described.
[0013]
(1. Measurement method of three-dimensional direction of plane and time to cross)
First, a method of measuring the three-dimensional azimuth (normal vector) ns of the plane and the time required to cross the plane from among the three-dimensional geometric information of the plane will be described.
[0014]
Here, it is assumed that the plane is moving in a certain movement direction v. FIG. 29 illustrates a state in which the plane 2 (three-dimensional azimuth ns) moves from the current time t0 to the next time t1, and the plane 2 crosses the camera center O at the time tc.
[0015]
In the figure, the vertices (open circles) of the triangle on the plane 2 at each time point are on the retina (or spherical camera) of the eyeball, and the line connecting the camera center and each vertex and the ocular sphere (or spherical camera) Appears as an intersection (black circle).
[0016]
Hereinafter, for the sake of simplicity, the diameter of the eyeball (or spherical camera) is assumed to be 1. Therefore, the vector connecting the camera center and the black circle is a “unit vector” of size 1.
[0017]
(1.1. Principle of measuring three-dimensional direction ns of plane)
FIG. 30 is a diagram for explaining the principle of measuring the three-dimensional azimuth of the plane, and is a state extracted at time tc shown in FIG.
[0018]
At time tc, since the plane 2 passes through the center O of the camera, the point group (white circle) on the plane 2 is projected on the spherical surface 3 as "point group on the great circle gns (black circle)". The great circle gns is an intersection of the plane 2 and the spherical surface 3. Therefore, the vector pc is orthogonal to the three-dimensional direction ns of the plane 2.
[0019]
From this relationship, the three-dimensional direction ns of the plane 2 is measured as “polar conversion” of the vector pc as follows. That is, when a great circle (the great circle is the largest circle on the spherical surface 3) is drawn around each vector pc, the great circles intersect at a single point, and the three-dimensional direction ns of the plane 2 as the intersection point Is measured.
[0020]
As described above, when the vectors pc for a plurality of points on the plane 2 are known, the polar transformation is performed, and the three-dimensional azimuth ns of the plane 2 can be obtained. Here, the terms of polar transformation will be described. The vector pc and the great circle on the spherical surface 3 are called “pole” and “polar line”, respectively, and the pole (vector pc) is called a polar line (great circle). gns) is referred to as "polar transformation (or duality)."
[0021]
(1.2. Principle of measuring standardized time ntc until crossing plane)
Next, the principle of measuring the standardized time ntc will be described. Here, the standardized time ntc is a time obtained by normalizing the time tc required to cross the plane 2 by “the time difference Δt between the current time t0 and the next time t1”, and is expressed by the following equation (1). Further, the time difference Δt is represented by the following equation (2).
[0022]
ntc = tc / Δt (1)
Δt = t1−t0 (2)
[0023]
FIG. 31 is a diagram showing how the triangle (black circle) projected on the spherical surface 3 shown in FIG. 30 moves. The triangle 1p0, 2p0, 3p0 at the current time t0 moves to 1p1, 2p1, 3p1 at the next time t1. Next, at the time tc crossing the plane 2 (see FIG. 30), the plane 2 degenerates and moves to three points 1pc, 2pc, and 3pc in the great circle gns orthogonal to the three-dimensional azimuth ns of the plane 2, and finally after infinite time has elapsed. It converges in the moving direction v.
[0024]
Each vertex (black circle) of the triangle moves on a great circle 1g, 2g, 3g connecting the moving direction v with them. In addition, since the moving direction v is a position after elapse of the infinite time, it is also described as pinf hereinafter.
[0025]
As a preparation for measuring the normalized time ntc, referring to FIG. 32, the position (point) p0 of the current time, the position (point) p1 of the next time, and the position (point) pinf after elapse of the infinite time are known. The principle of measuring the three-dimensional distance (ie, the distance from the camera center O to the point P0) d0 of the point at the current time will be described.
[0026]
FIG. 32 is a diagram showing a cross section of the spherical surface 3 cut by one g (1 g, 2 g, or 3 g) of the great circle representing the movement trajectory shown in FIG. When the sine theorem is used for the triangle OP0P1 shown in the figure, there is a relationship expressed by the following equation (3) between the distance d0 to the point P0 and the moving distance Δx from the current time to the next time.
[0027]
Δx / sin (p0p1) = d0 / sin (pinfp1) (3)
[0028]
Here, p0p1 is a central angle from p0 to p1, and pinfp1 is a central angle from pinf to p1. When the equation (3) is modified, the distance d0 to the point P0 is obtained by the following equation (4).
[0029]
d0 = Δx sin (pinfp1) / sin (p0p1) (4)
[0030]
Here, the “simple ratio (abc)” for the three points a, b, and c (not shown) of the great circle is defined by the following equation (5) (“Projective geometry (by Gulieevich, Tokyo Book)”). Page 6).
[0031]
(Abc) = ac / bc = sin (ac) / sin (bc) (5)
[0032]
Using this simple ratio, equation (4) is represented by the following equation (6). Since this simple ratio expression does not depend on the central projection method, not only the “spherical camera” and the three points p0, p1, and pc moving on the great circle of the eyeball but also the straight line of the “flat camera image” The distance d0 can be measured from the three moving points p0, p1, and pc. That is, the distance d0 between the points can be measured three-dimensionally regardless of the camera system for capturing the image.
[0033]
d0 = Δx (pinfp0p1) (6)
[0034]
Based on the above preparation, the principle of measuring the time required to cross the plane 2, that is, the normalized time ntc, will be described with reference to FIG. FIG. 33 is a diagram obtained by adding the plane 2 crossing the camera center O at the time tc to FIG. Assuming that the moving speed is V, the moving distance Δx from the current time to the next time has a relationship with the time difference Δt from the current time to the next time and the following equation (7).
[0035]
Δx = V Δt (7)
[0036]
From this, the following equation (8) is derived by substituting the equation (7) into the equations (4) and (6).
[0037]
Figure 2004077221
[0038]
Further, assuming that the time from the present time to cross the plane 2 is tc, when the sine theorem is applied to the triangle O0PPc and the triangle O0PPc is deformed in the same manner as described above, the distance d0 is obtained from the following equation (9).
[0039]
Figure 2004077221
[0040]
Here, when rearranging by taking the ratio of Expression (8) and Expression (9), the normalized time ntc to cross the plane is obtained from the following Expression (10a) and Expression (10b).
[0041]
Figure 2004077221
Here, the compound ratio {abcd} of the four points a, b, c, and d on the great circle is expressed by the following equation as "the ratio of two simple ratios, (abc) and (abd)". The cross ratio is defined by the formula (11c) (see “Projective Geometry (by Gurievich, Tokyo Book)”, pp. 257 and 119).
[0043]
Figure 2004077221
[0044]
Using the definition of the cross ratio (formula (11a)), formula (10) is represented by the following formula (12a).
[0045]
ntc = {pinfp0p1pc} (12a)
[0046]
As described above, when the four points p0, p1, pc, and pinf on the movement trajectory are known, the normalized time ntc is obtained as the cross ratio of the equation (12).
[0047]
Here, the projective geometric meaning of equation (12a) will be considered. According to page 86 of “Projective Geometry (by Yasunaga and Hirano, Asakura Shoten)”, “the coordinate λ of d based on the base point systems a, b, and c is called the cross ratio and is expressed as {abcd}”. (A similar description is also found on page 119 of "Projective Geometry (by Gurievich, Tokyo Book)").
[0048]
In this definition, when the base systems a, b, and c are replaced with the base systems pinf, p0, and p1 and the value of the cross ratio λ is replaced with ntc, “the coordinate ntc of the pc based on the base systems pinf, p0, and p1 is formed by the cross system. And expressed by {pinfp0p1pc}. "
[0049]
Accordingly, in terms of projective geometry, equation (12a) indicates that “normalized time ntc is the coordinates of pc measured in the base point system with the origin, infinity point, and unit points p0, pinf, and p1, respectively”. (12b) is meant.
[0050]
The cross ratio in equation (12a) is a fundamental invariant of projective geometry and does not change for any projection and cut. That is, the cross ratio does not change with respect to an image of an arbitrary camera system such as a spherical camera and a flat camera.
[0051]
Therefore, not only the above-mentioned four points p0, p1, pc, and pinf moving on the great circle of the spherical camera and the eyeball, but also the four points p0, p1, pc, and pinf moving on the straight line of the planar camera image are flat. Can be measured as a cross ratio. That is, it indicates that the standardized time ntc can be measured regardless of the method of the camera that captures the image.
[0052]
(1.3. Method of obtaining three-dimensional geometric information of plane by cross ratio conversion and polar conversion)
Consider whether the four positions (points) p0, p1, pc, and pinf used in the above principle can be known.
[0053]
First, the position p0 at the current time and the position p1 at the next time can be known from the camera image. Next, the position pinf at infinite time can be known because it is equal to the moving direction v of the plane (or the camera). What cannot be directly known among the above four positions is the position pc at the time tc at which the plane crosses the center of the camera.
[0054]
The position pc can be estimated by the "cross ratio conversion" obtained by transforming the expression (10a) or the expression (12a), and then, by "polar conversion" of the pc by the method of 1.1, the position of the plane can be obtained. The fact that three-dimensional geometric information (normalized time ntc0 until crossing three-dimensional direction ns0) can be measured will be described below.
[0055]
(1.3.1 Double ratio conversion)
In this cross ratio conversion, the position pc important for determining three-dimensional geometric information is calculated by knowing the normalized time ntc and the positions p0, p1, and pinf at three times. Since the four variables ntc, p0, p1, and pinf are known in equation (12a), the remaining variables pc can be obtained. This calculation is well known as a method for calculating the cross ratio of projective geometry.
[0056]
This calculation is specifically expressed by a mathematical expression. FIG. 34 shows a cross section of the sphere in FIG. The center angles a, b, and x from the pinf indicate the positions of p0, p1, and pc (note: the base point may be any position). Various central angles are shown below.
[0057]
pinfp1 = b pinfpc = x p0p1 = b-a p0pc = xa Using these central angles, the above-mentioned cross ratio conversion is shown by a mathematical expression. When the right side of the equation (10a), that is, the cross ratio, is expressed by using the central angle of the equation (13), the following equation (14a) is obtained.
[0058]
pinfp0 = a (13)
ntc = (sin (b) / sin (ba)) / (sin (x) / sin (xa)) (14a)
[0059]
By transforming equation (14), the central angle x between pc and pinf is given by the following equation (14b).
[0060]
x = tan -1 ((Sin (a) sin (b)) / (cos (a) sin (b) -ntc sin (ba))) (14b)
[0061]
Therefore, given the normalized time ntc and the positions p0, p1, and pinf of the three times, the position pc at the time crossing the plane is calculated by the equation (14b), that is, the equation of the cross ratio conversion is shown. .
[0062]
Here, in research on general moving image processing and optical flow, instead of “position p1 at the next time” used above, “change p1-p0 from the current time (that is, motion parallax τ and central angle (represented by p0p1) ".
[0063]
Each arrow in the optical flow pattern (FIG. 28) indicates this change, and the starting point of the arrow is the current time position p0 and the ending point is the next time position p1. In FIG. 34, the change is represented by an angle τ. The equation of the cross ratio conversion in this case is shown below. Various central angles are represented by the following equation (15).
[0064]
pinfp0 = a (15)
[0065]
p0p1 = [tau] pinfpc = x pinfp1 = a + [tau] p0pc = x-a, and the right side of the expression (10a) is represented by the following expression (16a) using the central angle of the expression (15).
[0066]
ntc = (sin (a + τ) / sin (τ)) / (sin (x) / sin (xa)) (16a)
[0067]
When this is modified, the central angle x between pc and pinf is given by the following equation (16b), and another equation for cross ratio conversion was obtained.
[0068]
x = tan -1 ((Sin (a) sin (a + τ)) / (cos (a) sin (a + τ) −ntc sin (τ))) (16b)
[0069]
(1.3.2 Method for determining three-dimensional orientation of plane and standardization time until crossing)
Next, a method for determining the standardized time ntc to cross the three-dimensional azimuth ns of the plane by using the above-mentioned cross ratio conversion will be described. It is performed in the following four steps (1) to (4).
[0070]
(1) Arbitrarily set the standardized time ntc.
[0071]
(2) For each point in the image, the positions p0 and p1 at the current time and the next time are known from the camera image, and the position pinf after the elapse of the infinite time is known from the moving direction v. The position pc is calculated by substituting the equation (16b) for the cross ratio conversion.
[0072]
(3) A candidate for a plane three-dimensional azimuth ns is obtained based on 1.1 "Principle of measuring plane three-dimensional azimuth ns". That is, the position pc obtained in step (2) is polar-transformed, and a great circle is drawn on the spherical surface.
[0073]
Here, the meaning of drawing a great circle will be described. If the standardized time ntc given in step (1) is the true standardized time ntc0, the three-dimensional azimuth ns0 of the plane is determined as the intersection of the great circles as described in FIG. However, in the step (1), since the standardized time ntc is arbitrarily given, in general, they do not cross at one point.
[0074]
Therefore, the great circle drawn here has determined the candidate of the plane three-dimensional direction ns. The intensity of the great circle is "brightness at the position p0 in the image", and at a place where a plurality of great circles intersect, the intensity is obtained by adding the intensities of the great circles.
[0075]
(4) The above steps are performed by changing the standardization time ntc, and a parameter value at which a plurality of great circles drawn in step (3) intersect at one point is obtained. As the parameter value, a normalized time ntc0 required to cross the plane is obtained.
[0076]
In addition, a plane direction ns0 is obtained as the coordinates of the intersection. Note that, instead of the above intersection detection, a point where the intensity reaches a peak may be detected.
[0077]
Here, the geometric meaning of the position pc calculated by the cross ratio conversion in step (2) will be described. The position pc is obtained by “predicting” the position at an arbitrary time ntcΔt.
[0078]
This prediction is clear from the derivation process of the equation (10a), which is the basis of the cross ratio conversion, but intuitively rephrasing the equation (12b), "the position of the arbitrary time ntcΔt (that is, the position of the standardized time ntc) is predicted. In this case, in the base point system where the origin, the infinity point, and the unit point are p0, pinf, and p1, respectively, the position pc at which the coordinate is normalized time ntc may be obtained. "
[0079]
The time at which the positions pc predicted in this way are arranged on the great circle is “time ntc0Δt (that is, tc0) at which the plane crosses the camera center O” shown in FIG. A standardized time ntc0 ″ before the vehicle crosses is determined.
[0080]
The great circles obtained by polar-transforming the position pc intersect at one point, and the three-dimensional azimuth ns0 of the plane is determined as the coordinates of the intersection (FIG. 30).
[0081]
(1.3.3 Geometric meaning of the above steps)
The geometric meaning of each step described above will be described with reference to FIG. As shown in FIG. 35A, each point on the spherical camera image moves from the current time position p0 to the next time position p1, and then “the time at which the plane crosses the camera center”. Finally, after the elapse of the infinite time, it reaches the “position pinf equal to the moving direction v of the plane (or the camera)” (see FIG. 31).
[0082]
Determination of position pc (meaning of step (2)): Cross ratio conversion of “positions p0 and p1 at present and next times” and “normalized time ntc” given in step (1) by equation (14b) , The position pc at the “time when the plane crosses the center of the camera” is determined.
[0083]
This state is shown in FIG. When the cross ratio conversion of the equation (16b) is used, a “difference vector τ from the current time position p0 to the next time position p1” is used instead of the next time position p1.
[0084]
Drawing of plane orientation candidate group {ns} (meaning of step (3)): Polarization is performed on position pc determined above, and a great circle on the spherical surface, that is, plane orientation candidate group {ns} is shown in FIG. Draw as shown in (a).
[0085]
If the normalized time ntc given in step (1) is the true normalized time ntc0, a three-dimensional azimuth ns0 of a plane is determined as an intersection of these great circles corresponding to a plurality of points in the image.
[0086]
Determining three-dimensional geometric information as coordinate values of the cylinder array (meaning of step (4)): projecting the sphere of FIG. 35A onto a plane, and converting the image on the sphere into the inside of a “circle” .
[0087]
Known projection methods include an equisolid angle projection method, an equidistant projection method, and an orthographic projection method ("Latest Lens Design Course 23 Problems Associated with Lens Design (1) (by Nakagawa, Photo 1982) "; Section 4.2.2.1 of" Report of Research Outsourcing for Development of Working Robots for Utility Nuclear Power Plants in 1984 (Ultimate Working Robot Technology Research Association) ";" Robots for Working Nuclear Power Plants in 1985 " Section 4.2.2.1 of “Development commissioned research report (extreme work robot technology research association)”).
[0088]
The circles are stacked with the standardized time ntc as the vertical axis, to form a “cylindrical array” as shown in FIG. In this way, the geometric meaning of step (1) becomes clear.
[0089]
That is, the normalized time ntc arbitrarily given in step (1) specifies the height coordinate of this cylinder, and in steps (2) and (3), the cross-sectional circle at that height, that is, This means that the spherical image shown in FIG. 35A is converted into a circle.
[0090]
Since the standardized time ntc is arbitrarily given in step (1), the great circles do not intersect at one point as shown in the upper surface of FIG. 35B, but the height is equal to the true standardized time ntc0. In the sectional circle, great circles intersect at one point.
[0091]
Therefore, the standardized time ntc0 of the plane is obtained as the “height coordinate” of the cylinder, and the three-dimensional azimuth ns0 is obtained as the “intersection coordinate within the cross-sectional circle” (FIG. 35B).
[0092]
(1.4 Confirmation by simulation)
A computer simulation shows that the "algorithm for measuring three-dimensional geometric information of a plane" described in 1.3.2 and 1.3.3 is correct (see FIG. 36).
[0093]
First, the input data will be described. There is a plane perpendicular to the front of the spherical camera (or eyeball), and the distance to the camera center is 3 m. The plane moves toward the camera at a speed of 1 m / sec in a direction perpendicular to it (ie, in a direction parallel to the three-dimensional orientation ns0 of the plane).
[0094]
There are eight points on the plane, and the “spherical positions p0 and p1 at the present and next times” of those points are observed as input image data. Note that the time difference Δt from the current time to the next time is 0.05 second, and the position pinf at the infinite time is equal to the moving direction v of the camera and at the center of the visual field.
[0095]
From the above, the time tc until the camera crosses the plane is 3/1 = 3 seconds, and the standardized time ntc0 is 3 / 0.05 = 60. The three-dimensional direction ns0 of the plane is at the center of the visual field.
[0096]
A simulation result of obtaining three-dimensional geometric information (ntc0 and ns0) of a plane from the positions p0 and p1 at the current time and the next time and the position pinf after infinite time has elapsed by the above-described algorithm (cross ratio conversion and polar conversion). As shown in FIG. "Circular cross section circle" at each normalized time ntc described in 1.3.3 is shown side by side.
[0097]
Each cross-section circle is obtained by projecting the spherical surface of FIG. 35A onto a plane passing through the sphere by the “equidistant projection method described in 1.3.3”. The lower right is a cross-sectional circle at ntc = 0 corresponding to the current time, and is arranged in order of increasing normalized time ntc toward ntc = infinity corresponding to the upper left infinite time.
[0098]
Each cross section circle will be described. In each sectional circle, the position pc calculated by the “cross ratio conversion” from the positions p0 and p1 and the normalized time ntc is drawn by dots, and eight positions pc corresponding to eight points on the plane. Is drawn.
[0099]
As described in 1.3.2, this position pc is obtained by “predicting” the position where each point can be seen at an arbitrary time ntcΔt. Next, eight great circles obtained by “polar conversion” of the position pc are drawn.
[0100]
In the first cross section circle (lower right, ntc = 0), these great circles are scattered, but converge as the standardization time ntc increases, and the standardization time ntc becomes 60 cross section circles (upper right end) ), The great circles intersect at one point.
[0101]
When the standardization time ntc becomes longer than this, the radiation diverges again. In this way, the great circles intersect at one point only at the height of the normalized time ntc = 60. This height ntc is equal to the value 60 of the “normalized time ntc0 until crossing the plane”. The azimuth that intersects one point is at the center of the field of view, and is equal to the above-described “plane three-dimensional azimuth ns0”.
[0102]
(1.5 How to measure the normalized distance ndc before crossing the plane in the movement direction)
The normalized distance ndc is obtained by standardizing “the distance dc to cross the plane in the moving direction (this distance is Vtc in FIG. 33)” with “the moving distance Δx from the present time to the next time”. It is represented by equation (17a).
[0103]
ndc = dc / Δx = Vtc / Δx (17a)
[0104]
The following equation (17b) is derived by substituting equation (7) into equation (17a) and transforming using equation (1).
[0105]
ndc = Vtc / (VΔt) = tc / Δt = ntc (17b)
[0106]
It has been shown that the normalized distance ndc is equal to the aforementioned “normalized time ntc”. Therefore, the standardized distance ndc can be measured using the method (1.3.2) for obtaining the standardized time ntc as it is.
[0107]
FIG. 37 is a block diagram illustrating a configuration of a conventional image measurement device 10. The camera 11 captures two frames of the input image corresponding to FIG. 28 at time t0 and time t1 (> time t0).
[0108]
The data of the input image corresponding to time t0 is stored in the time t0 image register 12. FIG. 39 shows the input image G0 stored in the time t0 image register 12. This input image G0 corresponds to FIG. 28 and is captured by the camera 11 at time t0.
[0109]
On the other hand, the data of the input image corresponding to time t1 is stored in the time t1 image register 13. The input image also corresponds to FIG. 28, and is captured by the camera 11 at time t1.
[0110]
The moving direction v extraction unit 14 calculates the position {ip0} of all points in the input image stored in the time t0 image register 12 and the position {ip1} of all points in the input image stored in the time t1 image register 13. , The moving direction v described above is extracted. The moving direction v may be given as known.
[0111]
The pinf setting unit 15 sets the moving direction v extracted by the moving direction v extracting unit 14 as a position pinf at infinite time in a cross ratio conversion unit 23 described later. The local area number i scanning unit 16 scans a local area number i representing a local area including each point in the input image from a lower limit value imin to an upper limit value imax.
[0112]
The local area image cutout unit 17 calculates the central pixel ip0 of the local area corresponding to the local area number i from each of the input image stored in the time t0 image register 12 and the input image stored in the time t1 image register 13. The time t0 local area image GK0 and the time t1 local area image GK1 centered on are extracted.
[0113]
As shown in FIG. 38, the time t0 local area image GK0 is an image having a predetermined area centered on the center pixel ip0. By scanning the local area number i, a plurality of time t0 local area images GK0,... Are sequentially cut out from the input image G0 stored in the time t0 image register 12, as shown in FIG. .
[0114]
Note that, as shown in FIG. 38, the local region corresponding to the time t0 local region image GK0 is illustrated by a rectangular box, but in FIG. 12, the local region corresponding to the time t0 local region image GK0 is shown for convenience. It is shown in a circle. Each of the plurality of time t0 local area images GK0,... Shown in FIG. 39 is a local area having the same area and has the same resolution (resolution).
[0115]
On the other hand, a plurality of time t1 local area images GK1 (see FIG. 38) cut out from the input image stored in the time t1 image register 13 also have the same area as the plurality of time t0 local area images GK0. It is an area and has the same resolution (resolution).
[0116]
Referring back to FIG. 37, the ip0 conversion unit 18 converts the local area number i scanned by the local area number i scanning unit 16 into the center pixel ip0. The motion parallax number k scanning unit 19 scans the motion parallax number k from the lower limit kmin to the upper limit kmax. The motion parallax number k is a serial number of the motion parallax and, as shown in FIG. 41, corresponds to the motion parallax kτ, that is, the parallax vector (ktx, kτy).
[0117]
The motion parallax kτ conversion unit 20 outputs the motion parallax kτ based on the motion parallax number k scanned by the motion parallax number k scanning unit 19.
[0118]
As shown in FIG. 38, the motion parallax detection unit 21 calculates the response strength from the following equation (18) based on the time t0 local region image GK0, the time t1 local region image GK1, and the motion parallax kτ.
[0119]
Response intensity = ΣxΣy ia0 (x, y) ia1 (x−kτx, y−kτy) (18)
[0120]
Here, ia0 (x, y) is the intensity of the (x, y) pixel in the local region image at the current time (upper left in FIG. 38), and ia1 (x, y) is the local region image at the next time (see FIG. 38). 38 (lower left) in (x, y) pixels.
[0121]
Note that the response strength is described in JP-A-05-165957, JP-A-05-165957, JP-A-06-044364, and JP-A-09-08369 described above; "The two-dimensional correlation and convolution are described by the Hough plane. Method one-dimensionally along the ρ-coordinate of "Kawakami and Okamoto, IEICE Technical Report, vol. IE96-19, pp. 31-38, 1996; "A cell model for the detection of local image motion on the magnocellular path of the visual cortex," Kawasaki. and Okamoto, H .; , Vision Research, vol. 36 pp. 117-147, 1996.
[0122]
Referring back to FIG. 37, the standardized time ntc scanning unit 22 scans the standardized time ntc from the lower limit value ntc, min to the upper limit value ntc, max. The cross ratio conversion unit 23 outputs information on the position ikpc based on the four parameters ntc, kτ, ip0, and pinf.
[0123]
The polar conversion unit 24 polar-converts the position ikpc into a great circle on a spherical surface and outputs the position {ikpGC} of a point group forming the great circle. The columnar array voting unit 25 votes the response strength (plane parameter) from the motion parallax detection unit 21 to the point group on the great circle of the normalized time ntc (height).
[0124]
The peak extracting unit 26 extracts a point at which the response intensity voted in the cylindrical array reaches a maximum (peak). This local maximum point is where the great circles intersect at one point. The normalized time ntc0 before crossing the plane is obtained as the height coordinate of the maximum point, and the three-dimensional azimuth ns0 of the plane is obtained as the coordinates within the cross-section circle.
[0125]
Next, the operation of the conventional image measuring device 10 will be described with reference to the flowchart shown in FIG.
[0126]
(1) The position pinf at infinite time is set as follows (step SA1). That is, the moving direction v extraction unit 14 determines the time t0 and the time t0 based on the input image (input image G0: see FIG. 39) stored in the time t0 image register 12 and the input image stored in the time t1 image register 13. The moving direction v is extracted from the positions {ip0} and {ip1} of all points at time t1. Next, the pinf setting unit 15 sets the position pinf at infinite time in the cross ratio conversion unit 23 assuming that the position is equal to the moving direction v extracted by the moving direction v extracting unit 14.
[0127]
(2) The local area number i scanning unit 16 scans the local area number i of each point in the image from the lower limit value imin to the upper limit value imax (step SA2, step SA3, step SA17). (Scan i)
[0128]
(3) The local area image cutout unit 17 obtains a local area number from each of the input image (input image G0: see FIG. 39) stored in the time t0 image register 12 and the input image stored in the time t1 image register 13. A time t0 local area image GK0 and a time t1 local area image GK1 centered on the central pixel ip0 corresponding to the local area number i scanned by the i-scanning unit 16 are cut out (see FIG. 38).
[0129]
(4) The motion parallax number k scanning unit 19 scans the motion parallax number k from the lower limit kmin to the upper limit kmax. (Step SA5, Step SA6, Step SA16). (Scan k)
[0130]
(5) The motion parallax kτ conversion unit 20 outputs the motion parallax kτ based on the motion parallax number k scanned by the motion parallax number k scanning unit 19 (step SA7).
[0131]
However, when the direction of the motion parallax kτ, that is, the direction of the parallax vector (ktx, kτy) is different from the direction from ip0 to v (that is, pinf) shown in FIG. Due to the motion parallax that occurs, steps SA9 to SA14 are skipped (the determination result of step SA8 is “No”).
[0132]
(6) As shown in FIG. 38, the motion parallax detection unit 21 calculates the response intensity from the above equation (18) based on the time t0 local region image GK0, the time t1 local region image GK1, and the motion parallax kτ. (Step SA9).
[0133]
(7) The standardized time ntc scanning unit 22 scans the standardized time ntc from the lower limit ntc, min to the upper limit ntc, max (step SA10, step SA11, step SA15).
[0134]
(8) The ip0 conversion unit 18 converts the local area number i into the center pixel ip0. The cross ratio conversion unit 23 outputs the position ikpc based on the four parameters ntc, kτ, ip0, and pinf set above (step SA12).
[0135]
(9) The polar conversion unit 24 polar-converts into a great circle on the spherical surface and outputs the position {ikpGC} of the point group forming the great circle (step SA13).
[0136]
(10) The columnar array voting unit 25 votes the response strength (plane parameter) from the motion parallax detection unit 21 to the point group on the great circle having the height ntc (step SA14). By the processing so far, one great circle in which the point at the position ip0 has been subjected to the cross-ratio conversion and the polar conversion is drawn within the cross-section circle having the height of ntc.
[0137]
(Scan ntc (step SA15))
(Scan k (step SA16))
(Scan i (Step SA17))
[0138]
(11) By the processing so far, a great circle group in which all the points {ip0} in the input image have been subjected to the cross-ratio conversion and the polar conversion is drawn in the cross-section circles of all the heights {ntc}. That is, voting is performed on all the cross-sectional circles of the columnar array.
[0139]
(12) The peak extraction unit 26 extracts a point at which the voted intensity reaches a maximum (peak) in the columnar array. This maximum point is where the great circles intersect at one point. The standardized time ntc0 before crossing the plane is obtained as the height coordinates of the maximum point, and the three-dimensional azimuth ns0 of the plane is obtained as coordinates in the cross-sectional circle (step SA18).
[0140]
[Problems to be solved by the invention]
By the way, as shown in FIG. 28, the optical flow (local velocity) is smaller in the central part (closer to the moving direction) of the input image and is larger in the peripheral part (part farther from the moving direction). In the drawing, the scalar amount of the local velocity vector is smaller toward the center, and the scalar amount is larger toward the peripheral portion.
[0141]
Here, in the conventional image measurement device 10, since local motion detection is performed with uniform resolution over the entire input image as shown in FIG. 39, the local velocity is lower than the resolution, and There is a problem that a region where local motion cannot be detected becomes large.
[0142]
Further, in the conventional image measurement device 10, since the size of the local region (the region surrounded by circles in the figure) is uniform over the entirety of the input image, the local speed exceeds the size of the local region. There is a problem that a region where local motion cannot be detected becomes large.
[0143]
As described above, when the region where the local motion in the local region cannot be correctly detected becomes large, the voting of the feature parameter of the plane into the voting space (cylinder array) cannot be performed correctly. There is a problem that the measurement accuracy of the parameter is reduced.
[0144]
The present invention has been made in view of the above, and an object of the present invention is to provide an image measurement program capable of improving the measurement accuracy of a feature parameter of a plane.
[0145]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a computer, a motion parallax detection unit that detects a motion parallax in each local region in an image, a resolution of the local region according to a distribution of the motion parallax, a local region. An image measurement program for functioning as a local area setting unit that is set to change every time and a measurement unit that measures a feature parameter of a plane based on the detection result of the motion parallax detection unit.
[0146]
According to the present invention, the resolution of the local region is set so as to change for each local region according to the distribution of the motion parallax, and the feature parameter of the plane is measured based on the detection result of the motion parallax. In addition, the situation where the motion parallax becomes lower than the resolution depending on the position of the local region is avoided, and the measurement accuracy of the feature parameter of the plane can be improved.
[0147]
Further, the present invention provides a computer, wherein a motion parallax detecting means for detecting a motion parallax in each local region in an image, and changing a size of the local region according to the distribution of the motion parallax for each local region. An image measurement program for functioning as a local area setting unit to be set and a measurement unit for measuring a feature parameter of a plane based on a detection result of the motion parallax detection unit.
[0148]
According to the present invention, the size of the local region is set so as to change for each local region according to the distribution of the motion parallax, and the feature parameter of the plane is measured based on the detection result of the motion parallax. In addition, a situation in which the motion parallax exceeds the size of the local region can be avoided, and the measurement accuracy of the planar feature parameter can be improved.
[0149]
Further, the present invention provides a computer, a motion parallax detection unit for detecting a motion parallax in each local region in an image, and changing a resolution and a size of the local region for each local region according to the distribution of the motion parallax. An image measurement program for functioning as a local area setting unit configured as described above, and a measurement unit that measures a feature parameter of a plane based on the detection result of the motion parallax detection unit.
[0150]
According to the present invention, the resolution and the size of the local region are set so as to change for each local region according to the distribution of the motion parallax, and the feature parameter of the plane is measured based on the detection result of the motion parallax. Therefore, it is possible to avoid a situation where the motion parallax becomes lower than the resolution or the motion parallax exceeds the size of the local region depending on the position of the local region, and it is possible to improve the measurement accuracy of the feature parameter of the plane.
[0151]
Also, the present invention provides a computer, a binocular disparity detecting means for respectively detecting binocular disparity in each local region in an image, changing a size of the local region according to the distribution of the binocular disparity for each local region An image measurement program for functioning as a local area setting unit configured to perform setting, and a measurement unit configured to measure a plane characteristic parameter based on a detection result of the binocular parallax detection unit.
[0152]
According to the present invention, the size of the local region is set so as to change for each local region according to the distribution of binocular parallax, and the feature parameter of the plane is measured based on the detection result of binocular parallax. Accordingly, a situation in which the binocular disparity exceeds the size of the local region depending on the position of the local region is avoided, and the measurement accuracy of the feature parameter of the plane can be improved.
[0153]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments 1 to 3 of an image measurement program according to the present invention will be described in detail with reference to the drawings.
[0154]
FIG. 1 is a block diagram showing a configuration of the first exemplary embodiment according to the present invention. In the figure, parts corresponding to the respective parts in FIG. 37 are denoted by the same reference numerals.
[0155]
Here, the operation principle of the first embodiment will be described with reference to FIGS. FIG. 2 corresponds to FIG. In the first embodiment, the respective resolutions of the time t0 local area image GK0 of the input image G0 input at the time t0 shown in FIG. It is set so as to be higher in the area and lower in the peripheral area.
[0156]
Note that, also in the input image (not shown) at the time t1, each resolution of the local region image is set to be higher toward the center and lower toward the periphery.
[0157]
Further, in the first embodiment, as shown in FIGS. 3 (b) and 4 (b), each size of the time t0 local area image GK0 of the input image G0 shown in FIG. It is set to be larger in the peripheral part.
[0158]
Note that, also in the input image (not shown) at the time t1, each size of the local region image is set to be smaller toward the center and larger toward the periphery.
[0159]
Actually, in the first embodiment, as shown in FIGS. 3C and 4C, the ratio between the resolution and the size is set to be constant.
[0160]
Here, as shown in FIG. 5, the local speed on the input image is lower (the motion parallax is smaller) at the center of the imaging surface such as a spherical lens, and the local speed is higher at the peripheral portion farther from the center (movement). Parallax is large). Similarly, as shown in FIGS. 6A and 6B, the local speed is lower (the motion parallax is smaller) at the center of the imaging surface, and the local speed is higher (the motion parallax is larger) at the peripheral portion.
[0161]
Therefore, in the first embodiment, the resolution (and size) of the local region image of the input image is increased (decreased) toward the center in accordance with the change in the local velocity at the position (central portion, peripheral portion) of the input image. By lowering (enlarging) the peripheral portion, the above-described conventional problem is solved.
[0162]
In the image measuring device 100 shown in FIG. 1, the local area setting unit 101 sets the input image stored in each of the time t0 image register 12 and the time t1 image register 13 according to the position (central part, peripheral part). A local area is set for a local area image with a changed resolution and size. The local area setting information as a result of this setting is stored in the table 150 shown in FIG. The details of the local area setting information will be described later.
[0163]
The local area number i scanning unit 102 scans a local area number i for identifying a local area image.
[0164]
The local area image extraction unit 103 refers to the local area setting information table 150, and extracts the local image from each of the input image stored in the time t0 image register 12 and the input image stored in the time t1 image register 13. A time t0 local area image GK0 and a time t1 local area image GK1 corresponding to the area number i are cut out.
[0165]
Next, the operation of the first embodiment will be described with reference to the flowcharts shown in FIGS. In step SB1 shown in FIG. 9, the local area setting unit 101 shown in FIG. 1 applies the resolution and size to the input image stored in the time t0 image register 12 as shown in FIG. A first local area setting process of setting a local area in which is changed depending on the position is performed.
[0166]
Specifically, in step SC1 shown in FIG. 10, the local area setting unit 101 sets the pitch in the β direction (radial direction) of the input image G0 shown in FIG. Set Δβ. Here, the angle of view β shown in the figure is the angle between the camera focal point and the imaging plane as shown in FIG. 8B. The pitch Δβ is set, for example, from f (β) shown in FIG.
[0167]
In step SC2, the local region setting unit 101 sets the pitch Δα in the α direction (circumferential direction) in the input image G0 shown in FIG. In step SC3, the local area setting unit 101 sets 1 to a local area number i. In step SC4, the local area setting unit 101 calculates the position in the β direction in the local area corresponding to the local area number i (= 1) (integrates Δβ).
[0168]
In step SC5, the local area setting unit 101 determines the central pixel ip0 (see FIG. 38) in the local area image corresponding to the local area number i (= 1). In step SC6, the local area setting unit 101 sets a pixel ratio between the original image and the local area image.
[0169]
Specifically, as shown in FIGS. 8D and 8E, when the original image 200A near the center of the input image G0 is an image corresponding to the local region number i, the resolution is increased. Therefore, 1 is set as the image ratio, and the local region image 200B (FIG. 8E) is set.
[0170]
As shown in FIGS. 8F and 8G, in the case of the original image 201A at a position slightly away from the center of the input image G0, the original image 201A (see FIG. 8D)) is used. Also, the size is set large, the image ratio for lowering the resolution is set to 2, and the local area image 201B (FIG. 8 (g)) is set. In this case, 2 × 2 pixels of the original image 201A are averaged to be one pixel in the local area image 201B. Note that the image ratio is not limited to an integer since an original image can be converted into a local region image by weighted averaging or the like.
[0171]
Further, as shown in FIGS. 8H and 8I, the size of the original image 202A in the periphery of the input image G0 is larger than that of the original image 201A (see FIG. 8F). Then, 3 is set as the image ratio for further lowering the resolution, and the local area image 202B (FIG. 8 (i)) is set. In this case, 3 × 3 pixels of the original image 202A are averaged to be one pixel in the local area image 202B.
[0172]
As described above, the local region image 200B (see FIG. 8E), the local region image 201B (see FIG. 8G), and the local region image 202B (see FIG. 8I) are at the center of the input image G0. The resolution is set from high to low, and the size is set from small to large.
[0173]
However, the number of pixels of each of the local area image 200B (see FIG. 8E), the local area image 201B (see FIG. 8G), and the local area image 202B (see FIG. 8I) is constant (k). × k pixels).
[0174]
In step SC7, the local region setting unit 101 sets 1 to m (vertical coordinate) in the local region image 200B (see FIG. 8E) corresponding to the local region number i (= 1). In step SC8, the local area setting unit 101 sets 1 to 1 (horizontal coordinate) in the local area image 200B.
[0175]
Here, each pixel constituting the local region image (local region image 200B or the like) is represented by a pixel number (l, m). On the other hand, each pixel constituting the original image (eg, the original image 200A) is represented by a pixel number (a, b).
[0176]
In step SC9, the local region setting unit 101 determines the relationship between the local region image 200B (see FIG. 8E) corresponding to the local region number i (= 1) and the original image 200A (see FIG. 8D). For the correspondence, the correspondence between the pixel number (l, m) of the local area image 200B (see FIG. 8E) and the pixel number (a, b) of the original image 200A is determined.
[0177]
In step SC10, the local region setting unit 101 associates the pixel numbers (l, m) of the local region image 200B with the local region number i (= 1) in the local region setting information table 150 (see FIG. 7). The local area setting information including the pixel numbers (a, b) of the original image 200A is stored.
[0178]
In step SC11, the local area setting unit 101 calculates the pixel intensity ia0 (x, y) of the local area image 200B. The intensity ia0 (x, y) of this pixel corresponds to the intensity ia0 (x, y) of the local time image GK0 at time t0 shown in FIG.
[0179]
In step SC12, the local area setting unit 101 determines whether or not 1 is 1max, and in this case, sets the determination result to “No”. In step SC15, the local area setting unit 101 increments l by one and scans l. Thereafter, the processing from step SC9 is performed until the determination result of step SC12 becomes “Yes”.
[0180]
Then, when the determination result of step SC12 is “Yes”, in step SC13, the local region setting unit 101 determines whether m is mmax, and in this case, the determination result is “No”. In step SC16, the local area setting unit 101 increments m by one and scans m. Thereafter, the processing of step SC8 and thereafter is executed until the determination result of step SC13 becomes “Yes”.
[0181]
Then, when the determination result of step SC13 is “Yes”, in step SC14, the local region setting unit 101 determines whether the local region number i is imax, and in this case, the determination result is “No”. I do. In step SC17, the local area setting unit 101 increments the local area number i by one.
[0182]
Thereafter, the processing of step SC4 and thereafter is executed until the determination result of step SC14 becomes “Yes”. Thereby, as shown in FIG. 4C, a plurality of local area images corresponding to the local area numbers i (1 to imax) are set for the input image stored in the time t0 image register 12. These local region images are characterized in that the resolution is higher and the size is smaller at the center of the input image, and the resolution is lower and the size is larger at the periphery.
[0183]
When the determination result of step SC14 is “Yes”, in step SB2 shown in FIG. 9, the local area setting unit 101 shown in FIG. For the input image stored in the t1 image register 13, a second local area setting process of setting a local area whose resolution and size are changed according to position is executed.
[0184]
Specifically, in step SD1 shown in FIG. 11, local area setting section 101 sets 1 to local area number i.
[0185]
In step SD2, the local area setting unit 101 sets 1 to m (vertical coordinate) in the local area image corresponding to the local area number i (= 1). In Step SD3, the local area setting unit 101 sets 1 to 1 (horizontal coordinate) in the local area image.
[0186]
In step SD4, the local region setting unit 101 reads the local region setting information (the pixel number (l, m) of the local region image and the original image) corresponding to the local region number i from the local region setting information table 150 shown in FIG. Pixel number (a, b)) is read out.
[0187]
In step SD5, in the same manner as in step SC11 (see FIG. 10), the intensity ia0 (x, y) of the pixel of the local area image is calculated based on the local area image information read in step SD4.
[0188]
In step SD6, the local area setting unit 101 determines whether or not 1 is 1max. In this case, the determination result is “No”. In step SD9, the local area setting unit 101 increments l by one and scans l. Thereafter, the processing of step SD4 and thereafter is executed until the determination result of step SD6 becomes "Yes".
[0189]
Then, when the determination result of step SD9 is “Yes”, in step SD7, the local region setting unit 101 determines whether m is mmax, and in this case, the determination result is “No”. In step SD10, the local area setting unit 101 increments m by one and scans m. Thereafter, the processing of step SD3 and thereafter is executed until the determination result of step SD7 becomes "Yes".
[0190]
When the determination result of step SD7 is “Yes”, in step SD8, the local region setting unit 101 determines whether or not the local region number i is imax. In this case, the determination result is “No”. I do. In step SD11, the local area setting unit 101 increments the local area number i by one.
[0191]
Thereafter, the processing of step SD2 and thereafter is executed until the determination result of step SD8 becomes "Yes". Thereby, a plurality of local area images corresponding to the local area numbers i (1 to imax) are set for the input image stored in the time t1 image register 13. These local region images are characterized in that the resolution is higher and the size is smaller at the center of the input image, and the resolution is lower and the size is larger at the periphery.
[0192]
Then, when the result of the determination in step SD8 is “Yes”, an image measurement process is executed in step SB3 shown in FIG. Specifically, the image measurement processing shown in FIG. 12 is executed. The flowchart shown in the figure is the same as the above-described flowchart shown in FIG. 40 as described below.
[0193]
(1) The position pinf at infinite time is set as follows (step SE1). That is, based on the input image stored in the time t0 image register 12 and the input image stored in the time t1 image register 13, the moving direction v extraction unit 14 determines the position {ip0 of all points at time t0 and time t1. The moving direction v is extracted from {, {ip1}. Next, the pinf setting unit 15 sets the position pinf at infinite time in the cross ratio conversion unit 23 assuming that the position is equal to the moving direction v extracted by the moving direction v extracting unit 14.
[0194]
(2) The local area number i scanning unit 102 scans the local area number i of each point in the image from the lower limit value imin to the upper limit value imax (step SE2, step SE3, step SE17). (Scan i)
[0195]
(3) The local area image cutout unit 103 refers to the local area setting information table 150, and extracts the local image from each of the input image stored in the time t0 image register 12 and the input image stored in the time t1 image register 13. The time t0 local area image GK0 and the time t1 local area image GK1 centered on the central pixel ip0 corresponding to the local area number i scanned by the area number i scanning unit 102 are cut out (step SE4, see FIG. 38).
[0196]
(4) The motion parallax number k scanning unit 19 scans the motion parallax number k from the lower limit kmin to the upper limit kmax. (Step SE5, Step SE6, Step SE16). (Scan k)
[0197]
(5) The motion parallax kτ conversion unit 20 outputs the motion parallax kτ based on the motion parallax number k scanned by the motion parallax number k scanning unit 19 (step SE7).
[0198]
However, when the direction of the motion parallax kτ, that is, the direction of the parallax vector (ktx, kτy) is different from the direction from ip0 to v (that is, pinf) shown in FIG. Step 9 to step SE14 are skipped due to the motion parallax to be performed (the determination result of step SE8 is “No”).
[0199]
(6) As shown in FIG. 38, the motion parallax detection unit 21 calculates the response intensity from the above equation (18) based on the time t0 local region image GK0, the time t1 local region image GK1, and the motion parallax kτ. (Step SE9).
[0200]
(7) The standardized time ntc scanning unit 22 scans the standardized time ntc from the lower limit value ntc, min to the upper limit value ntc, max (Step SE10, Step SE11, Step SE15).
[0201]
(8) The ip0 conversion unit 18 converts the local area number i into the center pixel ip0. The cross ratio conversion unit 23 outputs the position ikpc based on the four parameters ntc, kτ, ip0, and pinf set as described above (step SE12).
[0202]
(9) The pole conversion unit 24 performs pole conversion into a great circle on the spherical surface and outputs the position {ikpGC} of the point group forming the great circle (step SE13).
[0203]
(10) The columnar array voting unit 25 votes the response strength (plane parameter) from the motion parallax detection unit 21 to the point group on the great circle having the height ntc (step SE14). By the processing so far, one great circle in which the point at the position (center pixel) ip0 has been subjected to the cross-ratio conversion and the polar conversion is drawn in the cross-section circle having the height of ntc.
[0204]
(Scan ntc (step SE15))
(Scan k (step SE16))
(Scan i (Step SE17))
[0205]
(11) By the processing so far, a great circle group in which all the points {ip0} in the input image have been subjected to the cross-ratio conversion and the polar conversion is drawn in the cross-section circles of all the heights {ntc}. That is, voting is performed on all the cross-sectional circles of the columnar array.
[0206]
(12) The peak extraction unit 26 extracts a point at which the voted intensity reaches a maximum (peak) in the columnar array. This local maximum point is where the great circles intersect at one point. A normalized time ntc0 before crossing the plane is obtained as the height coordinate of the maximum point, and a three-dimensional azimuth ns0 of the plane is obtained as coordinates in the cross-sectional circle (step SE18).
[0207]
As described above, according to the first embodiment, the resolution and the size of the local region image are set so as to change for each local region image as shown in FIG. Since the plane characteristic parameters are measured based on the detection result of the parallax detection unit 21, the situation where the motion parallax is lower than the resolution or the motion parallax exceeds the size of the local region depending on the position of the local region image is generated. Thus, the measurement accuracy of the feature parameter of the plane can be improved.
[0208]
(Embodiment 2)
FIG. 13 is a block diagram showing the configuration of the second embodiment according to the present invention. In the figure, parts corresponding to respective parts in FIG. In the image measuring device 300 shown in FIG. 3, the element number j scanning unit 301 scans the element number j of the column array in the column array voting unit 302.
[0209]
The columnar array voting unit 302 votes the response strength (plane parameter) from the motion parallax detection unit 21 to a point group on a great circle having a height (normalized time) ntc.
[0210]
The peak extracting unit 303 extracts a point at which the response intensity voted in the cylindrical array becomes a maximum (peak). This local maximum point is where the great circles intersect at one point. The normalized time ntc0 before crossing the plane is obtained as the height coordinate of the maximum point, and the three-dimensional azimuth ns0 of the plane is obtained as the coordinates within the cross-section circle.
[0211]
The ijτ table creation unit 304 creates an ijτ table 350 (see FIG. 14). The local area number i scanning unit 305 scans the local area number i in the same manner as the local area number i scanning unit 102. The ip0 output unit 306 outputs the center pixel ip0 in the image corresponding to the address (i, j).
[0212]
The element number j scanning unit 307 scans the element number j of the column array in the column array voting unit 302 in the same manner as the element number j scanning unit 301. The ntcj output unit 308 outputs a columnar array element (ntcj) corresponding to the address (i, j). The nsj output unit 309 outputs a columnar array element (nsj) corresponding to the address (i, j).
[0213]
Next, the operation of the second embodiment will be described with reference to the flowcharts shown in FIGS.
[0214]
In step SF1 shown in FIG. 15, the local area setting unit 101 shown in FIG. 13 performs the same operation on the input image stored in the time t0 image register 12 as in step SB1 (see FIG. 9). As shown in FIG. 3C, a first local area setting process of setting a local area in which the resolution and the size are changed according to the position is executed.
[0215]
In step SF2, the local area setting unit 101 performs the resolution as shown in FIG. 3C on the input image stored in the time t1 image register 13 in the same manner as in step SB2 (see FIG. 9). And a second local area setting process of setting a local area whose size is changed according to the position.
[0216]
In step SF3, the ijτ table creation unit 304 executes an ijτ table creation process for creating an ijτ table 350 (see FIG. 14).
[0217]
Specifically, according to the flowchart shown in FIG. 16, the ijτ table creation processing is executed in the following procedure.
[0218]
(1) The position pinf at infinite time is set as follows (step SG1). That is, the moving direction v extraction unit 14 determines the time t0 and the time t0 based on the input image (input image G0: see FIG. 2) stored in the time t0 image register 12 and the input image stored in the time t1 image register 13. The moving direction v is extracted from the positions {ip0} and {ip1} of all points at time t1. Next, the pinf setting unit 15 sets the position pinf at infinite time in the ijτ table creation unit 304 assuming that the position is equal to the movement direction v extracted by the movement direction v extraction unit 14.
[0219]
(2) The local area number i scanning unit 305 scans the local area number i corresponding to each point (center pixel) ip0 in the image from the lower limit value imin to the upper limit value imax (step SG2, step SG3, and step SG10). . (Scan i)
[0220]
(3) The element number j scanning unit 307 scans the element number j corresponding to the element (nsj, ntcj) in the cylinder array in the cylinder array voting unit 302 from the lower limit jmin to the upper limit jmax (step SG4, step SG5). , Step SG9). (Scan j)
[0221]
(4) The ip0 output unit 306, the nsj output unit 309, and the ntcj output unit 308 output a pixel (center pixel) ip0 and a cylindrical array element (nsj, ntcj) in the image corresponding to the address (i, j). (Step SG6).
[0222]
(5) The ijτ table creation unit 304 calculates the motion parallax ijτ based on the four parameters (nsj, ntcj, ip0, pinf) set above, according to the method described in JP-A-2000-357235. (Step SG7).
[0223]
(6) The ijτ table creation unit 304 stores the motion parallax ijτ as the content corresponding to the address (i, j) of the ijτ table 350 (see FIG. 14) (step SG8).
[0224]
Returning to FIG. 15, in step SF4, an image measurement process is executed. Specifically, the image measurement processing is executed in the following procedure according to the flowchart shown in FIG. In this image measurement process, the three-dimensional azimuth ns0 of the plane and the normalized time ntc0 are detected using the ijτ table 350 (see FIG. 14).
[0225]
(1) The local region number i of each point (center pixel) ip0 in the image is scanned from the lower limit value imin to the upper limit value imax by the local region number i scanning unit 102 shown in FIG. 13 (step SH1, step SH2, and step SH3). Step SH10). (Scan i)
[0226]
(2) The local area image cutout unit 103 refers to the local area setting information table 150 and stores the input image (input image G0: see FIG. 2) stored in the time t0 image register 12 and the time t1 image register 13 A time t0 local area image GK0 and a time t1 local area image GK1 centered on the central pixel ip0 corresponding to the local area number i scanned by the local area number i scanning unit 102 are cut out from each of the input images thus processed (step S1). SH3, see FIG. 38).
[0227]
(3) The element number j scanning unit 301 scans the element number j of the element (nsj, ntcj) in the cylindrical array in the cylindrical array voting unit 302 from the lower limit jmin to the upper limit jmax (step SH4, step SH5 and step SH9). (Scan j)
[0228]
(4) In the ijτ table 350, the motion parallax ijτ is output to the motion parallax detection unit 21 using the address (i, j) as a key (step SH6).
[0229]
(5) The motion parallax detection unit 21 calculates the response intensity from the following equation (19) based on the time t0 local region image GK0, the time t1 local region image GK1, and the motion parallax ijτ shown in FIG. 38 (step) SE7).
[0230]
Response strength = ΣxΣy ia0 (x, y) ia1 (x-ijτx, y-ijτy) (19)
[0231]
(6) The motion parallax detection unit 21 votes the response strength for the elements (nsj, ntcj) of the cylinder array in the cylinder array voting unit 302 (step SH8).
[0232]
(Scan j (Step SH9))
(Scan i (Step SH10))
[0233]
(7) The peak extraction unit 303 extracts a point at which the response intensity voted in the columnar array in the columnar array voting unit 302 has a maximum (peak). This local maximum point is where the great circles intersect at one point. A normalized time ntc0 before crossing the plane is obtained as the height coordinate of the maximum point, and a three-dimensional azimuth ns0 of the plane is obtained as coordinates in the cross-sectional circle (step SH11).
[0234]
As described above, according to the second embodiment, the same effects as in the first embodiment can be obtained.
[0235]
(Embodiment 3)
By the way, in Embodiments 1 and 2 described above, a configuration example in which image measurement is performed based on two frames of input images corresponding to time t0 and time t1 has been described. However, two cameras (right camera and left camera) are used. ) May be used to perform image measurement based on the right input image and the left input image. Hereinafter, this configuration example will be described as a third embodiment.
[0236]
FIG. 18 is a block diagram showing a configuration of the third embodiment according to the present invention. In the image measuring device 400 shown in FIG. 19, the right camera 401 and the left camera 403 capture images of a plane, as shown in FIG.
[0237]
The left image 404L shown in FIG. 20 is captured by the left camera 403, and the right image 402R is captured by the right camera 401. Here, since the left camera 403 and the right camera 401 are distant from each other, there is a difference in how the left image 404L and the right image 402R appear.
[0238]
Specifically, in the left local region image GKL cut out from the left image 404L and the right local region image GKR cut out from the right image 402R, a shift amount appears as binocular parallax.
[0239]
Here, as described in JP-A-2000-357235, the current time position p0, the next time position p1, and the infinite time position pinf in the motion parallax algorithm described in the first and second embodiments. Is replaced by the position pR in the right image 402R, the position pL in the left image 404L, and the position Paxis on the visual axis connecting the right camera 401 and the left camera 403. (Ii) normalized distance ndc to cross the plane in the visual axis direction, (iii) normalized shortest distance nds to the plane, and normalized distance nd0 to point (iv).
[0240]
Referring back to FIG. 18, the right image register 402 stores data of the right image 402R (see FIG. 20) captured by the right camera 401. The left image register 404 stores a left image 404L (see FIG. 20) captured by the left camera 403.
[0241]
The local region setting unit 405 determines the position (center) of the right image 402R and the left image 404L stored in the right image register 402 and the left image register 404, respectively, in the same manner as the above-described local region setting unit 101 (see FIG. 1). , The size of the local area image is changed as shown in FIG. In the figure, the size of the local area image is set larger at the center and smaller at the periphery.
[0242]
Here, the reason that the size is set to be larger at the center and smaller at the periphery is that the local speed on the image is higher at the center of the imaging surface as shown in FIG. This is because the local speed is slower (binocular parallax is smaller) in the peripheral portion farther from the center. By setting the size in this way, the measurement accuracy of the feature parameter of the plane is improved.
[0243]
Returning to FIG. 18, the local region setting unit 405 associates the local region setting information table 450 with the local region number i in the same manner as the local region setting information table 150 (see FIG. The local area setting information on each local area image of the size distribution is stored.
[0244]
The Paxis setting unit 406 sets the position Paxis on the visual axis as equal to the visual axis direction axis in the ijσ table creation unit 408, as described later. The local area number i scanning unit 407 scans the address (local area number) i of each point ipR in the image from the lower limit value imin to the upper limit value imax.
[0245]
The ijσ table creation unit 408 creates an ijσ table 460 (see FIG. 23). The local area number i scanning unit 409 scans the address (local area number) i of each point ipR in the image from the lower limit value imin to the upper limit value imax.
[0246]
The ipR output unit 410 outputs each point ipR in the image corresponding to the address (i, j). The element number j scanning unit 411 scans the address (element number) j of the element (nsj, ndcj) in the cylindrical array in the cylindrical array voting unit 417 from the lower limit jmin to the upper limit jmax.
[0247]
The ndcj output unit 412 outputs a columnar array element (ndcj) corresponding to the address (i, j). The nsj output unit 413 outputs a columnar array element (nsj) corresponding to the address (i, j).
[0248]
The local area image cutout unit 414 refers to the local area setting information table 450, and extracts the pixel corresponding to the address i from the right image 402R stored in the right image register 402 and the left image 404L stored in the left image register 404. The right local region image GKR and the left local region image GKL centering on ipR are respectively cut out.
[0249]
The binocular parallax detection unit 416 calculates a response strength based on the right local region image GKR, the left local region image GKL, and the binocular parallax ijσ. In the columnar array voting unit 417, a response strength (plane parameter) from the binocular parallax detection unit 416 is voted for a point group on a great circle having a height ntc.
[0250]
The peak extraction unit 418 obtains a normalized distance ndc0 and a three-dimensional azimuth ns0 of a plane, which will be described later, based on the voting result of the columnar array voting unit 417.
[0251]
Next, the operation of the third embodiment will be described with reference to the flowcharts shown in FIGS.
[0252]
In step SI1 shown in FIG. 24, the local region setting unit 405 shown in FIG. 18 performs the same processing as in step SB1 (see FIG. 9) for the right image 402R stored in the right image register 402. As shown in FIG. 21, a first local area setting process of setting a local area whose size (however, the resolution is constant) is changed depending on the position and then storing the local area setting information in the local area setting information table 450 is performed. Execute.
[0253]
In step SI2, the local area setting unit 405 sets the size of the left image 404L stored in the left image register 404 as shown in FIG. After setting a local area in which (the resolution is constant) is changed depending on the position, a second local area setting process of storing the local area setting information in the local area setting information table 450 is executed.
[0254]
In step SI3, the ijσ table creation unit 408 executes an ijσ table creation process for creating the ijσ table 460 (see FIG. 14).
[0255]
Specifically, according to the flowchart shown in FIG. 25, the ijσ table creation processing is executed in the following procedure.
[0256]
(1) The Paxis setting unit 406 sets the position Paxis on the visual axis in the ijσ table creation unit 408 as equal to the visual axis direction axis (step SJ1). The visual axis direction axis is known from the geometrical arrangement of the stereo cameras (the right camera 401 and the left camera 403).
[0257]
(2) The local area number i scanning unit 409 scans the address i of each point ipR in the image from the lower limit value imin to the upper limit value imax (step SJ2, step SJ3, step SJ10). (Scan i)
[0258]
(3) The element number j scanning unit 411 scans the address j of the element (nsj, ndcj) in the cylinder array in the cylinder array voting unit 417 from the lower limit jmin to the upper limit jmax (step SJ4, step SJ5, step SJ9). ). (Scan j)
[0259]
(4) The ipR output unit 410, the ndcj output unit 412, and the nsj output unit 413 output the pixel ipR and the cylindrical array element (nsj, ndcj) in the image corresponding to these addresses (i, j) (step SJ6). ).
[0260]
(5) The ijσ table creation unit 408 calculates the binocular disparity ijσ based on the four parameters nsj, ndcj, ipR, and paxis set as described above, using the method disclosed in Japanese Patent Application Laid-Open No. 2000-357235. Step SJ7).
[0261]
(6) The ijσ table creation unit 408 stores the binocular disparity ijσ as the content corresponding to the address (i, j) of the ijσ table 460 (see FIG. 23) (step SJ8).
[0262]
(Scan j (step SJ9))
(Scan i (Step SJ10))
[0263]
Thus, an ijσ table 460 (see FIG. 23) is obtained.
[0264]
Returning to FIG. 24, in step SI4, an image measurement process is executed. Specifically, the image measurement processing is executed in the following procedure according to the flowchart shown in FIG. In this image measurement processing, the three-dimensional azimuth ns0 of the plane and the normalized distance ndc0 are detected using the ijσ table 460 (see FIG. 23).
[0265]
(1) The local area number i scanning unit 407 scans the address i of each point ipR in the image from the lower limit value imin to the upper limit value imax (Step SK1, Step SK2, Step SK10). (Scan i)
[0266]
(2) The local area image cutout unit 414 refers to the local area setting information table 450 and sets the address i from the right image 402R stored in the right image register 402 and the left image 404L stored in the left image register 404 to the address i. A right local region image GKR and a left local region image GKL centered on the corresponding pixel ipR are cut out (step SK3).
[0267]
(3) The element number j scanning unit 415 scans the address j of the element (nsj, ndcj) in the cylindrical array in the cylindrical array voting unit 417 from the lower limit jmin to the upper limit jmax (steps SK4, SK5, SK9). ). (Scan j)
[0268]
(4) The binocular parallax detection unit 416 outputs data of the binocular parallax ijσ from the ijσ table 460 (see FIG. 23) using the address (i, j) as a key (step SK6).
[0269]
(5) The binocular parallax detection unit 416 calculates the response strength from the following equation (20) based on the right local region image GKR, the left local region image GKL, and the binocular parallax ijσ (step SK7).
[0270]
Response intensity = ΣxΣy iaR (x, y) iaL (x-ijσx, y-ijσy) (20)
[0271]
(6) The binocular parallax detection unit 416 votes the response strength to the elements (nsj, ndcj) in the columnar array voting unit 417 (step SK8).
[0272]
(Scan j (Step SK9))
(Scan i (Step SK10))
[0273]
(7) The peak extraction unit 418 extracts a point at which the voted intensity reaches a maximum (peak) in the columnar array in the columnar array voting unit 417. This local maximum point is where the great circles intersect at one point. The normalized distance ndc0 to the plane is determined as the height coordinate of the maximum point, and the three-dimensional azimuth ns0 of the plane is determined as the coordinates within the cross-sectional circle (step SK11).
[0274]
In the third embodiment, the configuration example in which the two left cameras 403 and the right camera 401 are used to detect binocular disparity as shown in FIG. 19 has been described. However, the left camera 403 (or the right camera 401) may be moved rightward (or leftward) right beside to detect binocular parallax.
[0275]
As described above, according to the third embodiment, the size of the local region image is set to change for each local region image as shown in FIG. Since the plane characteristic parameters are measured based on the detection result of the parallax detection unit 416, the situation where the binocular parallax exceeds the size of the local area due to the position of the local area image is avoided, and the plane characteristic parameters are measured. Measurement accuracy can be improved.
[0276]
Although the first to third embodiments according to the present invention have been described in detail with reference to the drawings, specific examples of the configuration are not limited to the first to third embodiments and depart from the gist of the present invention. Even if there is a design change within the range not to be included, it is included in the present invention.
[0277]
For example, in the above-described first to third embodiments, a program for realizing the functions of the image measuring device 100 (see FIG. 1), the image measuring device 300 (see FIG. 13), or the image measuring device 400 (see FIG. 18). Is recorded on the computer-readable recording medium 600 shown in FIG. 27, and the program recorded on the recording medium 600 is read by the computer 500 shown in FIG. Good.
[0278]
The computer 500 shown in the figure includes a CPU (Central Processing Unit) 510 that executes the above-described program, an input device 520 such as a keyboard and a mouse, a ROM (Read Only Memory) 530 that stores various data, a calculation parameter and the like. (Random access memory) 540 for storing the information, a reading device 550 for reading a program from the recording medium 600, an output device 560 such as a display or a printer, and a bus 570 for connecting each unit of the device.
[0279]
The CPU 510 implements the functions described above by reading the program recorded on the recording medium 600 via the reading device 550 and executing the program. Note that the recording medium 600 includes an optical disk, a flexible disk, a hard disk, and the like.
[0280]
(Supplementary Note 1)
Motion parallax detection means for detecting motion parallax in each local region in the image,
Local area setting means for setting the resolution of the local area according to the distribution of the motion parallax, so as to change for each local area;
Based on the detection result of the motion parallax detecting means, measuring means for measuring the characteristic parameters of the plane,
Image measurement program to function as
[0281]
(Supplementary note 2) The image measurement program according to supplementary note 1, wherein the local area setting means sets the resolution higher as the motion parallax is smaller, and sets the resolution lower as the motion parallax is larger.
[0282]
(Supplementary Note 3) The local area setting means sets the resolution higher at the center of the image where the motion parallax is smaller, and sets the resolution lower at the periphery of the image where the motion parallax is larger. The image measurement program according to Supplementary Note 1.
[0283]
(Supplementary Note 4)
Motion parallax detection means for detecting motion parallax in each local region in the image,
A local region setting unit configured to set a size of the local region according to the distribution of the motion parallax so as to change for each local region;
Based on the detection result of the motion parallax detecting means, measuring means for measuring the characteristic parameters of the plane,
Image measurement program to function as
[0284]
(Supplementary note 5) The image measurement program according to supplementary note 4, wherein the local area setting unit sets the size smaller as the motion parallax is smaller, and sets the size larger as the motion parallax is larger.
[0285]
(Supplementary Note 6) The local area setting means sets the size smaller at a central portion of the image where the motion parallax is smaller, and sets the size larger at a peripheral portion of the image where the motion parallax is larger. 4. The image measurement program according to claim 4, wherein
[0286]
(Appendix 7)
Motion parallax detection means for detecting motion parallax in each local region in the image,
Local region setting means for setting the resolution and size of the local region according to the distribution of the motion parallax, so as to change for each local region;
Based on the detection result of the motion parallax detecting means, measuring means for measuring the characteristic parameters of the plane,
Image measurement program to function as
[0287]
(Supplementary Note 8) The local area setting means sets the resolution higher as the motion parallax is smaller, sets the resolution lower as the motion parallax is larger, and sets the size smaller as the motion parallax is smaller. The image measurement program according to claim 7, wherein the size is set to be larger as the motion parallax is larger.
[0288]
(Supplementary Note 9) The local area setting means sets the resolution higher at the center of the image where the motion parallax is smaller, and sets the resolution lower at the periphery of the image where the motion parallax is larger. 8. The image measurement program according to claim 7, wherein the size is set smaller at a central portion of the image having a smaller parallax, and the size is set larger at a peripheral portion of the image having a larger motion parallax.
[0289]
(Supplementary note 10) The image measurement program according to any one of Supplementary notes 7 to 9, wherein the local region setting unit sets the ratio between the resolution and the size to be constant.
[0290]
(Supplementary Note 11) The voting means for voting a detection result of the motion parallax detection means to a voting space composed of planar feature parameters, and a feature for measuring the feature parameter based on the voting result. The image measurement program according to any one of Supplementary Notes 1 to 10, further comprising a parameter measurement unit.
[0291]
(Supplementary Note 12) The motion parallax detection unit detects a motion parallax in each local region in the image with reference to a motion parallax information table that stores motion parallax information obtained in advance for each local region. The image measurement program according to any one of supplementary notes 1 to 11, wherein
[0292]
(Supplementary Note 13) The computer causes the computer to function as a cutout unit that cuts out the local region from the image based on the local region setting information obtained by the local region setting unit, and the motion parallax detection unit detects 13. The image measurement program according to any one of supplementary notes 1 to 12, wherein a motion parallax is detected.
[0293]
(Supplementary Note 14) The local area setting means stores the local area setting information in a local area setting information table, and the cutout means cuts out the local area from the image with reference to the local area setting information table. 14. The image measurement program according to supplementary note 13, wherein
[0294]
(Supplementary Note 15)
Binocular parallax detection means for respectively detecting binocular parallax in each local region in the image,
A local area setting unit configured to set a size of the local area according to the distribution of the binocular disparity so as to change for each local area;
Based on the detection result of the binocular parallax detection means, measuring means for measuring the characteristic parameters of the plane,
Image measurement program to function as
[0295]
(Supplementary note 16) The image measurement according to supplementary note 15, wherein the local area setting unit sets the size to be smaller as the binocular parallax is smaller, and sets the size to be larger as the binocular parallax is larger. program.
[0296]
(Supplementary Note 17) The local area setting unit sets the size to be larger in a central portion of the image where the binocular disparity is large, and sets the size to be smaller in a peripheral portion of the image where the binocular disparity is small. An image measurement program according to attachment 15, characterized in that:
[0297]
(Supplementary note 18) The image measurement program according to any one of Supplementary notes 15 to 17, wherein the local area setting unit sets a constant resolution of each local area.
[0298]
(Supplementary Note 19) The measuring means measures a characteristic parameter based on a result of the voting, and a voting means for voting a detection result of the binocular disparity detecting means in a voting space composed of planar characteristic parameters. 19. The image measurement program according to any one of supplementary notes 15 to 18, wherein the image measurement program comprises a feature parameter measurement unit.
[0299]
(Supplementary Note 20) The binocular disparity detecting unit refers to a binocular disparity information table that stores binocular disparity information obtained in advance for each of the local regions, and determines binocular disparity in each local region in the image. 20. The image measurement program according to any one of supplementary notes 15 to 19, wherein each of the image measurement programs is detected.
[0300]
(Supplementary Note 21) The computer is caused to function as a cutout unit that cuts out the local region from the image based on the local region setting information obtained by the local region setting unit. 21. The image measurement program according to any one of supplementary notes 15 to 20, wherein a binocular disparity is detected.
[0301]
(Supplementary Note 22) The local region setting unit stores the local region setting information in a local region setting information table, and the cutout unit cuts out the local region from the image with reference to the local region setting information table. 23. The image measurement program according to claim 21, wherein:
[0302]
(Supplementary note 23) The binocular disparity detection unit detects the binocular disparity based on images obtained from two imaging devices arranged on the left and right, respectively. The image measurement program according to any one of the above.
[0303]
(Supplementary note 24) The one of supplementary notes 15 to 22, wherein the binocular parallax detection unit detects the binocular parallax based on an image obtained when the imaging apparatus is moved right beside. Image measurement program described in.
[0304]
(Supplementary Note 25) a motion parallax detection unit that detects a motion parallax in each local region in the image,
Local area setting means for setting the resolution of the local area according to the distribution of the motion parallax, so as to change for each local area,
Based on the detection result of the motion parallax detection means, measuring means for measuring the characteristic parameters of the plane,
An image measurement device comprising:
[0305]
(Supplementary note 26) The image measurement device according to supplementary note 25, wherein the local region setting unit sets the resolution higher as the motion parallax is smaller, and sets the resolution lower as the motion parallax is larger.
[0306]
(Supplementary Note 27) The local area setting means sets the resolution higher at the center of the image where the motion parallax is smaller, and sets the resolution lower at the periphery of the image where the motion parallax is larger. 25. The image measurement device according to attachment 25,
[0307]
(Supplementary Note 28) a motion parallax detection unit that detects a motion parallax in each local region in the image,
Local area setting means for setting the size of the local area according to the distribution of the motion parallax, so as to change for each local area,
Based on the detection result of the motion parallax detection means, measuring means for measuring the characteristic parameters of the plane,
An image measurement device comprising:
[0308]
(Supplementary note 29) The image measurement device according to supplementary note 28, wherein the local area setting unit sets the size to be smaller as the motion parallax is smaller, and sets the size to be larger as the motion parallax is larger.
[0309]
(Supplementary Note 30) The local region setting means sets the size smaller at a central portion of the image where the motion parallax is small, and sets the size larger at a peripheral portion of the image where the motion parallax is large. 30. The image measurement device according to attachment 28,
[0310]
(Supplementary Note 31) a motion parallax detection unit that detects a motion parallax in each local region in the image,
Local area setting means for setting the resolution and size of the local area according to the distribution of the motion parallax, so as to change for each local area,
Based on the detection result of the motion parallax detection means, measuring means for measuring the characteristic parameters of the plane,
An image measurement device comprising:
[0311]
(Supplementary Note 32) The local area setting means sets the resolution higher as the motion parallax is smaller, sets the resolution lower as the motion parallax is larger, and sets the size smaller as the motion parallax is smaller. The image measurement apparatus according to attachment 31, wherein the size is set to be larger as the motion parallax is larger.
[0312]
(Supplementary Note 33) The local area setting means sets the resolution higher at the center of the image with the smaller motion parallax, and sets the resolution lower at the periphery of the image with the larger motion parallax. 32. The image measurement device according to claim 31, wherein the size is set smaller at a central portion of the image having a smaller parallax, and the size is set larger at a peripheral portion of the image having a larger motion parallax.
[0313]
(Supplementary note 34) The image measurement device according to any one of Supplementary notes 31 to 33, wherein the local region setting unit sets the ratio between the resolution and the size to be constant.
[0314]
(Supplementary Note 35) The voting means for voting a detection result of the motion parallax detection means to a voting space composed of planar feature parameters, and a feature of measuring the feature parameter based on the voting result. 35. The image measuring device according to any one of supplementary notes 25 to 34, comprising: a parameter measuring unit.
[0315]
(Supplementary Note 36) The motion parallax detection means may detect a motion parallax in each local area in the image with reference to a motion parallax information table storing motion parallax information obtained in advance for each local area. 36. The image measurement device according to any one of supplementary notes 25 to 35, characterized in that:
[0316]
(Supplementary Note 37) A cutout unit that cuts out the local region from the image based on the local region setting information obtained by the local region setting unit, wherein the motion parallax detection unit detects a motion parallax in the cut local region. The image measurement device according to any one of supplementary notes 25 to 36, characterized in that:
[0317]
(Supplementary Note 38) The local area setting means stores the local area setting information in a local area setting information table, and the cutout means cuts out the local area from the image with reference to the local area setting information table. 38. The image measurement device according to attachment 37, wherein
[0318]
(Supplementary Note 39) Binocular parallax detection means for detecting binocular parallax in each local region in the image, respectively.
Local region setting means for setting the size of the local region according to the distribution of the binocular parallax, so as to change for each local region;
Based on the detection result of the binocular parallax detection means, measuring means for measuring the characteristic parameters of the plane,
An image measurement device comprising:
[0319]
(Supplementary note 40) The image measurement according to supplementary note 39, wherein the local area setting unit sets the size to be smaller as the binocular parallax is smaller, and sets the size to be larger as the binocular parallax is larger. apparatus.
[0320]
(Supplementary Note 41) The local area setting unit may set the size to be larger at a central portion of the image where the binocular disparity is large, and to set the size smaller at a peripheral portion of the image where the binocular disparity is small. An image measurement device according to attachment 39, wherein the image measurement device is characterized in that:
[0321]
(Supplementary note 42) The image measurement device according to any one of Supplementary notes 39 to 41, wherein the local region setting unit sets a constant resolution of each local region.
[0322]
(Supplementary Note 43) The measurement means measures a characteristic parameter based on a result of the voting, and a voting means voting a detection result of the binocular parallax detection means in a voting space composed of planar feature parameters. 43. The image measurement device according to any one of supplementary notes 39 to 42, further comprising: a characteristic parameter measurement unit.
[0323]
(Supplementary Note 44) The binocular disparity detecting unit refers to a binocular disparity information table that stores binocular disparity information obtained in advance for each local region, and calculates binocular disparity in each local region in the image. 44. The image measurement device according to any one of supplementary notes 39 to 43, wherein the image measurement device detects each of them.
[0324]
(Supplementary note 45) The image processing apparatus further includes a cutout unit that cuts out the local region from the image based on the local region setting information obtained by the local region setting unit, and the binocular disparity detection unit detects the binocular disparity in the cut local region. 45. The image measurement device according to any one of supplementary notes 39 to 44, wherein the image measurement device detects.
[0325]
(Supplementary Note 46) The local region setting unit stores the local region setting information in a local region setting information table, and the cutout unit cuts out the local region from the image with reference to the local region setting information table. 45. The image measurement device according to attachment 45, wherein:
[0326]
(Supplementary note 47) Any of supplementary notes 39 to 46, wherein the binocular parallax detection means detects the binocular parallax based on images obtained from two imaging devices arranged on the left and right, respectively. The image measurement device according to any one of the above.
[0327]
(Supplementary note 48) The one of supplementary notes 39 to 46, wherein the binocular parallax detection unit detects the binocular parallax based on an image obtained when the imaging apparatus is moved right beside. An image measuring device according to claim 1.
[0328]
(Supplementary Note 49) a motion parallax detection step of detecting motion parallax in each local region in the image,
A local area setting step of setting the resolution of the local area according to the distribution of the motion parallax, so as to change for each local area;
Based on the detection result of the motion parallax detection step, a measurement step of measuring a feature parameter of the plane,
An image measurement method comprising:
[0329]
(Supplementary note 50) The image measurement method according to supplementary note 49, wherein, in the local region setting step, the resolution is set higher as the motion parallax is smaller, and the resolution is set lower as the motion parallax is larger.
[0330]
(Supplementary Note 51) In the local region setting step, the resolution is set higher in a central portion of the image in which the motion parallax is smaller, and the resolution is set lower in a peripheral portion of the image in which the motion parallax is larger. 49. The image measurement method according to attachment 49,
[0331]
(Supplementary Note 52) a motion parallax detection step of detecting motion parallax in each local region in the image,
A local region setting step of setting the size of the local region according to the distribution of the motion parallax, so as to change for each local region;
Based on the detection result of the motion parallax detection step, a measurement step of measuring a feature parameter of the plane,
An image measurement method comprising:
[0332]
(Supplementary note 53) The image measurement method according to supplementary note 52, wherein in the local region setting step, the size is set smaller as the motion parallax is smaller, and the size is set larger as the motion parallax is larger.
[0333]
(Supplementary Note 54) In the local region setting step, the size is set smaller in a central portion of the image where the motion parallax is smaller, and the size is set larger in a peripheral portion of the image where the motion parallax is larger. The image measurement method according to attachment 52, wherein
[0334]
(Supplementary Note 55) a motion parallax detection step of detecting motion parallax in each local region in the image,
A local area setting step of setting the resolution and size of the local area according to the distribution of the motion parallax, so as to change for each local area,
Based on the detection result of the motion parallax detection step, a measurement step of measuring a feature parameter of the plane,
An image measurement method comprising:
[0335]
(Supplementary Note 56) In the local region setting step, the resolution is set higher as the motion parallax is smaller, and the resolution is set lower as the motion parallax is larger, and the size is set smaller as the motion parallax is smaller. 55. The image measuring method according to claim 55, wherein the size is set to be larger as the motion parallax is larger.
[0336]
(Supplementary Note 57) In the local region setting step, the resolution is set higher in a central portion of the image in which the motion parallax is smaller, and the resolution is set lower in a peripheral portion of the image in which the motion parallax is larger. 55. The image measurement method according to claim 55, wherein the size is set smaller at a central portion of the image having a smaller parallax, and the size is set larger at a peripheral portion of the image having a larger motion parallax.
[0337]
(Supplementary note 58) The image measurement method according to any one of Supplementary notes 55 to 57, wherein in the local region setting step, the ratio between the resolution and the size is set to be constant.
[0338]
(Supplementary Note 59) The measuring step includes a voting step of voting a detection result of the motion parallax detecting step to a voting space composed of planar feature parameters, and a feature of measuring the characteristic parameter based on the voting result. 59. The image measuring method according to any one of supplementary notes 49 to 58, further comprising a parameter measuring step.
[0339]
(Supplementary Note 60) In the motion parallax detection step, the motion parallax in each local region in the image is detected with reference to a motion parallax information table storing motion parallax information obtained in advance for each local region. 60. The image measuring method according to any one of supplementary notes 49 to 59, characterized in that:
[0340]
(Supplementary Note 61) A clipping step of cutting out the local area from the image based on local area setting information in the local area setting step, wherein the motion parallax detection step detects motion parallax in the clipped local area. The image measurement method according to any one of supplementary notes 49 to 60, characterized in that:
[0341]
(Supplementary Note 62) In the local area setting step, the local area setting information is stored in a local area setting information table, and in the clipping step, the local area is cut out from the image with reference to the local area setting information table. 62. The image measuring method according to Supplementary Note 61, wherein:
[0342]
(Supplementary Note 63) A binocular disparity detection step of respectively detecting binocular disparity in each local region in the image,
A local region setting step of setting the size of the local region according to the distribution of the binocular parallax, so as to change for each local region;
Based on the detection result of the binocular disparity detection step, a measurement step of measuring a feature parameter of a plane,
An image measurement method comprising:
[0343]
(Supplementary note 64) The image measurement according to supplementary note 63, wherein in the local region setting step, the size is set smaller as the binocular parallax is smaller, and the size is set larger as the binocular parallax is larger. Method.
[0344]
(Supplementary Note 65) In the local region setting step, the size may be set larger in a central portion of the image where the binocular disparity is large, and the size may be set smaller in a peripheral portion of the image where the binocular disparity is small. The image measurement method according to attachment 63, further comprising:
[0345]
(Supplementary note 66) The image measurement method according to any one of supplementary notes 63 to 65, wherein in the local region setting step, the resolution of each local region is set to be constant.
[0346]
(Supplementary Note 67) The measuring step includes: a voting step of voting a detection result of the binocular disparity detecting step to a voting space formed by planar characteristic parameters; and measuring the characteristic parameter based on the voting result. 67. The image measurement method according to any one of supplementary notes 63 to 66, further comprising: a characteristic parameter measurement step.
[0347]
(Supplementary Note 68) In the binocular disparity detection step, the binocular disparity in each local region in the image is determined with reference to a binocular disparity information table that stores binocular disparity information obtained in advance for each local region. 67. The image measurement method according to any one of Supplementary Notes 63 to 67, wherein the image measurement is performed.
[0348]
(Supplementary Note 69) A clipping step of cutting out the local area from the image based on the local area setting information in the local area setting step, wherein the binocular disparity detecting step includes the step of detecting binocular parallax in the clipped local area. 69. The image measurement method according to any one of supplementary notes 63 to 68, wherein the image measurement is performed.
[0349]
(Supplementary Note 70) In the local area setting step, the local area setting information is stored in a local area setting information table, and in the clipping step, the local area is cut out from the image with reference to the local area setting information table 70. The image measurement method according to attachment 69, wherein:
[0350]
(Supplementary note 71) In the binocular disparity detection step, the binocular disparity is detected based on images obtained from two imaging devices arranged on the left and right, respectively. The image measurement method according to any one of the above.
[0351]
(Supplementary note 72) In the binocular disparity detecting step, the binocular disparity is detected based on an image obtained when the imaging device is moved right beside the image pickup apparatus. Image measurement method described in 1.
[0352]
【The invention's effect】
As described above, according to the present invention, the resolution of a local region is set so as to change for each local region according to the distribution of motion parallax, and the feature parameter of a plane is set based on the detection result of motion parallax. Since the measurement is performed, a situation in which the motion parallax becomes lower than the resolution depending on the position of the local region is avoided, and an effect is obtained that the measurement accuracy of the feature parameter of the plane can be improved.
[0353]
Further, according to the present invention, the size of the local region is set so as to change for each local region according to the distribution of the motion parallax, and the feature parameter of the plane is measured based on the detection result of the motion parallax. Therefore, a situation in which the motion parallax exceeds the size of the local area is avoided, and the effect is obtained that the measurement accuracy of the feature parameter of the plane can be improved.
[0354]
Further, according to the present invention, the resolution and size of the local region are set so as to change for each local region according to the distribution of the motion parallax, and the feature parameters of the plane are measured based on the detection result of the motion parallax. Therefore, it is possible to avoid a situation in which the motion parallax is smaller than the resolution or the motion parallax exceeds the size of the local region depending on the position of the local region, and it is possible to improve the measurement accuracy of the feature parameter of the plane. .
[0355]
According to the present invention, the resolution is set higher as the motion parallax is smaller, the resolution is set lower as the motion parallax is larger, and the size is set smaller as the motion parallax is smaller, and the size is larger as the motion parallax is larger. The effect that the motion parallax becomes smaller than the resolution or the motion parallax exceeds the size of the local region depending on the position of the local region is avoided, and the measurement accuracy of the feature parameter of the plane can be improved. To play.
[0356]
Further, according to the present invention, the size of the local region is set so as to change for each local region according to the distribution of the binocular disparity, and the feature parameter of the plane is measured based on the detection result of the binocular disparity. Therefore, a situation in which the binocular parallax exceeds the size of the local region depending on the position of the local region is avoided, and the measurement accuracy of the feature parameter of the plane can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment according to the present invention.
FIG. 2 is a diagram illustrating an operation principle of the first embodiment.
FIG. 3 is a diagram illustrating changes in resolution and size of a local area image according to the first embodiment.
FIG. 4 is a diagram illustrating changes in resolution and size of a local area image according to the first embodiment.
FIG. 5 is a diagram illustrating a change in local velocity on an input image on an imaging surface.
FIG. 6 is a diagram illustrating a change in local velocity on an input image on an imaging surface.
FIG. 7 is a diagram showing a local area setting information table 150 shown in FIG.
FIG. 8 is a diagram for describing setting of a local region in the first embodiment.
FIG. 9 is a flowchart illustrating the operation of the first embodiment.
10 is a flowchart illustrating a first local region setting process illustrated in FIG.
11 is a flowchart illustrating a second local region setting process illustrated in FIG.
12 is a flowchart illustrating the image measurement processing illustrated in FIG.
FIG. 13 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.
14 is a diagram showing an ijτ table 350 shown in FIG.
FIG. 15 is a flowchart illustrating the operation of the second embodiment.
FIG. 16 is a flowchart illustrating an ijτ table creation process shown in FIG.
17 is a flowchart illustrating the image measurement processing illustrated in FIG.
FIG. 18 is a block diagram illustrating a configuration of a third exemplary embodiment of the present invention.
19 is a diagram showing an example of the arrangement of a right camera 401 and a left camera 403 shown in FIG.
FIG. 20 is a diagram illustrating binocular parallax in the third embodiment.
FIG. 21 is a diagram illustrating local area setting in the third embodiment.
FIG. 22 is a diagram illustrating a change in local velocity on an input image on an imaging surface.
FIG. 23 is a diagram showing an ijσ table 460 shown in FIG. 18;
FIG. 24 is a flowchart illustrating the operation of the third embodiment.
25 is a flowchart illustrating an ijσ table creation process illustrated in FIG. 24.
26 is a flowchart illustrating the image measurement processing illustrated in FIG. 24.
FIG. 27 is a block diagram showing a configuration of a modified example of the first to third embodiments according to the present invention.
FIG. 28 is a diagram showing an optical flow pattern reflected on a retina of a pilot of an airplane landing on a runway.
FIG. 29 is a diagram showing how the plane 2 moves.
FIG. 30 is a diagram illustrating the principle of measuring the three-dimensional azimuth ns of the plane 2;
FIG. 31 is a diagram showing how a triangle (black circle) projected on the spherical surface 3 shown in FIG. 30 moves.
FIG. 32 is a diagram illustrating the principle of measuring the distance to a point.
FIG. 33 is a diagram illustrating the principle of measuring the time required to cross a plane.
FIG. 34 is a diagram illustrating the definition of a central angle.
FIG. 35 is a diagram for explaining the principle of measuring a standardized time using a columnar arrangement.
FIG. 36 is a diagram showing a result of computer simulation of standardized time measurement.
FIG. 37 is a block diagram showing a configuration of a conventional image measurement device 10.
38 is a block diagram illustrating a configuration of the motion parallax detection unit 21 illustrated in FIG. 37.
FIG. 39 is a diagram for explaining the operation principle of the conventional image measurement device 10.
FIG. 40 is a flowchart illustrating an operation of the conventional image measurement device 10.
FIG. 41 is a diagram illustrating a correspondence relationship between a motion parallax kτ and a parallax vector (ktx, kτy).
[Explanation of symbols]
100 Image measurement device
101 Local area setting unit
102 Local area number i scanning unit
103 Local Area Image Extraction Unit
150 Local area setting information table
300 Image measurement device
301 element number j scanning unit
302 Cylindrical Array Voting Unit
304 ijτ table creation unit
400 Image measurement device
401 Right camera
403 Left camera
405 Local area setting unit
408 ijσ table creation unit
414 Local Area Image Extraction Unit
416 Binocular parallax detection unit
417 Cylinder array voting unit
450 Local area setting information table
460 ijσ table

Claims (5)

コンピュータを、
画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、
前記運動視差の分布に応じて前記局所領域の分解能を、局所領域毎に変化するように設定する局所領域設定手段、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、
として機能させるための画像計測プログラム。
Computer
Motion parallax detection means for detecting motion parallax in each local region in the image,
Local area setting means for setting the resolution of the local area according to the distribution of the motion parallax, so as to change for each local area;
Based on the detection result of the motion parallax detecting means, measuring means for measuring the characteristic parameters of the plane,
Image measurement program to function as
コンピュータを、
画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、
前記運動視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定手段、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、
として機能させるための画像計測プログラム。
Computer
Motion parallax detection means for detecting motion parallax in each local region in the image,
A local region setting unit configured to set a size of the local region according to the distribution of the motion parallax so as to change for each local region;
Based on the detection result of the motion parallax detecting means, measuring means for measuring the characteristic parameters of the plane,
Image measurement program to function as
コンピュータを、
画像における各局所領域内の運動視差をそれぞれ検出する運動視差検出手段、
前記運動視差の分布に応じて前記局所領域の分解能およびサイズを、局所領域毎に変化するように設定する局所領域設定手段、
前記運動視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、
として機能させるための画像計測プログラム。
Computer
Motion parallax detection means for detecting motion parallax in each local region in the image,
Local region setting means for setting the resolution and size of the local region according to the distribution of the motion parallax, so as to change for each local region;
Based on the detection result of the motion parallax detecting means, measuring means for measuring the characteristic parameters of the plane,
Image measurement program to function as
前記局所領域設定手段は、前記運動視差が小さいほど前記分解能を高く設定し、前記運動視差が大きいほど前記分解能を低く設定するとともに、前記運動視差が小さいほど前記サイズを小さく設定し、前記運動視差が大きいほど前記サイズを大きく設定することを特徴とする請求項3に記載の画像計測プログラム。The local area setting means sets the resolution higher as the motion parallax is smaller, sets the resolution lower as the motion parallax is larger, and sets the size smaller as the motion parallax is smaller, the motion parallax 4. The image measurement program according to claim 3, wherein the size is set to be larger as is larger. コンピュータを、
画像における各局所領域内の両眼視差をそれぞれ検出する両眼視差検出手段、
前記両眼視差の分布に応じて前記局所領域のサイズを、局所領域毎に変化するように設定する局所領域設定手段、
前記両眼視差検出手段の検出結果に基づいて、平面の特徴パラメータを計測する計測手段、
として機能させるための画像計測プログラム。
Computer
Binocular parallax detection means for respectively detecting binocular parallax in each local region in the image,
A local area setting unit configured to set a size of the local area according to the distribution of the binocular disparity so as to change for each local area;
Based on the detection result of the binocular parallax detection means, measuring means for measuring the characteristic parameters of the plane,
Image measurement program to function as
JP2002235831A 2002-08-13 2002-08-13 Image measurement program Pending JP2004077221A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002235831A JP2004077221A (en) 2002-08-13 2002-08-13 Image measurement program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002235831A JP2004077221A (en) 2002-08-13 2002-08-13 Image measurement program

Publications (1)

Publication Number Publication Date
JP2004077221A true JP2004077221A (en) 2004-03-11

Family

ID=32020211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002235831A Pending JP2004077221A (en) 2002-08-13 2002-08-13 Image measurement program

Country Status (1)

Country Link
JP (1) JP2004077221A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074660A (en) * 2015-12-31 2018-12-21 Ml 荷兰公司 The method and system of monocular camera real-time three-dimensional capture and immediate feedback

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074660A (en) * 2015-12-31 2018-12-21 Ml 荷兰公司 The method and system of monocular camera real-time three-dimensional capture and immediate feedback
JP2019501473A (en) * 2015-12-31 2019-01-17 エムエル ネザーランズ セー.フェー. Method and system for real-time 3D capture and live feedback using a monocular camera
JP2021192250A (en) * 2015-12-31 2021-12-16 エムエル ネザーランズ セー.フェー. Real time 3d capture using monocular camera and method and system for live feedback
CN109074660B (en) * 2015-12-31 2022-04-12 Ml 荷兰公司 Method and system for real-time three-dimensional capture and instant feedback of monocular camera
JP7249390B2 (en) 2015-12-31 2023-03-30 エムエル ネザーランズ セー.フェー. Method and system for real-time 3D capture and live feedback using a monocular camera
US11631213B2 (en) 2015-12-31 2023-04-18 Magic Leap, Inc. Method and system for real-time 3D capture and live feedback with monocular cameras

Similar Documents

Publication Publication Date Title
US9826216B1 (en) Systems and methods for compact space-time stereo three-dimensional depth sensing
JP4708752B2 (en) Information processing method and apparatus
JP4195096B2 (en) Equipment for 3D surface shape reconstruction
JP5602392B2 (en) Information processing apparatus, information processing method, and program
CN101496032B (en) Range mapping using speckle decorrelation
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
US20180338090A1 (en) Image processing system, image processing device, and image processing program
Larsson et al. Path planning for laser scanning with an industrial robot
KR101842698B1 (en) Mesurement apparatus and method
CN110419208B (en) Imaging system, imaging control method, image processing apparatus, and computer readable medium
KR20020035652A (en) Strapdown system for three-dimensional reconstruction
Núnez et al. Data Fusion Calibration for a 3D Laser Range Finder and a Camera using Inertial Data.
EP3495844A1 (en) Three-dimensional coordinates of two-dimensional edge lines obtained with a tracker camera
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
Barone et al. Structured light stereo catadioptric scanner based on a spherical mirror
JP2004077221A (en) Image measurement program
JPH09145318A (en) Three-dimensional measuring equipment
JP7414090B2 (en) Imaging device and method of controlling the imaging device
Roque et al. Trajectory planning for lab robots based on global vision and Voronoi roadmaps
JP3763409B2 (en) 3D position input device
Fabian et al. One-point visual odometry using a RGB-depth camera pair
Orghidan et al. Catadioptric single-shot rangefinder for textured map building in robot navigation
JP2010127701A (en) Position measuring apparatus, object to be recognized, and program
Xu et al. Accurate 3D geometry measurement for non-cooperative spacecraft with an unfocused light-field camera
US20210398303A1 (en) Three-dimensional modeling using hemispherical or spherical visible light-depth images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080304