JP2012122917A - 3次元位置計測システム、3次元位置計測装置および3次元位置計測方法 - Google Patents

3次元位置計測システム、3次元位置計測装置および3次元位置計測方法 Download PDF

Info

Publication number
JP2012122917A
JP2012122917A JP2010275314A JP2010275314A JP2012122917A JP 2012122917 A JP2012122917 A JP 2012122917A JP 2010275314 A JP2010275314 A JP 2010275314A JP 2010275314 A JP2010275314 A JP 2010275314A JP 2012122917 A JP2012122917 A JP 2012122917A
Authority
JP
Japan
Prior art keywords
camera
dimensional position
image
rotation
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010275314A
Other languages
English (en)
Other versions
JP5582009B2 (ja
Inventor
Kazufumi Nakayama
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010275314A priority Critical patent/JP5582009B2/ja
Publication of JP2012122917A publication Critical patent/JP2012122917A/ja
Application granted granted Critical
Publication of JP5582009B2 publication Critical patent/JP5582009B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】対象物の模様の方向に寄らずに安定した距離計測を行う。
【解決手段】カメラと3次元位置計測装置を備える。カメラは、移動体の移動に伴い回転する物体に取り付けられる。3次元位置計測装置は、記憶部と3次元位置計測部を備える。記憶部は、カメラで撮影された画像と、該複数の画像を各々撮影した時刻と同時刻のカメラ回転位置とを対応づけて記憶する。3次元位置計測部は、対象物の模様に対して、複数の画像から、模様の方向とは異なる方向に基線方向を与えるカメラ回転位置の少なくとも2つの画像を選択して、対象物の3次元位置を計測する。
【選択図】図1

Description

本発明は、撮影画像から任意物体の3次元位置を計測する3次元位置計測システム、3次元位置計測装置および3次元位置計測方法に関する。
車両のボディ部に取り付けたカメラで映像を撮影して、車両周辺の物体の3次元位置を計測する装置が開発されている。カメラで撮影した映像から3次元位置を計測する方法としては、2台のカメラを設置した2眼ステレオ視を用いる方法や、1台のカメラを設置して単眼移動ステレオ視を用いる方法などがある。
前者は、空間的に異なる位置に設置した複数台のカメラで撮影した画像群のそれぞれから、物体上の同じ位置を特定することで、映像中の位置の違い(視差)を算出して、三角測量の原理で3次元位置を定める方法である。また後者は、1台のカメラの時系列映像を用いて、複数の画像から物体の特徴的な部分(特徴点)を追跡して、映像に映る物体の3次元位置を算出するものである。
3次元位置を計測する従来技術として、2眼ステレオ視を用いた技術が例えば、特許文献1に提案されている。また、単眼移動ステレオ視を用いた技術が例えば、特許文献2に提案されている。
特開平5−114099号公報 特開2007−256029号公報
2眼ステレオ視方式および単眼移動ステレオ視方式のいずれも、カメラの光軸原点を3次元的に結ぶ直線(基線)と平行な方向をなす対象物については、原理上距離を計測することができない。
ステレオ測距方式は、一方のカメラ映像の着目位置に対して、他方カメラ映像中で、着目位置と同じ映像パターンを持つ箇所を探索によって定めて、2つのカメラ間で対応する位置を使って三角測量の原理で距離を計測する方法を採る。
このとき、2つのカメラで対応する箇所の特徴点同士は、幾何学的な関係から画像中では基線と平行な位置関係に限定される。したがって、測距したい対象の模様が、基線と平行な成分しか持たない場合は、基線と平行な方向に探索しても映像パターンに変化がないため一意に対応する特徴点を求めることができない。その結果、誤った測距結果となるか、一意に対応が求まらないため測距できないことになる。
また、単眼移動ステレオ視では、カメラの移動で定められる2箇所のカメラ位置を2眼ステレオと考えれば、上述の2眼ステレオ視と同様の問題点を有しており、カメラが取り付けられる移動体が、例えば車両のように平面である路面上を移動することを考えれば、路面と平行な方向の対象については距離を計測することができない。
本発明はこのような点に鑑みてなされたものであり、対象物の模様の方向に寄らず、常に安定した距離計測を実現する3次元位置計測システムを提供することを目的とする。
また、本発明の他の目的は、対象物の模様の方向に寄らず、常に安定した距離計測を実現する3次元位置計測装置を提供することである。
さらに、本発明の他の目的は、対象物の模様の方向に寄らず、常に安定した距離計測を実現する3次元位置計測方法を提供することである。
上記課題を解決するために、3次元位置計測システムが提供される。3次元位置計測システムは、移動体の移動に伴い回転する物体に取り付けられたカメラと、前記カメラで撮影された複数の画像と、該複数の画像を各々撮影した時刻と同時刻のカメラ回転位置とを対応づけて記憶する記憶部と、対象物の模様に対して、前記複数の画像から、前記模様の方向とは異なる方向に基線方向を与える前記カメラ回転位置の画像群から、少なくとも2つの前記画像を選択して、前記対象物の3次元位置を計測する3次元位置計測部とを備える3次元位置計測装置とを有する。
対象物の模様の方向に寄らずに安定した距離計測を行うことが可能になる。
3次元位置計測システムの構成例を示す図である。 3次元位置計測システムが適用される移動体を示す図である。 移動体に対するカメラの設置位置を示す図である。 カメラの移動軌跡上で単眼移動ステレオ視に使用するカメラ位置を示す図である。 3次元位置計測装置の適用例を示す図である。 3次元位置計測装置の構成例を示す図である。 入力映像の回転変換を説明する図である。 測距処理部の動作を示すフローチャートである。 小領域の分割を示す図である。 エピ極線を説明する図である。 2つの映像間での対応探索箇所を示す図である。 3次元位置計測装置の適用例を示す図である。 3次元位置計測装置の構成例を示す図である。 カメラ回転位置算出部の動作を示すフローチャートである。 回転補正を示す図である。 端点の移動軌跡を示す図である。
以下、本発明の実施の形態を図面を参照して説明する。図1は3次元位置計測システムの構成例を示す図であり、図2は3次元位置計測システムが適用される移動体を示す図である。3次元位置計測システム1は、カメラ1aと3次元位置計測装置10を備える。3次元位置計測装置10は、記憶部14と3次元位置計測部10aを備える。
カメラ1aは、移動体2の移動に伴い回転する物体(回転体)2aに取り付けられる。記憶部14は、カメラ1aで撮影された画像の情報と、撮影時と同時刻のカメラ回転位置の情報とを対応づけて記憶する。
3次元位置計測部10aは、対象物の模様に対して、模様の方向とは異なる方向に基線方向を与えるカメラ回転位置の画像群から、少なくとも2つの画像を選択して、対象物の3次元位置を計測する。
次に3次元位置計測について説明する。なお、以降の説明では、画像を映像と表記する。本技術で述べる映像は、動画(複数の画像からなる一連のイメージ)ではなく、光線の屈折または反射によって作られた像、または画面に映し出された画像に該当する。
図3は移動体2に対するカメラ1aの設置位置を示す図である。移動体2が移動に伴って回転する回転体2aを持ち、回転体2aにカメラ1aを外側に向けて取り付ける。回転体2aとしては例えば、車輪が該当するので、以降では車輪2aとして説明する。
カメラ位置は、車輪2aの回転にしたがって、上下変動を伴い横方向へ進みながら変化する。この場合、測距したい対象物の模様の方向に対して、上下方向に揺動しながら進むカメラ軌跡から、模様の向きとは異なる方向に基線方向を取るような適切な2つのカメラ1aの位置を選択する単眼移動ステレオ視を行う。これにより、対象物の模様の方向に寄らず、常に安定した距離計測を実現するものである。
図4はカメラ1aの移動軌跡上で単眼移動ステレオ視に使用するカメラ位置を示す図である。例として、直径1mの車輪2aの外枠位置にカメラ1aを取り付けたとする。この場合に、移動体2が路面のような水平面を直線状に移動した際のカメラ1aの位置として、水平方向の位置を横軸にとり、垂直方向の位置を縦軸にとる。
カメラ1aは、垂直方向(上下方向)を揺動しながら、水平方向に移動する軌跡を描く。ここで、カメラ1aは移動しながら、過去一定時間内の映像データを蓄積していくものとする。
いま、ある時刻tで着目時点p0にカメラが位置し、このとき、距離の計測対象の模様の向きが水平方向となっており、移動体2の水平移動に伴ってカメラ1aも水平に移動するものとする。
この場合、通常行われる移動体2に取り付けたカメラ1aによる単眼移動ステレオ視では、カメラ間を結ぶ基線の向きと計測対象の模様の向きとが同じ方向となってしまうので、距離計測を行うことができない。
これに対して、本技術では、例えば、参照時点p1の位置のカメラ映像を、単眼移動ステレオ視のもう1つのカメラ位置に選ぶ。これにより、着目時点p0と参照時点p1とのカメラ位置で決まる基線は、基線b1となる。基線b1の方向は、水平でないため、水平方向の模様に対して、2つのカメラ映像によって距離を決定することが可能になる。
ただし、参照時点p1を選ぶことで、基線b1と平行な成分しか持たない対象物については、距離計測は不可となる。したがって、このような対象物については、参照時点p1とは異なるタイミングのカメラ映像をさらに選択して、基線の方向を対象物の模様の向きとは異なる方向に設定する。
例えば、参照時点p2を選んで、着目時点p0と参照時点p2とで決まる基線b2を生成する。これにより、基線b1と平行な模様の対象物についても距離を計測することが可能になる。
このように、距離測定対象の模様方向によって、揺動移動するカメラ軌跡の状態から、対象物の模様と平行にならない基線を与えるカメラ位置を適切に選択する。これにより、対象物の模様の方向に寄らず、2つのカメラ映像間で対象部分の映像パターンによる対応を確実に行えるようにして、安定した距離の計測を実現する。
次に対象物の模様の方向に対する最適な参照時刻の映像決定の方法について説明する。過去のカメラ移動で撮影した映像列の集合をP={pk|k∈{0,1,2,3,・・・,N}}(Nは最大蓄積数でk=0は現時刻での撮影時点を表す)とする。
また、各位置で撮影したときのカメラ1aの水平位置の集合をMh={hk|k∈{0,1,2,3,・・・,N}}とし、垂直位置の集合をMv={vk|k∈{0,1,2,3,・・・,N}}とする。
このとき、あるk*∈{0,1,2,3,・・・,N}に着目すると、基線長さbk*は、式(1)で与えられる。
Figure 2012122917
また、基線方向の水平面からの傾き角度は、式(2)で与えられる。
θk*=arctan((vk*−v0)/(hk*−h0)) ・・・(2)
これらは集合のインデックスkの各々について定義されるので、これらも集合となり、以下のように定義する。
基線長の集合Bを、B={bk|k∈{0,1,2,3,・・・,N}}とし、基線の傾きの集合Tを、T={θk|k∈{0,1,2,3,・・・,N}}とする。
いま、現時点で着目対象の模様の方向をθmとするとき、過去の撮影位置k∈{1,2,3,・・・,N}の各々について、集合B、集合TからスコアSck(B,T,θm)を算出し、
Figure 2012122917
式(3)から最大のSckを与えるkmaxを定めることで、着目対象に対する最適な撮影位置pkmax、vkmax、hkmaxを決定する(なお、(argmax(f(x))は、f(x)を最大にするxを意味する)。
ここで、Sck(B,T,θm)は、基線長に関する評価値S1 k(B)および基線方向に関する評価値S2 k(T,θm)によって、式(4)で与えられる。
Sck(B,T,θm)=S1 k(B)×S2 k(T、θm) ・・・(4)
次に基線長に関する評価値S1 k(B)について説明する。ステレオ視による距離計測では、距離計測の基礎式は以下の式(5)で与えられる。
Z=f・b/d ・・・(5)
fはカメラの焦点距離[画素]、bは基線長[m]、dは画像上での対応点のずれ量(視差)[画素]、Zは対象物までの距離[m]を表す。このとき、視差が対応誤差によって1だけずれたときの距離をZ2とすると、Z2は以下の式(6)で与えられる。
2=f・b/(d+1) ・・・(6)
したがって、視差値で1の誤差による計測距離の誤差ΔZは、式(7)で与えられる。
ΔZ(b)=Z−Z2=(f・b/d)−(f・b/(d+1))
=f・b・((1/d)−(1/(d+1)))
=f・b・(1/d・(d+1))=Z・(1/(d+1))
=Z・(1/((f・b/Z)+1))
=Z2/(f・b+Z) ・・・(7)
ΔZ(b)は、距離Zにある対象を基線長bでステレオ測距した場合の計測誤差を与えるもので、ΔZ(b)が大きいほど計測誤差が大きく、精度が低いことを表す。
式(7)から、基線長bを大きくすれば、それだけ計測誤差が減少する性質を持つことがわかる。ここで、基線長bを変化させた場合の測距精度の向上度合いs1(b)を以下のように定義する。
1(b)=ΔZ(b0)/ΔZ(b)=(f・b+Z)/(f・b0+Z)
・・・(8)
式(8)において、b0は基準となる基線長を表し、ここではb0=1(m)とする。また、対象距離Zは、基準距離を設定し、ここではZ=1(m)とする。s1(b)は、基線長をbとした場合の基準基線長b0に対する精度の改善比(無次元量)を表し、s1(b)が大きいほど測距精度が高くなることを意味する。
このs1(b)を用いて、集合Bの要素{bk}に対して、以下の式(9)を定める。
1 k(B)=s1(bk) ・・・(9)
次に基線方向に関する評価値S2 k(T,θm)について説明する。集合Tの各要素{θk}と着目点の模様の方向θmを用いて、模様方向θmと直交する方向となるにつれ大きな値を取る関係式s2(θk,θm)を以下の式(10)のように導入する。
2(θk,θm)=|sin(θk−θm)| ・・・(10)
これを用いて、集合Tの要素{θk}に対するS2 k(T,θm)を以下の式(11)で定義する。
2 k(T,θm)=s2(θk,θm) ・・・(11)
次に3次元位置計測装置10の構成および動作について詳しく説明する。図5は3次元位置計測装置の適用例を示す図である。移動体2が車輪2aの移動に伴い回転する部分を持ち、その回転面で少なくとも移動体2の外側を視野内に持つようにカメラ1aを取り付ける。
そして、移動体2の移動に伴い、カメラ1a自体が回転と上下動を行いながら移動体2と共に移動する。また、車輪2aの回転位置は、移動体2に取り付けた車輪回転位置計測センサ21によって計測される。
図6は3次元位置計測装置の構成例を示す図である。3次元位置計測装置10−1は、映像入力部11、車輪回転位置計測部12、映像・カメラ回転位置蓄積部13、映像・カメラ回転位置保存DB(データベース)14aおよび測距処理部15を備える。
なお、映像入力部11、車輪回転位置計測部12、映像・カメラ回転位置蓄積部13および測距処理部15の各機能は、図1に示した3次元位置計測部10aに含まれる。また、映像・カメラ回転位置保存DB14aは、図1に示した記憶部14に該当する。
映像入力部11は、カメラ1aで撮影された入力映像に対し、入力映像がアナログ情報であるならば、配列要素に映像の明るさや色情報を持つデジタルデータに変換する。また、入力映像がデジタル情報ならば、必要に応じて処理に適した形態のデジタルデータに変換する。変換後の映像デジタル情報は、映像・カメラ回転位置蓄積部13へ送信される。
車輪回転位置計測センサ21は、車輪の回転位置情報を計測し、車輪回転位置をデジタルデータに変換する。変換後のデジタルデータは、映像・カメラ回転位置蓄積部13へ送信される。
映像・カメラ回転位置蓄積部13は、入力された車輪回転位置からカメラ回転位置を算出する。そして、映像・カメラ回転位置蓄積部13は、入力された映像デジタル情報と、同時刻のカメラ回転位置とを対応付けて、映像・カメラ回転位置保存DB14aに新たに保存すると共に、システムで定めた最大蓄積フレーム数Nより過去の情報を、蓄積情報から削除する。なお、同時刻とは、必ずしも一致する必要はない。例えば、映像・カメラ回転位置蓄積部13は、カメラで画像を取得したタイミングと最も近い時刻で車輪回転位置計測センサ21が取得した車輪回転位置を、同時刻のカメラ回転位置とみなす。また、現時刻に撮影した映像デジタル情報と、現時刻のカメラ回転位置とは、測距処理部15へ送信される。
測距処理部15は、入力された現時刻に撮影した映像デジタル情報と、現時刻のカメラ回転位置とに加えて、映像・カメラ回転位置保存DB14aから取得した最大Nフレームまでの過去の映像デジタル情報およびカメラ回転位置を用いて、過去の映像群から、画像内の各位置で測距に最適な映像を決定する。そして、現時刻の映像と、決定した過去映像との組を用いて距離を算出する。算出された距離データは、システム出力として外部へ出力される。
次に映像・カメラ回転位置蓄積部13について説明する。映像・カメラ回転位置蓄積部13では、映像が入力されたタイミングで取得した車輪回転位置φに対して、車輪に取り付けたカメラ位置によってあらかじめシステムで決まっているカメラ1aの基準位置(回転位置)φcを用いて、式(12)の演算を行い、カメラ回転位置γを算出する。
γ=φ−φc ・・・(12)
ただし、γは以下の式(13a)、(13b)に示す範囲とする。
γ=γ+360°(γ<0°) ・・・(13a)
γ=γ−360°(360°≦γ) ・・・(13b)
なお、カメラ1aの基準位置は、車輪2aの回転のどの位置でも良いが、例えば、カメラ1aが車輪2aの最下端に位置するときの位置とする。上記のような演算処理を行うことで、カメラ回転位置を効率よく算出することができる。
図7は入力映像の回転変換を説明する図である。図中、斜線部は、回転変換後に映像が抜ける箇所を表している。入力映像q0に対して、カメラ1aの回転位置γを用いて、映像の向きをカメラ1aの基準方向φcと一致させた傾きのない映像p0に変換する。
回転変換後の映像p0と、カメラ回転量γとは、現フレームでの映像とカメラ回転位置の情報として、映像・カメラ回転位置保存DB14aに蓄積されると共に、後段の測距処理部15へ出力される。
次に測距処理部15について説明する。図8は測距処理部15の動作を示すフローチャートである。
〔S1〕測距処理部15は、回転補正映像に微分処理を施す。回転補正後の映像p0に対して、Sobelフィルタ等の微分処理を施し、各画素について微分値が一定値以下の箇所を削除する閾値処理を施す。その後、残った画素について、画像の水平方向の微分値dxと垂直方向の微分値dyとで定義されるエッジ方向Ed(x,y)を以下のように算出する。
d(x,y)=arctan(dy/dx) ・・・(14)
〔S2〕測距処理部15は、微分映像を小領域に区分する。図9は小領域の分割を示す図である。微分映像を横nx個、縦ny個の小領域に分割する。この結果、全体でM=nx×ny個の小領域が形成される。得られたi番目の小領域をwiとして、小領域の集合Wを、W={wi|i∈{1,2,・・・,M}}とする。
〔S3〕測距処理部15は、未処理の小領域から1つを選ぶ。小領域の集合Wから、未選択の小領域wi(t∈{1,2,・・・,Mr})を選ぶ。ただし、Mrは、小領域の集合Wの中で未処理の小領域の個数を表す。
〔S4〕測距処理部15は、小領域があるか否かを判断する。未選択の小領域の有無を判定し、既に全ての小領域について処理済みならば測距処理を完了し、未処理の小領域 があれば、次の処理に移る。
〔S5〕測距処理部15は、小領域内の微分値から主方向θmを算出する。小領域wi内のエッジ方向Ed(x,y)の平均を式(15)のように求め、これを主方向θmと定義する。Gは、小領域の画素面積を表す。また、(x,y)∈{pixel}は、(x,y)∈{wi内の画素位置}を意味する。
Figure 2012122917
〔S6〕測距処理部15は、主方向θmと、カメラ回転位置集合{Γ}を用いて、映像集合{P}から最適映像pk*とインデックス値k*を決定する。まず、映像・カメラ回転位置保存DB14aから与えられる、過去のカメラ移動で撮影した映像列の集合をP={pk|k∈{1,2,3,・・・,N}}、各々位置で撮影したときのカメラの回転位置の集合をΓ={γk|k∈{1,2,3,・・・,N}}とする。
また、現フレームでのカメラの回転位置をγ0とする。このとき、現フレームを起点に、過去のkフレーム目でのカメラ1aの相対位置は、カメラ1aの車輪上での設置位置の車輪半径方向の距離Rを用いて、水平位置hkおよび垂直位置vkは、以下の式(16a)、(16b)で与えられる。
k=R・(sin(γk)−sin(γ0))+L・ck ・・・(16a)
k=R・(cos(γk)−cos(γ0)) ・・・(16b)
ただし、ckは現フレームでのカメラ回転位置γ0から過去kフレーム目でのカメラ回転位置γkに至るまでの回転の周期数を表す。これは、カメラ回転位置集合Γから、添え字kを0,1,2,・・・,kまでたどりながら、添え字が隣り合うカメラ回転位置γの値が例えば300度以上に急激に変化する回数で与えられる。また、Lは、カメラ1aを取り付けた車輪の円周長を表し、L=2・π・Rで与えられる。
このとき、水平位置の集合をMh={hk|k∈{1,2,3,・・・,N}}、垂直位置の集合をMv={vk|k∈{1,2,3,・・・,N}}とすると、式(17)、式(18)で与えられる基線長bkと基線方向の水平面からの傾き角度θkを算出する。
Figure 2012122917
θk=arctan((vk−v0)/(hk−h0)) ・・・(18)
これらの集合として、基線長の集合B={bk|k∈{1,2,3,・・・,N}}および基線の傾きの集合T={θk|k∈{1,2,3,・・・,N}}を算出する。
次に現時点で着目対象の模様の方向をθmとするとき、過去の撮影位置k∈{1,2,3,・・・,N}の各々について、集合B、集合TからスコアSck(B,T,θm)を算出し、以下の式(19)として、
Figure 2012122917
最大のSckを与えるk*を定めることで、着目対象に対する最適な撮影位置pk*、vk*、hk*を決定する。
ここで、Sck(B,T,θm)は、基線長に関する評価値S1 k(B)および基線方向に関する評価値S2 k(T,θm)によって、上述の式(4)で与えられる。なお、基線長に関する評価値S1 k(B)および基線方向に関する評価値S2 k(T,θm)の定義については、上述したので説明は省略する。
〔S7〕測距処理部15は、小領域内のエッジ点について、現在フレームの画像p0と最適映像 pk*とで、映像照合を実施し対応位置を算出する。ここで、現フレーム画像p0内の小領域wiに含まれるエッジ点eu(u∈{小領域wi内のエッジ点})に対して、現在フレームでの回転補正画像p0、ステップS6の処理で求まったインデックス値k*で与えられる過去映像pk*と、カメラ位置vk*、hk*を用いて、エピ極線Lを定める。
図10はエピ極線を説明する図である。エッジ点euの画像内での座標を(x0 u,y0 u)とする。ただし、座標原点は画像中央を取る。このとき、最適映像pk*におけるエピ極線Lは、式(20)で表される直線となる。
k*・(y−y0 u)−vk*・(x−x0 u)=0 ・・・(20)
図11は2つの映像間での対応探索箇所を示す図である。エッジ点eu(u∈{小領域wi内のエッジ点})に対して、そのエッジ点を中心に縦横H画素の矩形領域を定め、画像p0での矩形領域内の映像パターンと最も相関の高い映像パターンを有する箇所を、過去映像pk*内でエピ極線L上を探索して定める。
この結果、小領域wiに含まれるエッジ点euの各々について、2つの映像間での対応位置が求まる。すなわち、エッジ点euの画像中での位置を(x0 u,y0 u)とし、映像pk*で対応する箇所を(xk* u,yk* u)が定まることになる。
〔S8〕対応位置を用いて距離を算出する。エッジ点euでの2つの映像での対応位置を(x0 u,y0 u)、(xk* u,yk* u)とするとき、視差duは式(21)で定まる。
Figure 2012122917
また、視差duを用いて、エッジ点euの距離Zuは式(22)で求まる。
u=f・bk*/du ・・・(22)
fは、カメラの焦点距離(画素)、bk*は、最適基準で求めた基線長(m)である。
次に変形例の3次元位置計測装置の構成および動作について詳しく説明する。図12は3次元位置計測装置の適用例を示す図である。移動体2の移動に伴い回転する車輪2aを持ち、車輪2aの回転面で少なくとも移動体2の外側を視野内に持つようにカメラ1aを取り付ける。
変形例では、車輪回転位置計測センサ21を備えていない構成である。また、カメラ1aの取り付け時、カメラ1aが車輪2aの最下端に位置するときに、外界の水平線がカメラ映像で水平あるいは垂直に映るように調整して取り付けるものとする。すなわち、カメラ1aが車輪2aの最下端に位置するときに、カメラの向きは0度、90度、180度、270度のいずれかの方向を持って取り付けられる。
図13は3次元位置計測装置の構成例を示す図である。3次元位置計測装置10−2は、映像入力部11、映像・カメラ回転位置蓄積部13、映像・カメラ回転位置保存DB14b、測距処理部15、カメラ回転位置算出部16および処理流れ制御部17を備える。
なお、映像入力部11、映像・カメラ回転位置蓄積部13および測距処理部15の動作は、3次元位置計測装置10−1の場合と同じである。また、映像入力部11、映像・カメラ回転位置蓄積部13、測距処理部15、カメラ回転位置算出部16および処理流れ制御部17の各機能は、図1に示した3次元位置計測部10aに含まれる。また、映像・カメラ回転位置保存DB14bは、図1に示した記憶部14に該当する。
カメラ1aで撮影された映像は、映像入力部11に入力される。映像がアナログ情報であるならば配列要素に映像の明るさや色情報を持つデジタルデータに変換され、映像がデジタル情報ならば必要に応じて処理に適した形態のデジタルデータに変換される。変換後のデータは、映像・カメラ回転位置蓄積部13とカメラ回転位置算出部16に送信される。
カメラ回転位置算出部16では、入力された現フレームでの映像情報と、映像・カメラ回転位置保存DB14bに保存された過去の映像情報を用いて、前時刻から現時刻までの画像の回転量、すなわちカメラの回転量の増分を算出する。
そして、この増分を前時刻で定まっているカメラ回転量に加えることで、基準位置からのカメラ回転位置を算出する。カメラ回転位置は、映像・カメラ回転位置蓄積部13に送信される。
なお、基準位置は、車輪2aの回転において基準となる回転位置を表し、例えばカメラ1aが最下端に位置する回転位置とするが、処理開始時は不定のため0に初期化しておくものとする。
すなわち、処理開始時は、前時刻の回転量は0である。カメラ回転位置算出部16では、回転基準位置が定まっているか否かを調べ、定まっていない場合は、入力された現フレームでの映像情報と、映像・カメラ回転位置保存DB14bに保存された過去の映像情報を用いて、回転基準位置を設定する。
この操作において、蓄積される映像数が少ない等の理由で回転基準位置を定めることができない場合は、回転基準位置が未定である状態を処理流れ制御部17へ送信する。また、既に回転基準位置が定まっている場合は、回転基準位置が既定である状態を、処理流れ制御部17に通知する。
映像・カメラ回転位置蓄積部13は、入力された映像デジタル情報と、同時刻に生じた映像デジタル情報のカメラ回転位置とを対応付けて、映像・カメラ回転位置保存DB14bに新たに保存すると共に、システムで定めた最大蓄積フレーム数Nより過去の情報を、蓄積情報から削除する。また、現時刻に撮影した映像デジタル情報と現時刻のカメラ回転位置は、処理流れ制御部17へ送信される。
処理流れ制御部17は、カメラ回転位置算出部16からの入力によって、次フレーム処理への移行か後段処理への移行かを切り替える。すなわち、入力された状態が、回転基準位置未定の場合は、後段処理を行わず次フレームの映像入力処理に戻る。また、回転基準位置既定の場合は、後段処理である測距処理部15へ制御を移す。
測距処理部15は、入力された現時刻に撮影した映像デジタル情報と現時刻のカメラ回転位置に加えて、映像・カメラ回転位置保存DB14bより取得した最大Nフレームまでの過去の映像・カメラ回転位置から、画像内の各位置で測距に最適な映像を各々決定する。そして、現時刻の映像と決定された映像との組を用いて、距離を算出する。算出された距離データは、システム出力として外部へ出力される。
次にカメラ回転位置算出部16について説明する。図14はカメラ回転位置算出部16の動作を示すフローチャートである。
〔S11〕カメラ回転位置算出部16は、前フレームでの蓄積映像と現フレームの入力映像を比較し、映像間の回転量を算出する。具体的には、前フレームと現フレームの映像をSobelフィルタ等の微分操作を行った後、非極大値抑制による細線化とエッジ追跡による線分検出を行い、直線的な要素を抽出する。
次に、前フレームと現フレームのそれぞれで得られた直線要素を対応付ける。このとき、前フレームの映像は、回転基準位置の角度に補正された映像となっているので、現フレームでの映像とはおおよそカメラ回転位置γだけ画像の傾きが異なっている。
そのため、直線要素の対応付けでは、現フレームの映像から得られた直線要素の位置を回転量γで回転し、前フレームの映像と同じ傾きに補正した後、前フレームから得られた直線要素の位置と最も近いものとを対応付ける。
ここで、“最も近い”とは、直線要素のそれぞれの端点間の距離差の合計が最も小さいものと定義できる。対応の求まった直線要素の傾きの差を定め、これを得られた線分の対応組全ての平均を求めることで、前フレームと現フレームの画像間の回転量Δφとする。
〔S12〕カメラ回転位置算出部16は、前フレームの処理で求まっている画像回転量φlastと、ステップS11で求めた前フレームから現フレームまでの差分回転量Δφを用いて、現フレームでの画像回転量φcurを式(23)で算出する。
φcur=φlast+Δφ ・・・(23)
なお、ここでは前フレームと現フレームとを区別するために、添え字last、curで区別した。また、処理の開始時はφ=0とする。
〔S13〕カメラ回転位置算出部16は、回転基準位置からのカメラ回転位置を算出するために、回転基準位置をφcとするとき、以下の式(24)でカメラ回転位置γを算出する。
γ=φcur−φc ・・・(24)
回転基準位置φcは、車輪の回転において基準となる回転位置を表し、例えばカメラが最下端に位置する回転位置とするが、処理開始時は不定のため0に初期化しておくものとする。
したがって、処理開始時からしばらくは処理開始時のカメラ位置を原点とした回転位置が算出されることになり、最下端の位置からみると、一定量ずれた回転位置となる。上記のような演算処理を行うことで、カメラ回転位置を効率よく算出することができる。また、このような演算処理でカメラ回転位置を算出することにより、車輪回転位置計測センサが不要となり、装置規模の削減を図ることができる。
〔S14〕カメラ回転位置算出部16は、ステップS13で求めたカメラ回転位置γを外部に出力する。
〔S15〕カメラ回転位置算出部16は、カメラ回転位置算出部16が管理する回転基準位置φcの算出完了フラグを参照し、回転基準位置が決定されているか否かを調べる。既に回転基準位置が決定されている場合は、ステップS19に移る。まだ回転基準位置が決定されていない場合は、ステップS16に移る。
〔S16〕カメラ回転位置算出部16は、最大過去Nフレームまでの蓄積映像と現フレームの映像とを用いて、回転基準位置φcの決定を試みる。
図15は回転補正を示す図である。カメラ(映像)が常に水平面に対してφc傾いて、車輪2a上の回転している状態を示している。ステップS11において現フレーム映像から取得した直線要素の端点位置を、ステップS13で求めたγを用いて回転補正して暫定的に定めた回転基準位置φcと同じ傾きを持つ座標系に変換する。さらに、この座標列を映像・カメラ回転位置保存DB14bに登録する。
この処理を時系列で繰り返すため、過去Nフレームまでの蓄積映像についても、同様に直線線素の端点位置が暫定的に定めた回転基準位置φcと同じ傾きを持つ座標系に変換されて登録されていることになる。これは図15に示すように、カメラが路面に対して一定の傾きφcをもって回転しているときに同じ端点を観測していることに相当する。
図16は端点の移動軌跡を示す図である。上記の変換を行った後の直線要素の端点の軌跡を考えると、図16に示すような軌跡となる。図では、3回転分の端点の軌跡を描いた例である。
これは、図3で示したカメラの揺動を上下反転し、角度φcだけ傾けた形状となる。したがって、過去フレームからの端点の軌跡から、節点を結ぶ直線を求め、この直線の水平線からの傾きを算出することで、回転基準位置φcを定めることができる。実際には、1つの端点だけだと誤差を含むため、追跡できている端点の軌跡それぞれで傾きを求め、それらの平均値として回転基準位置を定める。
なお、この処理で、追跡フレーム数が少ない場合は、節点を定めることができないので、回転基準位置を定めることはできない。
〔S17〕ステップS16によって、回転基準位置φcが定められた否かを判定する。定められなかった場合は、ステップS20に移行し、定められた場合は、ステップS18に移る。
〔S18〕ステップS16で定めた回転基準位置φcを確定するために、カメラ回転位置算出部16が管理する回転基準位置φcの算出完了フラグを立てる。また、これまでの観測では暫定的に定めた回転基準位置に方向を合わせて映像を蓄積しているので、回転基準位置φcが定まった後では映像がずれてしまうので、映像・カメラ回転位置保存DB14bに蓄積している映像とカメラ回転位置のデータを全て破棄する。
〔S19〕回転基準位置として既定を示すフラグを外部に出力する。
〔S20〕回転基準位置として未定を示すフラグを外部に出力する。
以上説明したように、3次元位置計測システム1によれば、距離の測定対象の模様方向によって、揺動移動するカメラ軌跡の状態から、模様と平行にならない基線を与えるカメラ位置を適切に選択して、対象物との距離を測定する構成とした。これにより、対象物の模様の方向に寄らない2つのカメラ映像間で対象部分の映像パターンによる対応を確実に行うことができ、安定した距離の計測を行うことが可能になる。
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。
1 3次元位置計測システム
1a カメラ
2 移動体
2a 回転体
10 3次元位置計測装置
10a 3次元位置計測部
14 記憶部

Claims (6)

  1. 移動体の移動に伴い回転する物体に取り付けられたカメラと、
    前記カメラで撮影された複数の画像と、該複数の画像を各々撮影した時刻と同時刻のカメラ回転位置とを対応づけて記憶する記憶部と、対象物の模様に対して、前記複数の画像から、前記模様の方向とは異なる方向に基線方向を与える前記カメラ回転位置の少なくとも2つの画像を選択して、前記対象物の3次元位置を計測する3次元位置計測部とを備える3次元位置計測装置と、
    を有することを特徴とする3次元位置計測システム。
  2. 前記3次元位置計測部は、現フレーム画像と、前記現フレーム画像の前記カメラ回転位置を起点にして過去フレーム画像の前記カメラ回転位置で与えられる基線の長さが所定回転周期中で最も大きく、かつ基線方向が前記模様に対して直交方向に最も近くなる過去フレーム画像と、を選択することを特徴とする請求項1記載の3次元位置計測システム。
  3. 前記移動体に回転体位置計測センサが設置し、前記3次元位置計測部は、前記回転体位置計測センサで計測された前記回転体の回転位置を取得して、前記カメラの基準回転位置と、取得した前記回転位置との差分から前記カメラ回転位置を算出することを特徴とする請求項1記載の3次元位置計測システム。
  4. 前記3次元位置計測部は、撮影された画像にもとづき、前フレーム画像と現フレーム画像間の差分画像回転量を求め、前記前フレーム画像で定まっている画像回転量に前記差分画像回転量の増分を加えて前記現フレーム画像の画像回転量を求め、前記カメラの基準回転位置と、前記現フレーム画像の画像回転量との差分から前記カメラ回転位置を算出することを特徴とする請求項1記載の3次元位置計測システム。
  5. 移動体の移動に伴い回転する物体に取り付けられたカメラで撮影された画像と、複数の画像を各々撮影した時刻と同時刻のカメラ回転位置とを対応づけて記憶する記憶部と、
    対象物の模様に対して、前記複数の画像から、前記模様の方向とは異なる方向に基線方向を与える前記カメラ回転位置の少なくとも2つの画像を選択して、前記対象物の3次元位置を計測する3次元位置計測部と、
    を有することを特徴とする3次元位置計測装置。
  6. 3次元位置計測方法において、
    移動体の移動に伴い回転する物体に取り付けられたカメラで撮影された画像と、複数の画像を各々撮影した時刻と同時刻のカメラ回転位置とを対応づけて記憶し、
    対象物の模様に対して、前記複数の画像から、前記模様の方向とは異なる方向に基線方向を与える前記カメラ回転位置の少なくとも2つの画像を選択して、前記対象物の3次元位置を計測する、
    ことを特徴とする3次元位置計測方法。
JP2010275314A 2010-12-10 2010-12-10 3次元位置計測システム、3次元位置計測装置および3次元位置計測方法 Expired - Fee Related JP5582009B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010275314A JP5582009B2 (ja) 2010-12-10 2010-12-10 3次元位置計測システム、3次元位置計測装置および3次元位置計測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010275314A JP5582009B2 (ja) 2010-12-10 2010-12-10 3次元位置計測システム、3次元位置計測装置および3次元位置計測方法

Publications (2)

Publication Number Publication Date
JP2012122917A true JP2012122917A (ja) 2012-06-28
JP5582009B2 JP5582009B2 (ja) 2014-09-03

Family

ID=46504492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010275314A Expired - Fee Related JP5582009B2 (ja) 2010-12-10 2010-12-10 3次元位置計測システム、3次元位置計測装置および3次元位置計測方法

Country Status (1)

Country Link
JP (1) JP5582009B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220110A (ja) * 2016-06-09 2017-12-14 アイシン精機株式会社 三次元情報検出装置
US20220215585A1 (en) * 2019-05-31 2022-07-07 Kazusa Dna Research Institute Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003262510A (ja) * 2002-03-08 2003-09-19 Center For Advanced Science & Technology Incubation Ltd 三次元形状測定方法及び三次元スキャナ
JP2004046574A (ja) * 2002-07-12 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 全周囲空間情報獲得方法、全周囲空間情報獲得装置、全周囲空間情報獲得プログラム及びそのプログラムを記録した記録媒体
JP2004198732A (ja) * 2002-12-18 2004-07-15 Sony Computer Entertainment Inc 撮影補助器、画像処理方法、画像処理装置、コンピュータプログラム、プログラムを格納した記録媒体
JP2007278845A (ja) * 2006-04-06 2007-10-25 Topcon Corp 画像処理装置及びその処理方法
JP2009014628A (ja) * 2007-07-06 2009-01-22 Topcon Corp 位置計測装置及び位置計測方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003262510A (ja) * 2002-03-08 2003-09-19 Center For Advanced Science & Technology Incubation Ltd 三次元形状測定方法及び三次元スキャナ
JP2004046574A (ja) * 2002-07-12 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 全周囲空間情報獲得方法、全周囲空間情報獲得装置、全周囲空間情報獲得プログラム及びそのプログラムを記録した記録媒体
JP2004198732A (ja) * 2002-12-18 2004-07-15 Sony Computer Entertainment Inc 撮影補助器、画像処理方法、画像処理装置、コンピュータプログラム、プログラムを格納した記録媒体
JP2007278845A (ja) * 2006-04-06 2007-10-25 Topcon Corp 画像処理装置及びその処理方法
JP2009014628A (ja) * 2007-07-06 2009-01-22 Topcon Corp 位置計測装置及び位置計測方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220110A (ja) * 2016-06-09 2017-12-14 アイシン精機株式会社 三次元情報検出装置
US20220215585A1 (en) * 2019-05-31 2022-07-07 Kazusa Dna Research Institute Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
US11941852B2 (en) * 2019-05-31 2024-03-26 Kazusa Dna Research Institute Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program

Also Published As

Publication number Publication date
JP5582009B2 (ja) 2014-09-03

Similar Documents

Publication Publication Date Title
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
CN107316325B (zh) 一种基于图像配准的机载激光点云与影像配准融合方法
CN102168954B (zh) 基于单目摄像机的深度、深度场及物体大小的测量方法
US9686479B2 (en) Method for combining multiple image fields
JP3539788B2 (ja) 画像間対応付け方法
EP3550513B1 (en) Method of generating panorama views on a mobile mapping system
CN110784641B (zh) 组合来自多个摄像机的视图的方法及摄像机系统
JP2017112602A (ja) パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム
CN105574847B (zh) 相机系统及其图像配准方法
JP2019510234A (ja) 奥行き情報取得方法および装置、ならびに画像取得デバイス
CN104685513A (zh) 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
CN206611521U (zh) 一种基于多传感器的车载环境识别系统及全方位视觉模块
JP5455033B2 (ja) 距離画像入力装置と車外監視装置
US11222433B2 (en) 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images
JP2011149931A (ja) 距離画像取得装置
JP2023029441A (ja) 計測装置、計測システムおよび車両
CN104200456B (zh) 一种用于线结构光三维测量的解码方法
CN109493378B (zh) 一种基于单目视觉与双目视觉相结合的垂直度检测方法
JP5582009B2 (ja) 3次元位置計測システム、3次元位置計測装置および3次元位置計測方法
JP2004069583A (ja) 画像処理装置
JPH0814861A (ja) 3次元形状の計測方法及び装置
CN108090930A (zh) 基于双目立体相机的障碍物视觉检测系统及方法
JP2014238558A (ja) 撮像装置及び視差検出方法
JP5409451B2 (ja) 3次元変化検出装置
JP2010281685A (ja) 位置計測システム及び位置計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140630

R150 Certificate of patent or registration of utility model

Ref document number: 5582009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees