JP3900353B2 - 3次元位置計測システムおよび3次元位置計測方法 - Google Patents

3次元位置計測システムおよび3次元位置計測方法 Download PDF

Info

Publication number
JP3900353B2
JP3900353B2 JP2003335637A JP2003335637A JP3900353B2 JP 3900353 B2 JP3900353 B2 JP 3900353B2 JP 2003335637 A JP2003335637 A JP 2003335637A JP 2003335637 A JP2003335637 A JP 2003335637A JP 3900353 B2 JP3900353 B2 JP 3900353B2
Authority
JP
Japan
Prior art keywords
image
timing
camera
coordinates
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003335637A
Other languages
English (en)
Other versions
JP2005100278A (ja
Inventor
弘亘 藤吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chubu University Educational Foundation
Original Assignee
Chubu University Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chubu University Educational Foundation filed Critical Chubu University Educational Foundation
Priority to JP2003335637A priority Critical patent/JP3900353B2/ja
Publication of JP2005100278A publication Critical patent/JP2005100278A/ja
Application granted granted Critical
Publication of JP3900353B2 publication Critical patent/JP3900353B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、2つのカメラを用いて3次元空間内における位置計測を行う3次元位置計測システムおよび3次元位置計測方法に関するものである。
従来より、2つのカメラを用いて3次元空間内で移動する物体の位置計測が行われている。この3次元空間内での位置計測について、図10に示す3次元位置の計測手法を示した概略図を利用して説明する。
2つのカメラC1、C2により、同期するタイミングで画像が取り込まれると、予め決めておいた3次元座標(Xω,Yω,Zω)上におけるカメラC1、C2の位置と、それぞれのカメラC1、C2が撮影した画像を2次元的に示した場合における物体の座標(u1,v1)、(u2,v2)とを通る光線l1、l2がそれぞれ求められる。そして、ステレオ視により、その2直線の交点Pが求められる。この交点Pの3次元座標が物体の位置を示しており、このような手法により物体の位置計測を行うことができる。
上記した従来の3次元位置計測では、2つのカメラによる画像の取り込みが同期的に行われる必要がある。この場合、例えば1秒間に30コマの画像取り込みを行える分解能を有するカメラ(30fps)を用いているとすると、1秒間に30回分、物体の3次元位置計測を行うことが可能となる。
しかしながら、物体の3次元位置計測を数多く実行したくても、カメラの単位時間当たりの撮影回数に限界があるという機能限界が存在するため、1秒間に30回以上の計測が行えない。特に、カメラからの画像に基づいてロボットを制御する場合において、ロボットをより最適に制御するためには、ロボットの3次元位置計測のサイクル、すなわちビジュアルフィードバックのサイクルを高速に行う必要がある。
本発明は上記点に鑑みて、カメラの単位時間当たりの撮影回数を超える回数の3次元位置計測が行える3次元位置計測システムおよび3次元位置計測方法を提供することを目的とする。
上記目的を達成するため、請求項1に記載の3次元位置計測システムでは、同じサイクルかつ互いに異なるタイミングで画像を取り込む第1、第2のカメラ(C1、C2)と、第1のカメラ(C1)が取り込んだ画像を取得し、その画像に存在する物体(2)の第1のカメラ(C1)の画像上での座標となる画像座標((u ,v ))を求める第1画像取得部(3a)と、第2のカメラ(C2)が取り込んだ画像を取得し、その画像に存在する物体(2)の第2のカメラ(C2)の画像上での座標となる画像座標((u ,v ))を求める第2画像取得部(3b)と、第1、第2画像取得部(3a、3b)で求められた画像座標((u ,v )、(u ,v ))に基づいて、物体(2)の3次元位置を求める演算部(3c)とを有している。
その演算部(3c)では、第1、第2のカメラ(C1、C2)から最新フレームの画像を取り込んだ方のカメラを選択し、選択されたカメラ(C1)において最新フレームの画像が取り込まれたタイミング(t)の1サイクル前のタイミング(t−1)を2フレーム前のタイミングとして、そのタイミング(t−1)での物体(2)の3次元位置(Pt−1)が2フレーム前の3次元位置とされる。また、選択されたカメラ(C1)とは異なる選択されていないカメラ(C2)により、最新フレームが取り込まれたタイミング(t)とその1サイクル前のタイミング(t−1)との間に画像が取り込まれたときのタイミング(t’−1)を1フレーム前のタイミングとして、そのタイミング(t’−1)での物体(2)の3次元位置(Pt’−1)が1フレーム前の3次元位置とされる。そして、2フレーム前および1フレーム前の3次元位置(Pt−1、Pt’−1)から最新フレームの画像が取り込まれたタイミング(t)での物体(2)の仮の3次元位置となる第1の予測位置(Pt)を求めると共に、選択されたカメラ(C1)の位置と該選択されたカメラ(C1)からの画像に基づいて、第1画像取得部(3a)で求められた画像座標((u ,v ))とを通過する直線(l )を求め、直線(l )上の点のうち、第1の予測位置(Pt)から最短距離の点を、物体(2)の3次元位置とするようになっていることを特徴としている。
このように、2フレーム前および1フレーム前の物体(2)の3次元位置に基づいて、最新フレームにおける物体(2)の3次元位置を例えば線形予測によって予測し、その予測した位置を第1の予測位置(Pt)としている。さらに、選択されたカメラ(C1)と画像座標((u ,v ))とを通過する直線(l )を求めている。つまり、選択されたカメラ(C1)の位置と物体(2)の画像座標((u ,v ))を共に通過する直線(l )は、物体(2)が実際に存在している直線を意味している。このため、直線(l )上の点のうち、第1の予測位置(Pt)から最短距離に位置する点を求めることにより、物体(2)の3次元位置を正確に求めることができる。
例えば、請求項2に示されるように、2フレーム前の3次元位置は、選択されていないカメラ(C2)が2フレーム前のタイミング(t−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t−1)における選択されていないカメラ(C2)の画像上での画像座標((u2* t−1,v2* t−1))を求め、その画像座標((u t−1,v t−1))と、このタイミング(t−1)において選択されたカメラ(C1)の画像に基づいて第1画像取得部(3a)で求められた画像座標((u t−1,v t−1))とから求められる。
また、1フレーム前の3次元位置は、選択されたカメラ(C1)が1フレーム前のタイミング(t’−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t’−1)における選択されたカメラ(C1)の画像上での画像座標((u1* t’−1,v1* t’−1))を求め、その画像座標((u1* t’−1,v1* t’−1))と、このタイミング(t’−1)において選択されていないカメラ(C2)の画像に基づいて第2画像取得部(3b)で求められた画像座標((u t’−1,v t’−1))とから求められる。
さらに、請求項3に示されるように、2フレーム前のタイミング(t−1)における選択されていないカメラ(C2)の画像上での画像座標((u2* t−1,v2* t−1))は、1フレーム前のタイミング(t’−1)に選択されていないカメラ(C2)が取り込んだ画像に基づいて第2画像取得部(3b)で求められた画像座標((u t’−1,v t’−1))と、そのタイミング(t’−1)よりも1サイクル前のタイミング(t’−2)に選択されていないカメラ(C2)が取り込んだ画像に基づいて第2画像取得部(3b)で求められた画像座標((u t’−2,v t’−2))とを、これら各タイミング(t’−1、t’−2)と2フレーム前のタイミング(t−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって求められる。
また、1フレーム前のタイミング(t’−1)における選択されたカメラ(C1)の画像上での画像座標((u1* t’−1,v1* t’−1))は、最新フレームの画像が取り込まれたタイミング(t)にその画像に基づいて第1画像取得部(3a)で求められた画像座標((u ,v ))と、そのタイミング(t)よりも1サイクル前のタイミング(t−1)に選択されたカメラ(C1)が取り込んだ画像に基づいて第1画像取得部(3a)で求められた画像座標((u t−1,v t−1))とを、これら各タイミング(t、t−1)と2フレーム前のタイミング(t’−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって求められる。
請求項4ないし6に記載の発明は、請求項1ないし3に記載の発明を方法として記載したものである。これら各請求項に示す発明により、請求項1ないし3に記載の発明と同様の効果を得ることができる。
なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。
(第1実施形態)
本発明の一実施形態を適用した3次元位置計測システムの概略構成を図1に示す。以下、この図に基づいて3次元位置計測システムの構成について説明する。
図1に示される3次元位置計測システムは、図中黒丸で示したように、3次元空間1内に存在する物体2の位置を計測するものである。本実施形態では、縦、横、高さがそれぞれ3,000mm、2,000mm、2,000mmの3次元空間1を仮想して設定している。この3次元空間1の縦、横、高さは、それぞれこの3次元空間1の任意の点を中心とする世界座標(Xw,Yw,Zw)によって表され、3次元空間1中に存在する移動中の物体2の位置がその世界座標(Xw,Yw,Zw)で示されるようになっている。例えば、図1に示される長方体で区画された3次元空間1のうち、紙面手前側の左下に位置する頂点を中心とする世界座標、すなわち直線aをX座標軸、直線bをY座標軸、直線cをZ座標軸として表される座標によって物体2の位置が示されるようになっている。
3次元空間1の上部、具体的には、XY平面から高さ2,800mmに2つのカメラC1、C2が設置されている。カメラC1、C2は共にY座標が1,000mm程度の位置、つまり3次元空間1におけるY座標の中央ラインの上方に併設されており、カメラC1は、ほぼXZ平面上に、カメラC2は、ほぼXZ平面から3,000mm離れた位置に、それぞれ配置されている。
カメラC1、カメラC2は、共に3次元空間1のほぼ全域が視野に入るように、例えば画像の中央が3次元空間1の中央位置とほぼ一致するように傾けられた状態とされている。これら各カメラC1、C2としては、単位時間当たりの画像取り込み回数が等しいもの、例えば1/30秒のサイクルで1枚の画像が処理可能な分解能を有する30fpsのものが用いられている。このため、カメラC1、C2は共に、例えば、1秒間に30回分、画像を取り込むことができるようになっている。
カメラC1、C2のシャッタータイミングは図示しない同期機からの信号に基づいて設定される。本実施形態では、カメラC1、C2のシャッタータイミングのズレδ12、δ21、すなわちカメラC1のシャッタータイミングからカメラC2のシャッタータイミングまでのズレδ12と、カメラC2のシャッタータイミングからカメラC1のシャッタータイミングまでのズレδ21が共に、各カメラC1、C2の画像取り込み間隔の半分に設定されるようになっている。
カメラC1、C2は、ケーブル4を介してパーソナルコンピュータ(以下、PCという)3に接続されている。PC3は、ROM、RAMなどのメモリ、入出力部(I/O)、CPUを備えた周知のもので構成され、そのCPUは、カメラC1からの画像を取り込みその画像を用いて各種処理を実行する第1画像取得部3a、カメラC2からの画像を取り込みその画像を用いて各種処理を実行する第2画像取得部3b、および、第1、第2画像取得部3a、3bからのデータに基づいて物体2の3次元位置計測を行う演算部3cを有して構成されている。
第1、第2画像取得部3a、3bは、ケーブル4を介してカメラC1、C2が取り込んだ画像を取り込み、画像取り込みの終了時刻(キャプチャ終了時刻)を求めると共に、その画像中の色などから観測対象となる物体2を識別する。そして、さらに物体2の中心を求めたのち、キャプチャ終了時刻や物体2の中心に関するデータを演算部3cに出力するようになっている。演算部3cは、第1、第2画像取得部3a、3bからのデータに基づいて、後述する各種演算処理を行うことで、物体2の3次元位置を求めるものである。そして、PC3で求められた物体2の3次元位置が世界座標(Xw,Yw,Zw)で表され、この3次元位置がビジュアルフィードバックされることで、ロボット制御が実行される。
続いて、本実施形態のPC3が実行する3次元位置計測について説明する。
本実施形態では、最新フレームの画像が取り込まれたタイミングにおいて、観測対象物となる物体2が3次元空間1中のどの位置に存在するかという物体2の3次元位置を予測することにより、3次元位置計測を行っている。
具体的には、まず、(1)3次元位置の線形予測として、計算により求めた過去数フレームの3次元位置を用いて最新フレームでの物体2の位置予測を行う。つまり、最新フレームの画像が取り込まれたタイミングtにおける物体2の世界座標を予測する。そして、(2)光線情報を用いた位置予測として、カメラC1、C2のうち最新フレームの画像を取り込んだ方の世界座標とその画像中に存在する物体2の画像座標(u,v)とを通る3次元空間1中の直線を求め、その直線上の点のうち、位置予測された最新フレームにおける物体2の世界座標から最短距離のものを求める。この点が最新フレームの画像が取り込まれたタイミングにおける物体2の3次元位置となる。
以下、図2に示す3次元位置計測の概略を示した模式図を参照して、(1)3次元位置の線形予測と(2)光線情報を用いた位置予測による本実施形態の3次元位置計測の方法を詳細に説明する。なお、ここでは、最新のフレームでの画像がカメラC1で取り込まれた場合を例に挙げて説明する。
(1)3次元位置の線形予測
図2に示されるように、以前に求められた前回および前々回のフレームの画像が取り込まれたタイミングt’−1、t−1における物体2の3次元位置がPt’−1とPt−1であったとする。この場合、最新フレームが取り込まれたタイミングtにおける物体2の3次元位置の第1の予測位置Pt[=(xw,yw,zw)]は、次式のように求められる。
(数1)
t=Pt’−1+δ21t−1
ただし、vt−1は単位時間当たりの物体2の3次元位置の移動速度を示したものであり、数式2に示されるように、前々回の物体2の3次元位置から前回の物体2の3次元位置までの距離を、タイミングt’−1からタイミングt−1までの間隔で割ったものに相当する。
(数2)
t−1=(Pt’−1−Pt−1)/δ12
つまり、数式1で示された第1の予測位置Ptは、過去2フレームのタイミングt’−1、t−1における物体2の3次元位置から物体2の線形の移動速度を求め、前回のフレームでの物体2の3次元位置からその移動速度でタイミングt’−1からタイミングtまでの時間移動した想定した場合に物体2が到達する位置である。
(2)光線情報を用いた位置予測
続いて、最新フレームにおけるカメラC1の画像座標から求まる3次元空間1の直線を求める。世界座標における原点0からカメラC1への平行移動ベクトル、つまりカメラC1の世界座標がT=[Tx,Ty,Tz]として定義され、カメラC1にて取り込まれた画像平面が3次元空間1内に定義されるuv座標平面として表されるとした場合に、物体2の画像座標(ut,vt)で定義されるとすると、図2中に示されるように、カメラC1の世界座標Tと物体2の画像座標(ut,vt)を共に通過する直線がl として表される。
なお、ここでいうuv座標平面は、カメラC1から距離fの位置に存在し、カメラC1の光軸となるz座標軸に対して垂直をなし、かつ、z座標軸がその中心位置を通過している平面を指す。カメラC2の画像に対しても、カメラC1と同様のuv座標平面が定義され、最新フレームがカメラC2で取り込まれたものであった場合には、カメラC1と同様の手法によって、カメラC2の世界座標T=[Tx,Ty,Tz]と物体2の画像座標(ut,vt)を共に通過する直線l が求められる。また、カメラC1、C2の世界座標および各カメラC1、C2に対応するuv座標平面は周知のキャリブレーション技術によって求められる。
そして、世界座標中における直線l の傾きを表すベクトルがrt=[xv,yv,zv)]であるとすると、直線l は次式となる。ただし、kは実数である。
(数3)
=kr +T
本来ならば、上述の数式1により求めた第1の予測位置Ptは、この数式3で定義されるl 上に存在する。しかしながら、第1の予測位置Ptは、過去に計算した位置から推定したものであり、予測誤差を含んでいる。例えば、物体2の移動量がタイミングt−1〜tの間とタイミングt’−1〜t−1の間で異なっている場合も有り得るし、物体2が3次元空間1中を必ずしも線形的に移動しているとは限らない。これらの場合には、第1の予測位置Ptが直線l 上に存在しないことになる。
このため、直線l のうち第1の予測位置Ptから最短距離となる点Ptを求める。この点は、第1の予測位置Ptが直線l の傾きを表すベクトルrt方向への正射影ベクトルであり、次式のように表される。
Figure 0003900353
このようにして、点Ptが求められると、この点Ptが最新フレームでの物体2の3次元位置とされる。このように予測された最新フレームでの物体2の3次元位置は、カメラC1の世界座標T1と物体2の画像座標(ut,vt)を共に通過する直線l 上に存在していることから、物体2の位置として正確なものであると言える。
次いで、上述した過去数フレームにおける3次元位置の予測方法について説明する。
上述のように最新フレームにおける物体2の3次元位置をより正確に得るためには、数式1に示した速度vt−1の演算に用いられる過去2フレームにおける物体2の3次元位置Pt−1、Pt’−1を精度良く求める必要がある。これら各3次元位置Pt−1、Pt’−1として適用可能なものとしては、例えば以下に示す2通りが挙げられる。
(a)数式3を用い、各フレームそれぞれのタイミングt−1、t’−1で物体2の3次元位置Pt−1、Pt’−1を求め、そのようにして求めた3次元位置Pt−1、Pt’−1を用いる方法。
(b)最新フレームでのタイミングtにおいて、過去フレームにおける物体2の3次元位置Pt−1、Pt’−1を再度計算し直す方法。
これら2つのいずれの場合でも、3次元位置Pt−1、Pt’−1として適用可能であるが、(a)に示した方法の場合、第1回目のフレームでの物体2の3次元位置Pを求めるにあたり、物体2の3次元位置の初期値となるPが必要となる。また、フレーム毎に計算された物体2の3次元位置Pt−1、Pt’−1は、数式1の線形予測によって求められたものである。このため、その位置精度はすでに推定による予測誤差が生じている場合があり、そのような誤差を有している過去フレームでの3次元位置Pt−1、Pt’−1に基づいて最新フレームでの物体2の3次元位置Pを求めれば、その誤差が伝搬されることになる。
したがって、本実施形態では、より好ましい(b)に示した方法を採用している。以下、この(b)に示される3次元位置Pt−1、Pt’−1の再計算の手法について、図3、図4を参照して説明する。
図3は、カメラC1、C2のシャッタータイミングを示す図であり、図3(a)、(b)は、それぞれ本実施形態のシャッタータイミングと従来のシャッタータイミングとを示したものである。
図3(a)に示されるように、本実施形態では、カメラC1では、t−2、t−1、tのタイミングで画像を取り込み、カメラC2では、t’−2、t’−1のタイミングで画像を取り込んでいる。ここで、今回カメラC1で画像の取り込みを完了したときのタイミングがtであり、カメラC1で1回前と2回前のサイクルの際に画像の取り込みを完了したタイミングがt−1、t−2である。また、タイミングtの直前にカメラC2で画像の取り込みを完了したタイミング、およびその前のサイクルの際に画像の取り込みを完了したタイミングがt’−1、t’−2である。なお、このときのカメラC1、C2のシャッタータイミングのズレδ12、δ21は、同期機にて各カメラC1、C2の画像取り込み間隔の半分となるように設定されている。
このように、本実施形態では、カメラC1、C2でそれぞれ異なるタイミングで画像を取り込むことになり、各カメラC1、C2における単位時間当たりの画像取り込み回数分の2倍の数分、異なるタイミングの画像が存在することになる。
これに対して、図3(b)に示されるように、従来は、カメラC1、C2により同じタイミングで画像を取り込むようにしている。このため、カメラC1およびカメラC2における単位時間当たりの画像取り込み回数分しか異なるタイミングに取り込んだ画像が存在しない。
図4は、各カメラC1、C2で取り込んだ画像、および、カメラC1、C2がお互いのシャッタータイミングでないときに仮に画像を取り込んでいたとしたら得られたであろう画像を時系列的に示した図である。図中、実線で囲んだフレームが、各カメラC1、C2で取り込んだ画像、点線で囲んだフレームが、カメラC1、C2がお互いのシャッタータイミングでないときに仮に画像を取り込んでいたとしたら得られたであろう画像を示している。
図4に示されるように、カメラC1からはt−1、tのタイミング、カメラC2からはt’−2、t’−1のタイミングの画像が得られる。しかしながら、カメラC1からはt’−2、t’−1のタイミング、カメラC1からはt−1、tのタイミングで画像が得られない。
したがって、過去2フレームそれぞれのタイミングt−1、t’−1における物体2の3次元位置Pt−1、Pt’−1を、カメラC1、C2のうち画像が得られた方はその画像を用いて、カメラC1、C2のうち画像が得られない方はその前後の画像を用いて求める。
具体的には、以下のstep1〜3を実行することで、過去2フレームそれぞれのタイミングt−1、t’−1における物体2の3次元位置Pt−1、Pt’−1を求める。
[step1]
まず、カメラC2で仮にタイミングt−1で画像を取り込んでいたとしたときの物体2の仮の画像座標(u2* t−1,v2* t−1)を、タイミングt−1の前後のフレーム、つまりタイミングt’−2、t’−1に得られた画像に基づいて推定する。例えば、タイミングt’−2、t’−1における物体2の画像座標(u t’−1,v t’−1)、(u t’−2,v t’−2)を内挿演算することで、仮の画像座標(u2* t−1,v2* t−1)が得られる。この仮の画像座標(u2* t−1,v2* t−1)の各座標を数式で表すと、それぞれ次式のように表される。
Figure 0003900353
Figure 0003900353
なお、カメラC1、C2のシャッタータイミングのズレδ12、δ21が共に、各カメラC1、C2の画像取り込み間隔の半分に設定され、等しい値とされているため、数式5、6は次式のように簡略化される。
(数7)
2* t−1=1/2u t’−2+1/2u t’−1
(数8)
2* t−1=1/2v t’−2+1/2v t’−1
[step2]
タイミングt−1におけるカメラC1が取り込んだ画像における物体2の画像座標(u t−1,v t−1)に基づき、タイミングt−1でカメラC2が取り込んだと想定した仮の画像内におけるエピポーラ線eを求める。ここでいうエピポーラ線eとは、カメラC1で取り込まれた画像から求めた物体2の画像座標(u t−1,v t−1)と対応する線であり、カメラC1で取り込まれた画像内の画像座標(u t−1,v t−1)の位置に物体2が存在するのであれば、カメラC2で取り込んだ画像内においてそのエピポーラ線e上に物体2が存在していると考えられる。
そして、エピポーラ線e上の点のうち、数式5〜8で定義された仮の画像座標(u2* t−1,v2* t−1)から最短距離となるものを求める。この点が、カメラC2で仮にタイミングt−1で画像を取り込んでいたとしたときの物体2の実際の画像座標(u t−1,v t−1)とされる。
[step3]
カメラC2で仮にタイミングt−1で画像を取り込んでいたとしたときの物体2の実際の画像座標(u t−1,v t−1)から、上記した数式2に基づき、世界空間の直線l t−1を求める。また、カメラC1でタイミングt−1のときに取り込んだ画像での物体2の画像座標(u t−1,v t−1)からも、上記した数式2に基づき、世界空間の直線l t−1を求める。そして、これら各直線l t−1、l t−1の交点を求める。この交点をタイミングt−1における物体2の3次元位置Pt−1とする。
このようなstep1〜3の処理をタイミングt’−1についても行うことで、タイミングt’−1における仮の画像座標(u1* t’−1,v1* t’−1)が求められ、物体2の3次元位置Pt−1を求めることができる。これにより、過去2フレームにおける物体2の3次元位置Pt−1、Pt’−1を精度良く求めることが可能となる。
以上のような方法に基づき、カメラC1、C2それぞれのシャッタータイミングのたびに、物体2の3次元位置Pを正確に求めることが可能となる。
続いて、PC3で行われる物体2の3次元位置Pの演算処理のフローチャートを図5〜図8に示し、これらの図に基づいて3次元位置Pの演算処理について説明する。
図5は、PC3における第1画像取得部3aで実行されるカメラC1の画像データ取得処理を示したフローチャートである。まず、ステップ110では、各種データの初期化等を行うための初期化処理が実行される。次に、ステップ120にてカメラC1からの画像が取得され、ステップ130にてそのときのキャプチャ終了時刻を取得される。キャプチャ終了時刻は、例えばPC3内に備えられる図示しないクロック等からの信号から得られる。
ステップ140では、取得した画像の色を識別される。続いて、この色の識別に基づいて、ステップ150にて対象物となる物体2が画像内のどの位置に存在するかが識別される。そして、さらにステップ160にて対象物となる物体2の中心が求められる。この後、ステップ170にて対象物となる物体2の中心およびキャプチャ終了時刻、さらには画像を取得したカメラの番号(C1)が演算部3cに送信される。
図6は、PC3における第2画像取得部3bで実行されるカメラC2の画像データ取得処理のフローチャートである。この処理は、図5に示した第1画像取得部3aで実行される処理と同様にして行われるもので、ステップ220に示すようにカメラC2からの画像を取得すること以外は、図5に示されるフローチャートと同様である。この処理により、カメラC2の画像に基づいて物体2の中心が求められ、物体2の中心およびキャプチャ終了時刻、さらには画像を取得したカメラの番号(C2)が演算部3cに送信されるようになっている。
図7は、PC3における演算部3cで実行される3次元位置計測処理を示したフローチャートである。まず、ステップ310では、ステップ110と同様に初期化処理が実行される。次いで、ステップ220では、最新フレームのデータが受信される。この処理で受信されるデータは、図5および図6におけるステップ170とステップ270から送られるデータを意味している。
そして、データが受信されると、ステップ330にて、データの格納処理が実行される。この処理は、例えばPC3に備えられるメモリにデータを記憶しておくことによって実現される。
続く、ステップ340では、メモリ内にデータが4つ保持されているか否かが判定される。ここでいう4つのデータとは、例えば、図4に示したタイミングt、t’−1、t−1、t’−2の各データというように、最新フレームにおける物体2の3次元位置Pを求めるのに必要な数のデータということを意味している。
そして、4つのデータが保持されていればステップ350以降の処理が実行され、まだ4つのデータが保持されていないようであればステップ320に戻って上記処理が繰り返される。
ステップ350では、2フレーム前の3次元位置の再計算処理、ステップ360では、1フレーム前の3次元位置の再計算処理が実行される。これらの処理は上述した過去数フレームにおける3次元位置の予測方法で示した方法に基づいて実行されるもので、その処理の詳細は図8に示される。以下、図8に基づいて2フレーム前および1フレーム前の3次元位置の再計算処理について説明する。ただし、これら各処理は同様であるため、ここでは説明を簡略化するために、2フレーム前における3次元位置の再計算処理ということで説明する。
まず、図8のステップ410では、最新フレームのカメラがどのカメラかが判定される。この処理は、例えば、第1、第2画像取得部3a、3bから送られてくるキャプチャ終了時刻およびカメラ番号のデータに基づいて判定されるもので、キャプチャ終了時刻が最も遅い(最近)のカメラが最新フレームのカメラと判定される。
そして、カメラC1であると判定されれば、ステップ420に進んでカメラの番号としてカメラC1が選択され、カメラ2であると判定されれば、ステップ430に進んでカメラの番頭としてカメラC2が選択される。
ステップ440では、選択された番号のカメラによる最新フレームよりも1フレーム前の画像と、選択されていない番号のカメラによるその前後のフレーム、つまり過去2フレームの画像が選択される。そして、選択されていない番号のカメラによる2つの画像における物体2の中心のデータから、上述したstep1に示す数式5〜8に基づいて、選択されていない番号のカメラで仮に最新フレームから1フレーム前の画像を取得したタイミングで画像を取得していたとした場合の仮の画像座標が求められる。
また、ステップ450では、選択された番号のカメラによる最新フレームから1サイクル前のフレームでの物体2の中心のデータがメモリから読み出される。そして、上述したstep2のように、そのフレームと同じタイミングで選択されていない番号のカメラで画像が取得されていた場合を想定して、読み出した物体2の中心のデータから、その仮定した仮の画像内におけるエピポーラ直線が求められる。
そして、ステップ460では、ステップ450で求められたエピポーラ線上の点のうち、ステップ440で求められた仮の画像座標から最短距離のものが求められる。この点が、選択された番号のカメラによる最新フレームから1サイクル前のフレームと同じタイミングで、選択されていない番号のカメラで画像が取得されていたとしたときの物体2の実際の画像座標となる。
この後、ステップ470にて、ステップ460で求められた実際の画像座標と、選択された番号のカメラによる最新フレームから1サイクル前のフレームでの物体2の中心のデータ、およびカメラC1、C2の世界座標に基づき、上記したstep3のように、各点を通過する直線が求められ、それらの交点が求められる。この交点が、最新フレームから1サイクル前のフレームにおける物体2の3次元位置となる。
このようにして、2フレーム前の3次元位置の再計算処理が完了する。そして、この処理が完了すると、1フレーム前の3次元位置の再計算処理が実行される。この処理も、図7に示される3次元位置の再計算処理と同様の方法によって実行される。ただし、この場合には、選択されたカメラの最新のフレームとその1サイクル前のフレームとから、選択されていないカメラの最後のフレームの画像が取得されたタイミングにおける物体2の3次元位置を求めることになることが、2フレーム前の処理と異なる。
そして、このようにして2フレーム前と1フレーム前における物体2の3次元位置が求められると、続いて図7のステップ370に進む。そして、2フレーム前と1フレーム前における物体2の3次元位置から、線形予測により、最新フレームにおける物体2の第1の予測位置が求められる。
続いて、ステップ380にて、選択されたカメラの世界座標と、そのカメラが取得した画像内における物体2の画像座標とを通る光線が求められ、その光線上の点のうち、最もステップ370で求められた最新フレームにおける物体2の第1の予測位置から近いものが求められる。この点が最新フレームでの物体2の3次元位置とされる。
以上の処理によって最新フレームでの物体2の3次元位置が求められる。このようにすれば、精度良い過去の複数フレームでの物体2の3次元位置に基づいて最新フレームでの物体2の3次元位置を求めているため、正確な3次元位置を求めることが可能となる。
そして、本実施形態では、カメラC1、C2が異なるタイミングで画像を取り込み、画像が取り込まれた各タイミングで物体2の3次元位置を求めるようにしている。このため、カメラC1、C2のシャッタータイミングを同期させる場合と比べて2倍の数、物体2の3次元位置を取得することが可能となる。このため、カメラC1、C2の単位時間当たりの撮影回数を超える回数の3次元位置計測が行え、より数多くの物体2の3次元位置のデータに基づいてロボットの制御を行うことが可能となり、より適切なロボット制御を実行することが可能となる。
参考として、図1に示した3次元空間1中で移動する物体2の3次元位置を計測する実験を行った。その結果を図9(a)、(b)に示す。図9(a)は、最新フレームがカメラC1である場合、その画像座標(u ,v )と1フレーム前のカメラC2の画像座標(u t’−1,v t’−1)を用いて、ステレオ視により物体2の3次元位置を求めたものである。また、図9(b)は、上述した本実施形態の手法により、物体2の3次元位置を求めたものである。
これらの実験では、高さ500mmの箱の上に置かれたターンテーブルとゴルフボールを用いた。長さが1,000mmのものさしの端にゴルフボールを固定し、ターンテーブルを回転させ、そのときのゴルフボールの軌跡を求めた。このような場合、ゴルフボールが半径500mmの等速円運動を行う事になる。そして、ターンテーブルの厚みが150mmであるとすると、ゴルフボールの高さは650mmとなる。また、ターンテーブルの回転速度が45rpmであるとすると、ゴルフボールの回転速度は2π・45/60=0.478[rad/s]となる。
そして、図9(a)の実験結果を見てみると、およそ高さ方向において60mmほど誤差が生じていることが分かる。つまり、この場合には、物体2となるゴルフボールの3次元位置のばらつきが大きく精度が悪いことを表している。これに対し、図9(b)に示した本実施形態の実験結果を見てみると、高さ方向における誤差が約30mm以内で収まっていることが分かる。つまり、この場合には物体2となるゴルフボールの3次元位置のばらつきが小さく精度が良いことを表している。この誤差は、上記図1に示される3次元空間1で区画された広い領域内で生じる誤差であるため、非常に小さいといえる。
このように、実験結果からも、本実施形態のような手法によって物体2の3次元位置を求めることにより、より正確な3次元位置と求めることが可能になると言える。
(第2実施形態)
上記第1実施形態では、図2(b)に示すように、カメラC1、C2のシャッタータイミングのずれが各カメラC1、C2の画像取り込み間隔の半分となるようにする場合について説明した。しかしながら、第1実施形態に示したカメラC1、C2のシャッタータイミングは単なる例示であり、その他のシャッタータイミングであっても構わない。
この場合、シャッタータイミングのズレδ12、δ21は、PC3にて、カメラC1の画像取り込みの終了タイミング(キャプチャ終了時刻)からカメラC2の画像取り込みの終了タイミングまでの時間、および、カメラC2の画像取り込みの終了タイミングからカメラC1の画像取り込み終了タイミングまでの時間をそれぞれ演算することにより求められる。
そして、上述した数式5、6による内挿演算によって、2次元座標(u t−1,v t−1)を求めることが可能である。
このように、カメラC1、C2が画像取り込みできないタイミングに仮に画像取り込みを行ったと想定した場合の物体2の2次元座標を求めることができる。したがって、カメラC1、C2のシャッタータイミングのずれが各カメラC1、C2の画像取り込み間隔の半分以外であったとしても、各カメラC1、C2の画像取り込みの機能限界以上の回数、物体2の3次元位置計測を行うことができる。これにより、第1実施形態と同様の効果を得ることができる。
そして、このようにカメラC1、C2のシャッタータイミングが任意のものであっても良い場合、カメラC1、C2のシャッタータイミングを設定するための同期機が必要とされないため、システム構成の簡略化が可能という効果も得られる。
(他の実施形態)
上記各実施形態では、過去複数フレームでの3次元位置を再計算するために、上述した(a)、(b)の手法のうちの(b)の手法を採用している。しかしながら、(a)の手法を用いることも可能である。ただし、上述したように、(b)の手法を用いた方が、精度良く3次元位置の再計算を行うことができる。
また、上記各実施形態において、過去複数フレームでの3次元位置からの線形予測によって最新フレームでの3次元位置を求めている。これは、各フレームの画像の取得タイミングの間隔が1/30秒以下という短い間隔だからであり、例えば、拡張カルマンフィルタを用いたり、3次元曲線を用いたりする等、他の予測法を用いることも可能である。
さらに、上記各実施形態では、第1、第2のカメラC1、C2の2つのカメラを用いる例を示したが、少なくとも2つのカメラがあれば上記効果を得ることが可能であるという意味であり、3つ以上のカメラを用いることも可能である。
なお、各図中に示したステップは、各種処理を実行する手段に対応するものである。
本発明の第1実施形態における3次元位置計測システムの概略構成を示す図である。 3次元位置計測の概略を示した模式図である。 カメラC1、C2のシャッタータイミングを示したタイミングチャートである。 各カメラC1、C2で取り込んだ画像、および、カメラC1、C2がお互いのシャッタータイミングでないときに仮に画像を取り込んでいたとしたら得られたであろう画像を時系列的に示した図である。 カメラC1の画像データ取得処理を示したフローチャートである。 カメラC2の画像データ取得処理を示したフローチャートである。 3次元位置計測処理を示したフローチャートである。 2フレーム前および1フレーム前の3次元位置の再計算処理のフローチャートである。 3次元空間中で移動する物体の3次元位置を計測した実験結果を示したグラフである。 従来の3次元位置の計測手法を示した概略図である。
符号の説明
1…3次元空間、2…物体、3…PC、3a…第1画像取得部、3b…第2画像取得部、3c…演算部、4…ケーブル、C1、C2…カメラ。

Claims (6)

  1. 同じサイクルかつ互いに異なるタイミングで画像を取り込む第1、第2のカメラ(C1、C2)と、
    前記第1のカメラ(C1)が取り込んだ画像を取得し、その画像に存在する物体(2)の前記第1のカメラ(C1)の画像上での座標となる画像座標((u ,v ))を求める第1画像取得部(3a)と、
    前記第2のカメラ(C2)が取り込んだ画像を取得し、その画像に存在する物体(2)の前記第2のカメラ(C2)の画像上での座標となる画像座標((u ,v ))を求める第2画像取得部(3b)と、
    前記第1、第2画像取得部(3a、3b)で求められた画像座標((u ,v )、(u ,v ))に基づいて、前記物体(2)の3次元位置を求める演算部(3c)とを有してなる3次元位置計測システムであって、
    前記演算部(3c)は、
    前記第1、第2のカメラ(C1、C2)から最新フレームの画像を取り込んだ方のカメラを選択し、選択されたカメラ(C1)において前記最新フレームの画像が取り込まれたタイミング(t)の1サイクル前のタイミング(t−1)を2フレーム前のタイミングとして、そのタイミング(t−1)での前記物体(2)の3次元位置(Pt−1)を2フレーム前の3次元位置とし、
    前記選択されたカメラ(C1)とは異なる選択されていないカメラ(C2)により、前記最新フレームが取り込まれたタイミング(t)とその1サイクル前のタイミング(t−1)との間に画像が取り込まれたときのタイミング(t’−1)を1フレーム前のタイミングとして、そのタイミング(t’−1)での前記物体(2)の3次元位置(Pt’−1)を1フレーム前の3次元位置とし、
    前記2フレーム前および前記1フレーム前の3次元位置(Pt−1、Pt’−1)から最新フレームの画像が取り込まれたタイミング(t)での前記物体(2)の仮の3次元位置となる第1の予測位置(P )を求めると共に、
    前記選択されたカメラ(C1)の位置と該選択されたカメラ(C1)からの画像に基づいて、前記第1画像取得部(3a)で求められた前記画像座標((u ,v ))とを通過する直線(l )を求め、
    前記直線(l )上の点のうち、前記第1の予測位置(P )から最短距離の点を、前記物体(2)の3次元位置とするようになっていることを特徴とする3次元位置計測システム。
  2. 前記2フレーム前の3次元位置は、前記選択されていないカメラ(C2)が前記2フレーム前のタイミング(t−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t−1)における前記選択されていないカメラ(C2)の画像上での前記画像座標((u2* t−1,v2* t−1))を求め、その画像座標((u2* t−1,v2* t−1))と、このタイミング(t−1)において前記選択されたカメラ(C1)の画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u t−1,v t−1))とから求められるようになっており、
    前記1フレーム前の3次元位置は、前記選択されたカメラ(C1)が前記1フレーム前のタイミング(t’−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t’−1)における前記選択されたカメラ(C1)の画像上での前記画像座標((u1* t’−1,v1* t’−1))を求め、その画像座標((u1* t’−1,v1* t’−1))と、このタイミング(t’−1)において前記選択されていないカメラ(C2)の画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u t’−1,v t’−1))とから求められるようになっていることを特徴とする請求項1に記載の3次元位置計測システム。
  3. 前記2フレーム前のタイミング(t−1)における前記選択されていないカメラ(C2)の画像上での前記画像座標((u2* t−1,v2* t−1))は、前記1フレーム前のタイミング(t’−1)に前記選択されていないカメラ(C2)が取り込んだ画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u t’−1,v t’−1))と、そのタイミング(t’−1)よりも1サイクル前のタイミング(t’−2)に前記選択されていないカメラ(C2)が取り込んだ画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u t’−2,v t’−2))とを、これら各タイミング(t’−1、t’−2)と前記2フレーム前のタイミング(t−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって求められ、
    前記1フレーム前のタイミング(t’−1)における前記選択されたカメラ(C1)の画像上での前記画像座標((u1* t’−1,v1* t’−1))は、前記最新フレームの画像が取り込まれたタイミング(t)にその画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u ,v ))と、そのタイミング(t)よりも1サイクル前のタイミング(t−1)に前記選択されたカメラ(C1)が取り込んだ画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u t−1,v t−1))とを、これら各タイミング(t、t−1)と前記2フレーム前のタイミング(t’−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって求められるようになっていることを特徴とする請求項2に記載の3次元位置計測システム。
  4. 第1、第2のカメラ(C1、C2)により、同じサイクルかつ互いに異なるタイミングで画像を取り込み、
    前記第1のカメラ(C1)が取り込んだ画像に基づき、その画像に存在する物体(2)の該画像上での座標となる画像座標((u ,v ))を求めると共に、
    前記第2のカメラ(C2)が取り込んだ画像に基づき、その画像に存在する物体(2)の該画像上での座標となる画像座標((u ,v ))を求め、
    前記第1、第2のカメラ(C1、C2)それぞれの画像から求められた画像座標((u ,v )、(u ,v ))に基づいて、前記物体(2)の3次元位置を求める3次元位置計測方法であって、
    前記第1、第2のカメラ(C1、C2)から最新フレームの画像を取り込んだ方のカメラを選択し、選択されたカメラ(C1)において前記最新フレームの画像が取り込まれたタイミング(t)の1サイクル前のタイミング(t−1)を2フレーム前のタイミングとして、そのタイミング(t−1)での前記物体(2)の3次元位置(Pt−1)を2フレーム前の3次元位置とし、
    前記選択されたカメラ(C1)とは異なる選択されていないカメラ(C2)により、前記最新フレームが取り込まれたタイミング(t)とその1サイクル前のタイミング(t−1)との間に画像が取り込まれたときのタイミング(t’−1)を1フレーム前のタイミングとして、そのタイミング(t’−1)での前記物体(2)の3次元位置(Pt’−1)を1フレーム前の3次元位置とし、
    前記2フレーム前および前記1フレーム前の3次元位置(Pt−1、Pt’−1)から最新フレームの画像が取り込まれたタイミング(t)での前記物体(2)の仮の3次元位置となる第1の予測位置(P )を求めると共に、
    前記選択されたカメラ(C1)の位置と該選択されたカメラ(C1)からの画像に基づいて、前記第1画像取得部(3a)で求められた前記画像座標((u ,v ))とを通過する直線(l )を求め、
    前記直線(l )上の点のうち、前記第1の予測位置(P )から最短距離の点を、前記物体(2)の3次元位置とすることを特徴とする3次元位置計測方法。
  5. 前記選択されていないカメラ(C2)が前記2フレーム前のタイミング(t−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t−1)における前記選択されていないカメラ(C2)の画像上での前記画像座標((u2* t−1,v2* t−1))を求め、その画像座標((u2* t−1,v2* t−1))と、このタイミング(t−1)において前記選択されたカメラ(C1)の画像に基づいて求められた前記画像座標((u t−1,v t−1))とから前記2フレーム前の3次元位置を求め、
    前記選択されたカメラ(C1)が前記1フレーム前のタイミング(t’−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t’−1)における前記選択されたカメラ(C1)の画像上での前記画像座標((u1* t’−1,v1* t’−1))を求め、その画像座標((u1* t’−1,v1* t’−1))と、このタイミング(t’−1)において前記選択されていないカメラ(C2)の画像に基づいて求められた前記画像座標((u t’−1,v t’−1))とから前記1フレーム前の3次元位置を求めることを特徴とする請求項3に記載の3次元位置計測方法。
  6. 前記1フレーム前のタイミング(t’−1)に前記選択されていないカメラ(C2)が取り込んだ画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u t’−1,v t’−1))と、そのタイミング(t’−1)よりも1サイクル前のタイミング(t’−2)に前記選択されていないカメラ(C2)が取り込んだ画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u t’−2,v t’−2))とを、これら各タイミング(t’−1、t’−2)と前記2フレーム前のタイミング(t−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって、前記2フレーム前のタイミング(t−1)における前記選択されていないカメラ(C2)の画像上での前記画像座標((u2* t−1,v2* t−1))を求め、
    前記最新フレームの画像が取り込まれたタイミング(t)にその画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u ,v ))と、そのタイミング(t)よりも1サイクル前のタイミング(t−1)に前記選択されたカメラ(C1)が取り込んだ画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u t−1,v t−1))とを、これら各タイミング(t、t−1)と前記2フレーム前のタイミング(t’−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって、前記1フレーム前のタイミング(t’−1)における前記選択されたカメラ(C1)の画像上での前記画像座標((u1* t’−1,v1* t’−1))を求めることを特徴とする請求項5に記載の3次元位置計測方法。
JP2003335637A 2003-09-26 2003-09-26 3次元位置計測システムおよび3次元位置計測方法 Expired - Lifetime JP3900353B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003335637A JP3900353B2 (ja) 2003-09-26 2003-09-26 3次元位置計測システムおよび3次元位置計測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003335637A JP3900353B2 (ja) 2003-09-26 2003-09-26 3次元位置計測システムおよび3次元位置計測方法

Publications (2)

Publication Number Publication Date
JP2005100278A JP2005100278A (ja) 2005-04-14
JP3900353B2 true JP3900353B2 (ja) 2007-04-04

Family

ID=34462971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003335637A Expired - Lifetime JP3900353B2 (ja) 2003-09-26 2003-09-26 3次元位置計測システムおよび3次元位置計測方法

Country Status (1)

Country Link
JP (1) JP3900353B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101793967B (zh) * 2010-03-08 2013-03-13 北京林业大学 一种利用gps rtk实现不可到达点二维定位技术
JP6022834B2 (ja) 2012-07-13 2016-11-09 株式会社日本自動車部品総合研究所 位置検出装置、および位置検出プログラム
JP2023021833A (ja) * 2021-08-02 2023-02-14 日立Astemo株式会社 マルチカメラ装置

Also Published As

Publication number Publication date
JP2005100278A (ja) 2005-04-14

Similar Documents

Publication Publication Date Title
US9965870B2 (en) Camera calibration method using a calibration target
US10636151B2 (en) Method for estimating the speed of movement of a camera
RU2668404C2 (ru) Устройство для записи изображения в трехмерном масштабе, способ создания 3D-изображения и способ формирования устройства для записи изображения в трехмерном масштабе
US10404967B2 (en) Optical 3-D sensor for fast and dense shape capture
US11082633B2 (en) Method of estimating the speed of displacement of a camera
KR102397343B1 (ko) 비디오에서 가상 오브젝트를 블러링하기 위한 방법 및 디바이스
JP6170281B2 (ja) 三次元計測装置、三次元計測装置の制御方法、およびプログラム
US10545215B2 (en) 4D camera tracking and optical stabilization
CN107750372B (zh) 一种场景三维重建的方法、装置及计算机可读介质
JP2002024807A (ja) 物体運動追跡手法及び記録媒体
CN110163898A (zh) 一种深度信息配准方法及装置
US20200007843A1 (en) Spatiotemporal calibration of rgb-d and displacement sensors
CN104471436B (zh) 用于计算对象的成像比例的变化的方法和设备
JP3900353B2 (ja) 3次元位置計測システムおよび3次元位置計測方法
JP2003006618A (ja) 3次元モデルの生成方法および装置並びにコンピュータプログラム
JP2001324313A (ja) 三次元形状計測装置
JP2001245323A (ja) 3次元入力方法および装置
JP3093409B2 (ja) 3次元計測装置
JP2511082B2 (ja) 移動物体の三次元位置測定装置
JP7364726B2 (ja) 物体の画像を形成する方法、コンピュータプログラム製品、及びその方法を実行するための画像形成システム
JP6340113B2 (ja) 計測装置及びそのプログラム
JP2018032144A (ja) 画像処理装置、画像処理方法およびプログラム。
JP6192157B2 (ja) 計測装置及びそのプログラム
JPS6228402B2 (ja)
CN115731304A (zh) 一种道路数据生成方法、装置及设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061220

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150