JP3900353B2 - 3次元位置計測システムおよび3次元位置計測方法 - Google Patents
3次元位置計測システムおよび3次元位置計測方法 Download PDFInfo
- Publication number
- JP3900353B2 JP3900353B2 JP2003335637A JP2003335637A JP3900353B2 JP 3900353 B2 JP3900353 B2 JP 3900353B2 JP 2003335637 A JP2003335637 A JP 2003335637A JP 2003335637 A JP2003335637 A JP 2003335637A JP 3900353 B2 JP3900353 B2 JP 3900353B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- timing
- camera
- coordinates
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
本発明の一実施形態を適用した3次元位置計測システムの概略構成を図1に示す。以下、この図に基づいて3次元位置計測システムの構成について説明する。
図2に示されるように、以前に求められた前回および前々回のフレームの画像が取り込まれたタイミングt’−1、t−1における物体2の3次元位置がPt’−1とPt−1であったとする。この場合、最新フレームが取り込まれたタイミングtにおける物体2の3次元位置の第1の予測位置P*t[=(xw,yw,zw)]は、次式のように求められる。
P*t=Pt’−1+δ21vt−1
ただし、vt−1は単位時間当たりの物体2の3次元位置の移動速度を示したものであり、数式2に示されるように、前々回の物体2の3次元位置から前回の物体2の3次元位置までの距離を、タイミングt’−1からタイミングt−1までの間隔で割ったものに相当する。
vt−1=(Pt’−1−Pt−1)/δ12
つまり、数式1で示された第1の予測位置P*tは、過去2フレームのタイミングt’−1、t−1における物体2の3次元位置から物体2の線形の移動速度を求め、前回のフレームでの物体2の3次元位置からその移動速度でタイミングt’−1からタイミングtまでの時間移動した想定した場合に物体2が到達する位置である。
続いて、最新フレームにおけるカメラC1の画像座標から求まる3次元空間1の直線を求める。世界座標における原点0からカメラC1への平行移動ベクトル、つまりカメラC1の世界座標がT1=[Tx,Ty,Tz]Tとして定義され、カメラC1にて取り込まれた画像平面が3次元空間1内に定義されるuv座標平面として表されるとした場合に、物体2の画像座標(u1t,v1t)で定義されるとすると、図2中に示されるように、カメラC1の世界座標T1と物体2の画像座標(u1t,v1t)を共に通過する直線がl1 tとして表される。
l1 t=kr1 t+T1
本来ならば、上述の数式1により求めた第1の予測位置P*tは、この数式3で定義されるl1 t上に存在する。しかしながら、第1の予測位置P*tは、過去に計算した位置から推定したものであり、予測誤差を含んでいる。例えば、物体2の移動量がタイミングt−1〜tの間とタイミングt’−1〜t−1の間で異なっている場合も有り得るし、物体2が3次元空間1中を必ずしも線形的に移動しているとは限らない。これらの場合には、第1の予測位置P*tが直線l1 t上に存在しないことになる。
まず、カメラC2で仮にタイミングt−1で画像を取り込んでいたとしたときの物体2の仮の画像座標(u2* t−1,v2* t−1)を、タイミングt−1の前後のフレーム、つまりタイミングt’−2、t’−1に得られた画像に基づいて推定する。例えば、タイミングt’−2、t’−1における物体2の画像座標(u2 t’−1,v2 t’−1)、(u2 t’−2,v2 t’−2)を内挿演算することで、仮の画像座標(u2* t−1,v2* t−1)が得られる。この仮の画像座標(u2* t−1,v2* t−1)の各座標を数式で表すと、それぞれ次式のように表される。
u2* t−1=1/2u2 t’−2+1/2u2 t’−1
(数8)
v2* t−1=1/2v2 t’−2+1/2v2 t’−1
[step2]
タイミングt−1におけるカメラC1が取り込んだ画像における物体2の画像座標(u1 t−1,v1 t−1)に基づき、タイミングt−1でカメラC2が取り込んだと想定した仮の画像内におけるエピポーラ線e2を求める。ここでいうエピポーラ線e2とは、カメラC1で取り込まれた画像から求めた物体2の画像座標(u1 t−1,v1 t−1)と対応する線であり、カメラC1で取り込まれた画像内の画像座標(u1 t−1,v1 t−1)の位置に物体2が存在するのであれば、カメラC2で取り込んだ画像内においてそのエピポーラ線e2上に物体2が存在していると考えられる。
カメラC2で仮にタイミングt−1で画像を取り込んでいたとしたときの物体2の実際の画像座標(u2 t−1,v2 t−1)から、上記した数式2に基づき、世界空間の直線l2 t−1を求める。また、カメラC1でタイミングt−1のときに取り込んだ画像での物体2の画像座標(u1 t−1,v1 t−1)からも、上記した数式2に基づき、世界空間の直線l1 t−1を求める。そして、これら各直線l1 t−1、l2 t−1の交点を求める。この交点をタイミングt−1における物体2の3次元位置Pt−1とする。
上記第1実施形態では、図2(b)に示すように、カメラC1、C2のシャッタータイミングのずれが各カメラC1、C2の画像取り込み間隔の半分となるようにする場合について説明した。しかしながら、第1実施形態に示したカメラC1、C2のシャッタータイミングは単なる例示であり、その他のシャッタータイミングであっても構わない。
上記各実施形態では、過去複数フレームでの3次元位置を再計算するために、上述した(a)、(b)の手法のうちの(b)の手法を採用している。しかしながら、(a)の手法を用いることも可能である。ただし、上述したように、(b)の手法を用いた方が、精度良く3次元位置の再計算を行うことができる。
Claims (6)
- 同じサイクルかつ互いに異なるタイミングで画像を取り込む第1、第2のカメラ(C1、C2)と、
前記第1のカメラ(C1)が取り込んだ画像を取得し、その画像に存在する物体(2)の前記第1のカメラ(C1)の画像上での座標となる画像座標((u1 t,v1 t))を求める第1画像取得部(3a)と、
前記第2のカメラ(C2)が取り込んだ画像を取得し、その画像に存在する物体(2)の前記第2のカメラ(C2)の画像上での座標となる画像座標((u2 t,v2 t))を求める第2画像取得部(3b)と、
前記第1、第2画像取得部(3a、3b)で求められた画像座標((u1 t,v1 t)、(u2 t,v2 t))に基づいて、前記物体(2)の3次元位置を求める演算部(3c)とを有してなる3次元位置計測システムであって、
前記演算部(3c)は、
前記第1、第2のカメラ(C1、C2)から最新フレームの画像を取り込んだ方のカメラを選択し、選択されたカメラ(C1)において前記最新フレームの画像が取り込まれたタイミング(t)の1サイクル前のタイミング(t−1)を2フレーム前のタイミングとして、そのタイミング(t−1)での前記物体(2)の3次元位置(Pt−1)を2フレーム前の3次元位置とし、
前記選択されたカメラ(C1)とは異なる選択されていないカメラ(C2)により、前記最新フレームが取り込まれたタイミング(t)とその1サイクル前のタイミング(t−1)との間に画像が取り込まれたときのタイミング(t’−1)を1フレーム前のタイミングとして、そのタイミング(t’−1)での前記物体(2)の3次元位置(Pt’−1)を1フレーム前の3次元位置とし、
前記2フレーム前および前記1フレーム前の3次元位置(Pt−1、Pt’−1)から最新フレームの画像が取り込まれたタイミング(t)での前記物体(2)の仮の3次元位置となる第1の予測位置(P* t)を求めると共に、
前記選択されたカメラ(C1)の位置と該選択されたカメラ(C1)からの画像に基づいて、前記第1画像取得部(3a)で求められた前記画像座標((u1 t,v1 t))とを通過する直線(l1 t)を求め、
前記直線(l1 t)上の点のうち、前記第1の予測位置(P* t)から最短距離の点を、前記物体(2)の3次元位置とするようになっていることを特徴とする3次元位置計測システム。 - 前記2フレーム前の3次元位置は、前記選択されていないカメラ(C2)が前記2フレーム前のタイミング(t−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t−1)における前記選択されていないカメラ(C2)の画像上での前記画像座標((u2* t−1,v2* t−1))を求め、その画像座標((u2* t−1,v2* t−1))と、このタイミング(t−1)において前記選択されたカメラ(C1)の画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u1 t−1,v1 t−1))とから求められるようになっており、
前記1フレーム前の3次元位置は、前記選択されたカメラ(C1)が前記1フレーム前のタイミング(t’−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t’−1)における前記選択されたカメラ(C1)の画像上での前記画像座標((u1* t’−1,v1* t’−1))を求め、その画像座標((u1* t’−1,v1* t’−1))と、このタイミング(t’−1)において前記選択されていないカメラ(C2)の画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u2 t’−1,v2 t’−1))とから求められるようになっていることを特徴とする請求項1に記載の3次元位置計測システム。 - 前記2フレーム前のタイミング(t−1)における前記選択されていないカメラ(C2)の画像上での前記画像座標((u2* t−1,v2* t−1))は、前記1フレーム前のタイミング(t’−1)に前記選択されていないカメラ(C2)が取り込んだ画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u2 t’−1,v2 t’−1))と、そのタイミング(t’−1)よりも1サイクル前のタイミング(t’−2)に前記選択されていないカメラ(C2)が取り込んだ画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u2 t’−2,v2 t’−2))とを、これら各タイミング(t’−1、t’−2)と前記2フレーム前のタイミング(t−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって求められ、
前記1フレーム前のタイミング(t’−1)における前記選択されたカメラ(C1)の画像上での前記画像座標((u1* t’−1,v1* t’−1))は、前記最新フレームの画像が取り込まれたタイミング(t)にその画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u1 t,v1 t))と、そのタイミング(t)よりも1サイクル前のタイミング(t−1)に前記選択されたカメラ(C1)が取り込んだ画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u1 t−1,v1 t−1))とを、これら各タイミング(t、t−1)と前記2フレーム前のタイミング(t’−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって求められるようになっていることを特徴とする請求項2に記載の3次元位置計測システム。 - 第1、第2のカメラ(C1、C2)により、同じサイクルかつ互いに異なるタイミングで画像を取り込み、
前記第1のカメラ(C1)が取り込んだ画像に基づき、その画像に存在する物体(2)の該画像上での座標となる画像座標((u1 t,v1 t))を求めると共に、
前記第2のカメラ(C2)が取り込んだ画像に基づき、その画像に存在する物体(2)の該画像上での座標となる画像座標((u2 t,v2 t))を求め、
前記第1、第2のカメラ(C1、C2)それぞれの画像から求められた画像座標((u1 t,v1 t)、(u2 t,v2 t))に基づいて、前記物体(2)の3次元位置を求める3次元位置計測方法であって、
前記第1、第2のカメラ(C1、C2)から最新フレームの画像を取り込んだ方のカメラを選択し、選択されたカメラ(C1)において前記最新フレームの画像が取り込まれたタイミング(t)の1サイクル前のタイミング(t−1)を2フレーム前のタイミングとして、そのタイミング(t−1)での前記物体(2)の3次元位置(Pt−1)を2フレーム前の3次元位置とし、
前記選択されたカメラ(C1)とは異なる選択されていないカメラ(C2)により、前記最新フレームが取り込まれたタイミング(t)とその1サイクル前のタイミング(t−1)との間に画像が取り込まれたときのタイミング(t’−1)を1フレーム前のタイミングとして、そのタイミング(t’−1)での前記物体(2)の3次元位置(Pt’−1)を1フレーム前の3次元位置とし、
前記2フレーム前および前記1フレーム前の3次元位置(Pt−1、Pt’−1)から最新フレームの画像が取り込まれたタイミング(t)での前記物体(2)の仮の3次元位置となる第1の予測位置(P* t)を求めると共に、
前記選択されたカメラ(C1)の位置と該選択されたカメラ(C1)からの画像に基づいて、前記第1画像取得部(3a)で求められた前記画像座標((u1 t,v1 t))とを通過する直線(l1 t)を求め、
前記直線(l1 t)上の点のうち、前記第1の予測位置(P* t)から最短距離の点を、前記物体(2)の3次元位置とすることを特徴とする3次元位置計測方法。 - 前記選択されていないカメラ(C2)が前記2フレーム前のタイミング(t−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t−1)における前記選択されていないカメラ(C2)の画像上での前記画像座標((u2* t−1,v2* t−1))を求め、その画像座標((u2* t−1,v2* t−1))と、このタイミング(t−1)において前記選択されたカメラ(C1)の画像に基づいて求められた前記画像座標((u1 t−1,v1 t−1))とから前記2フレーム前の3次元位置を求め、
前記選択されたカメラ(C1)が前記1フレーム前のタイミング(t’−1)で画像の取り込みを行ったと想定した場合に、そのタイミング(t’−1)における前記選択されたカメラ(C1)の画像上での前記画像座標((u1* t’−1,v1* t’−1))を求め、その画像座標((u1* t’−1,v1* t’−1))と、このタイミング(t’−1)において前記選択されていないカメラ(C2)の画像に基づいて求められた前記画像座標((u2 t’−1,v2 t’−1))とから前記1フレーム前の3次元位置を求めることを特徴とする請求項3に記載の3次元位置計測方法。 - 前記1フレーム前のタイミング(t’−1)に前記選択されていないカメラ(C2)が取り込んだ画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u2 t’−1,v2 t’−1))と、そのタイミング(t’−1)よりも1サイクル前のタイミング(t’−2)に前記選択されていないカメラ(C2)が取り込んだ画像に基づいて前記第2画像取得部(3b)で求められた前記画像座標((u2 t’−2,v2 t’−2))とを、これら各タイミング(t’−1、t’−2)と前記2フレーム前のタイミング(t−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって、前記2フレーム前のタイミング(t−1)における前記選択されていないカメラ(C2)の画像上での前記画像座標((u2* t−1,v2* t−1))を求め、
前記最新フレームの画像が取り込まれたタイミング(t)にその画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u1 t,v1 t))と、そのタイミング(t)よりも1サイクル前のタイミング(t−1)に前記選択されたカメラ(C1)が取り込んだ画像に基づいて前記第1画像取得部(3a)で求められた前記画像座標((u1 t−1,v1 t−1))とを、これら各タイミング(t、t−1)と前記2フレーム前のタイミング(t’−1)との時間ずれ(δ12、δ21)に基づいて内挿演算することによって、前記1フレーム前のタイミング(t’−1)における前記選択されたカメラ(C1)の画像上での前記画像座標((u1* t’−1,v1* t’−1))を求めることを特徴とする請求項5に記載の3次元位置計測方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003335637A JP3900353B2 (ja) | 2003-09-26 | 2003-09-26 | 3次元位置計測システムおよび3次元位置計測方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003335637A JP3900353B2 (ja) | 2003-09-26 | 2003-09-26 | 3次元位置計測システムおよび3次元位置計測方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005100278A JP2005100278A (ja) | 2005-04-14 |
JP3900353B2 true JP3900353B2 (ja) | 2007-04-04 |
Family
ID=34462971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003335637A Expired - Lifetime JP3900353B2 (ja) | 2003-09-26 | 2003-09-26 | 3次元位置計測システムおよび3次元位置計測方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3900353B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101793967B (zh) * | 2010-03-08 | 2013-03-13 | 北京林业大学 | 一种利用gps rtk实现不可到达点二维定位技术 |
JP6022834B2 (ja) | 2012-07-13 | 2016-11-09 | 株式会社日本自動車部品総合研究所 | 位置検出装置、および位置検出プログラム |
JP2023021833A (ja) * | 2021-08-02 | 2023-02-14 | 日立Astemo株式会社 | マルチカメラ装置 |
-
2003
- 2003-09-26 JP JP2003335637A patent/JP3900353B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2005100278A (ja) | 2005-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9965870B2 (en) | Camera calibration method using a calibration target | |
US10636151B2 (en) | Method for estimating the speed of movement of a camera | |
RU2668404C2 (ru) | Устройство для записи изображения в трехмерном масштабе, способ создания 3D-изображения и способ формирования устройства для записи изображения в трехмерном масштабе | |
US10404967B2 (en) | Optical 3-D sensor for fast and dense shape capture | |
US11082633B2 (en) | Method of estimating the speed of displacement of a camera | |
KR102397343B1 (ko) | 비디오에서 가상 오브젝트를 블러링하기 위한 방법 및 디바이스 | |
JP6170281B2 (ja) | 三次元計測装置、三次元計測装置の制御方法、およびプログラム | |
US10545215B2 (en) | 4D camera tracking and optical stabilization | |
CN107750372B (zh) | 一种场景三维重建的方法、装置及计算机可读介质 | |
JP2002024807A (ja) | 物体運動追跡手法及び記録媒体 | |
CN110163898A (zh) | 一种深度信息配准方法及装置 | |
US20200007843A1 (en) | Spatiotemporal calibration of rgb-d and displacement sensors | |
CN104471436B (zh) | 用于计算对象的成像比例的变化的方法和设备 | |
JP3900353B2 (ja) | 3次元位置計測システムおよび3次元位置計測方法 | |
JP2003006618A (ja) | 3次元モデルの生成方法および装置並びにコンピュータプログラム | |
JP2001324313A (ja) | 三次元形状計測装置 | |
JP2001245323A (ja) | 3次元入力方法および装置 | |
JP3093409B2 (ja) | 3次元計測装置 | |
JP2511082B2 (ja) | 移動物体の三次元位置測定装置 | |
JP7364726B2 (ja) | 物体の画像を形成する方法、コンピュータプログラム製品、及びその方法を実行するための画像形成システム | |
JP6340113B2 (ja) | 計測装置及びそのプログラム | |
JP2018032144A (ja) | 画像処理装置、画像処理方法およびプログラム。 | |
JP6192157B2 (ja) | 計測装置及びそのプログラム | |
JPS6228402B2 (ja) | ||
CN115731304A (zh) | 一种道路数据生成方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060905 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061220 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |