JP2611173B2 - Positioning method and device using fisheye lens - Google Patents

Positioning method and device using fisheye lens

Info

Publication number
JP2611173B2
JP2611173B2 JP4177394A JP17739492A JP2611173B2 JP 2611173 B2 JP2611173 B2 JP 2611173B2 JP 4177394 A JP4177394 A JP 4177394A JP 17739492 A JP17739492 A JP 17739492A JP 2611173 B2 JP2611173 B2 JP 2611173B2
Authority
JP
Japan
Prior art keywords
target
moving
fish
fisheye
targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP4177394A
Other languages
Japanese (ja)
Other versions
JPH06167564A (en
Inventor
塩見格一
Original Assignee
運輸省船舶技術研究所長
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 運輸省船舶技術研究所長 filed Critical 運輸省船舶技術研究所長
Priority to JP4177394A priority Critical patent/JP2611173B2/en
Publication of JPH06167564A publication Critical patent/JPH06167564A/en
Application granted granted Critical
Publication of JP2611173B2 publication Critical patent/JP2611173B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は,魚眼レンズを用いて
複数の移動目標物の3次元測位情報を得ることが出来る
測位方法およびその装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a positioning method and apparatus for obtaining three-dimensional positioning information of a plurality of moving targets using a fisheye lens.

【0002】[0002]

【従来の技術】現状の画像情報に基づく測位装置におい
ては,目標物を通常2台の望遠レンズを有するカメラで
追尾するもので,この方式においては,目標物が各カメ
ラの視野の中心に得られるようにカメラの方向(レンズ
の光軸方向)を調整し,2台のカメラの設置位置と光軸
の角度情報から,三角法により目標物の位置を算出して
いる。そのため,2台のカメラを目標物に正確に向ける
ためのサ−ボ系を含む調整装置,及び,カメラの光軸方
向を正確に測定する測角装置が必要である。
2. Description of the Related Art In a positioning device based on current image information, a target is usually tracked by a camera having two telephoto lenses. In this method, the target is obtained at the center of the field of view of each camera. The direction of the camera (the direction of the optical axis of the lens) is adjusted so that the position of the target is calculated by triangulation from the installation positions of the two cameras and the angle information of the optical axes. Therefore, an adjusting device including a servo system for accurately pointing the two cameras to the target and an angle measuring device for accurately measuring the optical axis direction of the cameras are required.

【0003】[0003]

【発明が解決しようとする問題点】このように,通常の
カメラで目標を追尾する場合には,サ−ボ系および測角
系ともに高い応答性が要求される。しかし,目標物の移
動速度が速い場合には,現状の技術では充分追尾しつ
つ、同時に測位することはかなり困難である。その上,
このような方式では,1台の装置では1個の目標物しか
追尾することが出来ず,2個以上の複数の目標物を追尾
するには,システムとしてその目標物の数だけの装置が
必要である。このように,1台の装置では同時に複数の
目標物を追尾することができなかった。
As described above, when tracking a target with an ordinary camera, high response is required for both the servo system and the angle measurement system. However, when the moving speed of the target is high, it is very difficult to perform positioning while simultaneously tracking with the current technology. Moreover,
In such a system, one device can track only one target, and tracking two or more targets requires the same number of devices as the system as a system. . Thus, a single device cannot track a plurality of targets at the same time.

【0004】[0004]

【問題点を解決するための手段】第1の発明は,任意に
システム座標系を与え,このシステム座標系に存在する
移動目標物を捉える複数の魚眼レンズに対し個々に光軸
を決定し,各魚眼レンズを用いた複数の撮像装置により
与えられる各魚眼画像から,それぞれこの魚眼画像上に
存在する移動目標物を検出し,システム座標系における
この移動目標物と撮像装置の視界面中心とを通る直線方
程式を,撮像装置の個数に対応する数だけそれぞれ求
め,この複数の直線方程式を1組とする直線方程式群を
検出された各移動目標物についてそれぞれ求め,各移動
目標物にそれぞれ対応する直線方程式群の交点を,各移
動目標物毎に求め,システム座標系における各移動目標
物の3次元位置座標を決定するようにしたものである。
さらに,第2の発明は,各移動目標物の時刻に対する位
置データを,その測定時刻とともにメモリに記憶し,こ
のメモリに記憶されている位置データを,各移動目標物
毎にトラッキング処理してそれぞれ移動目標物の航跡を
求めるようにしたものである。さらに,第3の発明は,
移動目標物を捉える複数の魚眼レンズと,この魚眼レン
ズにより得られる魚眼画像を撮像する撮像装置と,この
撮像装置により撮像された魚眼画像を画像処理して移動
目標物を検出する画像処理部と,各魚眼レンズの光軸と
システム座標系とにより,移動目標物と撮像装置の視界
面中心とを通る直線方程式を撮像装置の個数に対応する
数だけ算出してこれを1組とする直線方程式群を各移動
目標物毎に算出し,各移動目標物にそれぞれ対応する直
線方程式群の交点を各移動目標物毎に算出して,移動目
標物の3次元位置座標を算出する演算部と,この演算部
で算出された各移動目標物の3次元位置座標を記憶する
メモリと,このメモリに記憶されている各移動目標物の
3次元位置座標を,モニタ画面上に3次元表示するため
のデータ処理装置と,移動目標物の3次元位置座標を表
示する表示装置とからなるものである。さらに,第4の
発明は,メモリに記憶されている前記各移動目標物の3
次元位置座標をトラッキング処理して,この各移動目標
物の航跡を決定するトラッキング処理部と,各移動目標
物の航跡をモニタ画面上に3次元表示するためのデータ
処理装置と,移動目標物の航跡を表示する表示装置とか
らなるものである。
Means for Solving the Problems In the first invention, a system coordinate system is arbitrarily provided, and optical axes are individually determined for a plurality of fisheye lenses which capture a moving target existing in the system coordinate system. From each fish-eye image provided by a plurality of imaging devices using a fish-eye lens, a moving target existing on the fish-eye image is detected, and the moving target and the visual interface center of the imaging device in the system coordinate system are detected. The number of straight line equations that pass is determined by the number corresponding to the number of imaging devices, and a group of straight line equations, which is a set of the plurality of linear equations, is determined for each detected moving target, and each linear target corresponds to each moving target. The intersection of the linear equation group is determined for each moving target, and the three-dimensional position coordinates of each moving target in the system coordinate system are determined.
Further, in the second invention, the position data of each moving target object with respect to the time is stored in a memory together with the measurement time, and the position data stored in the memory is subjected to tracking processing for each moving target object. The trajectory of a moving target is obtained. Further, the third invention is:
A plurality of fish-eye lenses for capturing a moving target, an imaging device for capturing a fish-eye image obtained by the fish-eye lens, and an image processing unit for performing image processing on the fish-eye image captured by the imaging device to detect the moving target. A set of straight-line equations passing through the moving target and the center of the visual interface of the imaging device corresponding to the number of imaging devices based on the optical axis of each fish-eye lens and the system coordinate system; Calculating for each moving target, calculating the intersection of the linear equation group corresponding to each moving target for each moving target, and calculating the three-dimensional position coordinates of the moving target. A memory for storing the three-dimensional position coordinates of each moving target calculated by the arithmetic unit, and data for displaying the three-dimensional position coordinates of each moving target stored in this memory in three dimensions on a monitor screen Processing equipment , It is made of a display device for displaying a three-dimensional position coordinates of the moving target. Further, in the fourth invention, each of the moving targets stored in the memory is stored in a memory.
A tracking processing unit that performs tracking processing of the three-dimensional position coordinates to determine the trajectory of each moving target; a data processing device that displays the trajectory of each moving target three-dimensionally on a monitor screen; And a display device for displaying the wake.

【0005】[0005]

【作用】魚眼画像でとらえた移動目標物(以下,単に目
標物と記す)について,魚眼レンズを用いた撮像装置の
個数に対応する数の直線方程式を1組とした直線方程式
群を,各目標物に対応する数だけ求めるとともに,この
直線方程式群の交点を各目標物毎に求め,この交点の3
次元位置座標を求めて目標物の測位情報が得られる。
With respect to a moving target object (hereinafter, simply referred to as a target object) captured in a fisheye image, a set of linear equations corresponding to the number of imaging devices using a fisheye lens is defined as a set of linear equations. In addition to obtaining the number corresponding to the object, the intersection of this group of linear equations is determined for each target, and
The position information of the target is obtained by obtaining the dimensional position coordinates.

【0006】[0006]

【発明の実施例】この発明の実施例を,図1〜図7に基
づいて詳細に説明する。図1はこの発明の要部構成図,
図2は視野角180°の魚眼レンズによる魚眼画像,図
3は3個の魚眼レンズによる魚眼画像と測位情報,図4
は測位のための説明図,図5〜図7は魚眼レンズの配置
例を示す説明図である。図1〜図3において,1は魚眼
レンズで,CCD等の光電変換素子2と組み合わされて
撮像装置3が構成されており,この実施例では,3台の
撮像装置3a,3b,3cが用いられている。魚眼レン
ズ1を用いた撮像装置3を設置することにより,図2,
図3に示すように,光軸L(La ,Lb ,Lc )が決定
される。又,システムのシステム座標系(X,Y,Z)
は,魚眼レンズ1を設置した時に任意に決定される。従
って,3台の撮像装置3a ,3b ,3c で撮像されたそ
れぞれ魚眼画像4a ,4b ,4c のシステム座標は,図
3に示すように,それぞれ(Xa ,Ya ,Za ),(X
b ,Yb ,Zb ),(Xc ,Yc ,Zc )で与えられ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail with reference to FIGS. FIG. 1 is a configuration diagram of a main part of the present invention
FIG. 2 is a fisheye image with a fisheye lens having a viewing angle of 180 °, FIG. 3 is a fisheye image with three fisheye lenses and positioning information, FIG.
Is an explanatory diagram for positioning, and FIGS. 5 to 7 are explanatory diagrams showing examples of the arrangement of fisheye lenses. 1 to 3, reference numeral 1 denotes a fish-eye lens, which is combined with a photoelectric conversion element 2 such as a CCD to constitute an imaging device 3. In this embodiment, three imaging devices 3a, 3b, and 3c are used. ing. By installing the imaging device 3 using the fisheye lens 1, FIG.
As shown in FIG. 3, the optical axis L (L a , L b , L c ) is determined. Also, the system coordinate system (X, Y, Z) of the system
Is arbitrarily determined when the fisheye lens 1 is installed. Therefore, three image pickup device 3 a, 3 b, 3 respectively captured by the c fisheye image 4 a, 4 b, 4 system coordinates c, as shown in FIG. 3, respectively (X a, Y a , Z a ), (X
b, Y b, Z b) , is given by (X c, Y c, Z c).

【0007】5はインタフェースで,撮像装置3で撮像
された魚眼画像4を画像処理するためにデジタル変換し
ている。6は画像処理部で,魚眼画像4内にある移動し
ている目標物T,T,T・・・が画像処理されて
検出される。7は演算部で,システム座標系(X,Y,
Z)上の魚眼レンズ1の光軸Lにより3本の直線方程式
が求められる。例えば,目標物Tと各撮像装置3
,3との視界面中心とを通る3本の直線方程式が
それぞれ求められる。即ち,魚眼レンズ1の個数に対応
する数の直線方程式を1組(この実施例では,3本の直
線方程式で1組)とする直線方程式群が各目標物T
,T・・・についてそれぞれ求められ,この直線
方程式群の交点から,3次元位置座標が算出される。8
はメモリ,9はトラッキング処理部で,魚眼画像4を逐
次トラッキング処理して,目標物T,T,T・・
の航跡が決定される。10は画像出力のためのデータ処
理装置で,目標物T,T,T・・・の航跡をビデ
オ信号に変換して,表示装置11のモニタ画面上に3次
元表示するための画像データ処理が行われる。12は記
録部で,撮像装置2で撮像された魚眼画像4が一時記録
される。
Reference numeral 5 denotes an interface for digitally converting the fisheye image 4 picked up by the image pickup device 3 for image processing. Reference numeral 6 denotes an image processing unit, which detects moving targets T 1 , T 2 , T 3 ... In the fish-eye image 4 by image processing. Reference numeral 7 denotes a calculation unit, which is a system coordinate system (X, Y,
Z) Three linear equations are obtained from the optical axis L of the fisheye lens 1 above. For example, the target T 1 and the imaging devices 3 a,
3 b, 3 3 straight lines equation passing through the field of view plane centers of the c are obtained, respectively. That is, a set of linear equations in which one set of linear equations corresponding to the number of fish-eye lenses 1 (in this embodiment, one set of three linear equations) is used for each target T 1 ,
Are obtained for T 2 , T 3, ..., Respectively, and three-dimensional position coordinates are calculated from the intersections of the linear equation groups. 8
Is a memory, and 9 is a tracking processing unit, which sequentially performs tracking processing on the fisheye image 4 to obtain target objects T 1 , T 2 , T 3 ,.
Wake is determined. Reference numeral 10 denotes a data processing device for outputting an image, which converts a track of the target object T 1 , T 2 , T 3 ,. Data processing is performed. A recording unit 12 temporarily stores the fisheye image 4 captured by the imaging device 2.

【0008】次に,測位原理について説明する。図2に
示すように,一般に,魚眼レンズ1の視野角は180°
であるとともに,光軸Lは画像面の中心を通る垂線であ
り,このシステム座標系における直線方程式は,魚眼レ
ンズ1(魚眼レンズ1を用いた撮像装置3を示す)の設
置場所により決定される。視野角180°の魚眼レンズ
1で作られる魚眼画像4は円形であり,魚眼レンズ1の
前方に存在する目標物T1 ,T2 ,T3 ・・を見た時の
魚眼画像4の中心Oは,魚眼レンズ1の真正面(光軸L
方向)を示し,左右方向A,B点はそれぞれ魚眼レンズ
1の左右方向90°の点,上下方向のC,D点は魚眼レ
ンズ1の真上と真下を示している。なお,システム座標
系(X,Y,Z)は,魚眼レンズ1を設置した時に任意
に決定される。又,魚眼レンズ1で目標物T1 ,T2
3 ・・を見た場合,中心Oから離れるにつれて目標物
1 ,T2 ,T3 ・・・の形状は魚眼画像4の円周に沿
って歪むため,目標物T1 ,T2 ,T3 ・・・を形状で
認識することは困難である。そこで,本発明者は,航空
機等の目標物T1 ,T2 ,T3 ・・・を認識する手段と
して,航空機の尾翼に点滅する光点(ストロボ)を目標
物T1 ,T2 ,T3・・・として定めた。目標物T1
2 ,T3 ・・・が点状である場合には,その目標物T
が魚眼画像4の円周方向にあっても歪むことはない。
Next, the principle of positioning will be described. As shown in FIG. 2, the viewing angle of the fisheye lens 1 is generally 180 °.
And the optical axis L is a perpendicular line passing through the center of the image plane, and the linear equation in this system coordinate system is determined by the installation location of the fisheye lens 1 (showing the imaging device 3 using the fisheye lens 1). The fish-eye image 4 formed by the fish-eye lens 1 having a viewing angle of 180 ° is circular, and the center O of the fish-eye image 4 when viewing the targets T 1 , T 2 , T 3 ,. Is directly in front of the fisheye lens 1 (optical axis L
Direction, and points A and B in the left-right direction indicate points at 90 ° in the left-right direction of the fisheye lens 1, and points C and D in the up-down direction indicate points directly above and below the fisheye lens 1, respectively. The system coordinate system (X, Y, Z) is arbitrarily determined when the fisheye lens 1 is installed. In addition, the target objects T 1 , T 2 ,
T 3 when viewed ..., the shape of the target T 1, T 2, T 3 ··· are distorted along the circumference of the fish-eye image 4 with distance from the center O, the target T 1, T 2 , T 3 ... Are difficult to recognize by their shapes. The present inventors, as a target T 1, T 2, T 3 recognizes ... means such as an aircraft, the target T 1 to point (strobe) to flashing tail of the aircraft, T 2, T 3 ... The target T 1 ,
If T 2 , T 3 ... Are point-like, the target T
Is not distorted even in the circumferential direction of the fisheye image 4.

【0009】そこで,目標物T1 ,T2 ,T3 ・・・の
形状を点(光点)に決定するとともに,図3において
は,点状目標物として目標物T1 ,T2 の2個存在する
と設定されている。従って,魚眼レンズ1をそれぞれ用
いた複数の撮像装置3(3a,3b,3c・・・)が与
える魚眼画像4(4a,4b,4c)中に,2個の目標
物T1 ,T2 が存在し,この目標物T1 ,T2 に共通す
る測位情報としては,撮像装置3の設置場所によってそ
れぞれ3個の撮像装置3a,3b,3cの設置座標(X
a ,Ya ,Za ),(Xb ,Yb ,Zb ),(Xc ,Y
c ,Zc )および3本の光軸方向La (θa ,ψa ),
b (θb ,ψb ),Lc (θc ,ψc )がそれぞれ決
定される。
[0009] Therefore, a target T 1, T 2, T 3 ··· shape and determines a point (spot), in FIG. 3, the target T 1, T 2 as a point-shaped target 2 Is set to exist. Thus, a plurality of imaging devices 3 using the fisheye lens 1 respectively (3a, 3b, 3c ···) gives fisheye image 4 (4a, 4b, 4c) in the two target T 1, T 2 is The positioning information that exists and is common to the target objects T 1 and T 2 includes the installation coordinates (X) of the three imaging devices 3a, 3b, and 3c, respectively, depending on the installation location of the imaging device 3.
a, Y a, Z a) , (X b, Y b, Z b), (X c, Y
c, Z c) and three optical axis L a (θ a, ψ a ),
L bb , ψ b ) and L cc , ψ c ) are respectively determined.

【0010】次に,目標物T1 に関する測位情報として
は,第1の撮像装置3aから見た時の目標物T1 の光軸
方向La (θa ,ψa )からの変位角(θa1,ψa1)と
第2の撮像装置3bから見た時の目標物T1 の光軸方向
b (θb ,ψb )からの変位角(θb1,ψb1)および
第3の撮像装置3cから見た時の目標物T1 の光軸方向
c (θc ,ψc )からの変位角(θc1,ψc1)が得ら
れる。同様に,目標物T2 に関する測位情報としては,
第1の撮像装置3aから見た時の目標物T2 の光軸方向
a (θa ,ψa )からの変位角(θa2,ψa2)と第2
の撮像装置3bから見た時の目標物T2 の光軸方向Lb
(θb ,ψb )からの変位角(θb2,ψb2)および第3
の撮像装置3cから見た時の目標物T2 の光軸方向Lc
(θc ,ψc )からの変位角(θc2,ψc2)が得られ
る。
[0010] Then, the positioning information regarding target T 1, the target T 1 of the optical axis L a (θ a, ψ a ) when viewed from the first image pickup device 3a displacement angle from (theta a1, ψ a1) and the second target T 1 of the when viewed from the imaging device 3b in the optical axis direction L b (θ b, ψ b ) displacement angle from (θ b1, ψ b1) and third imaging The displacement angle (θ c1 , ψ c1 ) from the optical axis direction L cc , ψ c ) of the target T 1 as viewed from the device 3c is obtained. Similarly, the positioning information regarding target T 2,
Target T 2 of the optical axis L a (θ a, ψ a ) when viewed from the first image pickup device 3a displacement angle from (θ a2, ψ a2) and second
The optical axis direction L b of the target T 2 as viewed from the imaging device 3b of FIG.
b, ψ b) displacement angle from (θ b2, ψ b2) and third
The optical axis direction L c of the target T 2 as viewed from the imaging device 3c of FIG.
c, ψ c) displacement angle from (θ c2, ψ c2) is obtained.

【0011】このように,システム座標系において,魚
眼レンズ1の光軸Lの直線方程式(設置位置と光軸方向
Lによる)と,この魚眼画像4上に識別された目標物T
1 ,T2 の位置デ−タから,1個の魚眼レンズ1により
得られた魚眼画像4について,この魚眼画像4上の全て
の目標物T1 ,T2 ・・・と撮像装置3とを結ぶ三次元
空間における直線方程式が与えられる。そこで,図1,
図4に示すように,互いに異なる3箇所に設置された3
台の撮像装置3(3a,3b,3c)によりそれぞれ得
られる3個の魚眼画像4(4a,4b ,4c )上に2個
の目標物T1 ,T2 が存在する場合,目標物T(T1
2 )の位置を画像情報から読み取れば,1個の目標物
1 とそれぞれ3台の撮像装置3a,3b,3cの視界
面中心とをそれぞれ結ぶ3本の直線方程式f1a,f1b
1cが得られる。目標物T2 についても同様に,目標物
2 と3台の撮像装置3a ,3b ,3cの視界面中心と
をそれぞれ結ぶ3本の直線方程式f2a,f2b,f2cが得
られる。このように,撮像装置3の個数に対応する数の
直線方程式を1組とする直線方程式群が各目標物T1
2 毎に,即ち,2組得られる。このようにして得られ
た1組の直線方程式群の与える撮像装置3の個数に対応
する数の直線が1箇所に交わった交点に目標物Tが位置
しているので,この交点を算出すれば,この点が3次元
空間における目標物Tの位置座標を与える。
As described above, in the system coordinate system, the linear equation of the optical axis L of the fisheye lens 1 (depending on the installation position and the optical axis direction L) and the target T identified on the fisheye image 4
1, the position data of T 2 - from data for fisheye image 4 obtained by one of the fisheye lens 1, all of the target T 1, T 2 · · · and the imaging device 3 on the fisheye image 4 Is given by a linear equation in a three-dimensional space connecting. Therefore, FIG.
As shown in FIG.
When two targets T 1 , T 2 are present on three fish-eye images 4 (4 a , 4 b , 4 c ) respectively obtained by the three imaging devices 3 (3a, 3b, 3c), The target T (T 1 ,
If the position of T 2 ) is read from the image information, three linear equations f 1a , f 1b , connecting one target T 1 and the visual interface centers of the three imaging devices 3a, 3b, 3c respectively.
f 1c is obtained. Similarly, the target T 2, target T 2 and three image pickup device 3 a, 3 b, 3 c visibility surface center and the three straight lines equation f 2a connecting respectively, f 2b, f 2c is obtained Can be As described above, a set of linear equations having a set of linear equations corresponding to the number of the imaging devices 3 corresponds to each target T 1 ,
Every T 2, that is, the two sets are obtained. Since the target T is located at the intersection where the number of straight lines corresponding to the number of the imaging devices 3 given by the set of straight line equations obtained in this way intersects one place, if this intersection is calculated , This point gives the position coordinates of the target T in the three-dimensional space.

【0012】次に,上記,測位原理に基づいて,実際に
目標物Tの測位情報を得るための測位装置の動作につい
て,第1図,第5図に基づいて説明する。まず,目標物
Tが複数存在する場合について,完全に偽像をなくすた
めには,それぞれの目標物Tは少なくとも3台の撮像装
置3の視野に捉えられなくてはならない。そこで,3台
の撮像装置3(3a,3b,3c)のそれぞれ前方18
0°の視野内にある目標物Tを測位する場合には,図5
に示すように,この実施例では,3台の撮像装置3(3
a,3b,3c)は,それぞれ同一平面上に光軸L(L
a,Lb ,Lc )が平行となるように設置される。但
し,魚眼レンズ1の角度分解能は光軸方向Lが最大であ
り,これから離れるに従って低下する。又,目標物Tが
撮像装置3の設置平面上の2台の撮像装置3を結ぶ直線
上にある場合には,合わせて偽造が発生する可能性があ
る。
Next, the operation of the positioning device for actually obtaining the positioning information of the target T based on the positioning principle will be described with reference to FIGS. First, in the case where there are a plurality of targets T, each target T must be captured in the field of view of at least three imaging devices 3 in order to completely eliminate false images. Therefore, each of the three imaging devices 3 (3a, 3b, 3c) has
When positioning the target T in the 0 ° field of view, FIG.
As shown in FIG. 2, in this embodiment, three imaging devices 3 (3
a, 3b, 3c) are respectively on the same plane with the optical axis L (L
a , Lb , Lc ) are set in parallel. However, the angle resolution of the fisheye lens 1 is maximum in the optical axis direction L, and decreases as the distance from the direction increases. In addition, when the target T is on a straight line connecting the two imaging devices 3 on the installation plane of the imaging device 3, counterfeiting may occur.

【0013】従って,目標物Tを測位する時には,どの
領域をどの程度の精度で測位するかと言った目的に合わ
せ撮像装置3の配置を適正化する必要がある。例えば,
180°の視野角を必要としない場合には,図6に示す
ように,3台の撮像装置3の光軸La ,Lb ,Lc が前
方で交わるように設置することにより,第2の撮像装置
3bの真正面の測位精度を低下させ,図5に示す場合よ
りも広い前方領域の左右方向における測位精度を向上さ
せることが可能である。又,図7に示すように,撮像装
置3aを中心にして,上下左右方向に合計で5個の撮像
装置3b,3c,3d,3eを立体的に配置すれば,上
下方向においても同様により広い領域に対する測位精度
を向上させることができる。さらに,180°以上の視
野角が必要な場合には,撮像装置3を正6面体や正12
面体のように立体的に配置することにより,又,測位精
度についても同様に組み合わせた撮像装置群を複数用い
ることにより向上させることが出来る。即ち,魚眼レン
ズ1(撮像装置3)の位置関係と個数とにより測位領域
が決定される。
Therefore, when positioning the target T, it is necessary to optimize the arrangement of the image pickup device 3 in accordance with the purpose such as which area is to be positioned with high accuracy. For example,
When a viewing angle of 180 ° is not required, as shown in FIG. 6, the three imaging devices 3 are installed such that the optical axes L a , L b , and L c intersect at the front, so that the second imaging device 3 can be used. It is possible to reduce the positioning accuracy in front of the imaging device 3b, and to improve the positioning accuracy in the left-right direction of a wider front area than the case shown in FIG. Also, as shown in FIG. 7, if a total of five imaging devices 3b, 3c, 3d, 3e are arranged three-dimensionally in the vertical and horizontal directions with the imaging device 3a as the center, the vertical direction is also wider. The positioning accuracy for the area can be improved. Further, when a viewing angle of 180 ° or more is required, the imaging device 3 may be replaced with a regular hexahedron or regular 12
It is possible to improve the positioning accuracy by arranging it three-dimensionally like a planar body, and also by using a plurality of image pickup devices combined in a similar manner. That is, the positioning area is determined based on the positional relationship and the number of the fisheye lenses 1 (imaging device 3).

【0014】又,魚眼レンズ1の作る視野像が充分大き
い場合には,光電変換素子2(以下,CCD2と記す)
の素子数として40万素子や時には100万素子以上の
ものが使用も可能であり,CCD2の素子数を増加して
分解能の向上を計り,撮像装置の使用台数を少なくして
測位精度を良くすることも可能である。以上のような要
件が検討されるとともに,測位視野角,測位領域,測位
精度等から,魚眼レンズ1を用いた撮像装置3の個数お
よび配置が決定される。撮像装置3の配置が決定される
と,それぞれの魚眼レンズ1の光軸Lが決定される。即
ち,魚眼レンズ1の法線方向が光軸Lである。それとと
もに,このシステム座標系における3次元の直線方程式
としての記述がなされる。
If the field-of-view image produced by the fisheye lens 1 is sufficiently large, the photoelectric conversion element 2 (hereinafter referred to as CCD 2)
It is possible to use 400,000 elements or more than one million elements as the number of elements of the CCD 2. The number of elements of the CCD 2 is increased to improve the resolution, and the number of imaging devices used is reduced to improve the positioning accuracy. It is also possible. The requirements as described above are examined, and the number and arrangement of the imaging devices 3 using the fisheye lens 1 are determined from the positioning viewing angle, the positioning area, the positioning accuracy, and the like. When the arrangement of the imaging devices 3 is determined, the optical axis L of each fisheye lens 1 is determined. That is, the normal direction of the fisheye lens 1 is the optical axis L. At the same time, a description is made as a three-dimensional linear equation in the system coordinate system.

【0015】次に,3台の撮像装置3(3a,3b,3
c)からは,図3に示すように,それぞれ3つの魚眼画
像4(4a ,4b ,4c )が得られる。この魚眼画像4
はCCD2によりそれぞれ光電変換されてビデオ信号に
変換される。なお,目標物Tの測位情報を実時間で求め
る必要がない場合,例えば,航跡等を追尾する場合に
は,このビデオ信号は記録部12に一時記憶され,後に
画像処理部6で処理される。CCD2における各魚眼画
像4のビデオ信号は,インタフェ−ス5を介してデジタ
ル信号に変換され,画像処理部6に入力される。画像処
理部6においては,目標物Tを検出するための画像処理
がなされ,各魚眼画像4に撮像された目標物Tが検出さ
れ,この目標物Tが光軸Lに対してどれだけずれている
上下角何度,左右角何度と検出され,その画像情報は,
(Xa1,Ya1),(Xa2,Ya2)・・・・,(Xb1,Y
b1),(Xb2,Yb2)・・・・,(Xc1,Yc1),(X
c2,Yc2)・・・のように2次元表示されて演算部7に
入力される。
Next, three imaging devices 3 (3a, 3b, 3
From c), three fisheye images 4 ( 4a , 4b , 4c ) are obtained as shown in FIG. This fisheye image 4
Are photoelectrically converted by the CCD 2 into video signals. When it is not necessary to obtain the positioning information of the target T in real time, for example, when tracking a wake or the like, this video signal is temporarily stored in the recording unit 12 and is later processed by the image processing unit 6. . The video signal of each fish-eye image 4 in the CCD 2 is converted into a digital signal via the interface 5 and input to the image processing unit 6. The image processing unit 6 performs image processing for detecting the target T, detects the target T captured in each fish-eye image 4, and shifts the target T with respect to the optical axis L. The number of vertical angles and the number of horizontal angles are detected, and the image information is
(X a1 , Y a1 ), (X a2 , Y a2 ) ... (X b1 , Y
b1 ), ( Xb2 , Yb2 ) ..., ( Xc1 , Yc1 ), (X
c2 , Y c2 ).

【0016】演算部7においては,システム座標系を基
準にして,光軸Lの方程式が決定されるとともに,この
光軸Lを通り,撮像装置3の視界面中心を示している魚
眼レンズ1の中心点O(X0 ,Y0 ,Z0 )を通って目
標物Tと交わる直線が求められる。この直線の方程式
は, (x−x0a)/αa =(y−y0a)/βa =(z−
0a)/γa (x−x0b)/αb =(y−y0b)/βb =(z−
0b)/γb (x−x0c)/αc =(y−y0c)/βc =(z−
0c)/γc で表される1組が3本の直線方程式からなる直線方程式
群が目標物Tの数だけ求められる。このようにして,魚
眼レンズ1の個数に対応する数の直線方程式を1組とす
る直線方程式群が,それぞれ目標物T(T1 ,T2 )の
2組求められる。次に,それぞれこの2組の直線方程式
群の交点が演算部7により算出され,交点のリストが得
られる。この交点のリストから,3個の同じ出力がある
点(魚眼レンズ1の個数に対応する数の同じ出力がある
点)のみが抽出され,この点が3本の直線方程式,即
ち,直線方程式群の交点を表し,この交点は目標物Tの
位置デ−タを与える。なお,魚眼レンズ1の個数が3個
の場合,偽像は2本の直線方程式の交点として発生し,
3本の直線方程式の交点には発生しない。従って,魚眼
レンズ1の数が多くなればなるほど偽像の発生する確率
は小さくなる。
The arithmetic unit 7 determines the equation of the optical axis L based on the system coordinate system, and passes through the optical axis L to indicate the center of the visual interface of the imaging device 3 of the fisheye lens 1. A straight line that passes through the point O (X 0 , Y 0 , Z 0 ) and intersects with the target T is obtained. Equation of this straight line, (x-x 0a) / α a = (y-y 0a) / β a = (z-
z 0a ) / γ a (xx 0b ) / α b = (y−y 0b ) / β b = (z−
z 0b ) / γ b (xx 0c ) / α c = (y−y 0c ) / β c = (z−
As many linear equation groups as one set represented by z 0c ) / γ c and three linear equations are obtained for the number of targets T. In this way, the linear equation group of a set of linear equations of the number corresponding to the number of fisheye 1 is, are respectively calculated two sets of the target T (T 1, T 2) . Next, the intersection of the two sets of straight-line equations is calculated by the calculation unit 7 to obtain a list of intersections. Only three points having the same output (points having the same number of outputs corresponding to the number of fisheye lenses 1) are extracted from the list of the intersections, and these points are defined as three linear equations, that is, a group of linear equations. The intersection represents the position data of the target T. When the number of fisheye lenses 1 is three, a false image is generated as an intersection of two linear equations,
It does not occur at the intersection of the three linear equations. Therefore, as the number of fisheye lenses 1 increases, the probability of occurrence of a false image decreases.

【0017】このようにして,直線方程式群を構成する
魚眼レンズ1の個数に対応する数の直線方程式の,同じ
く魚眼レンズ1の個数に対応する数の直線が1点で交わ
る交点の位置がシステム座標系における目標物の3次元
空間座標(Xn ,Yn ,Zn,tm )として算出され,
この値は,3次元位置座標を示している。但し,tは時
刻を示す。即ち,目標物Tの数がN個である場合には,
3台の撮像装置3から得られた3本の直線方程式を1組
とする直線方程式群がN組求められ,このN組の直線方
程式群が互いに交じわる箇所は,最大で(3N−1)!
箇所で交点を結ぶが,この内3本の直線の交わる交点
は,目標物Tの数に相当するN箇所だけである。例え
ば,測位する目標物Tの数が10個であるとすると,3
台の撮像装置3から得られた直線方程式は,29!箇所
の交点を結ぶが,この内,3本の直線方程式が交わる交
点(目標物Tが交点となる)は目標物Tの数に相当する
10箇所だけである。 で示される3次元位置座標が時刻t1 ,t2 ,t3 ・・
に対してそれぞれ求められ,この3次元位置座標はメモ
リ8に記憶される。
In this way, the position of the intersection of the linear equations of the number corresponding to the number of fisheye lenses 1 constituting the group of linear equations at one point also corresponds to the system coordinate system. Are calculated as the three-dimensional spatial coordinates (X n , Y n , Z n , t m ) of the target at
This value indicates three-dimensional position coordinates. Here, t indicates time. That is, when the number of the targets T is N,
N sets of linear equation groups each including three linear equations obtained from the three imaging devices 3 are obtained, and the N sets of linear equation groups intersect each other at a maximum of (3N−1). )!
The intersections are connected at points, and among these, the intersections at which three straight lines intersect are only N points corresponding to the number of the targets T. For example, if the number of targets T to be located is ten,
The linear equation obtained from the three imaging devices 3 is 29! The intersections of the points are connected. Of these, the intersections where the three linear equations intersect (the target T is the intersection) are only 10 points corresponding to the number of the targets T. Are three-dimensional position coordinates at times t 1 , t 2 , t 3.
, And the three-dimensional position coordinates are stored in the memory 8.

【0018】メモリ8に記憶されているデ−タは,トラ
ッキング処理部9において時刻t1,t2 ,t3 ・・・
についてトラッキング処理されて,即ち,各座標の軌跡
が求められて,上から見た画像の中に目標物Tの航跡が
得られる。この航跡は3次元測位された連続する時刻に
おける座標デ−タであるから,任意の空間座標系に対し
て,3次元的な軌跡として可視化処理が可能であり,デ
−タ処理装置10により,モニタ画面上に3次元表示す
るための処理がなされて,ビデオ信号に変換され,連続
的な像として表示装置11に表示され,管制官等により
知識処理される。
The data stored in the memory 8 is stored in a tracking processor 9 at times t 1 , t 2 , t 3.
Are tracked, that is, the trajectory of each coordinate is obtained, and the wake of the target T is obtained in the image viewed from above. Since this wake is coordinate data at consecutive times of three-dimensional positioning, it can be visualized as a three-dimensional trajectory with respect to an arbitrary spatial coordinate system. Processing for three-dimensional display on the monitor screen is performed, converted into a video signal, displayed on the display device 11 as a continuous image, and subjected to knowledge processing by a controller or the like.

【0019】[0019]

【発明の効果】この発明は,任意にシステム座標系を与
え,このシステム座標系に存在する移動目標物を捉える
複数の魚眼レンズに対し個々に光軸を決定し,各魚眼レ
ンズを用いた複数の撮像装置により与えられる各魚眼画
像から,それぞれこの魚眼画像上に存在する移動目標物
を検出し,システム座標系におけるこの移動目標物と撮
像装置の視界面中心とを通る直線方程式を,撮像装置の
個数に対応する数だけそれぞれ求め,この複数の直線方
程式を1組とする直線方程式群を検出された各移動目標
物についてそれぞれ求め,各移動目標物にそれぞれ対応
する直線方程式群の交点を,各移動目標物毎に求め,シ
ステム座標系における各移動目標物の3次元位置座標を
決定するようにしたので,ひとつのシステムで複数の移
動目標物を同時に測位し,その座標を決定することが出
来るとともに,追尾することが出来る。さらに,各移動
目標物の時刻に対する位置データを,その測定時刻とと
もにメモリに記憶し,このメモリに記憶されている位置
データを,各移動目標物毎にトラッキング処理してそれ
ぞれ移動目標物の航跡を求めるようにしたので,移動目
標物の航跡を解析することが出来る。
According to the present invention, a system coordinate system is arbitrarily provided, and optical axes are individually determined for a plurality of fish-eye lenses that capture a moving target existing in the system coordinate system, and a plurality of imaging using each fish-eye lens is performed. From each fish-eye image provided by the device, a moving target existing on the fish-eye image is detected, and a linear equation passing through the moving target in the system coordinate system and the center of the visual interface of the imaging device is calculated. Are obtained for each of the detected moving targets, and the intersections of the linear equations corresponding to each of the moving targets are determined by: Since three-dimensional position coordinates of each moving target in the system coordinate system are determined for each moving target, a plurality of moving targets can be simultaneously obtained by one system. Kuraishi, it is possible to determine the coordinates can be tracked. Further, the position data of each moving target with respect to the time is stored in a memory together with the measured time, and the position data stored in the memory is subjected to tracking processing for each moving target, and the wake of each moving target is tracked. Since it is determined, the wake of the moving target can be analyzed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例を示す構成図である。FIG. 1 is a configuration diagram showing an embodiment of the present invention.

【図2】魚眼レンズ1の与える魚眼画像である。FIG. 2 is a fisheye image provided by a fisheye lens 1;

【図3】この発明の実施例を示すもので,3個の魚眼レ
ンズ1の与える魚眼画像である。
3 shows an embodiment of the present invention and is a fisheye image provided by three fisheye lenses 1. FIG.

【図4】この発明の実施例を示す説明図である。FIG. 4 is an explanatory diagram showing an embodiment of the present invention.

【図5】この発明の実施例を示すもので,撮像装置の配
置例を示す図である。
FIG. 5, showing an embodiment of the present invention, is a diagram illustrating an example of arrangement of imaging devices.

【図6】この発明の実施例を示すもので,撮像装置の配
置例を示す図である。
FIG. 6, showing an embodiment of the present invention, is a diagram illustrating an example of arrangement of imaging devices.

【図7】この発明の実施例を示すもので,撮像装置の配
置例を示す図である。
FIG. 7 illustrates an embodiment of the present invention and is a diagram illustrating an example of arrangement of imaging devices.

【符号の説明】[Explanation of symbols]

1・・・魚眼レンズ 3・・・撮像装置 4・・・魚眼画像 5・・・インタフェース 6・・・画像処理部 7・・・演算部 8・・・メモリ 9・・・トラッキング処理部 10・・データ処理装置 11・・表示装置 12・・記録部 T・・・移動目標物 DESCRIPTION OF SYMBOLS 1 ... Fish-eye lens 3 ... Imaging device 4 ... Fish-eye image 5 ... Interface 6 ... Image processing part 7 ... Operation part 8 ... Memory 9 ... Tracking processing part 10. · Data processing device 11 · · · Display device 12 · · · Recording unit T · · · moving target

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 任意にシステム座標系を与え,このシス
テム座標系に存在する移動目標物を捉える複数の魚眼レ
ンズについて個々に光軸を決定し, 複数の前記魚眼レンズを用いた複数の撮像装置により与
えられる各魚眼画像から,それぞれこの魚眼画像上に存
在する前記移動目標物を検出し, 前記システム座標系におけるこの移動目標物と撮像装置
の視界面中心とを通る直線方程式を,前記撮像装置の個
数に対応する数だけそれぞれ求め,この複数の直線方程
式を1組とする直線方程式群を前記検出された各移動目
標物についてそれぞれ求め, 前記各移動目標物にそれぞれ対応する直線方程式群の交
点を,各移動目標物毎に求め, 前記システム座標系における前記各移動目標物の3次元
位置座標を決定すること を特徴とする魚眼レンズを用いた測位方法。
1. A system coordinate system is arbitrarily provided, and optical axes are individually determined for a plurality of fisheye lenses that capture a moving target existing in the system coordinate system, and provided by a plurality of imaging devices using the plurality of fisheye lenses. The moving target object present on the fisheye image is detected from each of the fisheye images obtained, and a linear equation passing through the moving target object in the system coordinate system and the center of the visual interface of the imaging device is determined by the imaging device. Are obtained for each of the detected moving targets, and intersections of the linear equation groups respectively corresponding to the moving targets are obtained. Is determined for each moving target, and the three-dimensional position coordinates of each moving target in the system coordinate system are determined. Positioning methods.
【請求項2】 前記各目標物の時刻に対する位置データ
を,その測定時刻とともにメモリに記憶し, このメモリに記憶されている前記位置データを,各移動
目標物毎にトラッキング処理してそれぞれ前記移動目標
物の航跡を求めること を特徴とする請求項1に記載の魚眼レンズを用いた測位
方法。
2. The position data of each of the targets with respect to the time is stored in a memory together with the measured time, and the position data stored in the memory is subjected to tracking processing for each of the moving targets, and the movement of each of the targets is performed. The positioning method using a fisheye lens according to claim 1, wherein a wake of the target is obtained.
【請求項3】 目標物を捉える複数の魚眼レンズと, この魚眼レンズにより得られる魚眼画像を撮像する撮像
装置と, この撮像装置により撮像された前記魚眼画像を画像処理
して移動目標物を検出する画像処理部と, 前記各魚眼レンズの光軸とシステム座標系とにより,前
記移動目標物と前記撮像装置の視界面中心とを通る直線
方程式を撮像装置の個数に対応する数だけ算出してこれ
を1組とする直線方程式群を前記各移動目標物毎に算出
し,この各移動目標物にそれぞれ対応する前記直線方程
式群の交点を,前記各移動目標物毎に算出して,この移
動目標物の3次元位置座標を算出する演算部と, この演算部で算出された前記各移動目標物の3次元位置
座標を記憶するメモリと, このメモリに記憶されている前記各移動目標物の3次元
位置座標を,モニタ画面上に3次元表示するためのデー
タ処理装置と, 前記移動目標物の3次元位置座標を表示する表示装置と からなることを特徴とする魚眼レンズを用いた測位装
置。
3. A plurality of fish-eye lenses for capturing a target, an imaging device for capturing a fish-eye image obtained by the fish-eye lens, and a moving target detected by processing the fish-eye image captured by the imaging device. An image processing unit that calculates the number of linear equations that pass through the moving target and the center of the visual interface of the imaging device by the number corresponding to the number of imaging devices, based on the optical axis of each fish-eye lens and the system coordinate system. Is calculated for each of the moving targets, and the intersection of the linear equation group corresponding to each of the moving targets is calculated for each of the moving targets. An operation unit for calculating the three-dimensional position coordinates of the object; a memory for storing the three-dimensional position coordinates of each of the moving objects calculated by the operation unit; Dimension Positioning device using a fisheye lens, characterized in that it consists of the coordinates, and a data processing device for displaying three-dimensional on the monitor screen, and a display device for displaying a three-dimensional position coordinates of the moving target.
【請求項4】 前記メモリに記憶されている前記各移動
目標物の3次元位置座標をトラッキング処理して,この
各移動目標物の航跡を決定するトラッキング処理部と, 前記各移動目標物の航跡をモニタ画面上に3次元表示す
るためのデータ処理装置と, 前記移動目標物の航跡を表示する表示装置と からなることを特徴とする請求項3に記載の魚眼レンズ
を用いた測位装置。
4. A tracking processing unit that performs tracking processing on the three-dimensional position coordinates of each of the moving targets stored in the memory to determine a wake of each of the moving targets, and a wake of each of the moving targets. The positioning device using a fisheye lens according to claim 3, comprising: a data processing device for displaying three-dimensionally on a monitor screen; and a display device for displaying a track of the moving target.
【請求項5】 前記魚眼レンズは少なくとも3個用いた
こと を特徴とする請求項3,請求項4のいずれか一項に記載
の魚眼レンズを用いた測位装置。
5. The positioning device using a fish-eye lens according to claim 3, wherein at least three fish-eye lenses are used.
JP4177394A 1992-06-11 1992-06-11 Positioning method and device using fisheye lens Expired - Lifetime JP2611173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4177394A JP2611173B2 (en) 1992-06-11 1992-06-11 Positioning method and device using fisheye lens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4177394A JP2611173B2 (en) 1992-06-11 1992-06-11 Positioning method and device using fisheye lens

Publications (2)

Publication Number Publication Date
JPH06167564A JPH06167564A (en) 1994-06-14
JP2611173B2 true JP2611173B2 (en) 1997-05-21

Family

ID=16030169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4177394A Expired - Lifetime JP2611173B2 (en) 1992-06-11 1992-06-11 Positioning method and device using fisheye lens

Country Status (1)

Country Link
JP (1) JP2611173B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6812831B2 (en) 2001-06-08 2004-11-02 Fuji Jukogyo Kabushiki Kaisha Vehicle surroundings monitoring apparatus
US6876762B1 (en) 1999-11-11 2005-04-05 Fuji Photo Film Co., Ltd. Apparatus for imaging and image processing and method thereof
US7200261B2 (en) 2000-08-25 2007-04-03 Fujifilm Corporation Parallax image capturing apparatus and parallax image processing apparatus

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4612280B2 (en) 2003-02-25 2011-01-12 本田技研工業株式会社 Automatic working device and automatic working device control program
JP4825971B2 (en) * 2005-07-14 2011-11-30 国立大学法人岩手大学 Distance calculation device, distance calculation method, structure analysis device, and structure analysis method.
JP5011528B2 (en) * 2006-10-06 2012-08-29 国立大学法人岩手大学 3D distance measurement sensor and 3D distance measurement method
EP3654286B1 (en) 2013-12-13 2024-01-17 Panasonic Intellectual Property Management Co., Ltd. Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
US9876992B2 (en) * 2014-04-30 2018-01-23 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus and distance measuring apparatus using the same
JP6735474B2 (en) 2016-02-29 2020-08-05 パナソニックIpマネジメント株式会社 Imaging device
CN107809610B (en) 2016-09-08 2021-06-11 松下知识产权经营株式会社 Camera parameter set calculation device, camera parameter set calculation method, and recording medium
JP7038345B2 (en) 2017-04-20 2022-03-18 パナソニックIpマネジメント株式会社 Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
JP7016058B2 (en) 2017-04-28 2022-02-04 パナソニックIpマネジメント株式会社 Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
JP7012955B2 (en) * 2017-10-13 2022-01-31 三菱重工業株式会社 Positioning system and positioning method
US11353588B2 (en) * 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
JP2021056164A (en) 2019-10-01 2021-04-08 富士ゼロックス株式会社 Information processing device, light emission device, information processing system, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346950A (en) * 1991-12-19 1993-12-27 Eastman Kodak Co Method for sensing three-dimensional scene and device for the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6876762B1 (en) 1999-11-11 2005-04-05 Fuji Photo Film Co., Ltd. Apparatus for imaging and image processing and method thereof
US7200261B2 (en) 2000-08-25 2007-04-03 Fujifilm Corporation Parallax image capturing apparatus and parallax image processing apparatus
US6812831B2 (en) 2001-06-08 2004-11-02 Fuji Jukogyo Kabushiki Kaisha Vehicle surroundings monitoring apparatus

Also Published As

Publication number Publication date
JPH06167564A (en) 1994-06-14

Similar Documents

Publication Publication Date Title
JP2611173B2 (en) Positioning method and device using fisheye lens
EP1640912B1 (en) Moving-object height determining apparatus
JP3728900B2 (en) Calibration method and apparatus, and calibration data generation method
EP1182465A2 (en) Moving object tracking apparatus
JP2002366937A (en) Monitor outside vehicle
JP2004354257A (en) Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
RU2626051C2 (en) Method for determining distances to objects using images from digital video cameras
JP2010128727A (en) Image processor
JP2006245795A (en) Apparatus for tracking mobile and apparatus for tracking and displaying mobile
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
JP2018036769A (en) Image processing apparatus, image processing method, and program for image processing
JPH10269362A (en) Object recognition method and device therefor
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
KR100957590B1 (en) Aparratus for display omni-directional image with object image
JP2000028332A (en) Three-dimensional measuring device and method therefor
JP5574551B2 (en) Image processing apparatus and image processing method
CN104700409B (en) A method of according to monitoring objective adjust automatically preset positions of camera
RU2697822C2 (en) Method of determining coordinates of objects based on their digital images
Lu et al. Image-based system for measuring objects on an oblique plane and its applications in 2-D localization
JP2001338280A (en) Three-dimensional space information input device
JPH1149100A (en) Apron monitor
JP2694025B2 (en) Overhead transmission line obstacle approach detection device
JP2010281685A (en) System and method for measurement of position
JP2001194141A (en) Method for detecting position of moving body
JPH02151828A (en) All-azimuth observation device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term