JPH08240421A - Estimating method for camera parameter and object recognizing method utilizing the parameter - Google Patents

Estimating method for camera parameter and object recognizing method utilizing the parameter

Info

Publication number
JPH08240421A
JPH08240421A JP7045159A JP4515995A JPH08240421A JP H08240421 A JPH08240421 A JP H08240421A JP 7045159 A JP7045159 A JP 7045159A JP 4515995 A JP4515995 A JP 4515995A JP H08240421 A JPH08240421 A JP H08240421A
Authority
JP
Japan
Prior art keywords
camera
marker
coordinate system
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7045159A
Other languages
Japanese (ja)
Inventor
Tamotsu Ito
有 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP7045159A priority Critical patent/JPH08240421A/en
Publication of JPH08240421A publication Critical patent/JPH08240421A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To calculate the camera parameters such as the self-position and posture of a camera itself by installing markers inside the region being monitored by the camera and by recognizing the information and constants of a data base from the static image photographed by the camera. CONSTITUTION: Markers M1, M2 to Mi are installed inside a region being monitored by a camera CA. Thereafter, the images (stationary images) of the markers photographed by the camera at a prescribed time t are obtained, and also the constants such as the respective coordinate systems and the positions of the markers are set. Out of the constants, the positions of the markers in the world coordinate system are previously stored in a data base. The obtained images are checked as to whether they are obtained in what posture of the camera with regard to the positive direction of X, Y, Z axis. Then, the position M1 of the marker is extracted from the images photographed by the camera CA at a prescribed time t. The individual marker is recognized by the identification information attached to the extracted marker. Then, the characteristic position information of the marker is obtained from the data base.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明はカメラ位置や姿勢等の
カメラパラメータの推定方法およびそのパラメータの推
定を元にカメラ映像上に映っている物体の認識方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for estimating camera parameters such as camera position and orientation, and a method for recognizing an object displayed on a camera image based on the estimation of the parameters.

【0002】[0002]

【従来の技術】カメラの位置や姿勢のカメラパラメータ
を得るには、カメラの移動を追跡し、その時系列データ
からカメラパラメータを推定する方法がある。このよう
にして得たカメラパラメータの推定量と外界のセンサ等
およびカメラ自身が持っている地図情報を用いることに
より、現在のカメラパラメータの確認が行われている。
また、ある領域内の物体認識は、既に認識対象の様々な
性質、特徴量等をテンプレートとして与えられる。この
テンプレートの特徴量と、画像として映っている認識対
象物から求めた特徴量とを比較することによって認識し
ている。
2. Description of the Related Art In order to obtain the camera parameter of the position and orientation of the camera, there is a method of tracking the movement of the camera and estimating the camera parameter from the time series data. The current camera parameter is confirmed by using the estimated amount of the camera parameter obtained in this way and the map information held by the external sensor and the camera itself.
Further, in the object recognition within a certain area, various properties, feature amounts, etc. of the recognition target are already given as templates. It is recognized by comparing the feature amount of this template with the feature amount obtained from the recognition target object shown as an image.

【0003】[0003]

【発明が解決しようとする課題】上記のようにしてカメ
ラパラメータを得るとき、何等かの理由で、カメラ自身
が自己の位置や姿勢を見失ったときや、カメラが移動し
ていない場合、カメラの電源が入った瞬間等には、今ま
での時系列データに対する情報がないので、カメラ位置
や姿勢等の情報を得ることが困難となる問題がある。ま
た、移動カメラからの入力画像は、その時毎の背景が映
っており、一定の認識対象物が映し出されているわけで
はない。そのため、対象物ごとの特徴量等を必要とし、
すべての既知の特徴量に対して画像上の認識対象物から
求めた特徴量とを比較しなければならず計算量が膨大と
なり、認識するまでの時間もかかる問題がある。
When the camera parameters are obtained as described above, if the camera loses sight of its own position or posture for some reason, or if the camera is not moving, At the moment when the power is turned on, there is no information on the time-series data up to now, so there is a problem that it is difficult to obtain information such as the camera position and orientation. Further, the input image from the moving camera shows the background for each time, and does not show a constant recognition target object. Therefore, the feature amount for each object is required,
It is necessary to compare all known feature amounts with the feature amount obtained from the recognition target object on the image, resulting in a huge amount of calculation, and there is a problem that it takes time to recognize.

【0004】この発明は上記の事情に鑑みてなされたも
ので、ある領域を任意に移動するカメラでの静止画像を
使用してカメラ位置や姿勢等のパラメータを自動的に得
るようにするとともに、映像として映っている物体の認
識を行うようにしたカメラパラメータの推定方法および
そのパラメータ利用の物体認識方法を提供することを目
的とする。
The present invention has been made in view of the above circumstances, and automatically obtains parameters such as camera position and orientation by using a still image of a camera that arbitrarily moves in a certain area, and An object of the present invention is to provide a camera parameter estimation method for recognizing an object displayed as an image and an object recognition method using the parameter.

【0005】[0005]

【課題を解決するための手段】この発明は、上記の目的
を達成するために、第1発明は、カメラで監視する領域
内にマーカーを設置し、そのマーカーのワールド座標系
の位置をデータベースに蓄え、カメラで撮影した静止画
像からデータベースの情報および定数を用いてマーカー
を識別し認識した後、データベース上の位置情報と前記
静止画像の位置座標から、カメラ自身の自己の位置や姿
勢などのカメラパラメータを算出することを特徴とする
ものである。
In order to achieve the above object, the present invention provides a marker in a region monitored by a camera, and stores the position of the marker in the world coordinate system in a database. After storing and recognizing the marker from the still image taken by the camera using the information and constants in the database, the position information of the camera and the position coordinates of the still image are used to determine the camera's own position and orientation. It is characterized by calculating parameters.

【0006】第2発明は、前記定数がワールド座標系、
カメラ座標系、時刻tでの画像座標系、カメラ座標系で
のマーカー位置、各マーカーに対する画像座標系での座
標、カメラのワールド座標系での位置・姿勢およびカメ
ラの焦点距離からなることを特徴とするものである。
According to a second aspect of the invention, the constant is the world coordinate system,
It is characterized by the camera coordinate system, the image coordinate system at time t, the marker position in the camera coordinate system, the coordinates in the image coordinate system for each marker, the position / orientation of the camera in the world coordinate system, and the focal length of the camera. It is what

【0007】第3発明は、前記マーカーには色情報、模
様情報、形状情報等の識別情報を付したことを特徴とす
るものである。
A third invention is characterized in that the marker is provided with identification information such as color information, pattern information and shape information.

【0008】第4発明は、カメラパラメータと、データ
ベースに蓄えられている認識対象物の特徴点座標情報と
から特徴点における画像座標系での座標を推定した後、
この座標が実際の画像座標系の範囲内にあるときに認識
対象物を認識するようにしたことを特徴とするものであ
る。
According to a fourth aspect of the invention, after estimating the coordinates of the feature points in the image coordinate system from the camera parameters and the feature point coordinate information of the recognition object stored in the database,
The feature is that the recognition target is recognized when the coordinates are within the range of the actual image coordinate system.

【0009】第5発明は、前記認識対象物の認識情報を
カメラで撮影した静止画像上に重ねて表示したことを特
徴とするものである。
A fifth aspect of the invention is characterized in that the recognition information of the recognition object is displayed in a superimposed manner on a still image taken by a camera.

【0010】第6発明は、前記認識対象物に強調表示手
段を採用したことを特徴とするものである。
A sixth invention is characterized in that a highlighting means is adopted for the recognition object.

【0011】[0011]

【作用】監視する領域内のマーカーを所定時刻でカメラ
により撮影してその静止画像を得る。その後、その画像
からマーカーを抽出し、マーカーに付された識別情報か
ら個々のマーカーを認識して、その認識したマーカーの
特徴点の位置情報をデータベースから得る。その位置情
報と画像座標系の座標からカメラのパラメータである位
置、姿勢、焦点距離等を得る。そして、得たパラメータ
と監視領域内の認識対象物のデータベースにおける特徴
点座標情報を用いて機器名情報等から物体の認識を行
う。
The marker in the area to be monitored is photographed by the camera at a predetermined time to obtain its still image. After that, a marker is extracted from the image, each marker is recognized from the identification information attached to the marker, and the position information of the feature point of the recognized marker is obtained from the database. From the position information and the coordinates of the image coordinate system, the position, orientation, focal length, etc., which are the parameters of the camera, are obtained. Then, using the obtained parameters and the feature point coordinate information in the database of the recognition target object in the monitoring area, the object is recognized from the device name information and the like.

【0012】[0012]

【実施例】以下この発明の一実施例を図面に基づいて説
明する。図1はこの発明の第1実施例を述べるためのフ
ローチャートで、図1において、まずステップS1でカ
メラCAで監視する領域内に、図2に示すようにマーカ
ーM1,M2,〜Miを設置する。その後、ステップS2
で所定時刻tでカメラによりマーカーを撮影した画像
(静止画像)を得るとともに、図3に示すような各座標
系やマーカー位置等の定数を設定する。このステップS
2の中の定数のうちワールド座標系でのマーカーの位置
は予めデータベースに蓄えられている。ステップS2で
得た画像は、ステップS3でカメラの姿勢がX,Y,Z
軸の正方向に対してどのような姿勢で得たものであるか
を見る。その後、各々のマーカーの位置Miをステップ
S4より所定時刻tでカメラにより撮影した画像から抽
出する。このステップS4で抽出したマーカーに付され
ている識別情報からステップS5で個々のマーカーを認
識する。次にステップS6で認識したマーカーの特徴点
の位置情報をデータベースから得る。データベースから
得たワールド座標系での位置情報に対する画像座標系で
の座標の相対関係から、ステップS7でカメラの位置、
姿勢、焦点距離のパラメータを得る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. Figure 1 is a flow chart for describing a first embodiment of the present invention, in FIG. 1, the first area to be monitored by the camera CA at step S1, the marker M 1 as shown in FIG. 2, M 2, ~M i Set up. Then, step S2
At the predetermined time t, an image (still image) of the marker taken by the camera is obtained, and constants such as each coordinate system and the marker position as shown in FIG. 3 are set. This step S
The position of the marker in the world coordinate system among the constants in 2 is stored in the database in advance. In the image obtained in step S2, the posture of the camera is X, Y, Z in step S3.
See how the posture was obtained with respect to the positive direction of the axis. Then, the position M i of each marker is extracted from the image taken by the camera at the predetermined time t from step S4. Individual markers are recognized in step S5 from the identification information attached to the markers extracted in step S4. Next, the position information of the characteristic points of the marker recognized in step S6 is obtained from the database. From the relative relationship of the coordinates in the image coordinate system to the position information in the world coordinate system obtained from the database, the position of the camera in step S7,
Get parameters of posture and focal length.

【0013】次に上記第1実施例の作用について図2お
よび図3により説明するに、まず、図2について述べ
る。図2において、監視する領域(図示点線で囲んだ領
域)内に円柱状のマーカーM1,M2,〜Mi(マーカーは
円柱状でなくても良い)を所定の間隔で設置し、所定の
時刻tでカメラCAにより撮影した画像を得る。なお、
各々のマーカーM1,M2,〜Miには、識別情報が予め
視覚的に付加されている。例えば、マーカーに別々の色
を塗布したり、ラインの本数や間隔を変えて印しを付け
る等を行う。
Next, the operation of the first embodiment will be described with reference to FIGS. 2 and 3, and first, FIG. 2 will be described. In FIG. 2, cylindrical markers M 1 , M 2 , to M i (the markers do not have to be cylindrical) are installed at predetermined intervals in a region to be monitored (a region surrounded by a dotted line in the drawing), and predetermined. An image taken by the camera CA is obtained at time t. In addition,
Identification information is visually added in advance to each of the markers M 1 , M 2 , to M i . For example, different colors are applied to the markers, marking is performed by changing the number of lines or intervals.

【0014】次に、図3について述べる。図3におい
て、前記定数はワールド座標系(WX,WY,WZ)にお
けるマーカーM1,M2,〜Miに対する画像座標系の座
標をmi(ui,vi)、ワールド座標系におけるカメラ
CAの位置や姿勢を(WCWCWC,α,β,
γ)、焦点距離をfと設定したものである。なお、定数
は上記の外に図3に示すように、(CX,CY,CZ)は
カメラ座標系、(U,V)は時刻tでの画像座標系、W
iWiWiWi)はワールド座標系でのマーカ
ーの位置、CiCiCiCi)はカメラ座標系で
のマーカーの位置である。
Next, FIG. 3 will be described. 3, the constant is the world coordinate system (W X, W Y, W Z) marker M 1 in, M 2, the coordinates of the image coordinate system relative ~M i m i (u i, v i), world coordinates The position and orientation of the camera CA in the system are ( W X C , W Y C , W Z C , α, β,
γ) and the focal length is set to f. In addition to the above constants, ( C X, C Y, C Z) is a camera coordinate system, (U, V) is an image coordinate system at time t, and W is a constant.
M i ( W X i , W Y i , W Z i ) is the position of the marker in the world coordinate system, and C M i ( C X i , C Y i , C Z i ) is the position of the marker in the camera coordinate system. Is.

【0015】また、カメラCAの姿勢(α,β,γ)
は、まずZ軸の正方向に対して左回りにγの角だけ、次
にY軸の正方向に対して左回りにβの角だけ、さらにX
軸の正方向に対して左回りにαの角だけ回転した状態で
あるとする。ここで、ワールド座標系におけるマーカー
1,M2,〜Miの特徴点の位置MiWiWi
Wi)は、前述のように既にデータベース(図示省略)
に蓄えられているから、まず、各々のマーカーM1
2,〜Miを所定時刻tでカメラCAから入力された画
像から抽出する。その後、画像上で抽出できたマーカー
は、各々のマーカーM1,M2,〜Miに付加されている
識別情報から、個々に認識することができるため、認識
されたマーカーM1,M2,〜Miの特徴点の位置情報
を、データベースから獲得することができるようにな
る。獲得できた特徴点の位置MiWiWiWi
に対する画像座標系の座標mi(ui,vi)の相対関係
から、カメラCA自身が自己の位置(WCWC
WC)、姿勢(α,β,γ)、焦点距離fのカメラパラ
メータ(WCWCWC,α,β,γ,f)を一枚の
画像から獲得することができるようになる。
Further, the posture of the camera CA (α, β, γ)
Is an angle of γ counterclockwise with respect to the positive direction of the Z axis, then an angle of β counterclockwise with respect to the positive direction of the Y axis, and further X
It is assumed that the shaft is rotated counterclockwise by an angle α with respect to the positive direction of the axis. Here, the positions M i ( W X i , W Y i , W Y i , W Y i , of the feature points of the markers M 1 , M 2 , and M i in the world coordinate system
W Z i ) is already in the database (not shown) as described above.
First, each marker M 1 ,
M 2 to M i are extracted from an image input from the camera CA at a predetermined time t. After that, the markers that can be extracted on the image can be individually recognized from the identification information added to each of the markers M 1 , M 2 , and -M i. Therefore, the recognized markers M 1 , M 2 are recognized. , To M i , the position information of the feature points can be acquired from the database. Positions of acquired feature points M i ( W X i , W Y i , W Z i )
From the relative relationship of the coordinates m i (u i , v i ) of the image coordinate system with respect to, the position of the camera CA itself ( W X C , W Y C ,
Acquiring camera parameters ( W X C , W Y C , W Z C , α, β, γ, f) of W Z C ), posture (α, β, γ) and focal length f from a single image. Will be able to.

【0016】次に、図3よりカメラパラメータの算出方
法を数式を用いて記述すると以下のような式になる。
Next, the method of calculating the camera parameters from FIG. 3 will be described using mathematical expressions as follows.

【0017】[0017]

【数1】 [Equation 1]

【0018】n個の特徴点を観測すれば上記(1)式、
(2)式より次式が得られる。
If n feature points are observed, the above equation (1)
The following equation is obtained from the equation (2).

【0019】[0019]

【数2】 [Equation 2]

【0020】また、(4)式より Xi=uii,Yi=vii m=1,2……n ……(6) (5)式、(6)式より、最小自乗法を使用して未知行
列R’を計算でき、さらにR’の行列要素からカメラパ
ラメータの値を算出する。
From equation (4), X i = u i k i , Y i = v i k i m = 1,2 ... n (6) From equations (5) and (6), the minimum The unknown matrix R ′ can be calculated using the square method, and the value of the camera parameter is calculated from the matrix element of R ′.

【0021】次に図4により第2実施例について述べ
る。図4において、ステップS11は監視領域内の認識
対象物のデータベースにおける特徴点座標情報で、この
情報とステップS12の第1実施例で得たカメラパラメ
ータとを用いてその特徴点における画像座標系での座標
をステップS13で推定する。ステップS13で推定さ
れた座標が実際の画像座標系の範囲内にあるかどうかを
ステップS14で判断し、ある場合には認識対象物が画
像上に映っているとステップS15で処理して、機器名
情報により画像上に映っている物体がステップS16で
認識される。
Next, a second embodiment will be described with reference to FIG. In FIG. 4, step S11 is characteristic point coordinate information in the database of the recognition target object in the monitoring area. By using this information and the camera parameters obtained in the first embodiment of step S12, the image coordinate system at the characteristic point is determined. The coordinates of are estimated in step S13. In step S14, it is determined whether or not the coordinates estimated in step S13 are within the range of the actual image coordinate system, and if there is, the recognition target object appears on the image, the processing is performed in step S15, and the device Based on the name information, the object shown on the image is recognized in step S16.

【0022】上記第2実施例はカメラで撮影した画像か
ら物体を認識するもので、第1実施例で求めたカメラパ
ラメータを用いて物体の認識を行うものである。次に、
第2実施例の作用を述べるに、第2実施例では監視領域
内の認識対象物(例えば図2に示す符号A,B)の情報
(機器名情報、特徴点座標情報、三次元情報、形情報、
色情報、幾何学的性質等)は、図6に示すデータベース
に蓄えられているものとする。また、図5に示す画像座
標系(uHL,vHL)、(uHR,vHR)、(uLL
LL)、(uLR,vLR)は表示装置(図示しない)の解
像度によって求まる。
The second embodiment is for recognizing an object from an image taken by a camera, and is for recognizing an object using the camera parameters obtained in the first embodiment. next,
The operation of the second embodiment will be described. In the second embodiment, information (device name information, feature point coordinate information, three-dimensional information, shape) of the recognition target object (for example, symbols A and B shown in FIG. 2) in the monitoring area is formed. information,
(Color information, geometrical properties, etc.) are stored in the database shown in FIG. Further, the image coordinate systems (u HL , v HL ), (u HR , v HR ), (u LL ,
v LL ) and (u LR , v LR ) are determined by the resolution of the display device (not shown).

【0023】図6に示す各々の認識対象物のデータベー
スにおける特徴点座標情報(ワールド座標(Wi
WiWi)と、第1実施例で求めたカメラパラメータ
(1)、(2)式より、その特徴点における画像座標系
での座標(ui’,vi’)が推定される。この座標(u
i’,vi’)が実際の画像座標系の(uHL,vHL)、
(uHR,vHR)、(uLL,vLL)、(uLR,vLR)の範
囲内にあれば、このときの認識対象物が、画像上に映っ
ていると判断し、機器名情報により画像上に映っている
物体が認識できることになる。
Feature point coordinate information (world coordinates ( W X i ,
The coordinates (u i ', v i ') in the image coordinate system at the characteristic point are estimated from W Y i , W Z i ) and the camera parameters (1) and (2) obtained in the first embodiment. To be done. This coordinate (u
i ', v i ') is (u HL , v HL ) in the actual image coordinate system,
If it is within the range of (u HR , v HR ), (u LL , v LL ), and (u LR , v LR ), it is determined that the recognition target object at this time is reflected in the image, and the device name The information makes it possible to recognize the object shown in the image.

【0024】また、その認識対象物が持っている情報か
ら、静止画像上にその三次元情報等を重ねて表示させる
ことができる。表示方法としては、図7(a)、(b)
のように、画像上に映っているすべての物体に色分けを
行ったり(例えば図7(b)に示すように色違いのハッ
チング表示をする等)、画像上に図7(a)に示すよう
にマウスでポイントした物体のみを強調したりする等が
考えられる。このような表示形式を採用することによ
り、認識された物体が即座に分かり操作性の向上が図れ
る。
Further, it is possible to superimpose and display the three-dimensional information and the like on the still image based on the information of the recognition object. The display method is as shown in FIGS.
As shown in FIG. 7A, all objects appearing on the image are color-coded (for example, different colors are hatched as shown in FIG. 7B). It is possible to emphasize only the object pointed to by the mouse. By adopting such a display format, it is possible to immediately recognize the recognized object and improve the operability.

【0025】[0025]

【発明の効果】以上述べたように、この発明によれば、
所定の領域を任意に移動するカメラにおける静止画像を
利用してカメラの位置や姿勢等のパラメータを自動的に
得ることができるとともに、そのパラメータを元に、カ
メラで撮影した画像から物体の認識を短時間で行うこと
ができるようになる利点がある。また、操作性の向上も
図ることができるようになる。
As described above, according to the present invention,
Parameters such as the position and orientation of the camera can be automatically obtained by using a still image of a camera that moves arbitrarily in a predetermined area, and the object can be recognized from the image captured by the camera based on the parameters. There is an advantage that it can be performed in a short time. In addition, it becomes possible to improve operability.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の第1実施例を示すフローチャート。FIG. 1 is a flowchart showing a first embodiment of the present invention.

【図2】カメラのワールド座標系での位置・姿勢を述べ
る説明図。
FIG. 2 is an explanatory diagram describing a position / orientation of a camera in a world coordinate system.

【図3】定数を説明するための説明図。FIG. 3 is an explanatory diagram for explaining a constant.

【図4】この発明の第2実施例を示すフローチャート。FIG. 4 is a flowchart showing a second embodiment of the present invention.

【図5】画像座標系の説明図。FIG. 5 is an explanatory diagram of an image coordinate system.

【図6】データベース構成説明図。FIG. 6 is an explanatory diagram of a database structure.

【図7】強調表示手段を説明するためのもので、(a)
はマウスポインタでポインティングしたときの説明図、
(b)はハッチングしたときの説明図。
FIG. 7 is a view for explaining a highlighting means, (a)
Is an explanatory diagram when pointing with the mouse pointer,
(B) is explanatory drawing at the time of hatching.

【符号の説明】[Explanation of symbols]

S1…マーカー設定ステップ S2…マーカー画像を得るとともに定数を設定するステ
ップ S3…カメラ姿勢を見るステップ S4…画像抽出ステップ S5…マーカーを認識するステップ S6…マーカー特徴点を得るステップ S7…カメラパラメータを得るステップ CA…カメラ M1,M2〜Mi…マーカー
S1 ... Marker setting step S2 ... Step for obtaining marker image and setting constant S3 ... Step for viewing camera posture S4 ... Step for extracting image S5 ... Step for recognizing marker S6 ... Step for obtaining marker feature point S7 ... Obtaining camera parameter step CA ... camera M 1, M 2 ~M i ... marker

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 カメラで監視する領域内にマーカーを設
置し、そのマーカーのワールド座標系の位置をデータベ
ースに蓄え、カメラで撮影した静止画像からデータベー
スの情報および定数を用いてマーカーを識別し認識した
後、データベース上の位置情報と前記静止画像の位置座
標から、カメラ自身の自己の位置や姿勢などのカメラパ
ラメータを算出することを特徴とするカメラパラメータ
の推定方法。
1. A marker is installed in an area monitored by a camera, the position of the marker in the world coordinate system is stored in a database, and the marker is identified and recognized from the still image captured by the camera using information and constants in the database. After that, the camera parameter estimation method is characterized in that the camera parameters such as the position and orientation of the camera itself are calculated from the position information on the database and the position coordinates of the still image.
【請求項2】 前記定数はワールド座標系、カメラ座標
系、時刻tでの画像座標系、カメラ座標系でのマーカー
位置、各マーカーに対する画像座標系での座標、カメラ
のワールド座標系での位置・姿勢およびカメラの焦点距
離からなることを特徴とする請求項1記載のカメラパラ
メータの推定方法。
2. The constants are the world coordinate system, the camera coordinate system, the image coordinate system at time t, the marker position in the camera coordinate system, the coordinates in the image coordinate system for each marker, and the position in the world coordinate system of the camera. The method for estimating camera parameters according to claim 1, wherein the method comprises a posture and a focal length of the camera.
【請求項3】 前記マーカーには色情報、模様情報、形
状情報等の識別情報を付したことを特徴とする請求項1
記載のカメラパラメータの推定方法。
3. The marker is provided with identification information such as color information, pattern information, and shape information.
A method for estimating the described camera parameters.
【請求項4】 請求項1記載のカメラパラメータの推定
方法により得たカメラパラメータと、データベースに蓄
えられている認識対象物の特徴点座標情報とから特徴点
における画像座標系での座標を推定した後、この座標が
実際の画像座標系の範囲内にあるときに認識対象物を認
識するようにしたことを特徴とするカメラパラメータ利
用の物体認識方法。
4. The coordinates of the feature points in the image coordinate system are estimated from the camera parameters obtained by the camera parameter estimation method according to claim 1 and the feature point coordinate information of the recognition target object stored in the database. After that, the object recognition method using camera parameters is characterized in that the recognition target object is recognized when the coordinates are within the range of the actual image coordinate system.
【請求項5】 前記認識対象物の認識情報をカメラで撮
影した静止画像上に重ねて表示したことを特徴とする請
求項4記載のカメラパラメータ利用の物体認識方法。
5. The object recognition method using camera parameters according to claim 4, wherein the recognition information of the recognition target object is superimposed and displayed on a still image captured by a camera.
【請求項6】 前記認識対象物に強調表示手段を採用し
たことを特徴とする請求項4または5記載のカメラパラ
メータ利用の物体認識方法。
6. The object recognition method using camera parameters according to claim 4, wherein a highlighting means is adopted for the recognition object.
JP7045159A 1995-03-06 1995-03-06 Estimating method for camera parameter and object recognizing method utilizing the parameter Pending JPH08240421A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7045159A JPH08240421A (en) 1995-03-06 1995-03-06 Estimating method for camera parameter and object recognizing method utilizing the parameter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7045159A JPH08240421A (en) 1995-03-06 1995-03-06 Estimating method for camera parameter and object recognizing method utilizing the parameter

Publications (1)

Publication Number Publication Date
JPH08240421A true JPH08240421A (en) 1996-09-17

Family

ID=12711497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7045159A Pending JPH08240421A (en) 1995-03-06 1995-03-06 Estimating method for camera parameter and object recognizing method utilizing the parameter

Country Status (1)

Country Link
JP (1) JPH08240421A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115953A (en) * 1997-06-26 1999-01-22 Nippon Telegr & Teleph Corp <Ntt> Camera operation estimating method, and recording medium recorded with camera operation estimation program
JPH11259626A (en) * 1998-03-12 1999-09-24 Nippon Telegr & Teleph Corp <Ntt> Camera parameter estimating method using order statistic and program recording medium
JP2001204007A (en) * 2000-01-19 2001-07-27 Meidensha Corp Device for setting supervised area by supervisory camera and its method
JP2002232869A (en) * 2001-02-02 2002-08-16 Mitsubishi Electric Corp Calibration method for camera
JP2003050107A (en) * 2001-08-07 2003-02-21 Matsushita Electric Ind Co Ltd Camera calibration device
JP2004334393A (en) * 2003-05-02 2004-11-25 Canon Inc Image processing method and apparatus thereof
JP2009210331A (en) * 2008-03-03 2009-09-17 Toa Corp Camera calibration apparatus and camera calibration method
JP2010165114A (en) * 2009-01-14 2010-07-29 Mitsubishi Electric Corp Image monitoring device and installation condition correction method
JP2012103116A (en) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> Camera pose information calculating device and camera pose information calculating program
WO2016157802A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Information processing apparatus, information processing system, information processing method, and storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115953A (en) * 1997-06-26 1999-01-22 Nippon Telegr & Teleph Corp <Ntt> Camera operation estimating method, and recording medium recorded with camera operation estimation program
JPH11259626A (en) * 1998-03-12 1999-09-24 Nippon Telegr & Teleph Corp <Ntt> Camera parameter estimating method using order statistic and program recording medium
JP2001204007A (en) * 2000-01-19 2001-07-27 Meidensha Corp Device for setting supervised area by supervisory camera and its method
JP2002232869A (en) * 2001-02-02 2002-08-16 Mitsubishi Electric Corp Calibration method for camera
JP2003050107A (en) * 2001-08-07 2003-02-21 Matsushita Electric Ind Co Ltd Camera calibration device
JP2004334393A (en) * 2003-05-02 2004-11-25 Canon Inc Image processing method and apparatus thereof
JP2009210331A (en) * 2008-03-03 2009-09-17 Toa Corp Camera calibration apparatus and camera calibration method
JP2010165114A (en) * 2009-01-14 2010-07-29 Mitsubishi Electric Corp Image monitoring device and installation condition correction method
JP2012103116A (en) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> Camera pose information calculating device and camera pose information calculating program
WO2016157802A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Information processing apparatus, information processing system, information processing method, and storage medium

Similar Documents

Publication Publication Date Title
US10636168B2 (en) Image processing apparatus, method, and program
CN105825498B (en) Measurement data processing device, measurement data processing method, and program
US20190266415A1 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US20060233436A1 (en) 3D dense range calculations using data fusion techniques
JP2006220521A (en) Self-position measuring device and program for performing self-position measurement method
CN110910459B (en) Camera device calibration method and device and calibration equipment
CN109901123B (en) Sensor calibration method, device, computer equipment and storage medium
US20200036953A1 (en) Photogrammetry system and method of operation
CN112561841A (en) Point cloud data fusion method and device for laser radar and camera
CN107972027B (en) Robot positioning method and device and robot
US11237057B2 (en) Temperature processing apparatus and temperature processing method
JPH08240421A (en) Estimating method for camera parameter and object recognizing method utilizing the parameter
CN109668568A (en) A kind of method carrying out location navigation using panoramic imagery is looked around
KR20160070874A (en) Location-based Facility Management System Using Mobile Device
EP3385747B1 (en) Method, device and system for mapping position detections to a graphical representation
KR20140114594A (en) Auto-Camera Calibration Method Based on Human Object Tracking
CN110728684B (en) Map construction method and device, storage medium and electronic equipment
CN116778094B (en) Building deformation monitoring method and device based on optimal viewing angle shooting
KR102195040B1 (en) Method for collecting road signs information using MMS and mono camera
JP2002259984A (en) Motion analyzing device and motion analyzing method
US20230079899A1 (en) Determination of an absolute initial position of a vehicle
CN110268438B (en) Image database construction device, position and inclination estimation device, and image database construction method
CN115457084A (en) Multi-camera target detection tracking method and device
US20230027236A1 (en) Dimensional calibration of the field-of-view of a single camera
Chien et al. Acquisition Of Moving Objects And Hand-Eye Coordination.