JP2001101419A - Method and device for image feature tracking processing and three-dimensional data preparing method - Google Patents

Method and device for image feature tracking processing and three-dimensional data preparing method

Info

Publication number
JP2001101419A
JP2001101419A JP2000048117A JP2000048117A JP2001101419A JP 2001101419 A JP2001101419 A JP 2001101419A JP 2000048117 A JP2000048117 A JP 2000048117A JP 2000048117 A JP2000048117 A JP 2000048117A JP 2001101419 A JP2001101419 A JP 2001101419A
Authority
JP
Japan
Prior art keywords
image
tracking
area
tracking area
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000048117A
Other languages
Japanese (ja)
Other versions
JP3800905B2 (en
Inventor
Koushi Aketo
甲志 明渡
Ryosuke Mitaka
良介 三高
長生 ▲濱▼田
Osao Hamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2000048117A priority Critical patent/JP3800905B2/en
Publication of JP2001101419A publication Critical patent/JP2001101419A/en
Application granted granted Critical
Publication of JP3800905B2 publication Critical patent/JP3800905B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress the occurrence of error in three-dimensional(3D) information by surely tracking an object while verifying the suitability of tracking in the case of tracking the object within a time sequential image group. SOLUTION: Plural images provided by picking up the image of a stationary object at different plural positions with a TV camera are inputted from an image input device 1, and a surface selected from the object by an area designating means 16 is set within the image as a tracking area expressed by boundary elements and image feature amounts. An area tracking means 17 generates the candidates of the tracking area on the basis of the boundary elements inside the image, generates a deformed area from the tracking area, compares the candidates of the tracking area with the deformed area and determines the tracking area. On the basis of the position relation of a reference area with the object restored by a form restoring means 19, it is verified by a tracking evaluating means 18 whether a non-picked-up image part is included in the tracking area or not. Besides, when there is a non-picked-up image part, the cause is estimated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、2次元画像である
時系列画像群(動画像)に含まれる対象物について3次
元情報を抽出する画像特徴追跡処理方法、画像特徴追跡
処理装置、3次元データ作成方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image feature tracking processing method, an image feature tracking processing apparatus and a three-dimensional image extracting method for extracting three-dimensional information on an object included in a time-series image group (moving image) as a two-dimensional image. It relates to the data creation method.

【0002】[0002]

【従来の技術】近年、コンピュータグラフィックス(以
下、3DCGと略称する)技術が急速に進歩してきてい
る。このような、3DCG技術は、CADシステムや仮
想現実システムにも用いられる。しかしながら、3DC
Gのデータを作成するモデリング作業には多大な時間を
要し、このことが3DCGの応用分野を拡張できない主
な原因になっている。
2. Description of the Related Art In recent years, computer graphics (hereinafter abbreviated as 3DCG) technology has rapidly advanced. Such 3DCG technology is also used for CAD systems and virtual reality systems. However, 3DC
The modeling work to create G data takes a lot of time, which is the main reason that the application field of 3DCG cannot be expanded.

【0003】モデリング作業を容易にするために、3次
元計測装置(モーションキャプチャなど)を用いて実空
間での計測を行い、計測値を3DCGのデータとするこ
とでモデリング作業を自動化する技術が実用化されては
いるものの、3次元計測装置は立体視を行うものである
から非常に高価であり、また現状の3次元計測装置では
計測できる空間領域が比較的狭いから、この技術の用途
は限られている。とくに、この種の3次元計測装置は、
市街地のような広い空間領域の計測には適しておらず、
都市景観などを3DCGで形成するには3DCGのデー
タを手作業で作成しているのが現状である。
[0003] In order to facilitate the modeling work, a technique for automating the modeling work by performing measurement in a real space using a three-dimensional measuring device (such as motion capture) and converting the measured values into 3DCG data is practically used. However, the three-dimensional measurement device is very expensive because it performs stereoscopic vision, and the current three-dimensional measurement device has a relatively small space area that can be measured, so the application of this technology is limited. Have been. In particular, this type of three-dimensional measurement device
It is not suitable for measuring large spatial areas such as urban areas,
At present, in order to form a cityscape or the like by 3DCG, 3DCG data is manually created.

【0004】そこで、比較的安価な装置を用いて3次元
計測を行うとともに各種の対象に汎用的に用いることが
できる技術として、単眼視による2次元の動画像(時系
列画像群)に基づいて3次元形状を復元させようとする
技術が提案されている。たとえば、「金出武雄ら:因子
分解法による物体形状と撮像装置の運動の復元,電子情
報通信学会誌,Vol.J76−D−II No.8,
1993/8」に記載された技術(以下、因子分解法と
いう)では、2次元の動画像上の特徴を認識して、その
特徴が動画像としてどのように移り変わっていくかを追
跡した特徴点行列を作成し、特徴点行列に因子分解の手
法を適用することによって物体の3次元形状とカメラ姿
勢を復元している。この技術では特徴点行列を作成する
追跡処理に誤差があると計測結果の誤差が大きくなるか
ら、動画像上の特徴を正確に追跡することが重要な課題
である。
[0004] Therefore, as a technique that can be used for various objects in general while performing three-dimensional measurement using a relatively inexpensive device, a technique based on a two-dimensional moving image (time-series image group) by monocular vision is used. A technique for restoring a three-dimensional shape has been proposed. For example, "Takeo Kanade et al .: Reconstruction of Object Shape and Motion of Imaging Device by Factor Decomposition Method, Journal of the Institute of Electronics, Information and Communication Engineers, Vol. J76-D-II No. 8,
In the technique described in “1993/8” (hereinafter, referred to as factor decomposition method), feature points obtained by recognizing a feature on a two-dimensional moving image and tracking how the feature changes as a moving image. A matrix is created, and the three-dimensional shape of the object and the camera posture are restored by applying a factorization method to the feature point matrix. In this technique, if there is an error in the tracking processing for creating the feature point matrix, the error of the measurement result increases. Therefore, it is important to accurately track the feature on the moving image.

【0005】3次元計測を目的として2次元動画像にお
ける特徴を追跡する技術には、特開平10−11193
4号公報に記載の技術がある。この公報には、因子分解
法を適用するにあたり、1フレームの画像に対して複数
の領域を指定し、かつ各領域に複数種類の特徴抽出方法
を適用し、最適な結果を採用することによって、正確な
特徴点追跡を行うことが記載されている。
A technique for tracking a feature in a two-dimensional moving image for the purpose of three-dimensional measurement is disclosed in JP-A-10-11193.
There is a technique described in Japanese Patent Application Laid-Open No. 4 (Kokai) 4 In this publication, when applying the factorization method, by specifying a plurality of regions for one frame of image, applying a plurality of types of feature extraction methods to each region, and adopting an optimal result, It describes that accurate feature point tracking is performed.

【0006】また、特開平10−255053号公報に
は、ステレオ法を適用するにあたり、特徴点を追跡した
後、画像中の適宜の1点を画像原点に設定し、撮像装置
の回転に対して変化しない特徴点としての原点と他の特
徴点との距離を用いて特徴点の運動軌跡を求め、異なる
2つの画像群に対して運動軌跡が相関性を持つか否かを
評価して追跡の失敗の有無を検出し、正しく追跡された
特徴点のみを用いることにより3次元形状を高い精度で
復元することが記載されている。
Japanese Patent Application Laid-Open No. H10-255053 discloses that in applying the stereo method, after tracking a feature point, an appropriate point in an image is set as an image origin, and the rotation of the imaging device is controlled. The motion trajectory of the feature point is obtained by using the distance between the origin as a feature point that does not change and another feature point, and it is evaluated whether or not the motion trajectory has correlation with two different image groups, and tracking is performed. It describes that a three-dimensional shape is restored with high accuracy by detecting the presence or absence of a failure and using only correctly tracked feature points.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、特開平
10−111934号公報に記載された技術では、特徴
点追跡の正否を操作者が判定して指示する必要があるか
ら、追跡処理の期間には操作者は装置から離れることが
できないという問題がある。
However, according to the technique described in Japanese Patent Application Laid-Open No. H10-111934, it is necessary for an operator to determine and instruct whether the tracking of a feature point is correct or not. There is a problem that the operator cannot leave the apparatus.

【0008】また、特開平10−255053号公報に
記載された技術では、特徴追跡の失敗を検出することは
できるものの、失敗の理由までは判断することができな
いから、特徴点を途中で追跡できなくなったときに、追
跡の誤りなのか、別に原因(複数の物体が存在していて
追跡中の物体が他の物体により隠れた場合など)がある
のかを判断することができず、失敗を補正することがで
きないから、画像中で計測不可能になる部分が生じるこ
とがある。
In the technique described in Japanese Patent Application Laid-Open No. H10-255053, it is possible to detect a failure in feature tracking, but it is not possible to determine the reason for failure. When it disappears, it is not possible to determine whether it is a tracking error or another cause (such as when there are multiple objects and the object being tracked is hidden by other objects), and corrects the failure Therefore, there may be a portion in the image that cannot be measured.

【0009】さらに、上述したどちらの技術も画像から
抽出された局所的な特徴を用いて追跡しているから、た
とえば格子模様などの繰り返しパターンを有する場合に
は、追跡を失敗しやすいという問題もある。また、上述
したいずれの技術においても得られる3次元情報は各特
徴点の座標であり、各特徴点の座標は3次元空間中の離
散的な座標情報にすぎず、特徴点同士の関連性は不明で
ある。したがって、上述した技術によって計測した情報
を3DCGのデータとして利用するには、離散的な座標
情報からポリゴンなどの面情報を持つデータを生成する
別の処理手段が必要になる。
In addition, since both of the above-described techniques track using local features extracted from an image, there is a problem that the tracking is likely to fail when the pattern has a repetitive pattern such as a lattice pattern. is there. In addition, the three-dimensional information obtained by any of the above-described techniques is the coordinates of each feature point, and the coordinates of each feature point are only discrete coordinate information in a three-dimensional space, and the relevance between the feature points is Unknown. Therefore, in order to use the information measured by the above-described technology as 3DCG data, another processing means for generating data having surface information such as polygons from discrete coordinate information is required.

【0010】本発明は上記事由に鑑みて為されたもので
あり、その目的は、3DCGのデータに用いることがで
きる3次元情報を2次元画像である時系列画像群から容
易に得ることができるようにし、しかも時系列画像群の
中で対象物を追跡するにあたって追跡の妥当性の検証を
可能とし、対象物を確実に追跡するとともに3次元情報
における誤差の発生を抑制した画像特徴追跡処理方法、
画像特徴追跡処理装置、3次元データ作成方法を提供す
ることにある。
The present invention has been made in view of the above circumstances, and an object thereof is to easily obtain three-dimensional information that can be used for 3DCG data from a time-series image group that is a two-dimensional image. And an image feature tracking processing method capable of verifying the validity of tracking when tracking an object in a time-series image group, reliably tracking the object, and suppressing the occurrence of errors in three-dimensional information ,
An object of the present invention is to provide an image feature tracking processing device and a three-dimensional data creation method.

【0011】[0011]

【課題を解決するための手段】請求項1の発明は、静止
している対象物を異なる複数位置からTVカメラにより
撮像して複数の画像を取得し、前記対象物から選択した
面を境界要素と画像特徴量とで表した追跡領域として画
像内に設定し、一つの画像内で設定した追跡領域を他の
画像における追跡領域の候補の境界要素に一致するよう
に変形させた変形領域を作成し、前記他の画像における
追跡領域の候補と変形領域とについて境界要素と画像特
徴量との少なくとも一方を比較することにより追跡領域
の候補から前記一つの画像内で設定した追跡領域に対応
する追跡領域を選択する第1の過程と、隠蔽やフレーム
アウト等の撮像されていない領域が少ない追跡領域を3
次元空間にマッピングすることにより得られる基準領域
を設定し、画像内において追跡領域の少なくとも一部が
追跡できないときに当該追跡領域と基準領域の3次元空
間での境界要素の比較に基づいてTVカメラにより撮像
できない領域が生じたか否かを判断する第2の過程と、
前記基準領域をTVカメラの各位置において撮像したと
きの基準領域の位置関係に基づいて追跡領域をTVカメ
ラで撮像できなくなった原因を推定し、推定結果に基づ
いて追跡領域の追跡が可能となるように修正して追跡を
継続させる第3の過程とを備えることを特徴とする。
According to a first aspect of the present invention, a stationary object is imaged from a plurality of different positions by a TV camera to acquire a plurality of images, and a surface selected from the object is defined as a boundary element. Creates a deformed area that is set in the image as a tracking area represented by and an image feature quantity, and the tracking area set in one image is deformed to match the boundary element of the tracking area candidate in another image Then, by comparing at least one of a boundary element and an image feature amount with respect to a candidate for a tracking area and a deformation area in the other image, a tracking corresponding to the tracking area set in the one image from the candidates for the tracking area. A first process of selecting an area and a tracking area having a small number of unimaged areas such as concealment and frame-out
A reference area obtained by mapping in a three-dimensional space is set, and when at least a part of the tracking area cannot be tracked in an image, a TV camera is set based on a comparison of a boundary element between the tracking area and the reference area in a three-dimensional space. A second process of determining whether an area that cannot be imaged has occurred due to
The cause of the inability to image the tracking area with the TV camera is estimated based on the positional relationship of the reference area when the reference area is imaged at each position of the TV camera, and the tracking area can be tracked based on the estimation result. And a third process of continuing the tracking by making the above correction.

【0012】請求項2の発明は、請求項1の発明におい
て、前記第1の過程で、一つの画像で設定された追跡領
域の境界要素について他の画像上で対応する候補を抽出
し、境界要素の候補の組み合わせによる追跡候補を生成
した後、前記一つの画像で設定した追跡領域を追跡候補
に一致するように変形させた変形領域を生成し、追跡候
補と変形領域とについて境界要素の形状、画素値、画像
特徴量から選択される指標を比較することにより追跡候
補の中から前記他の画像における追跡領域を決定するこ
とを特徴とする。
According to a second aspect of the present invention, in the first aspect, in the first step, a candidate corresponding to a boundary element of the tracking area set in one image on another image is extracted, and After generating a tracking candidate based on a combination of element candidates, a deformation area is generated by deforming the tracking area set in the one image so as to match the tracking candidate, and the shape of the boundary element is determined for the tracking candidate and the deformation area. The tracking area in the other image is determined from the tracking candidates by comparing an index selected from the pixel value and the image feature amount.

【0013】請求項3の発明は、請求項2の発明におい
て、前記他の画像においてエッジを抽出するとともに、
エッジのうち前記一つの画像において追跡領域を構成す
る線要素との距離および方向が規定範囲内であるエッジ
を線要素の候補として選択することを特徴とする。
According to a third aspect of the present invention, in the second aspect, an edge is extracted from the another image,
Among the edges, an edge whose distance and direction to a line element constituting the tracking area in the one image are within a specified range is selected as a line element candidate.

【0014】請求項4の発明は、請求項2の発明におい
て、前記他の画像においてエッジを抽出するとともに、
エッジ上の各画素にハフ変換を行って連続性を有したエ
ッジを抽出し、このエッジのうち前記一つの画像におい
て追跡領域を構成する線要素との距離および方向が規定
範囲内であるエッジを線要素の候補として選択すること
を特徴とする。
According to a fourth aspect of the present invention, in the second aspect, an edge is extracted from the other image,
An edge having continuity is extracted by performing a Hough transform on each pixel on the edge, and an edge whose distance and direction with a line element constituting a tracking area in the one image are within a specified range is extracted. It is characterized in that it is selected as a line element candidate.

【0015】請求項5の発明は、請求項2の発明におい
て、前記一つの画像において追跡領域を構成する点要素
の近傍の形状をテンプレートとし、前記他の画像におい
てテンプレートにマッチングする部位から点要素の候補
を抽出することを特徴とする。
According to a fifth aspect of the present invention, in the second aspect of the present invention, a shape near a point element constituting a tracking area in the one image is used as a template, and a point element from a portion matching the template in the other image is used. Is extracted.

【0016】請求項6の発明は、請求項2の発明におい
て、前記追跡候補と前記変形領域との画素値を前記指標
に用いることを特徴とする。
According to a sixth aspect of the present invention, in the second aspect, pixel values of the tracking candidate and the deformation area are used as the index.

【0017】請求項7の発明は、請求項2の発明におい
て、前記追跡領域と前記追跡候補との平均輝度を前記指
標に用いることを特徴とする。
According to a seventh aspect of the present invention, in the second aspect, an average luminance of the tracking area and the tracking candidate is used as the index.

【0018】請求項8の発明は、請求項2の発明におい
て、前記画像はカラー画像であって、前記追跡領域と前
記追跡候補との色を前記指標に用いることを特徴とす
る。
According to an eighth aspect of the present invention, in the second aspect, the image is a color image, and the color of the tracking area and the tracking candidate is used as the index.

【0019】請求項9の発明は、請求項2の発明におい
て、前記追跡領域と前記追跡候補との空間周波数分布を
前記指標に用いることを特徴とする。
According to a ninth aspect of the present invention, in the second aspect, a spatial frequency distribution of the tracking area and the tracking candidate is used as the index.

【0020】請求項10の発明は、請求項2の発明にお
いて、前記追跡領域と前記追跡候補の領域内で画素値の
変化が規定値を超える部分を抽出し、この部分の位置、
形状、画像特徴の少なくとも1要素を前記指標に用いる
ことを特徴とする。
According to a tenth aspect of the present invention, in the second aspect of the present invention, a portion where a change in pixel value exceeds a specified value in the tracking region and the tracking candidate region is extracted, and the position of this portion,
At least one element of a shape and an image feature is used as the index.

【0021】請求項11の発明は、請求項2の発明にお
いて、前記画像はカラー画像であって、前記追跡領域と
前記追跡候補との平均輝度または色を前記指標に用いる
場合と、空間周波数分布を前記指標に用いる場合と、領
域内で画素値の変化が規定値を超える部分を抽出し、こ
の部分の位置、形状、画像特徴の少なくとも1要素を前
記指標に用いる場合とを、前記一方の画像における追跡
領域内での輝度および色の分布パターンに応じて選択す
ることを特徴とする。
According to an eleventh aspect of the present invention, in the second aspect, the image is a color image, wherein the average luminance or color of the tracking area and the tracking candidate is used as the index, Is used as the index, and a case where a change in the pixel value within a region exceeds a specified value is extracted, and the position, shape, and at least one element of an image feature of this part are used as the index, The selection is made according to the luminance and color distribution patterns in the tracking area in the image.

【0022】請求項12の発明は、請求項2の発明にお
いて、複数の追跡領域について複数の画像のうち平均輝
度が最大になるときのTVカメラの姿勢を各追跡領域に
対応した対象物の面の反射光の方向に近いと推定し、各
追跡領域に対応した対象物の面の法線方向と反射光の方
向とから光源からの照射方向を推定することを特徴とす
る。
According to a twelfth aspect of the present invention, in accordance with the second aspect of the present invention, the attitude of the TV camera when the average luminance of the plurality of images in the plurality of tracking areas is maximized is determined on the surface of the object corresponding to each tracking area. And the direction of the reflected light is estimated from the direction of the normal to the surface of the object corresponding to each tracking area and the direction of the reflected light.

【0023】請求項13の発明は、請求項1の発明にお
いて、前記第2の過程では、複数の画像間で対応する追
跡領域を3次元空間にマッピングし、当該追跡領域の境
界要素の対応関係から求められる一致度が閾値以上であ
るときに3次元空間にマッピングした追跡領域を基準領
域とし、基準領域に対応する追跡領域と基準領域との境
界要素を比較し、境界要素の変化によって追跡領域中で
撮像されていない領域を抽出することを特徴とする。
According to a thirteenth aspect of the present invention, in the first aspect, in the second step, a tracking area corresponding to a plurality of images is mapped in a three-dimensional space, and a correspondence between boundary elements of the tracking area is mapped. The tracking area mapped in the three-dimensional space is used as the reference area when the degree of coincidence obtained from is equal to or greater than the threshold, and the boundary element between the tracking area corresponding to the reference area and the reference area is compared. It is characterized in that an area in which no image is captured is extracted.

【0024】請求項14の発明は、請求項13の発明に
おいて、複数の画像間で境界要素の個数に変化が生じな
い範囲に限定し、各々の範囲について、マッピング時に
得られる寄与率を一致度に用いて寄与率が閾値以上であ
る追跡領域を基準領域の候補とし、基準領域の候補が複
数個得られるときには面積が最大になる候補を基準領域
として採用することを特徴とする。
According to a fourteenth aspect, in the thirteenth aspect, the number of boundary elements is limited to a range in which the number of boundary elements does not change between a plurality of images. , A tracking area having a contribution rate equal to or more than a threshold is used as a reference area candidate, and when a plurality of reference area candidates are obtained, a candidate having the largest area is adopted as the reference area.

【0025】請求項15の発明は、請求項14の発明に
おいて、境界要素の個数の変化は、線要素と点要素との
一方に着目することを特徴とする。
According to a fifteenth aspect, in the fourteenth aspect, the change in the number of boundary elements focuses on one of a line element and a point element.

【0026】請求項16の発明は、請求項14の発明に
おいて、前記寄与率は追跡領域を因子分解法により3次
元空間にマッピングする際に得られる対角行列の成分か
ら求めることを特徴とする。
According to a sixteenth aspect, in the fourteenth aspect, the contribution ratio is obtained from a diagonal matrix component obtained when the tracking area is mapped into a three-dimensional space by a factorization method. .

【0027】請求項17の発明は、請求項13の発明に
おいて、3次元空間に追跡領域をマッピングするととも
に基準領域と比較し、互いに対応しない点要素によって
規定される領域を追跡領域中で撮像されていない領域と
して求めることを特徴とする。
According to a seventeenth aspect of the present invention, in the thirteenth aspect, the tracking area is mapped in a three-dimensional space and compared with a reference area, and an area defined by point elements which do not correspond to each other is imaged in the tracking area. It is characterized in that it is determined as an area that does not exist.

【0028】請求項18の発明は、請求項13の発明に
おいて、3次元空間に追跡領域をマッピングするととも
に基準領域と比較し、互いに対応しない線要素が存在す
るときに、この線要素を追跡領域中で撮像されていない
領域の一部とみなすことを特徴とする。
According to an eighteenth aspect of the present invention, in the thirteenth aspect, a tracking area is mapped in a three-dimensional space and compared with a reference area. It is characterized in that it is regarded as a part of a region in which no image is taken.

【0029】請求項19の発明は、請求項1の発明にお
いて、前記第3の過程で、3次元空間内でのすべての基
準領域をTVカメラの位置により決まる画像面に投影
し、画像面内における基準領域同士の位置関係および画
像面に対する基準領域の位置関係に基づいて、追跡領域
中で撮像されていない領域が生じた原因を判定すること
を特徴とする。
According to a nineteenth aspect of the present invention, in the first aspect of the invention, in the third step, all the reference areas in the three-dimensional space are projected on an image plane determined by the position of the TV camera. Is characterized by determining the cause of the occurrence of an area that is not imaged in the tracking area based on the positional relationship between the reference areas and the positional relationship of the reference area with respect to the image plane.

【0030】請求項20の発明は、請求項19の発明に
おいて、着目する基準領域とTVカメラとの間に他の基
準領域が存在し、かつ両基準領域が接続されていないと
きに他者隠蔽と判定することを特徴とする。
According to a twentieth aspect of the present invention, in the invention of the nineteenth aspect, when another reference area exists between the reference area of interest and the TV camera and both reference areas are not connected, the concealment of others is performed. Is determined.

【0031】請求項21の発明は、請求項19の発明に
おいて、着目する基準領域とTVカメラとの間に他の基
準領域が存在し、かつ両基準領域が接続されているとき
に自己隠蔽と判定することを特徴とする。
According to a twenty-first aspect, in the nineteenth aspect, when there is another reference area between the reference area of interest and the TV camera and both reference areas are connected, self-concealment is performed. It is characterized by determining.

【0032】請求項22の発明は、請求項19の発明に
おいて、着目する基準領域が画面の周縁に位置するとき
にフレームアウトと判定することを特徴とする。
A twenty-second aspect of the present invention is characterized in that, in the nineteenth aspect, it is determined that the frame is out when the reference region of interest is located on the periphery of the screen.

【0033】請求項23の発明は、請求項19の発明に
おいて、追跡領域中で撮像されていない領域が存在する
ときに、エッジ延長を行い、延長されたエッジの交点を
新たな点要素として、追跡処理を再度実行し、3次元空
間にマッピングする際に寄与率が向上すれば隠蔽と確定
することを特徴とする。
According to a twenty-third aspect of the present invention, in the nineteenth aspect of the present invention, when an area that is not imaged in the tracking area exists, edge extension is performed, and the intersection of the extended edge is set as a new point element. The tracking processing is executed again, and if the contribution rate is improved when mapping to the three-dimensional space, it is determined to be concealment.

【0034】請求項24の発明は、TVカメラにより撮
像された画像入力画像として与える画像入力部と、入力
された画像に対して請求項1記載の画像特徴追跡処理方
法による処理を施す画像処理装置と、入力された画像お
よび画像処理装置で処理された画像を格納する記憶装置
と、画像処理装置での処理画像を表示する表示手段と、
画像処理装置に対して追跡領域を指定する領域指定手段
とを備えるものである。
According to a twenty-fourth aspect of the present invention, there is provided an image input unit for providing an image input image picked up by a TV camera, and an image processing apparatus for processing the input image according to the image feature tracking processing method according to the first aspect. A storage device for storing an input image and an image processed by the image processing device, and a display unit for displaying a processed image in the image processing device;
And an area designating means for designating a tracking area for the image processing apparatus.

【0035】請求項25の発明は、対象物を異なる複数
位置からTVカメラにより撮像して複数の画像を取得し
た後、前記対象物から選択した面を境界要素で表した追
跡領域として画像内に設定し、一つの画像内で設定した
追跡領域を他の画像における追跡領域の候補の境界要素
に一致するように変形させた変形領域を作成し、前記他
の画像における追跡領域の候補と変形領域とについて境
界要素を比較することにより追跡領域の候補から前記一
つの画像内で設定した追跡領域に対応する追跡領域を選
択し、さらに前記対象物の複数の面が撮像されかつ連続
して同じ面が撮像されている複数の画像を1つのフェー
ズ画像群として区切り、次に複数のフェーズ画像につい
て各フェーズ画像群ごとに対象物から選択した面の3次
元空間へのマッピングを行うことにより各フェーズ画像
群ごとに3次元形状を求め、互いに他のフェーズ画像群
の座標系を一致させるように座標変換を行うことによっ
て、3次元データを作成することを特徴とする。
According to a twenty-fifth aspect of the present invention, after a plurality of images are obtained by picking up an object from a plurality of different positions using a TV camera, a plane selected from the object is set as a tracking area represented by a boundary element in the image. Set, and create a deformation area by deforming the tracking area set in one image so as to match the boundary element of the tracking area candidate in another image, and create a tracking area candidate and a deformation area in the other image. And selecting a tracking area corresponding to the tracking area set in the one image from the tracking area candidates by comparing the boundary elements with each other, and further, a plurality of surfaces of the object are imaged and continuously the same surface Is divided into one phase image group, and then the mapping of the plurality of phase images to the three-dimensional space of the surface selected from the object for each phase image group is performed. Determined the three-dimensional shape for each phase image group by performing grayed, by performing coordinate conversion so as to match each other coordinate system of the other phase images, characterized by creating a three-dimensional data.

【0036】請求項26の発明は、対象物を異なる複数
位置からTVカメラにより撮像して複数の画像を取得し
た後、前記対象物から選択した面を境界要素で表した追
跡領域として画像内に設定し、一つの画像内で設定した
追跡領域を他の画像における追跡領域の候補の境界要素
に一致するように変形させた変形領域を作成し、前記他
の画像における追跡領域の候補と変形領域とについて境
界要素を比較することにより追跡領域の候補から前記一
つの画像内で設定した追跡領域に対応する追跡領域を選
択し、さらに前記対象物の複数の面が撮像されかつ連続
して同じ面が撮像されている複数の画像を1つのフェー
ズ画像群として区切り、次に複数のフェーズ画像につい
て各フェーズ画像群ごとに対象物から選択した面の3次
元空間へのマッピングを行うことにより各フェーズ画像
群ごとに3次元形状を求め、互いに他のフェーズ画像群
に共通している線要素を重ね合わせるように各フェーズ
画像群ごとに得られた3次元形状の座標変換を行うこと
によって、3次元データを作成することを特徴とする。
According to a twenty-sixth aspect of the present invention, after a plurality of images are obtained by capturing an image of an object from a plurality of different positions with a TV camera, a plane selected from the object is set as a tracking area represented by a boundary element in the image. Set, and create a deformation area by deforming the tracking area set in one image so as to match the boundary element of the tracking area candidate in the other image, and create a tracking area candidate and a deformation area in the other image. And selecting a tracking area corresponding to the tracking area set in the one image from the candidates for the tracking area by comparing the boundary elements with each other, and further, a plurality of surfaces of the object are imaged and continuously the same surface Is divided into one phase image group, and then the mapping of the plurality of phase images to the three-dimensional space of the surface selected from the object for each phase image group is performed. The three-dimensional shape is obtained for each phase image group, and the coordinate transformation of the three-dimensional shape obtained for each phase image group is performed so that line elements common to other phase image groups are superimposed on each other. Is performed to create three-dimensional data.

【0037】請求項27の発明は、請求項25または請
求項26の発明において、前記TVカメラにより撮像し
て取得した前記複数の画像内で前記対象物から選択した
面を、点要素と各点要素を順次接続する有向の線要素と
からなる境界要素で表し、時系列で得られる各画像にお
いて線要素を辿って各点要素を巡回する向きを監視し、
巡回する向きが逆になるまでを1つのフェーズ画像群と
することを特徴とする。
According to a twenty-seventh aspect of the present invention, in the twenty-fifth or twenty-sixth aspect, a surface selected from the object in the plurality of images captured by the TV camera is defined as a point element and each point. Expressed as boundary elements consisting of directed line elements that sequentially connect elements, monitor the direction of tracing each point element by tracing the line element in each image obtained in time series,
It is characterized that one phase image group is taken until the traveling direction is reversed.

【0038】請求項28の発明は、請求項25または請
求項26の発明において、前記座標変換では、境界要素
ごとに回転および平行移動に関する変換パラメータを求
めた後、境界要素ごとに求めた変換パラメータをそれぞ
れ平均した変換パラメータを用いて座標変換を行うこと
を特徴とする。
According to a twenty-eighth aspect of the present invention, in the twenty-fifth or twenty-sixth aspect of the present invention, in the coordinate conversion, after obtaining conversion parameters relating to rotation and translation for each boundary element, the conversion parameters obtained for each boundary element are obtained. The coordinate transformation is performed using the transformation parameters obtained by averaging the respective coordinates.

【0039】請求項29の発明は、請求項25または請
求項26の発明において、座標系を互いに一致させる一
方の3次元形状に前記座標変換を施した後の各点要素の
位置と他方の3次元形状においてそれぞれ対応する各点
要素の位置との中点を、各点要素の位置とすることを特
徴とする。
According to a twenty-ninth aspect of the present invention, in the invention of the twenty-fifth or twenty-sixth aspect, the position of each point element after performing the coordinate transformation on one of the three-dimensional shapes whose coordinate systems match each other and the other three-dimensional shape. It is characterized in that the midpoint between the position of each corresponding point element in the dimensional shape is the position of each point element.

【0040】[0040]

【発明の実施の形態】(第1の実施の形態)図1に本発
明で用いる装置を示す。処理対象となる2次元画像は、
画像入力装置11から画像特徴追跡処理装置10に入力
される。画像入力装置11としては、TVカメラ、ある
いはTVカメラにより撮像された動画像を記録した記録
媒体(ビデオテープ、CD、DVDなど)から映像を再
生する再生装置が用いられ、画像特徴追跡処理装置10
はコンピュータ装置(パーソナルコンピュータ)を用い
て構成される。TVカメラ(以下ではカメラと略称す
る)としては家庭用の簡易なビデオカメラでよく、工業
用のITVカメラでもよい。また、以下に説明する実施
形態ではカラー画像を対象とする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS (First Embodiment) FIG. 1 shows an apparatus used in the present invention. The two-dimensional image to be processed is
The image is input from the image input device 11 to the image feature tracking processing device 10. As the image input device 11, a playback device that plays back a video from a TV camera or a recording medium (video tape, CD, DVD, or the like) that records a moving image captured by the TV camera is used.
Is configured using a computer device (personal computer). As a TV camera (hereinafter abbreviated as a camera), a simple video camera for home use may be used, and an ITV camera for industrial use may be used. In the embodiments described below, a color image is targeted.

【0041】画像特徴追跡処理装置10に入力される画
像は、図2に示すように対象物1に対してカメラ2を矢
印Aで示すように移動させることによって、対象物1を
見る視点を連続的に変化させた画像を用いる。つまり、
対象物1に対する視点を連続的に変化させた2次元画像
の時系列画像群(動画像)が画像特徴追跡処理装置10
に入力される。ここで、画像入力手段12に入力される
画像は、動画像の各フレーム間での対象物1の移動量が
対象物1の大きさに比較して十分に小さくなるように撮
像されている。つまり、動画像を撮像するカメラ2は比
較的低速で移動する。また、対象物1としては平面部分
が比較的多いものを考え、しかも対象物1は移動せず時
間経過に伴う形状の変化も生じないものとする。図2に
示した対象物1を撮像して得られる動画像の例を図3に
示す。図3では1つの枠が1画像V1〜V3を意味し、
左から右に向かって画像V1〜V3が時系列に並んでい
る状態を示している。
The image input to the image feature tracking processing device 10 is continuously moved from the viewpoint of the object 1 by moving the camera 2 with respect to the object 1 as shown by an arrow A as shown in FIG. Use an image that has been dynamically changed. That is,
A time-series image group (moving image) of a two-dimensional image in which the viewpoint with respect to the object 1 is continuously changed is used as the image feature tracking processing device 10.
Is input to Here, the image input to the image input unit 12 is imaged such that the moving amount of the target 1 between the frames of the moving image is sufficiently smaller than the size of the target 1. That is, the camera 2 that captures a moving image moves at a relatively low speed. It is also assumed that the object 1 has a relatively large number of flat portions, and that the object 1 does not move and does not change its shape with time. FIG. 3 shows an example of a moving image obtained by imaging the object 1 shown in FIG. In FIG. 3, one frame means one image V1 to V3,
A state is shown in which images V1 to V3 are arranged in chronological order from left to right.

【0042】画像特徴追跡処理装置10は、基本的に
は、画像入力装置11とのインタフェースとなる画像入
力手段12と、画像入力手段12を通して入力された動
画像や処理結果を格納するために設けられたハードディ
スクおよびメモリからなる記憶装置13と、入力された
2次元画像である時系列画像群から3次元情報を抽出す
る画像処理装置14と、入力された動画像や処理結果を
表示するディスプレイ装置からなる表示手段15と、画
像処理装置14に対して対象物1に対応した追跡領域な
どを設定するためのキーボードおよびマウスからなる領
域指定手段16とを備える。
The image feature tracking processor 10 is basically provided for storing image input means 12 serving as an interface with the image input apparatus 11 and for storing moving images and processing results input through the image input means 12. Storage device 13 comprising a hard disk and a memory, an image processing device 14 for extracting three-dimensional information from a time-series image group as an input two-dimensional image, and a display device for displaying input moving images and processing results And an area designating unit 16 including a keyboard and a mouse for setting a tracking area and the like corresponding to the object 1 with respect to the image processing apparatus 14.

【0043】記憶装置13には、画像入力手段12を通
して入力された画像を格納する画像ファイルF1と、2
次元画像である時系列画像群において3次元情報を得よ
うとする対象物1を追跡する際の作業用ファイルとして
用いる追跡データファイルF2と、画像処理装置14に
より得られた3次元情報を格納する3次元形状データフ
ァイルF3とが設けられる。
The storage device 13 stores an image file F1 for storing an image input through the image input means 12,
A tracking data file F2 used as a work file when tracking the target 1 for obtaining three-dimensional information in a time-series image group that is a two-dimensional image, and three-dimensional information obtained by the image processing device 14 are stored. A three-dimensional shape data file F3 is provided.

【0044】また、画像処理装置14は、上述した領域
指定手段16により対象物1に対して設定された追跡領
域に基づいて対象物1を追跡する領域追跡手段17を備
えるとともに、領域追跡手段17による対象物1の追跡
の妥当性を評価する追跡評価手段18を備える。また、
画像処理装置14には追跡した対象物1に関する2次元
画像内での情報から3次元情報を生成する形状復元手段
19が設けられる。追跡評価手段18において行われる
追跡の妥当性の評価には、形状復元手段19により生成
された3次元情報を用いる。
The image processing apparatus 14 includes an area tracking means 17 for tracking the object 1 based on the tracking area set for the object 1 by the area specifying means 16 described above. Tracking evaluation means 18 for evaluating the validity of the tracking of the object 1 by the following. Also,
The image processing device 14 is provided with a shape restoring unit 19 that generates three-dimensional information from information in the two-dimensional image of the tracked object 1. The three-dimensional information generated by the shape restoring unit 19 is used for evaluating the validity of the tracking performed by the tracking evaluating unit 18.

【0045】以下に、画像処理装置14の動作を説明す
る。まず、画像入力手段12を通して画像が入力される
と、入力された画像は記憶装置13の画像ファイルF1
に格納されるとともに表示手段15に表示される。ここ
で、領域指定手段16を操作する操作者は表示手段15
に表示された画像を見て対象物1に対応付けて初期の追
跡領域を指定する。つまり、時系列画像群から1つの画
像を選択し、この画像内で初期の追跡領域を設定する。
一般に、追跡領域は対象物1の面単位で設定され、1つ
の画像に表示されている対象物1のすべての面を追跡領
域として指定する。このようにして追跡領域を指定すれ
ば、背景のような不要な情報は除去される。図4に追跡
領域Dを指定した状態を示す。追跡領域Dは境界要素の
集合よりなる閉領域であって、境界要素としては点要素
および点要素を結ぶ線要素を用いている。図4におい
て、白丸が点要素であり、隣接する2個の点要素の間の
線が線要素を表す。境界要素は、線要素が2つの追跡領
域Dに共有されているか否かにより表される追跡領域D
同士の接続関係(図4の太線は2つの追跡領域Dに跨る
線要素を示す)、領域の画像特徴(色、テクスチャ等)
を含んでいてもよい。
Hereinafter, the operation of the image processing apparatus 14 will be described. First, when an image is input through the image input unit 12, the input image is stored in the image file F1 in the storage device 13.
And displayed on the display means 15. Here, the operator operating the area designating means 16 is
The initial tracking area is specified in association with the target object 1 by looking at the image displayed in. That is, one image is selected from the time-series image group, and an initial tracking area is set in this image.
Generally, the tracking area is set for each surface of the object 1, and all the surfaces of the object 1 displayed in one image are designated as the tracking area. By specifying the tracking area in this way, unnecessary information such as the background is removed. FIG. 4 shows a state where the tracking area D is designated. The tracking area D is a closed area composed of a set of boundary elements, and uses point elements and line elements connecting the point elements as the boundary elements. In FIG. 4, a white circle is a point element, and a line between two adjacent point elements represents a line element. The boundary element is a tracking area D represented by whether or not a line element is shared by the two tracking areas D.
The connection relationship between the two (the bold line in FIG. 4 indicates a line element straddling the two tracking areas D), and image characteristics (color, texture, etc.) of the area
May be included.

【0046】上述のように立体形状を境界要素としての
線要素と点要素とにより表現する形式は境界表現(B−
REP:boundary representation)と呼ばれ3DCG
では一般的に用いられている。入力された画像情報を境
界表現に変換すれば、画素単位で画像情報を扱う場合に
比較するとデータ量が大幅に低減され、しかも3次元デ
ータを利用する際にデータの変換が容易になる。図5に
境界表現による境界領域Dの設定例を示す。図5では斜
線部が境界領域Dを示し、線要素s1〜s8と点要素p
1〜p8によって環状の領域を設定している。
As described above, the format for expressing a three-dimensional shape by line elements and point elements as boundary elements is a boundary expression (B-
3DCG called REP (boundary representation)
Is commonly used. If the input image information is converted into the boundary representation, the data amount is significantly reduced as compared with the case where the image information is handled in pixel units, and the data conversion becomes easy when using three-dimensional data. FIG. 5 shows a setting example of the boundary area D by the boundary expression. In FIG. 5, the hatched portion indicates the boundary region D, and the line elements s1 to s8 and the point element p
An annular area is set by 1 to p8.

【0047】領域指定手段16では、対象物1に追跡領
域Dを設定するだけではなく対象物1を計測する精度も
指定することができる。たとえば、図6のような引出2
1を有する家具20について3次元計測を行うとすれ
ば、引出21に設けた取手22まで計測するか、家具2
0の全体を直方体とみなして計測するかの精度を指定す
ることができる。画像内の対象物1が家具のように複雑
な形状ではなく幾何学的な形状の組み合わせのような単
純な形状である場合には、対象物1の各面をそれぞれ追
跡領域Dとして自動的に設定するようにしてもよい。つ
まり、対象物1の内部領域を面ごとに分割するような領
域分割手段を設けてもよい。
The area specifying means 16 can specify not only the tracking area D for the object 1 but also the accuracy with which the object 1 is measured. For example, drawer 2 as shown in FIG.
If three-dimensional measurement is performed on the furniture 20 having the furniture 1, the furniture 22 may be measured up to the handle 22 provided on the drawer 21, or the furniture 2 may be measured.
It is possible to specify the accuracy of whether or not to measure the entirety of 0 as a rectangular parallelepiped. When the object 1 in the image is not a complicated shape like furniture but a simple shape such as a combination of geometric shapes, each surface of the object 1 is automatically set as a tracking area D. You may make it set. That is, a region dividing unit that divides the internal region of the object 1 for each surface may be provided.

【0048】追跡領域Dは記憶装置13における追跡デ
ータファイルF2に格納される。領域追跡手段17は、
時系列画像群の各画像において領域指定手段16により
設定された追跡領域Dに対応する領域を検出する。つま
り、時系列画像群の各画像において対象物1の着目する
面を追跡する。領域追跡手段17では、時系列画像群の
各画像において追跡領域Dを追跡するために、画像ファ
イルF1に格納された時系列画像群のうちの1画像(1
フレーム)に対して設定されている追跡領域Dから、次
フレームの追跡領域Dの形状を推定して変形領域を生成
する機能を有する。得られた変形領域は次フレームの画
像と比較照合され、次フレームでの変形領域の位置が検
出される。その後、変形領域を次フレームにおける追跡
領域とみなして、さらにその次のフレームでの変形領域
の位置を検出する。こうしてすべてのフレームについて
変形領域を次々に生成して変形領域の位置を追跡データ
として追跡データファイルF2に格納する。
The tracking area D is stored in the tracking data file F2 in the storage device 13. The area tracking means 17
An area corresponding to the tracking area D set by the area specifying means 16 in each image of the time-series image group is detected. That is, the target surface of the object 1 is tracked in each image of the time-series image group. In order to track the tracking area D in each image of the time-series image group, the area tracking unit 17 uses one image (1) of the time-series image group stored in the image file F1.
A function of estimating the shape of the tracking area D of the next frame from the tracking area D set for the frame) and generating a deformation area. The obtained deformed area is compared with the image of the next frame, and the position of the deformed area in the next frame is detected. Then, the position of the deformation area in the next frame is detected by regarding the deformation area as a tracking area in the next frame. In this way, the deformation areas are successively generated for all the frames, and the positions of the deformation areas are stored as tracking data in the tracking data file F2.

【0049】領域追跡手段17の機能についてさらに詳
しく説明する。図7は時系列画像群のうちの1画像(1
フレーム)において、1つの対象物1のみを表示した状
態で示してある。図7における追跡領域(斜線部)Dは
時系列画像群において1つ前のフレームで設定されたも
のであり、図7に示すフレームにおいては対象物1のど
の面とも一致していない。そこで、領域追跡手段17で
は追跡領域Dの各線要素sA,sB,sCがフレーム内
のどの部分に対応するかを検出する。ここに、対象物1
の画像はエッジを抽出した画像(エッジ画像という)で
あるものとする。エッジの抽出には周知の技術を用い
る。
The function of the area tracking means 17 will be described in more detail. FIG. 7 shows one image (1) of the time-series image group.
(Frame), only one object 1 is shown. The tracking area (hatched portion) D in FIG. 7 is set in the immediately preceding frame in the time-series image group, and does not match any surface of the object 1 in the frame shown in FIG. Therefore, the area tracking means 17 detects which part in the frame each line element sA, sB, sC of the tracking area D corresponds to. Here, Object 1
Is an image from which edges are extracted (referred to as an edge image). A well-known technique is used for edge extraction.

【0050】領域追跡手段17では、線要素に基づいて
変形領域を生成する場合と、点要素に基づいて変形領域
を生成する場合とがある。線要素に基づいて変形領域を
生成する場合には、まず対象物1のエッジのうち方向お
よび距離が各線要素sA,sB,sCに対して所定範囲
内であるエッジを抽出する。すなわち、対象物1のエッ
ジ画像に対してハフ変換を行うことにより、エッジ画像
内での直線部分の傾きを知ることができるから、ハフ変
換により求めたエッジ画像内の各直線部分と各線要素s
A,sB,sCとの角度差を求めて、この角度差が所定
範囲内であるときにエッジ画像内の直線部分を線要素s
A,sB,sCに対応付ける。図示例では線要素sAに
対してエッジsa1,sa2が対応し、線要素sBに対
してエッジsb1,sb2が対応し、線要素sCに対し
てエッジsc1が対応する。
The area tracking means 17 generates a deformation area based on a line element and generates a deformation area based on a point element. When generating a deformation area based on a line element, first, an edge whose direction and distance are within a predetermined range with respect to each of the line elements sA, sB, and sC is extracted from the edges of the object 1. That is, by performing the Hough transform on the edge image of the object 1, the inclination of the straight line portion in the edge image can be known. Therefore, each straight line portion and each line element s in the edge image obtained by the Hough transform are obtained.
The angle difference between A, sB, and sC is determined, and when the angle difference is within a predetermined range, a straight line portion in the edge image is converted to a line element
Correspond to A, sB, and sC. In the illustrated example, the edges sa1 and sa2 correspond to the line element sA, the edges sb1 and sb2 correspond to the line element sB, and the edge sc1 corresponds to the line element sC.

【0051】この段階では、線要素sAには2本のエッ
ジsa1,sa2が対応付けられ、線要素sBにも2本
のエッジsb1,sb2が対応付けられているから、1
つの変形領域を設定するには、各線要素sA,sB,s
Cにエッジsa1,sa2,sb1,sb2,sc1を
一対一に対応付ける必要がある。ここで、組み合わせと
しては4種類の候補が考えられる。つまり、sa1−s
b1−sc1、sa1−sb2−sc1、sa2−sb
1−sc1、sa2−sb2−sc1のいずれかの組み
合わせ(以下、追跡候補という)が追跡領域Dに対応す
ることになる。ここではハフ変換によってエッジを求め
ているから、エッジの長さに関する情報は失われてお
り、各組み合わせは図8に実線で示す図形に相当する。
図8における二点鎖線は着目外のエッジを示す。
At this stage, two edges sa1 and sa2 are associated with the line element sA, and two edges sb1 and sb2 are also associated with the line element sB.
To set three deformation areas, each line element sA, sB, s
It is necessary to associate the edges sa1, sa2, sb1, sb2, and sc1 with C in one-to-one correspondence. Here, four types of candidates are conceivable as combinations. That is, sa1-s
b1-sc1, sa1-sb2-sc1, sa2-sb
Any combination of 1-sc1 and sa2-sb2-sc1 (hereinafter, referred to as a tracking candidate) corresponds to the tracking area D. Here, since the edge is obtained by the Hough transform, information on the length of the edge is lost, and each combination corresponds to a figure shown by a solid line in FIG.
The two-dot chain line in FIG. 8 indicates an edge not of interest.

【0052】次に、上述した各追跡候補にそれぞれ合致
するように追跡領域Dを変形する。つまり、線要素s
A,sB,sCを図8(a)〜(d)に示した追跡候補
に対応付けるように変形して変形領域を生成すると、図
9(a)〜(d)のように線要素sA1〜sA4,sB
1〜sB4,sC1〜sC4を有した4種類の変形領域
E1〜E4が生成される。図9(e)は変形前の追跡領
域Dである。ここに、追跡領域Dを変形する処理は、図
10に示すように、元の追跡領域Dにおける各点要素p
A,pB,pCと変形領域Eにおけるエッジの各交点p
a,pb,pcとを結ぶベクトルMa,Mb,Mcを求
め、さらに追跡領域Dに含まれる画素pPの位置に応じ
てベクトルMa,Mb,Mcを補間することにより画素
pPに対応する変形領域E内での画素ppの位置(ベク
トルMp)を求める。また、変形領域Eの各画素の画素
値も補間処理によって求める。この種の処理をワープ変
形処理と呼んでいる。
Next, the tracking area D is modified so as to match each of the tracking candidates described above. That is, the line element s
When A, sB, and sC are deformed so as to correspond to the tracking candidates shown in FIGS. 8A to 8D to generate a deformation area, the line elements sA1 to sA4 are obtained as shown in FIGS. , SB
Four types of deformation regions E1 to E4 having 1 to sB4 and sC1 to sC4 are generated. FIG. 9E shows the tracking area D before deformation. Here, the process of deforming the tracking area D is performed by changing each point element p in the original tracking area D as shown in FIG.
Each intersection point p of A, pB, pC and the edge in the deformation area E
a, pb, and pc, the vectors Ma, Mb, and Mc are obtained, and the vectors Ma, Mb, and Mc are interpolated according to the positions of the pixels pP included in the tracking area D, so that the deformation areas E corresponding to the pixels pP are obtained. The position of the pixel pp (vector Mp) within the. Further, the pixel value of each pixel in the deformation area E is also obtained by the interpolation processing. This type of processing is called warping deformation processing.

【0053】領域追跡手段17において、点要素に基づ
いて変形領域を生成する場合には、追跡領域Dの点要素
pA,pB,pCの近傍における境界要素の形状に着目
する。いま、図11のような画像が得られれているもの
とすると、追跡領域Dの各点要素pA,pB,pCを中
心とする所定範囲の境界要素は、図12(a)〜(c)
のようになる。そこで、図12の形状をテンプレートに
用いてフレーム(追跡領域Dを設定した次のフレーム)
内のパターンマッチングを行い、類似度の高い部位を抽
出する。パターンマッチングはフレーム内の点要素の近
傍で行えばよく、また傾きを考慮する必要がないから、
画像内の全領域についてパターンマッチングする場合に
比較して処理量がごく少なくなる。図11の例では点要
素sAに対して点要素sa1,sa2,sa3が選択さ
れ、点要素sBに対して点要素sb1が選択され、点要
素sCに対して点要素sc1が選択される。つまり、図
13に示すように、sa1−sb1−sc1、sa2−
sb1−sc1、sa3−sb1−sc1の3種類の組
み合わせが追跡候補として得られるから、図14のよう
に3種類の変形領域E1〜E3が生成される。
When the area tracking means 17 generates a deformation area based on a point element, attention is paid to the shape of the boundary element near the point elements pA, pB, and pC of the tracking area D. Now, assuming that an image as shown in FIG. 11 has been obtained, boundary elements in a predetermined range around each point element pA, pB, pC of the tracking area D are shown in FIGS. 12 (a) to 12 (c).
become that way. Therefore, a frame using the shape of FIG. 12 as a template (the next frame in which the tracking area D is set)
Is performed, and a part having a high degree of similarity is extracted. Since pattern matching only needs to be performed in the vicinity of a point element in the frame and there is no need to consider the inclination,
The processing amount is very small as compared with the case where pattern matching is performed for all regions in the image. In the example of FIG. 11, the point element sa1, sa2, sa3 is selected for the point element sA, the point element sb1 is selected for the point element sB, and the point element sc1 is selected for the point element sC. That is, as shown in FIG. 13, sa1-sb1-sc1, sa2-
Since three combinations of sb1-sc1 and sa3-sb1-sc1 are obtained as tracking candidates, three types of deformation regions E1 to E3 are generated as shown in FIG.

【0054】上述のようにして変形領域Eの各画素px
の画素値が求められると、次に、変形領域Eを用いて各
追跡候補の中から追跡領域Dに対応するものを選択す
る。
As described above, each pixel px in the deformation area E
Next, the pixel corresponding to the tracking area D is selected from the tracking candidates using the deformation area E.

【0055】まず、追跡領域Dの中の画素値(濃度値)
および微分値が規定範囲内であるときには、画素値が略
一定であるか変化が滑らかであることを意味するから、
変形領域Eの各画素ppの画素値と追跡候補の各画素の
画素値とを直接比較する。つまり、各変形領域Eは各追
跡候補の形状に合致するように設定されているから、対
応する部位の画素値の差を求めることによって、画素値
の差異を知ることができる。そこで、画素値の差の絶対
値の総和を求め、追跡領域Dに含まれる画素数で除算し
た値を評価値として用いる。すべての追跡候補について
評価値を求め、評価値がもっとも小さい追跡候補を最適
な追跡候補として選択する。すなわち、このようにして
選択した追跡候補を、新たな追跡領域として採用するの
である。図8に示す例では図8(b)の追跡候補が新た
な追跡領域として選択され、図12に示す例では図13
(a)の追跡候補が新たな追跡領域として選択される。
言い換えると、追跡候補内に他のエッジが含まれないよ
うな組み合わせ(線要素ではpa1−pb1−pc1、
点要素ではpa1−pb1−pc1)の評価値が最小に
なり、新たな追跡領域になる。
First, the pixel value (density value) in the tracking area D
And when the differential value is within the specified range, it means that the pixel value is substantially constant or the change is smooth,
The pixel value of each pixel pp in the deformation area E is directly compared with the pixel value of each pixel of the tracking candidate. That is, since each deformation area E is set so as to match the shape of each tracking candidate, the difference in pixel value can be known by calculating the difference in pixel value of the corresponding part. Therefore, the sum of the absolute values of the pixel value differences is obtained, and the value obtained by dividing by the number of pixels included in the tracking area D is used as the evaluation value. Evaluation values are obtained for all the tracking candidates, and the tracking candidate with the smallest evaluation value is selected as the optimal tracking candidate. That is, the tracking candidate selected in this way is adopted as a new tracking area. In the example shown in FIG. 8, the tracking candidate in FIG. 8B is selected as a new tracking area, and in the example shown in FIG.
The tracking candidate of (a) is selected as a new tracking area.
In other words, a combination in which no other edge is included in the tracking candidate (for the line element, pa1-pb1-pc1,
In the point element, the evaluation value of pa1-pb1-pc1) becomes the minimum, and a new tracking area is obtained.

【0056】一方、追跡領域Dの中で画素値あるいは微
分値が規定範囲を超える部分を有するときには、画素値
に局所的に大きな変動があることを意味する。たとえ
ば、石の表面のように細かい模様(テクスチャ)を含む
ような追跡領域Dでは、画素値あるいは微分値が規定範
囲を超えることになり、このような面では局所的な画素
値の差が大きいので画素値の差を評価値に用いることは
できない。そこで、追跡領域Dにおける後述の画像特徴
量と変形領域E1から求めた画像特徴量との差を評価値
として用い、評価値が最小になる追跡候補を新たな追跡
領域として採用する。
On the other hand, when the pixel value or the differential value has a portion exceeding the specified range in the tracking area D, it means that the pixel value has a large variation locally. For example, in a tracking area D including a fine pattern (texture) such as a stone surface, a pixel value or a differential value exceeds a specified range, and a local pixel value difference is large on such a surface. Therefore, the difference between the pixel values cannot be used as the evaluation value. Therefore, a difference between an image feature amount described later in the tracking area D and an image feature amount obtained from the deformation area E1 is used as an evaluation value, and a tracking candidate with the minimum evaluation value is adopted as a new tracking area.

【0057】ここに、画像特徴量としては、追跡領域D
の輝度がほぼ均一であるときには輝度情報を用い、色に
ばらつきが少ないときには色情報を用いればよい。つま
り、追跡候補のうち追跡領域Dとの画像特徴量の差が規
定値以内のときに追跡候補を新たな追跡領域として採用
する。なお、色情報を用いるときには画像としてカラー
画像を用いる必要がある。色情報を用いる場合には、た
とえば図15に示すような色度図(R,G,B,Wは
赤、緑、青、白を意味する)の中でのR−W線に対する
追跡領域の色Qとの角度θを色相値とすればよい。
Here, as the image feature amount, the tracking area D
The luminance information may be used when the luminance is almost uniform, and the color information may be used when there is little variation in color. That is, when the difference in the image feature amount between the tracking candidate and the tracking area D is within the specified value, the tracking candidate is adopted as a new tracking area. When color information is used, it is necessary to use a color image as an image. When the color information is used, for example, the tracking area of the RW line in the chromaticity diagram (R, G, B, W means red, green, blue, and white) as shown in FIG. The angle θ with the color Q may be used as the hue value.

【0058】また、図16に示すように、追跡領域Dに
周期的とみなされる模様が存在するときには、フーリエ
変換やウェーブレット変換を行うことにより空間周波数
に関する情報を抽出して画像特徴量に用いる。つまり、
図17のように変形領域Eと追跡候補との空間周波数の
分布d1,d2をそれぞれ抽出し、空間周波数の分布d
1,d2を比較すれば追跡候補から新たな追跡領域を選
択することができる。
Further, as shown in FIG. 16, when there is a pattern regarded as periodic in the tracking area D, Fourier transform or wavelet transform is performed to extract information relating to the spatial frequency and use it as an image feature amount. That is,
As shown in FIG. 17, the spatial frequency distributions d1 and d2 of the deformation area E and the tracking candidate are extracted, and the spatial frequency distribution d is extracted.
By comparing 1 and d2, a new tracking area can be selected from the tracking candidates.

【0059】図18のように、対象物の表面に文字や図
形が表記されたりラベルが貼着されているような場合に
は、追跡領域Dの中でもコントラストの大きい部位が生
じることがある。このようなときには、文字や図形の表
記あるいはラベルを特徴部分Fとして追跡候補と変形領
域Eとの比較を行う。たとえば、図18(a)のように
変形領域Eが設定され、比較すべき追跡候補E′(特徴
部分F′を含む)が図18(b)のように設定されてい
るとすれば、図19に示すように、特徴部分Fの重心G
とエッジの各交点pa,pb,pcとの距離L1,L
2,L3、特徴部分Fの面積、特徴部分Fでの平均輝度
や平均色相を画像特徴量として用いることによって、追
跡候補から新たな追跡領域を選択することが可能にな
る。
As shown in FIG. 18, when characters or graphics are written on the surface of an object or a label is affixed thereto, a portion having a large contrast may occur in the tracking area D. In such a case, the tracking candidate and the deformation area E are compared with the notation of a character or figure or a label as the characteristic portion F. For example, if the deformation area E is set as shown in FIG. 18A and the tracking candidate E ′ (including the characteristic portion F ′) to be compared is set as shown in FIG. As shown in FIG. 19, the center of gravity G of the characteristic portion F
L1, L between each point of intersection pa, pb, pc of the edge
By using 2, 2, L3, the area of the characteristic portion F, the average luminance and the average hue in the characteristic portion F as the image characteristic amount, it is possible to select a new tracking area from the tracking candidates.

【0060】上述のように、追跡候補から新たな追跡領
域を選択するときの評価方法は、追跡領域Dの中で画素
値および微分値が規定範囲内である場合と、追跡領域D
内で画素値または微分値が規定範囲外である場合と、追
跡領域D内に表記やラベルが存在する場合の3つの場合
とでそれぞれ異なる。そこで、各条件に応じて評価方法
を選択することが必要である。この選択には、輝度およ
び色相のヒストグラムを作成し、ヒストグラムのパター
ンに応じて評価方法を選択することによって選択を自動
化している。
As described above, the evaluation method for selecting a new tracking area from the tracking candidates includes a case where the pixel value and the differential value in the tracking area D are within a specified range, and a case where the tracking area D
Are different from each other in the case where the pixel value or the derivative value is out of the specified range in the case where the notation or the label exists in the tracking area D. Therefore, it is necessary to select an evaluation method according to each condition. For this selection, a histogram of luminance and hue is created, and the selection is automated by selecting an evaluation method according to the pattern of the histogram.

【0061】すなわち、輝度および色相についてヒスト
グラムを作成したときに図20のようにヒストグラムに
ピークが生じない場合には、変形領域Eについて画像を
1次微分するとともに、微分値の総和を画素数で除算し
た値(つまり、変形領域Eの微分値の平均値)をテクス
チャ特徴量として求める。また、テクスチャ特徴量に対
する閾値を設定し、テクスチャ特徴量が閾値以下のとき
には追跡領域Dの中で微分値が規定範囲内であるため、
細かい模様がないと判断し、画素値の差分和を評価方法
として採用し、また閾値を超える場合には微分値が規定
範囲を超えるため、細かい模様があると判断し、空間周
波数の分布を比較する方法を採用する。
That is, when no peak is generated in the histogram as shown in FIG. 20 when the histogram is created for the luminance and the hue, the image is first-order differentiated with respect to the deformation area E, and the sum of the differential values is expressed by the number of pixels. The value obtained by the division (that is, the average value of the differential values of the deformation area E) is obtained as the texture feature amount. Further, a threshold value for the texture feature amount is set, and when the texture feature amount is equal to or smaller than the threshold value, the differential value is within the specified range in the tracking area D.
Judgment that there is no fine pattern, adopts the sum of differences of pixel values as an evaluation method, and when the threshold value is exceeded, the differential value exceeds the specified range, so it is judged that there is a fine pattern, and the spatial frequency distribution is compared. Adopt a method to do.

【0062】一方、図21のように、輝度と色相との少
なくとも一方に単一のピークが生じるときには平均輝度
や平均色相を用いる。また、図22のように、輝度と色
相とにともに複数のピークが生じるときには、文字や図
形が表記されていたりラベルが貼着されている可能性が
高いから、特徴部分Fに関する情報を用いるようにす
る。
On the other hand, as shown in FIG. 21, when a single peak occurs in at least one of the luminance and the hue, the average luminance and the average hue are used. In addition, as shown in FIG. 22, when a plurality of peaks occur in both the luminance and the hue, it is highly likely that characters or figures are written or labels are attached. To

【0063】上述のように、輝度および色相の分布情報
を用いることによって、どの処理を行うかを自動的に設
定することが可能になる。図23に全体の流れを示す。
すなわち、初期の追跡領域Dを設定した後(S1)、次
のフレームにおいて境界要素のうち対応する候補を抽出
する(S2)。次に、境界要素の組み合わせによって追
跡候補を作成し(S3)、追跡領域Dの中の画素に関し
て輝度と色相とのヒストグラムを作成する(S4)。こ
こで、ヒストグラムに生じるピークの個数を求め(S
5)、両ヒストグラムにピークがなければ(S6)微分
値の平均値を閾値と比較し(S7)、閾値以下ならば画
素値のみの比較によって追跡候補から新たな追跡領域を
選択する(S8)。また、微分値の平均値が閾値より大
きいときには空間周波数の分布によって追跡領域を選択
する(S9)。
As described above, it is possible to automatically set which processing is to be performed by using the distribution information of the luminance and the hue. FIG. 23 shows the overall flow.
That is, after setting the initial tracking area D (S1), a corresponding candidate is extracted from the boundary elements in the next frame (S2). Next, a tracking candidate is created by a combination of boundary elements (S3), and a histogram of luminance and hue is created for pixels in the tracking area D (S4). Here, the number of peaks occurring in the histogram is obtained (S
5) If there is no peak in both histograms (S6), the average value of the differential values is compared with a threshold (S7). If not, a new tracking area is selected from the tracking candidates by comparing only the pixel values (S8). . When the average of the differential values is larger than the threshold value, the tracking area is selected based on the spatial frequency distribution (S9).

【0064】一方、輝度のヒストグラムにおいてピーク
が1個あれば(S10)平均輝度を用いて追跡領域を選
択し(S11)、輝度のヒストグラムにおけるピークは
1個ではないが色相のヒストグラムにおいてピークが1
個であるときには(S12)、平均色相を用いて追跡領
域を選択する(S13)。輝度および色相のヒストグラ
ムにおいてピークはあるが、ともにピークが2個以上で
あるときには、文字や図形の表記あるいはラベルの貼着
があると考えられるから、この種の特徴を用いて追跡領
域を選択する(S14)。上述のようにして選択した追
跡候補を新たな追跡領域とし(S15)、次のフレーム
の処理に移行する(S16)。
On the other hand, if there is one peak in the luminance histogram (S10), the tracking area is selected using the average luminance (S11), and not one peak in the luminance histogram but one peak in the hue histogram.
If the number is (S12), the tracking area is selected using the average hue (S13). When there are peaks in the luminance and hue histograms, but when there are two or more peaks, it is considered that there is notation of a character or graphic or sticking of a label. (S14). The tracking candidate selected as described above is set as a new tracking area (S15), and the process moves to the next frame (S16).

【0065】ところで、カメラ2の移動によって時系列
画像群を生成しているから、対象物1とカメラ2との位
置関係によって、初期の追跡領域Dの一部が、図24の
ように着目している対象物1とカメラ2との間に存在す
る物体3(他の対象物を含む)によって隠蔽されること
がある(隠蔽部位を斜線部で示す)。また、対象物1の
追跡領域Dが図25のように、カメラ2に対して対象物
1の反対面側に位置して隠蔽されることもある(隠蔽部
位を斜線部で示す)。このように、追跡領域Dとして選
択した特定の面の形状が変化したり、特定の面が隠蔽さ
れて追跡できなくなることがある。なお、隠蔽されてい
た面が新たに露出する場合には追跡領域Dとして指定さ
れていないから問題はない。
Since a time-series image group is generated by moving the camera 2, a part of the initial tracking area D is focused on as shown in FIG. 24 according to the positional relationship between the object 1 and the camera 2. The object 3 (including other objects) existing between the object 1 and the camera 2 may be concealed (a concealed portion is indicated by a hatched portion). Further, the tracking area D of the target 1 may be concealed by being positioned on the opposite side of the target 1 with respect to the camera 2 as shown in FIG. 25 (a concealed portion is indicated by a hatched portion). As described above, the shape of the specific surface selected as the tracking area D may change, or the specific surface may be concealed and cannot be tracked. When the hidden surface is newly exposed, there is no problem because it is not designated as the tracking area D.

【0066】上述のように、追跡領域Dの形状(頂点や
辺の数)が変化したり、追跡領域D2が完全に隠蔽され
るような場合には、変形領域と追跡候補との形状(点要
素や線要素の個数)が一致しないから、変形領域と追跡
候補との一致度が低下することになる。このような場合
には、変形した追跡領域の形状に応じて追跡領域の境界
要素を増減させて以後の追跡を続行させる。たとえば、
図24に示したように追跡領域を設定した対象物1とカ
メラ2との間に他の物体3が存在するときには、図26
(a)のように追跡領域D1が四角形であるのに対し
て、図に二点鎖線で示す直線と一つの頂点とを含む部位
が物体3に隠蔽されることによって、図26(b)のよ
うに五角形の追跡領域D2に変形するから、このような
場合には追跡領域D2を五角形とするように境界要素
(点要素、線要素)を増やして以後の追跡を行う。この
ような追跡領域D2の変形は可能な限り自動的に行うよ
うにし、自動的に行えない場合には追跡領域D2の変形
を要求するメッセージを表示手段15に表示する。表示
手段15にメッセージが表示されたときには領域指定手
段16を操作して追跡領域D2を変形させることにな
る。
As described above, when the shape (the number of vertices and sides) of the tracking area D changes or when the tracking area D2 is completely hidden, the shapes (points) of the deformation area and the tracking candidate are changed. Since the number of elements and the number of line elements do not match, the degree of matching between the deformation area and the tracking candidate decreases. In such a case, the boundary element of the tracking area is increased or decreased according to the shape of the deformed tracking area, and the subsequent tracking is continued. For example,
When another object 3 exists between the object 1 and the camera 2 for which the tracking area has been set as shown in FIG.
While the tracking area D1 is rectangular as shown in FIG. 26A, a portion including a straight line indicated by a two-dot chain line and one vertex is hidden by the object 3 in FIG. In this case, the boundary area (point element, line element) is increased so that the tracking area D2 becomes a pentagon, and the subsequent tracking is performed. Such deformation of the tracking area D2 is automatically performed as much as possible. If the deformation is not performed automatically, a message requesting the deformation of the tracking area D2 is displayed on the display unit 15. When the message is displayed on the display means 15, the area specifying means 16 is operated to deform the tracking area D2.

【0067】上述した追跡過程においては、記憶装置1
3には追跡領域の位置が順次格納されるとともに、追跡
候補から新たな追跡領域を選択する際に用いた平均輝度
などの画像特徴も記憶装置13に格納される。これらの
情報は、追跡評価手段18や形状復元手段19で用いら
れ、追跡に異常が生じた追跡領域を再度追跡する際にお
ける異常の原因の推定に用いられる。
In the above tracking process, the storage device 1
In 3, the positions of the tracking areas are sequentially stored, and image features such as the average luminance used when selecting a new tracking area from the tracking candidates are also stored in the storage device 13. These pieces of information are used by the tracking evaluation unit 18 and the shape restoration unit 19, and are used for estimating the cause of the abnormality when the tracking area in which the abnormality has occurred in the tracking is traced again.

【0068】たとえば、晴天時の日中に屋外で住宅を撮
像したような場合には、対象物1に照射される強い単一
光源が存在することになり、図27に示すように、対象
物1の影OMが強く生じることになる。このような影O
Mにはエッジが生じるから、変形領域を誤って生成して
追跡を妨げる可能性があり、追跡に異常が生じる可能性
がある。そこで、記憶装置13に格納した画像特徴か
ら、影OMを形成する単一光源LMの位置を検出すると
ともに、影OMの発生を予測して影OMの影響を除去す
るのである。
For example, when a house is imaged outdoors during a sunny day, there is a strong single light source that irradiates the object 1, and as shown in FIG. One shadow OM is strongly generated. Such a shadow O
Since an edge is generated in M, there is a possibility that a deformation area is erroneously generated to hinder tracking, and that tracking may be abnormal. Therefore, the position of the single light source LM forming the shadow OM is detected from the image features stored in the storage device 13, and the occurrence of the shadow OM is predicted to remove the influence of the shadow OM.

【0069】さらに具体的に説明する。図28のよう
に、追跡領域Dが単一光源(自然光も含む)LMにより
照明されているときに、カメラ2をカメラ姿勢ベクトル
v1〜vnで表される位置から撮像するものとする。単
一光源LMからの光束の方向を表す照明光ベクトルr1
と追跡領域Dでの正反射光の方向を表す反射光ベクトル
r2とは追跡領域Dが設定される面の法線方向Uとなす
角度が等しく、追跡領域Dの見かけ上の輝度は、カメラ
姿勢ベクトルv1〜vnが反射光ベクトルr2に近いほ
ど大きくなる。
This will be described more specifically. As shown in FIG. 28, when the tracking area D is illuminated by a single light source (including natural light) LM, the camera 2 is to be imaged from the position represented by the camera posture vectors v1 to vn. Illumination light vector r1 representing the direction of the light beam from single light source LM
And the reflected light vector r2 representing the direction of the specularly reflected light in the tracking area D have the same angle as the normal direction U of the surface on which the tracking area D is set. The closer the vectors v1 to vn are to the reflected light vector r2, the greater the value.

【0070】そこで、追跡過程において各フレームで設
定される追跡領域Dの平均輝度を記憶装置13に格納し
ておき、形状復元手段19において各追跡領域Dごとに
平均輝度が最大になるフレームを撮像したときのカメラ
姿勢ベクトルv1〜vnを求め、求めたカメラ姿勢ベク
トルv1〜vnを反射光ベクトルr2の近似値とみな
す。反射光ベクトルr2が得られると、各追跡領域Dが
設定される面の法線方向Uとの関係で照明光ベクトルr
1を推定することができるから、すべての追跡領域Dに
ついて得られる照明光ベクトルr1の推定値のばらつき
の程度を評価し、ばらつきが小さいときには、単一光源
が存在すると判断することができる。このとき、各追跡
領域Dについて得られた照明光ベクトルr1の推定値の
平均値を照明光ベクトルr1として用いる。
Therefore, the average brightness of the tracking area D set in each frame in the tracking process is stored in the storage device 13, and the shape restoring means 19 captures the frame having the maximum average brightness for each tracking area D. Then, the camera posture vectors v1 to vn are obtained, and the obtained camera posture vectors v1 to vn are regarded as an approximate value of the reflected light vector r2. When the reflected light vector r2 is obtained, the illumination light vector r is determined in relation to the normal direction U of the surface on which each tracking area D is set.
Since 1 can be estimated, the degree of variation in the estimated value of the illumination light vector r1 obtained for all the tracking areas D is evaluated. When the variation is small, it can be determined that a single light source exists. At this time, the average value of the estimated value of the illumination light vector r1 obtained for each tracking area D is used as the illumination light vector r1.

【0071】ところで、上述したように、カメラ2によ
って追跡領域Dを追跡する過程において追跡領域Dの一
部または全部を撮像できなくなることがある。追跡領域
Dを撮像できなくなる原因として以下の3種類の場合が
考えられる。
By the way, as described above, in the process of tracking the tracking area D by the camera 2, it may not be possible to capture an image of part or all of the tracking area D. The following three cases can be considered as causes that the tracking area D cannot be imaged.

【0072】すなわち、図29のように、対象物1に設
定した追跡領域Dとカメラ2との間に他の物体3が存在
して追跡領域Dが隠蔽される場合(以下、他者隠蔽とい
う)、図30のように、対象物1に設定した追跡領域D
がカメラ2に対して対象物1の背面側に位置する場合
(以下、自己隠蔽という)、図31のように追跡領域D
の一部がカメラ2の視野VFの外に出る場合(以下、フ
レームアウトという)の3種類の場合である。
That is, as shown in FIG. 29, when another object 3 exists between the tracking area D set in the object 1 and the camera 2 and the tracking area D is concealed (hereinafter, referred to as other person concealment). ), As shown in FIG. 30, the tracking area D set for the object 1
Is located on the back side of the object 1 with respect to the camera 2 (hereinafter referred to as self-concealment), as shown in FIG.
Are outside the field of view VF of the camera 2 (hereinafter referred to as frame-out).

【0073】上述のようにカメラ2で撮像できない領域
(以下、撮像不可領域という)は以下の手順によって抽
出される。すなわち、まず追跡過程において撮像不可領
域が生じていない追跡領域を基準領域として設定する。
このような基準領域は、時系列画像群のうちの複数の画
像において境界要素の個数が変化しない追跡領域を用い
て設定する。ここに、境界要素としては線要素と点要素
とのいずれかを用いればよい。たとえば、図32(a)
に示す時系列画像群V11〜V13では追跡領域D11
〜D13は5個の点要素および5本の線要素を有してお
り、点要素および線要素の個数に変化は生じていない。
また、図32(b)に示す時系列画像群V21,V22
では追跡領域D21,D22は4個の点要素および4本
の線要素を有しており、この場合も点要素および線要素
の個数に変化はない。
As described above, an area that cannot be imaged by the camera 2 (hereinafter, referred to as an unimageable area) is extracted by the following procedure. That is, first, a tracking area in which no non-imaging area is generated in the tracking process is set as a reference area.
Such a reference region is set using a tracking region in which the number of boundary elements does not change in a plurality of images in the time-series image group. Here, any of a line element and a point element may be used as the boundary element. For example, FIG.
In the time-series image groups V11 to V13 shown in FIG.
D13 has five point elements and five line elements, and the numbers of point elements and line elements do not change.
Also, the time-series image groups V21 and V22 shown in FIG.
The tracking areas D21 and D22 have four point elements and four line elements. In this case, the numbers of the point elements and the line elements do not change.

【0074】基準領域を設定する際には、上述のように
複数の画像において境界要素の個数に変化が生じない境
界領域を選択し、点要素の対応をとってステレオ法や因
子分解法のような手法を適用することにより3次元空間
に追跡領域をマッピングする。たとえば、図33(a)
(b)のような2画像において、追跡領域D1,D2の
点要素の座標が図33(a)(b)のように設定されて
いるものとする。ここで、各点要素を図33(c)のよ
うにマッピングする場合に因子分解法を採用するものと
すれば、各画像における追跡領域D1、D2の点要素の
座標と、3次元空間での点の座標との関係を数1の形に
表すことができる。
When the reference area is set, a boundary area in which the number of boundary elements does not change in a plurality of images is selected as described above, and point elements are corresponded to each other, and a stereo method or a factorization method is used. The tracking area is mapped in the three-dimensional space by applying a simple method. For example, FIG.
It is assumed that, in two images as in (b), the coordinates of the point elements in the tracking areas D1 and D2 are set as shown in FIGS. Here, if the factorization method is adopted when each point element is mapped as shown in FIG. 33C, the coordinates of the point elements of the tracking areas D1 and D2 in each image and the coordinates in the three-dimensional space are obtained. The relationship with the coordinates of the point can be expressed in the form of Equation 1.

【0075】[0075]

【数1】 数1において右辺の左の行列式はカメラ2の向きを表し
ており、第1行の(CX1 CY1 CZ1)、第3行
の(CX3 CY3 CZ3)は図33(a)の画像を
得る際のカメラ2の画像面のx軸、y軸方向のベクトル
を示し、第2行の(CX2 CY2 CZ2)、第4行
の(CX4 CY4 CZ4)は図33(b)の画像を
得る際のカメラ2の画像面のx軸、y軸方向のベクトル
を示す。右辺の中央の行列は因子分解法によって求めら
れた対角行列であり、この成分から次式で寄与率Kを求
めることができる。 K=(a+b+c)/(a+b+c+d) 撮像不可領域が生じなければ、時系列画像群の中に設定
された各追跡領域間での点要素に誤対応がないと考えら
れるから、寄与率Kに対して適宜の閾値を設定してお
き、上述のようにして求めた寄与率Kが閾値を超えると
きには撮像不可領域が生じないものと判断して、3次元
空間にマッピングした領域を基準領域候補とする。境界
要素のうち点要素の個数に変化が生じない追跡領域ごと
に基準領域候補を求めるため、3次元空間において1つ
の面に対応する基準領域候補は複数生成されることにな
る。そこで、複数の基準領域候補を求め、その中で面積
が最大である基準領域候補を3次元空間における1つの
面に対する基準領域として採用する。
(Equation 1) In Equation 1, the left determinant on the right side indicates the direction of the camera 2, and (CX1 CY1 CZ1) in the first row and (CX3 CY3 CZ3) in the third row are used when obtaining the image in FIG. The vectors in the x-axis and y-axis directions of the image plane of the camera 2 are shown. (CX2 CY2 CZ2) in the second row and (CX4 CY4 CZ4) in the fourth row are the cameras 2 when obtaining the image in FIG. 5 shows vectors in the x-axis and y-axis directions of the image plane of FIG. The matrix at the center on the right side is a diagonal matrix obtained by the factorization method, and from this component, the contribution rate K can be obtained by the following equation. K = (a + b + c) / (a + b + c + d) If no image-capable area does not occur, it is considered that there is no erroneous correspondence between the point elements between the tracking areas set in the time-series image group. An appropriate threshold value is set in advance, and when the contribution rate K obtained as described above exceeds the threshold value, it is determined that no image-capturing area does not occur, and the area mapped in the three-dimensional space is set as a reference area candidate. . Since reference region candidates are obtained for each tracking region in which the number of point elements in the boundary elements does not change, a plurality of reference region candidates corresponding to one surface in the three-dimensional space are generated. Therefore, a plurality of reference region candidates are obtained, and the reference region candidate having the largest area among them is adopted as a reference region for one surface in the three-dimensional space.

【0076】基準領域が決定されれば、撮像不可領域を
抽出することができる。つまり、基準領域を決定した追
跡領域を時系列画像群で追跡する間に点要素が対応しな
くなれば撮像不可領域が生じたと判断することができ
る。たとえば、図34に示すように、基準領域DSが設
定されているとすれば、基準領域DSは境界要素として
点要素pS1〜pS4を備えていることになる。これに
対して、追跡領域Dをステレオ法や因子分解法によって
3次元空間にマッピングしたときに、図34に示すよう
に追跡領域Dが5個の点要素p1〜p5を含むようにな
ったとすれば、追跡領域Dの点要素p1〜p3は基準領
域DSの点要素pS1〜pS3に対応するものの、追跡
領域Dの点要素p4,p5には基準領域DSに対応する
点要素がないことになる。つまり、基準領域DSと追跡
領域Dとにおいて互いに対応するものがない点要素pS
4,p4,p5に囲まれた領域を撮像不可領域とみなす
ことができる。
When the reference area is determined, the image pickup impossible area can be extracted. In other words, if the point elements do not correspond to each other while the tracking area in which the reference area has been determined is tracked by the time-series image group, it can be determined that the non-capturable area has occurred. For example, as shown in FIG. 34, if the reference area DS is set, the reference area DS includes point elements pS1 to pS4 as boundary elements. On the other hand, when the tracking area D is mapped to a three-dimensional space by the stereo method or the factorization method, it is assumed that the tracking area D includes five point elements p1 to p5 as shown in FIG. For example, although the point elements p1 to p3 of the tracking area D correspond to the point elements pS1 to pS3 of the reference area DS, the point elements p4 and p5 of the tracking area D have no point element corresponding to the reference area DS. . That is, the point element pS having no counterpart in the reference area DS and the tracking area D
An area surrounded by 4, 4, p5 can be regarded as an image-impossible area.

【0077】上述の説明では点要素を用いているが、線
要素を用いる場合には、図35のように基準領域DSの
線要素sS2,sS3には追跡領域Dの線要素s2,s
3が対応し、また基準領域DSの線要素sS1,sS4
には追跡領域Dの線要素s1,s4が対応するが、追跡
領域Dの線要素s5については基準領域DSに対応する
線要素が存在しないから、この線要素s5が撮像不可領
域の一部であると判断することができる。
In the above description, a point element is used. However, when a line element is used, the line elements s2 and sS3 of the tracking area D are replaced with the line elements sS2 and sS3 of the reference area DS as shown in FIG.
3 and the line elements sS1, sS4 of the reference area DS.
Corresponds to the line elements s1 and s4 of the tracking area D, but there is no line element corresponding to the reference area DS for the line element s5 of the tracking area D. Therefore, this line element s5 is a part of the imaging impossible area. It can be determined that there is.

【0078】上述のようにして撮像不可領域が抽出され
た後には、撮像不可領域が生じた原因が、他者隠蔽と自
己隠蔽とフレームアウトとのいずれであるかを判断す
る。この判断には、上述のようにして求めたすべての基
準領域を3次元空間にマッピングした状態から時系列画
像群における各画像の画像面に基準領域を投影する。す
なわち、カメラ2の位置によって撮像不可領域が生じた
画像面の3次元空間内での位置を規定できるから、この
画像面に対して基準領域を投影すれば、基準領域を設定
した面同士が重なっているかあるいは画像面の外にはみ
出しているかを知ることができる。また、基準領域を設
定した面とカメラ2(つまり画像面)との距離関係によ
って基準領域を設定したどの面に撮像不可領域が生じて
いるかを知ることができる。以下では基準領域を設定し
た面を基準面と呼ぶことにする。
After the non-capturable area is extracted as described above, it is determined whether the cause of the non-capable area is hidden by others, self-concealed, or framed out. For this determination, the reference area is projected onto the image plane of each image in the time-series image group from a state where all the reference areas obtained as described above are mapped in the three-dimensional space. That is, since the position in the three-dimensional space of the image plane where the non-capturable area has occurred can be defined by the position of the camera 2, by projecting the reference area onto this image plane, the planes on which the reference area is set overlap. It is possible to know whether it is out of the image plane. In addition, it is possible to know which surface on which the reference region is set has an image-capturing-impossible region based on the distance relationship between the surface on which the reference region is set and the camera 2 (that is, the image surface). Hereinafter, the surface on which the reference region is set is referred to as a reference surface.

【0079】ここで、3次元空間において撮像不可領域
の生じている基準面とカメラ2との間に他の基準面が存
在する場合であって、撮像不可領域の生じている基準面
に連続する基準面が存在しないときには、他者隠蔽であ
ると判断する。たとえば、図36においては基準面SR
1に撮像不可領域(斜線部)が生じているが、この基準
面SR1に対して画像内で隣接している基準面SR2は
3次元空間では接続されていないから、他者隠蔽と判断
される。
Here, there is a case where another reference plane exists between the camera 2 and the reference plane where the non-imaging area is generated in the three-dimensional space, and is continuous with the reference plane where the non-imaging area is generated. If the reference plane does not exist, it is determined that the concealment is by others. For example, in FIG.
Although a non-capturable area (shaded area) is generated in 1, since the reference plane SR2 adjacent to the reference plane SR1 in the image is not connected in the three-dimensional space, it is determined that other persons are hidden. .

【0080】一方、3次元空間において撮像不可領域の
生じている基準面とカメラ2との間に他の基準面が存在
する場合であって、撮像不可領域の生じている基準面に
連続する基準面が存在するときには、自己隠蔽であると
判断する。たとえば、図37においては基準面SR3に
撮像不可領域(斜線部)が生じており、基準面SR3に
対して画像内で隣接している基準面SR4,SR5は3
次元空間においても接続されているから、この場合には
基準面SR3は自己隠蔽によって撮像不可領域になって
いると判断される。
On the other hand, when there is another reference plane between the camera 2 and the reference plane in which the non-capturable area occurs in the three-dimensional space, the reference is continuous with the reference plane in which the non-capturable area occurs. When the surface exists, it is determined that the image is self-concealing. For example, in FIG. 37, a non-capturable area (shaded portion) is generated on the reference plane SR3, and the reference planes SR4 and SR5 adjacent to the reference plane SR3 in the image are 3
In this case, since the connection is also made in the dimensional space, in this case, it is determined that the reference plane SR <b> 3 has become an imaging-impossible area due to self-concealment.

【0081】さらに、図38に示すように、撮像不可領
域を生じている基準面SR6の一部が画像面の周縁に跨
っているときには、フレームアウトであると判断される
(基準面SR6のうち画面から外に出ている部分を斜線
部で示す)。
Further, as shown in FIG. 38, when a part of the reference plane SR6 in which the non-image-capturing area is generated straddles the periphery of the image plane, it is determined that the frame is out (of the reference plane SR6). The part that goes out of the screen is indicated by hatching.)

【0082】上述のようにして、基準面と画像面との距
離および撮像不可領域を生じている基準面と他の基準面
との接続関係などに基づいて、撮像不可領域を生じてい
る原因が他者隠蔽、自己隠蔽、フレームアウトのいずれ
であるかを判定することができる。
As described above, based on the distance between the reference plane and the image plane and the connection relationship between the reference plane having the non-capturable area and another reference plane, the cause of the non-capturable area may be caused. It is possible to determine whether it is concealed by others, self-concealed, or frame out.

【0083】撮像不可領域が生じている原因を上述のよ
うにして判定した後には、判定結果の検証を行う。つま
り、撮像不可領域を生じている基準面SRにおいて、図
39に示すように撮像不可領域の存在する方向にエッジ
E1,E2を延長し、延長したエッジE1,E2の交点
を基準面SRの新たな点要素とみなして追跡処理を行
う。このとき、上述した寄与率が向上すれば、撮像不可
領域は他者隠蔽または自己隠蔽により生じているものと
最終的に確定される。ここで、他者隠蔽による撮像不可
領域はカメラ2が移動することによって撮像可能になる
ことがあるから追跡処理を継続し、自己隠蔽による撮像
不可領域はカメラ2の移動によって再び撮像可能になる
ことはないものと判断して追跡処理を終了する。
After the cause of the occurrence of the non-capturable area is determined as described above, the result of the determination is verified. That is, as shown in FIG. 39, the edges E1 and E2 are extended in the direction in which the non-capturable area exists on the reference plane SR where the non-capturable area is generated. The tracking process is performed by regarding the point element as a simple point element. At this time, if the above-described contribution rate is improved, the non-capturable region is finally determined to be caused by concealment of others or self-concealment. Here, since the image capturing impossible area due to the concealment of others may be able to be imaged by moving the camera 2, the tracking process is continued, and the image capturing impossible area due to the self concealment can be imaged again by the movement of the camera 2. Then, the tracking process is terminated.

【0084】図40に撮像不可領域に対する処理の手順
をまとめて示す。すなわち、まず基準領域を設定するた
めに、複数の画像において境界要素の数が変化しない追
跡領域を抽出する(S1)。ここで、対象物1の1つの
面を形成している追跡領域を複数の画像から抽出すると
ともに対応する追跡領域に対して座標変換を施すことに
よって3次元空間に追跡領域をマッピングし(S2)、
マッピングの際の寄与率を求める(S3)。抽出可能な
すべての面について3次元空間へのマッピングと寄与率
の演算とを終了した後(S4)、3次元空間にマッピン
グしたときに寄与率が閾値以上となった面を基準領域候
補として抽出する(S5)。さらに、基準領域候補から
面積がもっとも大きいものを抽出して基準領域とする
(S6)。基準領域が決定されると、次に撮像不可領域
を抽出し(S7)、さらに3次元空間において注目する
基準領域と同じ画像内で他の基準領域およびカメラとの
位置関係を求める(S8)。ここで、撮像不可領域が生
じている基準領域に対して他の基準領域が離れている場
合には(S9)、他者隠蔽と判断し(S10)、撮像不
可領域が生じている基準領域に対して他の基準領域が接
続されている場合には(S11)、自己隠蔽と判断する
(S12)。他者隠蔽、自己隠蔽のいずれも生じていな
い場合には、撮像不可領域が生じている基準領域につい
てフレーム内での位置を求め(S13)、画像の周縁付
近に基準領域が存在しているときには(S14)、フレ
ームアウトと判断する(S15)。以上の処理を全フレ
ームについて行った後(S16)、撮像不可領域に対応
するエッジを延長し追跡処理を再実行して隠蔽の有無を
確定する(S17)。
FIG. 40 shows a summary of the processing procedure for the image-capable area. That is, first, in order to set a reference area, a tracking area in which the number of boundary elements does not change in a plurality of images is extracted (S1). Here, the tracking area forming one surface of the object 1 is extracted from the plurality of images, and the tracking area is mapped in the three-dimensional space by performing coordinate transformation on the corresponding tracking area (S2). ,
The contribution rate at the time of mapping is obtained (S3). After the mapping of all extractable surfaces to the three-dimensional space and the calculation of the contribution ratio are completed (S4), the surfaces whose contribution ratios are equal to or larger than a threshold when mapped to the three-dimensional space are extracted as reference region candidates. (S5). Further, a candidate having the largest area is extracted from the reference region candidates and set as a reference region (S6). When the reference area is determined, an uncapturable area is extracted next (S7), and the positional relationship between another reference area and the camera in the same image as the reference area of interest in the three-dimensional space is determined (S8). Here, when the other reference area is separated from the reference area where the non-capturable area is generated (S9), it is determined that the other person is concealed (S10). On the other hand, if another reference area is connected (S11), it is determined to be self-concealment (S12). If neither concealment of others nor self-concealment has occurred, the position in the frame of the reference region where the non-capturable region has occurred is determined (S13). If the reference region exists near the periphery of the image, (S14), it is determined that the frame is out (S15). After performing the above processing for all the frames (S16), the edge corresponding to the non-imaging area is extended, and the tracking processing is executed again to determine whether or not concealment is performed (S17).

【0085】(第2の実施の形態)第1の実施の形態は
隠蔽の有無を検出する方法であったが、本実施形態で
は、画像内に含まれる面に変化が生じない一連の複数の
画像をフェーズ画像群とし、フェーズ画像群ごとに3次
元空間に追跡領域をマッピングし、マッピングにより得
られた3次元形状を座標変換により重ね合わせて対象物
1の全体の3次元データを得る方法について説明する。
したがって、本実施形態において対象物1を境界要素で
表して追跡する処理については第1の実施の形態と共通
化することができる。本実施形態は他者隠蔽が生じない
対象物1であれば単独で処理することができ、また第1
の実施の形態における隠蔽の有無を検出する処理の後
に、第1の実施の形態において用いた追跡の処理の結果
を用いて本実施形態の処理を行うことも可能である。
(Second Embodiment) The first embodiment is a method for detecting the presence or absence of concealment. However, in the present embodiment, a series of plural images in which no change occurs in a plane included in an image. A method in which an image is set as a phase image group, a tracking area is mapped in a three-dimensional space for each phase image group, and a three-dimensional shape obtained by the mapping is superimposed by coordinate transformation to obtain three-dimensional data of the entire target 1. explain.
Therefore, in the present embodiment, the processing for representing and tracking the target object 1 by the boundary element can be shared with the first embodiment. In the present embodiment, the object 1 which does not cause concealment of others can be processed independently.
After the process of detecting the presence / absence of concealment in the embodiment, the process of the present embodiment can be performed using the result of the tracking process used in the first embodiment.

【0086】以下では説明を容易にするために、対象物
1が図41のように直方体状であるものとする。図41
において矢印Aはカメラ2の移動を表す。つまり、他者
隠蔽は生じないものとして本実施形態の処理を説明す
る。また、対象物1の各面を図42のように規定する。
つまり、図42の上面をf1、下面をf2とし、図42
の手前左面、手前右面をそれぞれf3、f4、図42の
裏側右面、裏側左面をそれぞれf5、f6とする。この
ような対象物1を上面から見ると、各面f1、f3〜f
6の関係は図43のようになる。いま、対象物1の上面
f1の中心を通り上面f1に直交する軸(つまり、図4
3の破線の交点を通り図の面に直交する軸)の回りでカ
メラ2を対象物1に対して相対的に回転させ、上記軸に
対して45度程度の角度をもって対象物1を斜め上方か
ら撮像するものとする。したがって、撮像によって得ら
れた各画像(フレーム)にはつねに上面f1が含まれて
いることになる。また、上記軸を含み各面f3〜f6に
直交する面内にカメラ2が位置するときには(図43に
おける位置e3〜e6にカメラ2が位置するときに
は)、各画像(フレーム)に上面f1以外には各面f3
〜f6のいずれか1面が含まれることになる。カメラ2
がその他の位置(図43における範囲d34,d45,
d56,d63)に位置するときには各画像には上面f
1のほかに隣接する2面が含まれることになる。
In the following, for ease of explanation, it is assumed that the object 1 has a rectangular parallelepiped shape as shown in FIG. FIG.
, The arrow A indicates the movement of the camera 2. That is, the process of the present embodiment will be described assuming that no concealment of others occurs. Each surface of the object 1 is defined as shown in FIG.
That is, the upper surface of FIG.
The front left surface and the front right surface are denoted by f3 and f4, respectively, and the back right surface and the back left surface of FIG. 42 are denoted by f5 and f6, respectively. When such an object 1 is viewed from above, each surface f1, f3 to f3
The relationship of No. 6 is as shown in FIG. Now, an axis passing through the center of the upper surface f1 of the object 1 and orthogonal to the upper surface f1 (that is, FIG.
3), the camera 2 is rotated relative to the object 1 around an axis perpendicular to the plane of the drawing), and the object 1 is tilted upward at an angle of about 45 degrees with respect to the axis. It is assumed that images are taken from. Therefore, each image (frame) obtained by imaging always includes the upper surface f1. Also, when the camera 2 is located in a plane that includes the axis and is orthogonal to each of the planes f3 to f6 (when the camera 2 is located at the positions e3 to e6 in FIG. 43), each image (frame) includes a part other than the top surface f1. Is each surface f3
To f6. Camera 2
Are other positions (ranges d34, d45,
d56, d63), each image has an upper surface f
In addition to 1, two adjacent surfaces are included.

【0087】つまり、図43に示す位置e3から左回り
にカメラ2の位置を変化させると、図44に示すように
各画像(図44における各箱がそれぞれ画像を示してい
る)の内容が変化することになる。ただし、上面f1と
他の1面との2面のみを含む1つの画像h3〜h6を挟
んで、上面f1と他の2面との3面を含む画像群k3
4,k45,k56,k63が得られるように撮像条件
が設定される。つまり、3面を含む画像群k34,k4
5,k56,k63はそれぞれ連続して複数画像ずつ得
られるように撮像条件が設定される。このように同じ面
が含まれている連続した複数画像を以下ではフェーズ画
像群と呼ぶ。また、フェーズ画像群k34,k45,k
56,k63の間の2面のみを含む画像h3〜h6は1
画像ずつ独立して得られるように撮像条件が設定され
る。このような撮像条件で得られた画像では、各フェー
ズ画像群k34,k45,k56,k63を画像h3〜
h6で切り分けることが可能になる。要するに、各画像
に含まれる面の数が変化したときに変化の前後で切り分
け、同じ面を含む画像が複数連続して得られているとき
には、それらをまとめてフェーズ画像群とするのであ
る。こうして得られたフェーズ画像群k34,k45,
k56,k63の各画像では含まれる面に変化は生じな
い。
That is, when the position of the camera 2 is changed counterclockwise from the position e3 shown in FIG. 43, the contents of each image (each box in FIG. 44 indicates an image) changes as shown in FIG. Will do. However, an image group k3 including three surfaces of the upper surface f1 and the other two surfaces with one image h3 to h6 including only two surfaces of the upper surface f1 and the other one surface interposed therebetween.
The imaging conditions are set so as to obtain 4, k45, k56, and k63. That is, image groups k34 and k4 including three surfaces
5, k56, and k63 are set with imaging conditions so that a plurality of images are continuously obtained. Such a plurality of continuous images including the same plane are hereinafter referred to as a phase image group. Also, the phase image groups k34, k45, k
Images h3 to h6 including only two surfaces between 56 and k63 are 1
The imaging conditions are set so that images are obtained independently. In the images obtained under such imaging conditions, each of the phase image groups k34, k45, k56, and k63 is represented by an image h3 to h3.
h6 can be separated. In short, when the number of planes included in each image changes, the image is divided before and after the change, and when a plurality of images including the same plane are obtained continuously, they are collectively formed as a phase image group. The phase image groups k34, k45,
No change occurs in the planes included in the images k56 and k63.

【0088】本実施形態ではTVカメラ2で取得した対
象物1の画像に対して、図1に示した領域指定手段16
において、線要素と点要素とからなる境界表現(B−R
EP:boundary representation)を用いて追跡領域を
設定する。また、対象物1から選択した面を領域追跡手
段17により追跡する。このような追跡の処理は第1の
実施の形態と同様であり、対象物1の面単位で追跡領域
を設定し、1つの画面の追跡領域から他の画面の追跡領
域の形状を推定して変形領域を生成し、他の画面の画像
と変形領域とを比較照合して、変形領域の位置を追跡す
るのである。このようにして対象物1の面を追跡すれ
ば、各画像内にどの面が含まれているかの情報が得られ
るから、上述のようにフェーズ画像群k34,k45,
k56,k63を設定することができる。
In the present embodiment, the image of the object 1 acquired by the TV camera 2 is applied to the area designating means 16 shown in FIG.
, A boundary expression (B-R) consisting of a line element and a point element
A tracking area is set using EP (boundary representation). The area selected from the object 1 is tracked by the area tracking means 17. Such tracking processing is the same as that of the first embodiment. A tracking area is set for each surface of the object 1, and the shape of the tracking area of another screen is estimated from the tracking area of one screen. The transformation area is generated, the image of another screen is compared with the transformation area, and the position of the transformation area is tracked. If the surface of the object 1 is tracked in this manner, information on which surface is included in each image can be obtained. As described above, the phase image groups k34, k45,
k56 and k63 can be set.

【0089】上述のようにしてフェーズ画像群k34,
k45,k56,k63が設定されると、各フェーズ画
像群k34,k45,k56,k63ごとに、追跡領域
を3次元空間にマッピングする。なお、フェーズ画像群
k34,k45,k56,k63を設定するには、図1
に図示していない手段を用いて画像ファイルF1内に格
納されている元の動画像からフェーズ画像群k34,k
45,k56,k63に切り分ける。元の動画像からフ
ェーズ画像群k34,k45,k56,k63に切り分
ける処理としては、2次元画像内で輪郭線によって面を
自動的に追跡する画像処理手段を用いる方法か、画面上
に複数画像を表示しておき人が手作業で行う方法かのい
ずれかを用いる。フェーズ画像群k34,k45,k5
6,k63の各画像では含まれる面に変化が生じないか
ら、フェーズ画像群k34,k45,k56,k63を
構成する各画像においては自己隠蔽による点要素の消失
が生じることはなく、各フェーズ画像群k34,k4
5,k56,k63の範囲内においては因子分解法やス
テレオ法のような従来から知られている手法を適用して
追跡領域を3次元空間にマッピングすることができる。
As described above, the phase image group k34,
When k45, k56, and k63 are set, the tracking area is mapped to a three-dimensional space for each of the phase image groups k34, k45, k56, and k63. In order to set the phase image groups k34, k45, k56, and k63, FIG.
The phase image groups k34 and k34 are extracted from the original moving image stored in the image file F1 by using a means not shown in FIG.
45, k56 and k63. As a process of dividing the original moving image into a group of phase images k34, k45, k56, and k63, a method using an image processing unit that automatically tracks a surface by a contour line in a two-dimensional image, or a method in which a plurality of images are displayed on a screen Display and use one of the manual methods. Phase image group k34, k45, k5
Since the planes included in the images 6 and k63 do not change, the point elements do not disappear due to self-concealment in the images constituting the phase image groups k34, k45, k56 and k63. Group k34, k4
Within the range of 5, k56, and k63, a tracking area can be mapped in a three-dimensional space by applying a conventionally known method such as a factorization method or a stereo method.

【0090】いま、図43に示したフェーズ画像群k3
4,k45,k56,k63を用いることによって、そ
れぞれ図45(a)〜(d)のように3次元空間に追跡
領域がマッピングできたとすれば、各フェーズ画像群k
34,k45,k56,k63から得られた3次元形状
についてのワールド座標系はそれぞれ異なることにな
る。図45(a)〜(d)においては各3次元形状に対
するワールド座標系を、それぞれX1−Y1−Z1,X
2−Y2−Z2,X3−Y3−Z3,X4−Y4−Z4
で示している。このように、フェーズ画像群k34,k
45,k56,k63から得られた3次元形状ごとにワ
ールド座標系が異なっていると、共通した1つの座標系
内で対象物1の3次元データを表現することができない
から、以下の手順で各ワールド座標系を有した3次元形
状を重ね合わせる。
Now, the phase image group k3 shown in FIG.
45, k56, and k63, if the tracking area can be mapped in a three-dimensional space as shown in FIGS.
The world coordinate systems of the three-dimensional shapes obtained from 34, k45, k56, and k63 are different from each other. 45A to 45D, the world coordinate system for each three-dimensional shape is represented by X1-Y1-Z1, X1, respectively.
2-Y2-Z2, X3-Y3-Z3, X4-Y4-Z4
Indicated by. Thus, the phase image group k34, k
If the world coordinate system is different for each of the three-dimensional shapes obtained from 45, k56, and k63, the three-dimensional data of the object 1 cannot be represented in one common coordinate system. A three-dimensional shape having each world coordinate system is superimposed.

【0091】ワールド座標系が異なる複数の3次元形状
を重ね合わせる際には、重ね合わせの対象となる複数の
3次元形状の間に共通する線要素が存在するか否かに応
じて手順に相違が生じる。
When a plurality of three-dimensional shapes having different world coordinate systems are superimposed, the procedure differs depending on whether or not a common line element exists between the plurality of three-dimensional shapes to be superimposed. Occurs.

【0092】共通の線要素が存在する場合は、共通する
線要素が重なるように、対象となる複数の3次元形状に
対する座標変換を施す。たとえば、図45において、面
f1を囲む各線要素s13,s14,s15,s16は
図45(a)〜(d)において共通に存在し、面f4と
面f5との境界線としての線要素s45は図45(a)
〜(c)において共通に存在する。他にも複数の3次元
形状で共通する線要素が存在しているが、できるだけ多
くの3次元形状で共通する線要素を選択するのが望まし
い。本実施形態では互いに異なる向きであって1点で交
わる線要素を選択している。つまり、面f1と面f4と
の境界線である線要素s14と、面f1と面f5との境
界線である線要素f15と、面f4と面f5との境界線
である線要素s45との3本を選択している。これらの
3本の線要素s14,s15,s45を重ね合わせるよ
うに座標変換を施すことで、4個の3次元形状のワール
ド座標系を統一して図46のように1つのワールド座標
系(X−Y−Z)で3次元データを表すことが可能にな
る。
When a common line element exists, coordinate conversion is performed on a plurality of target three-dimensional shapes so that the common line element overlaps. For example, in FIG. 45, the line elements s13, s14, s15, and s16 surrounding the surface f1 are commonly present in FIGS. 45 (a) to (d), and the line element s45 as a boundary between the surface f4 and the surface f5 is FIG. 45 (a)
To (c). There are other line elements common to a plurality of three-dimensional shapes, but it is desirable to select line elements common to as many three-dimensional shapes as possible. In the present embodiment, line elements having different directions and intersecting at one point are selected. That is, a line element s14 which is a boundary line between the surface f1 and the surface f4, a line element f15 which is a boundary line between the surface f1 and the surface f5, and a line element s45 which is a boundary line between the surface f4 and the surface f5. Three are selected. By performing coordinate transformation such that these three line elements s14, s15, and s45 are superimposed, the world coordinate system of the four three-dimensional shapes is unified, and one world coordinate system (X −YZ) can represent three-dimensional data.

【0093】一方、共通の線要素が存在しない場合に
は、各3次元形状において共通に存在している追跡領域
を重ね合わせる。つまり、図45においては面f1がす
べての3次元形状に共通に存在するから、この面f1を
重ね合わせる。このことは、線要素s13,s14,s
15,s16を重ねるように座標変換を行うことと等価
である。
On the other hand, when there is no common line element, the tracking areas that are commonly present in each three-dimensional shape are overlapped. That is, in FIG. 45, since the surface f1 is common to all three-dimensional shapes, the surfaces f1 are overlapped. This means that the line elements s13, s14, s
This is equivalent to performing coordinate transformation so that the positions 15 and s16 overlap.

【0094】ところで、上述のようにフェーズ画像群k
34,k45,k56,k63ごとに求めた3次元形状
のワールド座標系を1つのワールド座標系に統合する際
に、各フェーズ画像群k34,k45,k56,k63
から求めた3次元形状に誤差があれば、重ね合わせよう
とする2つのワールド座標系にもずれが生じているか
ら、いずれかの境界要素を重ね合わせると他の境界要素
が重ならないというような不都合が生じることがある。
そこで、2つのワールド座標系に共通する境界要素(線
要素と点要素)ごとに座標変換のための変換行列を求
め、求めた複数個の変換行列の各要素(つまり、回転お
よび平行移動に関する変換パラメータ)の平均値を要素
とする変換行列を用いて座標変換を行う。このように平
均値を用いることで変換行列を一意に決定することがで
きる。
By the way, as described above, the phase image group k
When integrating the three-dimensional shape world coordinate system obtained for each of the 34, k45, k56, and k63 into one world coordinate system, each phase image group k34, k45, k56, k63
If there is an error in the three-dimensional shape obtained from, there is a shift in the two world coordinate systems to be superimposed, so that when one of the boundary elements is superimposed, the other boundary element does not overlap Inconvenience may occur.
Therefore, a transformation matrix for coordinate transformation is calculated for each boundary element (line element and point element) common to the two world coordinate systems, and each element of the plurality of obtained transformation matrices (that is, transformations related to rotation and translation). The coordinate transformation is performed by using a transformation matrix having an average value of the parameter) as an element. The conversion matrix can be uniquely determined by using the average value as described above.

【0095】いま、図45(a)(b)の3次元形状を
対象として説明すれば、2つの3次元形状において3つ
の面f1,f3,f4の交点である点要素p134は、
図47(a)(b)の位置にあり、図47(b)におけ
る点要素p134に対して、図47(a)に示す回転r
と平行移動mとの座標変換を施すことで、図47(a)
の位置に点要素p134を移動させることができるか
ら、回転rと平行移動mとの座標変換によって図45
(a)(b)におけるワールド座標系を一致させること
ができると考えられる。このような座標変換は一般に行
列形式で表されるから、行列要素として座標変換を定義
することができる。そこで、点要素p134だけではな
く、他の点要素(多いほうがよい)についても座標変換
の要素を求め、同じ要素ごとに平均値を求め、この平均
値を要素とする変換行列を用いて座標変換を施すのであ
る。
Now, the three-dimensional shape shown in FIGS. 45A and 45B will be described. In the two three-dimensional shapes, the point element p134, which is the intersection of the three surfaces f1, f3, and f4, is:
At the position shown in FIGS. 47A and 47B, the rotation r shown in FIG.
47 (a) by performing coordinate transformation between
45 can be moved to the position shown in FIG.
It is considered that the world coordinate systems in (a) and (b) can be matched. Since such a coordinate transformation is generally represented in a matrix format, the coordinate transformation can be defined as a matrix element. Therefore, not only the point element p134 but also other point elements (more is better) are obtained as coordinate conversion elements, an average value is obtained for each same element, and coordinate conversion is performed using a conversion matrix having the average value as an element. Is applied.

【0096】上述のように複数個の境界要素について求
めた変換行列の各要素ごとの平均値を要素とする変換行
列を用いることによって、図48のように、2つの3次
元形状を重ね合わせた1つの三次元形状を得ることがで
きる。図示例では図47(b)の3次元形状が図47
(a)の3次元形状に重なるように座標変換を施した結
果であり、座標変換が施された3次元形状のうち面f5
は背面側で不可視になっている。ここに、図48におい
てダッシュ(′)付きの符号は図47(b)の3次元形
状に座標変換を施した後の3次元形状を意味する。上述
のようにして変換行列の各要素について要素ごとの平均
値を用いると、図47(b)の位置に対して座標変換を
施した点要素p134′は図47(a)の位置における
点要素p134とは完全には一致していない。そこで、
最終的には点要素p134と点要素p134′との中点
を点要素の位置として決定する。
As shown in FIG. 48, two three-dimensional shapes are superimposed on each other by using a transformation matrix having an average value for each element of the transformation matrix obtained for a plurality of boundary elements as described above. One three-dimensional shape can be obtained. In the illustrated example, the three-dimensional shape of FIG.
This is the result of performing coordinate transformation so as to overlap the three-dimensional shape of (a).
Is invisible on the back side. Here, in FIG. 48, a code with a dash (′) means a three-dimensional shape obtained by performing coordinate conversion on the three-dimensional shape in FIG. 47 (b). When the average value of each element of the transformation matrix is used as described above, the point element p134 ′ obtained by performing the coordinate transformation on the position of FIG. 47B becomes the point element p134 ′ at the position of FIG. It does not completely match with p134. Therefore,
Finally, the midpoint between the point element p134 and the point element p134 'is determined as the position of the point element.

【0097】以上のようにして複数の3次元形状から1
つの3次元データに統合することが可能になる。なお、
本実施形態では面f2についてはカメラ2によって撮像
していないから、面f2を正確に規定することはできな
いが、面f2の周囲を構成する線要素および点要素はカ
メラ2に撮像されているから、これらの線要素および点
要素により表現される平面とみなしている。
As described above, a plurality of three-dimensional
It becomes possible to integrate into three three-dimensional data. In addition,
In this embodiment, since the image of the surface f2 is not captured by the camera 2, the surface f2 cannot be accurately defined. However, since the line elements and the point elements constituting the periphery of the surface f2 are captured by the camera 2, , And a plane represented by these line elements and point elements.

【0098】上述の例において、動画像(時系列画像)
を用いて各フェーズ画像群k34,k45,k56,k
63を設定するために、面の数が変化することを利用し
ていたが、以下のように自己隠蔽が生じる面の有無によ
ってフェーズ画像群を区切るようにしてもよい。つま
り、境界要素を点要素と線要素とで表すだけではなく、
各線要素に方向を規定することにより有向の線要素と
し、各面の自己隠蔽に伴う線要素の方向の変化を利用し
て追跡領域である面が不可視になったと判断し、追跡領
域である面が可視の状態から不可視の状態に変化したと
きにフェーズ画像群の区切りと判断するのである。言い
換えると、線要素は点要素を順次接続しているから点要
素を順に辿ることによって点要素を巡回することにな
り、巡回する向きを監視しておき巡回する向きが画像内
で逆になると、その面が不可視になったと判断できるの
である。
In the above example, a moving image (time-series image)
, And each phase image group k34, k45, k56, k
In order to set 63, the fact that the number of faces changes is used, but the phase image group may be divided according to the presence or absence of faces where self-concealment occurs as described below. In other words, in addition to representing boundary elements with point elements and line elements,
By determining the direction of each line element as a directed line element, it is determined that the surface that is the tracking area has become invisible using the change in the direction of the line element due to the self-concealment of each surface, and it is the tracking area. When the surface changes from a visible state to an invisible state, it is determined to be a break of the phase image group. In other words, since the line elements sequentially connect the point elements, the point elements are traversed by sequentially tracing the point elements, and when the circulating direction is monitored and the circulating direction is reversed in the image, It can be determined that the surface has become invisible.

【0099】具体的には、可視である面について図49
に矢印を付して示しているように、1つの面を構成する
境界要素を線要素の方向に辿ると時計回りで一巡できる
ように規定しているとすれば、不可視になった面は反時
計回りになる。たとえば、図49では面f1,f3,f
4が可視であって、面f2,f5,f6が不可視になっ
ている。ここで、カメラ2は対象物1に対して上述した
位置関係で対象物1が撮像されていることにより面f1
はつねに可視であり、面f2はつねに不可視であるか
ら、面f1,f2は除外する。したがって、ここでは可
視・不可視の判断の対象を面f3〜f6とする。この場
合、可視である面f3、f4について線要素を時計回り
に辿ることができるとすれば、不可視である面f5,f
6は線要素を反時計回りに辿ることになる。これは、面
f3,f4が不可視になる場合も同様である。要する
に、線要素を辿ることで1つの面の境界要素を一巡する
ように線要素に方向を与えておけば、その面が可視か不
可視であるかによって、時計回りに線要素を辿るかと反
時計回りに線要素を辿るかが変化するから、これを利用
して追跡領域である面が自己隠蔽により不可視になった
と判断することができ、動画像(時系列画像)のうちで
追跡領域として設定した面が可視から不可視になるとフ
ェーズ画像群の区切りとすることができる。
More specifically, FIG.
As shown by an arrow in the figure, if it is defined that a boundary element constituting one surface can make a clockwise round when it is traced in the direction of the line element, the invisible surface is countered. Turn clockwise. For example, in FIG. 49, the surfaces f1, f3, f
4 is visible, and faces f2, f5, and f6 are invisible. Here, the camera 2 captures the image of the object 1 in the above-described positional relationship with respect to the object 1, so that the surface f1 is obtained.
Since the face f2 is always visible and the face f2 is always invisible, the faces f1 and f2 are excluded. Therefore, here, the target of the visibility determination is the surfaces f3 to f6. In this case, if the line elements can be traced clockwise with respect to the visible surfaces f3 and f4, the invisible surfaces f5 and f4
6 follows the line element counterclockwise. This is the same when the surfaces f3 and f4 become invisible. In short, if a direction is given to a line element so as to go around the boundary element of one surface by tracing the line element, it is determined whether the line element is traced clockwise depending on whether the surface is visible or invisible. Since whether or not the line element traces around changes, it can be used to determine that the surface that is the tracking area has become invisible due to self-concealment, and is set as the tracking area in the moving image (time-series image). When the surface becomes invisible from visible, it can be used as a partition of the group of phase images.

【0100】[0100]

【発明の効果】請求項1の発明は、静止している対象物
を異なる複数位置からTVカメラにより撮像して複数の
画像を取得し、対象物から選択した面を境界要素と画像
特徴量とで表した追跡領域として画像内に設定し、一つ
の画像内で設定した追跡領域を他の画像における追跡領
域の候補の境界要素に一致するように変形させた変形領
域を作成し、他の画像における追跡領域の候補と変形領
域とについて境界要素と画像特徴量との少なくとも一方
を比較することにより追跡領域の候補から一つの画像内
で設定した追跡領域に対応する追跡領域を選択する第1
の過程と、撮像されていない領域が少ない追跡領域を3
次元空間にマッピングすることにより得られる基準領域
を設定し、画像内において追跡領域の少なくとも一部が
追跡できないときに複数の基準領域の3次元空間での位
置関係に基づいてTVカメラにより撮像できない領域が
生じたか否かを判断する第2の過程と、基準領域をTV
カメラの各位置において撮像したときの基準領域の位置
関係に基づいて追跡領域をTVカメラで撮像できなくな
った原因を推定し、推定結果に基づいて追跡領域の追跡
が可能となるように修正して追跡を継続させる第3の過
程とを備えることを特徴とし、動画像の各画像間で追跡
領域を追跡することによって3DCGのデータに用いる
ことができる3次元情報を2次元画像から容易に得るこ
とができるだけではなく、追跡領域のうち撮像されてい
ない領域の発生を検出するとともに、撮像されていない
原因を推定するから、追跡領域の追跡が一旦失敗したと
しても原因に応じた対処を行って追跡領域を確実に追跡
することが可能になる。その結果、得られた3次元情報
の妥当性が検証されるとともに、誤差の発生も抑制され
ることになる。
According to the first aspect of the present invention, a stationary object is imaged from a plurality of different positions with a TV camera to acquire a plurality of images, and a surface selected from the object is defined as a boundary element, an image feature amount, and the like. Is set in the image as a tracking area represented by, a deformation area is created by deforming the tracking area set in one image so as to match a boundary element of a candidate for a tracking area in another image, and another image is created. Selecting a tracking area corresponding to the tracking area set in one image from the candidates for the tracking area by comparing at least one of the boundary element and the image feature amount with respect to the candidate for the tracking area and the deformation area in
And the tracking area with few non-imaged areas
A reference region obtained by mapping to a three-dimensional space is set, and when at least a part of the tracking region cannot be tracked in the image, a region that cannot be imaged by the TV camera based on the positional relationship of the plurality of reference regions in the three-dimensional space A second step of determining whether or not the TV has occurred,
Estimate the cause of the inability to image the tracking area with the TV camera based on the positional relationship of the reference area when imaging at each position of the camera, and correct so that the tracking area can be tracked based on the estimation result. A third step of continuing the tracking, wherein the tracking area is tracked between the moving images to easily obtain three-dimensional information from the two-dimensional image that can be used for 3DCG data. Is not only possible, but also detects the occurrence of a non-imaged area in the tracking area and estimates the cause of the non-imaging, so even if tracking area tracking fails once, take action according to the cause to track The area can be tracked reliably. As a result, the validity of the obtained three-dimensional information is verified, and the occurrence of errors is suppressed.

【0101】請求項2の発明は、請求項1の発明におい
て、第1の過程で、一つの画像で設定された追跡領域の
境界要素について他の画像上で対応する候補を抽出し、
境界要素の候補の組み合わせによる追跡候補を生成した
後、一つの画像で設定した追跡領域を追跡候補に一致す
るように変形させた変形領域を生成し、追跡候補と変形
領域とについて境界要素の形状、画素値、画像特徴量か
ら選択される指標を比較することにより追跡候補の中か
ら他の画像における追跡領域を決定することを特徴と
し、従来のような局所的な特徴を用いるのではなく、追
跡領域を構成する線要素(境界線)や点要素(境界線の
接合点)、あるいは画像の特徴を用いるから、追跡領域
を従来より確実に追跡することが可能になる。
According to a second aspect of the present invention, in the first aspect, in the first step, a candidate corresponding to a boundary element of the tracking area set in one image on another image is extracted,
After generating a tracking candidate based on a combination of boundary element candidates, a deformation area is generated by deforming the tracking area set in one image so as to match the tracking candidate, and the shape of the boundary element is determined for the tracking candidate and the deformation area. The feature is to determine a tracking area in another image from among tracking candidates by comparing indices selected from pixel values and image feature amounts, instead of using local features as in the past, Since a line element (boundary), a point element (junction of the boundary), or a feature of an image that constitutes the tracking area is used, the tracking area can be tracked more reliably than before.

【0102】請求項3の発明は、請求項2の発明におい
て、他の画像においてエッジを抽出するとともに、エッ
ジのうち一つの画像において追跡領域を構成する線要素
との距離および方向が規定範囲内であるエッジを線要素
の候補として選択することを特徴し、請求項4の発明
は、請求項2の発明において、他の画像においてエッジ
を抽出するとともに、エッジ上の各画素にハフ変換を行
って連続性を有したエッジを抽出し、このエッジのうち
一つの画像において追跡領域を構成する線要素との距離
および方向が規定範囲内であるエッジを線要素の候補と
して選択することを特徴とし、請求項5の発明は、請求
項2の発明において、一つの画像において追跡領域を構
成する点要素の近傍の形状をテンプレートとし、他の画
像においてテンプレートにマッチングする部位から点要
素の候補を抽出することを特徴としており、いずれにお
いても候補となる境界要素の組み合わせによって有限個
の追跡候補を生成するから、処理量を制限しながらも正
確な追跡が可能になる。
According to a third aspect of the present invention, in the second aspect of the present invention, an edge is extracted from another image, and a distance and a direction of one of the edges from a line element constituting a tracking area are within a specified range. Is selected as a candidate for a line element. According to a fourth aspect of the present invention, in the second aspect of the present invention, an edge is extracted from another image and a Hough transform is performed on each pixel on the edge. Extracting an edge having continuity by selecting an edge having a distance and a direction within a specified range with respect to a line element forming a tracking area in one of the edges as a line element candidate. According to a fifth aspect of the present invention, in the second aspect of the present invention, a shape near a point element constituting a tracking area in one image is used as a template, and a template is used in another image. The feature is that point element candidates are extracted from the parts that match the target, and in each case, a finite number of tracking candidates are generated by combining candidate boundary elements, so accurate tracking while limiting the processing amount Becomes possible.

【0103】請求項6の発明は、請求項2の発明におい
て、追跡候補と変形領域との画素値を指標に用いるの
で、画像が特徴を持たない場合でも追跡候補と変形領域
との比較が可能である。
According to the invention of claim 6, in the invention of claim 2, since the pixel values of the tracking candidate and the deformation area are used as the index, it is possible to compare the tracking candidate with the deformation area even when the image has no feature. It is.

【0104】請求項7の発明は、請求項2の発明におい
て、追跡領域と追跡候補との平均輝度を指標に用いるこ
とを特徴とし、請求項8の発明は、請求項2の発明にお
いて、画像はカラー画像であって、追跡領域と追跡候補
との色を指標に用いることを特徴とし、請求項9の発明
は、請求項2の発明において、追跡領域と追跡候補との
空間周波数分布を指標に用いることを特徴としており、
いずれも画像内の特徴を利用することによって、数値の
比較によって追跡候補と変形領域とを容易に比較するこ
とができる。
According to a seventh aspect of the present invention, in the second aspect of the present invention, the average brightness of the tracking area and the tracking candidate is used as an index. Is a color image, wherein the color between the tracking area and the tracking candidate is used as an index. The invention according to claim 9 is the invention according to claim 2, wherein the spatial frequency distribution between the tracking area and the tracking candidate is used as an index. It is characterized by using
In any case, by using the features in the image, the tracking candidate and the deformation area can be easily compared by comparing the numerical values.

【0105】請求項10の発明は、請求項2の発明にお
いて、追跡領域と追跡候補の領域内で画素値の変化が規
定値を超える部分を抽出し、この部分の位置、形状、画
像特徴の少なくとも1要素を指標に用いるので、画像内
の特徴を利用することで追跡候補と変形領域との比較を
より確実に行うことができる。
According to a tenth aspect of the present invention, in the second aspect of the present invention, a portion where a change in pixel value exceeds a specified value in the tracking region and the tracking candidate region is extracted, and the position, shape, and image characteristics of the portion are extracted. Since at least one element is used as the index, the comparison between the tracking candidate and the deformation area can be performed more reliably by using the feature in the image.

【0106】請求項11の発明は、請求項2の発明にお
いて、画像はカラー画像であって、追跡領域と追跡候補
との平均輝度または色を指標に用いる場合と、空間周波
数分布を指標に用いる場合と、領域内で画素値の変化が
規定値を超える部分を抽出し、この部分の位置、形状、
画像特徴の少なくとも1要素を指標に用いる場合とを、
一方の画像における追跡領域内での輝度および色の分布
パターンに応じて選択することを特徴としており、輝度
と色との情報を用いることで、追跡候補と変形領域との
比較に適した方法を自動的に選択することができる。
According to an eleventh aspect of the present invention, in the second aspect of the present invention, the image is a color image and the average luminance or color of the tracking area and the tracking candidate is used as an index, and the spatial frequency distribution is used as an index. Case, and a portion where the change of the pixel value exceeds the specified value in the region is extracted, and the position, shape,
Using at least one element of an image feature as an index,
It is characterized by selecting according to the distribution pattern of luminance and color in the tracking area in one image, and using the information of luminance and color, a method suitable for comparing the tracking candidate with the deformation area is Can be selected automatically.

【0107】請求項12の発明は、請求項2の発明にお
いて、複数の追跡領域について複数の画像のうち平均輝
度が最大になるときのTVカメラの姿勢を各追跡領域に
対応した対象物の面の反射光の方向に近いと推定し、各
追跡領域に対応した対象物の面の法線方向と反射光の方
向とから光源からの照射方向を推定することを特徴と
し、光源の位置を推定することによって影の影響を除去
することが可能になり、追跡領域の追跡に際して影の影
響による追跡の誤りを防止することができる。
According to a twelfth aspect of the present invention, in the second aspect of the present invention, the posture of the TV camera when the average luminance of the plurality of images in the plurality of tracking areas is maximized is determined by the plane of the object corresponding to each tracking area. The direction of the reflected light from the light source is estimated from the normal direction of the surface of the object corresponding to each tracking area and the direction of the reflected light, and the position of the light source is estimated. By doing so, it is possible to remove the influence of the shadow, and it is possible to prevent a tracking error due to the influence of the shadow when tracking the tracking area.

【0108】請求項13の発明は、請求項1の発明にお
いて、第2の過程では、複数の画像間で対応する追跡領
域を3次元空間にマッピングし、当該追跡領域の境界要
素の対応関係から求められる一致度が閾値以上であると
きに3次元空間にマッピングした追跡領域を基準領域と
し、基準領域に対応する追跡領域と基準領域との境界要
素を比較し、境界要素の変化によって追跡領域中で撮像
されていない領域を抽出することを特徴とし、画像から
得られた対象物の3次元空間での位置を基準領域によっ
て簡易的に再現することにより、対象物の位置関係を比
較的容易に検証することができ、撮像されていない領域
が生じるか否かを容易に検証することができる。
According to a thirteenth aspect of the present invention, in the first aspect, in the second step, a tracking area corresponding to a plurality of images is mapped in a three-dimensional space, and a correspondence between boundary elements of the tracking area is determined. The tracking area mapped to the three-dimensional space when the degree of coincidence is equal to or larger than the threshold value is set as a reference area, and a boundary element between the tracking area corresponding to the reference area and the reference area is compared. It is characterized by extracting a region that is not imaged in the above, and by simply reproducing the position of the object obtained from the image in the three-dimensional space by the reference region, the positional relationship of the object can be relatively easily. It can be verified, and it can be easily verified whether or not an unimaged area occurs.

【0109】請求項14の発明は、請求項13の発明に
おいて、複数の画像間で境界要素の個数に変化が生じな
い範囲に限定し、各々の範囲について、マッピング時に
得られる寄与率を一致度に用いて寄与率が閾値以上であ
る追跡領域を基準領域の候補とし、基準領域の候補が複
数個得られるときには面積が最大になる候補を基準領域
として採用することを特徴とし、この技術によって基準
領域を求めることにより、対象物の1つの面によりよく
対応した基準領域を設定することができるという利点が
ある。
According to a fourteenth aspect, in the thirteenth aspect, the number of boundary elements between a plurality of images is limited to a range in which the number does not change, and for each range, the contribution ratio obtained at the time of mapping is determined by the degree of coincidence. The tracking area whose contribution rate is equal to or larger than the threshold is used as a reference area candidate, and when a plurality of reference area candidates are obtained, the candidate having the largest area is adopted as the reference area. By obtaining the area, there is an advantage that a reference area that better corresponds to one surface of the object can be set.

【0110】請求項15の発明は、請求項14の発明に
おいて、境界要素の個数の変化は、線要素と点要素との
一方に着目しているので、処理量が少なく高速な処理が
可能になる。
According to a fifteenth aspect of the present invention, in the invention of the fourteenth aspect, since the change in the number of boundary elements focuses on one of the line element and the point element, the processing amount is small and high-speed processing is possible. Become.

【0111】請求項16の発明は、請求項14の発明に
おいて、寄与率は追跡領域を因子分解法により3次元空
間にマッピングする際に得られる対角行列の成分から求
めるので、因子分解法を用いた線形演算により安定して
解を求めることができる。
According to a sixteenth aspect of the present invention, in the fourteenth aspect, the contribution factor is obtained from a diagonal matrix component obtained when the tracking area is mapped to a three-dimensional space by the factorization method. The solution can be obtained stably by the used linear operation.

【0112】請求項17の発明は、請求項13の発明に
おいて、3次元空間に追跡領域をマッピングするととも
に基準領域と比較し、互いに対応しない点要素によって
規定される領域を追跡領域中で撮像されていない領域と
して求めることを特徴とし、請求項18の発明は、請求
項13の発明において、3次元空間に追跡領域をマッピ
ングするとともに基準領域と比較し、互いに対応しない
線要素が存在するときに、この線要素を追跡領域中で撮
像されていない領域の一部とみなすことを特徴としてお
り、撮像されていない領域の範囲を容易に求めることが
できる。
According to a seventeenth aspect of the present invention, in the thirteenth aspect, a tracking area is mapped in a three-dimensional space, compared with a reference area, and an area defined by point elements that do not correspond to each other is imaged in the tracking area. The invention according to claim 18 is characterized in that the tracking area is mapped to a three-dimensional space and compared with the reference area, and when there is a line element that does not correspond to each other, It is characterized that this line element is regarded as a part of the area not imaged in the tracking area, and the range of the area not imaged can be easily obtained.

【0113】請求項19の発明は、請求項1の発明にお
いて、第3の過程で、3次元空間内でのすべての基準領
域をTVカメラの位置により決まる画像面に投影し、画
像面内における基準領域同士の位置関係および画像面に
対する基準領域の位置関係に基づいて、追跡領域中で撮
像されていない領域が生じた原因を判定することを特徴
とし、実際の対象物の位置関係を簡易的に再現した基準
領域の位置関係によるシミュレーションを行って撮像さ
れていない領域が生じた原因を容易に判定することがで
きる。
According to a nineteenth aspect of the present invention, in the first aspect of the present invention, in the third step, all the reference areas in the three-dimensional space are projected on an image plane determined by the position of the TV camera, and Based on the positional relationship between the reference areas and the positional relationship of the reference area with respect to the image plane, the cause of the occurrence of an area that has not been imaged in the tracking area is determined. By performing a simulation based on the positional relationship of the reference region reproduced in the above, it is possible to easily determine the cause of the occurrence of the region that is not imaged.

【0114】請求項20の発明は、請求項19の発明に
おいて、着目する基準領域とTVカメラとの間に他の基
準領域が存在し、かつ両基準領域が接続されていないと
きに他者隠蔽と判定することを特徴とし、請求項21の
発明は、請求項19の発明において、着目する基準領域
とTVカメラとの間に他の基準領域が存在し、かつ両基
準領域が接続されているときに自己隠蔽と判定すること
を特徴とし、請求項22の発明は、請求項19の発明に
おいて、着目する基準領域が画面の周縁に位置するとき
にフレームアウトと判定することを特徴としており、そ
れぞれ基準領域同士および画像面との位置関係に基づい
て撮像されていない領域が生じた原因を判断することが
できる。
According to a twentieth aspect, in the nineteenth aspect, when there is another reference area between the reference area of interest and the TV camera and both reference areas are not connected, the concealment of others is performed. According to a twenty-first aspect of the present invention, in the nineteenth aspect, another reference area exists between the target reference area and the TV camera, and both reference areas are connected. The invention of claim 22 is characterized in that, when the reference region of interest is located at the periphery of the screen, it is determined that the frame is out, Based on the positional relationship between the reference areas and the image plane, it is possible to determine the cause of the occurrence of an area that has not been imaged.

【0115】請求項23の発明は、請求項19の発明に
おいて、追跡領域中で撮像されていない領域が存在する
ときに、エッジ延長を行い、延長されたエッジの交点を
新たな点要素として、追跡処理を再度実行し、3次元空
間にマッピングする際に寄与率が向上すれば隠蔽と確定
することを特徴とし、追跡領域の隠蔽によって追跡が不
可能になる状態を回避することができ、追跡領域をより
確実に追跡することが可能になる。
According to a twenty-third aspect of the present invention, in the invention of the nineteenth aspect, when there is an area in the tracking area that is not imaged, edge extension is performed, and the intersection of the extended edge is set as a new point element. The tracking process is executed again, and if the contribution rate is improved when mapping to the three-dimensional space, the concealment is determined. This makes it possible to avoid a state in which the tracking becomes impossible due to the concealment of the tracking area. The region can be tracked more reliably.

【0116】請求項24の発明は、TVカメラにより撮
像された画像入力画像として与える画像入力部と、入力
された画像に対して請求項1記載の画像特徴追跡処理方
法による処理を施す画像処理装置と、入力された画像お
よび画像処理装置で処理された画像を格納する記憶装置
と、画像処理装置での処理画像を表示する表示手段と、
画像処理装置に対して追跡領域を指定する領域指定手段
とを備えるものであり、請求項1の発明と同様の効果に
加えて、TVカメラとして通常のビデオカメラ等により
撮像した動画像を用いて3次元情報を容易に得ることが
できる。
According to a twenty-fourth aspect of the present invention, there is provided an image input section for providing an image input image picked up by a TV camera, and an image processing apparatus for performing processing on the input image by the image feature tracking processing method according to the first aspect. A storage device for storing an input image and an image processed by the image processing device, and a display unit for displaying a processed image in the image processing device;
The image processing apparatus further includes an area designating unit that designates a tracking area for the image processing apparatus. In addition to the same effect as the first aspect of the present invention, a moving image captured by a normal video camera or the like is used as a TV camera. Three-dimensional information can be easily obtained.

【0117】請求項25の発明は、対象物を異なる複数
位置からTVカメラにより撮像して複数の画像を取得し
た後、前記対象物から選択した面を境界要素で表した追
跡領域として画像内に設定し、一つの画像内で設定した
追跡領域を他の画像における追跡領域の候補の境界要素
に一致するように変形させた変形領域を作成し、前記他
の画像における追跡領域の候補と変形領域とについて境
界要素を比較することにより追跡領域の候補から前記一
つの画像内で設定した追跡領域に対応する追跡領域を選
択し、さらに前記対象物の複数の面が撮像されかつ連続
して同じ面が撮像されている複数の画像を1つのフェー
ズ画像群として区切り、次に複数のフェーズ画像につい
て各フェーズ画像群ごとに対象物から選択した面の3次
元空間へのマッピングを行うことにより各フェーズ画像
群ごとに3次元形状を求め、互いに他のフェーズ画像群
の座標系を一致させるように座標変換を行うことによっ
て、3次元データを作成することを特徴とし、動画像
(時系列画像)において対象物の同じ面が撮像されてい
る連続した複数の画像をフェーズ画像群とし、フェーズ
画像群の範囲内で3次元形状を求めているから、フェー
ズ画像群の範囲内では各面が自己隠蔽によって追跡でき
なくなることがなく、3次元形状を確実かつ容易に求め
ることができる。つまり、従来から知られている因子分
解法やステレオ法を適用して3次元形状を求めても不都
合が生じない。このようにして個々にフェーズ画像群で
は、3次元形状を容易に求めることができ、その後、各
フェーズ画像群から求めた3次元形状の座標系を一致さ
せるように座標変換を行うことで1つの3次元データに
まとめることができるのである。
According to a twenty-fifth aspect of the present invention, after a plurality of images are obtained by capturing images of an object from a plurality of different positions with a TV camera, a plane selected from the objects is set as a tracking area represented by a boundary element in the image. Set, and create a deformation area by deforming the tracking area set in one image so as to match the boundary element of the tracking area candidate in another image, and create a tracking area candidate and a deformation area in the other image. And selecting a tracking area corresponding to the tracking area set in the one image from the tracking area candidates by comparing the boundary elements with each other, and further, a plurality of surfaces of the object are imaged and continuously the same surface Is divided into one phase image group, and then the mapping of the plurality of phase images to the three-dimensional space of the surface selected from the object for each phase image group is performed. A three-dimensional shape is obtained for each phase image group by performing the three-dimensional image processing, and coordinate conversion is performed so that the coordinate systems of the other phase image groups coincide with each other, thereby creating three-dimensional data. In the image (time-series image), a plurality of continuous images in which the same surface of the object is imaged are set as a phase image group, and a three-dimensional shape is obtained within the range of the phase image group. Therefore, the three-dimensional shape can be reliably and easily obtained without the surfaces being unable to be tracked due to self-concealment. That is, there is no inconvenience even if a three-dimensional shape is obtained by applying a conventionally known factorization method or stereo method. In this way, a three-dimensional shape can be easily obtained for each phase image group, and thereafter, one coordinate is obtained by performing coordinate transformation so that the coordinate system of the three-dimensional shape obtained from each phase image group matches. It can be summarized in three-dimensional data.

【0118】請求項26の発明は、対象物を異なる複数
位置からTVカメラにより撮像して複数の画像を取得し
た後、前記対象物から選択した面を境界要素で表した追
跡領域として画像内に設定し、一つの画像内で設定した
追跡領域を他の画像における追跡領域の候補の境界要素
に一致するように変形させた変形領域を作成し、前記他
の画像における追跡領域の候補と変形領域とについて境
界要素を比較することにより追跡領域の候補から前記一
つの画像内で設定した追跡領域に対応する追跡領域を選
択し、さらに前記対象物の複数の面が撮像されかつ連続
して同じ面が撮像されている複数の画像を1つのフェー
ズ画像群として区切り、次に複数のフェーズ画像につい
て各フェーズ画像群ごとに対象物から選択した面の3次
元空間へのマッピングを行うことにより各フェーズ画像
群ごとに3次元形状を求め、互いに他のフェーズ画像群
に共通している線要素を重ね合わせるように各フェーズ
画像群ごとに得られた3次元形状の座標変換を行うこと
によって、3次元データを作成することを特徴とし、動
画像(時系列画像)において対象物の同じ面が撮像され
ている連続した複数の画像をフェーズ画像群とし、フェ
ーズ画像群の範囲内で3次元形状を求めているから、フ
ェーズ画像群の範囲内では各面が自己隠蔽によって追跡
できなくなることがなく、3次元形状を確実かつ容易に
求めることができる。つまり、従来から知られている因
子分解法やステレオ法を適用して3次元形状を求めても
不都合が生じない。このようにして個々にフェーズ画像
群では、3次元形状を容易に求めることができ、その
後、各フェーズ画像群から求めた3次元形状の線要素同
士を重ね合わせるように座標変換を行うことで1つの3
次元データにまとめることができるのである。
According to a twenty-sixth aspect of the present invention, after a plurality of images are obtained by picking up an image of an object from a plurality of different positions using a TV camera, a plane selected from the object is set as a tracking area represented by a boundary element in the image. Set, and create a deformation area by deforming the tracking area set in one image so as to match the boundary element of the tracking area candidate in another image, and create a tracking area candidate and a deformation area in the other image. And selecting a tracking area corresponding to the tracking area set in the one image from the tracking area candidates by comparing the boundary elements with each other, and further, a plurality of surfaces of the object are imaged and continuously the same surface Is divided into one phase image group, and then the mapping of the plurality of phase images to the three-dimensional space of the surface selected from the object for each phase image group is performed. The three-dimensional shape obtained for each phase image group is obtained by performing a grouping process to obtain a three-dimensional shape for each phase image group and overlapping line elements common to other phase image groups with each other. Is performed to generate three-dimensional data. A plurality of continuous images in which the same surface of the object is captured in a moving image (time-series image) are defined as a phase image group, and the range of the phase image group Since the three-dimensional shape is determined within the range, the respective surfaces cannot be traced due to self-concealment within the range of the phase image group, and the three-dimensional shape can be determined reliably and easily. That is, there is no inconvenience even if a three-dimensional shape is obtained by applying a conventionally known factorization method or stereo method. In this way, a three-dimensional shape can be easily obtained for each of the phase image groups, and thereafter, the coordinate transformation is performed so that the line elements of the three-dimensional shape obtained from each of the phase image groups are overlapped with each other. Three
It can be summarized in dimensional data.

【0119】請求項27の発明は、請求項25または請
求項26の発明において、前記TVカメラにより撮像し
て取得した前記複数の画像内で前記対象物から選択した
面を、点要素と各点要素を順次接続する有向の線要素と
からなる境界要素で表し、時系列で得られる各画像にお
いて線要素を辿って各点要素を巡回する向きを監視し、
巡回する向きが逆になるまでを1つのフェーズ画像群と
することを特徴とし、フェーズ画像群を区切る処理が自
動化可能になる。
According to a twenty-seventh aspect, in the twenty-fifth or twenty-sixth aspect, a plane selected from the object in the plurality of images captured by the TV camera is defined as a point element and each point. Expressed as boundary elements consisting of directed line elements that sequentially connect elements, monitor the direction of tracing each point element by tracing the line element in each image obtained in time series,
It is characterized in that one phase image group is set until the traveling direction is reversed, and the process of dividing the phase image group can be automated.

【0120】請求項28の発明は、請求項25または請
求項26の発明において、前記座標変換では、境界要素
ごとに回転および平行移動に関する変換パラメータを求
めた後、境界要素ごとに求めた変換パラメータをそれぞ
れ平均した変換パラメータを用いて座標変換を行うこと
を特徴とし、座標変換の変換パラメータを平均化するこ
とで個々の境界要素から求めた変換パラメータが不一致
の場合でも変換パラメータを一意に決定することができ
る。
According to a twenty-eighth aspect of the present invention, in the twenty-fifth or twenty-sixth aspect of the present invention, in the coordinate transformation, after obtaining a conversion parameter relating to rotation and translation for each boundary element, the conversion parameter obtained for each boundary element is obtained. Is characterized in that coordinate transformation is performed using transformation parameters obtained by averaging the transformation parameters, and the transformation parameters of coordinate transformation are averaged to uniquely determine the transformation parameters even when the transformation parameters obtained from individual boundary elements do not match. be able to.

【0121】請求項29の発明は、請求項25または請
求項26の発明において、座標系を互いに一致させる一
方の3次元形状に前記座標変換を施した後の各点要素の
位置と他方の3次元形状においてそれぞれ対応する各点
要素の位置との中点を、各点要素の位置とすることを特
徴とし、座標変換を行ったときに点要素の位置にずれが
あっても各点要素の位置を一意に決定することが可能に
なる。
According to a twenty-ninth aspect of the present invention, in the twenty-fifth or twenty-sixth aspect of the present invention, the position of each point element after the coordinate transformation is performed on one of the three-dimensional shapes whose coordinate systems match each other and the other three-dimensional shape. The midpoint between the position of each corresponding point element in the dimensional shape is the position of each point element, and even if there is a deviation in the position of the point element when performing coordinate transformation, The position can be uniquely determined.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に用いる装置を示すブロック
図である。
FIG. 1 is a block diagram showing an apparatus used in an embodiment of the present invention.

【図2】同上においてTVカメラにより対象物を撮像す
る状態を示す斜視図である。
FIG. 2 is a perspective view showing a state where an image of an object is captured by a TV camera in the above.

【図3】同上において得られた時系列画像群を示す図で
ある。
FIG. 3 is a diagram showing a time-series image group obtained in the above.

【図4】同上における画像の例を示す図である。FIG. 4 is a diagram showing an example of an image in the above.

【図5】同上における追跡領域の例を示す図である。FIG. 5 is a diagram showing an example of a tracking area in the embodiment.

【図6】同上における対象物の例を示す図である。FIG. 6 is a diagram showing an example of an object in the above.

【図7】同上の動作説明図である。FIG. 7 is an operation explanatory diagram of the above.

【図8】同上における追跡候補の例を示す図である。FIG. 8 is a diagram showing an example of a tracking candidate in the embodiment.

【図9】同上における変形領域の例を示す図である。FIG. 9 is a diagram showing an example of a deformation area in the above.

【図10】同上において変形領域を生成する過程を示す
図である。
FIG. 10 is a diagram showing a process of generating a deformation area in the above.

【図11】同上の動作説明図である。FIG. 11 is an operation explanatory diagram of the above.

【図12】同上におけるテンプレートの例を示す図であ
る。
FIG. 12 is a diagram showing an example of a template in the embodiment.

【図13】同上における追跡候補の例を示す図である。FIG. 13 is a diagram showing an example of a tracking candidate in the embodiment.

【図14】同上における変形領域の例を示す図である。FIG. 14 is a diagram showing an example of a deformation area in the above.

【図15】同上の動作説明図である。FIG. 15 is an explanatory diagram of the operation of the above.

【図16】同上における追跡領域の例を示す図である。FIG. 16 is a diagram showing an example of a tracking area in the above.

【図17】同上の動作説明図である。FIG. 17 is an operation explanatory view of the above.

【図18】同上における変形領域の例を示す図である。FIG. 18 is a diagram showing an example of a deformation area in the above.

【図19】同上の動作説明図である。FIG. 19 is a diagram illustrating the operation of the above.

【図20】同上の動作説明図である。FIG. 20 is an explanatory diagram of the operation of the above.

【図21】同上の動作説明図である。FIG. 21 is an explanatory diagram of the above operation.

【図22】同上の動作説明図である。FIG. 22 is an explanatory diagram of the above operation.

【図23】同上の動作説明図である。FIG. 23 is an explanatory diagram of the operation of the above.

【図24】同上の動作説明図である。FIG. 24 is an explanatory diagram of the operation of the above.

【図25】同上の動作説明図である。FIG. 25 is an explanatory diagram of the operation of the above.

【図26】同上の動作説明図である。FIG. 26 is an explanatory diagram of the above operation.

【図27】同上において影が生じる例を示す図である。FIG. 27 is a diagram showing an example in which a shadow occurs in the above.

【図28】同上の動作説明図である。FIG. 28 is an explanatory diagram of the operation of the above.

【図29】同上の動作説明図である。FIG. 29 is an explanatory diagram of the above operation.

【図30】同上の動作説明図である。FIG. 30 is an explanatory diagram of the operation of the above.

【図31】同上の動作説明図である。FIG. 31 is an explanatory diagram of the above operation.

【図32】同上の動作説明図である。FIG. 32 is an explanatory diagram of the above operation.

【図33】同上の動作説明図である。FIG. 33 is an explanatory diagram of the operation of the above.

【図34】同上の動作説明図である。FIG. 34 is an explanatory diagram of the operation of the above.

【図35】同上の動作説明図である。FIG. 35 is an explanatory diagram of the operation of the above.

【図36】同上の動作説明図である。FIG. 36 is an explanatory diagram of the above operation.

【図37】同上の動作説明図である。FIG. 37 is an explanatory diagram of the operation of the above.

【図38】同上の動作説明図である。FIG. 38 is an explanatory diagram of the operation of the above.

【図39】同上の動作説明図である。FIG. 39 is an explanatory diagram of the above operation.

【図40】同上の動作説明図である。FIG. 40 is an explanatory diagram of the operation of the above.

【図41】本発明の第2の実施の形態においてTVカメ
ラにより対象物を撮像する状態を示す斜視図である。
FIG. 41 is a perspective view showing a state in which a TV camera captures an image of an object in the second embodiment of the present invention.

【図42】同上に用いる対象物を示す斜視である。FIG. 42 is a perspective view showing the object used in the above.

【図43】同上に用いる対象物を示す平面図である。FIG. 43 is a plan view showing an object used in the above.

【図44】同上におけるフェーズ画像群の概念を説明す
る図である。
FIG. 44 is a diagram illustrating the concept of a group of phase images in the above.

【図45】同上において各フェーズ画像群から3次元形
状を得た状態を示す図である。
FIG. 45 is a diagram showing a state in which a three-dimensional shape is obtained from each phase image group in the above.

【図46】同上において3次元形状を統合した状態を示
す図である。
FIG. 46 is a diagram showing a state where three-dimensional shapes are integrated in the above.

【図47】同上の動作説明図である。FIG. 47 is an explanatory diagram of the operation of the above.

【図48】同上の動作説明図である。FIG. 48 is an explanatory diagram of the operation of the above.

【図49】同上の動作説明図である。FIG. 49 is an explanatory diagram of the operation of the above.

【符号の説明】[Explanation of symbols]

1 対象物 2 TVカメラ 3 物体 11 画像入力装置 12 画像入力手段 13 記憶装置 14 画像処理装置 15 表示手段 16 領域指定手段 17 領域追跡手段 18 追跡評価手段 19 形状復元手段 D 追跡領域 E 変形領域 F1 画像ファイル F2 追跡データファイル F3 3次元形状データファイル REFERENCE SIGNS LIST 1 object 2 TV camera 3 object 11 image input device 12 image input means 13 storage device 14 image processing device 15 display means 16 area designation means 17 area tracking means 18 tracking evaluation means 19 shape restoration means D tracking area E deformation area F1 image File F2 Tracking data file F3 3D shape data file

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 13/00 G06F 15/70 410 (72)発明者 ▲濱▼田 長生 大阪府門真市大字門真1048番地松下電工株 式会社内 Fターム(参考) 2F065 AA53 BB05 CC14 DD03 DD08 FF04 FF28 GG10 GG18 JJ01 JJ02 JJ19 MM23 QQ13 QQ24 QQ25 QQ31 QQ32 QQ38 QQ42 QQ43 QQ44 UU05 5B057 BA02 BA24 CD02 CD03 CD11 CG05 DA07 DC03 DC04 DC05 DC08 DC16 DC23 DC33 5C061 AA29 AB02 AB03 AB08 AB21 5L096 CA04 CA24 FA03 FA06 FA10 FA23 FA25 FA37 FA59 FA66 FA67 FA81 GA08 GA28 HA05 JA09 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 13/00 G06F 15/70 410 (72) Inventor ▲ Hamao Tadashio 1048 Kazuma Kajima, Kadoma, Osaka Prefecture Matsushita Electric Works, Ltd. F term in the formula company (reference) 2F065 AA53 BB05 CC14 DD03 DD08 FF04 FF28 GG10 GG18 JJ01 JJ02 JJ19 MM23 QQ13 QQ24 QQ25 QQ31 QQ32 QQ38 QQ42 QQ43 QQ44 UU05 5B057 BA02 BA24 CD02 DC03 DC03 DC03 DC05 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC03 DC02 AB03 AB08 AB21 5L096 CA04 CA24 FA03 FA06 FA10 FA23 FA25 FA37 FA59 FA66 FA67 FA81 GA08 GA28 HA05 JA09

Claims (29)

【特許請求の範囲】[Claims] 【請求項1】 静止している対象物を異なる複数位置か
らTVカメラにより撮像して複数の画像を取得し、前記
対象物から選択した面を境界要素と画像特徴量とで表し
た追跡領域として画像内に設定し、一つの画像内で設定
した追跡領域を他の画像における追跡領域の候補の境界
要素に一致するように変形させた変形領域を作成し、前
記他の画像における追跡領域の候補と変形領域とについ
て境界要素と画像特徴量との少なくとも一方を比較する
ことにより追跡領域の候補から前記一つの画像内で設定
した追跡領域に対応する追跡領域を選択する第1の過程
と、TVカメラにより撮像されていない領域が少ない追
跡領域を3次元空間にマッピングすることにより得られ
る基準領域を設定し、画像内において追跡領域の少なく
とも一部が追跡できないときに複数の基準領域の3次元
空間での位置関係に基づいてTVカメラにより撮像でき
ない領域が生じたか否かを判断する第2の過程と、前記
基準領域をTVカメラの各位置において撮像したときの
基準領域の位置関係に基づいて追跡領域をTVカメラで
撮像できなくなった原因を推定し、推定結果に基づいて
追跡領域の追跡が可能となるように修正して追跡を継続
させる第3の過程とを備えることを特徴とする画像特徴
追跡処理方法。
1. A stationary object is captured by a TV camera from a plurality of different positions to acquire a plurality of images, and a surface selected from the object is used as a tracking area represented by a boundary element and an image feature amount. Set in the image, create a deformed area by deforming the tracking area set in one image so as to match the boundary element of the candidate for the tracking area in another image, and create a candidate for the tracking area in the other image A first step of selecting a tracking area corresponding to the tracking area set in the one image from the candidates for the tracking area by comparing at least one of the boundary element and the image feature amount for the and the deformation area; By setting a reference area obtained by mapping a tracking area having a small area not imaged by the camera in a three-dimensional space, at least a part of the tracking area can be tracked in the image. A second step of judging whether or not an area that cannot be imaged by the TV camera has occurred based on the positional relationship of the plurality of reference areas in the three-dimensional space when there is no image; Estimating the cause of the inability to image the tracking area with the TV camera based on the positional relationship of the reference area at the time, correcting the tracking area so that the tracking area can be tracked based on the estimation result, and continuing the tracking. And an image feature tracking processing method.
【請求項2】 前記第1の過程において、一つの画像で
設定された追跡領域の境界要素について他の画像上で対
応する候補を抽出し、境界要素の候補の組み合わせによ
る追跡候補を生成した後、前記一つの画像で設定した追
跡領域を追跡候補に一致するように変形させた変形領域
を生成し、追跡候補と変形領域とについて境界要素の形
状、画素値、画像特徴量から選択される指標を比較する
ことにより追跡候補の中から前記他の画像における追跡
領域を決定することを特徴とする請求項1記載の画像特
徴追跡処理方法。
2. In the first process, after extracting a candidate corresponding to a boundary element of a tracking area set in one image on another image and generating a tracking candidate by combining the boundary element candidates Generating a deformation area by deforming the tracking area set in the one image so as to match the tracking candidate, and selecting an index selected from the boundary element shape, pixel value, and image feature amount for the tracking candidate and the deformation area. 2. The image feature tracking processing method according to claim 1, wherein a tracking area in the other image is determined from tracking candidates by comparing the tracking candidates.
【請求項3】 前記他の画像においてエッジを抽出する
とともに、エッジのうち前記一つの画像において追跡領
域を構成する線要素との距離および方向が規定範囲内で
あるエッジを線要素の候補として選択することを特徴と
する請求項2記載の画像特徴追跡処理方法。
3. An edge is extracted from the other image, and an edge having a distance and a direction from a line element constituting a tracking area in the one image within a prescribed range is selected as a line element candidate. 3. The image feature tracking processing method according to claim 2, wherein:
【請求項4】 前記他の画像においてエッジを抽出する
とともに、エッジ上の各画素にハフ変換を行って連続性
を有したエッジを抽出し、このエッジのうち前記一つの
画像において追跡領域を構成する線要素との距離および
方向が規定範囲内であるエッジを線要素の候補として選
択することを特徴とする請求項2記載の画像特徴追跡処
理方法。
4. An edge is extracted from the other image, a Hough transform is performed on each pixel on the edge to extract an edge having continuity, and a tracking area is formed in the one image among the edges. 3. The image feature tracking processing method according to claim 2, wherein an edge having a distance and a direction from the line element within a predetermined range is selected as a line element candidate.
【請求項5】 前記一つの画像において追跡領域を構成
する点要素の近傍の形状をテンプレートとし、前記他の
画像においてテンプレートにマッチングする部位から点
要素の候補を抽出することを特徴とする請求項2記載の
画像特徴追跡処理方法。
5. The method according to claim 1, wherein a shape near a point element constituting a tracking area in the one image is used as a template, and a candidate for a point element is extracted from a part matching the template in the other image. 2. The image feature tracking processing method according to item 2.
【請求項6】 前記追跡候補と前記変形領域との画素値
を前記指標に用いることを特徴とする請求項2記載の画
像特徴追跡処理方法。
6. The image feature tracking processing method according to claim 2, wherein pixel values of the tracking candidate and the deformation area are used as the index.
【請求項7】 前記追跡領域と前記追跡候補との平均輝
度を前記指標に用いることを特徴とする請求項2記載の
画像特徴追跡処理方法。
7. The image feature tracking processing method according to claim 2, wherein an average luminance of the tracking area and the tracking candidate is used as the index.
【請求項8】 前記画像はカラー画像であって、前記追
跡領域と前記追跡候補との色を前記指標に用いることを
特徴とする請求項2記載の画像特徴追跡処理方法。
8. The image feature tracking processing method according to claim 2, wherein the image is a color image, and the colors of the tracking area and the tracking candidate are used as the index.
【請求項9】 前記追跡領域と前記追跡候補との空間周
波数分布を前記指標に用いることを特徴とする請求項2
記載の画像特徴追跡処理方法。
9. The method according to claim 2, wherein a spatial frequency distribution between the tracking area and the tracking candidate is used as the index.
The described image feature tracking processing method.
【請求項10】 前記追跡領域と前記追跡候補の領域内
で画素値の変化が規定値を超える部分を抽出し、この部
分の位置、形状、画像特徴の少なくとも1要素を前記指
標に用いることを特徴とする請求項2記載の画像特徴追
跡処理方法。
10. A method for extracting a portion where a change in pixel value exceeds a specified value in the tracking region and the tracking candidate region, and using at least one element of the position, shape, and image feature of the portion as the index. 3. An image feature tracking processing method according to claim 2, wherein:
【請求項11】 前記画像はカラー画像であって、前記
追跡領域と前記追跡候補との平均輝度または色を前記指
標に用いる場合と、空間周波数分布を前記指標に用いる
場合と、領域内で画素値の変化が規定値を超える部分を
抽出し、この部分の位置、形状、画像特徴の少なくとも
1要素を前記指標に用いる場合とを、前記一方の画像に
おける追跡領域内での輝度および色の分布パターンに応
じて選択することを特徴とする請求項2記載の画像特徴
追跡処理方法。
11. The image is a color image, wherein the average brightness or color of the tracking area and the tracking candidate is used for the index, the spatial frequency distribution is used for the index, The case where a part whose value change exceeds a specified value is extracted and at least one element of the position, the shape, and the image feature of this part is used as the index, 3. The image feature tracking processing method according to claim 2, wherein the selection is performed according to a pattern.
【請求項12】 複数の追跡領域について複数の画像の
うち平均輝度が最大になるときのTVカメラの姿勢を各
追跡領域に対応した対象物の面の反射光の方向に近いと
推定し、各追跡領域に対応した対象物の面の法線方向と
反射光の方向とから光源からの照射方向を推定すること
を特徴とする請求項2記載の画像特徴追跡処理方法。
12. Estimating that the attitude of the TV camera when the average luminance of the plurality of images in the plurality of tracking areas is maximized is close to the direction of the reflected light on the surface of the object corresponding to each tracking area. 3. The image feature tracking processing method according to claim 2, wherein an irradiation direction from a light source is estimated from a normal direction of a surface of the object corresponding to the tracking area and a direction of reflected light.
【請求項13】 前記第2の過程において、複数の画像
間で対応する追跡領域を3次元空間にマッピングし、当
該追跡領域の境界要素の対応関係から求められる一致度
が閾値以上であるときに3次元空間にマッピングした追
跡領域を基準領域とし、基準領域に対応する追跡領域と
基準領域との境界要素を比較し、境界要素の変化によっ
て追跡領域中で撮像されていない領域を抽出することを
特徴とする請求項1記載の画像特徴追跡処理方法。
13. In the second step, a tracking area corresponding to a plurality of images is mapped to a three-dimensional space, and when a matching degree obtained from a correspondence between boundary elements of the tracking area is equal to or larger than a threshold value. A tracking area mapped in a three-dimensional space is used as a reference area, a boundary element between the tracking area corresponding to the reference area and the reference area is compared, and an area that is not imaged in the tracking area due to a change in the boundary element is extracted. The image feature tracking processing method according to claim 1, wherein:
【請求項14】 複数の画像間で境界要素の個数に変化
が生じない範囲に限定し、各々の範囲について、マッピ
ング時に得られる寄与率を一致度に用いて寄与率が閾値
以上である追跡領域を基準領域の候補とし、基準領域の
候補が複数個得られるときには面積が最大になる候補を
基準領域として採用することを特徴とする請求項13記
載の画像特徴追跡処理方法。
14. A tracking area in which the number of boundary elements is not changed between a plurality of images and a contribution ratio equal to or more than a threshold value is used for each range by using a contribution ratio obtained at the time of mapping as a degree of coincidence. 14. The image feature tracking processing method according to claim 13, wherein is set as a reference region candidate, and when a plurality of reference region candidates are obtained, a candidate having the largest area is adopted as the reference region.
【請求項15】 境界要素の個数の変化は、線要素と点
要素との一方に着目することを特徴とする請求項14記
載の画像特徴追跡処理方法。
15. The image feature tracking processing method according to claim 14, wherein the change in the number of boundary elements focuses on one of a line element and a point element.
【請求項16】 前記寄与率は追跡領域を因子分解法に
より3次元空間にマッピングする際に得られる対角行列
の成分から求めることを特徴とする請求項14記載の画
像特徴追跡処理方法。
16. The image feature tracking processing method according to claim 14, wherein said contribution ratio is obtained from a diagonal matrix component obtained when mapping the tracking area into a three-dimensional space by a factorization method.
【請求項17】 3次元空間に追跡領域をマッピングす
るとともに基準領域と比較し、互いに対応しない点要素
によって規定される領域を追跡領域中で撮像されていな
い領域として求めることを特徴とする請求項13記載の
画像特徴追跡処理方法。
17. The tracking area is mapped in a three-dimensional space, compared with a reference area, and an area defined by point elements that do not correspond to each other is determined as an area not imaged in the tracking area. 14. An image feature tracking processing method according to claim 13.
【請求項18】 3次元空間に追跡領域をマッピングす
るとともに基準領域と比較し、互いに対応しない線要素
が存在するときに、この線要素を追跡領域中で撮像され
ていない領域の一部とみなすことを特徴とする請求項1
3記載の画像特徴追跡処理方法。
18. A tracking area is mapped in a three-dimensional space and compared with a reference area. When there is a line element that does not correspond to each other, the line element is regarded as a part of an area not imaged in the tracking area. 2. The method according to claim 1, wherein
3. The image feature tracking processing method according to 3.
【請求項19】 前記第3の過程において、3次元空間
内でのすべての基準領域をTVカメラの位置により決ま
る画像面に投影し、画像面内における基準領域同士の位
置関係および画像面に対する基準領域の位置関係に基づ
いて、追跡領域中で撮像されなていない領域が生じた原
因を判定することを特徴とする請求項1記載の画像特徴
追跡処理方法。
19. In the third step, all the reference regions in the three-dimensional space are projected on an image plane determined by the position of the TV camera, and the positional relationship between the reference regions in the image plane and the reference to the image surface 2. The image feature tracking processing method according to claim 1, wherein a cause of the occurrence of an area that has not been imaged in the tracking area is determined based on the positional relationship between the areas.
【請求項20】 着目する基準領域とTVカメラとの間
に他の基準領域が存在し、かつ両基準領域が接続されて
いないときに他者隠蔽と判定することを特徴とする請求
項19記載の画像特徴追跡処理方法。
20. The method according to claim 19, wherein when there is another reference area between the reference area of interest and the TV camera, and the two reference areas are not connected, it is determined that another person is concealed. Image feature tracking processing method.
【請求項21】 着目する基準領域とTVカメラとの間
に他の基準領域が存在し、かつ両基準領域が接続されて
いるときに自己隠蔽と判定することを特徴とする請求項
19記載の画像特徴追跡処理方法。
21. The self-concealment method according to claim 19, wherein when another reference area exists between the reference area of interest and the TV camera, and both reference areas are connected, self-concealment is determined. Image feature tracking processing method.
【請求項22】 着目する基準領域が画面の周縁に位置
するときにフレームアウトと判定することを特徴とする
請求項19記載の画像特徴追跡処理方法。
22. The image feature tracking processing method according to claim 19, wherein when the reference area of interest is located at the periphery of the screen, the frame is determined to be out.
【請求項23】 追跡領域中で撮像されていない領域が
存在するときに、エッジ延長を行い、延長されたエッジ
の交点を新たな点要素として、追跡処理を再度実行し、
3次元空間にマッピングする際に寄与率が向上すれば隠
蔽と確定することを特徴とする請求項19記載の画像特
徴追跡処理方法。
23. When there is a region not imaged in the tracking region, edge extension is performed, and a tracking process is executed again with the intersection of the extended edge as a new point element.
20. The image feature tracking processing method according to claim 19, wherein when mapping is performed in a three-dimensional space, if the contribution rate increases, concealment is determined.
【請求項24】 TVカメラにより撮像された画像入力
画像として与える画像入力部と、入力された画像に対し
て請求項1記載の画像特徴追跡処理方法による処理を施
す画像処理装置と、入力された画像および画像処理装置
で処理された画像を格納する記憶装置と、画像処理装置
での処理画像を表示する表示手段と、画像処理装置に対
して追跡領域を指定する領域指定手段とを備えることを
特徴とする画像特徴追跡処理装置。
24. An image input unit for providing an image input image picked up by a TV camera, an image processing apparatus for performing processing by the image feature tracking processing method according to claim 1 on the input image, A storage device for storing the image and the image processed by the image processing device; a display unit for displaying the processed image in the image processing device; and an area designating unit for designating a tracking area for the image processing device. An image feature tracking processor that is a feature.
【請求項25】 対象物を異なる複数位置からTVカメ
ラにより撮像して複数の画像を取得した後、前記対象物
から選択した面を境界要素で表した追跡領域として画像
内に設定し、一つの画像内で設定した追跡領域を他の画
像における追跡領域の候補の境界要素に一致するように
変形させた変形領域を作成し、前記他の画像における追
跡領域の候補と変形領域とについて境界要素を比較する
ことにより追跡領域の候補から前記一つの画像内で設定
した追跡領域に対応する追跡領域を選択し、さらに前記
対象物の複数の面が撮像されかつ連続して同じ面が撮像
されている複数の画像を1つのフェーズ画像群として区
切り、次に複数のフェーズ画像について各フェーズ画像
群ごとに対象物から選択した面の3次元空間へのマッピ
ングを行うことにより各フェーズ画像群ごとに3次元形
状を求め、互いに他のフェーズ画像群の座標系を一致さ
せるように座標変換を行うことによって、3次元データ
を作成することを特徴とする3次元データ作成方法。
25. After capturing a plurality of images by capturing the target object from a plurality of different positions using a TV camera, a plane selected from the target object is set in the image as a tracking area represented by a boundary element. A deformation area is created by deforming the tracking area set in the image so as to match the boundary element of the tracking area candidate in the other image, and the boundary element is determined for the tracking area candidate and the deformation area in the other image. A tracking area corresponding to the tracking area set in the one image is selected from the tracking area candidates by comparing, and a plurality of surfaces of the object are imaged and the same surface is continuously imaged. By dividing a plurality of images into one group of phase images, and then mapping the plurality of phase images to a three-dimensional space of a surface selected from an object for each phase image group. Three-dimensional data is obtained for each phase image group, and three-dimensional data is generated by performing coordinate transformation so that the coordinate systems of the other phase image groups match each other. .
【請求項26】 対象物を異なる複数位置からTVカメ
ラにより撮像して複数の画像を取得した後、前記対象物
から選択した面を境界要素で表した追跡領域として画像
内に設定し、一つの画像内で設定した追跡領域を他の画
像における追跡領域の候補の境界要素に一致するように
変形させた変形領域を作成し、前記他の画像における追
跡領域の候補と変形領域とについて境界要素を比較する
ことにより追跡領域の候補から前記一つの画像内で設定
した追跡領域に対応する追跡領域を選択し、さらに前記
対象物の複数の面が撮像されかつ連続して同じ面が撮像
されている複数の画像を1つのフェーズ画像群として区
切り、次に複数のフェーズ画像について各フェーズ画像
群ごとに対象物から選択した面の3次元空間へのマッピ
ングを行うことにより各フェーズ画像群ごとに3次元形
状を求め、互いに他のフェーズ画像群に共通している線
要素を重ね合わせるように各フェーズ画像群ごとに得ら
れた3次元形状の座標変換を行うことによって、3次元
データを作成することを特徴とする3次元データ作成方
法。
26. After capturing a plurality of images by imaging a target object from a plurality of different positions with a TV camera, a surface selected from the target object is set in the image as a tracking area represented by a boundary element. A deformation area is created by deforming the tracking area set in the image so as to match the boundary element of the tracking area candidate in the other image, and the boundary element is determined for the tracking area candidate and the deformation area in the other image. A tracking area corresponding to the tracking area set in the one image is selected from the tracking area candidates by comparing, and a plurality of surfaces of the object are imaged and the same surface is continuously imaged. By dividing a plurality of images into one group of phase images, and then mapping the plurality of phase images to a three-dimensional space of a surface selected from an object for each phase image group. By obtaining a three-dimensional shape for each phase image group, and performing coordinate transformation of the three-dimensional shape obtained for each phase image group so as to overlap line elements common to other phase image groups. A method for creating three-dimensional data, comprising creating three-dimensional data.
【請求項27】 前記TVカメラにより撮像して取得し
た前記複数の画像内で前記対象物から選択した面を、点
要素と各点要素を順次接続する有向の線要素とからなる
境界要素で表し、時系列で得られる各画像において線要
素を辿って各点要素を巡回する向きを監視し、巡回する
向きが逆になるまでを1つのフェーズ画像群とすること
を特徴とする請求項25または請求項26記載の3次元
データ作成方法。
27. A surface selected from the object in the plurality of images captured and acquired by the TV camera is a boundary element composed of a point element and a directed line element sequentially connecting the point elements. 26. The method according to claim 25, wherein in each of the images obtained in a time series, the direction in which each point element is traversed by tracing the line element is monitored, and the phase until the circulating direction is reversed is regarded as one phase image group. 27. The three-dimensional data creation method according to claim 26.
【請求項28】 前記座標変換では、境界要素ごとに回
転および平行移動に関する変換パラメータを求めた後、
境界要素ごとに求めた変換パラメータをそれぞれ平均し
た変換パラメータを用いて座標変換を行うことを特徴と
する請求項25または請求項26記載の3次元データ作
成方法。
28. In the coordinate conversion, after obtaining conversion parameters related to rotation and translation for each boundary element,
27. The three-dimensional data creation method according to claim 25, wherein coordinate transformation is performed using a transformation parameter obtained by averaging transformation parameters obtained for each boundary element.
【請求項29】 座標系を互いに一致させる一方の3次
元形状に前記座標変換を施した後の各点要素の位置と他
方の3次元形状においてそれぞれ対応する各点要素の位
置との中点を、各点要素の位置とすることを特徴とする
請求項25または請求項26記載の3次元データ作成方
法。
29. A midpoint between the position of each point element after performing the coordinate transformation on one of the three-dimensional shapes whose coordinate systems match each other and the position of each corresponding point element on the other three-dimensional shape. 27. The method according to claim 25, wherein the position of each point element is set.
JP2000048117A 1999-07-27 2000-02-24 Image feature tracking processing method, image feature tracking processing device, and three-dimensional data creation method Expired - Fee Related JP3800905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000048117A JP3800905B2 (en) 1999-07-27 2000-02-24 Image feature tracking processing method, image feature tracking processing device, and three-dimensional data creation method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-211898 1999-07-27
JP21189899 1999-07-27
JP2000048117A JP3800905B2 (en) 1999-07-27 2000-02-24 Image feature tracking processing method, image feature tracking processing device, and three-dimensional data creation method

Publications (2)

Publication Number Publication Date
JP2001101419A true JP2001101419A (en) 2001-04-13
JP3800905B2 JP3800905B2 (en) 2006-07-26

Family

ID=26518892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000048117A Expired - Fee Related JP3800905B2 (en) 1999-07-27 2000-02-24 Image feature tracking processing method, image feature tracking processing device, and three-dimensional data creation method

Country Status (1)

Country Link
JP (1) JP3800905B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109879A (en) * 1999-08-05 2001-04-20 Sony Corp Device and method for image processing, and medium
JP2003281548A (en) * 2002-03-26 2003-10-03 Toshiba Corp Video editing method and program
US7274820B2 (en) 2001-09-26 2007-09-25 Kabushiki Kaisha Toshiba Pattern evaluation system, pattern evaluation method and program
JP2010524113A (en) * 2007-04-15 2010-07-15 エクストリーム リアリティー エルティーディー. Man-machine interface device system and method
KR20100104371A (en) * 2009-03-17 2010-09-29 삼성전자주식회사 Digital image processing apparatus, method for tracking, recording medium storing program to implement the method, and digital image processing apparatus adopting the method
KR20120032681A (en) * 2010-09-29 2012-04-06 삼성전자주식회사 Method and apparatus for 3d object tracking
JP2014529823A (en) * 2011-09-02 2014-11-13 クアルコム,インコーポレイテッド Line tracking using automatic model initialization with graph matching and cycle detection
CN105283905A (en) * 2013-06-14 2016-01-27 高通股份有限公司 Robust tracking using point and line features
KR20200014541A (en) * 2018-08-01 2020-02-11 (주)에이앤아이 Color and luminance measuring device
CN112464734A (en) * 2020-11-04 2021-03-09 昆明理工大学 Vision-based quadruped animal walking motion characteristic automatic identification method
CN112904719A (en) * 2021-01-15 2021-06-04 哈尔滨工程大学 Annular area tracking control method suitable for underwater robot position
CN113542542A (en) * 2020-04-15 2021-10-22 佳能株式会社 Display control device, display control method, and storage medium
CN113763419A (en) * 2021-04-29 2021-12-07 腾讯科技(深圳)有限公司 Target tracking method, target tracking equipment and computer-readable storage medium

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109879A (en) * 1999-08-05 2001-04-20 Sony Corp Device and method for image processing, and medium
US7274820B2 (en) 2001-09-26 2007-09-25 Kabushiki Kaisha Toshiba Pattern evaluation system, pattern evaluation method and program
JP2003281548A (en) * 2002-03-26 2003-10-03 Toshiba Corp Video editing method and program
JP2010524113A (en) * 2007-04-15 2010-07-15 エクストリーム リアリティー エルティーディー. Man-machine interface device system and method
KR101634228B1 (en) 2009-03-17 2016-06-28 삼성전자주식회사 Digital image processing apparatus, method for tracking, recording medium storing program to implement the method, and digital image processing apparatus adopting the method
KR20100104371A (en) * 2009-03-17 2010-09-29 삼성전자주식회사 Digital image processing apparatus, method for tracking, recording medium storing program to implement the method, and digital image processing apparatus adopting the method
KR20120032681A (en) * 2010-09-29 2012-04-06 삼성전자주식회사 Method and apparatus for 3d object tracking
KR101706092B1 (en) * 2010-09-29 2017-02-14 삼성전자주식회사 Method and apparatus for 3d object tracking
JP2014529823A (en) * 2011-09-02 2014-11-13 クアルコム,インコーポレイテッド Line tracking using automatic model initialization with graph matching and cycle detection
JP2016136439A (en) * 2011-09-02 2016-07-28 クアルコム,インコーポレイテッド Line tracking with automatic model initialization by graph matching and cycle detection
US9582896B2 (en) 2011-09-02 2017-02-28 Qualcomm Incorporated Line tracking with automatic model initialization by graph matching and cycle detection
CN105283905B (en) * 2013-06-14 2018-03-09 高通股份有限公司 Use the robust tracking of Points And lines feature
CN105283905A (en) * 2013-06-14 2016-01-27 高通股份有限公司 Robust tracking using point and line features
JP2016521885A (en) * 2013-06-14 2016-07-25 クアルコム,インコーポレイテッド Robust tracking using point and line features
KR101722654B1 (en) 2013-06-14 2017-04-03 퀄컴 인코포레이티드 Robust tracking using point and line features
KR20160019512A (en) * 2013-06-14 2016-02-19 퀄컴 인코포레이티드 Robust tracking using point and line features
KR20200014541A (en) * 2018-08-01 2020-02-11 (주)에이앤아이 Color and luminance measuring device
KR102128899B1 (en) 2018-08-01 2020-07-02 (주)에이앤아이 Color and luminance measuring device
CN113542542A (en) * 2020-04-15 2021-10-22 佳能株式会社 Display control device, display control method, and storage medium
CN112464734A (en) * 2020-11-04 2021-03-09 昆明理工大学 Vision-based quadruped animal walking motion characteristic automatic identification method
CN112464734B (en) * 2020-11-04 2023-09-15 昆明理工大学 Automatic identification method for walking motion characteristics of quadruped based on vision
CN112904719A (en) * 2021-01-15 2021-06-04 哈尔滨工程大学 Annular area tracking control method suitable for underwater robot position
CN113763419A (en) * 2021-04-29 2021-12-07 腾讯科技(深圳)有限公司 Target tracking method, target tracking equipment and computer-readable storage medium
CN113763419B (en) * 2021-04-29 2023-06-20 腾讯科技(深圳)有限公司 Target tracking method, device and computer readable storage medium

Also Published As

Publication number Publication date
JP3800905B2 (en) 2006-07-26

Similar Documents

Publication Publication Date Title
JP6321106B2 (en) Method and apparatus for rendering a virtual object in a real environment
US7352386B1 (en) Method and apparatus for recovering a three-dimensional scene from two-dimensional images
TWI419081B (en) Method and system for providing augmented reality based on marker tracing, and computer program product thereof
US6671399B1 (en) Fast epipolar line adjustment of stereo pairs
US10846844B1 (en) Collaborative disparity decomposition
US6192156B1 (en) Feature tracking using a dense feature array
US8077906B2 (en) Apparatus for extracting camera motion, system and method for supporting augmented reality in ocean scene using the same
CN112053447B (en) Augmented reality three-dimensional registration method and device
US20020164067A1 (en) Nearest neighbor edge selection from feature tracking
JP2016070674A (en) Three-dimensional coordinate calculation device, three-dimensional coordinate calculation method, and three-dimensional coordinate calculation program
WO2012096747A1 (en) Forming range maps using periodic illumination patterns
WO2000036564A9 (en) Creating a three-dimensional model from two-dimensional images
JP3800905B2 (en) Image feature tracking processing method, image feature tracking processing device, and three-dimensional data creation method
JP6880618B2 (en) Image processing program, image processing device, and image processing method
JP2010282295A (en) Apparatus and method for processing image, and program
Kim et al. Development of an AR based method for augmentation of 3D CAD data onto a real ship block image
JP6762570B2 (en) Image processing equipment, image processing method, and image processing program
CN112055192B (en) Image processing method, image processing apparatus, electronic device, and storage medium
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
US20040165776A1 (en) Means of matching 2D motion vector fields in a render, match, and refine iterative 3D scene model refinement system so as to attain directed hierarchical convergence and insensitivity to color, lighting, and textures
KR100944293B1 (en) Mechanism for reconstructing full 3D model using single-axis turntable images
EP2237227A1 (en) Video sequence processing method and system
Park et al. Virtual object placement in video for augmented reality
CN115719377A (en) Automatic acquisition system for pose estimation data set with six degrees of freedom
Loesch et al. Localization of 3D objects using model-constrained SLAM

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090512

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090512

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130512

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130512

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees