JP2873339B2 - Moving object recognition device - Google Patents

Moving object recognition device

Info

Publication number
JP2873339B2
JP2873339B2 JP3236466A JP23646691A JP2873339B2 JP 2873339 B2 JP2873339 B2 JP 2873339B2 JP 3236466 A JP3236466 A JP 3236466A JP 23646691 A JP23646691 A JP 23646691A JP 2873339 B2 JP2873339 B2 JP 2873339B2
Authority
JP
Japan
Prior art keywords
feature point
unit
moving object
motion
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3236466A
Other languages
Japanese (ja)
Other versions
JPH0573681A (en
Inventor
洋 鎌田
孝 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP3236465A priority Critical patent/JP2873338B2/en
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3236466A priority patent/JP2873339B2/en
Priority to DE69231826T priority patent/DE69231826T2/en
Priority to EP92308486A priority patent/EP0533477B1/en
Priority to CA002078503A priority patent/CA2078503C/en
Priority to EP99113513A priority patent/EP0950984A3/en
Priority to EP99113511A priority patent/EP0952550A3/en
Priority to US07/946,540 priority patent/US5444791A/en
Priority to EP99113512A priority patent/EP0952551A3/en
Publication of JPH0573681A publication Critical patent/JPH0573681A/en
Priority to US08/428,731 priority patent/US5684886A/en
Priority to US08/428,651 priority patent/US5625702A/en
Priority to US08/429,483 priority patent/US5872858A/en
Application granted granted Critical
Publication of JP2873339B2 publication Critical patent/JP2873339B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、動物体認識装置に関す
る。動物体の認識装置は、外界の対象物の画像が入力さ
れる画像入力部として、TVカメラを採用することが多
い。すなわち、外界の対象物をTVカメラで捉えて入力
された画像信号をディジタル処理することにより、動物
体を認識することが多い。TVカメラを画像入力部にす
れば、人間と同等な視覚情報を入力にできるので、応用
範囲が極めて広い。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object recognition apparatus. A moving object recognition apparatus often employs a TV camera as an image input unit into which an image of an external object is input. That is, in many cases, a moving object is recognized by capturing an external object with a TV camera and digitally processing an input image signal. If the TV camera is used as the image input unit, visual information equivalent to humans can be input, so that the application range is extremely wide.

【0002】一般に、画像処理装置は人間と同様な視覚
情報を処理できる装置として、FA検査・無人監視装置
・無人移動車用視覚装置に盛んに応用されている。ま
た、その潜在需要はさらに高く、研究開発が盛んに行わ
れている。画像処理装置は、当初静止画の処理を対象と
していたが、近年は、動画の処理に重点が移ってきた。
特に、動物体の認識は、画像処理装置全体においても、
大きな比重を占めるようになった。
2. Description of the Related Art Generally, an image processing apparatus is a device capable of processing visual information similar to that of a human being, and is widely applied to an FA inspection, an unmanned monitoring device, and a visual device for an unmanned mobile vehicle. The potential demand is even higher, and research and development is being actively pursued. Although the image processing apparatus initially targeted still image processing, in recent years the emphasis has shifted to moving image processing.
In particular, the recognition of the moving object is performed by the entire image processing apparatus.
It came to occupy a large specific gravity.

【0003】動物体認識装置は、一般に、動物体認識装
置の画像入力部と対象物が相対的に動いている状況で、
動物体の形状と相対的な動きを認識するものである。即
ち、対象物が実際に動いていなくとも、動物体認識装置
の画像入力部が動いている場合は、静止している対象物
の形状と画像入力部の動きを認識するものである。例え
ば、無人移動車用視覚装置では、画像入力部が移動車の
上に搭載されており、動物体認識装置は移動車が走行す
る環境を認識する。
[0003] In general, a moving object recognizing device is used in a situation where an image input unit of the moving object recognizing device and an object are relatively moving.
It recognizes the shape and relative movement of the moving object. That is, even when the object is not actually moving, if the image input unit of the moving object recognition apparatus is moving, the shape of the stationary object and the movement of the image input unit are recognized. For example, in a visual device for an unmanned mobile vehicle, the image input unit is mounted on the mobile vehicle, and the moving object recognition device recognizes the environment in which the mobile vehicle runs.

【0004】動物体認識装置においては、小型性と高速
性が要求されている。小型性については、特に無人移動
車用視覚装置に適用する場合に移動車に搭載するために
重要である。また、高速性については、人間が目で見な
がらと同様な実時間処理が要求されている。
In a moving object recognizing device, small size and high speed are required. The compactness is important for mounting on a moving vehicle, particularly when applied to a visual device for an unmanned moving vehicle. In addition, as for high-speed processing, real-time processing similar to that performed by human eyes is required.

【0005】[0005]

【従来の技術】従来の動物体認識装置は、2台の画像入
力部を用いて対象物を捉える。2台の画像入力部で捉え
た2枚の画像における対象物の特徴点を対応づけて、三
角測量の原理により対象物の形状を各時点ごとに求めた
後、対象物の動きを計算する。
2. Description of the Related Art A conventional moving object recognition apparatus captures an object using two image input units. The feature points of the object in the two images captured by the two image input units are associated with each other, and the shape of the object is obtained for each time point according to the principle of triangulation, and then the movement of the object is calculated.

【0006】従来の動物体認識装置の概念を図30に示
す。第1の画像入力部2と第2の画像入力部3は、対象
物1の画像を入力する。動物体認識部4は、2枚の画像
において、対象物の特徴点を検出し、同一の特徴点を2
枚の画像間で対応づけた後、三角測量の原理により各特
徴点の位置を計算する。ここで特徴点とは、対象物の特
定部位を示す点のことであり、頂点や縁の点、あるいは
模様などがある場合は模様の点、色の境界点などを示
す。動物体認識部4は該特徴点位置の時間的推移から、
さらに特徴点の動きと対象物の動きを計算する。これら
の特徴点の位置と動きと対象物の動きは、認識結果5と
して出力される。
FIG. 30 shows the concept of a conventional moving object recognition apparatus. The first image input unit 2 and the second image input unit 3 input an image of the object 1. The moving object recognizing unit 4 detects the feature points of the target object in the two images, and
After associating the images, the position of each feature point is calculated according to the principle of triangulation. Here, the feature point is a point indicating a specific portion of the target object, such as a vertex or an edge point, or a pattern point or a color boundary point when there is a pattern. The moving object recognizing unit 4 obtains
Further, the motion of the feature point and the motion of the object are calculated. The positions and movements of these feature points and the movement of the object are output as a recognition result 5.

【0007】従来の動物体認識装置の構成を図31に示
す。第1の画像入力部2から入力された画像は、第1の
特徴点抽出部6において特徴点を抽出され、特徴点対応
づけ部8に入力される。同様に、第2の画像入力部3か
ら入力された画像は、第2の特徴点抽出部7において特
徴点を抽出され、特徴点対応づけ部8に入力される。
6,7において抽出された特徴点は、特徴点対応づけ部
8において、同一の特徴点が対応づけられる。特徴点位
置計算部9において、第1の画像入力部2と第2の画像
入力部3の設置位置と、対応づけられた特徴点に基づい
て、特徴点の位置が求められ、特徴点位置格納部10に
格納される。特徴点位置格納部10に格納された複数時
点における特徴点の位置は、対象物動き計算部11に送
られ、対象物の動きが計算されて、対象物動き格納部1
2に格納される。
FIG. 31 shows the configuration of a conventional moving object recognition apparatus. The image input from the first image input unit 2 has its feature points extracted by a first feature point extraction unit 6, and is input to a feature point association unit 8. Similarly, the image input from the second image input unit 3 has its feature points extracted by the second feature point extraction unit 7 and is input to the feature point association unit 8.
The feature points extracted in 6 and 7 are associated with the same feature point in a feature point association unit 8. In the feature point position calculation unit 9, the positions of the feature points are obtained based on the installation positions of the first image input unit 2 and the second image input unit 3 and the associated feature points, and the feature point position storage is performed. It is stored in the unit 10. The positions of the feature points at a plurality of time points stored in the feature point position storage unit 10 are sent to the object movement calculation unit 11, where the movement of the object is calculated, and the object movement storage unit 1
2 is stored.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、図3
0,31で説明した従来の動物体認識装置には以下の
(a),(b) の問題点があった。 (a) 2台の画像入力部で入力した画像から特徴点を個別
に抽出する必要があるため、特徴点を抽出する処理が、
1台のTVカメラを用いる場合に比べて2倍となる。図
31においては、画像入力部ごとに特徴点抽出部が1つ
ずつ必要となっている。 (b) 見え方の異なる2枚の画像から抽出した特徴点を対
応づける処理が必要となる。図31においては、特徴点
対応づけ部8が必要となっている。2台の画像入力部の
設置位置が異なるため、対象物の見え方が異なり、対象
物の特徴点の対応づけは困難であり、特徴点対応づけ部
8における対応点探索には膨大な処理を要する(画像入
力部の位置を近づけると対象物の特徴点の対応づけは容
易になるが、対象物の形状の認識精度は悪くなる)。
However, FIG.
The conventional moving object recognition device described in 0, 31
There were problems (a) and (b). (a) Since it is necessary to individually extract feature points from images input by the two image input units, the process of extracting feature points is as follows:
This is twice as large as when one TV camera is used. In FIG. 31, one feature point extraction unit is required for each image input unit. (b) Processing for associating feature points extracted from two images with different appearances is required. In FIG. 31, the feature point associating unit 8 is required. Since the installation positions of the two image input units are different, the appearance of the object is different, and it is difficult to associate the feature points of the object with each other. That is, the closer the position of the image input unit is, the easier it is to associate the feature points of the target object, but the lower the recognition accuracy of the shape of the target object is.

【0009】(b) において処理が困難である典型的な場
合として、一方の画像入力部で捉えられる対象物の特徴
点が、もう一方の画像入力部では捉えられず、その特徴
点については対応づけが不可能になる場合がある。例え
ば図32において2つの特徴点があるが、どちらの特徴
点も、1つの画像入力部でのみ捉えることができ、もう
片方の画像入力部では捉えることができない。
In a typical case where the processing is difficult in (b), the feature points of the object captured by one image input unit are not captured by the other image input unit, and the feature points are May be impossible. For example, although there are two feature points in FIG. 32, both feature points can be captured only by one image input unit, and cannot be captured by the other image input unit.

【0010】本発明は、1つの画像入力部から入力され
る複数時点における特徴点を抽出することによって動物
体を認識することを目的とする。
An object of the present invention is to recognize a moving object by extracting feature points at a plurality of times input from one image input unit.

【0011】[0011]

【課題を解決するための手段】図1は本発明の原理ブロ
ック図である。同図は1つの画像入力部だけを用いるも
のであり、画像入力部15から入力される画像内の特徴
点を抽出する特徴点抽出部16と、抽出された特徴点を
格納する特徴点格納部17とを備え、それらの特徴点の
既知位置情報、例えばXY平面上で動く動物体の複数の
特徴点のX座標を用いて、その動物体の動きを認識する
動物体認識装置の原理ブロック図である。
FIG. 1 is a block diagram showing the principle of the present invention. The figure uses only one image input unit, a feature point extraction unit 16 for extracting feature points in an image input from the image input unit 15, and a feature point storage unit for storing the extracted feature points. 17 is a block diagram showing the principle of a moving object recognizing device for recognizing the movement of a moving object by using known position information of the characteristic points, for example, X coordinates of a plurality of characteristic points of the moving object moving on the XY plane. It is.

【0012】図1において、形状/動き認識手段18
は、例えば形状/動き認識部であり、回転しながら平面
上を移動する対象物を、回転軸に対して垂直な方向から
捉えた画像中での、その対象物の特徴点のうちで直角を
成す3つの特徴点の2つの時点における既知位置情報、
例えばXY平面上を移動する対象物の特徴点のX座標か
ら、その対象物の特徴点の実際の3次元空間上の位置と
動きを算出する。
In FIG. 1, the shape / motion recognition means 18
Is, for example, a shape / motion recognition unit. In an image obtained by capturing an object that moves on a plane while rotating from a direction perpendicular to the rotation axis, a right angle is extracted from the feature points of the object. Known position information at two time points of the three feature points to be formed,
For example, from the X coordinate of the feature point of the object moving on the XY plane, the actual position and movement of the feature point of the object in the three-dimensional space are calculated.

【0013】[0013]

【作用】本発明は、今回出願者が初めて提出し、証明し
た新しい理論に基づいている。この新理論は、画像入力
部が1つだけであっても、いくつかの時点における特徴
点が抽出できれば、ある限定された条件のもとで対象物
の形状(特徴点の位置)と運動が計算可能であることを
示している。まずこの新理論について詳細に説明する。
The present invention is based on a new theory submitted and proved by the present applicant for the first time. According to this new theory, even if there is only one image input unit, if the feature points at several points can be extracted, the shape (position of the feature points) and the motion of the target object under certain limited conditions Indicates that calculation is possible. First, this new theory will be described in detail.

【0014】まず、本発明および本理論では、対象物は
定まった回転軸を中心に回転しており、画像入力部は、
その対象物の回転軸の垂直方向から観測していることを
前提とする。この前提下で、多くの応用がある。例え
ば、対象物が道路脇の側壁などの様々な対象物であり、
画像入力部としてTVカメラを自走車に装着している場
合である。この場合、観測系である画像入力部より相対
的に見ると、対象物である側壁は任意の垂直方向の回転
軸の回りに回転しながら移動しているものと見なすこと
ができる。
First, according to the present invention and the present theory, an object rotates around a fixed rotation axis, and the image input unit
It is assumed that the observation is made from the vertical direction of the rotation axis of the object. Under this assumption, there are many applications. For example, the object is various objects such as a side wall on a road,
This is a case where a TV camera is mounted on a self-propelled vehicle as an image input unit. In this case, relative to the image input unit that is the observation system
From a point of view, the object side wall rotates in any vertical direction
Treat as rotating and moving around an axis
Can be.

【0015】さらに、本発明では、対象物が互いに垂直
な面を持つことを前提としており、この前提は、正確に
は、対象物の回転軸に垂直な投影面において、3つの特
徴点が直角関係にあるということを意味する。
Further, the present invention is based on the premise that the objects have planes perpendicular to each other. This is based on the premise that three characteristic points are orthogonal to the projection plane perpendicular to the rotation axis of the object. It means being in a relationship.

【0016】この前提を加えても、多くの場合に適用で
きる。例えば、前述の自走車に装着したTVカメラによ
り道路脇の側壁を観測する場合は、側壁は角が直角関係
にある面から構成されているので適用できる。側壁に限
らず、人工の建造物は、角が直角関係にある面から構成
されているで、自走車に装着したTVカメラにより観測
する場合に適用できる。
Even if this premise is added, it can be applied in many cases. For example, when observing the side wall on the side of the road with the TV camera mounted on the above-described self-propelled vehicle, the side wall is applicable because the side wall is formed of surfaces having a right angle relationship. Not only the side wall but also the artificial building is composed of planes whose corners are in a right angle relationship, and can be applied to the case where observation is performed by a TV camera mounted on a self-propelled vehicle.

【0017】また、画像入力部による画像を正射影で近
似する。正射影による近似は、レントゲン撮影による場
合や、画像入力部がTVカメラであり、画像入力部で捉
えた対象物の画角がせまいときは、良い近似を与える。
さらに、本理論では、対象物の回転軸に垂直な投影面に
おいて、対象物の3つの特徴点が、直角な関係にあるこ
とを前提としている。
Further, the image from the image input unit is approximated by orthographic projection. The approximation by orthographic projection gives a good approximation in the case of radiography or when the image input unit is a TV camera and the angle of view of the object captured by the image input unit is narrow.
Further, the present theory assumes that three feature points of the object have a right-angled relationship on a projection plane perpendicular to the rotation axis of the object.

【0018】対象物と画像入力部の観測面の関係を図2
に示す。画像面におけるZ軸は対象物体の回転軸方向に
とっており、X軸はZ軸に垂直な方向に取っている。す
なわち、X軸は特徴点の移動に平行な方向である。画像
面における原点はX軸とZ軸が交わる点とする。Y軸は
画像面に垂直で、画像面における原点と交わる軸とす
る。正射影条件により、XYZ軸座標系は、どの方向に
も平行移動して考えることができる。
FIG. 2 shows the relationship between the object and the observation surface of the image input unit.
Shown in The Z axis on the image plane is set in the direction of the rotation axis of the target object, and the X axis is set in a direction perpendicular to the Z axis. That is, the X axis is a direction parallel to the movement of the feature point. The origin on the image plane is the point where the X axis and the Z axis intersect. The Y axis is perpendicular to the image plane and intersects the origin on the image plane. According to the orthographic projection condition, the XYZ axis coordinate system can be considered to translate in any direction.

【0019】また、正射影条件により、奥行きY軸方向
の距離は未知であり、X軸方向の移動量は画像面上で観
測量と同じである。従って、図3に示すように、1の特
徴点0を原点Oに固定して考えることができる。
Further, the distance in the depth Y-axis direction is unknown due to the orthogonal projection condition, and the movement amount in the X-axis direction is the same as the observation amount on the image plane. Therefore, as shown in FIG. 3, it can be considered that one feature point 0 is fixed to the origin O.

【0020】対象部の形状と動き情報を計算するには、
対応づけられた1つの特徴点0の移動量とその特徴点の
回りの回転量を計算すればよい。特徴点0の移動量は既
に述べたように、自明に求められるので、特徴点0の回
りの回転量を計算すればよい。
To calculate the shape and motion information of the target part,
The movement amount of one associated feature point 0 and the rotation amount around the feature point may be calculated. As described above, since the movement amount of the feature point 0 can be obtained clearly, the rotation amount around the feature point 0 may be calculated.

【0021】本発明の動物体認識装置においては、入力
画像の特徴点からX座標とZ座標が得られるに加えて、
特徴点0を原点に移動したときの特徴点のY座標と対象
物の原点を中心とする回転量が計算される。
In the moving object recognition apparatus of the present invention, in addition to obtaining the X coordinate and the Z coordinate from the feature points of the input image,
The Y coordinate of the feature point when the feature point 0 is moved to the origin and the amount of rotation about the origin of the object are calculated.

【0022】本発明では、2次元空間(X−Y)上を回
転しつつ運動する剛体上の3つの特徴点の観測軸(X
軸)への正射影情報から、剛体の運動と構造を認識する
ことを目的とする。ただし、剛体の3つの特徴点は直交
する関係にあるものとする。さらに、X軸上での点の対
応づけは成されていると仮定する。
In the present invention, the observation axis (X) of three feature points on a rigid body that moves while rotating in a two-dimensional space (XY)
The purpose is to recognize the motion and structure of the rigid body from the orthogonal projection information on the axis). However, it is assumed that the three feature points of the rigid body have an orthogonal relationship. Further, it is assumed that the correspondence of points on the X axis has been established.

【0023】奥行き方向(Y方向)の絶対距離は原理上
復元できない。また、観測軸方向の平行移動量は自明で
ある。そこで、剛体上の3つの特徴点のうちの直角点を
座標軸の原点に移動して、問題を考えることができる。
即ち、原点を中心にして剛体が回転しており、原点以外
の2つの点のX座標が観測された時に、そのY座標と回
転量を求める問題になる。
The absolute distance in the depth direction (Y direction) cannot be restored in principle. Also, the amount of parallel movement in the observation axis direction is obvious. Therefore, the problem can be considered by moving the right-angle point of the three feature points on the rigid body to the origin of the coordinate axes.
That is, when the rigid body is rotating around the origin and the X coordinates of two points other than the origin are observed, there is a problem of obtaining the Y coordinate and the amount of rotation.

【0024】3個の特徴点を2画面で対応づければ、動
物体を認識することができる(後述の定理1)。ただ
し、特徴点の1つは直角の縁上に取り、座標軸の原点に
移動する。他の2つの特徴点は直角点を挟む面にとる。
厳密に言うと、3つの特徴点がXZ平面上で、直角関係
にあればよい。
By associating three feature points on two screens, a moving object can be recognized (Theorem 1 described later). However, one of the feature points is taken on a right-angled edge and moves to the origin of the coordinate axis. The other two feature points are on the plane sandwiching the right angle point.
Strictly speaking, it is only necessary that the three feature points have a right angle relationship on the XZ plane.

【0025】直角の縁を持つという条件を観察するため
に、3つの特徴点は必要である。また、1画面では、動
物体の形状は求まらない。従って、3特徴点2画面は必
要な条件でもある。
In order to observe the condition of having a right-angled edge, three feature points are needed. Further, the shape of the moving object is not determined on one screen. Therefore, three feature points and two screens are also necessary conditions.

【0026】図4に、1画面だけでは直角の縁を持って
も、解が定まらないことを示した。特徴点1と特徴点2
の実際の位置は、それぞれ観測されたX座標の直線上に
ある。そのうち、特徴点1を任意に定めると、条件を満
たす特徴点2の位置が1つ決まる。特徴点1、原点(特
徴点0)、特徴点2からなる三角形が直角三角形になれ
ばよいからである。すなわち、条件を満たす特徴点0と
特徴点1の組み合わせは無数にある。
FIG. 4 shows that a solution cannot be determined even if a single screen has a right-angled edge. Feature point 1 and feature point 2
Are on the straight line of the observed X coordinate. If the feature point 1 is arbitrarily determined, one position of the feature point 2 that satisfies the condition is determined. This is because the triangle formed by the feature point 1, the origin (the feature point 0), and the feature point 2 may be a right triangle. That is, there are countless combinations of feature point 0 and feature point 1 that satisfy the condition.

【0027】図5に対象物の原点以外の2つの特徴点の
2時刻における画面軸への正射影点から、その特徴点の
実際の位置と動きを求める状況を示した。図5における
記号を説明する。
FIG. 5 shows a situation where the actual position and movement of two characteristic points other than the origin of the object are obtained from the orthogonally projected points on the screen axis at two times. The symbols in FIG. 5 will be described.

【0028】特徴点0:原点Oに移動した対象物上の特
徴点。 特徴点1、特徴点2:特徴点0以外の対象物上の特徴
点。 u1 ,u2 :第1時点における原点から特徴点1,2へ
のXY平面上での2次元ベクトル(順同) v1 ,v2 :第2時点における原点から特徴点1,2へ
のXY平面上での2次元ベクトル(順同)
Feature point 0: a feature point on the object that has moved to the origin O. Feature point 1, Feature point 2: Feature points on the object other than feature point 0. u 1 , u 2 : two-dimensional vectors on the XY plane from the origin at the first time point to the feature points 1 and 2 (the same order) v 1 , v 2 : from the origin at the second time point to the feature points 1 and 2 Two-dimensional vector on XY plane (in order)

【0029】[0029]

【数11】 [Equation 11]

【0030】回転R:対象物の第1時点から第2時点ま
での原点を中心とするXY平面上での2次元の回転。
Rotation R: Two-dimensional rotation on the XY plane about the origin from the first time point to the second time point of the object.

【0031】[0031]

【数12】 (Equation 12)

【0032】u2 はu1 をπ/2回転させたベクトル、
または−π/2回転させたベクトルである。この2つの
場合の解には、補題1の関係がある。 〔補題1〕下記の解(1) 、(2) は、互いに他方をX軸に
関して鏡映反転して得られるものである。 (1) u2 がu1 をπ/2回転させたベクトルであるとき
の解 (2) u2 がu1 を−π/2回転させたベクトルであると
きの解 図6は、このように互いにX軸に関して鏡映反転となる
2組の解を示している。これは正射影画像内の特徴点0
を原点においたとき、他の特徴点のY座標が図6に示し
たように正になる場合と、負になる場合とがあることを
示している。これはまた画像入力部としてのTVカメラ
側から見たときに、対象物の表面が凸と凹とのいずれか
となっていることに対応している。
U 2 is a vector obtained by rotating u 1 by π / 2,
Or a vector rotated by -π / 2. The solution in these two cases has the relationship of Lemma 1. [Lemma 1] The following solutions (1) and (2) are obtained by mirror-inverting the other with respect to the X axis. (1) solutions when u 2 is a vector obtained by rotating [pi / 2 and u 1 (2) solutions when u 2 is a vector the u 1 is rotated - [pi] / 2 Figure 6 is thus Two sets of solutions that are mirror-inverted with respect to the X axis are shown. This is the feature point 0 in the orthogonally projected image.
At the origin, there are cases where the Y coordinate of other feature points becomes positive as shown in FIG. 6 and cases where it becomes negative. This also corresponds to the fact that the surface of the object is either convex or concave when viewed from the TV camera side as the image input unit.

【0033】そこで、本発明ではu2 がu1 をπ/2回
転させたベクトルであるとして問題を解いてその解を認
識解〈1〉とし、u2がu1 を−π/2回転させたベク
トルである解(認識解〈2〉)は、前者の解をX軸に関
して鏡映反転することにより得ることにする。
In the present invention, the problem is solved by assuming that u 2 is a vector obtained by rotating u 1 by π / 2, and the solution is set as a recognition solution <1>. U 2 turns u 1 by −π / 2. The solution (recognition solution <2>), which is a vector obtained, is obtained by mirror-inverting the former solution with respect to the X axis.

【0034】従って、Therefore,

【0035】[0035]

【数13】 (Equation 13)

【0036】と置ける。また、[0036] Also,

【0037】[0037]

【数14】 [Equation 14]

【0038】と置く。 である。これらを関係づけると、vi =Rui (i=
1,2,)となる。従って、以下のように問題を定式化
できる。
[0038] It is. When these are related, v i = Ru i (i =
1, 2,). Therefore, the problem can be formulated as follows.

【0039】〔平面上の縁が直角の物体の認識〕 ui (i=1,2);2次元ベクトル、第1成分が既知 u2 はu1 をπ/2回転させたベクトル R;2次元回転行列 vi (i=1,2);2次元ベクトル、第1成分が既知 vi =Rui (i=1,2) この時、ui ,vi (i=1,2)の第2成分とRを求
めよ。
[Recognition of an object having a right-angled edge on a plane] u i (i = 1, 2); two-dimensional vector, first component is known u 2 is a vector obtained by rotating u 1 by π / 2 R: 2 dimension rotation matrix v i (i = 1,2); 2 -dimensional vector, when the first component is known v i = Ru i (i = 1,2) this, u i, v i of (i = 1, 2) Find the second component and R.

【0040】vi (i=1,2)の第2成分は、Rとu
i と関係式vi =Rui から、すぐに求まる。従って、
i (i=1,2)の第2成分とRを求めれば十分であ
る。θ,d1,d2 ,αを求めればよい。
The second component of v i (i = 1, 2) is R and u
i from the equation v i = Ru i, obtained immediately. Therefore,
It is sufficient to find the second component of u i (i = 1, 2) and R. θ, d 1 , d 2 , and α may be obtained.

【0041】,次の定理1は、問題が解ける条件を与え
る。 〔定理1〕上記の運動/構造認識問題が解ける条件は、
11≠±u11またはv21≠±u21である。
The following Theorem 1 gives a condition under which the problem can be solved. [Theorem 1] The conditions for solving the above motion / structure recognition problem are
v 11 ≠ ± u 11 or v 21 ≠ ± u 21 .

【0042】 ・・・・・ ・・・・・ X軸から観測できる座標について、、を判定すれば、解が一意的に求まる かどうかを決定できる。... With respect to coordinates observable from the X axis, it is possible to determine whether or not a solution can be uniquely obtained by determining.

【0043】次の定理2は、定理1の条件、の意味
づけを与える。〔定理2〕定理1の条件、は、下記
の条件、と同値である。
The following Theorem 2 gives the meaning of the condition of Theorem 1. [Theorem 2] The condition of Theorem 1 is the same as the following condition.

【0044】 [0044]

【0045】 u1121+u2111≠0 ・・・・・ は、対象物の回転角が0度、または 180度でない、と
いう意味である。の意味を明確にするために、そうで
ない α+θ=nπ−αの場合を考える。α+θを2π
( 360度) ずらしても同じ状態なので、α+θ=−αの
場合と、α+θ=−α+πの場合を考えればよい。これ
らの状態を図7に示した。
U 11 v 21 + u 21 v 11 ≠ 0... Means that the rotation angle of the object is not 0 degrees or 180 degrees. In order to clarify the meaning of, consider the case of α + θ = nπ−α, which is not the case. α + θ is 2π
(360 degrees) Since the state is the same even when shifted, the case of α + θ = −α and the case of α + θ = −α + π may be considered. These states are shown in FIG.

【0046】α+θ=−αの場合は、特徴点1はX軸に
ついて対称に移動し、特徴点2はY軸について対称に移
動した場合である。α+θ=−α+πの場合は、α+θ
=−αの場合を 180度回転した場合である。
In the case of α + θ = −α, the feature point 1 moves symmetrically about the X axis and the feature point 2 moves symmetrically about the Y axis. When α + θ = -α + π, α + θ
= -Α when rotated 180 degrees.

【0047】は定理3で用いる。次に、θ,d1 ,d
2 ,αの計算式の導出に入る。具体的な数値計算を行う
ために、まずαと sinθに関して値の範囲のしぼりこみ
を行う。
Is used in Theorem 3. Next, θ, d 1 , d
2. Begin to derive the formula for α. In order to perform a specific numerical calculation, first, a range of values of α and sinθ is narrowed down.

【0048】補題2では、αの値のしぼりこみを行う。 〔補題2〕 ui (i=1,2);原点からの2次元ベクトル、かつ u2 ;u1 をπ/2回転させたベクトルであるとすると
き、u1 のX軸からの回転角度αの値は、ui (i=
1,2)のX座標u11,u21の符号により図8のように
π/2の範囲で定まる。
In Lemma 2, the value of α is narrowed down. [Lemma 2] u i (i = 1, 2); a two-dimensional vector from the origin, and u 2 ; a vector obtained by rotating u 1 by π / 2, the rotation angle of u 1 from the X axis The value of α is u i (i =
The sign of the X coordinates u 11 and u 21 of (1, 2) is determined within the range of π / 2 as shown in FIG.

【0049】補題2において、u1 をv1 に、αをβに
置き換えることにより、図9を用いてβ=α+θの値も
しぼりこまれる。補題3では、補題2の結果を用いて、
sinθの値のしぼりこみを行う。
In Lemma 2, by replacing u 1 with v 1 and α with β, the value of β = α + θ is also narrowed down using FIG. In Lemma 3, using the result of Lemma 2,
The value of sinθ is narrowed down.

【0050】〔補題3〕図8,9から、(π/2)m≦
β<(π/2)(m+1),(π/2)n≦α<(π/
2)(n+1)の2式を満たす整数m,n(=0,1,
2,3)が求まる。
[Lemma 3] From FIGS. 8 and 9, (π / 2) m ≦
β <(π / 2) (m + 1), (π / 2) n ≦ α <(π /
2) Integers m and n (= 0, 1, 2) satisfying the two equations (n + 1)
2, 3) are obtained.

【0051】m,nの値とu11,v11の値の比較を用い
ると、下記の(1) ,(2) から sinθの符号を決定できき
る。 (1) m−nが奇数の場合 p=(m−n−1)/2とおく。pは整数である。
By using the comparison between the values of m and n and the values of u 11 and v 11 , the sign of sin θ can be determined from the following (1) and (2). (1) When mn is an odd number p = (mn-1) / 2. p is an integer.

【0052】図10により、 sinθの符号が定まる。 (2) m−nが偶数の場合 図11により、 sinθの符号が定まる。条件式において
符号が成立する場合は、 sinθ=0となる。
The sign of sin θ is determined from FIG. (2) When mn is an Even Number The sign of sin θ is determined from FIG. When the sign is satisfied in the conditional expression, sinθ = 0.

【0053】補題2,3の準備の元に、解の計算式を与
える定理3を示せる。 〔定理3〕定理1,2の条件下で、u2 がu1 をπ/2
回転させたベクトルであるときの解が下記のように計算
できる。
Under the preparation of the lemmas 2 and 3, theorem 3 which gives a formula for calculating the solution can be shown. [Theorem 3] Under the conditions of Theorems 1 and 2 , u 2 reduces u 1 by π / 2.
The solution for the rotated vector can be calculated as follows:

【0054】θ,d1 ,d2 ,αは下記の式で計算でき
る。 cosθ=(u1121+v1121)/(u1121+u21
11) sinθ=±(1−cos2θ)1/2、符号は補題3で決まる。(1) u11≠0、u21≠0の場合 tanα=(u11 cosθ−v11)/u11sinθ、補題2から
得られるαの範囲と合わせると、αの値が1つに決ま
る。
Θ, d 1 , d 2 and α can be calculated by the following equations. cos θ = (u 11 u 21 + v 11 v 21 ) / (u 11 v 21 + u 21 v
11 ) sin θ = ± (1−cos 2 θ) 1/2 , and the sign is determined by Lemma 3. (1) When u 11 ≠ 0 and u 21 ≠ 0 When tan α = (u 11 cos θ−v 11 ) / u 11 sin θ, and the range of α obtained from Lemma 2, the value of α is determined to be one.

【0055】d1 =u11/ cosα d2 =−u21/ sinα(2) u11=0の場合 D 1 = u 11 / cos α d 2 = −u 21 / sin α (2) In the case of u 11 = 0

【0056】[0056]

【数15】 (Equation 15)

【0057】(3) u21=0の場合 (3) When u 21 = 0

【0058】[0058]

【数16】 (Equation 16)

【0059】u2 がu1 を−π/2回転させたベクトル
である解は、補題1に記したように、定理3の解をX軸
に関して鏡映反転することにより得られる。系3.1
は、これを具体的に記したものである。
A solution in which u 2 is a vector obtained by rotating u 1 by −π / 2 is obtained by inverting the solution of Theorem 3 with respect to the X axis as described in Lemma 1. System 3.1
Describes this concretely.

【0060】〔系3.1〕u2 がu1 を−π/2回転さ
せたベクトルである解は、(1) 、(2) のように求められ
る。
[System 3.1] The solution in which u 2 is a vector obtained by rotating u 1 by −π / 2 can be obtained as shown in (1) and (2).

【0061】(1) 定理3のu2 がu1 をπ/2回転さ
せたベクトルである解を、R,ui ,vi (i=1,
2)とすると、−π/2回転させたベクトルである解
は、
[0061] (1) a solution u 2 of Theorem 3 is a vector obtained by rotating [pi / 2 to u 1, R, u i, v i (i = 1,
Assuming 2), the solution that is a vector rotated by -π / 2 is

【0062】[0062]

【数17】 [Equation 17]

【0063】である。 (2) 定理3のu2 がu1 をπ/2回転させたベクトルで
ある解を、θ,d1 ,d2 ,αとすると、−π/2回転
させたベクトルである解は、−θ,d1 ,d2 ,−αで
ある。
Is as follows. (2) If the solution in which u 2 in Theorem 3 is a vector obtained by rotating u 1 by π / 2 is θ, d 1 , d 2 , α, the solution in which −2 is rotated by −π / 2 is − θ, d 1 , d 2 , −α.

【0064】次に、補題1〜3および定理1〜3、系
3.1の証明について述べる。 〔補題1の証明〕 (1) u2 がu1 をπ/2回転したベクトルであるときの
解 (2) u2 がu1 を−π/2回転したベクトルであるとき
の解 図6に示したように、(1) ,(2) の解は、互いに他方を
X軸に関して鏡映反転して得られる。
Next, the proof of Lemma 1-3, Theorem 1-3, and Corollary 3.1 will be described. Solution when [proof of Lemma 1] (1) u 2 is a vector obtained by rotating [pi / 2 to u 1 a (2) u 2 is u 1 in solution Figure 6 when a vector obtained by rotating - [pi] / 2 As shown, the solutions (1) and (2) are obtained by mirror-inverting the other with respect to the X axis.

【0065】[0065]

【数18】 (Equation 18)

【0066】v1 ,v2 はu1 ,u2 をθ回転したベク
トルなので、
Since v 1 and v 2 are vectors obtained by rotating u 1 and u 2 by θ,

【0067】[0067]

【数19】 [Equation 19]

【0068】ui ,vi (i=1,2);第1成分が既
知という条件を、式(1) 〜(4) で表す。 d1 cosα =u11 ・・・・・(1) -d2 sinα =u21 ・・・・・(2) d1 cos(α+θ)=v11 ・・・・・(3) -d2 sin(α+θ)=v21 ・・・・・(4) (1) 〜(4) で右辺が既知の値である。
U i , v i (i = 1, 2); The condition that the first component is known is expressed by the following equations (1) to (4). d 1 cos α = u 11 (1) -d 2 sin α = u 21 (2) d 1 cos (α + θ) = v 11 (3) -d 2 sin (Α + θ) = v 21 (4) In (1) to (4), the right side is a known value.

【0069】補題2〜3,定理1〜3の証明について、
次の命題1、定理2、補題2〜3、定理3の順で示す。 〔命題1〕定理2の,は解が確定するために、必要
な条件である。
For the proofs of Lemma 2-3 and Theorem 1-3,
The following Proposition 1, Theorem 2, Lemma 2-3, and Theorem 3 are shown in this order. [Proposition 1] In the theorem 2,, is a necessary condition for the solution to be determined.

【0070】〔命題1の証明〕(1) が必要な条件であることの証明 でないときに解が確定しないことを示す。[Proof of Proposition 1] It is shown that the solution is not determined unless (1) is a proof that it is a necessary condition .

【0071】θ=nπを(3) ,(4) に代入して ±d1 cosα=v11 ・・・・・(3) ′ -+d2 sinα=v21 ・・・・・(4) ′ (3)′,(4)′における符号は順同である。Substituting θ = nπ into (3) and (4), ± d 1 cos α = v 11 (3) ′ − + d 2 sin α = v 21 (4) The signs in '(3)' and (4) 'are the same.

【0072】(3)′,(4)′は(1) ,(2) により、次の
(3)′,(4)′に変形することができ、(1) 〜(4) は(1)
,(2), (3)″,(4)″と同値である。従って、(1) 〜(4)
は(1) ,(2) , (3)″,(4)″と同値である。
(3) 'and (4)' are obtained from (1) and (2) as follows:
(3) ′, (4) ′, (1) to (4) can be transformed to (1)
, (2), (3) ″, (4) ″. Therefore, (1) to (4)
Is equivalent to (1), (2), (3) ″, (4) ″.

【0073】 d1 cosα=u11 ・・・・・(1) −d2 sinα=u21 ・・・・・(2) v11=±u11 ・・・・・(3) ″ v21=±u21 ・・・・・(4) ″ (3)″,(4)″における符号は順同である。D 1 cos α = u 11 (1) −d 2 sin α = u 21 (2) v 11 = ± u 11 (3) ″ v 21 = ± u 21 ... (4) ″ (3) ″, (4) ″ have the same sign.

【0074】すなわち、条件方程式は、(1) ,(2) であ
り、未知変数はd1 ,d2 ,αであり、解は確定しな
い。(2) が必要な条件であることの証明 でないときに解が確定しないことを示す。
That is, the conditional equations are (1) and (2), the unknown variables are d 1 , d 2 and α, and the solution is not determined. This shows that the solution is not determined unless (2) is a proof that it is a necessary condition .

【0075】α+θ=nπ−α(n;整数)を(3) ,
(4) の左辺に代入すると、 d1 cos(α+θ)=±d1 cosα −d2 sin(α+θ)=±d2 sinα ±d1 cosα=v11 ・・・・・(3) ′ ±d2 sinα=v21 ・・・・・(4) ′ 従って、(1) 〜(4) は(1) ,(2), (3)″, (4)″と同値
である。
Α + θ = nπ-α (n: integer) is expressed by (3),
(4), d 1 cos (α + θ) = ± d 1 cos α−d 2 sin (α + θ) = ± d 2 sin α ± d 1 cos α = v 11 (3) ′ ± d 2 sinα = v 21 ... (4) ′ Therefore, (1) to (4) are equivalent to (1), (2), (3) ″, (4) ″.

【0076】 d1 cosα=u11 ・・・・・(1) −d2 sinα=u21 ・・・・・(2) v11=±u11 ・・・・・(3) ″ v21=-+u21 ・・・・・(4) ″ すなわち、条件方程式は、(1) ,(2) であり、未知変数
はd1 ,d2 ,αであり、解は確定しない。
D 1 cos α = u 11 (1) −d 2 sin α = u 21 (2) v 11 = ± u 11 (3) ″ v 21 = − + u 21 ... (4) ″ That is, the conditional equations are (1) and (2), the unknown variables are d 1 , d 2 and α, and the solution is not determined.

【0077】〔証明終〕 〔定理2の証明〕「またはと、またはが同値で
ある」ことを先ず示す。
[End of Proof] [Proof of Theorem 2] First, it is shown that "or, or or is equivalent."

【0078】この命題の対偶を証明する。命題の対偶
は、v11=±u11,v21=±u21(順不同)⇔θ=nπ
またはα+θ=nπ−αそこで、
Prove the even number of this proposition. The even number of the proposition is v 11 = ± u 11 , v 21 = ± u 21 (in no particular order) ⇔θ = nπ
Or α + θ = nπ−α

【0079】[0079]

【数20】 (Equation 20)

【0080】を次の(1) ,(2) で示す。 とが同値であることは、(3) で証明する。(1) v11=±u11,v21=±u21(順同) ⇔ θ=
nπの証明 (←)命題1の証明(1) から(3) ″,(4) ″が導かれ
る。 (→)命題1の証明(1) 中の式番号を用いる。
Are shown by the following (1) and (2). It is proved in (3) that and are equivalent. (1) v 11 = ± u 11 , v 21 = ± u 21 (same order) ⇔ θ =
(3) ″ and (4) ″ are derived from the proof (1) of nπ proof (←) Proposition 1. (→) Use the formula number in Proof 1 (1).

【0081】(3)″,(4)″とする。(1) ,(2) を用いて
変形すると(3) ′,(4) ′が成立する。(3) ,(4) と合
わせると、
(3) "and (4)". Deformation using (1) and (2) yields (3) 'and (4)'. Combined with (3) and (4),

【0082】[0082]

【数21】 (Equation 21)

【0083】この式を用いて、 sinθを計算すると、 sinθ= sin{(α+θ)−α} = sin(α+θ) cosα− cos(α+θ) sinα =±{ sinα cosα− cosα sinα} =0 従って、θ=nπ(2) v11=±u11,v21=-+u21(順同) ⇔ α+θ=nπ−αの証明 (←)命題1の証明(2) で既に証明した。(→)命題1
の証明(2)中の式番号を用いる。
When sin θ is calculated using this equation, sin θ = sin {(α + θ) −α} = sin (α + θ) cosα−cos (α + θ) sinα = ± {sinα cosα−cosα sinα} = 0 Therefore, θ = Nπ (2) v 11 = ± u 11 , v 21 = − + u 21 (the same applies) ⇔ Proof of α + θ = nπ−α (←) Proof of Proposition 1 (2). (→) Proposition 1
Use the formula number in the proof (2).

【0084】(3)″,(4)″とすると、(3) ′,(4)′が成
立する。(3) ,(4) と合わせると、
Assuming (3) ″ and (4) ″, (3) ′ and (4) ′ hold. Combined with (3) and (4),

【0085】[0085]

【数22】 (Equation 22)

【0086】(3) とが同値であることの証明1121+u2111に(1) 〜(4) を代入すると、 u1121+u2111 =−d1 2 { cosα sin(α+θ)+ sinα cos(α
+θ)} =−d1 2 sin(2α+θ) α+θ=nπ−α(n;整数)⇔2α+θ=nπ(n;整数) ⇔ sin(2α+θ)=0 ⇔u1121+u2111=0 α+θ≠nπ−α(n;整数)⇔u1121+u2111≠0 ・・・・・ ・・・・・ 〔証明終〕 〔補題2の証明〕αの値がα=0,0<α<π/2、α
=π/2,π/2<α<π、α=π,π<α<3/2
π、α=3/2π,3/2π<α<2πであるとき、そ
れぞれu11とu21の符号がどうなるかを調べると図8が
得られる。
[0086] (3) When a is substituted into prove u 11 v 21 + u 21 v 11 that are equivalent to (1) ~ (4), u 11 v 21 + u 21 v 11 = -d 1 d 2 {cosα sin (α + θ) + sinα cos (α
+ Θ)} = -d 1 d 2 sin (2α + θ) α + θ = nπ-α (n; integer) ⇔2α + θ = nπ (n ; integer) ⇔ sin (2α + θ) = 0 ⇔u 11 v 21 + u 21 v 11 = 0 α + θ ≠ nπ-α (n; integer) ⇔u 11 v 21 + u 21 v 11 ≠ 0 [End of proof] [Proof of Lemma 2] When the value of α is α = 0,0 <Α <π / 2, α
= Π / 2, π / 2 <α <π, α = π, π <α <3/2
When π and α = 3 / 2π, 3 / 2π <α <2π, FIG. 8 is obtained by examining the signs of u 11 and u 21 respectively.

【0087】〔証明終〕 〔補題3の証明〕(π/2)m≦β<(π/2)(m+
1),(π/2)n≦α<(π/2)(n+1) m,nは整数で、0≦m≦3、0≦n≦3を満たす。
[End of Proof] [Proof of Lemma 3] (π / 2) m ≦ β <(π / 2) (m +
1), (π / 2) n ≦ α <(π / 2) (n + 1) m and n are integers and satisfy 0 ≦ m ≦ 3 and 0 ≦ n ≦ 3.

【0088】θ=β−αだから、 (π/2)(m−n)−π/2<θ<(π/2)(m−n)+π/2 ・・・・・(*) (1) m−nが奇数の場合 m−n=2p+1,p;整数と書ける。Since θ = β−α, (π / 2) (mn) −π / 2 <θ <(π / 2) (mn) + π / 2 (1) ) When mn is an odd number mn = 2p + 1, p; can be written as an integer.

【0089】すなわち、p=(m−n−1)/2であ
る。これを(*)に代入すると、pπ<θ<(p+1)
π従って、図10が成立する。 (2) m−nが偶数の場合 0≦m≦3,0≦n≦3から、−3≦m−n≦3である
が、m−nが偶数であるので、m−n=0,2,−2の
3つの場合に分類できる。
That is, p = (mn-1) / 2. Substituting this into (*), pπ <θ <(p + 1)
Therefore, FIG. 10 is established. (2) In the case where mn is an even number From 0 ≦ m ≦ 3, 0 ≦ n ≦ 3, −3 ≦ mn ≦ 3, but since mn is an even number, mn = 0, It can be classified into three cases of 2 and -2.

【0090】この3つの場合について、それぞれmとn
の可能性を列挙し、 sinθの符号が定まる条件を求める
と、図12が得られる。図12の条件式において、符号
が成立する場合は、 sinθ=0となる。
For these three cases, m and n respectively
12 are obtained by obtaining conditions for determining the sign of sin θ. In the conditional expression of FIG. 12, when the sign is satisfied, sin θ = 0.

【0091】この図をまとめると、図11になる。以
下、図12が得られるプロセスを示す。基本的には、m
とnの値に応じて、u1 とv1 の位置範囲を図式化し、
θを制約できるu11とv11に関する大小関係を求めた。 (a) m−n=0のとき (*)より、−π/2<θ<π/2である。図13の4
通りの場合がある。
FIG. 11 is a summary of this drawing. Hereinafter, a process for obtaining FIG. 12 will be described. Basically, m
According to the values of n and n, the position range of u 1 and v 1 is schematically represented,
The magnitude relation between u 11 and v 11 that can restrict θ was obtained. (a) When mn = 0 From (*), -π / 2 <θ <π / 2. 13 in FIG.
May be street.

【0092】u11とv11の値の比較によりθの値を制約
できる。 (b) m−n=2のとき (*)より、π/2<θ<3π/2である。図14の2
通りの場合がある。
The value of θ can be restricted by comparing the values of u 11 and v 11 . (b) When mn = 2 From (*), π / 2 <θ <3π / 2. 14-2
May be street.

【0093】|u11|と|v11|の値の比較によりθの
値を制約できる。 (c) m−n=−2のとき (*)より、−3π/2<θ<−π/2である。図15
の2通りの場合がある。|u11|と|v11|の値の比較
によりθの値を制約できる。
The value of θ can be restricted by comparing the values of | u 11 | and | v 11 |. (c) When mn = −2 From (*), −3π / 2 <θ <−π / 2. FIG.
There are two cases. The value of θ can be restricted by comparing the values of | u 11 | and | v 11 |.

【0094】〔証明終〕 〔定理3の証明〕(1) と(3) をたすきがけに掛け合わせ
ると、 u11 cos(α+θ)=v11 cosα ・・・・・(5) (2) と(4) をたすきがけに掛け合わせると、 u21 sin(α+θ)=v21 sinα ・・・・・(6) (1) u11≠0,u21≠0の場合 図8より、αはπ/2の倍数でないから、 cosα≠0, sinα≠0 (5) を展開して、両辺を cosαで割ると、 u11( cosθ− tanα・ sinθ)=v11 −u11 tanα・ sinθ=v11−u11 cosθ ・・・・・(5) ′ (6) を展開して、両辺を sinαで割ると、 u21( cosθ+ cotα・ sinθ)=v2121 cotα・ sinθ=v21−u21 cosθ ・・・・・(6) ′ (5) ′,(6) ′の両辺を乗算すると、 −u1121 sin2 θ=(v11−u11 cosθ)(v21−u21 cosθ) (u1121+u2111) cosθ=u1121+v1121・・・・・(7) u1121+u2111≠0 ・・・・・(5) であるから cosθ=(u1121+v1121)/(u1121+u2111)・・・・・(8) sinθ=±(1− cos2 θ)1/2 ・・・・・(9) この(9) の符号は、補題2から求まる。
[End of proof] [Proof of Theorem 3] When (1) and (3) are multiplied by crossing, u 11 cos (α + θ) = v 11 cos α (5) (2) When (4) is multiplied by crossing, u 21 sin (α + θ) = v 21 sin α (6) (1) When u 11 ≠ 0, u 21 ≠ 0 From FIG. Since cosα ≠ 0 and sinα ≠ 0 (5) are expanded and both sides are divided by cosα, u 11 (cos θ−tan α · sin θ) = v 11 −u 11 tan α · sin θ = v 11 -u 11 expand cosθ ····· (5) '(6 ), dividing both sides by sinα, u 21 (cosθ + cotα · sinθ) = v 21 u 21 cotα · sinθ = v 21 -u 21 cosθ ····· (6) '(5 )', (6) multiplying both sides of ', -u 11 u 21 sin 2 θ = (v 11 -u 11 cosθ) (v 21 -u 21 cosθ) (u 11 v 21 + u 21 v 11) cosθ = u 11 u 21 + v 11 v 21 ····· (7) u 11 v 21 because it is u 21 v 11 ≠ 0 ····· ( 5) cosθ = (u 11 u 21 + v 11 v 21) / (u 11 v 21 + u 21 v 11) ····· (8) sinθ = ± (1−cos 2 θ) 1/2 (9) The sign of (9) is obtained from Lemma 2.

【0095】(5) ′とから sinθ≠0だから、 tanα(u11 cosθ−v11)/u11 sinθ 補題2から得られるαの値の範囲と合わせると、αの値
が1つに決まる。
Since (5) ′ and sin θ ≠ 0, tan α (u 11 cos θ−v 11 ) / u 11 sin θ When combined with the value range of α obtained from Lemma 2, the value of α is determined to be one.

【0096】 (1) から d1 =u11/ cosα ・・・・・(10) (2) から d2 =−u21/ sinα ・・・・・(11)(2) u11=0の場合 From (1), d 1 = u 11 / cos α (10) From (2), d 2 = −u 21 / sin α (11) (2) When u 11 = 0 If

【0097】[0097]

【数23】 (Equation 23)

【0098】cosα=0, sinα=±1であり、これを
(1)〜(4) に代入すると、 0=u11 ・・・・・(1) ′ -+d2 =u21 ・・・・・(2) ′ -+d1 sinθ=v11 ・・・・・(3) ′ -+d2 cosθ=v21 ・・・・・(4) ′ (7) の左辺=d1 2 sinθ cosθ=(7) の右辺従っ
て、この場合も(7) が成立し、(8) 、(9) が成立する。
Cos α = 0 and sin α = ± 1.
(1) are substituted into ~ (4), 0 = u 11 ····· (1) '- + d 2 = u 21 ····· (2)' - + d 1 sinθ = v 11 ·· ··· (3) - = '+ d 2 cosθ = v 21 ····· (4)' (7) of the left side = d 1 d 2 sinθ cosθ follow the right-hand side of (7), also in this case (7) Holds, and (8) and (9) hold.

【0099】(3) ′において、 sinθ≠0(∵)だか
ら、 d1 =|v11/ sinθ| ・・・・・(10)′ (2) ′から、d2 =|u21| ・・・・・(11)′(3) u21=0の場合
In (3) ′, since sin θ ≠ 0 (∵), d 1 = | v 11 / sin θ | (10) ′ (2) ′ gives d 2 = | u 21 | ... (11) ' (3) When u 21 = 0

【0100】[0100]

【数24】 (Equation 24)

【0101】cosα=±1、 sinα=0であり、これを
(1)〜(4) に代入すると、 ±d1 =u11 ・・・・・ (1)″ 0=u21 ・・・・・ (2)″ ±d1 cosθ=v11 ・・・・・ (3)″ -+d2 sinθ=v21 ・・・・・ (4)″ (7) の左辺=−d1 2 sinθ cosθ=(7) の右辺従っ
て、この場合も(7) が成立し、(8),(9) が成立する。
Cos α = ± 1, sin α = 0, which is
Substituting into (1) to (4), ± d 1 = u 11 ... (1) ″ 0 = u 21 ... (2) ″ ± d 1 cosθ = v 11. (3) ″ − + d 2 sin θ = v 21 ... (4) ″ Left side of (7) = − d 1 d 2 sin θ cos θ = right side of (7) Therefore, also in this case, (7) is Holds, and (8) and (9) hold.

【0102】 (1) ″からd1 =|u11| ・・・・・(10)″ (4) ″において、 sinθ≠0 ( ∵) だから、 d2 =|v21/ sinθ| ・・・・・(11)″ 〔証明終〕 以上、本発明において用いられる新理論を詳細に説明し
たが、図1の形状/動き認識手段18が、回転しながら
平面上を移動する物体に対してこの新理論を適用するこ
とにより、2時点における直角を成す3つの特徴点の画
像内での抽出結果に基づいて、これらの特徴点の3次元
空間内の実際の位置と動きを算出し、動物体の動きを認
識することが可能となる。
(1) ″ From d 1 = | u 11 | (10) ″ (4) ″ Since sin θ ≠ 0 ((), d 2 = | v 21 / sin θ | (11) ″ [End of proof] The new theory used in the present invention has been described in detail above. The shape / motion recognition means 18 shown in FIG. By applying the new theory, the actual positions and movements in the three-dimensional space of these feature points are calculated based on the extraction results of the three feature points forming a right angle at the two points in the image, and the moving object is calculated. Can be recognized.

【0103】[0103]

【実施例】図16は本発明の動物体認識装置の概念の説
明図である。本実施例では、1つの画像入力部だけを用
いて対象物の動きが認識されるが、その対象物はある1
つの回転軸、例えばZ軸を中心に回転しながら移動して
おり、画像入力部はその対象物を回転軸に対する垂直方
向から観測している状況を想定している。この状況の例
としては、対象物が道路脇の側壁などであり、画像入力
部としてTVカメラを自走車に装着している場合があげ
られる。この場合、観測系である画像入力部より相対的
に見ると、対象物である側壁は任意の垂直方向の回転軸
の回りに回転しながら移動しているものと見なすことが
できる。
FIG. 16 is an explanatory view of the concept of the moving object recognition apparatus of the present invention. In this embodiment, the movement of the object is recognized using only one image input unit.
It is assumed that the image input unit is moving while rotating around two rotation axes, for example, the Z axis, and that the image input unit is observing the object from a direction perpendicular to the rotation axis. As an example of this situation, there is a case where the object is a side wall on the side of a road, and a TV camera is mounted on a self-propelled vehicle as an image input unit. In this case, relative to the image input unit that is the observation system
In the figure, the object side wall is an arbitrary vertical rotation axis.
Can be considered as moving while rotating around
it can.

【0104】図16において、対象物20の画像は画像
入力部21に入力され、動物体認識部22に送られる。
動物体認識部22は画像から対象物の特徴点を抽出し、
複数の時点での特徴点の位置から対象物の形状(特徴点
の位置)と動きを認識する。その認識結果は、認識結果
23として動物体認識部22から出力される。
In FIG. 16, the image of the object 20 is input to the image input unit 21 and sent to the moving object recognizing unit 22.
The moving object recognition unit 22 extracts feature points of the target object from the image,
The shape (position of the feature point) and the movement of the object are recognized from the positions of the feature points at a plurality of time points. The recognition result is output from the moving object recognition unit 22 as a recognition result 23.

【0105】図17は本発明の動物体認識装置の実施例
の全体構成ブロック図である。同図において、画像入力
部24に入力された入力画像は特徴点抽出部25に出力
され、特徴点抽出部25は入力画像中から特徴点を抽出
し、その画像中の特徴点の位置情報は特徴点格納部26
に出力される。特徴点格納部26に格納された複数時点
での特徴点の既知の位置情報は形状/動き認識部27に
出力され、形状/動き認識部27は複数の特徴点の実際
の3次元座標空間上での位置と対象物の動きを計算し、
その結果の対象物の動きは対象物動き格納部28に、ま
た特徴点の3次元位置は特徴点位置格納部29に格納さ
れる。
FIG. 17 is a block diagram showing the overall configuration of an embodiment of the moving object recognition apparatus according to the present invention. In the figure, an input image input to an image input unit 24 is output to a feature point extraction unit 25, and the feature point extraction unit 25 extracts feature points from the input image, and the position information of the feature points in the image is Feature point storage unit 26
Is output to The known position information of the feature points at a plurality of time points stored in the feature point storage unit 26 is output to the shape / motion recognition unit 27, and the shape / motion recognition unit 27 outputs the plurality of feature points on the actual three-dimensional coordinate space. Calculates the position and movement of the object at
The resulting movement of the object is stored in the object movement storage unit 28, and the three-dimensional position of the feature point is stored in the feature point position storage unit 29.

【0106】図17において、形状/動き認識部27に
より、前述の新理論を用いて特徴点の実際の位置と対象
物の動きの計算が行われる。図18は形状/動き認識部
27の詳細構成ブロック図である。同図において、形状
/動き認識部は、例えばセンサからの対象物の動きに関
する既知情報が入力される既知情報入力部31、図17
において特徴点格納部26に格納された特徴点の画像内
での位置が入力され、3つの特徴点のうちで直角の頂点
となる特徴点を3次元座標空間上の原点においた時に他
の特徴点の相対位置、すなわち正規化された位置を求め
る特徴点位置正規化部32、特徴点位置正規化部32の
出力を用いて対象物の動きの認識が可能であるか否かを
判定する形状と動きの判定部33、形状と動きの判定部
33が対象物の動きが認識可能であると判定した時、特
徴点位置正規化部32の出力を用いて対象物の回転軸の
回りの回転量を算出する動き算出部34、動き算出部3
4および特徴点位置正規化部32の出力を用いて原点に
おかれた特徴点以外の他の特徴点の未知位置情報を求め
る形状算出部35、動き算出部34、形状算出部35、
および特徴点位置正規化部32の出力を用いて対象物の
動きを対象物動き格納部28に、また特徴点の3次元座
標空間上での位置を特徴点位置格納部29に出力する特
徴点位置復元部36から構成されている。
In FIG. 17, the shape / motion recognition unit 27 calculates the actual position of the feature point and the motion of the object using the new theory described above. FIG. 18 is a detailed configuration block diagram of the shape / motion recognition unit 27. In FIG. 17, a shape / motion recognition unit includes a known information input unit 31 to which known information relating to the movement of an object from a sensor is input.
In, the position of the feature point stored in the feature point storage unit 26 in the image is input, and when a feature point that is a right-angled vertex among the three feature points is set at the origin on the three-dimensional coordinate space, the other feature points are obtained. A feature point position normalization unit 32 for obtaining a relative position of a point, that is, a normalized position, and a shape for determining whether or not the motion of the target object can be recognized using the output of the feature point position normalization unit 32 When the motion and motion determining unit 33 and the shape and motion determining unit 33 determine that the motion of the object is recognizable, the rotation of the object around the rotation axis is performed using the output of the feature point position normalizing unit 32. The motion calculation unit 34 and the motion calculation unit 3 that calculate the amount
4 and the output of the feature point position normalization unit 32, the shape calculation unit 35, the motion calculation unit 34, and the shape calculation unit 35 that determine unknown position information of feature points other than the feature point located at the origin.
And a feature point that outputs the movement of the object to the object movement storage unit 28 using the output of the feature point position normalization unit 32 and outputs the position of the feature point in the three-dimensional coordinate space to the feature point position storage unit 29. It comprises a position restoring unit 36.

【0107】図19〜図21は図17の形状/動き認識
部27の全体処理実施例のフローチャートである。同図
において処理が開始されると、ステップ(S)40にお
いて、図18の既知情報入力部31に′〜′の式の
いずれか1つ以上が入力されているか否かが判定され
る。ここで、例えば′式は回転行列Rの計算後に初め
てその成立が判定されるのが一般的であるが、本発明の
動物体認識装置にはここで説明しない各種のセンサが取
り付けられて、そのセンサからの信号によって、例えば
対象物の第1時点から第2時点までの回転が0度、また
は 180度の回転であるか否かが判定される。なお、例え
ば′〜′式のダッシュ記号は定理2で示した〜
式を符号を用いて書き直したことに対応する。
FIGS. 19 to 21 are flow charts of an embodiment of the whole processing of the shape / motion recognition section 27 in FIG. When the process is started in the figure, in step (S) 40, it is determined whether or not any one or more of formulas (1) to (5) has been input to the known information input unit 31 in FIG. Here, for example, it is generally the case that the formula is first determined to be satisfied after the calculation of the rotation matrix R, but various sensors not described here are attached to the moving object recognizing device of the present invention. Based on the signal from the sensor, it is determined whether the rotation of the object from the first time point to the second time point is 0 degree or 180 degrees, for example. Note that, for example, dashes in the formulas 'to' are shown in Theorem 2
This corresponds to rewriting the expression using a sign.

【0108】S40で′〜′式のいずれか1つ以上
が入力されていると判定された場合には、S41で既知
情報入力部31は特徴点位置正規化部32に非起動信号
を出力すると共に、動き算出部34に認識不可能情報を
格納し、認識不可能処理に移行する。
If it is determined in S40 that any one or more of the expressions '〜' has been input, the known information input unit 31 outputs a non-activation signal to the feature point position normalizing unit 32 in S41. At the same time, the unrecognizable information is stored in the motion calculating unit 34, and the process proceeds to the unrecognizable process.

【0109】図22は認識不可能処理の実施例フロー
チャートである。認識不可能処理が開始されると、ま
ずS42で動き算出部34から特徴点位置復元部36に
認識不可能情報が転送され、S43で特徴点位置復元部
36によって対象物動き格納部28と特徴点位置格納部
29に認識不可能情報が格納されて、処理を終了する。
FIG. 22 is a flowchart showing an embodiment of the unrecognizable process. When the unrecognizable process is started, first, in S42, the unrecognizable information is transferred from the motion calculating unit 34 to the feature point position restoring unit 36. The unrecognizable information is stored in the point position storage unit 29, and the process ends.

【0110】図19のS40で既知情報入力部31に
′〜′式のいずれもが入力されていないと判定され
ると、S44で特徴点格納部26に2つの時点における
画面上の3つの特徴点の位置が格納されたか否かが判定
され、まだ格納されていない場合にはS44の判定が続
けられる。そして格納されたと判定されると、S45で
特徴点格納部26から特徴点位置正規化部32に起動信
号が送られ、特徴点位置正規化部32が起動される。
If it is determined in S40 of FIG. 19 that none of the formulas (1) to (4) has been input to the known information input unit 31, the three feature points on the screen at two time points are stored in the feature point storage unit 26 in S44. It is determined whether or not the position of the point has been stored. If the position has not been stored yet, the determination in S44 is continued. If it is determined that the data is stored, a start signal is sent from the feature point storage unit 26 to the feature point position normalization unit 32 in S45, and the feature point position normalization unit 32 is started.

【0111】続いて図20のS46で、特徴点位置正規
化部32によって特徴点格納部26に格納された3つの
特徴点0,1および2の画面上の位置が記憶され、また
特徴点0が原点となるように他の特徴点1,2の画面座
標から特徴点0の画面座標を引いたX座標としての
i ,vi (i=1,2)の第1成分が求められる。S
47でこれらの第1成分に対して形状と動きの判定部3
3によって、または式が成立するか否かが判定され
る。いずれも成立しない場合には、S48で形状と動き
の判定部33から動き算出部34に認識不可能情報が送
られ、図22の認識不可能処理に移行する。
Subsequently, in S46 of FIG. 20, the positions on the screen of the three feature points 0, 1 and 2 stored in the feature point storage unit 26 by the feature point position normalization unit 32 are stored. but u i, v first component of i (i = 1, 2) as the X coordinate minus the screen coordinates of the feature point 0 from the other screen coordinates of the feature point 1 and 2 such that the origin is determined. S
At 47, the shape and motion determination unit 3 for these first components
3 or whether the equation holds. If neither holds, the unrecognizable information is sent from the shape and motion determining unit 33 to the motion calculating unit 34 in S48, and the process proceeds to the unrecognizable process in FIG.

【0112】なお、定理2で説明したようにまたは
式はかつ式と同値であり、S47でのチェックとS
40でのチェックとは二重とも言える。しかしながら、
S40でのチェックはセンサでも可能であることから、
このような処理を行っている。形状と動きの判定部33
による判定により、認識不可能のときには、その後の計
算は行われない。
As explained in Theorem 2, or the expression is the same as the expression, the check in S47 and the S
Checking at 40 can be said to be double. However,
Since the check in S40 can be performed by the sensor,
Such processing is performed. Shape and motion determination unit 33
If it is determined that the recognition is not possible, the subsequent calculation is not performed.

【0113】S47で,式のいずれかが成立すると
判定された時には、S49で形状と動きの判定部33に
より動き算出部34が起動され、動き算出部の処理と形
状算出部の処理に移行する。これらの処理は補題3と定
理3を用いることによって行われる。
When it is determined in S47 that one of the equations is satisfied, the motion calculating unit 34 is activated by the shape and motion determining unit 33 in S49, and the processing shifts to the processing of the motion calculating unit and the processing of the shape calculating unit. . These processes are performed by using Lemma 3 and Theorem 3.

【0114】図23は動き算出部の処理実施例のフロー
チャートである。同図において処理が開始されると、S
50で図8を用いてαの範囲を決める整数nが求めら
れ、S51でβの範囲を定める整数mが図9を用いて求
められ、 sinθの符号の決定処理に移行する。
FIG. 23 is a flowchart of a processing example of the motion calculation unit. When the process is started in FIG.
At 50, an integer n that determines the range of α is determined using FIG. 8, and at S51, an integer m that determines the range of β is determined using FIG. 9, and the process proceeds to the process of determining the sign of sin θ.

【0115】図24は sinθの符号決定処理実施例のフ
ローチャートである。同図において、S52で整数m−
nが奇数か偶数かが判定され、奇数の場合にはS53で
整数pの値が求められ、S54で整数pが偶数であるか
奇数であるかに応じて図10を用いて sinθの符号が定
められる。S52で整数m−nが偶数である時にはS5
5で図11を用いて sinθの符号が定められる。
FIG. 24 is a flow chart of the embodiment of the sign determination processing of sinθ. Referring to FIG.
It is determined whether n is an odd number or an even number. If it is an odd number, the value of an integer p is obtained in S53, and the sign of sin θ is determined in S54 according to whether the integer p is an even number or an odd number using FIG. Determined. When the integer mn is an even number in S52, S5
5, the sign of sin θ is determined using FIG.

【0116】続いて、図23のS56で回転行列Rの全
ての成分が求められS57でRとその逆回転行列のいず
れかが既知情報入力部31に入力されている物体の既知
情報を満たしているか否かが判定され、満たしていない
場合には図22の認識不可能処理に移行する。また満
たしている場合にはS58で動き算出部34から形状算
出部35と特徴点位置復元部36とに角度αと行列Rの
情報が送られる。
Subsequently, in S56 of FIG. 23, all components of the rotation matrix R are obtained. In S57, R and one of its inverse rotation matrices satisfy the known information of the object input to the known information input unit 31. It is determined whether or not it is satisfied. If the condition is not satisfied, the process proceeds to a non-recognizable process in FIG. If the condition is satisfied, the information of the angle α and the matrix R is sent from the motion calculation unit 34 to the shape calculation unit 35 and the feature point position restoration unit 36 in S58.

【0117】物体の既知情報は、前述のように本発明の
動物体認識装置には説明されていない他のセンサ等から
入力される、物体の動きに関する既知情報である。例え
ば平面上に物体が静止しており、移動車に搭載されたT
Vカメラが同じ平面上を動く状況を想定すると、移動車
はスリップなどをすることがあり、TVカメラの動きは
正確には判明しないが、静止物体に対する移動車の相対
的な動きの向きは判明する。このような静止物体の相対
的な動きの向きが物体の既知情報として外部メモリに入
力され、その外部メモリを介して既知情報入力部31に
与えられる。動き算出部では回転行列Rとその逆回転行
列R′の2つの解が求められるが、この相対的な動きの
向きの制約条件によって、一方の解が正しい解として選
択される。
The known information on the object is known information on the movement of the object, which is input from another sensor or the like which is not described in the moving object recognition apparatus of the present invention as described above. For example, when an object is stationary on a plane and the T
Assuming a situation in which the V camera moves on the same plane, the moving vehicle may slip, and the movement of the TV camera is not exactly known, but the direction of the relative movement of the moving vehicle with respect to a stationary object is known. I do. The relative motion direction of the stationary object is input to the external memory as known information of the object, and is provided to the known information input unit 31 via the external memory. The motion calculation unit obtains two solutions of a rotation matrix R and its inverse rotation matrix R ', and one of the solutions is selected as a correct solution according to the constraint condition of the relative motion direction.

【0118】図25は形状算出部の処理実施例のフロー
チャートである。同図において処理が開始されるとS6
0でu11,およびu21の値が共に0でないか否かが判定
され共に0でない場合には形状算出処理に移行する。
FIG. 25 is a flowchart of a processing example of the shape calculating unit. When the process is started in FIG.
At 0, it is determined whether both the values of u 11 and u 21 are not 0, and if both are not 0, the process proceeds to the shape calculation process.

【0119】図26は形状算出処理の実施例フローチ
ャートである。同図においてS61で2次元ベクトルu
1 がX軸を成す角度αが求められ、S62で2次元ベク
トルu1 ,u2 の絶対値d1 ,d2 が求められる。
FIG. 26 is a flowchart of an embodiment of the shape calculation process. Referring to FIG.
The angle α at which 1 forms the X axis is obtained, and the absolute values d 1 and d 2 of the two-dimensional vectors u 1 and u 2 are obtained in S62.

【0120】図25のS60でu11、およびu21のいず
れかが0の場合にはS63でu11が0か否かが判定さ
れ、0の場合には形状算出処理に移行する。図27は
形状算出処理の実施例フローチャートである。同図に
おいてS64でu21が0より小さいか否かが判定され、
小さい場合にはS65でαがπ/2、小さくない場合に
はS66でαが3π/2とされた後に、S67で2次元
ベクトルの絶対値d1 ,d2 が求められる。
If either u 11 or u 21 is 0 in S60 of FIG. 25, it is determined in S63 whether u 11 is 0. If it is 0, the flow shifts to shape calculation processing. FIG. 27 is a flowchart of the embodiment of the shape calculation process. In the figure, it is determined in S64 whether u 21 is smaller than 0,
If it is smaller, α is set to π / 2 in S65, and if it is not smaller, α is set to 3π / 2 in S66, and the absolute values d 1 and d 2 of the two-dimensional vector are obtained in S67.

【0121】図25のS63でu11が0でないと判定さ
れた時には形状算出処理に移行する。図28は形状算
出処理の実施例フローチャートである。同図におい
て、S70でu11が0より大きいか否かが判定され、大
きい場合にはS71でαが0、大きくない場合にはS7
2でαがπとされた後に、S73でd1 ,d2 の値が求
められる。
[0121] u 11 in S63 of FIG. 25 shifts to shape calculation process when not 0 is determined. FIG. 28 is a flowchart of the embodiment of the shape calculation process. In the figure, if u 11 at S70 is 0 is determined is greater than or not is, alpha in S71 if large 0, not larger S7
After α is set to π in 2 , the values of d 1 and d 2 are obtained in S73.

【0122】図25において形状算出処理,、また
はの実行後にS74で2次元ベクトルu1 ,u2 の第
2成分が算出され、S75でv1 ,v2 の第2成分が算
出されS76でこれらの第2成分が特徴点位置復元部3
6に送られる。
In FIG. 25, after execution of the shape calculation processing or the second component of the two-dimensional vectors u 1 and u 2 is calculated in S74, the second components of v 1 and v 2 are calculated in S75, and these are calculated in S76. Is the feature point position restoration unit 3
Sent to 6.

【0123】図20において形状算出部35の処理まで
が実行されると図21の処理に移行する。図21では、
S77で特徴点位置復元部36において、転送された解
が認識解〈1〉とされ、S78で認識解〈2〉が求めら
れ、S79で認識解〈1〉,〈2〉の中で既知情報入力
部31に入力されている既知情報を満足するものがある
か否かが判定され、そのような解がない場合には認識不
可能処理に移行する。
In FIG. 20, when the processing up to the processing of the shape calculation unit 35 is executed, the processing shifts to the processing of FIG. In FIG. 21,
In S77, the feature point position restoring unit 36 determines the transferred solution as a recognition solution <1>, determines a recognition solution <2> in S78, and determines in S79 the known information among the recognition solutions <1> and <2>. It is determined whether or not there is something that satisfies the known information input to the input unit 31, and if there is no such solution, the process proceeds to a non-recognizable process.

【0124】ここでの既知情報の例を説明するために、
平面上に物体が静止しており、移動車に搭載されたTV
カメラが同じ平面上を動く状況を考える。ここでTVカ
メラ側から見た静止物体の表面形状が凸であるか、凹で
あるかが予め分かっているものとする。例えば電信柱は
その表面形状が凸である。この静止物体の凹凸情報が、
物体の既知情報として、外部メモリなどを介して既知情
報入力部に与えられる。形状算出部では、観測面につい
て鏡映関係にある2つの解が求められるが、物体の凹凸
情報によって、一方の解のみが正しい解として選択され
る。
In order to explain an example of the known information here,
A TV set with an object stationary on a plane and mounted on a mobile vehicle
Consider a situation where the camera moves on the same plane. Here, it is assumed that it is known in advance whether the surface shape of the stationary object viewed from the TV camera side is convex or concave. For example, a telephone pole has a convex surface shape. The unevenness information of this stationary object is
The known information of the object is provided to a known information input unit via an external memory or the like. In the shape calculation unit, two solutions having a mirror relationship with respect to the observation surface are obtained, but only one solution is selected as a correct solution according to the unevenness information of the object.

【0125】図29は認識不可能処理の実施例フロー
チャートである。同図においては、S81で特徴点位置
復元部36から対象物動き格納部28と特徴点位置格納
部29に認識不可能情報が格納されて処理を終了する。
FIG. 29 is a flowchart showing an example of the unrecognizable process. In the figure, the unrecognizable information is stored in the object motion storage unit 28 and the feature point position storage unit 29 from the feature point position restoration unit 36 in S81, and the process ends.

【0126】図21のS79で既知情報を満足する解が
ある場合には、そのような解が選ばれ、S82で特徴点
位置復元部36から、選ばれた認識解の回転行列Rと特
徴点位置正規化部32に格納されている特徴点0の画面
上での座標とが対象物動き格納部28に格納され、S8
3で選ばれた認識解の2次元ベクトルの第2成分と特徴
点位置正規化部32に格納されている特徴点0,1,2
の画面上での座標とが特徴点位置格納部29に格納され
て、処理を終了する。
If there is a solution that satisfies the known information in S79 of FIG. 21, such a solution is selected, and the rotation matrix R of the selected recognition solution and the feature point are obtained from the feature point position restoration unit 36 in S82. The coordinates of the feature point 0 on the screen stored in the position normalization unit 32 are stored in the object motion storage unit 28, and S8
3 and the feature points 0, 1, and 2 stored in the feature point position normalizing unit 32.
Are stored in the feature point position storage unit 29, and the process is terminated.

【0127】さて、本実施例では、認識解〈1〉をまず
求めたが、認識解〈2〉をまず求める別実施例もある。
それには、X軸の向きを逆にして上記の処理を行えば認
識解〈2〉を得る。そして、認識解〈1〉は、認識解
〈2〉の解をX軸に関して鏡映反転することにより得ら
れる。
In this embodiment, the recognition solution <1> is first obtained, but there is another embodiment in which the recognition solution <2> is first obtained.
To do so, a recognition solution <2> can be obtained by performing the above processing with the direction of the X axis reversed. The recognition solution <1> is obtained by mirror-inverting the solution of the recognition solution <2> with respect to the X axis.

【0128】以上のように、本発明においては、回転し
ながら平面上を移動する対象物の2時点における、直角
を成す3つの特徴点の画面上位置から対象物の動きを認
識することができる。また図20で説明したように、形
状と動きの判定部によって、特徴点の画面上位置から、
動きの認識の可否を直ちに判定することもできる。
As described above, in the present invention, the movement of the object can be recognized from the positions on the screen of the three characteristic points forming a right angle at two points in time of the object moving on the plane while rotating. . Also, as described with reference to FIG. 20, the shape and motion determination unit determines the feature point from the position on the screen.
Whether or not motion can be recognized can be determined immediately.

【0129】[0129]

【発明の効果】以上詳細に説明したように、本発明によ
れば1台の画像入力部で捉えられた対象物の画像から抽
出された特徴点を基にして、対象物の形状と動きが認識
される。従って、2台の画像入力部を用いる場合に比較
して、画像入力部の台数、および特徴点抽出部を半分と
することができ、装置規模を小さくすることができる。
また、2台の画像入力部を用いる場合のように異なる位
置から捉えた対象物の画像上の特徴点の対応付けが不必
要となり、この処理を省くことができ、処理時間の短縮
にも効果が大きい。
As described above in detail, according to the present invention, the shape and motion of an object are determined based on feature points extracted from an image of the object captured by one image input unit. Be recognized. Accordingly, the number of image input units and the number of feature point extraction units can be halved as compared with the case where two image input units are used, and the apparatus scale can be reduced.
Further, it is not necessary to associate feature points on the image of the object captured from different positions as in the case of using two image input units, and this processing can be omitted, and the processing time can be reduced. Is big.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理ブロック図である。FIG. 1 is a principle block diagram of the present invention.

【図2】対象物と画像入力部の観測面との一般的関係を
示す図である。
FIG. 2 is a diagram illustrating a general relationship between an object and an observation surface of an image input unit.

【図3】特徴点0を原点に固定した場合の対象物と観測
面との関係を示す図である。
FIG. 3 is a diagram illustrating a relationship between an object and an observation surface when a feature point 0 is fixed to an origin.

【図4】1画面上での無数の解の存在を説明する図であ
る。
FIG. 4 is a diagram illustrating the existence of countless solutions on one screen.

【図5】特徴点のXY平面上への正射影点を示す図であ
る。
FIG. 5 is a diagram showing orthogonally projected points of feature points on an XY plane.

【図6】相互に鏡映反転となる2つの解の例を示す図で
ある。
FIG. 6 is a diagram illustrating an example of two solutions that are mutually mirror-inverted.

【図7】式の意味を説明する図である。FIG. 7 is a diagram illustrating the meaning of an expression.

【図8】角度αの範囲決定法を説明する図である。FIG. 8 is a diagram illustrating a method of determining a range of an angle α.

【図9】角度βの範囲決定法を説明する図である。FIG. 9 is a diagram illustrating a method of determining a range of an angle β.

【図10】m−nが奇数の場合の sinθの符号決定法を
説明する図である。
FIG. 10 is a diagram illustrating a method of determining the sign of sin θ when mn is an odd number.

【図11】m−nが偶数の場合の sinθの符号決定法を
説明する図である。
FIG. 11 is a diagram for explaining a method of determining the sign of sin θ when mn is an even number.

【図12】m−nが偶数の場合にm,mと sinθの符号
との関係を示す図である。
FIG. 12 is a diagram showing the relationship between m, m and the sign of sin θ when mn is an even number.

【図13】m−n=0の時の sinθの符号決定を説明す
る図である。
FIG. 13 is a diagram for explaining sign determination of sin θ when mn = 0.

【図14】m−n=2の時の sinθの符号決定を説明す
る図である。
FIG. 14 is a diagram for explaining sign determination of sin θ when mn = 2.

【図15】m−n=−2の時の sinθの符号決定を説明
する図である。
FIG. 15 is a diagram illustrating the sign determination of sin θ when mn = -2.

【図16】本発明の動物体認識装置の概念を説明する図
である。
FIG. 16 is a diagram illustrating the concept of the moving object recognition device of the present invention.

【図17】本発明の動物体認識装置の全体構成を示すブ
ロック図である。
FIG. 17 is a block diagram showing the overall configuration of the moving object recognition device of the present invention.

【図18】形状/動き認識部の実施例の構成を示すブロ
ック図である。
FIG. 18 is a block diagram illustrating a configuration of an embodiment of a shape / motion recognition unit.

【図19】形状/動き認識部の全体処理実施例フローチ
ャート(その1)である。
FIG. 19 is a flowchart (part 1) of an overall processing example of a shape / motion recognition unit.

【図20】形状/動き認識部の全体処理実施例フローチ
ャート(その2)である。
FIG. 20 is a flowchart (part 2) of the overall processing example of the shape / motion recognition unit.

【図21】形状/動き認識部の全体処理実施例フローチ
ャート(その3)である。
FIG. 21 is a flowchart (part 3) of an overall processing example of the shape / motion recognition unit.

【図22】認識不可能処理の実施例のフローチャート
である。
FIG. 22 is a flowchart illustrating an example of an unrecognizable process.

【図23】動き算出部の処理実施例のフローチャートで
ある。
FIG. 23 is a flowchart of a processing example of a motion calculation unit.

【図24】sinθの符号決定処理実施例のフローチャー
トである。
FIG. 24 is a flowchart of an embodiment of a sign determination process for sin θ.

【図25】形状算出部の処理実施例のフローチャートで
ある。
FIG. 25 is a flowchart of a processing example of a shape calculating unit.

【図26】形状算出処理の実施例フローチャートであ
る。
FIG. 26 is a flowchart illustrating an example of a shape calculation process.

【図27】形状算出処理の実施例フローチャートであ
る。
FIG. 27 is a flowchart illustrating an example of a shape calculation process.

【図28】形状算出処理の実施例フローチャートであ
る。
FIG. 28 is a flowchart illustrating an example of a shape calculation process.

【図29】認識不可能処理の実施例のフローチャート
である。
FIG. 29 is a flowchart of an embodiment of a non-recognizable process.

【図30】従来の動物体認識装置の概念図である。FIG. 30 is a conceptual diagram of a conventional moving object recognition device.

【図31】従来の動物体認識装置の構成を示すブロック
図である。
FIG. 31 is a block diagram illustrating a configuration of a conventional moving object recognition device.

【図32】従来の動物体認識装置において対応付けがで
きない特徴点の例を示す図である。
FIG. 32 is a diagram illustrating an example of a feature point that cannot be associated with a conventional moving object recognition device.

【符号の説明】[Explanation of symbols]

15,21,24 画像入力部 16,25 特徴点抽出部 17,26 特徴点格納部 18 形状/動き認識手段 27 形状/動き認識部 28 対象物動き格納部 29 特徴点位置格納部 31 既知情報入力部 32 特徴点位置正規化部 33 形状と動きの判定部 34 動き算出部 35 形状算出部 36 特徴点位置復元部 15, 21, 24 Image input unit 16, 25 Feature point extraction unit 17, 26 Feature point storage unit 18 Shape / motion recognition unit 27 Shape / motion recognition unit 28 Object motion storage unit 29 Feature point position storage unit 31 Known information input Unit 32 feature point position normalization unit 33 shape and motion determination unit 34 motion calculation unit 35 shape calculation unit 36 feature point position restoration unit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06T 7/20 ──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int.Cl. 6 , DB name) G06T 7/20

Claims (16)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像入力部(15)から入力される画像
内の特徴点を抽出する特徴点抽出部(16)と、該抽出
された特徴点を格納する特徴点格納部(17)とを備
え、該特徴点の既知位置情報を用いて動物体の動きを認
識する動物体認識装置において、 回転しながら前記画像入力部(15)に対して相対的に
平面上を移動する対象物を、回転軸に対して垂直な方向
から捉えた画像中での、該対象物の特徴点のうちで直角
をなす3つの特徴点の2つの時点における既知位置情報
から、該対象物の特徴点の実際の位置と動きを算出する
形状/動き認識手段(18)を備えたことを特徴とする
動物体認識装置。
1. A feature point extraction unit (16) for extracting feature points in an image input from an image input unit (15), and a feature point storage unit (17) for storing the extracted feature points. A moving object recognizing device for recognizing a movement of a moving object using known position information of the feature point, wherein the moving object moves on a plane relative to the image input unit (15) while rotating. From the known position information at two time points of three feature points forming a right angle among the feature points of the object in an image captured from a direction perpendicular to the rotation axis, A moving object recognizing device comprising a shape / motion recognizing means (18) for calculating an actual position and a motion of a feature point.
【請求項2】 前記形状/動き認識手段(18)が、前
記対象物を回転軸に対して垂直な方向から捉えた画像
を、該対象物の正射影画像として処理することを特徴と
する請求項1記載の動物体認識装置。
2. The method according to claim 1, wherein the shape / motion recognition means processes an image obtained by capturing the object from a direction perpendicular to a rotation axis as an orthographic image of the object. Item 2. The moving object recognition device according to Item 1.
【請求項3】 前記形状/動き認識手段(18)が、前
記2つの時点の各時点における対象物の3つの特徴点の
うちで、前記直角の頂点となる特徴点を3次元座標空間
の原点においた時の他の特徴点の相対位置を正規化され
た既知位置情報として求める特徴点位置正規化部と、 該特徴点位置正規化部の出力を用いて前記動物体の特徴
点の位置と動きの認識が可能か否かを判定する形状と動
きの判定部と、 該形状と動きの判定部が該動物体の特徴点の位置と動き
の認識が可能と判定した時に起動され、前記特徴点位置
正規化部の出力を用いて、該対象物の前記原点の回りの
回転量を算出する動き算出部と、 該動き算出部と特徴点位置正規化部との出力を用いて、
該動物体の前記3つの特徴点の既知位置情報以外の未知
位置情報を求める形状算出部と、 該動き算出部が出力する該原点の回りの回転量と該特徴
点位置正規化部から出力される前記原点におかれた特徴
点の前記画像中での位置情報とを合わせて対象物の動き
として、また該形状算出部から出力された前記未知位置
情報と特徴点位置正規化部から出力された3つの各特徴
点の前記画像中での位置情報とを合わせて特徴点位置と
して出力する特徴点位置復元部とを備えたことを特徴と
する請求項1または2記載の動物体認識装置。
3. The shape / movement recognizing means (18) calculates a right-angled vertex point among three characteristic points of the object at each of the two time points as an origin of a three-dimensional coordinate space. A feature point position normalization unit that obtains a relative position of another feature point at the time of setting as normalized known position information, and a position of a feature point of the moving object using an output of the feature point position normalization unit. A shape and motion determining unit that determines whether or not the motion can be recognized; and a shape and motion determining unit that is activated when the position and the motion of the feature point of the moving object are determined to be recognizable, Using the output of the point position normalization unit, a motion calculation unit that calculates the amount of rotation of the object around the origin, using the outputs of the motion calculation unit and the feature point position normalization unit,
A shape calculation unit that obtains unknown position information other than the known position information of the three feature points of the moving object; a rotation amount around the origin output by the motion calculation unit; and a rotation amount output from the feature point position normalization unit. The position information of the feature point located at the origin is combined with the position information in the image as the movement of the object, and the unknown position information output from the shape calculation unit and the output from the feature point position normalization unit are output. 3. The moving object recognition apparatus according to claim 1, further comprising: a feature point position restoring unit that outputs the three feature points together with position information in the image as a feature point position.
【請求項4】 前記形状/動き認識手段(18)が、さ
らに前記動物体の動きに関する、センサを含む外部から
の既知情報が入力される既知情報入力部を備え、 前記直角を成す3つの特徴点のうちで、直角の頂点とな
り、前記原点におかれる特徴点を特徴点0、他の特徴点
を特徴点1,2、画像面をXZ平面、X軸を特徴点の平
行移動方向、Z軸を前記対象物の回転軸と平行な方向、
Y軸を画像面に垂直な方向、 【数1】 によって与えられるu1 ,u2 を第1時点における原点
から特徴点1,2へのXY平面上での2次元ベクトル、
1 ,v2 を第2時点における原点から特徴点1,2へ
のXY平面上での2次元ベクトル 【数2】 によって与えられるRを対象物の第1時点から第2時点
までの原点を中心とするXY平面上での2次元の回転を
表わす回転行列とし、 vi =Rui (i=1,2) 【数3】 と表わされるものとし、u2 がu1 をπ/2回転させた
ベクトルである時の前記特徴点の実際の位置と動きを表
わす解を認識解〈1〉,u2 がu1 を−π/2回転させ
たベクトルである時の解を認識解〈2〉とする時、該既
知情報入力部に θ=nπ(nは整数) またはα+θ=nπ−α またはu1121+u2111=0 のいずれか1つ以上が入力された時、該既知情報入力部
が前記特徴点位置正規化部に非起動信号を出力し、動き
算出部に認識不可能情報を格納することを特徴とする請
求項3記載の動物体認識装置。
4. The three features forming the right angle, wherein the shape / movement recognizing means (18) further comprises a known information input section for inputting known information on the movement of the moving object from the outside including a sensor. Among the points, the vertices are at right angles. The feature point located at the origin is the feature point 0, the other feature points are the feature points 1 and 2, the image plane is the XZ plane, the X axis is the translation direction of the feature point, Z A direction parallel to the axis of rotation of the object,
Y axis is a direction perpendicular to the image plane, Two-dimensional vector on the XY plane of the u 1, u 2 applied to the feature point 1 from the origin at the first time point by,
v 1 and v 2 are two-dimensional vectors on the XY plane from the origin at the second time point to the feature points 1 and 2 Is a rotation matrix representing a two-dimensional rotation on the XY plane about the origin from the first time point to the second time point of the object, and v i = Ru i (i = 1,2) Equation 3] Shall be denoted as recognition solutions a solution representative of the actual position and movement of the feature point when u 2 is a vector obtained by rotating [pi / 2 to u 1 <1>, u 2 is the u 1 - [pi] When the solution obtained when the vector is rotated by 2 is set as the recognition solution <2>, the known information input unit inputs θ = nπ (n is an integer) or α + θ = nπ−α or u 11 v 21 + u 21 v 11 = 0, the known information input unit outputs a non-activation signal to the feature point position normalization unit and stores the unrecognizable information in the motion calculation unit. The apparatus for recognizing a moving object according to claim 3.
【請求項5】 前記形状と動きの判定部が、 v11≠u11 またはv21≠±u21 を必要条件、 該2つの条件のいずれか1つ以上を十分条件として、前
記動物体の特徴点の位置と動きが判定可能とすることを
特徴とする請求項4記載の動物体認識装置。
5. The feature of the moving object, wherein the shape and motion judging unit sets v 11 ≠ u 11 or v 21 ≠ ± u 21 as a necessary condition, and at least one of the two conditions as a sufficient condition. The moving object recognition device according to claim 4, wherein the position and movement of the point can be determined.
【請求項6】 前記動き算出部が、前記認識解〈1〉に
対して、 【表1】 を用いて、u11,u21の符号に応じてu1 がX軸と成す
角度αの範囲(π/2)n≦α<(π/2)(n+1)
を定める整数n(=0,1,2,3)を求め、 【表2】 を用いて、v11,v21の符号に応じてv1 がX軸と成す
角度β(=α+θ)の範囲(π/2)m≦β<(π/
2)(m+1)を定める整数m(=0,1,2,3)を
求めることを特徴とする請求項4記載の動物体認識装
置。
6. The motion calculation unit according to claim 1, wherein said recognition solution <1> is: And the range of the angle α formed by u 1 with the X axis according to the signs of u 11 and u 21 (π / 2) n ≦ α <(π / 2) (n + 1)
An integer n (= 0, 1, 2, 3) that determines , The range (π / 2) m ≦ β <(π /) of the angle β (= α + θ) formed by v 1 with the X axis according to the signs of v 11 and v 21
2) The moving object recognition device according to claim 4, wherein an integer m (= 0, 1, 2, 3) that determines (m + 1) is obtained.
【請求項7】 前記動き算出部が、前記認識解〈1〉に
ついて、前記m,nの値に対してm−nが奇数の時、整
数p=(m−n−1)/2を求め、pが偶数の時 sinθ
の符号を+とし、奇数の時符号を−とし、m−nが偶数
の時u11とv11とを比較し、 【表3】 によって sinθの符号を定め、表3中の前記2つの不等
式において符号が成立するとき sinθを0とすることを
特徴とする請求項6記載の動物体認識装置。
7. The motion calculation unit calculates an integer p = (mn−1) / 2 for the recognition solution <1> when mn is an odd number with respect to the values of m and n. , When p is even, sinθ
A sign + between the time codes of odd - and then, m-n compares the u 11 and v 11 when an even number, TABLE 3 The moving object recognition device according to claim 6, wherein the sign of sinθ is determined by the following equation, and sinθ is set to 0 when the sign is satisfied in the two inequalities in Table 3.
【請求項8】 前記動き算出部が、前記認識解〈1〉に
対して、回転行列Rを 【数4】 によって算出することを特徴とする請求項4記載の動物
体認識装置。
8. The motion calculation unit calculates a rotation matrix R with respect to the recognition solution <1> as follows: The moving object recognition device according to claim 4, wherein the calculation is performed by:
【請求項9】 前記動き算出部が、前記認識解〈1〉に
ついて、前記m,nの値に対してm−nが奇数の時、整
数p=(m−n−1)/2を求め、pが偶数の時 sinθ
の符号を+とし、奇数の時符号を−とし、m−nが偶数
の時、u11とv11とを比較し、 【表4】 によって sinθの符号を定め、該定められた符号に応じ
て sinθの値を唯一つに決めることを特徴とする請求項
8記載の動物体認識装置。
9. The motion calculation unit obtains an integer p = (mn−1) / 2 for the recognition solution <1> when mn is an odd number with respect to the values of m and n. , When p is even, sinθ
The sign of is +, the sign of an odd number is-, and when mn is an even number, u 11 and v 11 are compared. The moving object recognizing device according to claim 8, wherein the sign of sinθ is determined by the following equation, and the value of sinθ is uniquely determined according to the determined sign.
【請求項10】 前記形状算出部が、前記認識解〈1〉
に対して、u11≠0、u21≠0の場合に tan α=(u11 cosθ−v11)/u11 sinθ d1 =u11/ cosα d2 =−u21/ sinα によって、u11=0の場合に 【数5】 によって、u21=0の場合に 【数6】 によってα,d1 、およびd2 を算出することを特徴と
する請求項8記載の動物体認識装置。
10. The method according to claim 1, wherein the shape calculation unit calculates the recognition solution <1>.
Tan α = (u 11 cos θ−v 11 ) / u 11 sin θ d 1 = u 11 / cos α d 2 = −u 21 / sin α when u 11 ≠ 0 and u 21 ≠ 0, u 11 In the case of = 0, Thus, when u 21 = 0, 9. The moving object recognition device according to claim 8, wherein α, d 1 , and d 2 are calculated according to:
【請求項11】 前記動き算出部が、前記認識解〈1〉
に対して、 【表5】 を用いて、u11,u21の符号に応じてu1 がX軸と成す
角度αの範囲(π/2)n≦α<(π/2)(n+1)
を定める整数n(=0,1,2,3)を求め、前記形状
算出部が、該定められたαの範囲に応じてαの値を唯一
つに決めることを特徴とする請求項10記載の動物体認
識装置。
11. The motion calculation section according to claim 1, wherein the recognition solution <1>
Table 5 And the range of the angle α formed by u 1 with the X axis according to the signs of u 11 and u 21 (π / 2) n ≦ α <(π / 2) (n + 1)
11. An integer n (= 0, 1, 2, 3) that determines the value of .alpha. Is determined, and the shape calculation unit determines only one value of .alpha. According to the determined range of .alpha. Moving object recognition device.
【請求項12】 前記形状算出部が、前記認識解〈1〉
に対して、2次元ベクトルu1 ,u2 ,v1 、およびv
2 の第2成分u12,u22,v12、およびv22を u12=d1 sinα, u22=d2 cosα v12=R2 1 , v22=R2 2 によって算出することを特徴とする請求項10または1
1記載の動物体認識装置。
12. The method according to claim 1, wherein the shape calculation unit calculates the recognition solution <1>.
, The two-dimensional vectors u 1 , u 2 , v 1 , and v
The second component u 12 of the 2, u 22, v 12, and v 22 to be calculated by u 12 = d 1 sinα, u 22 = d 2 cosα v 12 = R 2 u 1, v 22 = R 2 u 2 10. The method according to claim 10, wherein
2. The moving object recognition device according to 1.
【請求項13】 前記認識解〈1〉に対してX軸の向き
を逆にして処理を行うことにより、認識解〈2〉を得る
ことを特徴とする請求項6,7,8,9,10,11、
または12記載の動物体認識装置。
13. The recognition solution <2> is obtained by performing a process on the recognition solution <1> by reversing the direction of the X-axis to obtain a recognition solution <2>. 10, 11,
Or the moving object recognition device according to 12.
【請求項14】 前記特徴点位置復元部が、前記動き算
出部および形状算出部によって得られた認識解〈1〉の
X軸に関する鏡映反転となる認識解〈2〉として、該認
識解〈1〉に対する回転行列Rの逆回転行列R′を 【数7】 によって、2次元ベクトルui ,vi のX軸に関する鏡
映反転ui ′,vi ′を 【数8】 によって算出することを特徴とする請求項4記載の動物
体認識装置。
14. The feature point position restoring unit recognizes the recognition solution <1> obtained by the motion calculation unit and the shape calculation unit as a recognition solution <2> that is mirror-inverted with respect to the X-axis. The inverse rotation matrix R ′ of the rotation matrix R for 1> is expressed by The mirror inversion u i ′, v i ′ of the two-dimensional vector u i , v i with respect to the X-axis is given by The moving object recognition device according to claim 4, wherein the calculation is performed by:
【請求項15】 前記特徴点位置復元部が、前記動き算
出部および形状算出部によって得られた認識解〈2〉の
X軸に関する鏡映反転となる認識解〈1〉として、該認
識解〈2〉に対する回転行列Rの逆回転行列R′を 【数9】 によって、2次元ベクトルui ,vi のX軸に関する鏡
映反転ui ′,vi ′を 【数10】 によって算出することを特徴とする請求項13記載の動
物体認識装置。
15. The recognition solution <1>, wherein the feature point position restoring unit recognizes the recognition solution <2> obtained by the motion calculation unit and the shape calculation unit as a recognition solution <1> that is mirror-inverted with respect to the X axis. The inverse rotation matrix R ′ of the rotation matrix R with respect to 2> is given by By, mirroring inverted u i in the X-axis of the two-dimensional vectors u i, v i ', v i' Equation 10] a The moving object recognition device according to claim 13, wherein the calculation is performed by:
【請求項16】 前記特徴点位置復元部と動き算出部と
が、前記対象物の特徴点の位置と動きの算出結果のうち
で、前記既知情報入力部に入力された該対象物の動きに
関する既知情報と矛盾しない結果のみを、該特徴点位置
および対象物の動きとして出力することを特徴とする請
求項4記載の動物体認識装置。
16. The feature point position restoring unit and the motion calculating unit may be configured to calculate a position and a movement of a feature point of the object and calculate a motion of the object input to the known information input unit. 5. The moving object recognition device according to claim 4, wherein only the result that does not contradict known information is output as the feature point position and the movement of the object.
JP3236466A 1991-09-17 1991-09-17 Moving object recognition device Expired - Fee Related JP2873339B2 (en)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP3236466A JP2873339B2 (en) 1991-09-17 1991-09-17 Moving object recognition device
JP3236465A JP2873338B2 (en) 1991-09-17 1991-09-17 Moving object recognition device
US07/946,540 US5444791A (en) 1991-09-17 1992-09-17 Moving body recognition apparatus
CA002078503A CA2078503C (en) 1991-09-17 1992-09-17 Moving body recognition apparatus
EP99113513A EP0950984A3 (en) 1991-09-17 1992-09-17 A moving body recognition apparatus
EP99113511A EP0952550A3 (en) 1991-09-17 1992-09-17 A moving body recognition apparatus
DE69231826T DE69231826T2 (en) 1991-09-17 1992-09-17 Device for detecting a moving body
EP99113512A EP0952551A3 (en) 1991-09-17 1992-09-17 A moving body recognition apparatus
EP92308486A EP0533477B1 (en) 1991-09-17 1992-09-17 A moving body recognition apparatus
US08/428,731 US5684886A (en) 1991-09-17 1995-04-25 Moving body recognition apparatus
US08/428,651 US5625702A (en) 1991-09-17 1995-04-25 Moving body recognition apparatus
US08/429,483 US5872858A (en) 1991-09-17 1995-04-25 Moving body recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3236466A JP2873339B2 (en) 1991-09-17 1991-09-17 Moving object recognition device

Publications (2)

Publication Number Publication Date
JPH0573681A JPH0573681A (en) 1993-03-26
JP2873339B2 true JP2873339B2 (en) 1999-03-24

Family

ID=17001164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3236466A Expired - Fee Related JP2873339B2 (en) 1991-09-17 1991-09-17 Moving object recognition device

Country Status (1)

Country Link
JP (1) JP2873339B2 (en)

Also Published As

Publication number Publication date
JPH0573681A (en) 1993-03-26

Similar Documents

Publication Publication Date Title
JP2873338B2 (en) Moving object recognition device
Delamarre et al. 3D articulated models and multiview tracking with physical forces
CN107886546B (en) Method for calibrating parabolic catadioptric camera by utilizing spherical image and public autocolar triangle
CN103236059B (en) Differomorphism demons method for registering images and system based on MODAL TRANSFORMATION OF A
EP3549093A1 (en) Image processing device and method for producing in real-time a digital composite image from a sequence of digital images of an interior of a hollow structure
Al Ismaeil et al. Real-time enhancement of dynamic depth videos with non-rigid deformations
CN112712030A (en) Three-dimensional attitude information restoration method and device
JP2873339B2 (en) Moving object recognition device
JP3452188B2 (en) Tracking method of feature points in 2D video
JP3300092B2 (en) Image feature extraction device
Liu et al. A hierarchical approach for obtaining structure from two-frame optical flow
JP3028986B2 (en) Moving object recognition device
Collins Projective reconstruction of approximately planar scenes
JP2873337B2 (en) Moving object recognition device
Singh Image-flow computation: Estimation-theoretic framework, unification and integration
CN112837409B (en) Method for reconstructing three-dimensional human body by using mirror
CN109934879B (en) Method for calibrating parabolic catadioptric camera by utilizing ball and public autocolar triangle
CN112750197A (en) Three-dimensional attitude information restoration method and device
Liedtke Intelligent approaches in image analysis
CN115393754A (en) Three-dimensional human body posture recognition method based on angular vector calculation and neural network improvement
Or From images to motion
Komada et al. Analysis of methods for solving the problem of 3D face detection
Alberich-Carramiñana et al. Affine epipolar direction from two views of a planar contour
Lee et al. Motion estimation with incomplete information using omni-directional vision
Hassanpour et al. Head Modeling with Camera Autocalibration and Deformation.

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19981201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees