JPH07262382A - Object recognition and image interpolating device for image processing system - Google Patents
Object recognition and image interpolating device for image processing systemInfo
- Publication number
- JPH07262382A JPH07262382A JP6047335A JP4733594A JPH07262382A JP H07262382 A JPH07262382 A JP H07262382A JP 6047335 A JP6047335 A JP 6047335A JP 4733594 A JP4733594 A JP 4733594A JP H07262382 A JPH07262382 A JP H07262382A
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion
- time
- interpolation
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は画像処理システムにおけ
る物体認識及び画像補間装置に関する。物体の認識や画
像補間の技術は、例えばロボットによる自動生産、TV
映像の画像処理、コンピュータ・グラフィックス(C
G)技術等、非常に多方面に利用されており、その進歩
も目覚ましいものがある。本発明はこの物体認識と画像
補間技術をさらに改良するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition and image interpolation device in an image processing system. Techniques for object recognition and image interpolation are, for example, automatic production by robots, TV
Image processing of video, computer graphics (C
G) It is used in various fields such as technology, and its progress is remarkable. The present invention further improves this object recognition and image interpolation technique.
【0002】ここで、物体認識とは、撮影された数枚の
画像からその画像内にある物体の3次元的な位置や運動
を求める技術である。画像内にある物体の3次元的な位
置や運動を求めることは、例えばFA(ファクトリ・オ
ートメーション)や自動走行車にとって重要である。ま
た、画像補間とは、数枚の画像が与えられたときに、数
枚の画像間の所定の時刻における画像を合成する技術で
ある。画像補間技術は、例えば、画像データベース、T
V電話、アニメーション等の画像処理システムにおいて
広く利用されている。Here, the object recognition is a technique for obtaining the three-dimensional position and movement of an object in the image from several shot images. Obtaining the three-dimensional position and movement of an object in an image is important for FA (factory automation) and autonomous vehicles, for example. Image interpolation is a technique for synthesizing images at a predetermined time between several images when several images are given. The image interpolation technique is, for example, an image database, T
It is widely used in image processing systems such as V-phones and animations.
【0003】本発明の装置は画像内の物体の3次元的な
位置や運動が分からないようなカメラ等で撮影した画像
を対象とする。3次元的な位置や運動を求めるためには
同一物体を異なる方向から写した画像が少なくても2枚
必要である。以下では原画像の枚数は2枚であるとして
説明を行うが、本発明は原画像が3枚以上ある場合にも
適用可能である。The apparatus of the present invention targets an image taken by a camera or the like in which the three-dimensional position or movement of an object in the image is unknown. In order to obtain a three-dimensional position and movement, at least two images of the same object taken from different directions are required. Although the following description will be made assuming that the number of original images is two, the present invention is also applicable to the case where there are three or more original images.
【0004】物体認識技術を用いて画像補間を行う一般
的な処理は以下のとおりである。まず、求められた物体
の3次元的な運動を仮想的に時間的に滑らかに変化させ
て、画像間の時刻の物体の位置を画像に投影し直すこと
により間の時刻の画像を生成する。なお、CGで生成し
た映像においては、その中に写っている物体の3次元的
な位置は全て既知である(即ち、コンピュータ内に格納
されている)ので、本発明を必要としない。The general processing for performing image interpolation using the object recognition technology is as follows. First, the three-dimensional motion of the obtained object is virtually changed temporally smoothly, and the position of the object at the time between images is re-projected on the image to generate an image at the time. In the image generated by CG, the three-dimensional positions of the objects in the image are all known (that is, stored in the computer), so the present invention is not necessary.
【0005】[0005]
【従来の技術】図6は画像補間の説明図であり、図7は
物体認識技術を用いた画像補間の説明図である。図6に
示すように、画像補間とは数枚の画像が与えられたとき
に、数枚の画像間の所定の時刻における画像を合成する
技術である。また、図7に示すように、物体認識技術を
用いて画像補間を行う一般的な処理は、原画像1から原
画像2に移るに際して、物体の3次元的な運動を仮想的
に時間的に滑らかに変化させ(仮想的な運動)、間の時
刻における物体の位置を画像に投影し直すことにより、
間の時刻の画像(補間画像)を生成する。2. Description of the Related Art FIG. 6 is an explanatory diagram of image interpolation, and FIG. 7 is an explanatory diagram of image interpolation using an object recognition technique. As shown in FIG. 6, image interpolation is a technique of synthesizing images at a predetermined time between several images when given several images. Further, as shown in FIG. 7, a general process of performing image interpolation using an object recognition technique is such that when the original image 1 is changed to the original image 2, the three-dimensional movement of the object is virtually and temporally. By changing smoothly (virtual movement) and re-projecting the position of the object at the time between,
An image (interpolation image) at a time between is generated.
【0006】ところで、画像内の物体の3次元的な位置
や運動を求めるために、下記1〜3の技術が従来から知
られている。 1.画像間の2次元的な対応を求める方法 画像間の2次元的な対応とは、画像内の代表的な点(特
徴点)の原画像間における対応を指定することを意味す
る。特徴点の対応方法には、物体の角等の自動抽出し易
い点を自動的に対応づけさせる方法と、オペレータが手
動で指定する方法と、画像の差分からその間の移動量
(オプティカルフロー)を計算する方法が知られてい
る。そして、オプティカルフロー計算は、特徴点の自動
対応を行うに際して、特徴点間の距離が十分小さいとい
う近似の元で行う。By the way, in order to obtain the three-dimensional position and movement of an object in an image, the following techniques 1 to 3 are conventionally known. 1. Method of Obtaining Two-Dimensional Correspondence Between Images Two-dimensional correspondence between images means designating correspondence between original images of representative points (feature points) in the images. The feature points can be dealt with by automatically associating points such as the corners of an object that are easy to automatically extract, manually by the operator, and the amount of movement (optical flow) between them based on the image differences. A method of calculating is known. Then, the optical flow calculation is performed under the approximation that the distance between the feature points is sufficiently small when the feature points are automatically matched.
【0007】2.物体の3次元的な形状に何らかの仮定
を設ける方法 一般に投影された画像には物体の奥行き方向の情報が欠
落しているために物体形状に何らかの仮定を設けないと
解が定められない。一般に用いられる仮定を以下に示
す。 ・平面性:物体は1つ若しくは境界が指定された複数の
平面から構成されていると仮定する。この場合、1つの
平面につき4組みの特徴点の対応が付いていれば物体の
位置と運動を計算することができる。2. Method of setting some assumptions on the three-dimensional shape of an object In general, a projected image lacks information in the depth direction of the object, and therefore a solution cannot be determined unless some assumption is made on the object shape. The commonly used assumptions are shown below. -Flatness: It is assumed that an object is composed of one plane or a plurality of planes with specified boundaries. In this case, the position and movement of the object can be calculated if there are four sets of feature points associated with one plane.
【0008】・剛体性:物体は1つの剛体であると仮定
する。この場合、8組みの特徴点の対応が付いていれば
物体の位置と運動を計算することができる。 これらの仮定の内の何れを用いるかは、使用目的や処理
の手間を考慮して決定される。 3.物体の3次元的な位置と運動を計算する方法 上述の仮定の元で物体の3次元的な位置と運動を計算す
る。但し、剛体性を仮定しただけでは、各特徴点におけ
る物体の奥行きが定まるだけでそれ以外の画像上の点に
おける奥行きは定まらないので、特徴点の奥行きを元に
それ以外の点の奥行きを推定することが必要となる。こ
の推定には単純な重み付き平均が多く用いられる。一
方、平面性を仮定した場合には全ての点における物体の
奥行きが定められる。また、3次元的な位置(奥行き)
と同時に物体がどのように運動したかも算出することが
できる。Rigidity: An object is assumed to be one rigid body. In this case, the position and movement of the object can be calculated if the correspondence of the eight sets of feature points is attached. Which of these assumptions is used is determined in consideration of the purpose of use and the labor of processing. 3. Method for calculating three-dimensional position and motion of object Three-dimensional position and motion of object are calculated under the above assumptions. However, assuming only the rigid body, the depth of the object at each feature point is determined, and the depths at other points on the image are not determined. Will be required. A simple weighted average is often used for this estimation. On the other hand, if flatness is assumed, the depth of the object at all points is determined. Also, three-dimensional position (depth)
At the same time, it is possible to calculate how the object moved.
【0009】次に、画像補間を行うためには下記(イ)
及び(ロ)の技術が従来から知られている。(イ)大別
して物体認識技術を使用しない方法と、(ロ)使用する
方法の2種類がある。 (イ)物体認識技術を使用しない方法 ・画像補間を1つのアフィン変換(並進運動/回転運動
/拡大縮小)だけで行うもの。Next, in order to perform image interpolation, the following (a)
The techniques (b) and (b) have been conventionally known. (A) There are roughly two types: a method in which the object recognition technology is not used and (b) a method in which it is used. (B) Method that does not use object recognition technology-Image interpolation is performed by only one affine transformation (translational movement / rotational movement / enlargement / reduction).
【0010】これは、画像補間を1つのアフィン変換
(即ち、画素の値を並進運動/回転運動/拡大縮小して
動かす変換)で行うものである。この処理は簡便であ
り、オペレータが特徴点を指定する必要がないために自
動化が可能である。しかし、物体が3次元的な運動をし
ている場合の画像補間は不可能である。本例は、いわば
2次元画像上でゴム膜を動かして2枚の画像を結ぶ方式
である。This is one in which image interpolation is performed by one affine transformation (that is, transformation in which a pixel value is translated / rotated / scaled and moved). This process is simple and can be automated because the operator does not need to specify the feature points. However, image interpolation is not possible when the object is moving in three dimensions. This example is, so to speak, a method of connecting a pair of images by moving a rubber film on the two-dimensional image.
【0011】・画像補間を多数のアフィン変換の組合せ
で行うもの。 これは、オペレータが原画像間で対応する特徴点を指定
することにより、その特徴点間の対応がつくように多数
のアフィン変換を定め、次にその係数を時間的に連続的
に変化させることにより補間を行うものである。本例
は、いわば2次元画像上で、周辺をピンで押さえたゴム
膜を動かして2枚の画像を結ぶ方式である。上述と同様
に、物体が3次元的な運動をしている場合の画像補間は
不可能である。Image interpolation is performed by combining a number of affine transformations. This is because the operator specifies a large number of affine transformations so that the corresponding feature points are associated with each other by designating corresponding feature points between the original images, and then the coefficients are changed continuously in time. Is used for interpolation. In this example, a rubber film whose periphery is pressed by a pin is moved on a two-dimensional image, so to speak, to connect two images. Similar to the above, image interpolation is not possible when an object is moving in three dimensions.
【0012】(ロ)物体認識技術を使用する方法 ・画像補間を1つの射影変換(即ち、アフィン変換に加
えて3次元的な運動を含む変換である)で行うもの。 物体形状が平面であると仮定して、自動或いは手動で与
えられる4組みの特徴点間の対応から、まず平面の位置
と運動を算出し、次にこれを3次元空間内で時間的に連
続的に変化させ画像に投影し直す方法である。3次元的
な運動を表現できるが、物体形状が平面に限定される欠
点がある。物体が1つの正面とその他の側面部分から構
成されている場合でも、画像補間を行うことができるよ
うに拡張することは可能であるが、未だ物体形状に関す
る制限が多い。(B) Method using object recognition technology: Image interpolation is performed by one projective transformation (that is, transformation including three-dimensional motion in addition to affine transformation). Assuming that the object shape is a plane, the position and motion of the plane are first calculated from the correspondences between the four sets of feature points that are automatically or manually given, and then this is temporally continuous in three-dimensional space. It is a method of changing the image and re-projecting it on the image. Although it can represent a three-dimensional motion, it has a drawback that the object shape is limited to a plane. Even if the object is composed of one front surface and the other side surface portion, it is possible to extend it so that image interpolation can be performed, but there are still many restrictions on the object shape.
【0013】・画像補間を多数の射影変換の組合せで行
うもの(但し剛体性の場合) 物体形状が剛体の多角形(平面の集合)であると仮定し
て、自動或いは手動で与えられた8組の特徴点間の対応
から、まず剛体の運動と各特徴点毎の奥行きを算出し、
次に前述の「平面性」を用いることにより全ての点の奥
行きを算出する。そして、これらを3次元空間内で時間
的に連続的に変化させて画像に投影し直す方法である。
この方法は、物体形状が剛体の多角形と見なせる場合に
はよく用いられているが、人が魚に変化するような映像
(モーフィング)が生成できないという問題がある。Image interpolation performed by a combination of a number of projective transformations (provided that the object is rigid) The object shape is assumed to be a rigid polygon (a set of planes) and is automatically or manually given 8 From the correspondence between the set of feature points, first calculate the motion of the rigid body and the depth of each feature point,
Next, the depths of all points are calculated by using the above-mentioned “planarity”. Then, it is a method of changing these continuously in time in a three-dimensional space and re-projecting them on an image.
This method is often used when the shape of an object can be regarded as a rigid polygon, but there is a problem in that an image (morphing) in which a person changes into a fish cannot be generated.
【0014】・画像補間を多数の射影変換の組合せで行
うもの(剛体性に限らず) 物体形状が必ずしも剛体とは限らない多角形(平面の集
合)であると仮定して、自動或いは手動で各面毎に与え
られる4組の特徴点間の対応から、まず、それぞれの平
面の位置と運動を算出し、ついでそれを3次元空間内で
時間的に連続的に変化させ画像に投影し直す方法であ
る。3次元的な運動をある程度表現でき、物体形状に対
する制限も緩い利点はあるものの、剛体性を仮定してい
ないため3次元空間内で各平面をつなげたまま動かすこ
とが必ずしも可能でないため、途中の時刻で物体がばら
ばらになってしまう危険性がある。この方法では、これ
を避けるために2次元上で平面間の位置関係を平均化し
て各平面をつなげれば画像補間用途には利用できるが、
3次元的な位置や運動が求められなくなる問題点があ
る。Image interpolation performed by combining a large number of projective transformations (not limited to rigid bodies) Automatically or manually assuming that the object shape is a polygon (a set of planes) that is not necessarily a rigid body. From the correspondence between the four sets of feature points given for each surface, first, the position and movement of each plane are calculated, and then they are continuously changed in time in the three-dimensional space and re-projected on the image. Is the way. Although three-dimensional motion can be expressed to some extent and there is an advantage that the restrictions on the object shape are loose, it is not always possible to move each plane in a three-dimensional space because the rigid body is not assumed. There is a risk that objects will fall apart at different times. In this method, in order to avoid this, if the positional relationships between the planes are averaged in two dimensions and the planes are connected, it can be used for image interpolation purposes.
There is a problem that three-dimensional position and movement are not required.
【0015】図8(A),(B)は従来のモーフィング
の説明図である。(A)の方法は本願の発明者により既
に提案され実用化された方法であり、(B)は従来から
なされていた方法である。(A)の方法は物体を特徴点
(各●)からなる四角形で囲まれた分割された領域毎に
対応を指定するのに対して、(B)の方法では領域は分
割せず特徴点の折れ線で対応を指定する。(A)の方法
は(B)の方法に比べて特徴点の数が少なくてすむ、と
いう顕著な効果がある。即ち、(A)では四辺形毎に射
影変換を定めているので、1つの特徴点の影響範囲は限
定され、その結果、特徴点の指定が容易になる効果があ
る。一方、(B)の方法ではある特徴点がどう変化する
かは回りの全ての線分の影響を受けるために、1つの特
徴点の影響が広範囲に及ぶことになる。FIGS. 8A and 8B are explanatory views of conventional morphing. The method (A) is a method already proposed and put into practical use by the inventor of the present application, and the method (B) is a method conventionally used. In the method (A), the object is designated for each divided area surrounded by a rectangle composed of feature points (each ●), whereas in the method (B), the area is not divided and Specify the correspondence with a polygonal line. The method (A) has a remarkable effect that the number of feature points is smaller than that of the method (B). That is, in (A), since the projective transformation is determined for each quadrangle, the influence range of one feature point is limited, and as a result, there is an effect that the feature point can be easily specified. On the other hand, in the method of (B), how a certain feature point changes is influenced by all the surrounding line segments, so that the influence of one feature point extends over a wide range.
【0016】(A)の方法をさらに詳しく説明すると、
この方法は、物体を特徴点で囲まれた複数の領域に分割
し、各分割された領域毎に補間処理を行い、この分割の
際に、特徴点を指示するときに予めどの領域に分類され
るかも指定する。また、領域毎の補間処理として、ま
ず、それぞれの原画像の領域を出力すべき画像上に変換
し、次に原画像の画素値を参照して補間画像を生成す
る。さらに、原画像の各領域の変換方法として、射影変
換、アフィン変換、変換係数の重み付け、等の技術を開
示している。The method (A) will be described in more detail.
This method is divided into a plurality of regions surrounded an object with feature points, performs interpolation processing for each divided region, the time of the division, are classified in advance which region when directing feature point Also specify As the interpolation processing for each area, first, the area of each original image is converted into an image to be output, and then the interpolation image is generated by referring to the pixel value of the original image. Further, techniques such as projective transformation, affine transformation, and weighting of transformation coefficients are disclosed as transformation methods for each region of the original image.
【0017】[0017]
【発明が解決しようとする課題】上述から明らかなよう
に、従来の物体認識技術の問題は、結局、「物体形状に
対する条件に強く制約され過ぎる。」ということにな
る。例えば、物体が剛体であるという条件は制約のあり
過ぎである。また、従来の画像補間技術の問題は、結
局、「物体が剛体でない場合であっても画像補間を行う
ことは可能であるが、3次元的な運動を表現できず、さ
らに位置や運動を求めることができない。」ということ
である。As is apparent from the above, the problem of the conventional object recognition technique is that "the conditions for the object shape are too restricted". For example, the condition that an object is a rigid body is too restrictive. In addition, the problem of the conventional image interpolation technique is, in the end, that "image interpolation can be performed even when the object is not a rigid body, but three-dimensional motion cannot be expressed, and further, the position and motion are obtained. I can't do that. "
【0018】本発明の目的は、与えられた画像からの物
体認識において、その画像内にある物体の3次元的な位
置や運動を物体形状が剛体でない場合であっても求める
ことを可能とすることにある。また、画像補間では物体
の3次元的な位置や運動の算出と、3次元的な運動を考
慮した補間画像の生成を共に行うことを可能とすること
にある。さらに、物体の3次元的な位置や運動を用いる
ことにより、補間画像に光沢の表現等の3次元的な効果
を付加することを可能とすることにある。The object of the present invention is to enable the object recognition from a given image to determine the three-dimensional position and movement of the object in the image even when the object shape is not rigid. Especially. Further, in image interpolation, it is possible to both calculate a three-dimensional position and motion of an object and generate an interpolated image in consideration of the three-dimensional motion. Furthermore, it is possible to add a three-dimensional effect such as gloss expression to the interpolated image by using the three-dimensional position and movement of the object.
【0019】[0019]
【課題を解決するための手段】本発明の1つの態様はコ
ンピュータを利用した画像処理システムにおける物体認
識装置であって、図2に示すように、与えられた複数枚
の原画像を入力し保持する画像入力部1、例えば、オペ
レータにより指定された原画像上の特徴点を保持する特
徴点入力部2と、与えられた複数枚の原画像間をつなぐ
ための座標変換式を指定し、特徴点と指定された座標変
換式に基づき物体の位置及び運動を求める運動算出部3
と、算出結果である物体の位置と運動を出力する運動出
力手段とを備える。One aspect of the present invention is an object recognizing device in an image processing system using a computer, which inputs and holds a plurality of given original images as shown in FIG. The image input unit 1 to be used, for example, the feature point input unit 2 that holds the feature points on the original image designated by the operator, and the coordinate conversion formula for connecting a plurality of given original images, A motion calculation unit 3 that obtains the position and motion of an object based on a point and a specified coordinate conversion formula
And a motion output means for outputting the position and motion of the object as the calculation result.
【0020】ここで、座標変換式として、並進運動と変
形行列と特徴点毎の奥行きを用いることができる。ま
た、本発明の物体認識装置は、特徴点の組みを複数指定
する手段と、指定された特徴点の組み毎に原画像間をつ
なぐための座標変換式を切り換える手段とを、さらに備
える。Here, as the coordinate conversion formula, translational motion, deformation matrix, and depth for each feature point can be used. Further, the object recognition apparatus of the present invention further comprises means for designating a plurality of sets of feature points, and means for switching the coordinate conversion formula for connecting the original images for each designated set of feature points.
【0021】さらに、指定された特徴点の組み毎に原画
像間をつなぐための座標変換式を複数の組みに属する特
徴点上で連続化する手段をさらに備える。一方、本発明
による他の態様は画像処理システムにおける画像補間装
置であって、図4に示すように、与えられた複数枚の原
画像を入力し保持する画像入力部1と、指定された原画
像上の特徴点を保持する特徴点入力部2と、与えられた
複数枚の原画像間をつなぐための座標変換式を指定し、
特徴点と指定された座標変換式に基づき物体の位置及び
運動を求める運動算出3と、求められた物体の運動を時
間的に連続的に変化させる運動補間5と、運動補間部5
の結果を入力し、画像間の時刻の物体の投影像を生成す
る画像投影部6と、画像投影部6により生成された投影
像を出力する画像出力部7とを備える。Further, there is further provided means for making a coordinate conversion formula for connecting the original images for each set of specified feature points continuous on the feature points belonging to a plurality of sets. On the other hand, another aspect of the present invention is an image interpolating device in an image processing system, and as shown in FIG. 4, an image input unit 1 for inputting and holding a plurality of given original images and a designated original image. The feature point input unit 2 that holds the feature points on the image and the coordinate conversion formula for connecting the given original images are specified.
A motion calculation 3 for determining the position and motion of an object based on a feature point and a designated coordinate conversion formula, a motion interpolation 5 for continuously changing the motion of the determined object in time, and a motion interpolation unit 5
The image projection unit 6 that inputs the result of (3) and generates a projection image of the object at the time between images, and the image output unit 7 that outputs the projection image generated by the image projection unit 6.
【0022】ここで、求められた物体の運動を時間的に
連続的に変化させる方法として、並進速度と変形行列を
まとめて4次元空間の変形行列と見なし、それを時間的
に一定比率で変化させる。また、求められた物体の運動
を時間的に連続的に変化させる方法として、並進速度を
線型に変化させ、変形行列を時間的に一定比率で変化さ
せる。Here, as a method of continuously changing the obtained motion of the object in time, the translational velocity and the deformation matrix are collectively regarded as a deformation matrix in a four-dimensional space, and it is changed at a constant rate in time. Let Further, as a method of continuously changing the obtained motion of the object in time, the translation velocity is changed linearly and the deformation matrix is changed at a constant rate in time.
【0023】さらに、光源と物体の位置関係により補間
画像に光沢を付加する手段をさらに備える。Further, it further comprises means for adding gloss to the interpolated image depending on the positional relationship between the light source and the object.
【0024】[0024]
【作用】本発明に到る原理を以下に詳しく説明する。ま
ず、与えられた画像からの物体認識においては、本発明
では、従来用いられてきた剛体性の条件を緩め、物体は
複数の準剛体(「剛体に準じる」意味でこのように仮称
する)から構成されているとする。そして、各領域の3
次元的な位置と運動を隣接する準剛体同士が離れないと
いう制約の下で求める。The function of the present invention will be described in detail below. First, in object recognition from a given image, in the present invention, the condition of the rigid body conventionally used is relaxed, and the object is made from a plurality of quasi-rigid bodies (in this sense, tentatively referred to as "according to rigid body"). It is configured. And 3 of each area
Obtain the dimensional position and motion under the constraint that adjacent quasi-rigid bodies do not separate.
【0025】次に、求められた3次元的な運動を表すパ
ラメータを時間的に連続的に変化させることで補間すべ
き間の時刻の位置を算出し、それを画像に投影し直すこ
とで画像補間を行う。図1は観測物体と投影面の座標関
係の説明図である。本発明による画像からの物体認識の
原理を以下に説明する。始めに物体の運動及びそれを画
像面に投影するモデルについて説明する。図示のよう
に、まず、3次元空間に座標系を導入しその原点に視点
をおく。投影面をZ=1とし、3次元空間中の運動して
いる物体をこの平面に中心投影して観察する。Next, the parameter representing the obtained three-dimensional motion is continuously changed in time to calculate the position of the time between the interpolations, and the image is reprojected to calculate the image. Interpolate. FIG. 1 is an explanatory diagram of a coordinate relationship between an observation object and a projection surface. The principle of object recognition from an image according to the present invention will be described below. First, a motion of an object and a model for projecting it on an image plane will be described. As shown in the figure, first, a coordinate system is introduced into the three-dimensional space and the viewpoint is set at the origin. The projection plane is set to Z = 1, and a moving object in a three-dimensional space is centrally projected on this plane for observation.
【0026】これより物体上の点(X,Y,Z)が投影
される投影面上の点(x,y)は以下のように表せるこ
とがわかる。From this, it can be seen that the point (x, y) on the projection plane onto which the point (X, Y, Z) on the object is projected can be expressed as follows.
【0027】[0027]
【数1】 [Equation 1]
【0028】ここで、ある時刻(t=0とする)の観測
結果を画像1とし、t=0から一定時間経過した後(t
=1)の観測結果を画像2とする。今、仮に物体が1つ
の剛体であるとし、画像1と画像2の間の物体の並進速
度ベクトルをu、回転行列をRとおく。そうすると、t
=0での物体上の点X0 =(X0 ,Y0 ,Z0 )t と、
t=1での対応する物体上の点X1 =(X1 ,Y1 ,Z
1 )t には以下の関係が成り立つ。Here, an image 1 is taken as an observation result at a certain time (t = 0), and after a lapse of a certain time from t = 0 (t
Image 2 is the observation result of = 1). Now, assuming that the object is one rigid body, the translation velocity vector of the object between image 1 and image 2 is u, and the rotation matrix is R. Then, t
A point X 0 = (X 0 , Y 0 , Z 0 ) t on the object at = 0,
The point X 1 = (X 1 , Y 1 , Z on the corresponding object at t = 1
1 ) The following relation holds for t .
【0029】[0029]
【数2】 [Equation 2]
【0030】ところで、t=0での物体上の点X0 =
(X0 ,Y0 ,Z0 )t の画像上に投影される点をx0
=(x0 ,y0 ,1)t ,t=1での対応する点X1 =
(X1,Y1 ,Z1 )t の画像上に投影される点をx1
=(x1 ,y1 ,1)t とし、x0 とx1 の関係を求め
る。これは画像1上に画像2上でお互いに対応する点を
求めることになる。式(1)及び(2)より、By the way, a point X 0 = on the object at t = 0
The point projected on the image of (X 0 , Y 0 , Z 0 ) t is x 0.
= (X 0 , y 0 , 1) t , the corresponding point X 1 = at t = 1
The point projected on the image of (X 1 , Y 1 , Z 1 ) t is x 1
= (X 1 , y 1 , 1) t , the relationship between x 0 and x 1 is calculated. This means that points corresponding to each other on the image 1 and the image 2 are obtained. From equations (1) and (2),
【0031】[0031]
【数3】 [Equation 3]
【0032】となる。従って、原画像1及び2の間の特
徴点の対応が与えられた場合にはそれから画像内の物体
の3次元的な位置や運動を求める問題は、x0 とx1 が
与えられたときに式(3)を満たすZ0 ,Z1 ,u,R
を求めることに定式化することができる。一方、物体が
剛体でない場合も扱うことができるようにモデルを拡張
する方法には種々のものが考えられるが、本例では式の
単純さと剛体を含む拡張になる点から、回転行列Rを一
般の3×3の行列Aに拡張する方法を採用する。ここ
で、行列Aの取り得る値にどのような制限を付けるかで
様々なバリエーションが得られる。例えば、回転行列R
とは直交行列Rt R=I3 で、かつ行列式の値が1とな
るものであるので、Aにこれだけの制限を付ければ剛体
の場合に戻ってしまう。そこで、方程式の全体のスケー
ルが不定であるため、絶対的な大きさが分からないこと
から、行列式の値が1であるという制限を付けるに留め
る。以下では、この拡張された行列Aを仮に「変形行
列」と称し、1つのAで移る領域を準剛体と称する。こ
の場合、式(3)は、It becomes Therefore, given the correspondence of feature points between the original images 1 and 2, the problem of finding the three-dimensional position and movement of the object in the image from them is the problem when x 0 and x 1 are given. Z 0 , Z 1 , u, R satisfying the expression (3)
Can be formulated as On the other hand, there are various possible ways to extend the model so that it can handle cases where the object is not a rigid body, but in this example, the rotation matrix R A method of expanding the matrix A of 3 × 3 is adopted. Here, various variations are obtained depending on how the possible values of the matrix A are limited. For example, the rotation matrix R
Is an orthogonal matrix R t R = I 3 and the determinant has a value of 1. Therefore, if A is restricted to this extent, it will return to the case of a rigid body. Therefore, since the overall scale of the equation is indefinite and the absolute size is unknown, only the limitation that the value of the determinant is 1 is given. Below, this expanded matrix A is tentatively referred to as a “deformation matrix”, and the region that moves by one A is referred to as a quasi-rigid body. In this case, equation (3) becomes
【0033】[0033]
【数4】 [Equation 4]
【0034】と拡張される。物体が複数の準剛体から構
成されている場合を扱うために、以下のように記号を定
める。準剛体に通し番号l(英小文字の「エル」)(l
=1,...,L)を付し、各準剛体毎に変形行列Al,
並進運動ul の運動を行うものとする。また、画像上の
特徴点にも通し番号j(j=1,...,J)を付し、
各点毎に奥行きZ0,j , Z1,j を持つとする。特徴点j
が属する準剛体は一般に複数個あり、それらをl
j,k (k=1,...,kj )とする。この場合、式
(4)は次のように表すことができる。It is expanded as follows. In order to handle the case where an object is composed of multiple quasi-rigid bodies, the following symbols are defined. Quasi-rigid body with serial number l (lowercase "L") (l
= 1 ,. . . , L), and the deformation matrix A l, for each quasi-rigid body
It is assumed that a translational motion u l is performed. Also, serial numbers j (j = 1, ..., J) are assigned to the feature points on the image,
It is assumed that each point has a depth Z 0, j, Z 1, j . Feature point j
There are generally several quasi-rigid bodies to which
Let j, k (k = 1, ..., k j ). In this case, equation (4) can be expressed as follows.
【0035】[0035]
【数5】 [Equation 5]
【0036】これは、Z0,j , Z1,j ,Al , ul に関
する2次の連立方程式である。未知数の総自由度は(2
J+11L)で式の個数は3Σj kj (≧3J)なの
で、準剛体の個数Lが特徴点の組みの総数Jに比べて十
分少ない場合には全ての式を満たす解は存在しない可能
性がある。従って式(5)を最小2乗の意味で満たす解
を求めるために次の評価関数Kを考える。This is a quadratic simultaneous equation with respect to Z 0, j, Z 1, j , A l and u l . The total degree of freedom of unknowns is (2
J + 111L), the number of equations is 3Σ j k j (≧ 3J). Therefore, if the number L of quasi-rigid bodies is sufficiently smaller than the total number J of feature point pairs, there is a possibility that no solution satisfying all equations exists. is there. Therefore, the following evaluation function K is considered in order to find a solution that satisfies Expression (5) in the meaning of least squares.
【0037】[0037]
【数6】 [Equation 6]
【0038】式(6)のKを最小にするZ
0,j , Z1,j ,Al , ul を全数探索等の数値計算で求
めることにより、物体の3次元的な位置の一部分である
特徴点における奥行きZ0,j , Z1,j と物体の運動を表
すパラメータAl , ul が求められる。この手順1〜5
を以下に説明する。 1.初期化 Z0,j , Z1,j ,Al , ul に適当な値を入れる。Z that minimizes K in equation (6)
0, j, Z 1, j , A l, by obtaining u l numerically the exhaustive search or the like, the depth Z 0 at the feature point is part of a three-dimensional position of the object, j, Z 1, j And parameters A l and u l representing the motion of the object are obtained. This procedure 1-5
Will be described below. 1. Initialization Put appropriate values in Z 0, j, Z 1, j , A l and u l .
【0039】2.評価関数Kの計算 現在の値に対して評価関数Kの値を式(6)により算出
する。 3.評価関数Kの値の比較 前回のKの値と比較し、減少していなかったならば終了
する。 4.値の修正 Z0,j , Z1,j ,Al , ul の値を評価関数Kの値が減
少する方向に微小に変化させる。2. Calculation of Evaluation Function K The value of the evaluation function K with respect to the current value is calculated by the equation (6). 3. Comparison of the value of the evaluation function K Compared with the value of the previous K, and if it has not decreased, the process ends. 4. Correction of values The values of Z 0, j, Z 1, j , A 1 and u 1 are slightly changed in the direction in which the value of the evaluation function K decreases.
【0040】5.再度評価関数の計算を行う。 次に、特徴点における奥行きZ0,j , Z1,j を空間的に
に平均することで、画像各点Xにおける奥行きZ0(x),
Z1(x)を算出する。これにより物体の3次元的な位置が
求められる。この手順1〜5を以下に説明する。 1.初期化 現在の注目している点を画面左上とする。距離書込み用
の画像を2枚用意する。5. The evaluation function is calculated again. Next, the depths Z 0, j, Z 1, j at the feature points are spatially averaged to obtain the depth Z 0 (x), at each image point X.
Calculate Z 1 (x). Thereby, the three-dimensional position of the object is obtained. The procedures 1 to 5 will be described below. 1. Initialization The current focus is on the upper left of the screen. Prepare two images for distance writing.
【0041】2.重み計算 現在注目している点からある距離内の全ての特徴点に対
して、その特徴点までの距離の逆数とそこでの奥行きを
平均する。この処理は原画像毎に行う。 3.距離書込み 平均化された値をその点での奥行きと見なして、距離書
込み用の画像の対応する箇所に書き込む。2. Weight calculation For all feature points within a certain distance from the point of interest at present, the reciprocal of the distance to the feature point and the depth there are averaged. This process is performed for each original image. 3. Distance writing The averaged value is regarded as the depth at that point, and is written in the corresponding portion of the image for distance writing.
【0042】4.注目点の移動 現在注目している点を1つ分右に動かす。さらに右に行
けない場合には1段下の左端に行く。さらに下に行かな
い場合には終了する。 5.再度重み計算を行う。 注:式(6)を最小にする解は、隣合う準剛体l,l’
間にある特徴点jの3次元座標Z0,j x0j, Z1,j x1j
がどちらの準剛体で見ても同じになるという制約を満
たしていることに注目する。4. Moving the point of interest Move the point of interest currently by one to the right. If you cannot go further to the right, go to the left end one step below. If it does not go further down, it ends. 5. The weight is calculated again. Note: The solution that minimizes equation (6) is the adjacent quasi-rigid bodies l, l '.
Three-dimensional coordinates Z 0, j x 0j, Z 1, j x 1j of feature points j between
Note that satisfies the constraint that is the same for both quasi-rigid bodies.
【0043】次に、本発明による物体認識技術を用いた
画像補間の原理について説明する。前述のように、物体
認識技術とは、与えられた特徴点の対応x0j, x1jと、
それがどの準剛体lに属するかを指定する指標lj,k が
与えられた場合に、それから各準剛体の運動(変形行列
Al 、並進速度ul )と各特徴点でのそれぞれの原画像
上における奥行きZ0,j ,Z1,j を求めるものである。
更に各特徴点の奥行きを平均化することで画像の各点x
における奥行きZ0(x), Z1(x)を算出することもでき
る。これらは物体の3次元的な位置を表す。Next, the principle of image interpolation using the object recognition technique according to the present invention will be described. As described above, the object recognition technique is the correspondence x 0j, x 1j of given feature points,
Given an index l j, k that specifies which quasi-rigid body l it belongs to, then the motion of each quasi-rigid body (deformation matrix A l , translational velocity u l ) and the respective original points at each feature point. The depth Z 0, j , Z 1, j on the image is obtained.
Furthermore, by averaging the depth of each feature point, each point x in the image
It is also possible to calculate the depths Z 0 (x) and Z 1 (x) at. These represent the three-dimensional position of the object.
【0044】本発明による物体認識技術を用いた画像補
間は次の手順1〜3で行われる。 1.物体の運動を時間的に連続的に変化させる。 各準剛体lの運動を表すパラメータ変形行列Al 、並進
速度ul をt=0ではI3 (単位行列を示し、何も変形
しない)とo(0ベクトル、平行移動量0)に、t=1
では計算された値になるように、時刻tについて連続的
に変化させる。これにより、画像間の時刻tでの特徴点
jの3次元座標がどのようになるかを計算することがで
きる。Image interpolation using the object recognition technique according to the present invention is performed in the following steps 1 to 3. 1. The movement of an object is changed continuously in time. A parameter transformation matrix A l representing the motion of each quasi-rigid body l and a translational velocity u l at t = 0 are I 3 (showing a unit matrix and not deformed) and o (0 vector, translation amount 0), and t = 1
Then, the time t is continuously changed so that the calculated value is obtained. This makes it possible to calculate what the three-dimensional coordinates of the feature point j at the time t between the images become.
【0045】2.画像間の時刻の物体の投影像を生成す
る。 原画像の明るさ、模様(テクスチャ)を上記で計算され
た画像間の時刻の物体の位置に座標変換する。次に、こ
れをZ=1の投影平面に投影する。 3.投影結果を補間画像として出力する。 画像間の時刻で物体がどのようになるかについては原画
像からだけでは定まらないので、物体の運動を時間的に
連続的に変化させる方法には様々なものが考えられる
が、ここでは以下の2方法を挙げる。2. Generate a projected image of the object at the time between images. The brightness and pattern (texture) of the original image are coordinate-converted into the position of the object at the time between the images calculated above. It is then projected onto the Z = 1 projection plane. 3. The projection result is output as an interpolation image. It is not possible to determine what the object will look like at the time between images from the original image alone, so there are various possible methods for continuously changing the motion of the object. There are two methods.
【0046】・変形行列Aと並進運動uをまとめて4次
元の変形行列と見なし、それを時間的に一定比率で変化
させる方法。 この方法の特徴は、摩擦力が十分大きい場合の力学系
(例えば、木の葉が空中に舞うような場合)と類似した
変化をすることである。従って元の物体がこのような性
質を持つと想定される場合には、この方法を用いるべき
である。A method in which the transformation matrix A and the translational motion u are collectively considered as a four-dimensional transformation matrix, and the transformation matrix is changed at a constant rate in time. The feature of this method is that it has a similar change to the dynamic system when the frictional force is large enough (for example, when the leaves of a tree fly in the air). Therefore, if the original object is assumed to have such properties, this method should be used.
【0047】・並進速度uを線型に変化させ、変形行列
Aを時間的に一定比率で変化させる方法。 この方法の特徴は、等速直線運動や等速回転運動が表現
できることである。従って、元の物体がそのような単純
な運動をすると想定される場合にはこの方法を用いるべ
きである。A method in which the translational velocity u is changed linearly and the transformation matrix A is changed at a constant rate in time. The feature of this method is that a uniform linear motion and a uniform rotary motion can be expressed. Therefore, this method should be used if the original object is assumed to have such simple movements.
【0048】変形行列A(t)を時間的に一定比率で変
化させ、t=0でI3 (又はI4 )に、t=1で物体認
識技術で求めたAに一致させることは以下の未定係数線
型微分方程式(7)を解くことに帰着される。The transformation matrix A (t) is changed at a constant rate over time so that it matches I 3 (or I 4 ) at t = 0 and A obtained by the object recognition technique at t = 1 as follows. It results in solving the undetermined coefficient linear differential equation (7).
【0049】[0049]
【数7】 [Equation 7]
【0050】なお、Gはまだ未定の定数行列である。こ
の解は次式(8)で表せる。Note that G is a constant matrix which is not yet determined. This solution can be expressed by the following equation (8).
【0051】[0051]
【数8】 [Equation 8]
【0052】指数tは行列の巾乗を表す。A(0)=
I,A(1)=Aが成り立つ。仮にAを普通の実数とし
て考えれば、これは時刻とともに一定比率でA(t)が
変わっていくことを表す。一方、並進速度uを線型に変
化させるとは、時刻tにおける並進速度u(t)をu
(t)=tuで定めることである。The index t represents the power of the matrix. A (0) =
I, A (1) = A holds. If A is an ordinary real number, this means that A (t) changes at a constant rate with time. On the other hand, changing the translational velocity u linearly means that the translational velocity u (t) at time t is u.
(T) = tu.
【0053】以上で延べた方法により、運動パラメータ
を時間的に連続的に変化させることが可能となった。次
に、間の時刻の物体の投影像の生成について説明する。
時刻tにおける準剛体lにおける運動パラメータの値を
Al (t), ul (t) 、原画像の点xにおける明るさをI
0 (x), I1 (x) として、投影像It (x) の生成手順1
〜5を以下に説明する。By the method described above, it becomes possible to change the motion parameter continuously in time. Next, generation of the projected image of the object at the time between will be described.
The value of the motion parameter in quasi-rigid l at time t A l (t), u l (t), the brightness at the point x of the original image I
Generation procedure 1 of the projected image I t (x) as 0 (x), I 1 (x)
5 will be described below.
【0054】1.初期化 現在注目している点xを画像左上とする。画像補間出力
用の画像を1枚用意する。 2.時刻tでの対応点の計算 xが属している準剛体lに対して、Zt (y)y =A
l (t)(Z0 (x)x +ul (t) を満足するZt (y) とyを求
める。これが時刻tでの画像上での対応点である。1. Initialization Point x, which is currently focused on, is the upper left corner of the image. Prepare one image for image interpolation output. 2. Calculation of corresponding points at time t For a quasi-rigid body 1 to which x belongs, Z t (y) y = A
Z t (y) and y satisfying l (t) (Z 0 (x) x + u l (t) are obtained, which is the corresponding point on the image at time t.
【0055】3.対応点における画像の明るさの計算 xに対応する原画像2上での点Pを計算し、(1−t)
I0 (x) + t I1 (p)を対応点yでの画像の明るさI
t (y) として、補間出力用の画像を書き込む。 4.注目している点の移動 現在注目している点xを1つ右に移動する。さらに右に
行けない場合には1つ下の左端に移動する。さらに下に
行けない場合には終了する。3. Calculation of Image Brightness at Corresponding Point A point P on the original image 2 corresponding to x is calculated, and (1-t)
I 0 (x) + t I 1 (p) is the brightness I of the image at the corresponding point y.
The image for interpolation output is written as t (y). 4. Moving the point of interest Moves the point of interest x to the right by one. If it cannot move further to the right, it moves one position down to the left end. If it cannot go further down, it ends.
【0056】5.再び対応点の計算を行う。 また、計算された物体の奥行きZt (x) を用いて、補間
画像に光沢の表現等の3次元的な効果を付加することが
可能となる。ここでは例として完全拡散反射の光沢を付
加する手順1〜6を以下に説明する。 1.初期化 現在注目している点xを画像左上とする。5. The corresponding points are calculated again. Further, it becomes possible to add a three-dimensional effect such as expression of gloss to the interpolated image by using the calculated depth Z t (x) of the object. Here, as an example, steps 1 to 6 for adding gloss of perfect diffuse reflection will be described below. 1. Initialization Point x, which is currently focused on, is the upper left corner of the image.
【0057】2.注目している点での物体の法線ベクト
ルの算出 現在注目している点xにおける物体の法線ベクトルn
(x)を算出する。算出方法は例えば、この近傍の点
y,zをとり、2. Calculation of the normal vector of the object at the point of interest At present, the normal vector n of the object at the point of interest x
Calculate (x). The calculation method is, for example, taking the points y and z in this vicinity,
【0058】[0058]
【数9】 [Equation 9]
【0059】とする。ここで、× は外積を表す。 3.光源と物体の法線ベクトルの角度の余弦の算出 これは、光源の座標をlとした場合に、It is assumed that Here, x represents an outer product. 3. Calculation of the cosine of the angle between the light source and the normal vector of the object This is when the coordinate of the light source is l.
【0060】[0060]
【数10】 [Equation 10]
【0061】である。 4.光沢の算出 角度の余弦の適当な巾乗に比例した値を現在注目してい
る点xの補間画像の値It (x) に加える。 5.注目している点の移動 現在注目している点xを1つ右に移動する。さらに右に
行けない場合には1つ下の左端に移動する。さらに下に
行けない場合には終了する。It is 4. Calculation of Gloss A value proportional to the appropriate power of the cosine of the angle is added to the value I t (x) of the interpolation image at the point x of interest. 5. Moving the point of interest Moves the point of interest x to the right by one. If it cannot move further to the right, it moves one position down to the left end. If it cannot go further down, it ends.
【0062】6.再度法線ベクトルの算出を行う。6. The normal vector is calculated again.
【0063】[0063]
【実施例】図2は画像から物体認識を行う本発明の実施
例構成図であり、図3は図2構成の処理フローチャート
である。以下に処理の流れを説明する。まず、与えられ
る2枚の原画像を画像入力部1に格納する(S1)。ま
た、オペレータによる特徴点指示の結果を特徴点入力部
2に格納する(S2)。特徴点指示は原画像間の対応と
特徴点がどの組に属するかの指定の両方を含むとする。
次に運動算出部3が物体の位置と運動を算出する(S
3)。最後に運動出力部4が物体の位置と運動を出力す
る(S4)。2 is a block diagram of an embodiment of the present invention for recognizing an object from an image, and FIG. 3 is a processing flowchart of the configuration of FIG. The flow of processing will be described below. First, two given original images are stored in the image input unit 1 (S1). Further, the result of the instruction of the characteristic points by the operator is stored in the characteristic point input unit 2 (S2). The feature point designation includes both correspondence between original images and designation of which set the feature point belongs to.
Next, the motion calculation unit 3 calculates the position and motion of the object (S
3). Finally, the motion output unit 4 outputs the position and motion of the object (S4).
【0064】図4は画像補間を行う本発明の実施例構成
図であり、図5は図4構成の処理フローチャートであ
る。以下に処理の流れを説明する。まず、与えられる2
枚の原画像を画像入力部1に格納する(S11)。ま
た、オペレータによる特徴点指示の結果を特徴点入力部
2に格納する(S12)。特徴点指示は原画像間の対応
と特徴点がどの組みに属するかの指定の両方を含むとす
る。次に、運動算出部3が物体の位置と運動を算出する
(S13)。更に、運動補間部5が物体の運動を時間的
に連続的に変化させる(S14)。運動補間部5の結果
を画像投影部6に入力し、画像投影部6が画像間の時刻
の物体の投影像を生成し(S15)、画像出力部7が補
間された画像を出力する(S16)。FIG. 4 is a block diagram of an embodiment of the present invention for performing image interpolation, and FIG. 5 is a processing flowchart of the configuration of FIG. The flow of processing will be described below. First given 2
The original images are stored in the image input unit 1 (S11). Further, the result of the instruction of the feature point by the operator is stored in the feature point input unit 2 (S12). The feature point designation includes both correspondence between original images and designation of which set the feature point belongs to. Next, the motion calculation unit 3 calculates the position and motion of the object (S13). Furthermore, the motion interpolation unit 5 continuously changes the motion of the object in time (S14). The result of the motion interpolation unit 5 is input to the image projection unit 6, the image projection unit 6 generates a projected image of the object at the time between images (S15), and the image output unit 7 outputs the interpolated image (S16). ).
【0065】[0065]
【発明の効果】以上説明したように、本発明によれば、
与えられた画像からの物体認識において、その画像内に
ある物体の3次元的な位置や運動を物体形状が剛体でな
い場合であっても求めることが可能となる。また、画像
補間においては、物体の3次元的な位置や運動の算出と
3次元的な運動を考慮した補間画像の生成を共に行うこ
とが可能となる。さらに、算出された物体の3次元的な
位置を用いて、画像補間の際に光沢の表現等の3次元的
な効果を付加することが可能となる。As described above, according to the present invention,
In object recognition from a given image, it is possible to obtain the three-dimensional position and movement of an object in the image even when the object shape is not rigid. Further, in image interpolation, it is possible to perform both calculation of a three-dimensional position and movement of an object and generation of an interpolation image considering the three-dimensional movement. Furthermore, by using the calculated three-dimensional position of the object, it becomes possible to add a three-dimensional effect such as a gloss expression at the time of image interpolation.
【図1】本発明を説明するための観測物体と投影面の座
標関係の説明図である。FIG. 1 is an explanatory diagram of a coordinate relationship between an observation object and a projection surface for explaining the present invention.
【図2】本発明による物体認識装置の実施例構成図であ
る。FIG. 2 is a configuration diagram of an embodiment of an object recognition device according to the present invention.
【図3】図2構成の処理フローチャートである。FIG. 3 is a processing flowchart of the configuration of FIG.
【図4】本発明の画像補間装置の実施例構成図である。FIG. 4 is a configuration diagram of an embodiment of an image interpolation device of the present invention.
【図5】図4構成の処理フローチャートである。5 is a processing flowchart of the configuration of FIG. 4. FIG.
【図6】画像補間の説明図である。FIG. 6 is an explanatory diagram of image interpolation.
【図7】物体認識技術を用いた画像補間の説明図であ
る。FIG. 7 is an explanatory diagram of image interpolation using an object recognition technique.
【図8】従来のモーフィングの説明図(A),(B)で
ある。FIG. 8 is an explanatory diagram (A) and (B) of conventional morphing.
1…画像入力部 2…特徴点入力部 3…運動算出部 4…運動出力部 5…運動補間部 6…画像投影部 7…画像出力部 DESCRIPTION OF SYMBOLS 1 ... Image input part 2 ... Feature point input part 3 ... Motion calculation part 4 ... Motion output part 5 ... Motion interpolation part 6 ... Image projection part 7 ... Image output part
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 9365−5L G06F 15/72 350 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location 9365-5L G06F 15/72 350
Claims (8)
であって、 与えられた複数枚の原画像を入力し保持する画像入力手
段と、 指定された原画像上の特徴点を保持する特徴点入力手段
と、 与えられた複数枚の原画像間をつなぐための座標変換式
を指定し、特徴点と指定された座標変換式に基づき物体
の位置及び運動を求める運動算出手段と、 算出結果である物体の位置と運動を出力する運動出力手
段と、 を備える画像処理システムにおける物体認識装置。1. An object recognition device in an image processing system, comprising image input means for inputting and holding a plurality of given original images, and characteristic point input means for holding characteristic points on a specified original image. And a motion calculation unit that specifies a coordinate conversion formula for connecting a plurality of given original images, and obtains the position and motion of the object based on the specified coordinate conversion formula and the feature point, and the object that is the calculation result. Object recognition apparatus in an image processing system, comprising: a motion output unit that outputs the position and motion of the.
行列と特徴点毎の奥行きを用いる請求項1に記載の物体
認識装置。2. The object recognition device according to claim 1, wherein a translational motion, a deformation matrix, and a depth for each feature point are used as the coordinate conversion formula.
と、指定された特徴点の組み毎に原画像間をつなぐため
の座標変換式を切り換える手段とを、さらに備える請求
項1又は2に記載の物体認識装置。3. The method according to claim 1, further comprising means for designating a plurality of sets of the feature points, and means for switching a coordinate conversion formula for connecting the original images for each of the designated sets of feature points. The object recognition device described.
つなぐための座標変換式を複数の組みに属する特徴点上
で連続化する手段をさらに備える請求項3に記載の物体
認識装置。4. The object recognizing apparatus according to claim 3, further comprising means for making a coordinate conversion formula for connecting the original images for each set of specified feature points continuous on the feature points belonging to a plurality of sets. .
であって、 与えられた複数枚の原画像を入力し保持する画像入力手
段と、 指定された原画像上の特徴点を保持する特徴点入力手段
と、 与えられた複数枚の原画像間をつなぐための座標変換式
を指定し、特徴点と指定された座標変換式に基づき物体
の位置及び運動を求める運動算出手段と、 求められた物体の運動を時間的に連続的に変化させる運
動補間手段と、 前記運動補間手段の結果を入力し、画像間の時刻の物体
の投影像を生成する画像投影手段と、 前記画像投影手段により生成された投影像を出力する画
像出力手段と、 を備える画像処理システムにおける画像補間装置。5. An image interpolating device in an image processing system, comprising image input means for inputting and holding a plurality of given original images, and characteristic point input means for holding characteristic points on a specified original image. And a coordinate transformation formula for connecting the given original images, and a motion calculation means for obtaining the position and movement of the object based on the feature points and the designated coordinate transformation formula, and A motion interpolation means for continuously changing the motion in time, an image projection means for inputting the result of the motion interpolation means and generating a projection image of an object at a time between images, and an image projection means generated by the image projection means An image interpolation device in an image processing system, comprising: an image output unit that outputs a projected image.
続的に変化させる方法として、並進速度と変形行列をま
とめて4次元空間の変形行列と見なし、それを時間的に
一定比率で変化させるようにした請求項5に記載の画像
補間装置。6. As a method of continuously changing the obtained motion of an object in time, the translational velocity and the deformation matrix are collectively regarded as a deformation matrix of a four-dimensional space, and it is changed at a constant rate with time. The image interpolation device according to claim 5, wherein
続的に変化させる方法として、並進速度を線型に変化さ
せ、変形行列を時間的に一定比率で変化させるようにし
た請求項5に記載の画像補間装置。7. The method of changing the obtained motion of an object continuously in time, wherein the translation velocity is changed linearly and the deformation matrix is changed at a constant rate in time. The described image interpolating device.
光沢を付加する手段をさらに備える請求項5に記載の画
像補間装置。8. The image interpolating apparatus according to claim 5, further comprising means for adding gloss to the interpolated image according to the positional relationship between the light source and the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6047335A JPH07262382A (en) | 1994-03-17 | 1994-03-17 | Object recognition and image interpolating device for image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6047335A JPH07262382A (en) | 1994-03-17 | 1994-03-17 | Object recognition and image interpolating device for image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07262382A true JPH07262382A (en) | 1995-10-13 |
Family
ID=12772347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6047335A Withdrawn JPH07262382A (en) | 1994-03-17 | 1994-03-17 | Object recognition and image interpolating device for image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07262382A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005529417A (en) * | 2002-06-07 | 2005-09-29 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | Improved transform and encoding techniques |
WO2012056686A1 (en) | 2010-10-27 | 2012-05-03 | パナソニック株式会社 | 3d image interpolation device, 3d imaging device, and 3d image interpolation method |
US8976441B2 (en) | 1996-02-07 | 2015-03-10 | Production Resource Group, Llc | Programmable light beam shape altering device using programmable micromirrors |
-
1994
- 1994-03-17 JP JP6047335A patent/JPH07262382A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8976441B2 (en) | 1996-02-07 | 2015-03-10 | Production Resource Group, Llc | Programmable light beam shape altering device using programmable micromirrors |
JP2005529417A (en) * | 2002-06-07 | 2005-09-29 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | Improved transform and encoding techniques |
WO2012056686A1 (en) | 2010-10-27 | 2012-05-03 | パナソニック株式会社 | 3d image interpolation device, 3d imaging device, and 3d image interpolation method |
US9270970B2 (en) | 2010-10-27 | 2016-02-23 | Dolby International Ab | Device apparatus and method for 3D image interpolation based on a degree of similarity between a motion vector and a range motion vector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Van den Heuvel | 3D reconstruction from a single image using geometric constraints | |
Carranza et al. | Free-viewpoint video of human actors | |
US5742294A (en) | Method and apparatus for synthesizing images | |
EP2710557B1 (en) | Fast articulated motion tracking | |
US8390628B2 (en) | Facial animation using motion capture data | |
US20180240280A1 (en) | Method and system for generating an image file of a 3d garment model on a 3d body model | |
JPH0877356A (en) | Method and device for processing three-dimensional multi-view image | |
EP1016029A2 (en) | Apparatus and method for 3-dimensional surface geometry reconstruction | |
US9892485B2 (en) | System and method for mesh distance based geometry deformation | |
JP3104638B2 (en) | 3D image creation device | |
JP2002236909A (en) | Image data processing method and modeling device | |
Mittrapiyanumic et al. | Calculating the 3d-pose of rigid-objects using active appearance models | |
Saito et al. | View interpolation of multiple cameras based on projective geometry | |
JPH04289976A (en) | Three-dimensional shape model forming method and system | |
KR100837776B1 (en) | Apparatus and Method for Converting 2D Images to 3D Object | |
JP4031184B2 (en) | Object region information description method, object region information generation device, video information processing method, and video information processing device | |
Yu et al. | Recursive three-dimensional model reconstruction based on Kalman filtering | |
JP2832463B2 (en) | 3D model reconstruction method and display method | |
Park et al. | Virtual object placement in video for augmented reality | |
JPH07262382A (en) | Object recognition and image interpolating device for image processing system | |
JP3642923B2 (en) | Video generation processing apparatus and structured data creation apparatus for creating structured data used in the apparatus | |
JP3309841B2 (en) | Synthetic moving image generating apparatus and synthetic moving image generating method | |
Kang | Geometrically valid pixel reprojection methods for novel view synthesis | |
Yang et al. | Model-based 3d object tracking using an extended-extended Kalman filter and graphics rendered measurements | |
US20230196702A1 (en) | Object Deformation with Bindings and Deformers Interpolated from Key Poses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20010605 |