JPH0760460B2 - Continuous viewing area image reproduction method - Google Patents

Continuous viewing area image reproduction method

Info

Publication number
JPH0760460B2
JPH0760460B2 JP63152386A JP15238688A JPH0760460B2 JP H0760460 B2 JPH0760460 B2 JP H0760460B2 JP 63152386 A JP63152386 A JP 63152386A JP 15238688 A JP15238688 A JP 15238688A JP H0760460 B2 JPH0760460 B2 JP H0760460B2
Authority
JP
Japan
Prior art keywords
image
contour line
line
model
cut
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63152386A
Other languages
Japanese (ja)
Other versions
JPH01320584A (en
Inventor
雄一 藤野
文郎 岸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63152386A priority Critical patent/JPH0760460B2/en
Publication of JPH01320584A publication Critical patent/JPH01320584A/en
Publication of JPH0760460B2 publication Critical patent/JPH0760460B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】 (発明の属する技術分野) 本発明は、カメラにより撮像された被写体を画像処理に
より回転させることによって任意の角度の連続視域被写
体画像を得る再生法に関するものである。
Description: TECHNICAL FIELD The present invention relates to a reproducing method for obtaining a continuous-view object image at an arbitrary angle by rotating an object imaged by a camera by image processing.

(従来の技術) 従来、異なる角度で撮像された複数枚の画像から任意の
角度の画像を再生する方法として、線形キーフレーム
法、濃度輪郭線を用いる方法、画像処理によって被写体
を回転させる方法(以下回転法と称する)がある。以下
に線形キーフレーム法について説明する。
(Prior Art) Conventionally, as a method of reproducing an image at an arbitrary angle from a plurality of images captured at different angles, a linear key frame method, a method using a density contour line, a method of rotating an object by image processing ( Hereinafter referred to as a rotation method). The linear key frame method will be described below.

第4図は、同一平面上にある2台のカメラにより撮像さ
れた2枚の原画像(キーフレーム画像)を用いる線形キ
ーフレーム法の処理の流れを示す図である。これは基本
的に2値画像を対象にしているため、階調画像を用いる
場合は左,右画像撮像後(ア)に2値化処理(イ)を行
なう。
FIG. 4 is a diagram showing a flow of processing of a linear key frame method using two original images (key frame images) captured by two cameras on the same plane. Since this basically targets a binary image, when a gradation image is used, the binarization processing (a) is performed after the left and right images are captured (a).

次に2値化処理を行なった左右画像から対応点を検索
(ウ)するが、この対応点の検索は一般的には相関関数
を用いる。(ウ)で求められた対応点のうち、例えば、
右画像の一つを基準点にし、左画像の対応点の2次元平
面上の座標が右画像の基準点に一致するように左画像を
平行移動(エ)させる。
Next, the corresponding points are searched (c) from the left and right images that have undergone the binarization process. Generally, a correlation function is used to search for the corresponding points. Among the corresponding points found in (c), for example,
One of the right images is used as a reference point, and the left image is translated (D) so that the coordinates of the corresponding points of the left image on the two-dimensional plane coincide with the reference points of the right image.

平行移動後、各対応点間の距離(オ)を求め、各対応点
間をm:nに内分する内分点を計算(カ)する。この内分
m,nは回転角度により決定する。計算した内分点を表示
(キ)すると目的とする回動後の画像を得ることができ
る。
After the parallel movement, the distance (e) between the corresponding points is calculated, and the internally dividing point that internally divides the corresponding points into m: n is calculated (f). This part
m and n are determined by the rotation angle. When the calculated internal division point is displayed (K), the target image after rotation can be obtained.

そして、各対応点間の内分m,nを適当に選ぶことによ
り、任意の角度からみた画像を得ることができる。この
ように、線形キーフレーム法は、左右の2値画像の対応
点から内分点を求めることにより任意の角度の画像を得
る手法であるが、これは2値画像しか処理することがで
きないという欠点がある。
Then, an image viewed from an arbitrary angle can be obtained by appropriately selecting the internal divisions m and n between the corresponding points. As described above, the linear key frame method is a method of obtaining an image at an arbitrary angle by obtaining the internally dividing points from the corresponding points of the left and right binary images, but it can process only binary images. There are drawbacks.

次に、濃度輪郭線を用いる方法は、階調画像の濃度分布
を2値の線画像で記述したものであり、階調画像を効率
よく記述することができる。階調画像から抽出される濃
度輪郭線は次のように定義される。
Next, in the method using the density contour line, the density distribution of the gradation image is described by a binary line image, and the gradation image can be efficiently described. The density contour line extracted from the gradation image is defined as follows.

階調画像F(X,Y)をn個の濃度のしきい値tk(k=1,
2,…,n)によって、次のように2値化する。
The gradation image F (X, Y) is set to n density thresholds t k (k = 1,
2, ..., N), the binarization is performed as follows.

F(X,Y)≧tkのとき Bk(X,Y)=1(黒画素) F(X,Y)<tkのとき Bk(X,Y)=0(白画素) ただし、k=1,2,……,n 上式によって得られるn枚の2値画像Bk(k=1,2,…,
n)のそれぞれの白黒画像領域の境界線を抽出したもの
が濃度輪郭線である。
When F (X, Y) ≧ t k B k (X, Y) = 1 (black pixel) When F (X, Y) <t k B k (X, Y) = 0 (white pixel) k = 1,2, ..., n n binary images B k (k = 1,2, ..., n obtained by the above equation
The density contour line is obtained by extracting the boundary line between each of the black and white image areas in n).

これも、同一平面上にある2台のカメラにより撮像され
た2枚の原画像(キーフレーム画像)からn枚の濃度輪
郭線を抽出し、前述した線形キーフレーム法と同様の手
法により対応する輪郭線どうしを内分し、得られたn枚
の内分点の画像から階調画像を再生すれば任意の角度の
画像を得ることができる。これは自然な階調画像が得ら
れる反面、対応点の検索時に人為的な手段を必要とする
こと、計算時間が膨大であることなどの欠点がある。
This is also handled by extracting n density contour lines from two original images (key frame images) captured by two cameras on the same plane and using the same method as the linear key frame method described above. An image at an arbitrary angle can be obtained by internally dividing the contour lines and reproducing a gradation image from the obtained n images of internally dividing points. Although this provides a natural gradation image, it has drawbacks such as requiring artificial means when searching for corresponding points and enormous calculation time.

次に画像処理によって被写体を回転させる回転法につい
て説明する(例えば特願昭62−269027号)。この回転法
は、カメラで撮像された被写体を水平方向に切断し、そ
の断面を簡単な2次元モデルで表現し、そのモデル上に
撮像された画素を写影し、そのモデルを任意の回転角で
回転させて所望の画像を得る方法である。以下に2台の
カメラによって撮像された画像に回転法を用いた場合に
ついて説明する。
Next, a rotation method for rotating an object by image processing will be described (for example, Japanese Patent Application No. 62-269027). In this rotation method, the object imaged by the camera is cut in the horizontal direction, its cross section is represented by a simple two-dimensional model, the imaged pixels are imaged on the model, and the model is rotated at an arbitrary rotation angle. It is a method of obtaining a desired image by rotating with. The case where the rotation method is used for the images captured by the two cameras will be described below.

第5図は、被写体の人物像の2台のカメラとの空間座標
系を示し、第6図は、第5図の被写体をy=jなるx−
z平面で切断し、その切断面に円モデルを用いた場合の
円モデルと2次元座標系の関係を示す。
FIG. 5 shows a spatial coordinate system of a human image of a subject with two cameras, and FIG. 6 shows the subject of FIG.
The relationship between the circular model and the two-dimensional coordinate system in the case of cutting in the z plane and using the circular model for the cut surface is shown.

ここで、1Lは左画像用カメラ、1Rは右画像用カメラ、2
は被写体、x0はモデルの中心点、点pは回転前の2次元
座標点(x,j,z)、p′は回転後の2次元座標点(x′,
j,z′)、r(yの関数)は回転半径、θは2台のカメ
ラのなす角度、αは撮像した画像を希望する位置まで回
転させた時の回転角(反時計方向を正とする)、aは被
写体画像の左端座標点、bは被写体画像の右端座標点で
ある。
Here, 1L is a left image camera, 1R is a right image camera, 2
Is the object, x 0 is the center point of the model, point p is the two-dimensional coordinate point (x, j, z) before rotation, and p ′ is the two-dimensional coordinate point (x ′,
j, z '), r (function of y) is the radius of rotation, θ is the angle formed by the two cameras, α is the angle of rotation when the captured image is rotated to the desired position (the counterclockwise direction is positive) Yes, a is the leftmost coordinate point of the subject image, and b is the rightmost coordinate point of the subject image.

第7図は第6図の円モデルを用いて、例えば正面の顔画
像を作成する場合の処理の流れを示す図であり、以下に
同図に沿って処理の詳細について説明する。
FIG. 7 is a diagram showing a flow of processing when, for example, a front face image is created using the circle model of FIG. 6, and details of the processing will be described below with reference to FIG.

(ア)エッジ、顔輪郭抽出 2台のカメラ1L,1Rにて撮像された左側,右側の人物顔
画像はディジタル化されて取り込まれ、エッジ検出用フ
ィルターを作用させた後、顔の輪郭線のみを抽出する。
(A) Edge and face contour extraction Left and right human face images captured by the two cameras 1L and 1R are digitized and taken in, and after applying the edge detection filter, only the face contour line To extract.

(イ)位置補正 (ア)で輪郭抽出された左右画像のうち、左側の顔輪郭
線を平行移動させて右側の顔輪郭線画像の2次元座標の
基準点(例えば頭頂部)に一致させ位置補正する。
(A) Position correction Of the left and right images contour-extracted in (a), the left face contour line is moved in parallel so that it matches the reference point (for example, the crown) of the two-dimensional coordinate of the right face contour image. to correct.

(ウ)鼻の切り出し、正面を向いた鼻の作成 (イ)で位置補正された左右の原画像から鼻を切り出
す。鼻の切り出し処理は、顔の輪郭線から鼻を推定して
切り出す方法や、目、口などと一緒に鼻を認識して切り
出す方法などがある。次に、切り出した左右の鼻から鼻
筋を検出する((ウ)−1)。検出した左右の鼻筋を用
いて、キーフレーム法によって正面を向いた鼻筋を計算
する((ウ)−2)。最終に、正面を向いた鼻筋に沿っ
て左右原画像の画素を移動させて正面を向いた鼻を作成
する((ウ)−3)。
(C) Cutting out the nose and creating a nose facing the front Cut out the nose from the left and right original images that were position-corrected in (A). The nose cutout processing includes a method of estimating and cutting out the nose from the contour line of the face, a method of recognizing and cutting out the nose along with eyes and mouth, and the like. Next, the nose muscles are detected from the cut out left and right noses ((c) -1). Using the detected right and left nose muscles, the frontal nose muscles are calculated by the key frame method ((C) -2). Finally, the pixels of the left and right original images are moved along the frontal nose muscle to create a frontal nose ((C) -3).

(エ)回転移動 (イ)で位置補正された左右の顔輪郭線より輪郭半径r
(y)を計算し、それぞれの原画像の画素を回転移動さ
せ、移動処理画像を作成する。
(D) Rotational movement From the left and right face contour lines whose position has been corrected in (b), the contour radius r
(Y) is calculated, and the pixels of each original image are rotationally moved to create a moving processed image.

(オ)合成顔輪郭の作成 (イ)で位置補正された左右の顔輪郭線より、キーフレ
ーム法を用いて正面を向いた合成顔輪郭線を作成する。
(E) Creation of composite face contour From the left and right face contour lines that have been position-corrected in (a), a front face-facing composite face contour line is created using the key frame method.

(カ)移動処理画像の合成 左右の移動処理画像を一枚の画像に合成する。(F) Compositing of moving processed images The left and right moving processed images are combined into one image.

(キ)鼻の合成 合成移動処理画像の鼻の部分に(ウ)−3で作成した鼻
を合成する。
(G) Synthesis of nose The nose created in (C) -3 is synthesized with the nose portion of the composite movement processing image.

(ク)合成顔輪郭線による補正 (オ)で得られた合成顔輪郭線を用いて移動処理画像の
顔輪郭を補正する。
(H) Correction by Synthetic Face Contour Line The face contour of the movement-processed image is corrected by using the synthetic face contour line obtained in (e).

以上の処理により左右2枚の顔画像から正面を向いた画
像を得ることができる。以上の処理は処理の流れから明
らかなように、比較的簡単な画像処理により行なわれる
ため、従来技術である線形キーフレーム法と比較して多
値画像を処理でき、また濃度輪郭線を用いる方法と比較
して短時間での実行が可能である。
Through the above processing, it is possible to obtain a front-facing image from the left and right two face images. As is clear from the flow of the processing, the above processing is performed by relatively simple image processing, so that a multi-valued image can be processed as compared with the conventional linear key frame method, and a method using a density contour line. Execution is possible in a short time compared with.

しかしながら、本回転法では円モデルを用いているた
め、目、鼻、口はほぼ正面に移動するが鼻筋は曲がった
ままとなる。そのため、(ウ)の処理に示すように凹凸
部の鼻のみ左右の画像から切り出してキーフレーム法を
併用して正面を向いた鼻を作成して最終処理面に合成す
る処理(キ)が必要となるという欠点を有する。
However, since this rotation method uses a circular model, the eyes, nose, and mouth move to the front, but the nose muscle remains bent. Therefore, as shown in the process of (c), only the nose of the uneven part is cut out from the left and right images and the key frame method is used together to create the front facing nose and the process (ki) to combine it with the final processed surface is required. Has the drawback that

(発明の目的) 本発明は、上述した従来方法の回転法の欠点を解決し、
1台のカメラまたは同一平面上にある2台のカメラから
撮像された階調画像から、任意の回転角の再生画像を簡
単な画像処理により短時間で得ることを目的とするもの
である。
(Object of the Invention) The present invention solves the above-mentioned drawbacks of the conventional rotation method,
It is an object of the present invention to obtain a reproduced image of an arbitrary rotation angle in a short time from a gradation image picked up by one camera or two cameras on the same plane by simple image processing.

(発明の構成) (発明の特徴と従来技術との差異) 本発明は、カメラで撮像された被写体を水平方向に切断
し、その断面を2次元楕円モデルで表現し、その楕円モ
デルの長軸と短軸を垂直方向に変化させ、その楕円モデ
ルを任意の回転角で回転させて所望の画像を短時間で得
ることを特徴とし、従来の線形キーフレーム法を用いる
方法や濃度輪郭線を用いる方法とは、方法そのものが異
なる。また、従来の回転法とは鼻などの凹凸部の処理方
法が異なる。
(Structure of the Invention) (Differences between Features of the Invention and Prior Art) The present invention cuts a subject imaged by a camera in the horizontal direction, and expresses its cross section in a two-dimensional elliptical model, and the long axis of the elliptical model. And the minor axis is changed in the vertical direction, and the elliptical model is rotated at an arbitrary rotation angle to obtain a desired image in a short time, and the conventional linear key frame method is used or the density contour line is used. The method itself is different from the method. Further, the method of treating uneven portions such as the nose is different from the conventional rotation method.

(実施例) 本発明の実施例として被写体に人物画像を用いて、同一
平面上に配置した2台のカメラで撮像した場合について
説明する。
(Example) As an example of the present invention, a case where a human image is used as a subject and the images are picked up by two cameras arranged on the same plane will be described.

第1図は第5図の被写体をy=jなるx−z平面で切断
し、被写体の切断面に楕円モデルを適用した図である。
第1図では、基準とする座標系を同図に示すx−z軸と
し、回転前の被写体を短軸c、長軸dの楕円モデルで表
現し、これを楕円モデルの中心であるOを中心に角度α
だけ回転させた場合における例を示しており、被写体を
斜めから撮像した場合に相当する楕円モデルを回転させ
て被写体を正面から撮像した場合に変換した例を示して
いる。
FIG. 1 is a diagram in which the subject of FIG. 5 is cut along the xz plane where y = j and an elliptical model is applied to the cut surface of the subject.
In FIG. 1, the reference coordinate system is the x-z axis shown in the same figure, and the object before rotation is represented by an ellipse model with a short axis c and a long axis d. Angle α in the center
The figure shows an example in which the subject is imaged from the front by rotating the elliptical model corresponding to the case where the subject is imaged from an angle.

一般的には、回転前の楕円モデルの座標系を基準とし、
点p(x,j,z)を回転前の楕円モデル上の座標点、点
p′(x′,j,z′)を楕円の中心点Oを中心に角度α
(反時計回りを正)だけ回転させた後の座標点とする
と、次式が成り立つ。
Generally, the coordinate system of the elliptical model before rotation is used as a reference,
The point p (x, j, z) is a coordinate point on the ellipse model before rotation, and the point p ′ (x ′, j, z ′) is an angle α about the center point O of the ellipse.
If the coordinate point is rotated by (counterclockwise is positive), the following equation holds.

ここで、βは垂直軸yの関数β(y)であり、簡単な関
数で表現される。第2図に本実施例でのβ(y)の関数
形を示す。頭頂部から鼻の上部まではβ(y)は一定
値、鼻の上部から首の部分までは鼻の高さを表現するた
めβ(y)を一次関数で増加させ、首から下部は肩の部
分を表現するため二次関数で減少させる。このようにし
て鼻の高さに加えて、肩の部分までも楕円モデルで表現
できる。また、撮像した画像をx−z平面上で反時計方
向に−αだけ回転させた場合は、(2)式においてαに
−αを代入することにより得られる。
Here, β is a function β (y) of the vertical axis y and is expressed by a simple function. FIG. 2 shows the functional form of β (y) in this embodiment. Β (y) is a constant value from the top of the nose to the upper part of the nose, and β (y) is increased by a linear function to express the height of the nose from the upper part of the nose to the neck part. It is reduced by a quadratic function to express the part. In this way, in addition to the height of the nose, even the shoulder portion can be represented by the elliptical model. When the captured image is rotated counterclockwise by -α on the xz plane, it can be obtained by substituting -α for α in the equation (2).

第3図は、楕円モデルを用いて、例えば正面の顔画像を
作成する場合の処理の流れを示す図であり、以下に同図
に沿って楕円モデルを用いた回転法の処理の詳細につい
て述べる。
FIG. 3 is a diagram showing the flow of processing when, for example, a front face image is created using the ellipse model. The details of the processing of the rotation method using the ellipse model will be described below with reference to FIG. .

(ア)エッジ、顔輪郭抽出 2台のカメラにて撮像された左側,右側の人物顔画像は
ディジタル化されて取り込まれ、適当なエッジ抽出用フ
ィルターを作用させた後、輪郭線を抽出する。
(A) Edge / face contour extraction The left and right human face images captured by two cameras are digitized and taken in, and after applying an appropriate edge extraction filter, a contour line is extracted.

(イ)位置補正 (ア)で輪郭抽出された左右画像のうち、左側の顔輪郭
線を平行移動させて右側の顔輪郭線画像の2次元座標の
基準点(例えば頭頂部)に一致させる。同様に、左側の
顔原画像の各画素も顔輪郭線と同じ量だけ平行移動さ
せ、顔輪郭だけでなく顔原画像全体について位置補正す
る。以上の位置補正の処理は前述した従来の回転法と同
じである。
(A) Position correction Among the left and right images whose contours have been extracted in (a), the left face contour line is moved in parallel to match the reference point (for example, the crown) of the two-dimensional coordinates of the right face contour image. Similarly, each pixel of the face original image on the left side is translated by the same amount as the face contour line, and the position is corrected not only for the face outline but for the entire face original image. The above position correction processing is the same as that of the conventional rotation method described above.

(ウ)回転移動 (イ)で位置補正された左右の人物画像(2次元画像)
のそれぞれを水平方向に切断し、顔輪郭線内の切断線上
の各画素に対し、楕円モデルを当てはめる。この操作を
顔の頭頂部から下部まで繰り返す。具体的には、以下の
手順により行う。顔輪郭線と切断線の交点である最左
点と最右点間の距離を求め、楕円モデルの短軸cとし、
また、最左点と最右点の中点を求め、楕円モデルの原点
とする。切断線に対応するβの値を第2図より求め、
このβと上記で求めた短軸cとから、前記(3)式に
より長軸dを求める。角度αとして、左画像または右
画像を撮像した方向と再生しようとする方向とのなす角
度を設定する。切断線上の顔原画像の各画素に対応す
るx座標を求め、上記、で求めた楕円モデルの短軸
c、長軸dとから、前記(1)式によりz座標の値を求
める。、で求めたα、x座標、z座標を(3)式
に代入して、x′を求める。上記、を顔輪郭線内
の切断線上の全画素について繰り返し、全画素をx′に
変換する。上記〜を頭頂部より下部の全ての走査
線について実行し、顔原画像を全体を変換する。以上に
より、反時計回りにαだけ回転した左右それぞれの回転
移動処理画像を作成する。
(C) Rotational movement Left and right person images (two-dimensional images) position-corrected in (A)
Are horizontally cut, and an ellipse model is applied to each pixel on the cutting line in the face contour line. This operation is repeated from the top of the face to the bottom. Specifically, the procedure is as follows. The distance between the leftmost point and the rightmost point, which are the intersections of the face contour line and the cutting line, is obtained and is defined as the minor axis c of the elliptical model.
In addition, the midpoint between the leftmost point and the rightmost point is obtained and used as the origin of the elliptical model. The value of β corresponding to the cutting line is obtained from FIG. 2,
From this β and the short axis c obtained above, the long axis d is obtained by the equation (3). As the angle α, an angle formed between the direction in which the left image or the right image is captured and the direction in which the image is to be reproduced is set. The x-coordinate corresponding to each pixel of the face original image on the cutting line is obtained, and the z-coordinate value is obtained by the above equation (1) from the short axis c and the long axis d of the elliptic model obtained in the above. Substituting the α, x-coordinate, and z-coordinate obtained in step (3) into equation (3), x'is obtained. The above is repeated for all the pixels on the cutting line in the face contour line, and all the pixels are converted into x ′. The above steps (1) to (5) are executed for all scanning lines below the parietal region to convert the entire face original image. As described above, the left and right rotational movement processed images rotated counterclockwise by α are created.

上記において、顔輪郭線と切断線の交点である最左点と
最右点間の距離を楕円モデルの短軸cとしたが、これは
被写体が人物の頭部のためであり、被写体の形状によっ
ては長軸dとしてもよい。
In the above description, the distance between the leftmost point and the rightmost point, which is the intersection of the face contour line and the cutting line, is defined as the short axis c of the elliptical model. Alternatively, the long axis d may be used.

以上述べた楕円モデルへの割りつけ方法は、被写体を正
面から撮影した場合に最もよく当てはまるが、比較的簡
単な処理により実現可能なため、αがあまり大きくなけ
れば、斜めから撮影した場合でも十分有効な方法であ
る。
The above-described method of allocating to the ellipse model is most applicable when the subject is photographed from the front, but since it can be realized by relatively simple processing, if α is not too large, it is sufficient even when photographed from an angle. This is an effective method.

(エ)合成顔輪郭の作成 (イ)で位置補正された左右の顔輪郭線を水平方向に切
断し、左顔輪郭線の左部と切断線の交点と、右顔輪郭線
の左部と切断線の交点とを求め、これを対応点として、
前述したキーフレーム法を適用して、m:nに内分する点
を求める。このm:nの比率は、上記(ウ)で述べた角度
αに対応して決定するものであり、左画像を撮像した方
向と再生しようとする方向のなす角度と、右画像を撮像
した方向と再生しようとする方向のなす角度とから決定
される。前記(ア)において、左右の顔画像を2台のカ
メラを被写体の正面から左右に同じ角度だけ離れた場所
に設置して撮影した場合において、正面からの顔画像を
再生するには、m=1、n=1となり、1:1に内分する
点となる。同様に、左顔輪郭線の右部と切断線の交点
と、右顔輪郭線の右部と切断線の交点とを求め、1:1に
内分する点を求める。上記の操作を顔輪郭線の最上端か
ら最下端まで繰り返すことにより、正面を向いた合成顔
輪郭線を作成する。以上の合成顔輪郭の作成処理は前述
した従来の回転法と同じである。
(D) Creating a synthetic face contour The left and right face contours that have been position-corrected in (a) are cut horizontally, and the intersection of the left part of the left face contour and the cutting line and the left part of the right face contour are cut. Find the intersection of the cutting lines, and use this as the corresponding point,
The key frame method described above is applied to find the point internally divided to m: n. The ratio of m: n is determined in correspondence with the angle α described in (c) above, and the angle formed by the direction in which the left image is captured and the direction in which the image is reproduced and the direction in which the right image is captured. And the angle formed by the direction of reproduction. In the above (a), when two left and right face images are taken by installing two cameras at the same angle to the left and right of the front of the subject, to reproduce the front face image, m = 1 and n = 1, which is a point to be internally divided into 1: 1. Similarly, an intersection between the right part of the left face contour line and the cutting line and an intersection of the right part of the right face contour line and the cutting line are obtained, and a point internally divided into 1: 1 is obtained. By repeating the above operation from the top end to the bottom end of the face contour line, a front face-combined face contour line is created. The above-described synthetic face contour creation processing is the same as the above-described conventional rotation method.

(オ)移動処理画像の合成 (ウ)の回転移動処理画像から1枚の画像を合成する。
合成の割合は回転角度に応じて変化させる。本実施例で
は正面画像を作成するため、上記(エ)により作成した
合成顔輪郭線を水平方向に切断し、合成顔輪郭線の左部
と切断線の交点と、合成顔輪郭線の右部と切断線の交点
とから中点を求める。上記操作を合成顔輪郭線の最上端
から最下端まで繰り返し、中点の集まりからなる顔の垂
直方向中心軸を求める。そして、その中心軸より左側に
は左移動処理画像を、右側には右移動処理画像を割り当
て、左右の移動処理画像を合成する。
(E) Compositing of movement processed images One image is composed from the rotation movement processed images of (c).
The composition ratio is changed according to the rotation angle. In the present embodiment, in order to create a front image, the composite face contour line created in (d) above is cut in the horizontal direction, and the intersection of the left part of the composite face contour line and the cutting line and the right part of the composite face contour line are cut. Find the midpoint from the intersection of the cutting line and. The above operation is repeated from the uppermost end to the lowermost end of the synthetic face contour line to obtain the vertical center axis of the face consisting of a set of midpoints. Then, the left movement processed image is assigned to the left side of the central axis, and the right movement processed image is assigned to the right side, and the left and right movement processed images are combined.

(カ)合成顔輪郭線による補正 (エ)で得られた合成顔輪郭線を用いて移動処理画像の
顔輪郭を補正する。すなわち、(オ)の移動処理画像
に、(エ)の合成顔輪郭線を当てはめ、合成顔輪郭線か
らはみだしている画素を無視して背景画像で置き換える
ことにより、補正を行う。なお、1台のカメラで撮像し
た場合は、この移動処理画像の合成処理は不要となる。
(F) Correction by composite face contour line The face contour of the movement-processed image is corrected by using the composite face contour line obtained in (d). In other words, the correction is performed by fitting the composite face contour line of (e) to the movement processed image of (e), ignoring the pixels protruding from the composite face contour line, and replacing it with the background image. Note that when the image is picked up by one camera, this moving process image combination process is unnecessary.

以上の処理により左右2枚の顔画像からの正面を向いた
画像の合成がなされる。また、正面以外の任意の角度の
画像も、移動処理画像の合成方法を除いて同様の処理で
合成ができる。移動処理画像の合成は、回転角度に応じ
て左右の処理画像の合成する面積の割合を変化させて合
成する。
By the above processing, the front-faced images from the two left and right face images are combined. Further, an image at any angle other than the front can be combined by the same process except for the combining method of the moving processed image. The moving processed images are combined by changing the ratio of the combined areas of the left and right processed images according to the rotation angle.

以上の処理は、処理の流れから明らかなように、簡単な
画像処理により行なわれるうえ、従来の回転法と比較し
て鼻などの凹凸部の特別な処理がいらないため短時間で
の実行ができる。
As is clear from the flow of the process, the above process is performed by simple image processing, and can be executed in a short time as compared to the conventional rotation method, because no special process for uneven parts such as the nose is required. .

(発明の効果) 以上説明したように、本発明によれば、左右2台のカメ
ラを同一平面上に配置した一つの被写体を撮像し、撮像
された被写体を任意の角度に回転させることにより、所
望の画像を短時間で再生することができる。本発明は画
像データベースに適用すれば、実用上同一平面上にある
2台のカメラにより撮像された2枚の被写体画像から回
転画像を作成することができ、回転画像のすべてをデー
タベースに記録する場合と比較してデータベースの有効
利用に効果がある。
(Effects of the Invention) As described above, according to the present invention, by capturing an image of a single subject in which two left and right cameras are arranged on the same plane, and by rotating the captured subject at an arbitrary angle, A desired image can be reproduced in a short time. If the present invention is applied to an image database, a rotated image can be created from two subject images captured by two cameras that are practically on the same plane, and all the rotated images are recorded in the database. Effective in effective use of the database compared to.

また、従来、テレビ電話装置にはお互いの視線が一致し
ないという欠点を有するが、本発明は2台のカメラを有
するテレビ電話装置に適用し、2台のカメラにより撮像
された2枚の画像から本発明の回転法を用いて正面を向
いた画像を合成し、合成画像を相手に伝送すると、お互
いの視線が一致したテレビ電話装置が可能となる。
Further, conventionally, the videophone device has a drawback that the lines of sight of the two do not match, but the present invention is applied to a videophone device having two cameras, and from two images taken by the two cameras, By combining front-facing images using the rotation method of the present invention and transmitting the composite images to the other party, a videophone device in which the lines of sight of the two are matched can be realized.

【図面の簡単な説明】[Brief description of drawings]

第1図は第5図の被写体をy=jなるx−z平面で切断
し、その切断面に本発明で用いる楕円モデルを適用した
場合の楕円モデルと2次元座標系の関係を示す図、第2
図はβの関数形を示す図、第3図は本発明による楕円モ
デルを用いた回転法の処理の流れを示す図、第4図は従
来の線形キーフレーム法の処理の流れを示す図、第5図
は回転法を用いる場合の被写体とカメラの空間座標系を
示す図、第6図は第5図の被写体をy=jなるx−z平
面で切断し、その切断面に円モデルをを用いた場合の円
モデルと2次元座標系の関係を示す図、第7図は円モデ
ルを用いた処理の流れを示す図である。 1……撮像用カメラ、1L……左画像用カメラ、1R……右
画像用カメラ、2……被写体。
FIG. 1 is a diagram showing a relationship between an ellipse model and a two-dimensional coordinate system when the subject of FIG. 5 is cut in the xz plane where y = j and the cut surface is applied with the elliptical model used in the present invention. Second
FIG. 3 is a diagram showing a function form of β, FIG. 3 is a diagram showing a processing flow of a rotation method using an elliptic model according to the present invention, and FIG. 4 is a diagram showing a processing flow of a conventional linear key frame method, FIG. 5 is a diagram showing a spatial coordinate system of a subject and a camera when the rotation method is used, and FIG. 6 is a cross-sectional view of the subject of FIG. 5 cut along the xz plane where y = j, and a circular model is formed on the cut surface. FIG. 7 is a diagram showing the relationship between the circular model and the two-dimensional coordinate system when using, and FIG. 7 is a diagram showing the flow of processing using the circular model. 1 ... Imaging camera, 1L ... Left image camera, 1R ... Right image camera, 2 ... Subject.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】同一平面上にある2台のカメラにより被写
体を撮像し、得られた2枚の被写体の2次元画像である
左画像と右画像から、その間の任意の位置から被写体を
撮像した場合に得られる被写体の2次元画像を自動的に
再生する連続視域画像再生法であって、 前記左画像の輪郭線である左輪郭線と前記右画像の輪郭
線である右輪郭線を抽出する過程と、 前記左画像と前記右画像を、前記左輪郭線と前記右輪郭
線の対応点が一致するように平行移動させて位置補正す
る過程と、 前記被写体を水平面で切断した切り口を楕円モデルで表
現するため、まず、位置補正された前記左画像に対し、
前記左輪郭線を水平方向に切断し、その切断線と前記左
輪郭線との交線及び交線の中点をそれぞれ前記楕円モデ
ルの短軸(長軸)及び中心点とし、さらに、前記楕円モ
デルの長軸と短軸の比を被写体の形状に応じて垂直方向
に変化させた値をあらかじめ与えることにより、前記楕
円モデルの形状を決定し、前記左輪郭線内の交線上の前
記左画像上の各画素のそれぞれを前記楕円モデル上の点
に当てはめ、前記楕円モデルを前記中心点を中心に、再
生しようとする2次元画像の位置に相当する角度だけ回
転移動させ、回転移動後の前記楕円モデル上の点を回転
移動前の前記短軸(長軸)方向に射影し、この操作を前
記左輪郭線の最上端から最下端まで繰り返し、次に、上
記各手順を前記右画像に対して実行することにより、左
画像、右画像のそれぞれを回転移動させた画像である回
転移動処理画像を作成する過程と、 前記左輪郭線、前記右輪郭線のそれぞれを水平方向に切
断し、その切断線と前記左輪郭線の左部と前記右輪郭線
の左部の交点間と、前記切断線と前記左輪郭線の右部と
前記右輪郭線の右部の交点間に、前記回転移動処理画像
を作成した際の前記左画像からの回転角度と前記右画像
からの回転角度のそれぞれに応じた比率により内分点を
求め、この操作を前記左輪郭線、前記右輪郭線それぞれ
の最上端から最下端まで繰り返すことにより、再生しよ
うとする2次元画像に対応する輪郭線である合成輪郭線
を作成する過程と、 前記合成輪郭線を水平方向に切断し、その切断線と前記
合成輪郭線画像との交点間の内分点を、前記合成輪郭線
を作成する過程と同じ比率で求め、この操作を前記合成
輪郭線の最上端から最下端まで繰り返すことにより、前
記内分点の集まりからなる垂直方向中心線を求め、この
中心線を境として前記左画像と前記右画像それぞれの回
転移動処理画像を割当てることにより合成する過程と、 前記回転移動処理画像を割当てることにより合成する過
程で得られた画像に前記合成輪郭線を当てはめることに
より輪郭補正を行なう過程と、 を有することを特徴とする連続視域画像再生法。
1. An object is imaged by two cameras on the same plane, and an object is imaged from an arbitrary position between the left image and the right image, which are two-dimensional images of the obtained two objects. A continuous viewing area image reproduction method for automatically reproducing a two-dimensional image of a subject obtained in this case, wherein a left contour line which is a contour line of the left image and a right contour line which is a contour line of the right image are extracted. And a step of correcting the position by translating the left image and the right image in parallel so that corresponding points of the left contour line and the right contour line coincide with each other, and an ellipse of a cut section of the subject in a horizontal plane. To represent with a model, first, for the position-corrected left image,
The left contour line is cut in the horizontal direction, and the intersection line of the cutting line and the left contour line and the midpoint of the intersection line are taken as the minor axis (long axis) and the center point of the ellipse model, respectively, and the ellipse The shape of the elliptical model is determined by previously giving a value obtained by changing the ratio of the major axis to the minor axis of the model in the vertical direction according to the shape of the subject, and the left image on the intersection line in the left contour line is determined. Each of the above pixels is fitted to a point on the ellipse model, the ellipse model is rotated about the center point by an angle corresponding to the position of the two-dimensional image to be reproduced, and the ellipse model is rotated. A point on the ellipse model is projected in the short axis (long axis) direction before the rotational movement, and this operation is repeated from the uppermost end to the lowermost end of the left contour line, and then the above steps are performed on the right image. The left image and the right image by executing A process of creating a rotational movement processing image that is an image in which each of them is rotationally moved, and each of the left contour line and the right contour line is horizontally cut, and the cutting line and the left part of the left contour line are cut. Between the intersections of the left part of the right contour line and between the intersections of the cutting line and the right part of the left contour line and the right part of the right contour line, from the left image when the rotational movement processing image is created. Of the left contour line and the right contour line by repeating the operation from the top edge to the bottom edge of the left contour line and the right contour line. And a step of creating a composite contour line that is a contour line corresponding to the two-dimensional image, in which the composite contour line is cut in the horizontal direction, and an interior division point between intersections of the cut line and the composite contour image is determined. , Obtained at the same ratio as the process of creating the composite contour line, By repeating this operation from the uppermost end to the lowermost end of the composite contour line, a vertical centerline composed of the set of internal division points is obtained, and the left image and the right image are rotationally moved with this centerline as a boundary. And a step of performing contour correction by applying the synthesized contour line to an image obtained in the step of synthesizing by allocating the rotational movement processing image. Continuous viewing zone image reproduction method.
JP63152386A 1988-06-22 1988-06-22 Continuous viewing area image reproduction method Expired - Fee Related JPH0760460B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63152386A JPH0760460B2 (en) 1988-06-22 1988-06-22 Continuous viewing area image reproduction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63152386A JPH0760460B2 (en) 1988-06-22 1988-06-22 Continuous viewing area image reproduction method

Publications (2)

Publication Number Publication Date
JPH01320584A JPH01320584A (en) 1989-12-26
JPH0760460B2 true JPH0760460B2 (en) 1995-06-28

Family

ID=15539383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63152386A Expired - Fee Related JPH0760460B2 (en) 1988-06-22 1988-06-22 Continuous viewing area image reproduction method

Country Status (1)

Country Link
JP (1) JPH0760460B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3058774B2 (en) * 1993-01-29 2000-07-04 株式会社河合楽器製作所 Image synthesizing apparatus and image synthesizing method

Also Published As

Publication number Publication date
JPH01320584A (en) 1989-12-26

Similar Documents

Publication Publication Date Title
CN106462944B (en) High-resolution panorama VR generator and method
CN106709436A (en) Cross-camera suspicious pedestrian target tracking system for rail transit panoramic monitoring
US8160390B1 (en) Minimal artifact image sequence depth enhancement system and method
Sheng et al. True orthoimage production for forested areas from large-scale aerial photographs
CN109493278A (en) A kind of large scene image mosaic system based on SIFT feature
KR101829733B1 (en) Conversion Method For A 2D Image to 3D Graphic Models
KR101759188B1 (en) the automatic 3D modeliing method using 2D facial image
CN111724470B (en) Processing method and electronic equipment
CN111951197B (en) Point cloud segmentation method based on structured light
CN111480183A (en) Light field image rendering method and system for generating perspective effect
CN106295640A (en) The object identification method of a kind of intelligent terminal and device
CN104915943B (en) Method and apparatus for determining main parallax value in disparity map
CN113362365A (en) Video processing method, system, device and medium
JP2004030461A (en) Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon
WO2022217470A1 (en) Hair rendering system based on deep neural network
KR20180106480A (en) High-resolution 3D depth image generation device for using 2D image and the method thereof
JP2018147019A (en) Object extraction device, object recognition system and meta-data creating system
US20200186773A1 (en) Method and System of Discriminative Recovery of Three-Dimensional Digital Data of a Target of Interest in a Cluttered or Controlled Environment
JP7275583B2 (en) BACKGROUND MODEL GENERATING DEVICE, BACKGROUND MODEL GENERATING METHOD AND BACKGROUND MODEL GENERATING PROGRAM
JP3516118B2 (en) Object recognition method and object recognition device
JPH0760460B2 (en) Continuous viewing area image reproduction method
CN108364345A (en) Shelter target three-dimensional rebuilding method based on element marking and synthetic aperture imaging
KR101581586B1 (en) Compensation method for noise of depth image
JPH0752465B2 (en) Continuous viewing area image playback method
CN108875612B (en) Footprint image processing method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees