JPH11296692A - Image processing method and its device - Google Patents
Image processing method and its deviceInfo
- Publication number
- JPH11296692A JPH11296692A JP9425198A JP9425198A JPH11296692A JP H11296692 A JPH11296692 A JP H11296692A JP 9425198 A JP9425198 A JP 9425198A JP 9425198 A JP9425198 A JP 9425198A JP H11296692 A JPH11296692 A JP H11296692A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- processing
- original image
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像に画像変形や
画像混合などの画像処理を施して、新たな画像を生成す
る画像処理に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image processing for generating a new image by performing image processing such as image deformation and image mixing on the image.
【0002】[0002]
【従来の技術】従来、ある視点から撮影したあるいは描
写した映像をもとに、他の視点から見た合成映像を生成
する画像処理方法が知られている。この画像処理方法
は、三次元モデルの作成が困難な実写映像や絵画などに
対して視点変更の映像効果を生み出すのに効果的であ
る。2. Description of the Related Art Conventionally, there has been known an image processing method for generating a composite video viewed from another viewpoint based on a video shot or drawn from one viewpoint. This image processing method is effective for producing a video effect of changing a viewpoint for a real-life video or a painting in which it is difficult to create a three-dimensional model.
【0003】他視点から見た合成映像を生成する技術の
一つとして、ワーピング技術(「射影変換に基く画像間
の補間」電子情報通信学会、信学技法IE94-14 ( 1994-0
5 )pp.29-36 )が知られている。ワーピング技術は、デ
ジタル画像である原画像を、原画像の各画素ごとあるい
は複数の画素ごとの移動データにより構成される変形デ
ータに基づいて変形し、新たな合成画像を生成する画像
処理である。ある視点からの映像を原画像として、その
原画像を変形データを用いて変形することで、他の視点
から見た近似映像を合成することができる。しかしワー
ピング技術では、合成画像における物体の映像が、原画
像におけるその物体の映像よりも大きくなる場合、原画
像の映像を拡大する必要があり、合成画像の画質の劣化
が大きくなる。[0003] One of the techniques for generating a composite image viewed from another viewpoint is a warping technique ("interpolation between images based on projective transformation" IEICE IEICE, IEICE, IE94-14 (1994-0
5) pp.29-36) is known. The warping technique is an image processing for deforming an original image, which is a digital image, based on deformation data composed of movement data for each pixel or a plurality of pixels of the original image to generate a new composite image. By using a video from a certain viewpoint as an original image and deforming the original image using deformation data, an approximate video viewed from another viewpoint can be synthesized. However, in the warping technique, when the image of the object in the composite image is larger than the image of the object in the original image, it is necessary to enlarge the image of the original image, and the image quality of the composite image is greatly deteriorated.
【0004】他視点から見た合成映像を生成する別の技
術としてモーフィング技術( "Feature-Based Image Met
amorphosis," Computer Graphics Proc. Vol.29, pp.35
-42,(1992) )も知られている。モーフィング技術は、複
数の原画像を、複数の原画像間において同一の物体がそ
れぞれの原画像のどの部分に写っているかを示した対応
データを用いて変形し、変形した画像を互いに混合し
て、前記複数の原画像の中間的な特徴を有する合成画像
を生成する技術である。モーフィング技術では、合成画
像における物体の映像を複数の原画像の映像を混合して
生成するので、いずれかの原画像においてその物体の映
像が大きく写っていれば、ワーピングの技術を用いた場
合と比較してして画質の劣化を押さえることができる。
しかしモーフィング技術では、複数の画像を混合する結
果、合成画像が全体的にぼやけた映像になる場合が多
い。A morphing technique ("Feature-Based Image Met") is another technique for generating a composite image viewed from another viewpoint.
amorphosis, "Computer Graphics Proc. Vol. 29, pp. 35
-42, (1992)) is also known. The morphing technique transforms a plurality of original images using corresponding data indicating which part of each original image shows the same object among the plurality of original images, and mixes the deformed images with each other. , A technique for generating a composite image having intermediate features of the plurality of original images. In morphing technology, the image of the object in the composite image is generated by mixing the images of multiple original images, so if the image of the object is large in any of the original images, the case of using the warping technology As a result, the deterioration of the image quality can be suppressed.
However, in the morphing technique, as a result of mixing a plurality of images, the composite image often becomes a blurred image as a whole.
【0005】[0005]
【発明が解決しようとする課題】ワーピング技術のよう
に、1枚の原画像のみから合成画像を生成する方法で
は、ある物体の映像が他の原画像に詳細に写っていたと
してもその映像を効果的に利用できない。In a method of generating a composite image from only one original image, such as a warping technique, even if an image of an object is shown in detail in another original image, the image is reproduced. Not available effectively.
【0006】一方モーフィング技術においては、ある物
体について一番大きくに写っている原画像の映像以外に
も他の原画像の映像を混合してしまうので、合成画像が
全体的にぼやけてしまう。On the other hand, in the morphing technique, since a video of another original image is mixed in addition to a video of an original image which is the largest image of a certain object, the composite image is totally blurred.
【0007】本発明の第1の課題は、ある物体が複数の
原画像に写っている場合、各物体ごとにどの原画像に、
一番大きく写っていると判別された原画像のみから合成
画像におけるその物体の映像を生成することである。本
発明の第2の課題は、各物体ごとにそれぞれ異なる原画
像から作成した合成画像において、異なる原画像から生
成された映像間の接続部分において色が不連続に変化す
る場合、色の変化を連続的にすることで、接続部分を目
立たなくすることである。[0007] A first problem of the present invention is that, when a certain object appears in a plurality of original images, in each of the original images,
The purpose is to generate a video of the object in the composite image from only the original image determined to be the largest. A second problem of the present invention is that, in a composite image created from different original images for each object, when the color changes discontinuously at a connection portion between videos generated from different original images, the color change is reduced. By making it continuous, the connection part is made inconspicuous.
【0008】本発明の第3の課題は、一番大きく写って
いると判断した原画像から合成画像を生成することで不
必要となった原画像の部分と対応データの部分につい
て、合成画像生成時に画像変形処理および画像混合処理
を行わないようにすることで、合成画像生成の計算量を
削減することである。本発明の第4の課題は、不必要と
なった原画像の部分を原画像データから、また不要とな
った対応データの部分を対応データから削除すること
で、合成画像を生成するために必要なデータ量を削減す
ることである。A third object of the present invention is to generate a composite image from an original image which is determined to be the largest in the original image and a corresponding data portion which are unnecessary by generating a composite image. Sometimes, the amount of calculation for generating a composite image is reduced by not performing the image deformation process and the image mixing process. A fourth object of the present invention is to delete a part of the original image that is no longer necessary from the original image data and a part of the corresponding data that is no longer necessary from the corresponding data, thereby generating a composite image. Is to reduce the amount of important data.
【0009】[0009]
【課題を解決するための手段】上記第1の課題を解決す
るために、各原画像における各物体の大きさを対応デー
タを用いて比較して、各物体に対して一番鮮明に写って
いる映像を判別し、判別した映像のみから合成画像を生
成する画像処理方法を提供する。Means for Solving the Problems In order to solve the first problem, the size of each object in each original image is compared by using corresponding data, and the size of each object is sharpest. Provided is an image processing method for determining an existing video and generating a composite image only from the determined video.
【0010】ここで、1番鮮明とは、最も大きく写って
いることや物体の形状の特徴を1番表してしることなど
を含む。また、物体とは画像内に映し出されるものを指
す。このため、画像に映像として残れば、人間や動物
上、植物も物体である。また、それらの1部も物体にな
りうる(もちろん、人間など以外の1部も物体となりう
る)。上記第2の課題を解決するために、異なる原画像
から生成される画像の接続部分において、一方の原画像
の色を混合する割合を徐々に減らすのと同時に他方の原
画像の色を混合する割合を徐々に増やす画像処理方法を
提供する。[0010] Here, the sharpest image includes the largest image and the first characteristic of the shape of the object. An object refers to an object projected in an image. For this reason, if it is left as an image in an image, a plant is also an object on humans and animals. Also, a part of them can be an object (of course, a part other than a human can also be an object). In order to solve the second problem, at the connection portion of images generated from different original images, the color mixing ratio of one original image is gradually reduced and the color of the other original image is mixed at the same time. An image processing method for gradually increasing the ratio is provided.
【0011】上記第3の課題を解決するために、合成画
像生成処理の前処理として、不必要な原画像の部分と不
必要な対応データの部分とを判別する判別データを作成
し、合成画像生成時には判別データを用いて不必要な原
画像の部分と不必要な対応データの部分については画像
変形処理および画像混合処理を飛ばす画像処理方法を提
供する。上記第4の課題を解決するために、合成画像生
成処理の前処理として、不必要な原画像の部分を原画像
から削除する画像処理方法と不必要な対応データの部分
を対応データから削除する画像処理方法とを提供する。[0011] In order to solve the third problem, as pre-processing of a composite image generation process, discrimination data for discriminating an unnecessary part of an original image and an unnecessary part of corresponding data is created, and An image processing method is provided that skips image deformation processing and image mixing processing for unnecessary original image portions and unnecessary corresponding data portions using discrimination data at the time of generation. In order to solve the fourth problem, as a pre-process of the composite image generation processing, an image processing method for deleting unnecessary original image portions from the original image and an unnecessary corresponding data portion are deleted from the corresponding data. An image processing method is provided.
【0012】[0012]
【発明の実施の形態】以下、本発明の第1の実施の形態
について詳細に述べる。図1は本発明の処理手順とその
入出力データを示す図である。図2は第1の実施形態の
システム構成を示す図である。図3および図4は最大の
画像判別処理1900のフローチャートを示す図であ
る。図5は色の混合割合決定処理1310のフローチャ
ートを示す図である。図6は冗長なデータ判別処理13
60のフローチャートを示す図である。図7は合成画像
生成処理1700のフローチャートを示す図である。図
9は色の混合割合決定処理1310を具体例を用いて説
明した図である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment of the present invention will be described in detail. FIG. 1 is a diagram showing a processing procedure of the present invention and its input / output data. FIG. 2 is a diagram illustrating a system configuration according to the first embodiment. FIGS. 3 and 4 are flowcharts showing the maximum image discrimination processing 1900. FIG. 5 is a diagram showing a flowchart of the color mixing ratio determination processing 1310. FIG. 6 shows a redundant data determination process 13.
FIG. 60 is a diagram showing a flowchart of 60. FIG. 7 is a diagram showing a flowchart of the composite image generation processing 1700. FIG. 9 is a diagram illustrating the color mixing ratio determination processing 1310 using a specific example.
【0013】第1の実施形態のシステム構成は図2に示
すように、表示装置2100、入力装置2200、外部
記憶装置2300、処理装置2400、記憶装置250
0を、データ転送路であるバス2600に接続して構成
する。表示装置2100は、例えばCRTディスプレ
ィ、液晶表示装置であり、合成画像1800ならびにユ
ーザに対する指示案内を表示する。The system configuration of the first embodiment is, as shown in FIG. 2, a display device 2100, an input device 2200, an external storage device 2300, a processing device 2400, and a storage device 250.
0 is connected to a bus 2600 which is a data transfer path. The display device 2100 is, for example, a CRT display or a liquid crystal display device, and displays the composite image 1800 and instruction guidance to the user.
【0014】入力装置2200は、例えばキーボード、
マウスであり、ユーザからの指示を入力する。外部記憶
装置2300は、原画像1100、対応データ120
0、原画像’1400、対応データ’1500、合成デ
ータ1600を記憶する。原画像1100、対応データ
1200、原画像’1400、対応データ’1500、
合成データ1600の詳細については後述する。処理装
置2400は、前処理1300ならびに合成画像生成処
理1700を実行する。前処理1300、合成画像生成
処理1700の詳細については後述する。記憶装置25
00は、例えばメモリで、原画像1100、対応データ
1200、原画像’1400、対応データ’1500、
合成データ1600、合成画像画像1800、カウント
データ2700、重みデータ2800を一時的に記憶す
る。合成画像1800、カウントデータ2700、重み
データ2800の詳細については後述する。The input device 2200 is, for example, a keyboard,
It is a mouse and inputs instructions from the user. The external storage device 2300 stores the original image 1100, the corresponding data 120
0, the original image '1400, the corresponding data' 1500, and the combined data 1600. Original image 1100, corresponding data 1200, original image '1400, corresponding data' 1500,
The details of the composite data 1600 will be described later. The processing device 2400 executes the pre-processing 1300 and the composite image generation processing 1700. Details of the preprocessing 1300 and the composite image generation processing 1700 will be described later. Storage device 25
00 is, for example, a memory, which is an original image 1100, corresponding data 1200, an original image '1400,
The composite data 1600, the composite image 1800, the count data 2700, and the weight data 2800 are temporarily stored. Details of the composite image 1800, the count data 2700, and the weight data 2800 will be described later.
【0015】以下、本実施形態の処理手順について図1
を用いて述べる。本発明の入力データは、複数の原画像
[m]1110(1≦m≦M)からなる原画像1100と
複数の対応データ[m,n]1210( n≠m, 1≦n≦M )
からなる対応データ1200である。明細書中の[ ] 内
の文字は添え字を表すものとする。ここで定数Mは原画
像1100の枚数がM枚であることを表す。以後、原画
像、対応データ、原画像’、対応データ’、合成データ
を添字付きで表現した場合は複数のデータの中の特定の
一つを指し、添字を伴わない場合は複数のデータ全てを
差すものとする。また英大文字で表したパラメータは定
数を表わすものとする。また英小文字で表したパラメー
タは変数を表し、定義域内において適宜変化するものと
する。ただし、明細書中で明示的に変数の値が不変であ
ると宣言した範囲内と明細書中の一文で表現される間
は、その値が変化しないものとする。原画像[m]111
0はデジタル画像である。デジタル画像とは、画像を画
素と呼ばれる小さな離散的な点に分割し、各画素におけ
る濃淡の値も離散的な値で表現したものであり、例えば
ビットマップである。Hereinafter, the processing procedure of this embodiment will be described with reference to FIG.
It is described using. The input data of the present invention includes a plurality of original images.
[m] 1110 (1 ≦ m ≦ M) original image 1100 and a plurality of corresponding data [m, n] 1210 (n ≠ m, 1 ≦ n ≦ M)
The corresponding data 1200 is composed of Characters in [] in the description shall represent subscripts. Here, the constant M indicates that the number of original images 1100 is M. Hereinafter, when the original image, the corresponding data, the original image ', the corresponding data', and the composite data are represented by subscripts, they indicate a specific one of the plurality of data. Shall be inserted. Parameters in uppercase letters represent constants. Also, the parameters expressed in lowercase letters represent variables, and are appropriately changed in the definition area. However, the value of a variable shall not change between the range in which the value of a variable is explicitly declared to be immutable in the specification and the value in a sentence in the specification. Original image [m] 111
0 is a digital image. The digital image is obtained by dividing the image into small discrete points called pixels, and expressing the density value of each pixel by a discrete value, for example, a bit map.
【0016】デジタル画像の個々の画素は、添字を付け
て画素[s,t]( 1≦s≦S, 1≦t≦T)で表す。ここで定
数Sおよび定数Tは、デジタル画像が横軸S画素、縦軸
T画素の大きさであることを表す。画素[s,t]は、デジ
タル画像の左からs番目、上からt番目の画素を表す。以
下、画素[m][s,t]と表記した場合は、原画像[m]111
0の画素[s,t]を表すものとする。対応データ[m,n]12
10は原画像[m]1100を変形するためのデータであ
り、原画像[m]1110の各画素に対応する原画像[n]1
110の画素を示すデータである。ただし対応する画素
が存在しない場合は、「対応する画素がない」という情
報が登録される。ここである画素[s,t]に対応する画素
[u,v] ( 1≦u≦S, 1≦v≦T )とは、 画素[u,v]を含む
原画像[n]1110が、画素[s,t]を含む原画像[m]11
10と異なり、さらに画素[u,v]が表す物体が、画素[s,
t]が表す物体と同じような画素のことを差す。Each pixel of the digital image is denoted by a pixel [s, t] (1 ≦ s ≦ S, 1 ≦ t ≦ T) with a subscript. Here, the constant S and the constant T represent that the digital image has a size of S pixels on the horizontal axis and T pixels on the vertical axis. Pixel [s, t] represents the s-th pixel from the left and the t-th pixel from the top of the digital image. Hereinafter, when the pixel is described as [m] [s, t], the original image [m] 111
It represents a pixel [s, t] of 0. Corresponding data [m, n] 12
Reference numeral 10 denotes data for deforming the original image [m] 1100, which is an original image [n] 1 corresponding to each pixel of the original image [m] 1110.
This is data indicating 110 pixels. However, when there is no corresponding pixel, information that “there is no corresponding pixel” is registered. The pixel corresponding to the pixel [s, t]
[u, v] (1 ≦ u ≦ S, 1 ≦ v ≦ T) means that an original image [n] 1110 including a pixel [u, v] is an original image [m] including a pixel [s, t]. 11
Unlike FIG. 10, the object represented by the pixel [u, v] is the pixel [s,
t] is a pixel similar to the object represented by t].
【0017】以下、対応データ[m,n][s,t]と表記した場
合は、画素[m][s,t]に対応する原画像[n]1110の画
素を示すデータを表すものとする。前処理1300は、
原画像1100と対応データ1200を入力データとし
て、中間データである原画像’1400、対応データ’
1500、合成データ1600を生成する。前処理13
00は、最大の画像判別処理1900と色の混合割合決
定処理1310と冗長なデータ判別処理1360からな
る。最大画像判別処理1900は、原画像1100に写
る各物体について、どの原画像[m]1110に写る前記
物体の映像が一番大きく写っているかを判別する処理で
ある。最大の画像判別処理1900の詳細については後
術する。色の混合割合決定処理1310は、合成画像1
800において隣接する映像が、異なる原画像[m]11
10、原画像[n]1110から合成される場合に、原画
像[m]1110から合成される映像と原画像[n]1110
から合成される映像の境界線において色が不連続で変化
しないように、前記境界線近傍において原画像[m]11
10から合成される映像の色と原画像[n]1110から
合成される映像の色を混合する処理である。色の混合割
合決定処理1310の詳細については後術する。Hereinafter, when the corresponding data is expressed as [m, n] [s, t], it represents data indicating the pixel of the original image [n] 1110 corresponding to the pixel [m] [s, t]. I do. The pre-processing 1300 includes:
Using the original image 1100 and the corresponding data 1200 as input data, the original image '1400, the corresponding data' which is intermediate data
1500, and generate combined data 1600. Preprocessing 13
00 includes a maximum image discrimination process 1900, a color mixing ratio decision process 1310, and a redundant data discrimination process 1360. The maximum image discrimination process 1900 is a process of discriminating which original image [m] 1110 of the object shown in the original image 1100 contains the largest image of the object. The details of the maximum image determination processing 1900 will be described later. The color mixture ratio determination processing 1310 is performed for the composite image 1
In 800, the adjacent video is a different original image [m] 11
10. When synthesized from the original image [n] 1110, a video synthesized from the original image [m] 1110 and the original image [n] 1110
The original image [m] 11 near the boundary line of the image synthesized from the image so that the color does not change discontinuously at the boundary line.
This is a process of mixing the color of the video synthesized from 10 with the color of the video synthesized from the original image [n] 1110. The details of the color mixture ratio determination processing 1310 will be described later.
【0018】冗長なデータ判別処理1360は、後術す
る合成画像生成処理1700にて不必要となる原画像1
100の部分と対応データ1200の部分を判別し、そ
れらの不必要なデータを削除する処理である。冗長なデ
ータ判別処理1360の詳細については後術する。原画
像’1400は、複数の原画像’[m]1410からな
る。原画像’[m]1410は、原画像[m]1110から、
合成映像生成処理1700で使用しないデータを取り除
いた残りのデータである。The redundant data discriminating process 1360 is unnecessary for the original image 1 which is unnecessary in the synthetic image generating process 1700 to be described later.
This is a process of determining the portion 100 and the portion of the corresponding data 1200 and deleting those unnecessary data. Details of the redundant data determination processing 1360 will be described later. The original image '1400 is composed of a plurality of original images' [m] 1410. The original image '[m] 1410 is derived from the original image [m] 1110.
This is the remaining data from which data not used in the composite video generation processing 1700 is removed.
【0019】対応データ’1500は、複数の対応デー
タ’[m,n]1510からなる。対応データ’[m,n]151
0は、対応データ[m,n]1200から、合成映像生成処
理1700で使用しないデータを取り除いた残りのデー
タである。合成データ1600は複数の合成データ[m]
1610からなる。合成データ[m]1610は、合成画
像生成処理1700において、原画像[m]1110およ
び対応データ[m.n]1210のどの部分を使うか(別記
すれば、原画像[m]1110のどの部分が原画像’[m]1
410に残っていて、対応データ[m]1200のどの部
分が対応データ’[m]1500に残っているか)を示す
情報と、原画像’[m]1410の色を原画像’[m]141
0以外の原画像’1400の色とどのぐらいの割合で混
合するかを示す情報を持つデータである。以下、合成デ
ータ[m][s,t]と表記した場合は、原画像’[m]1410
の画素[s,t]の合成データを表すものとする。The correspondence data '1500 is composed of a plurality of correspondence data' [m, n] 1510. Corresponding data '[m, n] 151
0 is the remaining data obtained by removing data not used in the composite video generation processing 1700 from the corresponding data [m, n] 1200. The synthesized data 1600 is a plurality of synthesized data [m]
1610. The combined data [m] 1610 determines which part of the original image [m] 1110 and the corresponding data [mn] 1210 to use in the combined image generation processing 1700 (in other words, which part of the original image [m] 1110 is the original image [m] 1110). Image '[m] 1
Information indicating which part of the corresponding data [m] 1200 remains in the corresponding data '[m] 1500), and the color of the original image' [m] 1410 to the original image '[m] 141
This is data having information indicating how much the color of the original image '1400 other than 0 is mixed with the color. Hereinafter, when the combined data is expressed as [m] [s, t], the original image '[m] 1410
Represents the combined data of the pixel [s, t].
【0020】合成画像生成処理1700は、原画像’1
400、対応データ’1500、合成データ1600を
入力データとして合成画像1800を生成する。合成画
像生成処理1700の詳細については後術する。The composite image generation processing 1700 is performed in the original image '1
A composite image 1800 is generated using the input data 400, the corresponding data '1500, and the composite data 1600 as input data. The details of the composite image generation processing 1700 will be described later.
【0021】以下、最大の画像判別処理1900につい
て図3、図4を用いて詳しく述べる。処理ステップ19
05において、カウントデータ2700の記憶エリアを
記憶装置2500に確保しその値を0にクリアする。カ
ウントデータ2700は、原画像[m]1110ごとに割
り当てあてた複数のカウントデータ[m]により構成し、
さらにカウントデータ[m]は、原画像[m]1110の全て
の画素[s,t]に割り当てたカウントデータ[m][s,t]によ
り構成する。Hereinafter, the maximum image discriminating process 1900 will be described in detail with reference to FIGS. Processing step 19
At 05, a storage area for the count data 2700 is secured in the storage device 2500 and its value is cleared to zero. The count data 2700 is composed of a plurality of count data [m] assigned to each of the original images [m] 1110,
Further, the count data [m] is composed of count data [m] [s, t] assigned to all pixels [s, t] of the original image [m] 1110.
【0022】カウントデータ[m][s,t]は、画素[m][s,t]
と対応する画素が、原画像[m]1110以外の原画像1
100にいくつあるかを数えるのに使用するデータであ
る。処理ステップ1910において原画像[m]1110
を外部記憶装置2300から記憶装置1800に読み込
む。処理ステップ1945によって成される処理制御の
各ループにおいて、変数mの値は変化しない。処理ステ
ップ1915において原画像[n]1110を外部記憶装
置2300から記憶装置2500に読み込む。処理ステ
ップ1940によって成される各処理制御のループにお
いて変数nの値は変化しない。処理ステップ1920に
おいて対応データ[m,n]1210を外部記憶装置230
0から記憶装置2500に読み込む。処理ステップ19
25において、画素[m][s,t]と対応する画素[n][u,v]が
存在するかを対応データ[m,n][s,t]を用いて調べる。処
理ステップ1935によって成される各処理制御のルー
プにおいて変数s,t,u,vの値は変化しない。The count data [m] [s, t] is a pixel [m] [s, t]
Is the original image 1 other than the original image [m] 1110
Data used to count how many are in 100. In processing step 1910, the original image [m] 1110
From the external storage device 2300 to the storage device 1800. In each loop of the processing control performed by the processing step 1945, the value of the variable m does not change. In processing step 1915, the original image [n] 1110 is read from the external storage device 2300 to the storage device 2500. The value of the variable n does not change in each processing control loop performed by the processing step 1940. In processing step 1920, the corresponding data [m, n] 1210 is stored in the external storage device 230.
0 is read into the storage device 2500. Processing step 19
At 25, it is checked whether the pixel [n] [u, v] corresponding to the pixel [m] [s, t] exists using the corresponding data [m, n] [s, t]. In each processing control loop formed by the processing step 1935, the values of the variables s, t, u, and v do not change.
【0023】対応する画素[n][u,v]が存在する場合には
処理ステップ1930に処理制御を移す。対応する画素
[n][u,v]が存在しない場合には、処理ステップ1935
に処理制御を移す。処理ステップ1930において、カ
ウントデータ[n][u,v]の値を1増やす。処理ステップ1
935において、原画像[m]1110の全ての画素[s,t]
に対して処理ステップ1925から処理ステップ193
5までを繰り返す。処理ステップ1940において、原
画像[m]1110以外の全ての原画像[n]1110に対し
て、処理ステップ1915から処理ステップ1940ま
でを繰り返す。処理ステップ1945において全ての原
画像[m]1110に対して、処理ステップ1910から
1945までを繰り返す。処理ステップ1948におい
て合成データ1600の記憶エリアを記憶装置2500
に確保する。合成データは1600は、それぞれの原画
像[m]1110ごとに割り当てた合成データ[m]1610
から構成し、さらに合成データ[m]1610は、全ての
画素[m][s,t]ごとに割り当てられた合成データ[m][s,t]
から構成する。If the corresponding pixel [n] [u, v] exists, the control is transferred to the processing step 1930. Corresponding pixel
If [n] [u, v] does not exist, processing step 1935
Transfer processing control to. In processing step 1930, the value of count data [n] [u, v] is increased by one. Processing Step 1
At 935, all pixels [s, t] of the original image [m] 1110
From processing step 1925 to processing step 193
Repeat up to 5. In processing step 1940, processing steps 1915 to 1940 are repeated for all original images [n] 1110 other than original image [m] 1110. In processing step 1945, processing steps 1910 to 1945 are repeated for all original images [m] 1110. In processing step 1948, the storage area of combined data 1600 is stored in storage device 2500.
To secure. The synthesized data 1600 is the synthesized data [m] 1610 allocated to each original image [m] 1110.
, And the combined data [m] 1610 is composed data [m] [s, t] assigned to all pixels [m] [s, t].
It consists of.
【0024】合成データ[m][s,t]の値は、Xmin( Xmin=0
)からXmax( Xmax > 0 )までの値をとり、特に合成デー
タ[m][s,t]の値がXminとなった場合は、画素[m][s,t]が
合成画像生成処理1700において不要であることを示
す。処理ステップ1950において、画素[m][s,t]に対
応する画素[n][u,v]が存在するかを対応データ[m,n][s,
t]を用いて調べる。処理ステップ1980によって成さ
れる処理制御の各ループにおいて変数mの値は変化しな
い。処理ステップ1975によって成される処理制御の
各ループにおいて変数s,tの値は変化しない。処理ステ
ップ1960によって成される処理制御の各ループにお
いて変数n,u,vの値は変化しない。処理ステップ195
5においてカウントデータ[m][s,t]の値がカウントデー
タ[n][u,v]の値以下であるを調べ、カウントデータ[n]
[u,v]の値以下の場合は処理制御を1960に移す。そ
うでない場合は処理制御を1970に移す。処理制御1
960において、原画像[m]1110以外の全ての原画
像[n]1110に対して処理ステップ1950から処理
ステップ1960までを繰り返す。処理ステップ196
5において、画素[m][s,t]の合成データの値にXmax( Xm
ax>0 ) をセットする。処理ステップ1970において
画素[m][s,t]の合成データの値にXmin( Xmin=0) をセ
ットする。処理ステップ1975において、原画像[m]
1110の全ての画素[s,t]に対して処理ステップ19
50から処理ステップ1975までを繰り返す。処理ス
テップ1980において全ての原画像[m]1110に対
して処理ステップ1950から処理ステップ1980ま
でを繰り返す。The value of the synthesized data [m] [s, t] is Xmin (Xmin = 0
) To Xmax (Xmax> 0), and especially when the value of the composite data [m] [s, t] is Xmin, the pixel [m] [s, t] is subjected to the composite image generation processing 1700. Indicates that it is unnecessary. In processing step 1950, it is determined whether a pixel [n] [u, v] corresponding to the pixel [m] [s, t] exists or not by corresponding data [m, n] [s,
Check using [t]. The value of the variable m does not change in each loop of the processing control performed in the processing step 1980. In each loop of the process control performed by the process step 1975, the values of the variables s and t do not change. In each loop of the processing control performed by the processing step 1960, the values of the variables n, u, and v do not change. Processing Step 195
In step 5, it is checked whether the value of the count data [m] [s, t] is equal to or less than the value of the count data [n] [u, v].
If it is equal to or less than the value of [u, v], the process control is shifted to 1960. Otherwise, the process control is transferred to 1970. Processing control 1
At 960, processing steps 1950 to 1960 are repeated for all original images [n] 1110 other than original image [m] 1110. Processing Step 196
5, the value of the composite data of the pixel [m] [s, t] is Xmax (Xm
ax> 0) is set. In processing step 1970, Xmin (Xmin = 0) is set to the value of the composite data of the pixel [m] [s, t]. In processing step 1975, the original image [m]
Processing step 19 for all pixels [s, t] of 1110
Steps 50 to 1975 are repeated. In processing step 1980, processing steps 1950 to 1980 are repeated for all original images [m] 1110.
【0025】以下、色の混合割合決定処理1310の処
理手順について図5を用いて詳しく述べる。処理ステッ
プ1315において、合成データ[O]( O=M+1 )を記憶す
る記憶エリアを記憶装置2500に確保する。合成デー
タ[O]は、合成データ[m]1610を一時的に保持するデ
ータである。処理ステップ1317において、合成デー
タ[m][s,t]近傍において平滑化処理(コンピュータ画像
処理入門、田村秀行監修、日本工業技術センター編)を
行い、その結果を合成データ[O][s,t]に書き込む。平滑
化処理とは、例えば合成データ[m][s,t]の値と合成デー
タ[m][s,t]に隣接する合成データ( 合成データ[m][s-1,
t-1]...合成データ[m][s+1,t+1] )の平均を求める処理
である。処理ステップ1327によって成される処理制
御の各ループにおいて変数mの値は変化しない。The processing procedure of the color mixture ratio determination processing 1310 will be described below in detail with reference to FIG. In processing step 1315, a storage area for storing the combined data [O] (O = M + 1) is secured in the storage device 2500. The composite data [O] is data that temporarily holds the composite data [m] 1610. In processing step 1317, a smoothing process (introduction to computer image processing, supervised by Hideyuki Tamura, edited by Japan Industrial Technology Center) is performed near the synthesized data [m] [s, t], and the result is converted to synthesized data [O] [s, t]. The smoothing process means, for example, the value of the synthesized data [m] [s, t] and the synthesized data adjacent to the synthesized data [m] [s, t] (the synthesized data [m] [s-1,
t-1] ... This is a process for calculating the average of the combined data [m] [s + 1, t + 1]). The value of the variable m does not change in each loop of the processing control performed in the processing step 1327.
【0026】処理ステップ1320によって成される処
理制御の各ループにおいて変数s,tの値は変化しな
い。処理ステップ1320において原画像[m]111
0の全ての画素[s,t]に対して処理ステップ1317か
ら処理ステップ1320までを繰り返す。処理ステップ
1323において合成データ[O]の全ての値を、合成デ
ータ[m]にコピーする。処理ステップ1325におい
て、処理ステップ1317から処理ステップ1325ま
でをI回繰り返す。定数Iは任意の定数であり、定数Iの
値を大きくすると、合成画像1800の異なる原画像1
100から生成される映像の接続部分において色を混合
する範囲が広くなる。The values of the variables s and t do not change in each loop of the processing control performed in the processing step 1320. In processing step 1320, the original image [m] 111
Processing steps 1317 to 1320 are repeated for all pixels [s, t] of 0. In processing step 1323, all the values of the composite data [O] are copied to the composite data [m]. In processing step 1325, processing steps 1317 to 1325 are repeated I times. The constant I is an arbitrary constant. When the value of the constant I is increased, a different original image 1
The range in which colors are mixed in the connection portion of the image generated from the image 100 is widened.
【0027】処理ステップ1327において全ての原画
像[m]1110に対して処理ステップ1317から処理
ステップ1327までを繰り返す。以上の処理ステップ
により生成した合成データ1600で、合成画像180
0の異なる原画像1100から合成された映像間の接続
部分において色の混合割合が連続的に変化する原理につ
いて図9を用いて述べる。In processing step 1327, processing steps 1317 to 1327 are repeated for all original images [m] 1110. The synthesized data 1600 generated by the above processing steps is used to generate a synthesized image 180
The principle that the mixing ratio of colors changes continuously at the connection portion between images synthesized from 0 different original images 1100 will be described with reference to FIG.
【0028】以下、本具体例を単純化するため、原画像
の枚数は2枚(M=2)で、原画像の大きさは6×1(S
=6、T=1)で、それぞれの原画像において、同じ位
置の画素どうしが対応するものとし、最大の画素判別処
理1900のより、左半分の3つの画素については原画
像[0]1110の映像の方が大きいく、右半分の3つの
画素については原画像[1]1110の映像の方が大きい
と判別したとする。またXmaxの値は9とする。色の混合
割合決定処理1310を行う前における合成データ[0]
1610の値は値9210であり、合成データ[1]16
10の値は値9710である。ここで画素[0][s,t]の色
の混合割合(割合[0][s,t]とする)を下記の式により求め
るとし、割合[0][s,t] = 合成データ[0][s,t]÷(合成デ
ータ[0][s,t]+合成データ[n][s,t])画素[1][s,t]の色
の混合割合(割合[1][s,t]とする) を下記の式により求
めるとすると、割合[1][s,t] = 合成データ[1][s,t]÷
(合成データ[0][s,t]+合成データ[n][s,t])色の混合割
合決定処理1310前における原画像[0]1110の各
画素の色を混合する割合は割合9100で、原画像[1]
1110の各画素の色を混合する割合は割合9600と
なり、画素[0][3,1]と画素[1][4,1]の色が違う場合に
は、接続部分において色が不連続に変化する。ここで図
中の割合の表示はパーセント表示である。Hereinafter, in order to simplify this example, the number of original images is two (M = 2) and the size of the original image is 6 × 1 (S
= 6, T = 1), the pixels at the same position correspond to each other in each original image, and three pixels in the left half of the original image [0] It is assumed that it is determined that the video is larger and the video of the original image [1] 1110 is larger for the three pixels in the right half. The value of Xmax is set to 9. Synthetic data [0] before performing color mixing ratio determination processing 1310
The value of 1610 is a value 9210, and the composite data [1] 16
The value of 10 is the value 9710. Here, it is assumed that the mixing ratio of the color of the pixel [0] [s, t] (referred to as a ratio [0] [s, t]) is obtained by the following equation, and the ratio [0] [s, t] = synthesized data [ 0] [s, t] ÷ (combined data [0] [s, t] + combined data [n] [s, t]) Pixel [1] [s, t] mixture ratio (ratio [1] [s, t]) is obtained by the following equation, the ratio [1] [s, t] = synthesized data [1] [s, t] ÷
(Synthesized data [0] [s, t] + Synthesized data [n] [s, t]) The ratio of mixing the color of each pixel of the original image [0] 1110 before the color mixing ratio determination processing 1310 is 9100. And the original image [1]
The ratio of mixing the colors of the pixels of 1110 is 9600. If the colors of the pixels [0] [3,1] and the pixels [1] [4,1] are different, the colors are discontinuous at the connection part. Change. Here, the display of the ratio in the figure is a percentage display.
【0029】次に色の混合割合決定処理1310におい
て、合成データ[0]1610、合成データ[1]1610の全
ての値に対して処理ステップ1317の平滑処理を2回
繰り返した場合(I=2の場合)について述べる。まず
合成データ[0]1610の全ての値に対して平滑処理を
1回適用した結果、合成データ[0]1610の値は値9
220になる(各合成データ[0][s,t]の新しい値は、そ
の合成データの値と左右の合成データの値の平均であ
る)。合成データ[1]1610の値も同様にして値97
20になる。さらに平滑処理を再度繰り返して合成デー
タ[0]の値は値9230となり、合成データ[1]の値は値
9730となる。結果として色の混合割合決定処理13
10後における原画像[0]1110の各画素の色を混合
する割合は9300で、原画像[1]1110の各画素の
色を混合する割合は9800となる。接続部分におい
て、色を混合する割合が原画像[0]1110から原画像
[1]1110へ徐々に変化しており、繋ぎめの不連続性
が削減できることがわかる。Next, in the color mixture ratio determination processing 1310, when the smoothing processing of the processing step 1317 is repeated twice for all the values of the composite data [0] 1610 and the composite data [1] 1610 (I = 2) Is described). First, as a result of applying the smoothing processing once to all the values of the composite data [0] 1610, the value of the composite data [0] 1610 becomes 9
220 (the new value of each composite data [0] [s, t] is the average of the value of the composite data and the value of the left and right composite data). Similarly, the value of synthesized data [1] 1610 is 97
It becomes 20. Further, by repeating the smoothing process again, the value of the combined data [0] becomes 9230, and the value of the combined data [1] becomes 9730. As a result, color mixture ratio determination processing 13
The ratio of mixing the color of each pixel of the original image [0] 1110 after 10 is 9300, and the ratio of mixing the color of each pixel of the original image [1] 1110 is 9800. In the connection part, the ratio of mixing colors is from the original image [0] 1110 to the original image
[1] It gradually changes to 1110, and it can be seen that the discontinuity of the connection can be reduced.
【0030】以下、冗長なデータ判別処理1360の処
理手順について図6を用いて詳しく述べる。処理ステッ
プ1635において合成データ[m][s,t]の値がXminであ
るか調べる。Xminの場合は、処理制御を処理ステップ1
367に移す。Xminでない場合は、処理制御を処理ステ
ップ1373に移す。処理ステップ1375によって成
される各ループにおいて変数mの値は変化しない。処理
ステップ1373によって成される各ループにおいて変
数s,tの値は変化しない。処理ステップ1367におい
て画素[m][s,t]を削除する。Hereinafter, the processing procedure of the redundant data determination processing 1360 will be described in detail with reference to FIG. In processing step 1635, it is checked whether or not the value of the composite data [m] [s, t] is Xmin. In the case of Xmin, the processing control is performed in processing step 1
Transfer to 367. If it is not Xmin, the process control moves to a process step 1373. In each loop formed by the processing step 1375, the value of the variable m does not change. In each loop formed by the processing step 1373, the values of the variables s and t do not change. In processing step 1367, the pixel [m] [s, t] is deleted.
【0031】処理ステップ1370において対応データ
[m,n][s,t]を削除する。処理ステップ1371におい
て、原画像[m]1110以外の全ての原画像[n]1110
に対して処理ステップ1370から処理ステップ137
1までを繰り返す。処理ステップ1373において原画
像[m]の全ての画素[s,t]に対して、処理ステップ136
5から処理ステップ1373までを繰り返す。処理ステ
ップ1375において全ての原画像[m]1110に対し
て処理ステップ1365から処理ステップ1375まで
を繰り返す。処理ステップ1377において、原画像1
100を原画像’1400として外部記憶装置2300
に書き出す。処理ステップ1380において、対応デー
タ1200を変形データ’1500として外部記憶装置
2300に書き出す。処理ステップ1383において、
合成データ1600を外部記憶装置2300に書き出
す。At processing step 1370, the corresponding data
Delete [m, n] [s, t]. In processing step 1371, all original images [n] 1110 other than original image [m] 1110
From processing step 1370 to processing step 137
Repeat up to 1. In processing step 1373, processing step 136 is performed on all pixels [s, t] of the original image [m].
5 to processing step 1373 are repeated. In processing step 1375, processing steps 1365 to 1375 are repeated for all original images [m] 1110. In processing step 1377, the original image 1
100 as an original image '1400 and an external storage device 2300
Write out. In processing step 1380, correspondence data 1200 is written to external storage device 2300 as deformed data '1500. In processing step 1383,
The combined data 1600 is written to the external storage device 2300.
【0032】以下、合成画像生成処理手順について図7
を用いて詳しく述べる。処理ステップ1705において
外部から合成画像1800を生成する視点位置を示す視
点位置パラメータの入力を受ける。処理ステップ171
0において、重みデータの記憶エリアを記憶装置250
0に確保し初期化する。重みデータは合成画像1800
の画素[w,x]( 1≦w≦S, 1≦x≦T )ごとに割り当てられ
た重みデータ[w,x]から構成する。重みデータ[w,x]は、
既に合成画像の画素[w,x]に混合された原画像1100
の画素の重みの合計を保持するデータである。重みデー
タ[w,x]の値は初期値として全て0をセットする。処理ス
テップ1713において、原画像’[m]1410を外部
記憶装置2300から記憶装置2500に読み込む。The procedure of the composite image generation process will now be described with reference to FIG.
This will be described in detail. In processing step 1705, a viewpoint position parameter indicating the viewpoint position at which the composite image 1800 is generated is received from outside. Processing step 171
0, the storage area of the weight data is stored in the storage device 250.
Reserved to 0 and initialized. The weight data is the synthesized image 1800
And weight data [w, x] assigned to each pixel [w, x] (1 ≦ w ≦ S, 1 ≦ x ≦ T). The weight data [w, x] is
Original image 1100 already mixed with pixel [w, x] of the composite image
Is the data that holds the sum of the pixel weights. The values of the weight data [w, x] are all set to 0 as initial values. In processing step 1713, the original image '[m] 1410 is read from the external storage device 2300 to the storage device 2500.
【0033】処理ステップ1770によって成される各
ループにおいて変数mの値は変化しない。処理ステップ
1715において、合成データ[m]1610を外部記憶
装置2300から記憶装置2500に読み込む。処理ス
テップ1718において、対応データ’[m,n]1510
を外部記憶装置2300から記憶装置2500に読み込
む。処理ステップ1719において、原画像’[m]14
10以外のすべての原画像’[n]1410に対して、処
理ステップ1718から処理ステップ1719までを繰
り返す。In each loop formed by the processing step 1770, the value of the variable m does not change. In processing step 1715, the combined data [m] 1610 is read from the external storage device 2300 to the storage device 2500. In processing step 1718, the corresponding data '[m, n] 1510
From the external storage device 2300 to the storage device 2500. In processing step 1719, the original image '[m] 14
Processing steps 1718 to 1719 are repeated for all original images' [n] 1410 other than 10.
【0034】処理ステップ1720において、合成デー
タ[m][s,t]の値がXminよりも大きいか調べる。Xminより
も大きい場合には、処理ステップ1730に処理制御を
移す。Xminの場合は処理ステップ1760に処理制御を
移す。At processing step 1720, it is checked whether or not the value of the composite data [m] [s, t] is larger than Xmin. If it is larger than Xmin, the processing control is shifted to the processing step 1730. In the case of Xmin, the processing control is shifted to the processing step 1760.
【0035】処理ステップ1760によって成される各
ループにおいて変数s,tの値は変化しない。処理ステッ
プ1730において、原画像’[m]1410の画素[s,t]
の合成画像1800における画素[w,x]の位置を求め
る。画素[w,x]の位置の求め方は、通常のモーフィング
技術による場合と同じであり、視点位置パラメータと対
応データ’1500により決定する。処理ステップ17
30から処理ステップ1750に至るまで変数w,xの値
は変化しない。In each loop formed by the processing step 1760, the values of the variables s and t do not change. In processing step 1730, pixel [s, t] of original image '[m] 1410
The position of the pixel [w, x] in the composite image 1800 is calculated. The method of obtaining the position of the pixel [w, x] is the same as that in the case of the normal morphing technique, and is determined by the viewpoint position parameter and the corresponding data '1500. Processing step 17
From 30 to processing step 1750, the values of the variables w and x do not change.
【0036】処理ステップ1740において、合成画像
1800の画素[w,x]の色と原画像’[m]1410の画素
[s,t]の色を混合して、新たな合成画像1800の画素
[w,x]の色を計算する。合成画像1800の画素[w,x]の
色をC1、原画像’[m]1410の画素[s,t]の色をC2、重
みデータ[w,x]の値をW1合成データ[m][s,t]の値をW2と
すると、新たな合成画像1800の画素[w,x]の色C3
は、C3 = (C1×W1+C2×W2)÷(W1+W2) で求める。処理
ステップ1750において、重みデータ[w,x]の値を、
重みデータ[w,x]の値と合成データ[m][s,t]の値を加え
た値に更新する。In processing step 1740, the color of pixel [w, x] of composite image 1800 and the pixel of original image '[m] 1410
Mix the colors of [s, t] and add new pixels
Calculate the color of [w, x]. The color of the pixel [w, x] of the composite image 1800 is C1, the color of the pixel [s, t] of the original image '[m] 1410 is C2, and the value of the weight data [w, x] is W1 composite data [m]. Assuming that the value of [s, t] is W2, the color C3 of the pixel [w, x] of the new composite image 1800
Is obtained by C3 = (C1 × W1 + C2 × W2) ÷ (W1 + W2). In processing step 1750, the value of the weight data [w, x] is
The value is updated by adding the value of the weight data [w, x] and the value of the composite data [m] [s, t].
【0037】処理ステップ1760において原画像[m]
1110の全ての画素[s,t]に対して、処理ステップ1
720から処理ステップ1760までを繰り返す。処理
ステップ1770において、全ての原画像[m]1110
に対して処理ステップ1120から処理ステップ177
0までを繰り返す。In processing step 1760, the original image [m]
Processing step 1 for all pixels [s, t] of 1110
Steps 720 to 1760 are repeated. In processing step 1770, all original images [m] 1110
From processing step 1120 to processing step 177
Repeat until 0.
【0038】以下、第1の実施形態についてまとめる。
第1の実施形態では、合成画像生成処理1700の前処
理1300として、最大の画像判別処理1900と色の
混合割合決定処理1310と冗長なデータ判別処理13
60からなる合成データ生成処理1300を行う。最大
の画像判別処理1900を行うことで、原画像1100
に写る各物体についてどの原画像1100の映像にその
物体が一番大きく写っているか判別する。色の混合割合
決定処理1310を行うことで、合成画像1800にお
いて異なる原画像1100から合成された映像間の不連
続な色の変化を軽減し、繋ぎめを目立たなくする。冗長
なデータ判別処理1360を行うことで、合成画像18
00を合成するのに不必要な、原画像1100の部分と
初期変形データ1200の部分を削除する。合成画像生
成処理1700では、前処理1300の出力結果である
原画像’1400、対応データ’1500、合成データ
1600を用いて合成画像1600を生成する。Hereinafter, the first embodiment will be summarized.
In the first embodiment, as the preprocessing 1300 of the composite image generation processing 1700, the maximum image determination processing 1900, the color mixture ratio determination processing 1310, and the redundant data determination processing 1310
A composite data generation process 1300 comprising 60 is performed. By performing the maximum image discrimination processing 1900, the original image 1100
Then, it is determined which original image 1100 has the largest image of each object shown in FIG. By performing the color mixture ratio determination processing 1310, discontinuous color changes between videos synthesized from different original images 1100 in the synthesized image 1800 are reduced, and the connection is made inconspicuous. By performing the redundant data determination processing 1360, the synthesized image 18
The portion of the original image 1100 and the portion of the initial deformation data 1200 that are unnecessary for synthesizing 00 are deleted. In the composite image generation processing 1700, a composite image 1600 is generated using the original image '1400, the corresponding data' 1500, and the composite data 1600, which are the output results of the preprocessing 1300.
【0039】以下、本発明の第2の実施形態について詳
細に説明する。第2の実施形態のシステム構成は図7に
示すように、サーバ8100とクライアント8200
を、広域データ転送路であるネットワーク8300を用
いて接続する。サーバ8100は、ネットワーク830
0を介してクライアント8200と通信を行う通信装置
8110と、前処理1300(a)を実行する処理装置
8120と、原画像1100と、対応データ1200
と、合成データ1600と、カウントデータ2700と
を一時的に保持する記憶装置8130と、外部記憶装置
2300を、データ転送路であるバス8140を用い接
続する。クライアント8200は、ネットワーク830
0を用いてサーバ8100と通信を行う通信装置821
0と、表示装置2100と、合成画像生成処理1700
(a)を実行する処理装置8220と、入力装置220
0と、記憶装置2500を、データ転送路であるバス8
220を用い接続する。Hereinafter, a second embodiment of the present invention will be described in detail. As shown in FIG. 7, the system configuration of the second embodiment includes a server 8100 and a client 8200.
Are connected using a network 8300 which is a wide area data transfer path. The server 8100 is connected to the network 830
0, a communication device 8110 that performs communication with the client 8200 via the communication device 0, a processing device 8120 that performs the preprocessing 1300 (a), the original image 1100, and the corresponding data 1200.
And a storage device 8130 for temporarily storing the synthesized data 1600 and the count data 2700 and an external storage device 2300 using a bus 8140 which is a data transfer path. The client 8200 is connected to the network 830
Communication device 821 that communicates with server 8100 using 0
0, display device 2100, and composite image generation processing 1700
A processing device 8220 for executing (a), and an input device 220
0 and the storage device 2500 are connected to the bus 8 which is a data transfer path.
Connect using 220.
【0040】サーバ8100において、合成データ生成
処理1300(a)を実行する。合成データ生成処理1
300(a)は、合成データ生成処理1300に変更を
加えたもので、その相違点は合成データ生成処理130
0では記憶装置が記憶装置1800であったのに対し、
合成データ生成処理1300(a)では記憶装置812
0である点である。合成画像生成処理1700(a)
は、合成画像生成処理1700を変更したもので、その
相違点は合成画像生成処理1700において記憶装置2
500と外部記憶装置2300の間のデータ通信はバス
2600を介して行っていたのに対し、加工画像生成処
理1700(a)ではバス8140、通信装置811
0、ネットワーク8300、通信装置8210、バス8
220を介してデータ通信を行う点である。The server 8100 executes the synthetic data generation processing 1300 (a). Synthetic data generation processing 1
300 (a) is a modified version of the synthetic data generation process 1300.
In 0, the storage device was the storage device 1800, whereas
In the combined data generation processing 1300 (a), the storage device 812
0. Synthetic image generation processing 1700 (a)
Is a modification of the composite image generation processing 1700. The difference is that the storage device 2
The data communication between the external storage device 500 and the external storage device 2300 is performed via the bus 2600, whereas the processed image generation processing 1700 (a) uses the bus 8140 and the communication device 811
0, network 8300, communication device 8210, bus 8
The point is that data communication is performed via 220.
【0041】以下、第2の実施形態についてまとめる。
第2の実施形態では、原画像’1400と、対応デー
タ’1500と、合成データ1600をサーバ8100
で作成し、保持する。クライアント8200において、
合成画像1800の作成要求があると、サーバ8100
で作成した、原画像’1400と、対応データ’150
0と、合成データ1600を、サーバ8100の外部記
憶装置2300から、クライアント8200の記憶装置
2800に転送し、クライアント8200の処理装置8
220で合成画像生成処理1700(a)実行して、合
成画像1800を生成する。Hereinafter, the second embodiment will be summarized.
In the second embodiment, the server 8100 stores the original image '1400, the corresponding data' 1500, and the combined data 1600.
Create and hold in. In the client 8200,
When there is a request to create the composite image 1800, the server 8100
Original image '1400 and corresponding data' 150 created in
0 and the combined data 1600 from the external storage device 2300 of the server 8100 to the storage device 2800 of the client 8200, and
At step 220, a composite image generation process 1700 (a) is executed to generate a composite image 1800.
【0042】[0042]
【発明の効果】以上述べたように本発明によれば、ある
複数の視点から撮影あるいは描かれた原画像をもとに他
視点から見た合成画像を生成する画像処理において、各
物体について一番大きく写っている原画像を判別し、各
物体について一番大きく写っている原画像のみから、合
成画像におけるその物体の映像を生成するようにしたの
で、従来のワーピング技術やモーフィング技術により合
成画像を生成する画像処理方法と比較して、詳細かつ鮮
明な合成画像が生成可能な画像処理方法が提供できる。As described above, according to the present invention, in image processing for generating a composite image viewed from another viewpoint based on an original image photographed or drawn from a plurality of viewpoints, one object is processed. The largest original image is determined, and only the largest original image of each object is used to generate an image of that object in the composite image. An image processing method capable of generating a detailed and clear composite image can be provided as compared with an image processing method for generating a composite image.
【0043】さらに、合成画像において、異なる原画像
から生成された映像間の接続部分において、一方の原画
像の色から他方の原画像の色へ色を混合する割合を連続
的に変化するようにしたので、接続部分を目立たなくす
る画像処理方法が提供できる。さらに、合成画像を合成
するのに不必要となる原画像の部分と、対応データの部
分とを示すデータを用意したので、合成画像を生成する
処理において不必要な原画像に対して変形処理および混
合処理を行う必要がなくなり、その結果合成画像を生成
する処理の計算量が削減できる。Further, in the connection portion between the images generated from different original images in the composite image, the ratio of mixing the color of one original image to the color of the other original image is continuously changed. Therefore, it is possible to provide an image processing method that makes connection portions inconspicuous. Further, since data indicating a portion of the original image that is unnecessary for synthesizing the composite image and a portion of the corresponding data are prepared, the transformation process is performed on the original image that is unnecessary in the process of generating the composite image. It is not necessary to perform the mixing process, and as a result, the calculation amount of the process for generating the composite image can be reduced.
【0044】さらに、それぞれの物体について、一番大
きく写っている画像とその画像を変形するための対応デ
ータ以外は削除するようにしたので、合成画像を生成す
るのに必要なデータ量が削減できる。Further, for each object, the data other than the image which is shown in the largest size and the corresponding data for deforming the image are deleted, so that the amount of data required to generate the composite image can be reduced. .
【図1】第1の実施の形態の処理手順とその入出力デー
タを示す図である。FIG. 1 is a diagram showing a processing procedure and input / output data according to a first embodiment.
【図2】第1の実施形態のシステムの構成図である。FIG. 2 is a configuration diagram of a system according to a first embodiment.
【図3】第1の実施形態の最大の画像判別処理の処理手
順(前半)を示すフローチャートである。FIG. 3 is a flowchart illustrating a processing procedure (first half) of a maximum image determination processing according to the first embodiment.
【図4】第1の実施形態の最大の画像判別処理の処理手
順(後半)を示すフローチャートである。FIG. 4 is a flowchart illustrating a processing procedure (second half) of a maximum image determination processing according to the first embodiment.
【図5】第1の実施形態の色の混合割合決定処理の処理
手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure of a color mixing ratio determination process according to the first embodiment.
【図6】第1の実施形態の冗長なデータ判別処理の処理
手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a processing procedure of redundant data determination processing according to the first embodiment.
【図7】第1の実施形態の合成画像生成処理の処理手順
を示すフローチャートである。FIG. 7 is a flowchart illustrating a processing procedure of a synthetic image generation process according to the first embodiment.
【図8】第2の実施形態のシステム構成図である。FIG. 8 is a system configuration diagram of a second embodiment.
【図9】色の権号割合決定処理の効果を具体例を用いて
示した図である。FIG. 9 is a diagram showing the effect of a color right ratio determination process using a specific example.
Claims (6)
の原画像と、前記複数の原画像間において同一の物体が
それぞれの前記原画像のどの部分に写っているかあるい
は書かれているかを示す対応データから、他の視点から
見た合成画像を生成する画像処理方法において、 前記各物体ごとに一番鮮明に写っているあるいは書かれ
ている前記原画像を特定する処理ステップと、 前記特定した原画像から前記合成画像における前記各物
体の映像を合成する処理ステップを有することを特徴と
する画像処理方法。1. A plurality of original images photographed or drawn from a plurality of viewpoints, and a correspondence between the plurality of original images to indicate in which portion of each of the original images the same object is shown or written. In an image processing method for generating a composite image viewed from another viewpoint from data, a processing step of specifying the original image that is most clearly reflected or written for each of the objects, An image processing method, comprising a processing step of combining a video of each of the objects in the composite image from an image.
定ために、 前記対応データを用いて、前記各物体ごとに一番大きく
写っている前記原画像を特定する処理ステップを有する
ことを特徴とする画像処理方法。2. The method according to claim 1, wherein the correspondence data is used to identify the original image that is most clearly captured for each of the objects. An image processing method comprising a processing step of specifying an image.
接続部分の色が不連続に変化することを軽減するため
に、 前記接続部分を判別する処理ステップと、判別した接続
部分では接続する原画像の色を混合する処理ステップを
有することを特徴とする画像処理方法。3. The processing method according to claim 1, wherein in order to reduce a discontinuous change in a color of a connection portion of a video synthesized from a different original image in the video of the synthesized image, a processing step of determining the connection portion is performed. And a processing step of mixing the colors of the original images to be connected in the determined connection portion.
画像を生成するのに不必要な前記原画像の部分と前記対
応データの部分を判別することで、前記合成画像を生成
する処理の計算量を削減するために、 不必要になる前記原画像の部分と不必要になる前記変形
データを判別する処理ステップと、判別した前記不必要
になる原画像の部分と前記不必要になる対応データを少
ない計算量で検索可能にする合成データを生成する処理
ステップとを前記合成画像を生成する処理の前処理とし
て有し、 前記合成データを参照して合成画像を生成する処理ステ
ップとを有することを特徴とする画像処理方法。4. The method according to claim 1, wherein, prior to the process of generating the composite image, a portion of the original image and a portion of the corresponding data that are unnecessary for generating the composite image are determined in advance. A processing step of discriminating the unnecessary part of the original image and the unnecessary deformation data in order to reduce the calculation amount of the processing of generating the composite image; and the discriminated part of the unnecessary original image. And a processing step of generating composite data that enables the unnecessary corresponding data to be searched with a small amount of calculation as pre-processing of the processing of generating the composite image. And a processing step of generating.
と前記対応データの部分を削除することで前記合成画像
を合成する際に必要なデータ量を削減するために、 不必要になる前記原画像の部分と不必要になる前記変形
データを判別する処理ステップと、 不必要になる前記原画像の部分と不必要になる前記変形
データを削除する処理ステップとを前記画像を生成する
処理の前処理として有することを特徴とする画像処理方
法。5. The data amount required for synthesizing the composite image by deleting a portion of the original image and a portion of the corresponding data which are unnecessary for synthesizing the composite image according to claim 1. A processing step of determining a portion of the original image that becomes unnecessary and the deformed data that becomes unnecessary, and a process of deleting the part of the original image that becomes unnecessary and the deformed data that becomes unnecessary. And a step as a pre-process of a process of generating the image.
記憶する手段と、 前記各物体ごとに一番鮮明に写っている前記原画像を特
定する処理ステップと前記特定した原画像から前記合成
画像を生成する手段と、 生成した前記合成画像を表示する手段とを有することを
特徴とする画像処理装置。6. A means for storing the plurality of original images and the corresponding data; a processing step for identifying the original image most clearly captured for each of the objects; An image processing apparatus comprising: means for generating a composite image; and means for displaying the generated composite image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9425198A JPH11296692A (en) | 1998-04-07 | 1998-04-07 | Image processing method and its device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9425198A JPH11296692A (en) | 1998-04-07 | 1998-04-07 | Image processing method and its device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11296692A true JPH11296692A (en) | 1999-10-29 |
Family
ID=14105090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9425198A Pending JPH11296692A (en) | 1998-04-07 | 1998-04-07 | Image processing method and its device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11296692A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019023993A1 (en) * | 2017-08-02 | 2019-02-07 | 深圳传音通讯有限公司 | Method and device for processing photograph of intelligent terminal |
-
1998
- 1998-04-07 JP JP9425198A patent/JPH11296692A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019023993A1 (en) * | 2017-08-02 | 2019-02-07 | 深圳传音通讯有限公司 | Method and device for processing photograph of intelligent terminal |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5577175A (en) | 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation | |
US6717586B2 (en) | Apparatus, method, program code, and storage medium for image processing | |
CN109771951B (en) | Game map generation method, device, storage medium and electronic equipment | |
US5745668A (en) | Example-based image analysis and synthesis using pixelwise correspondence | |
US6362833B2 (en) | Method and apparatus for progressively constructing a series of morphs between two-dimensional or three-dimensional models | |
CN109583509B (en) | Data generation method and device and electronic equipment | |
CN112419170A (en) | Method for training occlusion detection model and method for beautifying face image | |
US7038679B2 (en) | Three dimensional rendering including motion sorting | |
US7440613B2 (en) | Binary mask interpolation | |
CN112184585B (en) | Image completion method and system based on semantic edge fusion | |
JP2006505870A (en) | Non-linear motion model and method and apparatus for extracting moving boundary | |
US5666472A (en) | Image processing apparatus and method for generating polygons for use in rendering an object | |
EP0596667B1 (en) | Processing image data | |
Takai et al. | Harmonised texture mapping | |
JPH0997347A (en) | Video generating device | |
JPH11296692A (en) | Image processing method and its device | |
US5619626A (en) | Processing image data | |
Khan et al. | Automatic Control Point Selection System based Anthropomorphic Animal Face Masking | |
CN110889889A (en) | Oblique photography modeling data generation method applied to immersive display equipment | |
CN111626935B (en) | Pixel map scaling method, game content generation method and device | |
CN117808949B (en) | Scene rendering method | |
CN118314254A (en) | Dynamic 3D target modeling and dynamic 3D object modeling method and device | |
JP2987564B2 (en) | 3D video data conversion method | |
JP2001155167A (en) | Method and device for dividng area, and storage medium | |
CN116095515A (en) | Dynamic display method and device for static image and storage medium |