JPH04205275A - Synthesis of image and formation of character font - Google Patents

Synthesis of image and formation of character font

Info

Publication number
JPH04205275A
JPH04205275A JP2330712A JP33071290A JPH04205275A JP H04205275 A JPH04205275 A JP H04205275A JP 2330712 A JP2330712 A JP 2330712A JP 33071290 A JP33071290 A JP 33071290A JP H04205275 A JPH04205275 A JP H04205275A
Authority
JP
Japan
Prior art keywords
image
background image
superimposed
mask
digitally represented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2330712A
Other languages
Japanese (ja)
Other versions
JP2888375B2 (en
Inventor
Makoto Kato
誠 加藤
Shinichiro Miyaoka
宮岡 伸一郎
Makoto Nomi
能見 誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2330712A priority Critical patent/JP2888375B2/en
Publication of JPH04205275A publication Critical patent/JPH04205275A/en
Application granted granted Critical
Publication of JP2888375B2 publication Critical patent/JP2888375B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To allow the exact adjustment of the size of a superposing image by previously setting three-dimensional position information on the object appearing in a background image and automatically calculating the magnification ratio and reduction ratio of the superposing image from the two-dimensional position in the background image. CONSTITUTION:The superposing image is automatically magnified or reduced to the size suitable for the superposing position thereof and is synthesized by superposition when the superposition place (superposing position) is assigned by using the three-dimensional information applied in the background image. The synthesized images superposed with the superposing image in the state of having a natural perspective feel on the background image is automatically obtd. in this way without making laborious operation. The labor for assigning the magnification ratio and reduction ratio at every time of changing the position of the superposed image, changing its layout, etc., is eliminated.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、デザインシミュレーション等に用いられる画
像同士の重畳合成を行う画像合成方法と、その特別な場
合として任意の大きさ形状の文字フォントを作る文字フ
ォント生成方法に関する。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to an image synthesis method for superimposing images used in design simulation, etc., and as a special case, a method for synthesizing character fonts of arbitrary size and shape. Concerning how to generate character fonts.

〔従来の技術〕[Conventional technology]

従来、ディジタル画像の1i畳合成処理は、基本的に次
の+l)〜(3)の手順で行われていたう(1)背景画
像と重畳画像(゛背景画像に重畳されるべき画像)を準
備する。例えば、背景画像器よU@量であり、重畳画像
は自動車の画像である。
Conventionally, 1i-fold compositing processing of digital images has basically been performed in the following steps from +l) to (3). prepare. For example, the background imager is a U@ quantity, and the superimposed image is an image of a car.

(2)重畳画像中で、ある領域を分離する (この領域
をマスクと称する)0例えば、自動1の部分だけ切り離
す。このためには1色情報などを利用する方法、操作者
が輪郭を1画素ずつ指定する方法などがある。
(2) Separate a certain area in the superimposed image (This area is called a mask) 0 For example, only the automatic 1 part is separated. For this purpose, there are methods such as using one-color information, and a method in which the operator specifies the outline pixel by pixel.

(3)重畳画像中の切り出された領域を背後画像中に重
ねるため、以下の(a)〜(C1の操作を行う。
(3) In order to overlap the cut out area in the superimposed image on the background image, perform the following operations (a) to (C1).

(al  重ねる位置の指定 背景画像のi行j列成分を^ (i、j)、重畳画像の
i行j列成分を8 い、j)、合成結果(合成画像)の
i行j列成分をC(i、j’)とする、これらの成分は
、画像がカラー画像と考え、赤緑青の3成分で表現され
ているものとする(例えば、A (i、  j)の3成
分はそれぞれAr  (i。
(al) Specify the overlapping position to specify the i-row, j-column component of the background image (i, j), the i-row, j-column component of the superimposed image to 8, j), Assume that the image is a color image and is represented by the three components of red, green, and blue (for example, the three components of A (i, j) are each represented by Ar (i.

j)、、Ag  (i、j)、Ab  (i、j)とす
る)。
j), , Ag (i, j), Ab (i, j)).

重ねる位置を指定する手法としては、重畳画像のある一
つの画素が背景画像中でどこに位置するかを指定するこ
とが一般的である。すなわち、B(11,3I)が、A
(io、JO)に重なることとして、l、、j+、jc
++  joを指定する。
A common method for specifying the superimposed position is to specify where one pixel of the superimposed image is located in the background image. That is, B(11,3I) becomes A
As overlapping with (io, JO), l,,j+,jc
++ Specify jo.

(bl  拡大縮小率の指定 背景画像に重畳画像をそのまま重ねたのでは、大きさが
合わない場合が殆どである。そこで、重畳画像を拡大縮
小して調整する。具体的には、重畳画像をa倍にして重
ねるとしたならば次の通りである。
(bl Specify the scaling ratio If you simply superimpose the superimposed image on the background image, the size will not match in most cases.Therefore, adjust the superimposed image by scaling it.Specifically, the superimposed image If it is multiplied by a and overlapped, the result is as follows.

C(i 0+i、jo+ j)= ただし、B’  (x、y)はx、yが整数値でないた
め、重畳画像の周辺の画素の値を補間したものである。
C(i 0+i, jo+ j)= However, since x and y are not integer values, B' (x, y) is obtained by interpolating the values of pixels around the superimposed image.

代表的なものは双線形補間であり、次の式で表される。A typical example is bilinear interpolation, which is expressed by the following formula.

B’(x、y)− (fx1+ 1−xl((y”、+ 1−ylB(ニー
、xl、 [yj ’r十(1−xj +1−xHy 
−(y’、IB(CX〕、[y3 −? l)+(x−
[xi )(ry’)+ I−y)B(〔xl + l
、Iy” )+(x−jxl )(y−Cy’、>(B
(jxl + I、rye、” H・・・(21 ’x]はガうス記号であり、Xを超えない整数を害す。
B'(x, y) - (fx1+ 1-xl((y", + 1-ylB(nee, xl, [yj 'r ten(1-xj + 1-xHy
−(y', IB(CX), [y3 −? l)+(x−
[xi)(ry')+I-y)B([xl+l
,Iy”)+(x-jxl)(y-Cy',>(B
(jxl + I, rye, "H... (21 'x] is a Gaussian symbol, which harms integers not exceeding X.

tta  切り出された領域の色調の調整背景画像と重
畳画像は異なった日賦条件、照明条件のもと盪影されて
いるので、そのまま合成したのでは、色調が異なるため
違和感が生しる。そこて、重畳画像または背景画像を階
!11変換して色調を調整する0通常、赤緑青の3成分
をそれぞれ0から255の256階調で合計1670万
色で表している。g*w4変換では、赤緑青の3成分に
つき、0から255を定義域及び値域とする変換関数で
それぞれ変換をする。変換関数をFr、Fg、Fb、変
換後の画素をC′で表す。
tta Adjusting the tone of the cut out area The background image and the superimposed image are shadowed under different solar and lighting conditions, so if they were combined as they were, the tone would be different and it would look strange. Then, add the superimposed image or background image! 11 Conversion to adjust color tone 0 Normally, the three components of red, green, and blue are each expressed in 256 gradations from 0 to 255, with a total of 16.7 million colors. In the g*w4 conversion, each of the three components red, green, and blue is converted using a conversion function whose domain and value range are from 0 to 255. The conversion functions are represented by Fr, Fg, and Fb, and the pixel after conversion is represented by C'.

Cr’(’IJ)− ・Fr(Cr’ (i 、j))  マスクの内側’C
r’(i、j)  マスクの外側 ・・・(3ン緑、青
も同様である。
Cr'('IJ)- Fr(Cr' (i, j)) Inside the mask 'C
r'(i,j) Outside the mask...(The same applies to green and blue.

以上の位置指定、拡大縮小率指定2色調の調整は対話的
に行うのが通常である。
The above-mentioned position designation, scaling ratio designation, and two-tone adjustment are usually performed interactively.

ここで、マスクの表現方法について説明する。Here, the method of expressing the mask will be explained.

従来用いられているマスクの表現には、ビットマツプ表
現とアウトライン表現があり、ビットマツプ表現にはア
ルファマスクと呼ばれる特別なものもある。これについ
ては、安斎利洋により、こグラフィックデザイナ−のた
めのディジタルペインティング入門(3)」と題し、r
PIXEL隘84J pp、181−184 (以下「
文献IJという)に述べられている。
Conventionally used mask expressions include bitmap expression and outline expression, and there is also a special bitmap expression called alpha mask. This is written by Toshihiro Anzai in his book titled ``Introduction to Digital Painting for Graphic Designers (3)''.
PIXEL 嚘84J pp, 181-184 (hereinafter “
Reference IJ).

ビットマツプ表現では、マスクを2値画像として表す。Bitmap representation represents a mask as a binary image.

即ち、典型的にはマスクの内側の画素がl、外側の画素
がOとする。これを多値、あるいは、実数にしたのがア
ルファマスクである。、典型的な場合として、0から1
の間の実数αで表現をした場合には1.これをα(i、
j)とかくと、C(i、j)=(1−α)A(i、j)
+αR(f、j)・・・(4)と合成画像が計算される
。例えば、αを0.5にすれば、背景画像と重畳画像の
両方が重なって見えるわけである。そこで1.透明物体
を重畳する場合や、重畳するものの輪郭付近が透けてみ
えるようにしておくと、重畳合成による不自然さを軽減
できる場合に使用されている。アウトライン表現では、
輪郭を点列で表す、この点列を例えば曲線で滑らかにつ
なぐことに1よりできる傾城の内側をマスクと定めて用
いる。
That is, typically, the pixels inside the mask are 1 and the pixels outside the mask are 0. Alpha mask is a multivalued or real number version of this. , typically from 0 to 1
When expressed as a real number α between 1. Let this be α(i,
j) Then, C(i,j)=(1-α)A(i,j)
+αR(f,j)...(4) A composite image is calculated. For example, if α is set to 0.5, both the background image and the superimposed image will appear to overlap. So 1. It is used when superimposing transparent objects, or when making the outline of the object visible to reduce the unnaturalness caused by superimposition. In outline representation,
The contour is represented by a series of dots, and the inside of the slope created by smoothly connecting the series of dots with, for example, a curved line is defined as a mask and used.

また、重畳するものを背景画像中にあるもののかげに配
置したい場合がある。これは、例えば、背景画像が街灯
の立っている街角の画像であったとき、重畳画像から切
り出された自動車を街灯の後側においた合成画像を作成
したい場合である。
Furthermore, there are cases where it is desired to place the object to be superimposed behind something in the background image. This is the case, for example, when the background image is an image of a street corner with a streetlight, and it is desired to create a composite image in which a car cut out from the superimposed image is placed behind the streetlight.

これを行うためには、自動車及び街灯のマスクがそれぞ
れ作成されていることが前提となる。通常、2通りの方
法がある。第1の方法は重畳操作を2回行うものであり
、最初に自動車を背景画像中に重畳する。この段階では
、街灯は自動車のしたにある。次に街灯を最初からあっ
た位置に重畳合成する。この段階で自動車は街灯のかげ
に来る。第2の方法は、画像中の各マスク領域に深さ方
向の順序関係を定義して1暎に重ねていくというもので
ある。背景画像の街灯以外の部分を一番下、自動車をそ
の次、街灯が一番上となるように下から重ねていく。
In order to do this, it is assumed that masks for cars and streetlights have been created respectively. There are usually two methods. In the first method, the superimposition operation is performed twice, and first the car is superimposed on the background image. At this stage, the street lights are below the cars. Next, the streetlights are superimposed and synthesized at their original positions. At this stage the car is behind a street light. The second method is to define an order relationship in the depth direction for each mask area in the image and overlap them in one image. The parts of the background image other than the streetlights are placed at the bottom, the cars next, and the streetlights at the top, starting from the bottom.

ここで、背景画像を白一色、重畳画像を黒一色、マスク
が文字パターンを表すようにすると、画像合成は文字フ
ォントを印字する問題と同一になる。
Here, if the background image is made to be solid white, the superimposed image is made to be solid black, and the mask represents a character pattern, image synthesis becomes the same problem as printing a character font.

ビットマツプマスクを用いると、ビットマツプフォント
になり、アウトラインマスクを用いるとアウトラインフ
ォントになる。アウトラインフォントは、拡大縮小して
も輪郭のぎざぎざ(ジャギーと言う)が生しないという
特徴がある。これについては、前用守編集、丸善刊、1
−ワークステーションJ 、p、[43からρ、+98
 、(s’A90)<以F’−文献2Jという)に述べ
られている。
Using a bitmap mask will result in a bitmap font, and using an outline mask will result in an outline font. Outline fonts have the characteristic that they do not produce jagged edges (also known as jaggies) even when enlarged or reduced. Regarding this, edited by Maeyoumori, published by Maruzen, 1
- Workstation J, p, [43 to ρ, +98
, (s'A90) <hereinafter referred to as F'-Reference 2J).

r発明が解決しようとする課題) ト記文献1の従来技術では、次のような問題点がある。(Problem to be solved by the invention) The prior art disclosed in Document 1 has the following problems.

第1の問題点は、背景画像に肘する重畳画像の奥行方向
の距#(遠近)に応した大きさとなるように、重畳画像
の大きさを1Eftに調整する(正確に距離感を出す)
ことが困難であり、合成後の画像中での重畳した画像の
大きさが不正確でも絵が出来てしまうことである。また
、レイアウトを変えるたび、位置、拡大縮小率1階調の
総てを指定する手間が大であることである。
The first problem is to adjust the size of the superimposed image to 1Eft so that the size corresponds to the distance # (perspective) in the depth direction of the superimposed image that touches the background image (accurate sense of distance).
This is difficult, and a picture can still be created even if the size of the superimposed images in the combined image is inaccurate. Further, each time the layout is changed, it takes a lot of effort to specify all the positions and scaling ratios of one gradation.

第2の問題点は、画像を重畳合成する際に、拡大縮小を
して大きさを調整するが、ビットマツプマスクを拡大す
ると、輪郭にジャギー(ぎざぎざ)が生じ、縮小すると
髪の毛のような細い部・パの太さが不自然になったり、
消えてしまったりすることである。
The second problem is that when images are superimposed and combined, they are scaled to adjust the size, but when the bitmap mask is scaled up, jaggies appear in the outline, and when it is scaled down, it becomes thin like hair. The thickness of the buttocks and pads may become unnatural,
It may disappear.

第3の問題点としては、マスクを広げたり、狭めたりす
る手間が大であることである。また、マスクを1画素ず
つ外側二こ膨らませたり削ったりする、膨潤または収縮
処理で、マスクを広げたり、狭めたりすることがある。
The third problem is that it takes a lot of effort to widen and narrow the mask. In addition, the mask may be widened or narrowed by swelling or shrinking processing in which the mask is expanded or shaved outward two pixels at a time.

例えば、人物の肌の部分は実際よりも内側に輪郭修正し
、衣服の部分は実際より外側に輪郭修正するなど、重畳
画像の場所によって、輪郭修正量を異なるようにした方
が自然な輪郭が得られる場合がある。しかし、従来技術
では、全ての輪郭部分に対して同じ大きさだけ変化させ
るので輪郭が不自然になるという問題点があった。
For example, it is better to vary the amount of contour correction depending on the location of the superimposed image, such as modifying the contour of a person's skin to be more inward than it actually is, and modifying the contour of clothing to be more outward than it actually is. You may be able to get it. However, the conventional technique has a problem in that the contours become unnatural because all the contours are changed by the same amount.

第4の問題点としては、マスク領域に対し、奥行方向の
順序関係を定義している場合、これは実際の距離に対応
しないので拡大縮小率と順序関係が対応せず、ちくはく
になるという問題点があった。
The fourth problem is that when an ordering relationship in the depth direction is defined for the mask area, this does not correspond to the actual distance, so the scaling ratio and ordering relationship do not correspond, and it becomes a bit choppy. There was a problem.

第5の問題点としては、重畳画像中の影などの微妙な濃
淡がある場合には、窓を通した半透明合成を行らフル7
アマスうでは不自然i(+@界が生してしまうという、
:とかある、 また、ト記文献2のt字つオント↓こ関する従来技術に
おいては、アウトラインフォントは4大きな叶イスに拡
大したときには綿が細く見えてしまうという問題へがあ
った。#L純に文字フォントを太くするボールド指定な
どは全ての画を一様にとくしてしまうため、微妙な7オ
ノト形状を表甲できないのでこの問題点は解決されてい
ない。
The fifth problem is that when there are subtle shadings such as shadows in the superimposed image, semitransparent compositing through a window cannot be performed at full 7
It is said that unnatural i (+@ world will come to life in Amasu)
: etc. Also, in the conventional technology related to the t-character tsuonto ↓ in Reference 2, there was a problem that when the outline font was expanded to 4 large fonts, the cotton would look thin. #L Bold designation, which simply makes the character font thicker, cuts out all the strokes uniformly, making it impossible to display the delicate 7-onoto shape, so this problem has not been resolved.

従って、本発明の目的は、ト記第1ないし第5の問題点
を解決した画像合成か法を提(共するごとにある。すな
わち、第1に、合成後の画像中で重畳画像の大きさが実
際の喫行きC深さ方向距離)に対応した遠近間のあるも
のとされ、また、重畳画像の位置の変更等、レイアウト
を変える際に、位置、拡大縮小率、 vkJのすべてを
いちいち指定する手間が省けるようにする。i2に、重
畳合成の場合、重畳画像を拡大縮小して適正な大きさに
調整するときに、ビットマ゛ンフ゛マス力自体イカ所要
の拡大縮小率(適正な大きさを得るのに必要な拡大縮小
率を小さく抑えることにより、ビットマツプマスクの拡
大の際に輪郭にジャギーが生じるのを防止し、ビットマ
ツプマスクの縮小の際に細い部分の太さが不自然になっ
たり消えたりするこ1とがないようにする。第3に、マ
スクの膨潤処理や収縮処理が容易で、その処理によって
輪郭の不自然さをなくするようにする。第4に、マスク
間の順序関係と拡大縮小率とを必ず対応させ、その間に
矛盾が生じないようにする。第5に、重畳画像中に影な
どの微妙な濃淡がある場合、合成画像でもその濃淡を不
自然でなく表現できるようにする。
Therefore, an object of the present invention is to provide an image synthesis method that solves the problems No. 1 to No. When changing the layout, such as changing the position of the superimposed image, the position, scaling ratio, and vkJ must be adjusted one by one. To save you the trouble of specifying. i2, in the case of superimposition compositing, when adjusting the superimposed image to an appropriate size by scaling it up or down, the bit magnification force itself is equivalent to the required scaling rate (scaling rate necessary to obtain the appropriate size). By keeping the bitmap mask small, jaggies can be prevented from occurring in the outline when the bitmap mask is enlarged, and the thickness of thin parts can be prevented from becoming unnatural or disappearing when the bitmap mask is being reduced. Thirdly, the mask should be easily swollen and contracted to eliminate unnatural contours.Fourthly, the order relationship between masks and the scaling ratio should be Make sure that they correspond to each other so that there are no contradictions between them.Fifth, if there are subtle shadings such as shadows in the superimposed image, the shading should be able to be expressed without being unnatural in the composite image.

本発明の他の目的は、文字フォントの大きさを拡大また
は縮小した場合に、文字の大きさに比べて線の太さが不
自然に細くなったり線が消えたすせず、文字の大きさに
適合した太さの文字フォントが容易に得られる文字フォ
ントの生成方法を提供することにある。
Another object of the present invention is to prevent the line thickness from becoming unnaturally thin or disappearing compared to the character size when the character font size is enlarged or reduced. To provide a method for generating a character font by which a character font having a thickness suitable for the characters can be easily obtained.

〔課題を解決するための手段〕[Means to solve the problem]

上記第1の目的を達成するため、本発明の画像合成方法
は、背景画像中に表れている物(地形。
In order to achieve the above-mentioned first object, the image synthesis method of the present invention uses objects (topography) appearing in the background image.

物体等)に関する3次元の位置情報、及び、視点の位置
情報を予め設定しておき、また、重畳画像の大きさも設
定し、ここで背景画像中の(2次元的な)重畳位置が指
定されると、(この重畳位置での背景物体の実際の深さ
方向すなわち奥行方向の位置に適合する大きさの重畳画
像が得られるように、)この背景画像中の2次元的位置
と前記設定された大きさの重畳画像の拡大縮小率との関
係を用いることにより、拡大縮小率が自動的に計算され
るように構成する。また、逆に、前記拡大縮小率が指定
されると、(それによって大きさの決まる重畳画像の)
重畳可能な位置を限定するように構成する。
The three-dimensional position information regarding the object (object, etc.) and the position information of the viewpoint are set in advance, and the size of the superimposed image is also set, and the (two-dimensional) superimposed position in the background image is specified here. Then, the two-dimensional position in this background image and the above settings are determined (so that a superimposed image of a size that matches the actual depth direction, that is, the position of the background object at this superimposed position in the depth direction) is obtained. The enlargement/reduction ratio is automatically calculated by using the relationship between the enlargement/reduction ratio of the superimposed image and the size of the superimposed image. Conversely, if the scaling ratio is specified, (of the superimposed image whose size is determined by it)
It is configured to limit the positions that can be superimposed.

更に、大気の光吸収スペクトル(赤緑青の各色の吸収率
特性)を指定することにより、(及び、前記のように、
位置、拡大縮小率が指定され結果的に背景画像中の重畳
の深さが指定されることにより、その深さ位置での)大
気の吸収による色変化を計算し階調を調整するように構
成する。
Furthermore, by specifying the atmospheric light absorption spectrum (absorption rate characteristics of each color of red, green, and blue) (and as mentioned above,
By specifying the position and scaling ratio and, as a result, specifying the depth of superimposition in the background image, it is configured to calculate the color change due to atmospheric absorption (at that depth position) and adjust the gradation. do.

上記第2の目的を達成するため、本発明の画像合成方法
は、複数個の大きさの異なるビットマツプマスク、また
は、アウトラインマスクを用い、選択じて用いることに
したものである。ここで、それぞれのビットマツプマス
クは拡大縮小した倍率の異なる重畳画像の切り出し対象
を表すものである。
In order to achieve the second object, the image synthesis method of the present invention uses a plurality of bitmap masks or outline masks of different sizes and selectively uses them. Here, each bitmap mask represents a cutout target of a superimposed image that has been enlarged or reduced at a different magnification.

複数のビットマツプマスクを用いる場合には、例えば、
合成に際して指定された拡大縮小率に最も近い倍率の重
畳画像から作成されたビットマツプマスクを指定値まで
拡大縮小して合成処理を行う。
For example, when using multiple bitmap masks,
A bitmap mask created from a superimposed image with a magnification closest to the enlargement/reduction ratio specified at the time of synthesis is enlarged/reduced to a specified value, and synthesis processing is performed.

アウトラインマスクとビットマツプマスクを用いる場合
には、ビットマツプマスクは縮小した重畳画像について
作っておく。合成処理に際して、指定された縮小率が大
きい場合にはビットマツプマスクを用い、それ以外の場
合にはアウトラインマスクを用いる。ここで、「縮小率
が大きい」とは、拡大縮小の結果の画像が小さくなる場
合、「拡大率が大きい」とは、拡大縮小の結果の画像が
大きくなる場合、「拡大率または縮小率が太きい」とは
、その両方を含む場合(もとの大きさに比べて拡大また
は縮小した後の大きさに大きな変化があった場合)をい
う。
When using an outline mask and a bitmap mask, the bitmap mask is created for the reduced superimposed image. During compositing processing, a bitmap mask is used if the specified reduction rate is large, and an outline mask is used otherwise. Here, "the reduction ratio is large" means that the image as a result of scaling becomes small. "Thick" refers to a case that includes both (a case where there is a large change in the size after enlargement or reduction compared to the original size).

上記第3の目的を達成するため、本発明の画像合成方法
は、任意の位置を通っである決まった方向に平行な平面
で切った断面(太さ方向で切った断面)が常に位相幾何
学的に等しいチューブ状の立体を準備し、重畳画像の一
部の領域を指定するマスクを、所定の位置を通り前記平
面に平行な切断平面によ灼定義することを特徴とする。
In order to achieve the third objective, the image synthesis method of the present invention is such that a cross section (cross section cut in the thickness direction) cut along a plane passing through an arbitrary position and parallel to a certain direction always has topological geometry. The present invention is characterized in that a tube-shaped solid body having the same surface area is prepared, and a mask that specifies a part of the superimposed image is defined by a cutting plane that passes through a predetermined position and is parallel to the plane.

本発明では、このマスクをサーフイスマスクと呼ぶ。こ
のチューブ状の立体は、切断する位置を順に変えて行く
につれて、前記断面の面積(チューブ状の立体の太さ)
が単調に増加し、または減少するように構成し、平面を
上下に平行移動することにより (切断する位置を変え
ることにより)マスクの大きさを変化させ調整するよう
にすることができる。
In the present invention, this mask is referred to as a surface mask. The area of the cross section (thickness of the tubular solid) increases as the cutting position of this tubular solid changes in order.
It is possible to configure the mask so that it monotonically increases or decreases, and to change and adjust the size of the mask by moving the plane vertically in parallel (by changing the cutting position).

、上記第4の目的を達成するため、本発明の画像合成方
法は、−f景画像及び重畳画像を小領域に分け、それら
の小領域に対するマスク間に、単なる順序関係を示す情
報だけでなく、各々のマスクの深さに相当する情報(奥
行情報)を持たせ、順序関係と拡大縮小率が矛盾しない
ようにしたことを特徴とする。
, In order to achieve the above fourth objective, the image synthesis method of the present invention divides the f-view image and the superimposed image into small regions, and provides not only information indicating a mere order relationship between masks for these small regions. , is characterized by having information (depth information) corresponding to the depth of each mask so that the order relationship and scaling ratio do not conflict.

上記第5の目的を達成するため、本発明の画像合成方法
は、重畳合成後の画像濃度を、同じ場所(対応する場所
)の重量画像の画像濃度と背景画像の画像濃度の積を場
所によらない定数(例えば、重畳画面中の比較的明るい
所の画像濃度。基準濃度)で割った値とすることを特徴
とする。
In order to achieve the fifth object, the image compositing method of the present invention calculates the image density after superimposition by using the product of the image density of the weighted image and the image density of the background image at the same location (corresponding location). It is characterized in that it is a value divided by a constant that does not depend on the image density (for example, the image density of a relatively bright area in the superimposed screen; the reference density).

上記性の目的を達成するため、本発明の文字フォント生
成方法は、切断する位置によって切断面の大きさくチュ
ーブ状の立体の太さ)の変わるチューブ状の立体を準備
し、このチューブ状の立体をある位置で太さ方向に切断
して生成される切断平面の大きさ(太さ)及び形状によ
り、文字フォントを定義することを特徴とする。本発明
では、この文字フォントをサーフイスフォントと呼ぶ。
In order to achieve the above object, the character font generation method of the present invention prepares a tubular solid whose cut surface size and thickness of the tubular solid change depending on the cutting position, and A character font is defined by the size (thickness) and shape of a cutting plane generated by cutting the font at a certain position in the thickness direction. In the present invention, this character font is called a surface font.

このチューブ状の立体は、3次元の点の位置とこわらの
点間を補間する曲面とにより定義することができ、例え
ば、上底及び下底の2つの底面と一両底面間を補間する
曲面とで定義するこ乏ができる。チューブ状の立体の切
断平面は、その切断(つ置が変ると、文字サイズと字画
(各字画の′Ja)の太さが変わるようになっている。
This tubular solid can be defined by the positions of three-dimensional points and a curved surface that interpolates between the stiff points. For example, two bases, an upper base and a lower base, and a curved surface that interpolates between the two bases. There is a lack of definition. The cutting plane of the tube-shaped solid is such that when its cutting (positioning) changes, the character size and the thickness of the strokes ('Ja of each stroke) change.

すなわち、その切断位置により、文字サイズか央まろと
共に1.この文字サイズに適した字画の太さも同時に決
まる文字フォントを生成するように構成されている。
In other words, depending on the cutting position, the character size is 1. The system is configured to generate a character font whose stroke thickness is determined at the same time as appropriate for the character size.

チューブ状の立体の典型的な構造として、上底面及び下
底面間の輪郭を、異なるポイントのアウトラインフォン
ト、とする錐状に構成することができる。
As a typical structure of a tubular solid, the contour between the upper base surface and the lower base surface can be configured in the shape of a cone with an outline font of different points.

〔作 用〕[For production]

上記構成に基づ(作用を説明する。 Based on the above configuration (the operation will be explained).

上記第1の目的を達成するための手段によれば、画像に
3次元位置情11(3次元構造)及び視点情報を設定し
、画像中の各画素の位置において、画面に直交する方向
の深さを計算することができる。
According to the means for achieving the first object, three-dimensional position information 11 (three-dimensional structure) and viewpoint information are set in the image, and the depth in the direction perpendicular to the screen is set at the position of each pixel in the image. can be calculated.

即ち、画面中に水平方向にX軸、鉛直方向にy軸、画面
に直交する奥行方向(深さ方向)にZ軸を設定する。長
さの単位は、x−y平面上の画像の画素のピッチをもっ
て単位長さとなるように定義する。視点をVp  (x
o 、  )’o 、  Zo ) 、画像の表示面(
x −y平面)上のある画素をP  (x、 。
That is, the X-axis is set in the horizontal direction on the screen, the y-axis is set in the vertical direction, and the Z-axis is set in the depth direction (depth direction) perpendicular to the screen. The unit of length is defined as the pitch of pixels of an image on the xy plane. The viewpoint is Vp (x
o, )'o, Zo), image display surface (
P (x, ).

yr、o)、画像中にある表面Sを表す式をy−f  
(x、z)とする。ここでは、視点VpはX−y平面(
Pによる面)よりも手前にあり、表面Sはx−y平面よ
りも後方にあるとする。p、Vpを通る直線lがSと交
わる点をQ (Xz 、  3’z 。
yr, o), and the expression representing the surface S in the image is y−f
Let it be (x, z). Here, the viewpoint Vp is the X-y plane (
It is assumed that the surface S is located in front of the plane P) and the surface S is located behind the x-y plane. The point where the straight line l passing through p and Vp intersects with S is Q (Xz, 3'z.

z2)とすると、 Y+  +t  (Y+   3’o)=f  (x+
  +t  (x+  −xo)+−tzo)   −
(6)これば一般には数値的に解かれるが、特に、表面
Sか平面であり、r  (x、  z、) =ax+b
、ニーCで表されるときには【2ま次のようにl郵る。
z2), then Y+ +t (Y+ 3'o)=f (x+
+t (x+ -xo)+-tzo) -
(6) This can generally be solved numerically, but in particular, if the surface S is a plane, r (x, z,) = ax + b
, when expressed as knee C, [2 is written as follows.

L= laX、fC−V、)/ Dr   −y e      a   (Xt   
   Xo   )   I−b  lo   )  
 −+71Fili慄の面(x−y平面)から画像中の
表面までの深さはPQであられされるか、そn、をd 
 (x。
L= laX, fC-V, )/ Dr -y e a (Xt
Xo) I-b lo)
-+71Fili The depth from the plane of fear (x-y plane) to the surface in the image is defined by PQ, so n, is d
(x.

yr):x書くと次の通りである。yr): When written as x, it is as follows.

d  (x、y)= 視点からの距離はVp Sであるが、これをe(x、y
)と書くと、次のよ・)になる。
d (x, y)= The distance from the viewpoint is Vp S, which can be expressed as e(x, y
), it becomes the following yo・).

e  (x、  y)= これらの計算により、重畳合成する対象物が画像中の表
面上にあると仮定すれば、画像上の場所に対して深さd
が決まる。また、これを逆に解くことにより、深さdを
決めれば画像上の位11P(x+ 、Y+ 、O)を限
定することができる。具体的には、d、xo、yo、f
  (x、y)が与えられたものとして、式(6)と式
(8)を用いてX、とy。
e (x, y) = Through these calculations, assuming that the object to be superimposed and synthesized is on the surface of the image, the depth d is calculated relative to the location on the image.
is decided. Also, by solving this problem in reverse, if the depth d is determined, the positions 11P (x+, Y+, O) on the image can be limited. Specifically, d, xo, yo, f
Assuming that (x, y) is given, use equation (6) and equation (8) to calculate X, and y.

の方程式を得る。このようにして、表面Sは、視点Vp
から見た画像としてx−y平面(表示面)上に投影され
ることになる。表面Sが平面の場合にはその方程式は次
のようになる。
Obtain the equation of In this way, the surface S is the viewpoint Vp
The image will be projected onto the x-y plane (display surface) as an image viewed from. When the surface S is a plane, the equation becomes as follows.

” ()’+ −’10  a(Xt   Xo ) 
+ b 20 ) ”= (a xl  +c  Y+
 )2rcXI   X。)”” (yr   )’o
 )”+ Zo” )      ・・・・・・0ωま
た、同じ長さのものであっても、遠くなれば小さく見え
るわけで、x−y平面Fでpの長さをもったものは、深
さdの場所では、次のように縮んで見える。
” ()'+ -'10 a(Xt Xo)
+ b 20 ) ”= (a xl +c Y+
)2rcXI X. )”” (yr )'o
)”+Zo”) ...0ωAlso, even if objects are the same length, the farther away they are, the smaller they appear; therefore, an object with a length of p in the x-y plane F will look smaller in depth. At location d, it appears shrunken as shown below.

p ’−p−e(x、y)y’ (+1(x、y)+e
(x、y)l −・QB即ち1重畳合成するものの画像
、ヒの場所が指定されれば、それをどれだけ拡大縮小し
たらいいかという拡大縮小率か決まる。逆に、重畳合成
する物体の大きさが指定されれば、両像ヒにt!合成で
きる場所が限定される。
p'-pe(x,y)y'(+1(x,y)+e
(x,y)l-.QB, that is, once the location of the image to be superimposed and synthesized is specified, the scaling ratio of how much it should be scaled is determined. Conversely, if the size of the object to be superimposed is specified, t! The places where it can be synthesized are limited.

さらに、大気の色の吸収率が指定されている場合には1
.深さに対応じてどれだけ色が変化するかが決まる。即
ち、単純に光の赤緑青の成分が単位長さ進んだとき透過
する割合をγr、γg、γbとすると、最初、Ar  
(X、V)、Ag  (x、V)。
Furthermore, if the atmospheric color absorption rate is specified, 1
.. How much the color changes is determined by depth. That is, if we simply let γr, γg, and γb be the transmission ratios of red, green, and blue components of light when they travel by unit length, then at first Ar
(X, V), Ag (x, V).

Ab (x、y)であった各色成分は、深さdだけ透過
後、それぞれ次のAr’(x、y)、Ag’(x、y)
、Ab’(x、y)のようになる。
Each color component that was Ab (x, y) becomes the next Ar' (x, y), Ag' (x, y) after passing through the depth d.
, Ab'(x, y).

Ar’(x、  y)=rr’  Ar(x、  y)
  )Ag ’(x、y)=rg’  Ag(x、y)
  f−CJ2Ab’(x、  y)=rb’  Ab
(x、  y)  ′逆二二、この吸収後の色Ar’、
Ag’、Ab’を指定すると、深さdが決まる。また、
重畳位置と深さの関係も用いると、重畳位置と吸収後の
色も関係づけられる。また、このγr5 γg、γbは
、雨の日1晴れの日などの天候うこより典型的なものを
指定することができる。これを予め記憶させておけば、
色吸収率の数値を指定せず、天候だけ指定すれば同様に
色調を変化させることが出来る。
Ar'(x, y)=rr' Ar(x, y)
)Ag'(x,y)=rg'Ag(x,y)
f-CJ2Ab'(x, y)=rb' Ab
(x, y) 'Reverse 22, color Ar' after this absorption,
Depth d is determined by specifying Ag' and Ab'. Also,
If the relationship between the superimposition position and the depth is also used, the superposition position and the color after absorption can also be related. Furthermore, γr5, γg, and γb can be specified to be more typical of the weather, such as a rainy day and a sunny day. If you memorize this in advance,
You can change the color tone in the same way by specifying only the weather without specifying the color absorption rate value.

上記第2の目的を達成するための手段によれば、大きさ
の異なる複数のビットマツプマスクを用いる場合には、
マスクを拡大または縮小する拡大率または縮小率が小さ
くなるので、ジャギーの度合いが小さくなる。また、ア
ウトラインマスクとビットマツプマスクを用いる場合に
は、細い輪郭パターンを縮小したりする場合以外にはア
ウトラインマスクは概ね良好な結果を与え、縮小率が大
きい場合にはビットマツプマスクを用いる。二の使い分
けにより、ジャギーが少なくなる。
According to the means for achieving the second object, when using a plurality of bitmap masks of different sizes,
Since the magnification or reduction ratio for enlarging or contracting the mask becomes smaller, the degree of jaggies becomes smaller. Furthermore, when using an outline mask and a bitmap mask, the outline mask generally gives good results except when reducing a thin outline pattern, and the bitmap mask is used when the reduction ratio is large. By using the two properly, there will be less jaggies.

上記第3の目的を達成するための手段であるサーフイス
マスクによれば、チューフ゛の各断面の大きさを任意に
定義できるので、例えば、輪郭のうち非常に明確なとこ
ろは膨らませたり削ったすせず、かつ、輪郭が不明iな
場所は膨らませたり削るというようなマスクの変形を、
チューブを切断する平面をヒ下させる、といら開学な指
定だけでできることになる。
According to the surface mask, which is a means to achieve the third objective, the size of each cross section of the tube can be arbitrarily defined, so for example, a very clear outline can be bulged or shaved. The mask is deformed by inflating or shaving areas where the outline is unclear.
This can be done by simply specifying that the plane on which the tube will be cut be lowered.

上記第4の目的を達成するための手段によれば、マスク
間の順序関係と拡大縮小率を同じ深さ情報で計算するの
で、これらが矛盾する1−とはない。
According to the means for achieving the fourth object, since the order relationship between masks and the scaling ratio are calculated using the same depth information, there is no 1- which contradicts them.

1記第5の目的を達成するための手段によれば、影とい
うものは光源と物体の間に遮るものがあり入射光量が減
少したということにより生成するという事実を忠実に模
倣し、影の部分の画像温度に比例した量を背景画像に棄
するので自然な合成画像が得られる。
According to the means for achieving the fifth objective of item 1, the shadow is created by faithfully imitating the fact that a shadow is generated when there is an obstruction between a light source and an object, reducing the amount of incident light. Since an amount proportional to the image temperature of a portion is discarded to the background image, a natural composite image can be obtained.

また0文字フォントに関する問題点を解決するための手
段であるサーフイスフォントによれば、チューブの各断
面により実現されるアウトラインフォントの各字画の太
さを変えておく。この結果、チューブを切断する平面を
一ヒトさせるだけで、字画の太さを変えることができる
ので 大きいポイントのフォントでも適切なフォントに
することができる。このフォントを基準にしてボールド
やイタτ1ツクなどの措定も可能である。
Furthermore, according to the surface font, which is a means for solving the problems associated with the zero character font, the thickness of each stroke of an outline font realized by each cross section of the tube is changed. As a result, the thickness of the strokes can be changed just by changing the plane on which the tube is cut, so even large point fonts can be made into appropriate fonts. Based on this font, it is also possible to set bold, italic, etc.

〔実施例〕〔Example〕

C1下に、本発明の実施例を図面によって説明する。 Embodiments of the present invention will be described below with reference to the drawings.

本発明の各実施例に用いるハードウェア構成は共通であ
るので、まず、第6図のハードウェア構成図によりその
構成を説明する。
Since the hardware configuration used in each embodiment of the present invention is common, the configuration will first be explained with reference to the hardware configuration diagram in FIG.

第6図において、ハードウェア構成は、コンピュータ6
01、ディジタル化された画像を蓄えるメモリ603、
カラー画像あるいは、文字表示を行うCRT602、写
真、自然画2人口画などをディジタル画像として画像入
力し、及び画像印刷する画像入出力装置605、キーボ
ード604.ボタン607のついたマウス606より構
成されている。
In FIG. 6, the hardware configuration is computer 6.
01, memory 603 for storing digitized images;
A CRT 602 for displaying color images or characters, an image input/output device 605 for inputting digital images such as photographs, natural paintings, two-person drawings, etc., and a keyboard 604 for printing images. It consists of a mouse 606 with buttons 607 attached.

ここで、マウス606の機能について説明すると、コン
ピュータ601上の制御プログラムにより、マウス60
6で指示された平面位置に従い、CRT602上に小さ
な矢印が表示され、マウス606を動かすことにより、
操作者はこの矢印をCRT602の画面上で自由に動か
すことができる。また、マウス606上のボタン607
を押すと、CRT602上の画面中の矢印の先の位置情
報がコンピュータ601に送られ、その上で動作するソ
フトウェアで用いることができる。以下、この操作を「
ピックする」という用語を用いることにする。また、C
RT602上に表示される画像の質については、縦横1
000X1000すなわち1画面100万画素程度で、
赤緑青それぞれ256階調で合計1670万色程度のも
のが一般的であるので、本発明でもこの程度の画質のも
のを用いる。しかし、これに限定されるものではない。
Here, to explain the function of the mouse 606, the control program on the computer 601 controls the mouse 606.
A small arrow is displayed on the CRT 602 according to the plane position indicated by 6, and by moving the mouse 606,
The operator can freely move this arrow on the screen of the CRT 602. In addition, a button 607 on the mouse 606
When the button is pressed, the position information at the end of the arrow on the screen on the CRT 602 is sent to the computer 601, and can be used by software running on the computer 601. Below, this operation is
We will use the term "pick". Also, C
Regarding the quality of the image displayed on the RT602,
000x1000, or about 1 million pixels per screen,
Since a total of about 16.7 million colors with 256 gradations for each of red, green, and blue is common, the present invention also uses image quality of this level. However, it is not limited to this.

画像入出力装置605もこれに対応できるものを用いる
The image input/output device 605 is also compatible with this.

次に、本発明の第[の実施例に、よる画像合成方法を、
第1図、’!2図、第3図、第7図、第8図。
Next, in the second embodiment of the present invention, an image synthesis method according to
Figure 1, '! Figures 2, 3, 7, and 8.

′¥9図及び第10図により説明する。' This will be explained with reference to Figures 9 and 10.

第7図falと山)は、それぞれ、第1の実施例に適用
される背景画像と重畳画像を示す。
FIG. 7 (fal and mountain) respectively indicate a background image and a superimposed image applied to the first embodiment.

$1の実施例の画像合成方法は、第7図(alの青酸画
像で、手前から左上に向かって伸びる道路702の一ヒ
に第7図(h)の重畳画像における自動車703をU畳
合成する際、場所を指定したら自動的に拡大縮小率と大
気の吸収による色吸収を計算し合成画像を作成表示する
ものである。第1の実施例における処理の手順を′I#
1図、第2図、第3図に示す。
The image synthesis method of the embodiment of $1 is to combine the car 703 in the superimposed image of Fig. 7(h) with the road 702 extending from the foreground to the upper left in the cyanide image of Fig. 7(al). When a location is specified, a composite image is created and displayed by automatically calculating the scaling factor and color absorption due to atmospheric absorption.The processing steps in the first embodiment are as follows.
It is shown in Fig. 1, Fig. 2, and Fig. 3.

第1図〜第3図は、各実施例に共通する処理フロー図で
ある6第1図において、ステップ101では背1!!!
i像を入力し表示する。この例では、背景画像は$7図
181の道のあるFjA景である。ステップ102では
重畳画像を入力表示する。この例では、重畳画像は第7
図(blの自動車703の画像である。背景画像1重畳
画像とも従来技術で述べた一船釣処理手111(2)の
マスクの切り出しは既に済んでいて、その情報も同時に
入力されているものとする。この例の場合は、背景画像
中では樹木701が他の部分と区別されておりマスクが
できており、重畳画像中では自動車703のマスクが存
在するものとする。ステップ103では背景画像中に存
在する地形や物体の表面の3次元情報、視点の情報、単
位長さ、大気による色吸収率を入力する。ここで、背景
画像中の表面の3次元構造については、撮影条件、地形
の情報が知られている場合にはこれを用いるが、知られ
ていない場合には推定して用いる。
1 to 3 are process flow diagrams common to each embodiment.6 In FIG. 1, in step 101, back 1! ! !
Input and display the i-image. In this example, the background image is a FJA view with a road in the $7 diagram 181. In step 102, the superimposed image is input and displayed. In this example, the superimposed image is the seventh
This is an image of the car 703 in Figure (BL).In both the background image 1 and the superimposed image, the mask of the one-boat fishing processing operator 111 (2) described in the prior art has already been cut out, and that information is also input at the same time. In this example, it is assumed that the tree 701 is distinguished from other parts in the background image and a mask is created, and a mask of the car 703 exists in the superimposed image.In step 103, the background image is Enter the three-dimensional information of the surface of the terrain and objects that exist in the background image, the viewpoint information, the unit length, and the color absorption rate by the atmosphere.Here, regarding the three-dimensional structure of the surface in the background image, the shooting conditions, the topography, If the information is known, this is used, but if it is not known, it is estimated and used.

この例の場合、作用で述べた座標系を用いて、車道70
2はほぼ水平面にあると思われるので、表面の方程式を
y=0.視点を(500,500,−500)と推定し
て計算する。ステップ104では画像の重畳位置、拡大
縮小率等を決める。これについては、第2図で詳しく説
明する。ステップ105は合成画像の計算を行う。この
際、大気の吸収による色調の調整を行う。これについて
も第3図で詳細に説明する。ステップ106では合成画
像を表示し、必要ならばファイルに出力する。次にステ
ップ104の詳細を第2図で説明する。ステップ201
では、自動車を重畳する位1を背景画像中で指定する。
In this example, using the coordinate system described in the operation, the roadway 70
2 is considered to be on a nearly horizontal plane, so the surface equation is y=0. Calculate by estimating the viewpoint as (500, 500, -500). In step 104, the image superimposition position, enlargement/reduction ratio, etc. are determined. This will be explained in detail in FIG. Step 105 calculates a composite image. At this time, the color tone is adjusted by atmospheric absorption. This will also be explained in detail with reference to FIG. In step 106, the composite image is displayed and, if necessary, outputted to a file. Next, details of step 104 will be explained with reference to FIG. Step 201
Now, specify 1 in the background image to superimpose the car.

この実棒例ではカーソルをだし、それが自動車の中心で
あるとして指定する。ステップ202では〔作用〕で述
べたように、平面の位置、視点位置とこの自動車の中心
の位置より弐(8)を用いて、自動車のおかれる深さを
計算する。ステップ203では作用で述べたように式o
nを用いて拡大縮小率を計算する。ステップ204では
これまでの処理で決まった重畳する自動車の輪郭を背景
画像中にvA両として重畳する。第8図(alはこの様
子を表している0、二こで、第8図♂“a)は重畳値’
It七定を示し、第8図1b)は合成画像を示す。輪郭
801 と輪郭802は異なる場所(近くと遠く)に措
定された二つの場合について同じ絵の中に表したもので
ある。近くに指定した場合、合成画像は第8図(b)の
自動車803に示すようになる。ステップ205では、
この表示位置を変更するかどうかに関する分岐である。
In this example, we draw a cursor and designate it as the center of the car. In step 202, as described in [Operation], the depth at which the car is placed is calculated using the position of the plane, the viewpoint position, and the center position of the car. In step 203, as mentioned in the operation, the formula o
Calculate the scaling factor using n. In step 204, the outline of the vehicle to be superimposed, which has been determined in the processing up to now, is superimposed on the background image as a vA vehicle. Figure 8 (al is 0 and 2 representing this situation, Figure 8 ♂ "a" is the superimposed value'
Figure 8 1b) shows the composite image. Contour 801 and contour 802 represent two cases in different locations (near and far) in the same picture. If it is specified nearby, the composite image will look like the car 803 in FIG. 8(b). In step 205,
This branch is related to whether or not to change the display position.

変更する場合にはステップ201に戻る。変更しない場
合には、以上の処理で決まった、自動車の重心。
If it is to be changed, return to step 201. If not changed, the center of gravity of the car determined by the above processing.

拡大縮小率に従い、どの部分に自動車が重!されるかを
示す合成時点で用いられるマスクを計算する。つぎにス
テップ105の詳細を第3図で説明する。ステップ30
1では自動車の深さから式(2)を用いて色の吸収率を
計算する。これについてはテーブル化をして用いれば便
利である。ステップ302からは合成画像の各画素につ
いてのループである。
According to the scaling ratio, where is the car heavy? Compute a mask to be used at the time of synthesis that indicates whether Next, details of step 105 will be explained with reference to FIG. Step 30
1, the color absorption rate is calculated from the depth of the car using equation (2). It would be convenient to use a table for this purpose. From step 302, a loop is executed for each pixel of the composite image.

ステップ302では指定された画素がマスクの内側にあ
るかどうかの判定をする。指定された画素が内側にある
場合には、ステップ303に進み、重畳画像の対応点の
画素値を合成画像の画素値とする。
In step 302, it is determined whether the designated pixel is inside the mask. If the designated pixel is inside, the process advances to step 303, and the pixel value of the corresponding point in the superimposed image is set as the pixel value of the composite image.

これには式(1)2式(2)を用いる。次にステップ3
01で定められたテーブルに従い色の変換を行う (ス
テップ304)。これには、式(3)を用いる。ステッ
プ302の判定がNoであった場合には背景画像の対応
点(同じ点)の画像濃度を合成画の画像濃度とする (
ステップ305)。
Equations (1) and (2) are used for this. Next step 3
Color conversion is performed according to the table defined in 01 (step 304). Equation (3) is used for this. If the determination in step 302 is No, the image density of the corresponding point (same point) in the background image is set as the image density of the composite image (
Step 305).

この実施例では、以下に述べる追加の処理、変更を行う
ことが出来る。マスクに関しては、従来の技術で述べた
ような問題点が生じる場合があるので、課題を解決する
ための手段で述べた、第2の目的を達成するための手段
、第3の目的を達成するための手段を適用することもで
き、ジャギーの少ない高品質な合成画像を得ることが出
来る。
In this embodiment, additional processing and changes described below can be performed. Regarding masks, the problems described in the conventional technology may occur, so we will develop a means for achieving the second purpose and the third purpose described in the means for solving the problem. A high-quality composite image with less jaggies can be obtained.

すなわち、第1の手段のように、ビットマツプマスクを
複数用いるものを適用する場合は、予め、重畳画像を異
なる倍率に拡大縮小したものに灯し、それぞれマスクを
作成しておき、$2図のステップ2037計算された拡
大縮小率により、鰻も近いマスクを選んで第2図のステ
・ツブ206の合成時点のマスクを計算する。第2の手
段のように、ビ・ソトマツブマスクとアウトラインマス
クを用いる場合には、小さい画像に対してビットマツプ
マスクを作っておき、他にアウトラインマスクを準備し
That is, when applying a method that uses multiple bitmap masks as in the first method, the superimposed image is enlarged or reduced at different magnifications in advance, and masks are created for each. Step 2037: Based on the calculated scaling ratio, a mask that is close to the eel is selected, and a mask at the time of synthesis of the step 206 in FIG. 2 is calculated. When using a bitmap mask and an outline mask as in the second method, a bitmap mask is created for a small image, and an outline mask is also prepared.

チオ<、この実施例の場合はビットマツプマスクラ作っ
た縮尺の2倍程度まではビットマツプマスクを用い、そ
れ以トの場合にはアウトラインマスクを用いる。第3の
目的を達成するための手段ではサーフイスマスクを用い
る。第9図は、アウトラインマスクの一種のサーフイス
マスクの一例を示し、サーフイスマスク901 は、例
えば四角形の右側に突起があるような形状を表現するも
のである(便宜的にこれを用いているが、自動車の外形
を用いればそのままこの実施例で使用できる)。
In this embodiment, a bitmap mask is used up to about twice the scale created by the bitmap mask, and an outline mask is used beyond that. A means for achieving the third objective uses a surf mask. FIG. 9 shows an example of a surface mask, which is a type of outline mask.A surface mask 901 expresses, for example, a shape with a protrusion on the right side of a rectangle (this is used for convenience). However, if the outer shape of a car is used, it can be used as is in this example).

切断平面902のように上に近いと小さめのマスク90
3となり、切断平面904のように下に近いと大きなマ
スク905となる。
The mask 90 is smaller when it is closer to the top like the cutting plane 902.
3, and when it is close to the bottom like the cutting plane 904, it becomes a large mask 905.

また、この実施例では背景にある構造体を全く用いてい
ないがこれを用いることが出来る。即ち、第7図(al
の背景画像では樹木701とそれ以外が区別されており
、樹木のマスクが存在する。道路702を含む地表面に
は3次元情報が設定されているのであるから、この樹木
701にも深さを設定することが出来る。重畳合成に際
し、深さの指定に対して自動車703を拡大縮小するだ
けではなく、自動車をその深さに従って樹木の後に自動
的に配置することもできる。これについては、第10図
(al、 (blに示しである。第10図fa)は自動
車703を樹木701の後に配置した場合、第10図(
′b)は、逆に、自動車703を樹木701の手前に配
置した場合である。
Further, although this embodiment does not use any background structure, it can be used. That is, FIG. 7 (al
In the background image, the tree 701 and the others are distinguished, and a tree mask exists. Since three-dimensional information is set on the ground surface including the road 702, the depth can also be set for this tree 701. During superimposition synthesis, not only can the car 703 be scaled up or down in accordance with the specified depth, but also the car can be automatically placed behind the tree according to its depth. Regarding this, FIG.
'b), on the other hand, is the case where the car 703 is placed in front of the tree 701.

また、この実施例では重畳する対象に影が付いていた場
合の扱いをしていない、自動室から地面に引く影があり
、影も一緒に合成する場合に、微妙な中間調を表現する
のには、〔作用〕で述べたように、重畳後の合成画像の
画像濃度を、同じ場所の重畳画像の画像濃度と青螢画像
の1度の積を場所によらない定数で割ったものにする。
In addition, this example does not handle the case where the object to be superimposed has a shadow.There is a shadow drawn from the automatic room to the ground, and when the shadow is also composited, it is difficult to express subtle midtones. As mentioned in [Operation], the image density of the composite image after superimposition is calculated by dividing the product of the image density of the superimposed image at the same location and the blue firefly image by a constant that does not depend on the location. do.

:とで実現できる9 第11図(al〜(dlは、この重畳対象に影が付いて
いる場合の実施例の説明図で、同図(alは重畳画像、
同図(b)は前景画像、同図4dlは合成画像を示し、
同図(C)は重畳画像の画像濃度を示す、第11図(a
)の三角形の物体lllとその影112を同図ら)の背
!1m像に重畳合成する場合、影の濃淡に比例して背1
1画像を暗くすることにより、自然な影をもった合成画
像が得られる。そこで、重畳画像中で、線分M−Nの画
像srXが第11図(c+のように変化していて、その
線上の影のある位置での画像濃度をB (i。
: Figure 11 (al to (dl) is an explanatory diagram of an example in which the superimposition target has a shadow;
The figure (b) shows the foreground image, the figure 4dl shows the composite image,
FIG. 11(C) shows the image density of the superimposed image.
)'s triangular object lll and its shadow 112 in the same figure)'s back! When superimposing a 1m image, the back 1m is proportional to the shade of the shadow.
By darkening one image, a composite image with natural shadows can be obtained. Therefore, in the superimposed image, the image srX of the line segment M−N changes as shown in FIG. 11 (c+), and the image density at the position of the shadow on the line is B (i.

j)、背景画像の同じ点の画像濃度をA (i。j), and the image density of the same point in the background image is A(i.

j)、重畳画像中の基準の明るさ(比較的明るい個所で
の明るさ)をB、とすると、合成画像における同じ位置
の画像濃度C(i、j)は、次式で与えられる。
j), and assuming that the reference brightness (brightness at a relatively bright location) in the superimposed image is B, the image density C(i, j) at the same position in the composite image is given by the following equation.

次に、本発明の第2の実施例である画像合成方法の処理
につき第1図、第3図、及び第4図の処理フロー図を用
いて説明する。この実施例では重畳画像の自動車の大き
さを指定すると重畳可能な位置が自動的に限定され、こ
の中から重畳場所を選択し重畳合成処理を行うものであ
る。第1図の処理フロー図において、ステップ104以
外は第1の実施例と同じである。ステップ104の詳細
につき第4図において説明する。ステップ401におい
ては重畳画像の拡大縮小率を指定する。ステップ401
においては式+61. (81あるいは頭を用いて重畳
可能位置を計算し、背景画像とにそれを表、ボする。
Next, the processing of the image synthesis method according to the second embodiment of the present invention will be explained using the processing flow diagrams of FIGS. 1, 3, and 4. In this embodiment, when the size of the car in the superimposed image is specified, the positions where the images can be superimposed are automatically limited, and the superimposed position is selected from among these to perform the superimposition synthesis process. In the process flow diagram of FIG. 1, steps other than step 104 are the same as in the first embodiment. Details of step 104 will be explained with reference to FIG. In step 401, the enlargement/reduction ratio of the superimposed image is specified. Step 401
In the formula +61. (81 or use your head to calculate the superimposition possible position and display it on the background image.

ステップ403ではその中から重畳可能位置を指定する
。ステップ404では第2図のステップ202と同様に
深さを計算する。ステップ405からステップ407は
第2図ステップ204からステップ206と同様である
In step 403, superimposition possible positions are designated from among them. In step 404, the depth is calculated in the same way as step 202 in FIG. Steps 405 to 407 are similar to steps 204 to 206 in FIG.

次に、本発明の第3の実施例である画像合成方式につき
第1図、第3図、及び第5図の処理フロー図を用いて説
明する。この実施例では、重畳画像の大気による色吸収
の度合いを指定すると、重畳可能な位置が自動的に限定
され、その中から重畳場所を選択して重畳合成処理を行
うものである。
Next, an image synthesis method according to a third embodiment of the present invention will be explained using process flow diagrams shown in FIGS. 1, 3, and 5. In this embodiment, when the degree of color absorption by the atmosphere of a superimposed image is specified, positions where superimposition is possible are automatically limited, and a superimposition location is selected from among these to perform superimposition synthesis processing.

ステップ104の詳細については、第5図を用いて説明
する。ステップ501において色吸収による色変化を指
定する。式(2)は深ささえ決まれば単純に掛は算をす
るだけであるので、重畳画像の画像濃度を定数倍したも
のを表示して適当なものを選ぶ。
Details of step 104 will be explained using FIG. 5. In step 501, a color change due to color absorption is specified. Since equation (2) is a simple calculation once the depth is determined, the image density of the superimposed image multiplied by a constant is displayed and an appropriate one is selected.

ステップ502では深さの計算を行う。ステップ501
で決まった定数Tをd乗したものであるので、その定数
の対数をTの対数で割ったものを深さにすればよい。こ
れで深さが決まったわけであるので、第2の実施例と以
降間し処理を行う。ステップ502からステップ508
は@4図のステップ402からステップ407と同j〕
である。
In step 502, depth is calculated. Step 501
Since it is the constant T determined by d raised to the d power, the depth can be determined by dividing the logarithm of the constant by the logarithm of T. Since the depth has now been determined, the second embodiment and subsequent interpolation processing will be performed. Steps 502 to 508
is the same as step 402 to step 407 in Figure 4]
It is.

次に、本発明の他の実施例である文字フォント生成方決
について説明する。従来の技術で説明し。
Next, a method for generating a character font, which is another embodiment of the present invention, will be explained. Explained by conventional technology.

たように、重畳画像を一色のものに?−7て、マスクの
形状を文字にすれば、画像合成方式は文字フォントの生
成方法になる。第9図のサーフイスマスク901の断面
が文字を表す場合を想定すれば、平面を上下させるこ、
!:により字画の太さの異なる文字フォントが生成され
る。大きなポイントの文字に関しては、太めの字画(文
字の各線の大さ)を選択し、小さいポイントのものに対
しては、細めの字画を選択すればよい。
As in, make the superimposed image one color? -7 If the shape of the mask is a character, the image synthesis method becomes a method for generating a character font. Assuming that the cross section of the surface mask 901 in FIG. 9 represents characters, it is possible to move the plane up and down.
! : generates character fonts with different stroke thicknesses. For characters with large points, choose thicker strokes (the size of each line of the character), and for characters with smaller points, choose thinner strokes.

一ヒ記第2の目的達成手段では、ビットマツプマスクを
縮小率の大きい画像について予め作成しておき(この結
果できるマスクサイズは小さい)、アウトラインマスク
は通常倍率の画像について予め作成しておき、画像合成
の際には縮小率が大きい場合にビットマツプマスクを用
い、それ以外の場合にアウトラインマスクを用いでいる
。従って、本来、両方のマスク間で線の消え易さに差は
ないが、画像合成の際に、小さな画像(縮小率の大きい
画像)について予め作成したビットマツプマスクを用い
る場合よりも、通常倍率の画像について予め作成したア
ウトラインマスクを縮小して用いる場合の方が消え易い
ことになる。そこで、複数の異なる倍率に対して予めア
ウトラインマスクを作成しておき、その中で比較的小さ
い画像(縮小率の大きい画像)について作成したアウト
ラインマスクを用いることにより、細い線が消えにくい
ようにすることができる。
In the second means for achieving the objective, a bitmap mask is created in advance for an image with a large reduction ratio (the resulting mask size is small), an outline mask is created in advance for an image with a normal magnification, When synthesizing images, a bitmap mask is used when the reduction ratio is large, and an outline mask is used in other cases. Therefore, although there is essentially no difference in the ease with which lines disappear between both masks, when compositing images, the normal magnification ratio It is easier to erase the image when using a reduced outline mask created in advance for the image. Therefore, by creating outline masks in advance for multiple different magnifications, and using the outline mask created for relatively small images (images with large reduction ratios), thin lines can be prevented from disappearing. be able to.

〔発明の効果〕〔Effect of the invention〕

以上詳しく説明したように、本発明によれば、背景画像
中に付与した3次元情報を用いることにより、重畳場所
(重畳位置)を指定するとき、重畳画像を、その重畳位
置に適した大きさに自動的に拡大または縮小して重畳合
成するようにしたので、面倒な操作を行うことなく、背
景画像に自然な遠近感をもった状態で重畳画像が重畳さ
れた合成画像を自動的に得ることができる。また、同時
に、重畳位置と色調との関係も、互いに矛盾のない合成
画像が得られる。ni数のビットマ・ツブマスクを用い
2.場定された拡大縮小率に晟も近い倍率のビットマツ
でマスクを選択する。二とにより、もしくはビットマ・
ツブマスクとアウトラインマスクを使い分けることによ
り、重畳合成した画像の輪郭にジャギーが生じたり細い
線が消えたりするこ七を防止できる。サーフイスマスク
を用いることにより、輪郭の膨潤処理や収縮処理を容易
に行うことができる。マスクの順序関係(前後関係)と
拡大縮小率との関係が矛盾することがない、また、合成
画像の境界がきれいで、影のような微妙な温情を表現し
た合成画像を生成することができる。
As explained in detail above, according to the present invention, when specifying a superimposition location (superimposition position) by using three-dimensional information added to a background image, the superimposition image is adjusted to a size suitable for the superimposition position. Since the superimposed image is automatically enlarged or reduced, a composite image is automatically obtained in which the superimposed image is superimposed on the background image with a natural sense of perspective, without any troublesome operations. be able to. Moreover, at the same time, a composite image can be obtained in which the relationship between the superimposition position and the color tone is consistent with each other. 2. Using ni number of bitma-tub masks. Select a mask with a bit pine with a scaling factor that is close to the specified scaling factor. 2 or bitma
By properly using the edge mask and outline mask, it is possible to prevent jaggies from appearing in the outline of the superimposed image and from thin lines disappearing. By using a surface mask, swelling and shrinking of the outline can be easily performed. There is no contradiction between the mask order (front-back relationship) and the scaling ratio, and the boundaries of the composite image are clean, making it possible to generate a composite image that expresses subtle warmth like a shadow. .

デに、文字の大きさが変わるとき、字画の太さを自然に
変化させることができるアウトラインフォントを生成す
ることができる。
Additionally, it is possible to generate an outline font that allows the stroke thickness to change naturally when the character size changes.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の第1ないし′#43実施例の処理のフ
ロー図、第2図ないし第5図は第1図の実施例の処理の
詳細を示すフロー図、第6図は本発明に用いられるハー
ドウェアの画像処理装置の構成図、第7図は本発明の一
実施例を説明するための背景画像及び重畳画像の構成図
、第8図は本発明の一実施例による重量位置指定方法の
説明図、第9図はアウトラインマスクの説明図、第10
図は本発明の一実施例の画像合成法の説明図、第11図
は本発明の一実施例の影のある画像の画像合成法の説明
図である。 601・・・コンピュータ、602・・・CRT、60
3・・・メモリ、604・・・キーボード、605・・
・画像出入力袋f、606・・・マウス、607・・・
マウスボタン、701・・・樹木、702・・・車道。 硼1図 喘2図 卑3図 算4図 箇5図 莞6図 笥7図 (b) 莞8図 男9図 亮10図 亮11図 (o)(C)
Fig. 1 is a flowchart of the processing of the first to '#43 embodiments of the present invention, Figs. 2 to 5 are flowcharts showing details of the processing of the embodiment of Fig. 1, and Fig. 6 is a flowchart of the processing of the embodiment of the present invention. 7 is a configuration diagram of a background image and a superimposed image for explaining an embodiment of the present invention, and FIG. 8 is a diagram of a weight position according to an embodiment of the present invention. An explanatory diagram of the specification method, Figure 9 is an explanatory diagram of the outline mask, and Figure 10 is an explanatory diagram of the outline mask.
FIG. 11 is an explanatory diagram of an image synthesis method according to an embodiment of the present invention, and FIG. 11 is an explanatory diagram of an image composition method for images with shadows according to an embodiment of the present invention. 601...Computer, 602...CRT, 60
3...Memory, 604...Keyboard, 605...
・Image input/output bag f, 606...Mouse, 607...
Mouse button, 701...tree, 702...roadway. 1, 2, 3, 4, 5, 6, 7 (b) 8, 9, 10, 11 (o) (C)

Claims (1)

【特許請求の範囲】 1、ディジタル的に表現された背景画像中に、別のディ
ジタル的に表現された画像の一部または背景画像の一部
を重畳画像として重畳合成し、合成画像を作成する計算
機システムにおいて、背景画像中に表現されている物の
表面の3次元的位置を表す位置情報及び視点位置情報を
予め設定しておき、重畳画像が重畳される背景画像中の
2次元的位置とこの重畳画像の拡大縮小率との関係を用
いることにより、背景画像中の重畳位置が指定された場
合には拡大縮小率を自動的に設定し、拡大縮小率が指定
された場合には背景画像中の重畳位置を限定することを
特徴とする画像合成方法。 2、ディジタル的に表現された背景画像中に、別のディ
ジタル的に表現された画像の一部または背景画像の一部
を重畳画像として重畳合成し、合成画像を作成する計算
機システムにおいて、背景画像中に表現されている物の
表面の3次元的位置を表す情報、視点位置情報、及び大
気による光の吸収スペクトルを予め設定しておき、背景
画像中の奥行きと大気の吸収による色の変化との関係を
用いることにより、背景画像中の重畳される奥行きが指
定された場合には色の変化の度合いを自動的に設定し、
大気の吸収による色の変化の度合いが指定された場合に
は背景画像中の重畳される奥行きを限定することを特徴
とする画像合成方法。 3、ディジタル的に表現された背景画像中に、別のディ
ジタル的に表現された画像の一部または背景画像の一部
を重畳画像として重畳合成し、合成画像を作成する計算
機システムにおいて、背景画像中に表現されている物の
表面の3次元的位置を表す情報、視点位置情報、及び大
気による光の吸収スペクトルを予め設定しておき、重畳
画像が重畳される背景画像中の2次元的位置とこの重畳
画像の拡大縮小率の関係、及び、背景画像中の奥行きと
大気の吸収による色の変化の関係を用いることにより、
背景画像中の重畳位置が指定された場合には拡大縮小率
、奥行き、及び大気の吸収による色の変化の度合いを自
動的に設定し、大気の吸収による色の変化の度合いが指
定された場合には背景画像中の重畳される奥行き、拡大
縮小率、及び背景画像中の重畳位置を限定することを特
徴とする画像合成方法。 4、前記物の表面の3次元的位置を表す情報は、前記物
の平面を表す情報であることを特徴とする請求項1ない
し3のいずれか1項記載の画像合成方法。 5、ディジタル的に表現された背景画像中に、別のディ
ジタル的に表現された画像の一部または背景画像の一部
を重畳画像として重畳合成し、合成画像を作成する計算
機システムにおいて、重畳合成する画像として光景が同
じで倍率の異なるものを複数枚準備し、それぞれの倍率
の異なる画像から一部の領域を表すためのビットマップ
表現されたマスクを切り出して準備し、指定された拡大
縮小率に近い倍率のマスクを指定値に拡大縮小して重畳
合成を行うことを特徴とする画像合成方法。 6、ディジタル的に表現された背景画像中に、別のディ
ジタル的に表現された画像の一部または背景画像の一部
を重畳画像として重畳合成し、合成画像を作成する計算
機システムにおいて、比較的縮小率の大きい画像を用い
て作成したビットマップマスクと、画像の一部領域を閉
曲線の境界線でベクトル的に表現したアウトラインマス
クとを準備し、重畳に際し、縮小率が大きい場合にはビ
ットマップマスクをもとに拡大縮小して重畳合成を行い
、それ以外の場合にはアウトラインマスクをもとに拡大
縮小して重畳合成を行うことを特徴とする画像合成方法
。 7、ディジタル的に表現された背景画像中に、別のディ
ジタル的に表現された画像の一部または背景画像の一部
を重畳画像として重畳合成し、合成画像を作成する計算
機システムにおいて、任意の位置を通り決まつた方向に
平行な平面で切つた断面が位相幾何学的に常に等しいチ
ューブ状の立体を準備し、重畳画像の一部の領域を指定
するマスクを、所定の位置を通り前記平面に平行な切断
平面により定義することを特徴とする画像合成方法。 8、前記チューブ状の立体は、前記任意の位置を順に変
更するにつれて前記断面の面積が単調に増加しまたは減
少するものであり、平面を平行移動することにより、マ
スクの大きさを変化させ調整することを特徴とする請求
項7記載の画像合成方法。 9、ディジタル的に表現された背景画像中に、別のディ
ジタル的に表現された画像の一部または背景画像の一部
を重畳画像として重畳合成し、合成画像を作成する計算
機システムにおいて、背景画像と重畳画像の両者を小領
域に分けておき、重畳に際し、各々の小領域に奥行きの
情報を付与し、これらの奥行き情報に基いて手前の小領
域ほど上に重なるように重畳合成することを特徴とする
画像合成方法。 10、ディジタル的に表現された背景画像中に、別のデ
ィジタル的に表現された画像の一部または背景画像の一
部を重畳画像として重畳合成し、合成画像を作成する計
算機システムにおいて、重畳合成後の合成画像の画像濃
度を、対応する場所の重畳画像の画像濃度と背景画像の
画像濃度の積を場所によらない定数で割つた値とするこ
とを特徴とする画像合成方法。 11、ディジタル的に表現された背景画像中に、別のデ
ィジタル的に表現された画像の一部または背景画像の一
部を重畳画像として重畳合成し、合成画像を作成する計
算機システムにおいて、背景画像中に表現されている物
の表面の3次元的位置を表す情報、視点位置情報、及び
大気による各天候状態に対応した光の吸収スペクトルを
予め設定しておき、天候を指定することにより3次元的
位置に応じた色調の変化を合成画像上に与えることを特
徴とする画像合成方法。 12、切断位置によつて切断面の大きさが変るチユーブ
状の立体を準備し、このチューブ状の立体をある位置で
太さ方向に切断して生成される切断平面の大きさ及び形
状により、文字フォントを定義することを特徴とする文
字フォント生成方法。 13、前記チューブ状の立体の切断平面は、その切断位
置に応じて文字サイズが決まると共に、この文字サイズ
に適した太さで字画が決まる文字フォントを生成するよ
うに構成されたことを特徴とする請求項12記載の文字
フォント生成方法。 14、前記チューブ状の立体は、上底面及び下底面間の
輪郭が、異なるポイントのアウトラインフオントとする
錐状に構成されたことを特徴とする請求項12記載の文
字フォント生成方法。
[Claims] 1. A composite image is created by superimposing a part of another digitally represented image or a part of a background image on a digitally represented background image as a superimposed image. In a computer system, position information and viewpoint position information representing the three-dimensional position of the surface of the object represented in the background image are set in advance, and the superimposed image is compared to the two-dimensional position in the background image on which the superimposed image is superimposed. By using this relationship with the scaling ratio of the superimposed image, when the superimposition position in the background image is specified, the scaling ratio is automatically set, and when the scaling ratio is specified, the background image An image compositing method characterized by limiting superimposition positions within the image. 2. In a computer system that creates a composite image by superimposing a part of another digitally represented image or a part of a background image on a digitally represented background image as a superimposed image, Information representing the three-dimensional position of the surface of the object represented in the background image, viewpoint position information, and the absorption spectrum of light by the atmosphere are set in advance, and the depth in the background image and color changes due to atmospheric absorption are calculated. By using the relationship, when the superimposed depth in the background image is specified, the degree of color change is automatically set,
An image synthesis method characterized by limiting the depth of superimposition in a background image when the degree of color change due to atmospheric absorption is specified. 3. In a computer system that creates a composite image by superimposing a part of another digitally represented image or a part of a background image on a digitally represented background image as a superimposed image, Information representing the three-dimensional position of the surface of the object represented in the background image, viewpoint position information, and the absorption spectrum of light by the atmosphere are set in advance, and the two-dimensional position in the background image on which the superimposed image is superimposed is determined in advance. By using the relationship between the scaling ratio of this superimposed image and the relationship between the depth in the background image and the color change due to atmospheric absorption,
When the superimposition position in the background image is specified, the scaling ratio, depth, and degree of color change due to atmospheric absorption are automatically set, and when the degree of color change due to atmospheric absorption is specified. An image synthesis method characterized by limiting the depth of a background image to be superimposed, the scaling ratio, and the superimposition position in the background image. 4. The image synthesis method according to claim 1, wherein the information representing the three-dimensional position of the surface of the object is information representing a plane of the object. 5. In a computer system that creates a composite image by superimposing a part of another digitally represented image or a part of a background image on a digitally represented background image as a superimposed image, Prepare multiple images with the same scene but different magnifications, cut out and prepare a bitmap representation mask to represent a part of the area from each image with different magnifications, and then use the specified scaling factor. An image synthesis method characterized by performing superimposition synthesis by enlarging or reducing a mask with a magnification close to , to a specified value. 6. In a computer system that creates a composite image by superimposing a part of another digitally represented image or a part of the background image on a digitally represented background image as a superimposed image, it is relatively easy to use. Prepare a bitmap mask created using an image with a large reduction ratio and an outline mask that expresses a part of the image in a vectorial manner with closed curved boundaries. An image synthesis method characterized by performing superimposition synthesis by enlarging/reducing based on a mask, and performing superimposition synthesis by enlarging/reducing based on an outline mask in other cases. 7. In a computer system that creates a composite image by superimposing a part of another digitally represented image or a part of a background image on a digitally represented background image as a superimposed image, an arbitrary Prepare a tube-shaped solid whose cross section is always topologically equal when cut by a plane parallel to a predetermined direction, and pass through a predetermined position and apply a mask that specifies a part of the superimposed image. An image synthesis method characterized by defining a cutting plane parallel to a plane. 8. The tube-shaped solid body has a cross-sectional area that monotonically increases or decreases as the arbitrary positions are sequentially changed, and the size of the mask can be changed and adjusted by moving the plane in parallel. The image synthesis method according to claim 7, characterized in that: 9. In a computer system that creates a composite image by superimposing a part of another digitally represented image or a part of a background image on a digitally represented background image as a superimposed image, Both the image and the superimposed image are divided into small regions, and when superimposing, depth information is given to each small region, and based on this depth information, the nearer the small region is, the more it overlaps. Featured image synthesis method. 10. In a computer system that creates a composite image by superimposing a part of another digitally represented image or a part of a background image on a digitally represented background image as a superimposed image, An image synthesis method characterized in that the image density of a subsequent synthesized image is set to a value obtained by dividing the product of the image density of a superimposed image at a corresponding location and the image density of a background image by a constant independent of location. 11. In a computer system that creates a composite image by superimposing a part of another digitally represented image or a part of a background image on a digitally represented background image as a superimposed image, the background image Information representing the three-dimensional position of the surface of the object represented in the image, viewpoint position information, and light absorption spectra corresponding to each weather condition due to the atmosphere are set in advance, and by specifying the weather, the three-dimensional An image composition method characterized by applying a change in color tone according to a target position on a composite image. 12. Prepare a tube-shaped solid whose cut surface size changes depending on the cutting position, and cut this tube-shaped solid in the thickness direction at a certain position. Depending on the size and shape of the cutting plane, A character font generation method characterized by defining a character font. 13. The tubular three-dimensional cutting plane is characterized by being configured to generate a character font whose character size is determined according to its cutting position and whose strokes are determined by a thickness suitable for this character size. 13. The character font generation method according to claim 12. 14. The character font generation method according to claim 12, wherein the tube-shaped solid has a conical shape with an outline between an upper base surface and a lower base surface as outline fonts at different points.
JP2330712A 1990-11-30 1990-11-30 Image synthesis method and character font generation method Expired - Fee Related JP2888375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2330712A JP2888375B2 (en) 1990-11-30 1990-11-30 Image synthesis method and character font generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2330712A JP2888375B2 (en) 1990-11-30 1990-11-30 Image synthesis method and character font generation method

Publications (2)

Publication Number Publication Date
JPH04205275A true JPH04205275A (en) 1992-07-27
JP2888375B2 JP2888375B2 (en) 1999-05-10

Family

ID=18235721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2330712A Expired - Fee Related JP2888375B2 (en) 1990-11-30 1990-11-30 Image synthesis method and character font generation method

Country Status (1)

Country Link
JP (1) JP2888375B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6676518B1 (en) 1999-07-26 2004-01-13 Konami Corporation Image generating device, an image generating method, a readable storage medium storing an image generating program and a video game system
JP2008124958A (en) * 2006-11-15 2008-05-29 Fuji Xerox Co Ltd Image processor, image processing program and image processing system
JP2012503815A (en) * 2008-09-25 2012-02-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D image data processing
JP2013149219A (en) * 2012-01-23 2013-08-01 Canon Inc Video processor and its control method
JP2017016663A (en) * 2015-07-03 2017-01-19 株式会社リコー Image composition method and device
JP2020149086A (en) * 2019-03-11 2020-09-17 オムロン株式会社 Training data generation apparatus, training data generation method, and training data generation program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101708306B1 (en) * 2010-09-13 2017-02-20 엘지전자 주식회사 Mobile twrminal and 3d image convergence method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6676518B1 (en) 1999-07-26 2004-01-13 Konami Corporation Image generating device, an image generating method, a readable storage medium storing an image generating program and a video game system
JP2008124958A (en) * 2006-11-15 2008-05-29 Fuji Xerox Co Ltd Image processor, image processing program and image processing system
JP2012503815A (en) * 2008-09-25 2012-02-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D image data processing
US10043304B2 (en) 2008-09-25 2018-08-07 Koninklijke Philips N.V. Three dimensional image data processing
JP2013149219A (en) * 2012-01-23 2013-08-01 Canon Inc Video processor and its control method
JP2017016663A (en) * 2015-07-03 2017-01-19 株式会社リコー Image composition method and device
JP2020149086A (en) * 2019-03-11 2020-09-17 オムロン株式会社 Training data generation apparatus, training data generation method, and training data generation program

Also Published As

Publication number Publication date
JP2888375B2 (en) 1999-05-10

Similar Documents

Publication Publication Date Title
JP4074000B2 (en) Image composition method by computer illustration system
US5745666A (en) Resolution-independent method for displaying a three-dimensional model in two-dimensional display space
JP2002505784A (en) Method and system for generating an image with a handwritten look
WO1994022101B1 (en) Method and system for image processing
JP4404650B2 (en) Makeup simulation device, makeup simulation method, makeup simulation program
US20020041339A1 (en) Graphical representation of motion in still video images
JPH10145583A (en) Image processor
CA2236388A1 (en) Method and apparatus for creating facial images
JPH07146931A (en) Picture generating method
JPH04205275A (en) Synthesis of image and formation of character font
JPH10243211A (en) Image processor, image-processing method and recording medium
JP4100765B2 (en) Simplified method of scene image synthesis by computer illustration system
KR0134701B1 (en) Image generating method and device
US20040169664A1 (en) Method and apparatus for applying alterations selected from a set of alterations to a background scene
CN109767384B (en) Method for manufacturing seamless collage pattern simulation litchi grain leather surface
US7274372B1 (en) Real-time digital three dimensional engraving
JP2008181168A (en) Colored drawing creation device and method, and program therefor
JPH04340671A (en) Antialiasing method for image synthesization
JP3356865B2 (en) Map making method and apparatus
JPH09185712A (en) Three-dimensional image data generating method
JPH08329278A (en) Picture processor
JP3116019B2 (en) 3D image data creation method and 3D color image display method
JPH10222649A (en) Device for composite picture
JP7309132B1 (en) Image Synthesis Method in Chroma Key Processing
JPH10230626A (en) Printer and printing method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees