JPH0636025A - Defocusing processor - Google Patents

Defocusing processor

Info

Publication number
JPH0636025A
JPH0636025A JP4193811A JP19381192A JPH0636025A JP H0636025 A JPH0636025 A JP H0636025A JP 4193811 A JP4193811 A JP 4193811A JP 19381192 A JP19381192 A JP 19381192A JP H0636025 A JPH0636025 A JP H0636025A
Authority
JP
Japan
Prior art keywords
image
information
depth
focus
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4193811A
Other languages
Japanese (ja)
Inventor
Toshio Motegi
敏雄 茂出木
Hideki Murota
秀樹 室田
Akira Takakura
章 高倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP4193811A priority Critical patent/JPH0636025A/en
Publication of JPH0636025A publication Critical patent/JPH0636025A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Abstract

PURPOSE:To easily express a perspective feeling of an optional extent in a short time as to three-dimensional computer graphics production. CONSTITUTION:A shape input device 10 outputs a body shape, etc., to a position information specifying device 12, which specifies the position of the body, a light position, a camera position, a focus position, etc., according to the input information and outputs the specification information to an image generating device 14; and the image generating device 14 generates a two-dimensional projection image. Then, the defocusing processor 16 calculates the difference in depth between the focus and body by a depth calculation part 18 from the depth information from the position information specifying device 12 and a defocusing process part 22 filters the two-dimensional projection image, inputted from the image generating device 14, as many times as specified by a process frequency input device 20 by using a filter generated on the basis of the difference in depth to generate a processed image, which is stored in a storage device 24.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、デフォーカス処理装
置、特に3次元コンピュータ・グラフィックス制作にお
いて、2次元画面に投影された原画像に対して短時間
で、しかも簡単に遠近感を付与することができるデフォ
ーカス処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention, in a defocus processing apparatus, and particularly in the production of three-dimensional computer graphics, imparts a perspective to an original image projected on a two-dimensional screen in a short time and easily. Defocus processing device capable of performing

【0002】[0002]

【従来の技術】3次元コンピュータ・グラフィックス
(CG)、例えば、CGカレンダー、CGホログラム、
CGアニメーション、CGコマーシャル、CGポスタ
ー、ハイビジョンCG等の制作において、レンダリング
処理で制作される2次元画像では、該画像を構成する全
ての画素にピントが合った状態で制作されるため、その
画像に描かれている物体は遠近感のない平面的な印象を
与えることになる。
2. Description of the Related Art Three-dimensional computer graphics (CG), for example, CG calendar, CG hologram,
In the production of CG animation, CG commercials, CG posters, high-definition CG, etc., a two-dimensional image produced by a rendering process is produced in a state in which all the pixels constituting the image are in focus. The object drawn gives a flat impression without perspective.

【0003】従来、3次元CGで制作される画像に、例
えば写真で撮影した場合のような遠近感を与える方法と
しては、分散光線追跡法が知られている。この分散光線
追跡法は、焦点が合っていない画像部分にピンぼけを与
えることにより遠近感を表現する方法である。この分散
光線追跡法については、例えば、レイトレーシングCG
入門(サイエンス社)初版1960年6月25日発行、
千葉則茂著のP.129に記載されている。
Conventionally, a dispersed ray tracing method is known as a method of giving a perspective feeling to an image produced by three-dimensional CG, such as when a photograph is taken. This distributed ray tracing method is a method of expressing perspective by giving a blur to an image portion that is out of focus. For this distributed ray tracing method, for example, ray tracing CG
Introductory (Science) first edition issued June 25, 1960,
P. by Norimori Chiba. 129.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記分
散光線追跡法では、ピンぼけの程度を設定するために、
各画素について物理法則を仮想的に適用して計算を行っ
ており、しかも1画素分のピンぼけを求めるのに複数の
光線について計算しなければならないため、遠近感のあ
る画像を得るためには膨大な計算時間がかかるという問
題がある。
However, in the above distributed ray tracing method, in order to set the degree of defocus,
The physical law is virtually applied to each pixel to calculate, and more than one ray has to be calculated to obtain the blur for one pixel, so it is enormous to obtain a perspective image. It takes a long time to calculate.

【0005】又、上記分散光線追跡法を適用して得られ
た画像が、ピンほけの度合いが弱すぎたり、逆に強すぎ
たりする場合には、初めから計算をし直さなければなら
ないため、ピンぼけの度合いを自由に変更することが簡
単にはできないという問題がある。
Further, if the image obtained by applying the above-mentioned distributed ray tracing method has too weak a degree of blurring, or conversely, it is necessary to recalculate from the beginning, There is a problem that it is not easy to freely change the degree of defocus.

【0006】本発明は、3次元コンピュータ・グラフィ
ックス制作において、短時間で任意の程度のぼかしを設
定し、画像に遠近感を簡単に表現することができるデフ
ォーカス処理装置を提供することを課題とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a defocus processing apparatus capable of easily setting a certain degree of blurring in a short time and producing a sense of perspective in an image in the production of three-dimensional computer graphics. And

【0007】[0007]

【課題を解決するための手段】本発明は、3次元コンピ
ュータ・グラフィックス制作において、物体の焦点位置
からの距離情報に基づいて画像にぼかしを与えるデフォ
ーカス処理装置であって、レンダリング処理により制作
された2次元原画像について、カメラ−焦点位置間の奥
行情報に基づいて焦点位置と物体との奥行の差を算出す
る機能と、物体を構成する各画素の焦点位置と該物体と
の奥行の差に基づいて、前記原画像にフィルタリング処
理を行う機能と、を備えた構成とすることにより、前記
課題を達成したものである。
SUMMARY OF THE INVENTION The present invention is a defocus processing device for blurring an image based on distance information from the focus position of an object in the production of three-dimensional computer graphics, which is produced by rendering processing. With respect to the obtained two-dimensional original image, a function of calculating a depth difference between the focus position and the object based on depth information between the camera and the focus position, and a focus position of each pixel forming the object and a depth of the object. The object is achieved by a configuration including a function of performing a filtering process on the original image based on the difference.

【0008】[0008]

【作用】本発明においては、まず、光線追跡法等のレン
ダリング処理により予め2次元原画像を作成し、作成し
た該原画像に対し焦点から物体位置までの距離に基づい
てフィルタリング処理を行って、焦点位置上の物体はピ
ントが合い、焦点位置から離れた物体程ピントがぼける
ようにすることにより所望の程度のピンぼけが設定され
た画像を作成できるようにしたので、短時間でピンぼけ
した画像、即ち遠近感のある画像を制作することができ
る。
In the present invention, first, a two-dimensional original image is created in advance by a rendering process such as a ray tracing method, and the created original image is filtered based on the distance from the focus to the object position. The object on the focus position is in focus, and it is possible to create an image with a desired degree of defocus by making the object farther from the focus position out of focus, so an image that is out of focus in a short time, That is, an image with a perspective can be produced.

【0009】又、上記ピンぼけを、既に作成されている
原画像について後処理によって設定できるので、画像の
ピンぼけ度合いを簡単に変更することができる。
Further, since the above-mentioned defocus can be set by post-processing for the original image already created, the degree of defocus of the image can be easily changed.

【0010】[0010]

【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0011】図1は、本発明に係る一実施例のデフォー
カス処理装置の構成の概略を示すブロック図である。
FIG. 1 is a block diagram showing the outline of the configuration of a defocus processing apparatus according to an embodiment of the present invention.

【0012】本実施例のデフォーカス処理装置は、形状
入力装置10、該形状入力装置10からの入力に基づい
て物体、ライト、カメラ及び焦点の各位置等の情報を指
定する物体位置・ライト・カメラ・焦点位置情報指定装
置12と、上記情報指定装置12からの入力に基づいて
2次元投影画像を作成する2次元投影画像作成装置14
と、上記情報指定装置12及び画像作成装置14からの
入力に基づいて、2次元投影画像(原画像)に対してデ
フォーカス処理を行うデフォーカス処理装置16とを備
えている。
The defocus processing apparatus according to the present embodiment is a shape input device 10 and an object position / light / light position specifying information such as each position of an object, a light, a camera, and a focus based on an input from the shape input device 10. A camera / focus position information designating device 12 and a two-dimensional projection image creating device 14 for creating a two-dimensional projection image based on an input from the information designating device 12.
And a defocus processing device 16 that performs defocus processing on a two-dimensional projection image (original image) based on inputs from the information specifying device 12 and the image creating device 14.

【0013】上記デフォーカス処理装置16は、上記情
報指定装置12からの入力に基づいて焦点平面から物体
までの距離を算出する焦点−物体奥行算出部18と、該
奥行算出部18、前記画像作成装置14及び別途設けら
れた処理回数入力装置20からの入力に基づいてぼかし
処理(フィルタリング処理)を行うぼかし処理部22と
で構成され、該ぼかし処理部22で作成された処理画像
は画像格納装置24に格納されるようになっている。
The defocus processing device 16 calculates the distance from the focal plane to the object on the basis of the input from the information designating device 12, a focus-object depth calculation unit 18, the depth calculation unit 18, and the image creation. The device 14 and a blurring processing unit 22 that performs blurring processing (filtering processing) based on an input from a processing number input device 20 separately provided, and the processed image created by the blurring processing unit 22 is an image storage device. It is designed to be stored in 24.

【0014】以下、上記各処理装置について順次詳細に
説明する。
Hereinafter, each of the above processing devices will be sequentially described in detail.

【0015】前記形状入力装置10は、物体の形状デー
タを入力する装置であり、物体を構成する面は、頂点情
報(X,Y,Z座標)の集まりで表現されるようになっ
ており、色情報の指定もここで行われる。
The shape input device 10 is a device for inputting the shape data of an object, and the surface forming the object is represented by a collection of vertex information (X, Y, Z coordinates). Color information is also specified here.

【0016】前記物体位置・ライト・カメラ・焦点位置
情報位置指定装置12は、前記形状入力装置10から入
力された物体形状の位置と、ライトの位置、向き、色、
強度等のライト情報と、カメラの位置、向き、画角、縦
横比等のカメラ情報と、焦点位置との指定を行う機能を
備えている。これら情報の指定は、画面を見ながら指定
することができるようになっている。
The object position / light / camera / focal position information position designation device 12 includes the position of the object shape input from the shape input device 10, the position, direction and color of the light.
It has a function of designating light information such as intensity, camera information such as camera position, orientation, angle of view, and aspect ratio, and a focus position. The information can be specified while looking at the screen.

【0017】前記2次元投影画像作成装置14は、所定
の座標位置に視点、注視点、光源をおき、物体を構成す
る各面の微小部分の明るさを計算し、隠面処理した後、
陰を付けた2次元画像(原画像)を生成する機能を有し
ている。
The two-dimensional projection image creating apparatus 14 places a viewpoint, a gazing point, and a light source at predetermined coordinate positions, calculates the brightness of a minute portion of each surface forming an object, and performs hidden surface processing,
It has a function of generating a shaded two-dimensional image (original image).

【0018】前記デフォーカス処理装置16は、前記2
次元投影画像作成装置14から入力される2次元画像
と、前記情報指定装置12から入力される物体形状、物
体位置、ライト情報、カメラ情報及び前記処理回数入力
装置20から入力される処理回数を読み込んで、前記焦
点−物体奥行算出部18及びぼかし処理部22におい
て、後述するデフォーカス処理を実行する機能を有して
いる。
The defocus processing device 16 has
The two-dimensional image input from the three-dimensional projection image creating device 14, the object shape, the object position, the light information, the camera information input from the information designating device 12, and the number of processing times input from the processing number input device 20 are read. Then, the focus-object depth calculation unit 18 and the blurring processing unit 22 have a function of executing a defocus process described later.

【0019】上記焦点−物体奥行算出部18では、原画
像に描かれている物体を構成する各画素について、焦点
平面から物体までの距離(奥行の差)を算出する。図2
は、奥行情報を算出する方法を模式的に示したものであ
り、該奥行情報は視点から焦点までの距離dmaxを1.0
とした場合の該焦点から物体Pまでの奥行(距離)dの
相対値として、次の(1)式で正規化した値dfとして算
出される。なお、計算結果が1.0以上の物体について
は、奥行情報を1.0とする。
The focus-object depth calculator 18 calculates the distance (depth difference) from the focus plane to the object for each pixel forming the object drawn in the original image. Figure 2
Shows a method of calculating the depth information, in which the distance dmax from the viewpoint to the focal point is 1.0.
In this case, the relative value of the depth (distance) d from the focus to the object P is calculated as a value df normalized by the following equation (1). Note that depth information is set to 1.0 for objects whose calculation results are 1.0 or more.

【0020】df=d /dmax …(1) ここで、d :焦点から物体までの奥行き dmax:視点、焦点間の奥行き df :正規化した焦点−物体奥行き情報Df = d / dmax (1) where d: depth from focus to object dmax: depth between viewpoint and focus df: normalized focus-object depth information

【0021】上記(1)式は、物体Pが焦点に近い程df
の値が0.0に近づいてピントが合い、視点に近い程df
の値が1.0に近づいてぼけることを表わしている。
In the above equation (1), the closer the object P is to the focus, the more df
The value of becomes closer to 0.0 and is in focus.
It means that the value of becomes close to 1.0 and blurs.

【0022】上記奥行情報dfを、次のフィルタリング処
理で使うために各画素について計算しておく。
The depth information df is calculated for each pixel for use in the next filtering process.

【0023】前記ぼかし処理部22では、奥行算出部1
8で算出した各画素についての奥行情報dfに基づいて、
以下の方法でぼかし処理を行う。ここでは、カーネルサ
イズを5×5としてフィルタリング処理を行う場合を例
に説明する。
In the blurring processing section 22, the depth calculation section 1
Based on the depth information df for each pixel calculated in 8,
Blur processing is performed by the following method. Here, a case will be described as an example where filtering processing is performed with a kernel size of 5 × 5.

【0024】使用するフィルタは、図3に示すように5
×5画素に対応する枡目からなるカーネルで構成され、
各カーネルは図中fwijで示す重み係数で重み付けがなさ
れている。ここで、1≦i ≦5、1≦j ≦5である。
The filter used is 5 as shown in FIG.
It consists of a kernel consisting of squares corresponding to × 5 pixels,
Each kernel is weighted by the weighting factor indicated by fw ij in the figure. Here, 1 ≦ i ≦ 5 and 1 ≦ j ≦ 5.

【0025】上記重み付け係数fwijは、以下のようにし
て算出される。フィルタの中心位置(i =3、j =3)
は処理対象の画素位置に対応している。
The weighting coefficient fw ij is calculated as follows. Center position of filter (i = 3, j = 3)
Corresponds to the pixel position to be processed.

【0026】又、対象画素について前記(1)式で算出
された奥行情報をdf33とすると、フィルタ中心のカーネ
ルの重み係数fw33は次の(2)式で与えられる。
Further, assuming that the depth information calculated for the target pixel by the equation (1) is df 33 , the weighting coefficient fw 33 of the kernel at the filter center is given by the following equation (2).

【0027】fw33=1.0−df33 …(2)Fw 33 = 1.0-df 33 (2)

【0028】又、中心、即ちi =3、j =3以外のカー
ネルについての重み係数は、次の(3)式で与えられる
fwijとして設定される。但し、この(3)式は、i =j
=3のときは用いられない。
The weighting factor for the kernel other than the center, i.e., i = 3 and j = 3, is given by the following equation (3).
Set as fw ij . However, in this equation (3), i = j
Not used when = 3.

【0029】 fwij={(1.0−fw33)/(5×5−1)}×dfij …(3) (1≦i ≦5、1≦j ≦5)Fw ij = {(1.0−fw 33 ) / (5 × 5-1)} × df ij (3) (1 ≦ i ≦ 5, 1 ≦ j ≦ 5)

【0030】上記(2)式、(3)式において、中心画
素が構成する物体Pが焦点位置にあるとき(一番ピント
が合っているとき)は、df33=0、即ちfw33=1.0
で、その周囲の重み係数は全て0となり、これはぼかし
をかけないことを表わしている。
In the above equations (2) and (3), df 33 = 0, that is, fw 33 = 1 when the object P formed by the central pixel is at the focal position (when the object is in the best focus). .0
Then, all the weighting factors around it become 0, which means that no blur is applied.

【0031】実際にフィルタに設定する重み係数は、上
記(2)、(3)式で求めた重み係数を次の(4)式で
正規化した値を使用する。なお、(4)式では便宜上、
正規化した後の重み係数を正規化前と同一の記号fwij
用いて示してある。
As the weighting coefficient actually set in the filter, a value obtained by normalizing the weighting coefficient obtained by the above equations (2) and (3) by the following equation (4) is used. In the formula (4), for convenience,
Weighted coefficients after normalization are shown using the same symbols fw ij as before normalization.

【0032】fwij=fwij/ΣΣfwnm …(4)Fw ij = fw ij / ΣΣfw nm (4)

【0033】前記図3に示したフィルタを用いてフィル
タリング処理を実行する場合、得られる画素値fpを式で
表わすと、次の(5)式となる。
When the filtering process is executed using the filter shown in FIG. 3, the obtained pixel value fp is expressed by the following equation (5).

【0034】 fp= p11×fw11+ p12×fw12+ p13×fw13 ・・・・ P54×fw54+ p55×fw55 …(5) ここで、fp:フィルタリング処理した結果の画素値 p :2次元投影画像(原画像)の画素値Fp = p 11 × fw 11 + p 12 × fw 12 + p 13 × fw 13・ ・ ・ ・ P 54 × fw 54 + p 55 × fw 55 (5) where fp is the result of the filtering process Pixel value of: p: pixel value of the two-dimensional projection image (original image)

【0035】上記フィルタを用いてフィルタリング処理
する場合、フィルタの中心のカーネルを対象画素に設定
するため、画像周端部とその内側の画素にはそのまま適
用できない。そこで、図4に実線で示した実画像データ
(実領域)において1〜13で示した周端画素と同一の
情報が、その外側の仮想領域(2点鎖線で示す)にある
ものと仮定してフィルタリング処理を行うようにしてい
る。
When the filtering process is performed by using the above filter, the kernel at the center of the filter is set to the target pixel, and therefore, it cannot be directly applied to the image peripheral edge portion and the pixels inside thereof. Therefore, it is assumed that the same information as the peripheral edge pixels shown by 1 to 13 in the real image data (real area) shown by the solid line in FIG. 4 exists in the outer virtual area (shown by the chain double-dashed line). The filtering process is performed.

【0036】又、前記処理回数入力装置20はフィルタ
リング処理を行う回数を入力する装置であり、ここで指
定した回数のフィルタリング処理が前記ぼかし処理部2
2で実行される。複数回のフィルタリング処理を指定す
ると、処理画像に重ねて同一のフィルタリング処理を行
うことになるため、任意の程度にぼかしを強く変更する
ことができる。なお、フィルタリング処理の回数は必要
に応じて任意に設定できる。
The processing number input device 20 is a device for inputting the number of times of performing the filtering process, and the filtering process of the number of times specified here is performed by the blurring processing unit 2.
It is executed in 2. When the filtering process is designated a plurality of times, the same filtering process is performed on the processed image, so that the blur can be strongly changed to an arbitrary degree. The number of times of filtering processing can be arbitrarily set as necessary.

【0037】次に、図5のフローチャートを参照して本
実施例の作用を説明する。
Next, the operation of this embodiment will be described with reference to the flowchart of FIG.

【0038】まず、前記形状入力装置10から位置情報
指定装置12に対して物体形状や色に関する情報を出力
すると(ステップ110)、該位置情報指定装置12で
は、入力された情報に基づいて物体の位置、ライト位置
等、カメラ位置等、及び焦点位置を指定し、その指定情
報を2次元投影画像作成装置14に出力する(ステップ
112)。
First, when the shape input device 10 outputs information about the shape and color of an object to the position information designating device 12 (step 110), the position information designating device 12 outputs the information of the object based on the inputted information. A position, a light position, etc., a camera position, etc., and a focus position are designated, and the designation information is output to the two-dimensional projection image creation device 14 (step 112).

【0039】画像作成装置14では、前記位置情報指定
装置12からの入力情報に基づいて2次元画像を作成す
る(ステップ114)。次いで、デフォーカス処理装置
16では、前記位置情報指定装置12から入力されるカ
メラ−焦点位置間の奥行情報に基づいて焦点−物体奥行
算出部18において焦点位置と物体との奥行の差を算出
する(ステップ116)。
The image creating device 14 creates a two-dimensional image based on the input information from the position information designating device 12 (step 114). Next, in the defocus processing device 16, the focus-object depth calculation unit 18 calculates the difference in depth between the focus position and the object based on the depth information between the camera and the focus position that is input from the position information specifying device 12. (Step 116).

【0040】次いで、前記ぼかし処理部22に前記処理
回数入力装置20からぼかし処理回数n を入力する(ス
テップ118)。このぼかし処理部22では、上記焦点
−物体奥行算出部18で算出した奥行の差を用いて前記
図3に示したフィルタを作成し、その後、該ぼかし処理
部22において画像作成装置14からの入力情報に基づ
いてn 回のぼかし処理(フィルタリング処理)を実行し
(ステップ120)、その結果作成された処理画像を前
記画像格納装置24に格納する。
Next, the blurring processing number n is input to the blurring processing unit 22 from the processing number input device 20 (step 118). The blurring processing unit 22 creates the filter shown in FIG. 3 using the depth difference calculated by the focus-object depth calculating unit 18, and then the blurring processing unit 22 inputs the filter from the image creating apparatus 14. The blurring process (filtering process) is performed n times based on the information (step 120), and the processed image created as a result is stored in the image storage device 24.

【0041】本実施例によれば、上記一連の処理を行う
ことにより、3次元CG画像制作において、物体の焦点
位置からの距離情報を元にフィルタリング処理で画像を
ぼかすことにより焦点位置のある、即ちデフォーカスの
かかった画像の制作を可能にしたので、簡単にピンぼけ
効果を得ることができる。
According to the present embodiment, by performing the above-described series of processing, in three-dimensional CG image production, there is a focus position by blurring the image by filtering processing based on the distance information from the focus position of the object. That is, since it is possible to produce an image with defocus, it is possible to easily obtain a defocus effect.

【0042】又、レンダリングにより作成された2次元
原画像に対して、後処理として前記フィルタリング処理
を施すことにより、ピンぼけの強度を簡単に変更するこ
とができるため、短時間で任意の遠近感を画像に設定す
ることができる。
Further, by performing the filtering process as a post-process on the two-dimensional original image created by rendering, the intensity of defocus can be easily changed, so that an arbitrary perspective feeling can be obtained in a short time. Can be set to an image.

【0043】以上、本発明について具体的に説明した
が、本発明は前記実施例に限られるものでなく、その要
旨を逸脱しない範囲で種々変更可能である。
The present invention has been specifically described above, but the present invention is not limited to the above-mentioned embodiments, and various modifications can be made without departing from the scope of the invention.

【0044】例えば、2次元原画像の作成方法として
は、前記光線追跡法に限られるものでなく、予め制作さ
れた物体形状、色情報、カメラ情報、ライト情報、マッ
ピング情報等を読み込み、これら各情報を用いて行うラ
ディオシティ、Zバッファ法、スキャンライン法等のレ
ンタリング処理を採用することができる。
For example, the method of creating a two-dimensional original image is not limited to the ray tracing method, but pre-produced object shapes, color information, camera information, light information, mapping information, etc. are read and each of these is read. A rendering process such as radiocity, Z-buffer method, scan line method, etc., which is performed using information can be adopted.

【0045】又、ぼかし処理で用いるフィルタは、前記
5×5のカーネルのものに限られるものでなく、カーネ
ル数は必要に応じて任意に変更可能である。
Further, the filter used in the blurring process is not limited to the 5 × 5 kernel, and the number of kernels can be arbitrarily changed as required.

【0046】又、カーネルに用いる重み付け係数fwij
前記(2)(3)(4)式を用いたものに限られるもの
でなく、必要に応じて変更可能である。
The weighting coefficient fw ij used for the kernel is not limited to the one using the equations (2), (3) and (4), and can be changed as necessary.

【0047】[0047]

【発明の効果】以上説明した通り、本発明によれば、3
次元コンピュータ・グラフィックス制作において、短時
間で、任意の程度のぼかしを簡単に設定することができ
るので、遠近感のある画像を容易に作成することができ
る。
As described above, according to the present invention, 3
In three-dimensional computer graphics production, it is possible to easily set an arbitrary degree of blurring in a short time, so that it is possible to easily create a perspective image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る一実施例のデフォーカス処理装置
の構成の概略を示すブロック図
FIG. 1 is a block diagram showing a schematic configuration of a defocus processing device according to an embodiment of the present invention.

【図2】奥行情報の算出方法を説明するための説明図FIG. 2 is an explanatory diagram for explaining a method of calculating depth information.

【図3】上記実施例で使用するフィルタの構成を示す説
明図
FIG. 3 is an explanatory diagram showing a configuration of a filter used in the above embodiment.

【図4】画像周端部に対するフィルタリング操作を説明
するための説明図
FIG. 4 is an explanatory diagram for explaining a filtering operation for an edge portion of an image.

【図5】上記実施例による処理の流れを示すフローチャ
ート
FIG. 5 is a flowchart showing the flow of processing according to the above embodiment.

【符号の説明】[Explanation of symbols]

10…形状入力装置 12…位置情報指定装置 14…2次元投影画像作成装置 16…デフォーカス処理装置 18…焦点−物体奥行算出部 20…処理回数入力装置 22…ぼかし処理部 24…画像格納部 10 ... Shape input device 12 ... Position information designation device 14 ... Two-dimensional projection image creation device 16 ... Defocus processing device 18 ... Focus-object depth calculation unit 20 ... Processing number input device 22 ... Blur processing unit 24 ... Image storage unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】3次元コンピュータ・グラフィックス制作
において、物体の焦点位置からの距離情報に基づいて画
像にぼかしを与えるデフォーカス処理装置であって、 レンダリング処理により制作された2次元原画像につい
て、カメラ−焦点位置間の奥行情報に基づいて焦点位置
と物体との奥行の差を算出する機能と、 物体を構成する各画素の焦点位置と該物体との奥行の差
に基づいて、前記原画像にフィルタリング処理を行う機
能と、を備えていることを特徴とするデフォーカス処理
装置。
1. A defocus processing device for blurring an image based on distance information from a focus position of an object in three-dimensional computer graphics production, wherein a two-dimensional original image produced by a rendering process, The function of calculating the depth difference between the focus position and the object based on the depth information between the camera and the focus position, and the original image based on the difference between the focus position of each pixel forming the object and the depth of the object. A defocus processing device, which further comprises a function of performing filtering processing.
JP4193811A 1992-07-21 1992-07-21 Defocusing processor Pending JPH0636025A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4193811A JPH0636025A (en) 1992-07-21 1992-07-21 Defocusing processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4193811A JPH0636025A (en) 1992-07-21 1992-07-21 Defocusing processor

Publications (1)

Publication Number Publication Date
JPH0636025A true JPH0636025A (en) 1994-02-10

Family

ID=16314161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4193811A Pending JPH0636025A (en) 1992-07-21 1992-07-21 Defocusing processor

Country Status (1)

Country Link
JP (1) JPH0636025A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000036863A (en) * 2000-03-30 2000-07-05 이형근 Depth From Defocus
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP2009199136A (en) * 2008-02-19 2009-09-03 Dainippon Printing Co Ltd Image generation device, image generation method, and computer program
WO2012014304A1 (en) * 2010-07-29 2012-02-02 富士通株式会社 Biometric authentication device and biometric authentication program
JP2013152734A (en) * 2008-03-05 2013-08-08 Semiconductor Energy Lab Co Ltd Display device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000036863A (en) * 2000-03-30 2000-07-05 이형근 Depth From Defocus
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP2009199136A (en) * 2008-02-19 2009-09-03 Dainippon Printing Co Ltd Image generation device, image generation method, and computer program
JP2013152734A (en) * 2008-03-05 2013-08-08 Semiconductor Energy Lab Co Ltd Display device
WO2012014304A1 (en) * 2010-07-29 2012-02-02 富士通株式会社 Biometric authentication device and biometric authentication program
JP5747916B2 (en) * 2010-07-29 2015-07-15 富士通株式会社 Biometric authentication device and biometric authentication program
US9122900B2 (en) 2010-07-29 2015-09-01 Fujitsu Limited Biometric authentication device and computer readable, non-transitory medium

Similar Documents

Publication Publication Date Title
US11694392B2 (en) Environment synthesis for lighting an object
US7200281B2 (en) System and method for image-based surface detail transfer
JP3830555B2 (en) Method and apparatus for correcting original video
US6717586B2 (en) Apparatus, method, program code, and storage medium for image processing
Lu et al. Non-photorealistic volume rendering using stippling techniques
US10489956B2 (en) Robust attribute transfer for character animation
US20170278293A1 (en) Processing a Texture Atlas Using Manifold Neighbors
US6529206B1 (en) Image processing apparatus and method, and medium therefor
US7548236B2 (en) Image processing method, image processing apparatus, image processing program, and storage medium
US10467793B2 (en) Computer implemented method and device
US20110050685A1 (en) Image processing apparatus, image processing method, and program
US6157387A (en) Image generating apparatus and method
JPH07302336A (en) Method and apparatus for making feature of image ambiguous
JP2973573B2 (en) Image conversion device
JPH10507858A (en) Method and apparatus for automatically and quickly drawing on a photographic real surface on a three-dimensional wireframe
JPH0636025A (en) Defocusing processor
JP5165819B2 (en) Image processing method and image processing apparatus
Levene A framework for non-realistic projections
CN112561784B (en) Image synthesis method, device, electronic equipment and storage medium
CN115330980A (en) Expression migration method and device, electronic equipment and storage medium
JP2000279228A (en) Rouge makeup simulation system
JP3341549B2 (en) 3D shape data processing device
JPH05298460A (en) Device for expressing shell quality sense
EP1330785B1 (en) Dynamic depth-of-field emulation based on eye-tracking
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium