JP2006309613A - Image adjustment method and device - Google Patents

Image adjustment method and device Download PDF

Info

Publication number
JP2006309613A
JP2006309613A JP2005133435A JP2005133435A JP2006309613A JP 2006309613 A JP2006309613 A JP 2006309613A JP 2005133435 A JP2005133435 A JP 2005133435A JP 2005133435 A JP2005133435 A JP 2005133435A JP 2006309613 A JP2006309613 A JP 2006309613A
Authority
JP
Japan
Prior art keywords
pixel position
image frame
image
color
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005133435A
Other languages
Japanese (ja)
Other versions
JP4696669B2 (en
Inventor
Hisashi Oguro
久史 小黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2005133435A priority Critical patent/JP4696669B2/en
Publication of JP2006309613A publication Critical patent/JP2006309613A/en
Application granted granted Critical
Publication of JP4696669B2 publication Critical patent/JP4696669B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily perform image adjustment by designating the arbitrary region of a color image frame to be two-dimensionally displayed on a display unit prepared by using CG data. <P>SOLUTION: A color image frame 18 in which color information Dn is written in each pixel position n is prepared from CG data, and a mask image frame 20 in which an identification value Sn for prescribing each region 19a to 19e to which each pixel position n is belonging is written at each pixel position is prepared. By referring to each pixel position configuring the color image frame and an identification value Sn of each corresponding pixel position n in the mask image frame, each pixel position n included in the designated region at each pixel position configuring the color image frame is detected, and color information Dn of the detected pixel position n is adjusted by using the designated image adjustment information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、CG(computer graphics コンピュータグラフィックス)装置を用いて作成された二次元CGデータ、又は三次元CGデータから二次元の色画像フレームを作成して表示器に表示する画像処理技術に係わり、特に作成された色画像フレームの画像(色情報)を調整する画像調整方法及び画像調整装置に関する。   The present invention relates to an image processing technique for creating a two-dimensional color image frame from two-dimensional CG data or three-dimensional CG data created using a computer graphics (CG) device and displaying the frame on a display. In particular, the present invention relates to an image adjustment method and an image adjustment apparatus for adjusting an image (color information) of a color image frame that has been created.

なお、この明細書における「色」は、カラーだけでなく、モノクロやマルチスペクトルをも含む。   The “color” in this specification includes not only color but also monochrome and multispectral.

CG(コンピュータ設計)装置を用いて作成された二次元CGデータ、又は三次元CGデータにおいて、物体や自然物等の設計対象物の形状は、一般的に、2次元空間の座標(x、y)や三次元空間の座標(x、y、z)を用いた複数の関数又は複数の数式で記載されている。また、設計対象物の色は、該当設計対象物の表面の各座標(x、y)、(x、y、z)に例えばR(赤)、G(緑)、B(青)の各成分値(0〜255)で記載されている。   In two-dimensional CG data or three-dimensional CG data created using a CG (computer design) device, the shape of a design object such as an object or a natural object is generally a coordinate (x, y) in a two-dimensional space. Or a plurality of functions or a plurality of mathematical expressions using coordinates (x, y, z) in a three-dimensional space. The color of the design object is, for example, each component of R (red), G (green), and B (blue) at each coordinate (x, y), (x, y, z) on the surface of the design object. It is described as a value (0-255).

したがって、この二次元CGデータ又は三次元CGデータが示す物体や自然物等の設計対象を人間が目視できる形式で表示器に表示するためには、二次元CGデータ又は三次元CGデータから二次元の色画像フレームを作成する必要がある。この二次元の色画像フレームは、二次元座標(x、y)の各位置(画素位置)に設計対象の輪郭又は色を示すR(赤)、G(緑)、B(青)の各成分値を配置したものである。この二次元の色画像フレームを表示器に入力すると設計対象の形状がフルカラー状態で表示される。   Therefore, in order to display a design object such as an object or a natural object indicated by the two-dimensional CG data or the three-dimensional CG data on a display device in a form that can be viewed by a human, the two-dimensional CG data or the three-dimensional CG data Need to create a color image frame. The two-dimensional color image frame includes R (red), G (green), and B (blue) components indicating the contour or color of the design object at each position (pixel position) of the two-dimensional coordinates (x, y). A value is placed. When this two-dimensional color image frame is input to the display, the shape to be designed is displayed in a full color state.

二次元CGデータ又は三次元CGデータから任意位置(視点)から任意方向の任意視野範囲の二次元画像を作成して表示する画像処理技術は、レンダリング処理技術として、既に特許文献1に報告されている。なお、三次元CGデータが動画の場合、作成される二次元画像も時系列的な複数の色画像フレームからなる動画となる。   An image processing technique for creating and displaying a two-dimensional image in an arbitrary visual field range in an arbitrary direction from an arbitrary position (viewpoint) from two-dimensional CG data or three-dimensional CG data has already been reported in Patent Document 1 as a rendering processing technique. Yes. When the 3D CG data is a moving image, the generated 2D image is also a moving image including a plurality of time-series color image frames.

このようにして表示器に表示され二次元画像の色、輝度、明るさ等の画質を調整する画像調整を実施する必要がある場合がしばしばある。この場合、表示器に表示され二次元画像全体に同一の画像調整を実施する場合は、表示器に設けられている色、輝度、明るさの各調整機能を利用すればよい。   In this way, it is often necessary to perform image adjustment for adjusting the image quality such as color, brightness, and brightness of the two-dimensional image displayed on the display device. In this case, when the same image adjustment is performed on the entire two-dimensional image displayed on the display device, the color, brightness, and brightness adjustment functions provided on the display device may be used.

しかし、表示器に表示され二次元画像全体を同一に画像調整するのでなく、二次元画像内の特定領域のみ、あるいは、領域ごとに異なる調整操作を行うことが求められる場合がある。この場合、調整を効率的に実施するためには、画像調整する領域をマニュアル指定でなく自動指定する必要がある。   However, instead of adjusting the entire two-dimensional image displayed on the display device in the same manner, it may be required to perform a different adjustment operation only on a specific region in the two-dimensional image or on each region. In this case, in order to perform the adjustment efficiently, it is necessary to automatically specify the area for image adjustment instead of manual specification.

二次元画像が実写画像の場合、領域指定の方法としては、特定色域範囲に含まれる画素を対象とする方法、輝度変化から輪郭を抽出する方法などがある。しかし、実画像においては無関係な領域や隣接領域が偶然に同じ画素値(RGBの各成分値)を持つ場合など、画素値による領域の判定が困難な場合が多い。なお、実写画像の二次元画像から領域を指定する手法が特許文献2に報告されている。   When the two-dimensional image is a live-action image, examples of the region designation method include a method for targeting pixels included in a specific color gamut range, a method for extracting a contour from a luminance change, and the like. However, in an actual image, it is often difficult to determine a region based on pixel values, such as when an irrelevant region or an adjacent region accidentally has the same pixel value (RGB component values). A method for designating a region from a two-dimensional image of a real image is reported in Patent Document 2.

二次元画像が前述したCGデータを用いて作成された場合においては、元のCGデータ中の特定の対象が持つ色や質感などの属性のみを変更することによって、結果的に表示された二次元画像中の領域が指定され、意図された対象に対して正確な画像調整操作を行うことができる。
特開2002―8058号公報 特開平8―160594号公報
When a two-dimensional image is created using the above-described CG data, the two-dimensional image displayed as a result is changed by changing only attributes such as color and texture of a specific target in the original CG data. An area in the image is designated, and an accurate image adjustment operation can be performed on the intended object.
Japanese Patent Laid-Open No. 2002-8058 JP-A-8-160594

しかしながら、元のCGデータ中の特定の対象が持つ色や質感などの属性のみを変更する手法は、変更されたCGデータから、レンダリング処理を実施して、再度、二次元画像を作成することを意味する。   However, the method of changing only attributes such as the color and texture of a specific target in the original CG data is to perform a rendering process from the changed CG data and create a two-dimensional image again. means.

したがって、例えば、動画の三次元CGデータからリアルタイムで時系列的な複数の色画像フレームを作成するリアルタイムレンダリング処理を実施する場合に、対象物の細部までを正確に再現しようとすると、三次元形状データや、テクスチャ画像のデータ量が増大し、処理速度の低下を招くことになるため、結果の精細度は制限される。   Therefore, for example, when performing real-time rendering processing that creates a plurality of time-series color image frames in real time from 3D CG data of a moving image, if an attempt is made to accurately reproduce details of the object, The amount of data and texture images increases, resulting in a reduction in processing speed, so that the definition of results is limited.

本発明はこのような事情に鑑みてなされたものであり、CGデータを用いて作成された、表示器に2次元表示すべき色画像フレームにおける任意の領域を指定して、この領域の画像を、レンダリング処理を実行することなく、高い精度で簡単に、かつ高速で、例えば動画像の場合リアルタイムで画像調整できる画像調整方法、及び画像調整装置を提供することを目的とする。   The present invention has been made in view of such circumstances. An arbitrary region in a color image frame to be displayed in a two-dimensional display on a display device, which is created using CG data, is specified, and an image in this region is displayed. An object of the present invention is to provide an image adjustment method and an image adjustment apparatus capable of performing image adjustment in real time in the case of a moving image, for example, in the case of a moving image, easily and at high speed without executing rendering processing.

上記課題を解決するために、本発明の画像調整方法は、CGデータから各画素位置に色情報が書込まれた色画像フレームを作成する色画像フレーム作成工程と、CGデータから各画素位置に該当画素位置が所属する各領域を特定する識別値が書込まれたマスク画像フレームを作成するマスク画像フレーム作成工程と、領域を指定して、該当領域に含まれる各画素位置の各色情報を共通に調整するための画像調整情報を指定する領域画像調整指定工程と、色画像フレームを構成する各画素位置とマスク画像フレームの対応する各画素位置の識別値とを参照して、色画像フレームを構成する各画素位置における領域画像調整指定工程で指定された領域に含まれる各画素位置を検出する画素位置検出工程と、この画素位置検出工程で検出された画素位置の色情報を領域画像調整指定工程で指定された画像調整情報を用いて調整する画像調整工程とを備えている。   In order to solve the above-described problems, the image adjustment method of the present invention includes a color image frame creation step for creating a color image frame in which color information is written at each pixel position from CG data, and a CG data at each pixel position. A mask image frame creation process for creating a mask image frame in which an identification value for specifying each region to which the corresponding pixel position belongs is written, and common color information for each pixel position included in the corresponding region by specifying the region. A color image frame is referred to by referring to an area image adjustment designation step for designating image adjustment information for adjustment to each pixel position, and each pixel position constituting the color image frame and each pixel position corresponding to the mask image frame. A pixel position detecting step for detecting each pixel position included in the region specified in the region image adjustment specifying step at each pixel position to be configured, and a pixel detected in this pixel position detecting step Color information of location and an image adjusting step of adjusting by using the image adjustment information specified by the area image adjustment designation step.

このように構成された画像調整方法においては、例えばレンダリング処理を実行することによって、CGデータから各画素位置に色情報が書込まれた色画像フレームが作成される。さらに、CGデータから、二次元の画素位置に展開された二次元の設計対象の各領域を簡単に導けるので、結果として、CGデータから各画素位置に該当画素位置が所属する各領域を特定する識別値が書込まれたマスク画像フレームが作成される。   In the image adjustment method configured as described above, a color image frame in which color information is written at each pixel position from CG data is created by executing, for example, a rendering process. Furthermore, since each region of the two-dimensional design object developed at the two-dimensional pixel position can be easily derived from the CG data, as a result, each region to which the pixel position belongs to each pixel position is specified from the CG data. A mask image frame in which the identification value is written is created.

色画像フレームの画素位置とマスク画像フレームの画素位置とは、1対1で対応しているので、マスク画像フレームによって、色画像フレームの各領域が正確に特定されたことになる。したがって、色画像フレームの外部指定された領域に含まれる各画素位置の色情報を領域画像調整指定工程で指定された画像調整情報を用いて調整することが可能となる。この画像調整は、既に作成されている色画像フレームの各画素に対して実施しているので、画像調整を実施するために、レンダリング処理を実施していないので、画像調整の処理速度が上昇する。   Since the pixel position of the color image frame and the pixel position of the mask image frame correspond one-to-one, each area of the color image frame is accurately specified by the mask image frame. Accordingly, it is possible to adjust the color information of each pixel position included in the externally designated area of the color image frame using the image adjustment information designated in the area image adjustment designation process. Since this image adjustment is performed for each pixel of a color image frame that has already been created, since the rendering process is not performed in order to perform the image adjustment, the processing speed of the image adjustment increases. .

また、別の発明の画像調整装置は、CGデータから各画素位置に色情報が書込まれた色画像フレームを作成する色画像フレーム作成手段と、CGデータから各画素位置に該当画素位置が所属する各領域を特定する識別値が書込まれたマスク画像フレームを作成するマスク画像フレーム作成手段と、領域を指定して、該当領域に含まれる各画素位置の各色情報を共通に調整するための画像調整情報を指定する領域画像調整指定手段と、色画像フレームを構成する各画素位置とマスク画像フレームの対応する各画素位置の識別値とを参照して、色画像フレームを構成する各画素位置における領域画像調整指定手段で指定された領域に含まれる各画素位置を検出する画素位置検出手段と、この画素位置検出手段で検出された画素位置の色情報を領域画像調整指定手段で指定された画像調整情報を用いて調整する画像調整手段とを備えている。   The image adjustment apparatus according to another aspect of the invention includes color image frame creation means for creating a color image frame in which color information is written at each pixel position from the CG data, and the corresponding pixel position belongs to each pixel position from the CG data. A mask image frame creating means for creating a mask image frame in which an identification value for identifying each area to be written is written, and for specifying the area and adjusting each color information of each pixel position included in the corresponding area in common Each pixel position constituting the color image frame with reference to the region image adjustment designation means for designating image adjustment information, and the identification value of each pixel position constituting the color image frame and the corresponding pixel position of the mask image frame Pixel position detection means for detecting each pixel position included in the area designated by the area image adjustment designation means, and color information of the pixel position detected by the pixel position detection means And an image adjusting means for adjusting by using the image adjustment information specified by the image adjusting designating means.

このように構成された画像調整装置においては、上述した画像調整方法とほぼ同じ作用効果を奏することが可能である。   In the image adjustment apparatus configured as described above, it is possible to achieve substantially the same operational effects as the image adjustment method described above.

また、別の発明は、上述した発明の画像調整装置におけるマスク画像フレーム作成手段は、CGデータ内の座標データを用いて各領域を定めるようにしている。   In another aspect of the invention, the mask image frame creation means in the image adjustment apparatus of the invention described above determines each region using the coordinate data in the CG data.

また、別の発明の画像調整装置は、動画の三次元CGデータと、この三次元CGデータの三次元空間内に仮想配置されたカメラの動画を撮影するための動的なカメラワークデータとから、カメラから見た、各画素位置に色情報が書込まれた時系列的な複数の色画像フレームを作成する色画像フレーム作成手段と、動画の三次元CGデータとカメラワークデータとから、カメラから見た、各画素位置に該当画素位置が所属する各領域を特定する識別値が書込まれた時系列的な複数のマスク画像フレームを作成するマスク画像フレーム作成手段と、領域を指定して、該当領域に含まれる各画素位置の各色情報を共通に調整するための画像調整情報を指定する領域画像調整指定手段と、色画像フレームを構成する各画素位置とマスク画像フレームの対応する各画素位置の識別値とを参照して、色画像フレームを構成する各画素位置における領域画像調整指定手段で指定された領域に含まれる各画素位置を検出する画素位置検出手段と、この画素位置検出手段で検出された画素位置の色情報を領域画像調整指定手段で指定された画像調整情報を用いて調整する画像調整手段とを備えている。   Another image adjustment apparatus according to the present invention includes three-dimensional CG data of a moving image and dynamic camera work data for shooting a moving image of a camera virtually arranged in the three-dimensional space of the three-dimensional CG data. A color image frame creating means for creating a plurality of time-series color image frames in which color information is written at each pixel position, as viewed from the camera, and three-dimensional CG data of the moving image and camera work data. The mask image frame creating means for creating a plurality of time-series mask image frames in which identification values for specifying each region to which the corresponding pixel position belongs are written in each pixel position, and specifying the region , Area image adjustment designation means for designating image adjustment information for commonly adjusting each color information of each pixel position included in the corresponding area, and each pixel position and mask image frame constituting the color image frame A pixel position detecting means for detecting each pixel position included in the area designated by the area image adjustment designating means at each pixel position constituting the color image frame with reference to the corresponding identification value of each pixel position; Image adjustment means for adjusting the color information of the pixel position detected by the pixel position detection means using the image adjustment information designated by the area image adjustment designation means.

このように構成された画像調整装置においては、CGデータとして、動画の三次元CGデータを採用している。さらに、この三次元CGデータの三次元空間内に仮想配置されたカメラの動画を撮影するための動的なカメラワークデータを採用している。そして、コンピュータグラフィックス技術におけるレンダリング手法を用いて、カメラから見た、各画素位置に色情報が書込まれた時系列的な複数の色画像フレームが作成される。   In the image adjustment apparatus configured as described above, three-dimensional CG data of a moving image is adopted as CG data. Furthermore, dynamic camera work data for capturing a moving image of a camera virtually arranged in the three-dimensional space of the three-dimensional CG data is employed. Then, using a rendering technique in computer graphics technology, a plurality of time-series color image frames in which color information is written at each pixel position as viewed from the camera are created.

さらに、上述した発明の画像調整方法と同様な手法でもって、動画の三次元CGデータとカメラワークデータとから、カメラから見た、各画素位置に該当画素位置が所属する動画の各領域を特定する識別値が書込まれた時系列的な複数のマスク画像フレームを作成される。   Further, each region of the moving image to which the corresponding pixel position belongs to each pixel position as viewed from the camera is identified from the moving image three-dimensional CG data and camera work data by the same method as the image adjustment method of the invention described above. A plurality of time-series mask image frames in which identification values to be written are written.

したがって、先の各発明と同様に、色画像フレームの外部指定された領域に含まれる各画素位置の色情報を領域画像調整指定工程で指定された画像調整情報を用いて調整することが可能となる。   Therefore, as in the previous inventions, it is possible to adjust the color information of each pixel position included in the externally designated area of the color image frame using the image adjustment information designated in the area image adjustment designation step. Become.

よって、たとえ、この動画の三次元CGデータをカメラワークに基づいて、コンピュータグラフィックス技術を用いて表示器にコンピュータグラフィックス画像を表示した状態においても、表示器に表示された動画像における指定された領域の画像を簡単に調整できる。   Therefore, even if the computer graphics image is displayed on the display device using the computer graphics technology based on the camera work, the 3D CG data of the moving image is specified in the moving image displayed on the display device. You can easily adjust the image of the selected area.

本発明の画像調整方法及び画像調整装置においては、CGデータから色画像フレームの他に、各領域情報を含むマスク画像フレームを作成し、表示出力される色画像フレームの領域指定を実施している。   In the image adjustment method and the image adjustment apparatus of the present invention, a mask image frame including each area information is created in addition to the color image frame from the CG data, and the area designation of the color image frame to be displayed and output is performed. .

したがって、表示器に二次元表示すべき色画像フレームに表示された対象物における任意の領域を指定して、この領域の画像を、レンダリング処理を実行することなく、高い精度で簡単に、かつ高速で、例えば動画像の場合リアルタイムで画像調整できる。   Therefore, an arbitrary area in the object displayed in the color image frame to be displayed two-dimensionally on the display device is specified, and the image in this area can be easily and quickly performed with high accuracy without performing rendering processing. For example, in the case of a moving image, the image can be adjusted in real time.

以下、本発明の一実施形態を図面を用いて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は本発明の一実施形態に係わる画像調整方法が適用される画像調整装置の概略構成を示す模式図である。   FIG. 1 is a schematic diagram showing a schematic configuration of an image adjustment apparatus to which an image adjustment method according to an embodiment of the present invention is applied.

この実施形態の画像調整装置は、大きく分けて、三次元動画設計装置1からの動画の三次元CGデータとカメラワーク設定部3からのカメラワークデータに基づいて色画像フレームとマスク画像フレームを作成する二次元画像作成部2、動画ファイル5、色画像フレームの各領域の色情報を調整する画像調整部8で構成されている。   The image adjustment apparatus of this embodiment broadly creates a color image frame and a mask image frame based on the 3D CG data of the moving image from the 3D moving image design apparatus 1 and the camera work data from the camera work setting unit 3. A two-dimensional image creation unit 2, a moving image file 5, and an image adjustment unit 8 that adjusts color information of each area of the color image frame.

次に、各部の詳細構成及び動作を順番に説明していく。   Next, the detailed configuration and operation of each unit will be described in order.

三次元動画設計装置1は動画の三次元CGデータを作成して二次元画像作成部2へ送出する。カメラワーク設定部3は、操作部4を介した操作者の操作に基づいて、図2に示すように、作成された三次元CGデータの(x、y、z)座標で示される3次元空間内に仮想配置されたカメラ10の対象物11を撮影するための動的なカメラワークデータを作成して二次元画像作成部2へ送出する。   The three-dimensional moving image design apparatus 1 creates three-dimensional CG data of a moving image and sends it to the two-dimensional image creation unit 2. As shown in FIG. 2, the camera work setting unit 3 is based on the operation of the operator via the operation unit 4, and the three-dimensional space indicated by the (x, y, z) coordinates of the generated three-dimensional CG data. Dynamic camera work data for photographing the object 11 of the camera 10 virtually arranged therein is created and sent to the two-dimensional image creation unit 2.

この動的なカメラワークデータは、例えば1/30秒間隔毎の各時刻Tにおける、カメラ10の(x、y、z)座標で示される位置(X、Y、Z)、ヨー角Y、ピッチ角P、ロール角Rで示されるカメラの向き(Y、P、R)、及びカメラのズーム量に対応する視野角Wである。   The dynamic camera work data includes, for example, the position (X, Y, Z), the yaw angle Y, and the pitch indicated by the (x, y, z) coordinates of the camera 10 at each time T every 1/30 second interval The viewing angle W corresponds to the camera orientation (Y, P, R) indicated by the angle P and the roll angle R, and the zoom amount of the camera.

カメラワークデータ=[T、(X、Y、Z)、(Y、P、R)、W]
図3は、例えばコンピュータで構成された二次元画像作成部2及び動画ファイル5の詳細構成を示すブロック図である。三次元動画設計装置1で作成された動画の三次元CGデータは、一旦、三次元CGデータファイル12に書込まれた後に、色画像フレーム作成部14及び領域抽出部15へ入力される。カメラワーク設定部3で作成されたカメラワークデータは、一旦カメラワークデータファイル13へ書込まれた後に色画像フレーム作成部14及び領域抽出部15へ入力される。
Camera work data = [T, (X, Y, Z), (Y, P, R), W]
FIG. 3 is a block diagram showing a detailed configuration of the two-dimensional image creation unit 2 and the moving image file 5 configured by a computer, for example. The 3D CG data of the moving image created by the 3D moving image design apparatus 1 is once written in the 3D CG data file 12 and then input to the color image frame creating unit 14 and the region extracting unit 15. The camera work data created by the camera work setting unit 3 is once written in the camera work data file 13 and then input to the color image frame creation unit 14 and the region extraction unit 15.

色画像フレーム作成部14は、三次元CGデータと、カメラワークデータとから、カメラ10から対象物11を見た、図4に示す、各画素位置nに色情報が書込まれた時系列的な複数の色画像フレーム18を作成して、動画ファイル5の色画像シーケンスファイル6へ書込む。具体的には、各時刻Tにおける、カメラ10位置(X、Y、Z)、向き(Y、P、R)、視野角Wで定まる三次元CGデータ内の色画像フレーム18を既に既知のコンピュータグラフィックス技術のレンダリング演算を用いて算出する。   The color image frame creation unit 14 looks at the object 11 from the camera 10 based on the three-dimensional CG data and the camera work data. A plurality of color image frames 18 are created and written into the color image sequence file 6 of the moving image file 5. Specifically, the color image frame 18 in the three-dimensional CG data determined by the camera 10 position (X, Y, Z), orientation (Y, P, R), and viewing angle W at each time T is already known. Calculation is performed using a rendering operation of graphics technology.

この色画像フレーム18は、図4(a)(b)(c)に示すように、1番からN番までのでの各画素位置nに、色情報としての24bit(RGB、各8bit)の画素値Dnを有するフルカラーの二次元の色画像フレーム18となる。そして、この1/30秒間隔の色画像フレーム18を時系列的に30枚作成すると、1秒間分の色画像シーケンスとなる。   As shown in FIGS. 4A, 4B, and 4C, the color image frame 18 includes 24-bit (RGB, 8 bits) pixels as color information at each pixel position n from No. 1 to N. A full-color two-dimensional color image frame 18 having a value Dn is obtained. Then, when 30 color image frames 18 at 1/30 second intervals are created in time series, a color image sequence for one second is obtained.

領域抽出部15は、三次元CGデータに含まれる、3次元座標データで示される対象物11の3次元の各領域を、前記カメラワークデータを用いて、図6(a)に示す、2次元の領域画像フレーム19を作成して、マスク画像フレーム作成部17へ送出する。   The area extraction unit 15 uses the camera work data to represent each of the three-dimensional areas of the object 11 indicated by the three-dimensional coordinate data included in the three-dimensional CG data, as shown in FIG. The area image frame 19 is created and sent to the mask image frame creation unit 17.

領域定義メモリ16内には、図5に示すように、操作者が操作部16aを介して指定した、2次元の領域画像フレーム19の各領域19a〜19eの領域名と識別値Snとが記憶されている。例えば、平地の領域19aに識別値Sn=「1」が指定され、山Aの領域19bに識別値Sn=「2」が指定され、山Bの領域19cに識別値Sn=「3」が指定され、空の領域19dに識別値Sn=「4」が指定され、太陽の領域19eに識別値Sn=「5」が指定されている。   In the area definition memory 16, as shown in FIG. 5, the area names and identification values Sn of the areas 19a to 19e of the two-dimensional area image frame 19 specified by the operator via the operation unit 16a are stored. Has been. For example, the identification value Sn = “1” is specified in the flat area 19a, the identification value Sn = “2” is specified in the mountain 19b, and the identification value Sn = “3” is specified in the mountain B area 19c. The identification value Sn = “4” is designated in the empty area 19d, and the identification value Sn = “5” is designated in the solar area 19e.

マスク画像フレーム作成部17は、2次元の領域画像フレーム19における各領域19a〜19eに含まれる各画素位置nに対応する各識別値「1」〜「5」を書込んだ図6(b)に示すマスク画像フレーム20を作成して、動画ファイル5のマスク画像シーケンスファイル7へ書込む。したがって、マスク画像フレーム20の1番からN番までのでの各画素位置nに、図6(c)に示すように、例えば4bitの識別値Snが書込まれる。そして、この1/30秒間隔のマスク画像フレーム20を時系列的に30枚作成すると、1秒間分のマスク画像シーケンスとなる。   The mask image frame creation unit 17 has written the identification values “1” to “5” corresponding to the pixel positions n included in the regions 19 a to 19 e in the two-dimensional region image frame 19 (FIG. 6B). Is written into the mask image sequence file 7 of the moving image file 5. Therefore, for example, a 4-bit identification value Sn is written at each pixel position n in the mask image frame 20 from No. 1 to No. N, as shown in FIG. Then, when 30 mask image frames 20 having an interval of 1/30 seconds are created in time series, a mask image sequence for one second is obtained.

なお、色画像フレーム18の1番からN番までのでの各画素位置nと、マスク画像フレーム20の1番からN番までのでの各画素位置nとは1対1で対応している。   Each pixel position n in the color image frame 18 from 1 to N corresponds to each pixel position n in the mask image frame 20 from 1 to N in a one-to-one correspondence.

したがって、動画ファイル5の色画像シーケンスファイル6には、最終的に、図7(a)に示すように、M枚の色画像フレーム18が記憶され、動画ファイル5のマスク画像シーケンスファイル7には、最終的に、図7(b)に示すように、M枚のマスク画像フレーム20が記憶される。   Accordingly, the color image sequence file 6 of the moving image file 5 finally stores M color image frames 18 as shown in FIG. 7A, and the mask image sequence file 7 of the moving image file 5 stores Finally, as shown in FIG. 7B, M mask image frames 20 are stored.

図8は、例えばコンピュータで構成された画像調整部8の詳細ブロック図である。色画像フレーム読出部21は、色画像シーケンスファイル6から各色画像フレーム18を順番に読出して、色画像フレームメモリ22へ書込む。同じくマスク画像フレーム読出部23は、色画像フレーム読出部21の読出動作に同期して、マスク画像シーケンスファイル7から各マスク画像フレーム20を順番に読出して、マスク画像フレームメモリ24へ書込む。   FIG. 8 is a detailed block diagram of the image adjustment unit 8 configured by, for example, a computer. The color image frame reading unit 21 sequentially reads out each color image frame 18 from the color image sequence file 6 and writes it into the color image frame memory 22. Similarly, the mask image frame reading unit 23 sequentially reads each mask image frame 20 from the mask image sequence file 7 and writes it to the mask image frame memory 24 in synchronization with the reading operation of the color image frame reading unit 21.

領域画像調整指定メモリ26内には、操作者が操作部27を介して指定された画像調整すべき領域19a〜19eのなかの1つ又は複数の領域の識別値SAが記憶されている。さらに、この領域画像調整指定メモリ26内には、指定した領域19a〜19eに含まれる各画素位置nのRGBの成分値からなる色情報としての画素値Dnの調整情報が記憶される。 In the area image adjustment designation memory 26, an identification value S A of one or a plurality of areas among the areas 19a to 19e to be adjusted by the operator via the operation unit 27 is stored. Further, the area image adjustment designation memory 26 stores adjustment information of the pixel value Dn as color information composed of RGB component values at the respective pixel positions n included in the designated areas 19a to 19e.

なお、この画素値Dnに対する調整情報として、
(a)色変換:表示装置の特性や好みに合わせた色調の補正、色替えシミュレーション等、例えば、画像の赤味を強める場合には、該当領域の各画素位置nの画素値Dnの赤成分の値に係数を乗ずる、あるいは加算するなどの演算を行う。
As adjustment information for the pixel value Dn,
(A) Color conversion: correction of color tone according to the characteristics and preferences of the display device, color change simulation, etc. For example, when enhancing the redness of an image, the red component of the pixel value Dn at each pixel position n in the corresponding region An operation such as multiplication or addition of the value by a coefficient is performed.

(b)画像調整:表示器の特性や好みに合わせた明るさやコントラストの補正等
(c)フィルタ処理:ぼかし、鮮鋭化、輪郭抽出、特殊効果(レリーフ効果、水彩画効果など)等
がある。
(B) Image adjustment: brightness and contrast correction according to display characteristics and preferences, etc. (c) Filter processing: blurring, sharpening, contour extraction, special effects (relief effect, watercolor effect, etc.).

調整画素検出部25は、色画像フレームメモリ22の色画像フレーム18を構成する各画素位置nとマスク画像フレームメモリ24のマスク画像フレーム20の対応する各画素位置nの識別値Snとを参照して、色画像フレーム18を構成する各画素位置nにおける領域画像調整指定メモリ26で指定された領域19a〜19e(識別値SA)に含まれる各画素位置nを検出して、画素値調整部28へ送出する。 The adjustment pixel detection unit 25 refers to each pixel position n constituting the color image frame 18 of the color image frame memory 22 and the identification value Sn of each corresponding pixel position n of the mask image frame 20 of the mask image frame memory 24. Thus, each pixel position n included in the areas 19a to 19e (identification value S A ) designated in the area image adjustment designation memory 26 at each pixel position n constituting the color image frame 18 is detected, and a pixel value adjustment unit is detected. 28.

画素値調整部28は、色画像フレーム18における入力された画素位置nの画素値Dnを領域画像調整指定メモリ26の調整情報を用いて調整して、調整済色画像フレームメモリ29の該当画素位置nに書込む。なお、色画像フレーム18を構成する各画素位置nの画素値Dnのうち、指定領域以外の各領域の各画素位置nの画素値Dnはそのまま調整済色画像フレームメモリ29の該当画素位置nに書込む。   The pixel value adjustment unit 28 adjusts the pixel value Dn at the input pixel position n in the color image frame 18 using the adjustment information in the area image adjustment designation memory 26, and the corresponding pixel position in the adjusted color image frame memory 29. Write to n. Of the pixel values Dn at each pixel position n constituting the color image frame 18, the pixel value Dn at each pixel position n in each area other than the designated area is directly applied to the corresponding pixel position n in the adjusted color image frame memory 29. Write.

1番からN番の各画素位置nに画素値Dnが書込まれた調整済色画像フレームメモリ29の1枚の調整済の色画像フレーム18は、表示器9に表示されるとともに、調整済色画像シーケンスファイル30へ書込まれる。   One adjusted color image frame 18 in the adjusted color image frame memory 29 in which the pixel value Dn is written at each pixel position n from No. 1 to N is displayed on the display unit 9 and adjusted. The color image sequence file 30 is written.

図9は、画像調整部8の全体動作を示す流れ図である。先ず、画像ファイル5の色画像シーケンスファイル6及びマスク画像シーケンスファイル7に記憶された色画像フレーム18及びマスク画像フレーム20のフレーム番号m、及び各色画像フレーム18及び各マスク画像フレーム20の画素位置nをそれぞれ初期化(m=1、n=1)する(ステップS1)。   FIG. 9 is a flowchart showing the overall operation of the image adjustment unit 8. First, the frame number m of the color image frame 18 and the mask image frame 20 stored in the color image sequence file 6 and the mask image sequence file 7 of the image file 5, and the pixel position n of each color image frame 18 and each mask image frame 20 Are initialized (m = 1, n = 1) (step S1).

m番目の色画像フレーム18及びm番目のマスク画像フレーム20を読出す(ステップS2)。読出した色画像フレーム18の画素位置nの24bit(RGB、各8bit)の画素値Dnを読取る(ステップS3)。同様に、読出したマスク画像フレーム20の同一画素位置nの4bitの識別値Snを読取る(ステップS4)。   The mth color image frame 18 and the mth mask image frame 20 are read out (step S2). The pixel value Dn of 24 bits (RGB, 8 bits each) at the pixel position n of the read color image frame 18 is read (step S3). Similarly, a 4-bit identification value Sn at the same pixel position n of the read mask image frame 20 is read (step S4).

読出したマスク画像フレーム20の同一画素位置nの4bitの識別値Snは、指定された領域の識別値SAであるかを判定し、識別値Snが指定された領域の識別値SAである場合は(ステップS5)、色画像フレーム18の画素位置nの画素値Dnを領域画像調整指定メモリ26の調整情報を用いて画像調整して(ステップS6)、調整済色画像フレームメモリ29の該当画素位置nに書込む(ステップS7)。 It is determined whether the 4-bit identification value Sn at the same pixel position n of the read mask image frame 20 is the identification value S A of the designated area, and the identification value Sn is the identification value S A of the designated area. In this case (step S5), the pixel value Dn at the pixel position n of the color image frame 18 is adjusted using the adjustment information in the area image adjustment designation memory 26 (step S6). Writing is performed at the pixel position n (step S7).

なお、識別値Snが指定された領域の識別値SAでない場合は(ステップS5)、色画像フレーム18の画素位置nの画素値Dnをそのまま調整済色画像フレームメモリ29の該当画素位置nに書込む(ステップS7)。 If the identification value Sn is not the identification value S A of the designated area (step S5), the pixel value Dn at the pixel position n in the color image frame 18 is directly used as the corresponding pixel position n in the adjusted color image frame memory 29. Write (step S7).

各画像フレーム18、20における1つの画素位置nに対する処理が終了すると、画素位置nが最終画素位置Nに達していないことを確認し(ステップS8)、画素位置nを更新(n=n+1)した後(ステップS9)、ステップS3へ戻る。   When the processing for one pixel position n in each of the image frames 18 and 20 is completed, it is confirmed that the pixel position n has not reached the final pixel position N (step S8), and the pixel position n is updated (n = n + 1). After (step S9), the process returns to step S3.

画素位置nが最終画素位置Nに達した場合(ステップS8)、調整済色画像フレームメモリ29に書込まれた1枚の調整済の色画像フレーム18を表示器9に表示出力する(ステップS10)。   When the pixel position n reaches the final pixel position N (step S8), one adjusted color image frame 18 written in the adjusted color image frame memory 29 is displayed on the display unit 9 (step S10). ).

1枚の調整済の色画像フレーム18の表示器9に対する表示出力が終了すると、各画像フレーム18、20のフレーム番号mが最終フレーム番号Mに達していないことを確認し(ステップS11)、フレーム番号mを更新(m=m+1)した後(ステップS12)、さらに、画素位置nを初期化(n=1)した後(ステップS13)に、ステップS2へ戻る。   When the display output of one adjusted color image frame 18 to the display 9 is completed, it is confirmed that the frame number m of each image frame 18 and 20 has not reached the final frame number M (step S11). After the number m is updated (m = m + 1) (step S12), and the pixel position n is initialized (n = 1) (step S13), the process returns to step S2.

各画像フレーム18、20のフレーム番号mが最終フレーム番号Mに達すると、画像ファイル5の色画像シーケンスファイル6に記憶されたM枚の色画像フレーム18の画像調整及び表示器9に対する表示処理が終了したので、この流れ図を終了する。   When the frame number m of each of the image frames 18 and 20 reaches the final frame number M, image adjustment of the M color image frames 18 stored in the color image sequence file 6 of the image file 5 and display processing for the display unit 9 are performed. Since it is finished, this flowchart is finished.

このように構成された実施形態の画像調整方法及び画像調整装置においては、3次元動画設計装置1で作成された動画の三次元CGデータを採用している。さらに、カメラワーク設定部3で作成された三次元CGデータの三次元空間内に仮想配置されたカメラ10の対象物11を撮影するための動的なカメラワークデータを採用している。そして、色画像フレーム作成部14において、カメラ10から見た、各画素位置nにRGBの画素値Dnが書込まれた、図4に示す、時系列的なM枚の色画像フレーム18が自動作成される。   In the image adjustment method and the image adjustment apparatus of the embodiment configured as described above, the three-dimensional CG data of the moving image created by the three-dimensional moving image design apparatus 1 is adopted. Furthermore, dynamic camera work data for photographing the object 11 of the camera 10 virtually arranged in the three-dimensional space of the three-dimensional CG data created by the camera work setting unit 3 is employed. Then, in the color image frame creation unit 14, the time-series M color image frames 18 shown in FIG. 4 in which the RGB pixel values Dn are written in the respective pixel positions n as viewed from the camera 10 are automatically generated. Created.

さらに、三次元CGデータとカメラワークデータとから、カメラ10から見た、各画素位置nに該当画素位置nが所属する各領域19a〜19eを特定する「1」〜「5」の各識別値Snが書込まれた、図6に示す、時系列的なM枚のマスク画像フレーム20が自動作成される。なお、このマスク画像フレーム20は、三次元CGデータとカメラワークデータとから簡単に作成される、図6(a)に示す領域画像フレーム19から短時間に、かつ領域19a〜19eの範囲を正確に作成できる。   Furthermore, each identification value of “1” to “5” that identifies each of the areas 19a to 19e to which the corresponding pixel position n belongs to each pixel position n viewed from the camera 10 from the three-dimensional CG data and the camera work data. Time-series M mask image frames 20 shown in FIG. 6 in which Sn is written are automatically created. The mask image frame 20 is created easily from the three-dimensional CG data and the camera work data, and the range of the regions 19a to 19e is accurately determined in a short time from the region image frame 19 shown in FIG. Can be created.

したがって、時系列的な複数の色画像フレーム18の画素位置nと時系列的な複数のマスク画像フレーム20の画素位置nとは、1対1で対応しているので、色画像フレーム18、20によって、色画像フレーム18の各領域19a〜19eが正確に特定されたことになる。よって、色画像フレーム18の操作部27で指定された領域19a〜19eに含まれる各画素位置nの画素値Dnを指定された画像調整情報を用いて簡単に調整することが可能となる。   Therefore, since the pixel positions n of the time-series color image frames 18 and the pixel positions n of the time-series mask image frames 20 have a one-to-one correspondence, the color image frames 18, 20 Thus, the areas 19a to 19e of the color image frame 18 are accurately identified. Therefore, it is possible to easily adjust the pixel value Dn at each pixel position n included in the areas 19a to 19e specified by the operation unit 27 of the color image frame 18 using the specified image adjustment information.

すなわち、この画像調整は、既に作成されている二次元の色画像フレーム18の各画素位置nの画素値Dnに対して実施しているので、画像調整を実施するために、レンダリング処理を実施していないので、画像調整の処理速度が上昇する。   That is, since this image adjustment is performed on the pixel value Dn at each pixel position n of the two-dimensional color image frame 18 that has already been created, a rendering process is performed to perform the image adjustment. As a result, the image adjustment processing speed increases.

よって、たとえ、この三次元CGデータをカメラワークに基づいて、コンピュータグラフィックス技術を用いて表示器9にコンピュータグラフィックス画像として表示した状態においても、表示器9に表示された動画像における指定された領域19a〜19eの画像を簡単にかつ正確にリアルタイムで調整できる。   Therefore, even if the three-dimensional CG data is displayed as a computer graphics image on the display device 9 using computer graphics technology based on camera work, it is specified in the moving image displayed on the display device 9. The images of the areas 19a to 19e can be adjusted easily and accurately in real time.

したがって、表示器9に表示された動画像における任意の領域19a〜19eを他の領域に比較して、強調表示することが可能となる。   Therefore, it becomes possible to highlight any areas 19a to 19e in the moving image displayed on the display device 9 in comparison with other areas.

なお、本発明は上述した実施形態に限定されるものではない。実施形態においては、CGデータとして、三次元CGデータを採用している。さらに、仮想配置されたカメラ10で三次元CGデータの対象物11を撮影するための動的なカメラワークデータを採用している。   In addition, this invention is not limited to embodiment mentioned above. In the embodiment, three-dimensional CG data is adopted as the CG data. Furthermore, dynamic camera work data for photographing the object 11 of the three-dimensional CG data with the virtually arranged camera 10 is employed.

しかしながら、CGデータとして、三次元CGデータ以外に、二次元のCGデータを使用することも可能である。また、必ずしもカメラワークデータを採用する必要はない。   However, two-dimensional CG data can also be used as the CG data in addition to the three-dimensional CG data. Further, it is not always necessary to adopt camera work data.

この場合、CGデータから、固定されたカメラ位置に基づいて、2次元の色画像フレーム及びマスク画像フレームを作成する。   In this case, a two-dimensional color image frame and a mask image frame are created from the CG data based on the fixed camera position.

本発明の一実施形態に係わる画像調整方法が適用される画像調整装置の概略構成を示す模式図1 is a schematic diagram showing a schematic configuration of an image adjustment apparatus to which an image adjustment method according to an embodiment of the present invention is applied. 同実施形態の画像調整装置における三次元空間内に仮想配置されたカメラのカメラワークデータを示す図The figure which shows the camera work data of the camera virtually arranged in the three-dimensional space in the image adjustment apparatus of the embodiment 同実施形態の画像調整装置における二次元画像作成部の詳細構成を示すブロック図2 is a block diagram showing a detailed configuration of a two-dimensional image creation unit in the image adjustment apparatus of the embodiment 同実施形態の画像調整装置における色画像フレームの構成を示す模式図Schematic diagram showing the configuration of a color image frame in the image adjustment apparatus of the embodiment 同実施形態の画像調整装置における領域定義メモリの記憶内容を示す図The figure which shows the memory content of the area | region definition memory in the image adjustment apparatus of the embodiment 同実施形態の画像調整装置におけるマスク画像フレームの構成を示す模式図Schematic diagram showing the configuration of a mask image frame in the image adjustment apparatus of the embodiment 同実施形態の画像調整装置における動画ファイルの記憶内容を示す図The figure which shows the memory content of the moving image file in the image adjustment apparatus of the embodiment 同実施形態の画像調整装置における画像調整部の詳細構成を示すブロック図2 is a block diagram showing a detailed configuration of an image adjustment unit in the image adjustment apparatus of the embodiment. FIG. 同画像調整部の動作を示す流れ図Flow chart showing the operation of the image adjustment unit

符号の説明Explanation of symbols

1…三次元動画設計装置、2…二次元画像作成部、3…カメラワーク設定部、5…動画ファイル、6…色画像シーケンスファイル、7…マスク画像シーケンスファイル、8…画像調整部、9…表示器、10…カメラ、11…対象物、14…色画像フレーム作成部、15…領域抽出部、16…領域定義メモリ、17…マスク画像フレーム作成部、18…色画像フレーム、19…領域画像フレーム、19a〜19e…領域、20…マスク画像フレーム、25…調整画素検出部、26…領域画像調整指定メモリ、28…画素値調整部   DESCRIPTION OF SYMBOLS 1 ... Three-dimensional moving image design apparatus, 2 ... Two-dimensional image creation part, 3 ... Camera work setting part, 5 ... Movie file, 6 ... Color image sequence file, 7 ... Mask image sequence file, 8 ... Image adjustment part, 9 ... Display device, 10 ... camera, 11 ... object, 14 ... color image frame creation unit, 15 ... region extraction unit, 16 ... region definition memory, 17 ... mask image frame creation unit, 18 ... color image frame, 19 ... region image Frame, 19a to 19e ... area, 20 ... mask image frame, 25 ... adjustment pixel detection unit, 26 ... area image adjustment designation memory, 28 ... pixel value adjustment unit

Claims (4)

CGデータから各画素位置に色情報が書込まれた色画像フレームを作成する色画像フレーム作成工程と、
前記CGデータから各画素位置に該当画素位置が所属する各領域を特定する識別値が書込まれたマスク画像フレームを作成するマスク画像フレーム作成工程と、
前記領域を指定して、該当領域に含まれる各画素位置の各色情報を共通に調整するための画像調整情報を指定する領域画像調整指定工程と、
前記色画像フレームを構成する各画素位置と前記マスク画像フレームの対応する各画素位置の識別値とを参照して、前記色画像フレームを構成する各画素位置における前記領域画像調整指定工程で指定された領域に含まれる各画素位置を検出する画素位置検出工程と、
この画素位置検出工程で検出された画素位置の色情報を前記領域画像調整指定工程で指定された画像調整情報を用いて調整する画像調整工程と
を備えた画像調整方法。
A color image frame creation step of creating a color image frame in which color information is written at each pixel position from CG data;
A mask image frame creating step for creating a mask image frame in which an identification value for specifying each region to which the corresponding pixel position belongs at each pixel position is written from the CG data;
An area image adjustment designation step for designating image adjustment information for commonly adjusting the color information of each pixel position included in the area by designating the area;
It is designated in the region image adjustment designation step at each pixel position constituting the color image frame with reference to each pixel position constituting the color image frame and an identification value of each corresponding pixel position of the mask image frame. A pixel position detection step for detecting each pixel position included in the region,
An image adjustment method comprising: adjusting the color information of the pixel position detected in the pixel position detection step using the image adjustment information specified in the region image adjustment specifying step.
CGデータから各画素位置に色情報が書込まれた色画像フレームを作成する色画像フレーム作成手段と、
前記CGデータから各画素位置に該当画素位置が所属する各領域を特定する識別値が書込まれたマスク画像フレームを作成するマスク画像フレーム作成手段と、
前記領域を指定して、該当領域に含まれる各画素位置の各色情報を共通に調整するための画像調整情報を指定する領域画像調整指定手段と、
前記色画像フレームを構成する各画素位置と前記マスク画像フレームの対応する各画素位置の識別値とを参照して、前記色画像フレームを構成する各画素位置における前記領域画像調整指定手段で指定された領域に含まれる各画素位置を検出する画素位置検出手段と、
この画素位置検出手段で検出された画素位置の色情報を前記領域画像調整指定手段で指定された画像調整情報を用いて調整する画像調整手段と
を備えた画像調整装置。
Color image frame creation means for creating a color image frame in which color information is written at each pixel position from CG data;
A mask image frame creating means for creating a mask image frame in which an identification value for specifying each region to which the corresponding pixel position belongs at each pixel position is written from the CG data;
Area image adjustment designating means for designating image adjustment information for commonly adjusting the color information of each pixel position included in the area by designating the area;
Designated by the region image adjustment designating means at each pixel position constituting the color image frame with reference to each pixel position constituting the color image frame and an identification value of each corresponding pixel position of the mask image frame Pixel position detecting means for detecting each pixel position included in the region,
An image adjustment apparatus comprising: image adjustment means for adjusting color information of a pixel position detected by the pixel position detection means using image adjustment information designated by the region image adjustment designation means.
前記マスク画像フレーム作成手段は、前記CGデータ内の座標データを用いて前記各領域を定めることを特徴とする請求項2記載の画像調整装置。   The image adjustment apparatus according to claim 2, wherein the mask image frame creation means determines each area using coordinate data in the CG data. 動画の三次元CGデータと、この三次元CGデータの三次元空間内に仮想配置されたカメラの前記動画を撮影するための動的なカメラワークデータとから、前記カメラから見た、各画素位置に色情報が書込まれた時系列的な複数の色画像フレームを作成する色画像フレーム作成手段と、
前記動画の三次元CGデータと前記カメラワークデータとから、前記カメラから見た、各画素位置に該当画素位置が所属する各領域を特定する識別値が書込まれた時系列的な複数のマスク画像フレームを作成するマスク画像フレーム作成手段と、
前記領域を指定して、該当領域に含まれる各画素位置の各色情報を共通に調整するための画像調整情報を指定する領域画像調整指定手段と、
前記色画像フレームを構成する各画素位置と前記マスク画像フレームの対応する各画素位置の識別値とを参照して、前記色画像フレームを構成する各画素位置における前記領域画像調整指定手段で指定された領域に含まれる各画素位置を検出する画素位置検出手段と、
この画素位置検出手段で検出された画素位置の色情報を前記領域画像調整指定手段で指定された画像調整情報を用いて調整する画像調整手段と
を備えた画像調整装置。
Each pixel position seen from the camera from the three-dimensional CG data of the moving image and the dynamic camera work data for shooting the moving image of the camera virtually arranged in the three-dimensional space of the three-dimensional CG data A color image frame creating means for creating a plurality of time-series color image frames in which color information is written,
A plurality of time-series masks in which identification values specifying each region to which each pixel position belongs are written to each pixel position, as viewed from the camera, from the three-dimensional CG data of the moving image and the camera work data. A mask image frame creating means for creating an image frame;
Area image adjustment designating means for designating image adjustment information for commonly adjusting the color information of each pixel position included in the area by designating the area;
Designated by the region image adjustment designating means at each pixel position constituting the color image frame with reference to each pixel position constituting the color image frame and an identification value of each corresponding pixel position of the mask image frame Pixel position detecting means for detecting each pixel position included in the region,
An image adjustment apparatus comprising: image adjustment means for adjusting color information of a pixel position detected by the pixel position detection means using image adjustment information designated by the region image adjustment designation means.
JP2005133435A 2005-04-28 2005-04-28 Image adjustment method and image adjustment apparatus Expired - Fee Related JP4696669B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005133435A JP4696669B2 (en) 2005-04-28 2005-04-28 Image adjustment method and image adjustment apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005133435A JP4696669B2 (en) 2005-04-28 2005-04-28 Image adjustment method and image adjustment apparatus

Publications (2)

Publication Number Publication Date
JP2006309613A true JP2006309613A (en) 2006-11-09
JP4696669B2 JP4696669B2 (en) 2011-06-08

Family

ID=37476408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005133435A Expired - Fee Related JP4696669B2 (en) 2005-04-28 2005-04-28 Image adjustment method and image adjustment apparatus

Country Status (1)

Country Link
JP (1) JP4696669B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120092A (en) * 2002-09-24 2004-04-15 Canon Inc Image processing apparatus, image processing system, image processing method, storage medium, and program
JP2004246460A (en) * 2003-02-12 2004-09-02 Daihatsu Motor Co Ltd Computer graphics device and design program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120092A (en) * 2002-09-24 2004-04-15 Canon Inc Image processing apparatus, image processing system, image processing method, storage medium, and program
JP2004246460A (en) * 2003-02-12 2004-09-02 Daihatsu Motor Co Ltd Computer graphics device and design program

Also Published As

Publication number Publication date
JP4696669B2 (en) 2011-06-08

Similar Documents

Publication Publication Date Title
US9934562B2 (en) Method for dynamic range editing
US9459820B2 (en) Display processing apparatus, display processing method, and computer program product
US8213711B2 (en) Method and graphical user interface for modifying depth maps
US10750141B2 (en) Automatic calibration projection system and method
US10950039B2 (en) Image processing apparatus
EP3218878B1 (en) Image to item mapping
US8237730B1 (en) Tone mapping for motion pictures
JP2005526302A (en) Method and apparatus for changing the focus of a scene
US20120212477A1 (en) Fast Haze Removal and Three Dimensional Depth Calculation
WO2019198570A1 (en) Video generation device, video generation method, program, and data structure
JP6028527B2 (en) Display processing apparatus, display processing method, and program
KR101548236B1 (en) Color compansation method for 3D Image
CN109643462B (en) Real-time image processing method based on rendering engine and display device
RU2735066C1 (en) Method for displaying augmented reality wide-format object
CA2674104C (en) Method and graphical user interface for modifying depth maps
JPH1153508A (en) Electronic graphic system and method for processing image data
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
CN113935891B (en) Pixel-style scene rendering method, device and storage medium
JP4696669B2 (en) Image adjustment method and image adjustment apparatus
US11941408B2 (en) Encoding stereo splash screen in static image
WO2019045010A1 (en) Information processing device, information processing system, and information processing method
JP7391502B2 (en) Image processing device, image processing method and program
JPH0546718A (en) Picture editing device
JP2008278103A (en) Video composition device and video composition program
JP4956574B2 (en) Stereoscopic image drawing apparatus and drawing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110107

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110214

LAPS Cancellation because of no payment of annual fees