JP2005260630A - Image composition by superposing images together to generate composite image - Google Patents
Image composition by superposing images together to generate composite image Download PDFInfo
- Publication number
- JP2005260630A JP2005260630A JP2004070237A JP2004070237A JP2005260630A JP 2005260630 A JP2005260630 A JP 2005260630A JP 2004070237 A JP2004070237 A JP 2004070237A JP 2004070237 A JP2004070237 A JP 2004070237A JP 2005260630 A JP2005260630 A JP 2005260630A
- Authority
- JP
- Japan
- Prior art keywords
- image
- generation apparatus
- data
- frame
- display mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像を重ね合わせて合成画像を生成する技術に関する。 The present invention relates to a technique for generating a composite image by superimposing images.
近年では、デジタルスチルカメラ等の普及により、画像をデジタルデータで簡便に入手できる。こうして撮像した撮像画像はそのまま印刷等の処置を処されるほか、撮影画像を、いわゆるフレームと重ね合わせる技術が提案されている(例えば、特許文献1)。 In recent years, with the spread of digital still cameras and the like, images can be easily obtained as digital data. In addition to processing the print image or the like as it is, a technique for superimposing the shot image on a so-called frame has been proposed (for example, Patent Document 1).
画像撮影に際しては、その後のフレームとの合成を考慮されることは少ない。よって、撮影済み画像をフレームと合成すると、合成画像に違和感が生じることがある。例えば、画像撮像に際しては、その撮像画像の大きさに合わせたバランスで人物、建物等の被写体の写し込みを行うので、限られた領域しか画像を透視させないフレームと合成すると、合成後の画像において被写体のバランスが崩れ違和感を抱くことがある。特に、人物の顔部分をフレームの透視領域から透視させるような場合には、その顔部分がフレームの透視領域から外れないようにするには、合成に際してユーザによる画像の移動等が必要となり煩雑であった。 When shooting an image, there is little consideration for subsequent synthesis with a frame. Therefore, when a captured image is combined with a frame, the combined image may be uncomfortable. For example, when capturing an image, since a subject such as a person or a building is imprinted with a balance that matches the size of the captured image, combining with a frame that allows only a limited area to see through the image, The balance of the subject may be lost and the user may feel uncomfortable. In particular, when making a person's face portion transparent from the fluoroscopic region of the frame, it is necessary for the user to move the image during composition in order to prevent the face portion from deviating from the fluoroscopic region of the frame. there were.
本発明は、上記問題点を解決するためになされ、画像を重ね合わせた合成画像における違和感の低減や画像合成の簡略化を図ることを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to reduce a sense of incongruity in a composite image in which images are superimposed and to simplify image composition.
かかる課題の少なくとも一部を解決するため、本発明の画像生成装置では、重ね合わせ対象となる第1画像と当該第1画像の透視領域を有する第2画像の両画像の合成に先立ち、透視領域から透視されることになる第1画像を加工する。この加工に際しては、第2画像の透視領域に所定の関係で対応するよう第1画像の表示態様を決定し、この決定した表示態様の画像表示となるように、第1画像を構成する第1画像データを調整する。このため、第2画像の透視領域でしか視認されない第1画像の画像部位は、この透視領域に、例えば、そのサイズや位置の点で対応するものとなる。よって、第1画像とその透視領域を有する第2画像を合成して得られた画像としての違和感を軽減できる。また、サイズや画像部位位置の決定のためのユーザの作業が不要となり、簡便である。 In order to solve at least a part of the problem, in the image generation apparatus according to the present invention, prior to the synthesis of both the first image to be superimposed and the second image having the fluoroscopic area of the first image, the fluoroscopic area. The first image to be seen through is processed. In this processing, the display mode of the first image is determined so as to correspond to the fluoroscopic region of the second image in a predetermined relationship, and the first image is configured so as to display the image of the determined display mode. Adjust the image data. For this reason, the image part of the first image that is visible only in the fluoroscopic region of the second image corresponds to the fluoroscopic region, for example, in terms of its size and position. Therefore, it is possible to reduce a sense of incongruity as an image obtained by combining the first image and the second image having the perspective area. In addition, the user's work for determining the size and the position of the image part is not necessary, which is simple.
こうした本発明の画像生成装置において、を構成する第2画像データに第1画像の表示サイズを決定する情報と第1画像の画像部位位置を決定する情報の少なくとも一方を含ませるようにすることができる。このようにすれば、画像の表示態様の決定、その後の調整が簡便となる。 In such an image generation apparatus of the present invention, the second image data constituting the image data may include at least one of information for determining a display size of the first image and information for determining an image part position of the first image. it can. In this way, determination of the display mode of the image and subsequent adjustment are simplified.
また、第1画像の画像調整を、透視領域に透視表示される第1画像の画像部位については画像を構成する画像データの統計的特性に基づいた画像データ補正を行うようにすることもできる。こうすれば、第1画像の性質を第1画像データでより的確に把握できるので、第1画像が表示される領域が第2画像で制限された場合の画像調整済み第1画像の違和感を軽減できる。 In addition, the image adjustment of the first image may be performed on the image portion of the first image that is transparently displayed in the perspective area, based on the statistical characteristics of the image data constituting the image. In this way, the nature of the first image can be grasped more accurately by the first image data, so that the uncomfortable feeling of the image-adjusted first image when the area where the first image is displayed is limited by the second image is reduced. it can.
上記の本発明の画像生成装置において、更に、透視領域の異なる画像を複数記憶する記憶部と、この記憶された複数の画像の一つを第2画像として選択する画像選択部とを備えるようにすることもできる。こうすれば、透視領域が相違する第2画像を第1画像に合成した場合にあっても違和感を軽減でき、適用範囲の拡大を図ることができる。しかも、記憶部を外部からの画像入力が可能なものとすれば、より好ましい。 The image generation apparatus of the present invention described above further includes a storage unit that stores a plurality of images with different perspective areas, and an image selection unit that selects one of the stored images as a second image. You can also In this way, even when the second image having a different perspective area is combined with the first image, the uncomfortable feeling can be reduced and the application range can be expanded. Moreover, it is more preferable if the storage unit can input an image from the outside.
上記した本発明の画像合成は、種々の形態で実現することが可能であり、例えば、画像合成方法はもとより、画像合成装置や方法の機能をコンピュータに実現させるためのコンピュータプログラム、そのプログラムを記録した記録媒体等の形態で実現することができる。 The above-described image composition of the present invention can be realized in various forms. For example, in addition to the image composition method, a computer program for causing a computer to realize the functions of the image composition apparatus and method, and the program are recorded. It can be realized in the form of a recording medium or the like.
以下、本発明の実施の形態について、実施例に基づき以下の順序で説明する。
A.第1実施例:
A1.画像処理装置の構成:
A2.画像処理:
B.第2実施例の画像処理:
C.第3実施例の画像処理:
D.変形例:
Hereinafter, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
A1. Configuration of image processing device:
A2. Image processing:
B. Image processing of the second embodiment:
C. Image processing of the third embodiment:
D. Variation:
A.第1実施例:
A1.画像処理装置の構成:
図1は本発明の第1実施例としての画像処理システム100を示す説明図である。図示するように、この画像処理システム100は、動画像や静止画像などの画像データを供給する画像データベース20、画像データベース20から入力した画像に対して画像処理を実行する画像処理装置としてのパーソナルコンピュータ30、画像処理の実行をユーザが指示するためのユーザインターフェース40、画像処理を施した画像を出力するカラープリンタ50等から構成されている。
A. First embodiment:
A1. Configuration of image processing device:
FIG. 1 is an explanatory diagram showing an
画像データベース20は、デジタルビデオカメラ21,デジタルスチルカメラ22,DVD23,ハードディスク24,携帯電話25などの画像を取り扱う機器を有し、パーソナルコンピュータ30へ画像データを供給する。なお、第1実施例の画像データベース20に保有される画像データは、デジタルスチルカメラ22で取得した静止画像データである。パーソナルコンピュータ30は、後述する合成画像を、画像データベース20のデジタルスチルカメラ22や携帯電話25等に出力するほか、カラープリンタ50にも出力するよう、構成されている。
The
パーソナルコンピュータ30は、画像処理を実行するCPU31、ROM32、RAM33、画像処理のソフトウェアをインストールするハードディスク34、画像データベース20,ユーザインターフェース40やカラープリンタ50などの外部機器とやり取りするためのI/F回路35等を有している。ハードディスク34にインストールされたソフトウェアの画像処理は、入力した複数枚、詳しくは2枚の静止画像を合成して一枚の高解像度の静止画像を生成する処理である。このソフトウェアをインストールしたパーソナルコンピュータ30は、画像処理装置としての「画像加工部」,「合成部」,「表示態様決定部」,「調整部」の各機能を有する。なお、この画像処理の流れについては、後に詳しく説明する。
The
ユーザインターフェース40は、ユーザが画像処理の実行操作を行なうためのキーボード41やマウス42、画像処理を実行する前の画像や合成処理後の静止画像を表示するディスプレイ43などを備えている。
The
A2.画像処理:
図2は重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第1実施例の画像処理のフローチャート、図3は第1実施例の画像処理の全体の様子を説明するための説明図である。第1画像は、第2画像の下となるように重ねられる画像であり、以下の説明では、合成対象元画像と称する。第2画像は、第1画像(合成対象元画像)の一部領域を透視させる透視領域を有する画像であり、フレーム画像と称する。上述のハード構成を有する画像処理システム100において、ユーザがキーボード41やマウス42を操作することで、パーソナルコンピュータ30にインストールされた画像処理が開始される。
A2. Image processing:
FIG. 2 is a flowchart of image processing according to the first embodiment for generating a single still image by combining the first image and the second image to be superimposed, and FIG. 3 is an overall state of the image processing according to the first embodiment. It is explanatory drawing for demonstrating. The first image is an image that is superimposed so as to be below the second image, and is referred to as a composition target original image in the following description. The second image is an image having a fluoroscopic region that allows a partial region of the first image (composition target original image) to be seen through, and is referred to as a frame image. In the
画像処理が開始すると、パーソナルコンピュータ30は、画像データベース20にフレーム画像群として記憶済みの各フレーム画像をディスプレイ43上で表示する(ステップS200)。この際の表示には、例えばディスプレイ43の右半分の表示領域に、サムネイル状に一覧表示したり、各画像を一枚ずつ順次表示切り替えしてもよい。ユーザは、所望するフレーム画像をマウス操作等で特定するので、パーソナルコンピュータ30は、このフレーム画像の選択有無を判定し(ステップS210)、待機する。
When image processing starts, the
パーソナルコンピュータ30は、選択されたフレーム画像を構成する画素(例えば、ドットマトリックス状の画素)のデータ(画像データ)を読み込む(ステップS220)。この画像データは、RGBの色データの他、画像透過の可否を決定するアルファチャンネルデータを併せ持って構成されている。パーソナルコンピュータ30は、こうしたフレーム画像の画像データ読み込みにより、アルファチャンネルデータで透過するとされた領域(フレーム画像における透視領域)を決定する(ステップS230)。この透視領域に、合成対象元画像が当該透視領域と後述の関係を持った表示態様で表示されることになる。
The
図3を用いて説明すると、パーソナルコンピュータ30は、マトリックス座標の開始点座標(Xs,Ys)から終点座標(Xe,Ye)の各画素の画像データを読み込み、座標(Xa1,Yb1)、(Xa1,Ybi)、(Xai,Yb1)、(Xai,Ybi)で囲まれた矩形形状のフレーム画像の透視領域とする。これは、フレーム画像におけるこの矩形領域の画像データは、総て画像透過を行うとしてアルファチャンネルデータを有するからである。この場合、フレーム画像の透視領域が矩形形状であると定まっていれば、対角の座標(Xa1,Yb1)、(Xai,Ybi)で合成対象元画像を表示するフレーム画像の透視領域を決定可能である。また、フレーム画像の透視領域が、異形形状であれば、その異形形状を取り囲む矩形形状を、合成対象元画像の仮の透視領域とでき、合成後にあっては、合成対象元画像はこの異形形状の透視領域において透視表示される。この点については、後述する。
Referring to FIG. 3, the
透視領域は、フレーム画像が異なれば相違するので、画像合成に用いるフレーム画像ごとに、ステップS230にて透視領域を決定するのである。なお、一旦決定した透視領域を、そのフレーム画像の識別データ(例えば、フレーム名称データ)と対応付けてハードディスク34に記憶させ、次回からはフレーム画像の識別データ判別を経て、フレーム画像の透視領域を決定するように構成することもできる。
Since the fluoroscopic region is different if the frame images are different, the fluoroscopic region is determined in step S230 for each frame image used for image synthesis. The fluoroscopic area once determined is stored in the
パーソナルコンピュータ30は、フレーム画像の表示・選択待機と同様、画像データベース20に合成対象元画像群として記憶済みの各合成対象元画像をディスプレイ43上で表示し(ステップS240)、ユーザによる合成対象元画像の選択を待機する(ステップS250)。この場合、本画像合成処理に先立ちこうした合成対象元画像表示を行い、ユーザによる合成対象元画像の選択を受けて、本画像合成処理を実行するように構成することもできる。このように構成すれば、ステップS240と250は省略される。
The
パーソナルコンピュータ30は、選択された合成対象元画像を構成する画素(例えば、ドットマトリックス状の画素)のデータ(画像データ)を読み込み(ステップS260)、合成対象元画像のサイズ決定・スケーリングを行う(ステップS270)。つまり、このステップS270では、図3に示すように、読み込んだ画像データ(例えば、マトリックス座標の開始点座標(Xms,Yms)から終点座標(Xme,Yme))から得られる合成対象元画像の画像サイズとステップS230で決定した透視領域のサイズを対比し、フレーム画像の透視領域に合成対象元画像全域を透視表示する際の合成対象元画像の表示態様の一つである画像サイズを決定し、当該サイズとなるように画像データを補正するスケーリング(縮小・拡大)を行う。
The
このサイズ決定・スケーリング(画像データ処理)に続き、パーソナルコンピュータ30は、スケーリング後の合成対象元画像を構成する画素の画像データ(RGB色データ)を画素ごとにサンプリングし、このサンプリングの結果として得られる画像の統計的特性に基づいたデータ処理を行う(ステップS280)。このサンプリング・データ処理を図3で説明すると、合成対象元画像の画素の画像データ(RGB色データ)を画素ごとにサンプリングし、その統計的特性として輝度分布のヒストグラムを得る。そして、例えば、このヒストグラム(メジアンm0)を、正規分布のヒストグラム(メジアンm)に近づくようデータ処理を行い明度調整する。この他、ヒストグラムの最大値・最小値を左右に広げるようなデータ処理を行いコントラスト調整を行うようにすることもできる。なお、こうしたデータ処理を便宜上、補正αと称する。
Following this sizing / scaling (image data processing), the
ステップS280に続いて、パーソナルコンピュータ30は、上記の補正αによるデータ処理済みの画像データに基づいて合成対象の新画像を生成し(ステップS290)、こうして生成した合成対象新画像と、ステップS210で選択済みのフレーム画像とを、フレーム画像が上になるように重ねて合成し(ステップS300)、本ルーチンを終了する。この画像合成の際は、合成対象新画像の座標(Xa1、Ya1)がフレーム画像における座標(Xa1、Ya1)と一致するよう位置あわせして、行われる。
Subsequent to step S280, the
得られた合成画像は、ハードディスク24等に記憶され、ユーザインターフェース40からの指示に基づき、カラープリンタ50に印刷画像として出力されたり、ディスプレイ43や携帯電話25の壁紙画像として出力される。
The obtained composite image is stored in the
この一連の画像合成処理を行う本実施例では、フレーム画像と合成対象の画像とを重ねて合成するに際して、フレーム画像が合成対象元画像を視認させる透視領域のサイズに合わせて合成対象元画像のサイズを決定し、そのサイズの画像とした上で、フレーム画像に合成させる。よって、フレーム画像の透視領域に対して合成後の新画像(合成対象新画像)をサイズの点で不釣り合いとなるような画像として表示しないので、合成後の画像としての違和感を軽減できる。しかも、こうしたサイズ決定を経た画像合成に際しては、ユーザによるマウス操作等による画像移動等の操作を必要としないので、簡便となる。 In the present embodiment in which this series of image composition processing is performed, when the frame image and the image to be synthesized are superimposed and synthesized, the frame image matches the size of the fluoroscopic region for visually recognizing the composition target original image. The size is determined, and an image of that size is formed and then combined with the frame image. Therefore, since the new image after synthesis (the new image to be synthesized) is not displayed as an image that is disproportionate in size with respect to the fluoroscopic region of the frame image, it is possible to reduce a sense of discomfort as an image after synthesis. In addition, when an image is composited after such a size determination, an operation such as image movement by a mouse operation or the like by the user is not required, which is convenient.
また、本実施例では、フレーム画像への合成に際して、合成対象元画像についてその画像データの統計的特性に基づいた画像データ補正(補正α)を実施した。よって、合成対象元画像が有する画像の性質を的確に反映させた上で、補正後の画像をフレーム画像に合成できることから、透視領域において合成対象新画像を透視させたフレーム画像全体としての違和感も軽減できる。 Further, in this embodiment, image data correction (correction α) based on the statistical characteristics of the image data is performed on the composition target original image when combining with the frame image. Therefore, since the corrected image can be combined with the frame image while accurately reflecting the properties of the image of the original image to be combined, there is also a sense of incongruity as the entire frame image in which the new image to be combined is seen through in the fluoroscopic region. Can be reduced.
さらに、本実施例では、画像データベース20に、フレーム画像となり得るフレーム画像を複数記憶させ、その中から選択されたフレーム画像の透視領域に対応する合成対象元画像の被透視領域を決定するようにした(ステップS200〜230)。よって、透視領域が相違するフレーム画像を、同一の合成対象元画像に合成した場合にあっても違和感を軽減でき、適用範囲の拡大を図ることができる。しかも、種々のフレーム画像を画像データベース20のDVD23,ハードディスク24に記憶させておき、その画像を画像合成の際に用いるようにしたので、種々のフレーム画像と合成対象元画像を合成した多様な合成画像を生成できる。なお、種々のフレーム画像をハードディスク34に記憶させておき、その画像を用いるようにすることもできる。
Furthermore, in the present embodiment, a plurality of frame images that can be frame images are stored in the
B.第2実施例の画像処理:
第2実施例は、そのハード構成は先に説明した第1実施例と変わるものはなく、その画像処理の内容が一部相違する。図4は重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第2実施例の画像処理のフローチャート、図5は第2実施例の画像処理の内容を説明するための説明図である。
B. Image processing of the second embodiment:
The hardware configuration of the second embodiment is not different from that of the first embodiment described above, and the contents of the image processing are partially different. FIG. 4 is a flowchart of image processing according to the second embodiment for generating a single still image by synthesizing the first image and the second image to be superimposed, and FIG. 5 illustrates the contents of the image processing according to the second embodiment. It is explanatory drawing for doing.
図4に示すように、この第2実施例にあっても、パーソナルコンピュータ30は、まず、画像データベース20にフレーム画像群として記憶済みの各フレーム画像をディスプレイ43上で表示し(ステップS200)、ユーザによるフレーム画像の選択を待機する(ステップS210)。フレーム画像が選択されると、パーソナルコンピュータ30は、選択されたフレーム画像が有する画像データの読み込みとその解析を実行する(ステップS225)。
As shown in FIG. 4, even in the second embodiment, the
この実施例では、フレーム画像が有する画像データ構造に特徴があり、図5に示すように、その画像データは、合成対象元画像のサイズ変更(スケーリング)に関与するデータを含むメータデータと、RGB色データ等のフレームイメージデータとを含む。メタデータは、フレーム画像のフレーム名称のデータの他、合成対象元画像のサイズ決定に必要とされる透視領域データ(既述した開始点座標(Xs,Ys)や透視領域の座標(Xa1,Yb1)、(Xai,Ybi))とを含む。 In this embodiment, there is a feature in the image data structure of the frame image. As shown in FIG. 5, the image data includes meter data including data related to the size change (scaling) of the composition target original image, RGB data Frame image data such as color data. In addition to the frame name data of the frame image, the metadata includes the perspective area data (start point coordinates (Xs, Ys) described above and the coordinates of the perspective area (Xa1, Yb1) required for determining the size of the composition target original image. ), (Xai, Ybi)).
本実施例では、フレーム画像は矩形形状の透視領域を有すると仮定しているので、透視領域データとしては、矩形形状の始点座標(Xa1,Yb1)と終点座標(Xai,Ybi)を持てば足り、データ構成が単純となる。また、フレーム画像の画像データの読み込みに伴うアルファチャンネルデータの有無の判定と、その結果による透視領域決定の処理(図2のステップS230の処理)とが不要となり、簡便である。 In this embodiment, since it is assumed that the frame image has a rectangular perspective area, it is sufficient to have the rectangular start point coordinates (Xa1, Yb1) and end point coordinates (Xai, Ybi) as the perspective area data. The data structure becomes simple. Further, the determination of the presence / absence of alpha channel data associated with the reading of the image data of the frame image and the process of determining the fluoroscopic region based on the result (the process of step S230 in FIG. 2) are unnecessary and simple.
パーソナルコンピュータ30は、こうした諸データを読み込んで解析することで、既述したように合成対象元画像のサイズ決定・スケーリングに関するデータを収得すると、画像データベース20に合成対象元画像群として記憶済みの各合成対象元画像の表示(ステップS240)、ユーザによる合成対象元画像の選択待機(ステップS250)を行う。その後、選択合成対象元画像の画像データ読み込みを行い(ステップS260)、ステップS235で解析決定した透視領域サイズに基づいて、既述したように合成対象元画像のサイズ決定・スケーリングを行う(ステップS270)。
When the
ステップS270に続いては、既述したステップS280〜ステップS300の処理を実行して、画像の統計的特性に基づいた補正αを経て生成した合成対象新画像とフレーム画像とを、フレーム画像が上になるように重ねて合成し、本ルーチンを終了する。 Subsequent to step S270, the processing in steps S280 to S300 described above is executed, and the new target image and the frame image generated through the correction α based on the statistical characteristics of the image are displayed. Overlay and combine so that the routine ends.
この一連の画像合成処理を行う本第2実施例にあっても、第1実施例と同様の効果を奏することができる。特に、この第2実施例では、合成対象元画像のサイズ決定に関与するデータをフレーム画像のデータ自体に含ませるので、合成対象元画像のサイズ決定・スケーリング処理が簡便となる。 Even in the second embodiment in which this series of image composition processing is performed, the same effects as in the first embodiment can be obtained. In particular, in the second embodiment, since the data related to the size determination of the composition target original image is included in the data of the frame image itself, the size determination / scaling process of the composition target original image becomes simple.
C.第3実施例の画像処理:
第3実施例は、合成対象元画像をフレーム画像の透視領域で透視させるに当たり、合成対象元画像の特定の画像部位を透視させるようにした点に特徴があり、ハード構成は先に説明した第1実施例と同様である。図6は重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第3実施例の画像処理のフローチャート、図7は第3実施例の画像処理の内容を説明するための説明図、図8は第3実施例の画像処理の全体の様子を説明するための説明図である。
C. Image processing of the third embodiment:
The third embodiment is characterized in that a specific image portion of the composition target original image is seen through when the composition target original image is seen through the perspective region of the frame image, and the hardware configuration is as described above. This is the same as in the first embodiment. FIG. 6 is a flowchart of image processing according to the third embodiment for generating a single still image by synthesizing the first image and the second image to be superimposed, and FIG. 7 illustrates the contents of the image processing according to the third embodiment. FIG. 8 is an explanatory diagram for explaining the overall image processing of the third embodiment.
図6に示すように、この第3実施例にあっても、先の実施例と同様、フレーム画像表示(ステップS200)、フレーム画像の選択待機(ステップS210)を経てフレーム画像が選択されると、パーソナルコンピュータ30は、選択されたフレーム画像が有する画像データの読み込みとその解析を実行する(ステップS225)。
As shown in FIG. 6, even in the third embodiment, when a frame image is selected through frame image display (step S200) and frame image selection standby (step S210), as in the previous embodiment. The
この第3実施例でも、フレーム画像が有する画像データ構造に特徴があり、図7に示すように、その画像データは、合成対象元画像のサイズ変更(スケーリング)および透視領域の画像の性質(フレーム性質)に関与するデータを含むメータデータと、RGB色データ等のフレームイメージデータとを含む。メタデータは、フレーム画像のフレーム名称のデータの他、合成対象元画像のサイズ決定に必要とされる透視領域データ(既述した開始点座標(Xs,Ys)や透視領域の座標(Xa1,Yb1)、(Xai,Ybi))と、合成対象元画像の画像部位を透視領域と対応付けて決定するためのフレーム性質データとを含む。このフレーム性質データは、フレーム画像が有する透視領域の性質に基づいて、当該透視領域に透視表示する合成対象元画像の画像部位位置を決定するためのデータであり、本実施例では、合成対象元画像に含まれる顔部分を透視表示する旨のデータ(顔フレームデータ)が含まれている。よって、このステップS225により、今回処理するフレーム画像は、始点座標(Xa1,Yb1)と終点座標(Xai,Ybi)で決定される矩形領域を透視領域とするものであり、その透視領域に表示する合成対象元画像の画像部位は、当該画像に含まれる顔部分であると解析される。 This third embodiment is also characterized by the image data structure of the frame image. As shown in FIG. 7, the image data includes the size change (scaling) of the composition target original image and the property of the image in the perspective area (frame Meter data including data related to properties) and frame image data such as RGB color data. In addition to the frame name data of the frame image, the metadata includes the perspective area data (start point coordinates (Xs, Ys) described above and the coordinates of the perspective area (Xa1, Yb1) required for determining the size of the composition target original image. ), (Xai, Ybi)) and frame property data for determining the image portion of the composition target original image in association with the fluoroscopic region. This frame property data is data for determining the image part position of the composition target original image to be displayed in a fluoroscopic region based on the property of the perspective region included in the frame image. Data (face frame data) indicating that the face part included in the image is displayed in a perspective manner is included. Therefore, in this step S225, the frame image to be processed this time has a rectangular area determined by the start point coordinates (Xa1, Yb1) and the end point coordinates (Xai, Ybi) as a perspective area, and is displayed in the perspective area. The image part of the composition target original image is analyzed as a face part included in the image.
パーソナルコンピュータ30は、こうした諸データの読み込み・解析に続き、画像データベース20に合成対象元画像群として記憶済みの各合成対象元画像の表示(ステップS240)、ユーザによる合成対象元画像の選択待機(ステップS250)、選択合成対象元画像の画像データ読み込みを行う(ステップS260)。本実施例では、後述するように人物の顔部分をフレーム画像に合成するので、ステップS250では、ユーザにより人物画像が選択される。なお、ステップS225にてフレーム画像の性質が顔フレームであると解析済みであるので、ステップS250でのユーザによる画像選択を、人物画像の選択となるよう促すこともできる。例えば、パーソナルコンピュータ30は、ユーザ選択画像が人物画像であるか風景画像であるかを画像データの解析等により判別し、風景画像が選択されれば、人物画像を選択するようディスプレイ43に表示すればよい。
Following the reading and analysis of such various data, the
次いで、パーソナルコンピュータ30は、ステップS225で読み込んだフレーム性質(顔フレーム)に基づいて、ステップS260で読み込み済みの画像の切り出しを行う(ステップS265)。つまり、この場合は、顔フレームであることから、パーソナルコンピュータ30は、読み込み済み画像(人物画像)を構成する画素の画像データ解析を経て、人物の顔を含む領域を顔部位がほぼ中央に来るよう、切り出す。こうした人物画像からの顔部位切り出しは、例えば肌色の画素集中の様子や肌色画素のエッジの状況を画像データの統計的処理等にて行い、その結果から、画像における人物の顔部位を特定し、その特定した顔部位を取り囲むように画像を切り出せばよい。
Next, the
パーソナルコンピュータ30は、こうして切り出し済みの画像部位(顔部位)の画像サイズとステップS235で解析決定した透視領域サイズとの対比を行い、この切り出し済み画像のサイズ決定・スケーリングを既述したように行う(ステップS267)。ステップS267に続いては、既述したステップS280〜ステップS300の処理を実行して、画像の統計的特性に基づいた補正αを経て生成した合成対象新画像とフレーム画像とを、フレーム画像が上になるように重ねて合成し、本ルーチンを終了する。この場合、ステップS280でのサンプリングは、切り出し済みの顔部位画像について行い、画像の統計的特性に基づいた補正αを経て生成した合成対象新画像は、切り出し済み顔部位画像の補正後の新画像となる。また、ステップS300での画像合成は、合成対象新画像である切り出し済み顔部位画像の補正後の新画像の座標(Xa1、Ya1)がフレーム画像における座標(Xa1、Ya1)と一致するよう位置あわせして、行われる。
The
この一連の画像合成処理を行う本第3実施例にあっても、先の実施例と同様の効果を奏することができる。特に、この第3実施例では、フレーム画像がその透過領域から透過視認させる合成対象元画像の画像部位を、フレーム画像がデータとして有するフレーム性質(顔フレーム)という情報に基づいて決定することで、透過領域での合成対象元画像の表示態様を、人物の顔部位であると決定する。よって、こうした画像部位(顔部位)の切り出しや、切り出し済み顔部位画像の位置調整・画像調整等が簡便となる。 Even in the third embodiment in which this series of image composition processing is performed, the same effects as in the previous embodiment can be obtained. In particular, in the third embodiment, by determining the image part of the composition target original image that the frame image is to be viewed through from the transmission region based on the information on the frame property (face frame) that the frame image has as data, The display mode of the composition target original image in the transparent area is determined to be a human face part. Therefore, it becomes easy to cut out such an image part (face part), position adjustment / image adjustment of the cut-out face part image, and the like.
そして、合成対象元画像から切り出した顔部位の画像について、その画像に含まれる画像データをサンプリングし、このサンプリングの結果として得られる画像の統計的特性に基づいたデータ処理を行う(ステップS282)。このサンプリング・データ処理を図8で説明すると、ステップS225で定めた透視領域は、この領域に組み込まれることになる切り出し済み画像部位(顔部位)にサイズ的に反映し、この画像部位(顔部位)に含まれる画素の画像データ(RGB色データ)を画素ごとにサンプリングし、その統計的特性として既述したような補正αのデータ処理を行い画像調整を行う。よって、次の利点がある。 Then, image data included in the face portion image cut out from the synthesis target original image is sampled, and data processing is performed based on the statistical characteristics of the image obtained as a result of the sampling (step S282). This sampling data processing will be described with reference to FIG. 8. The fluoroscopic region determined in step S225 is reflected in size on the cut-out image part (face part) to be incorporated into this area, and this image part (face part) is reflected. The image data (RGB color data) of the pixels included in () is sampled for each pixel, and the correction α data processing as described above as the statistical characteristics is performed to perform image adjustment. Therefore, there are the following advantages.
例えば、補正αを行う上で求めた輝度分布は、切り出し済み画像部位(顔部位)に含まれる画素の画像データのものであり、合成対象元画像の画像全体をサンプリング領域として得られたものとは相違する。図で説明すると、合成対象元画像には、図8のように図中右方にビルの背景画像が見られるので、合成対象元画像の画像全体をサンプリングすれば、こうした背景画像の画素の画像データもヒストグラムに乗り、輝度分布に影響を与える。ところが、切り出し済み画像部位(顔部位)でのサンプリングは、背景画像の画素の画像データはヒストグラムに乗らず、輝度分布には反映されない。つまり、補正αでのデータ処理の結果(明度・コントラスト等の調整結果)は、切り出し済み画像部位(顔部位)をあたかも全画像としたようなものとなるので、この切り出し済み画像部位(顔部位)をフレーム画像の透視領域から視認した場合にあっては、画像としてのバランスが取れたものとなる。その一方、背景画像を含む合成対象元画像全体のデータ処理結果では、背景画像の画素の画像データが反映したものとなるので、その処理結果の画像を透視領域で切り取って視認したとすれば、その切り取り画像は、背景画像の影響を受けたバランスを有することから、却ってバランスが崩れがちとなる。 For example, the luminance distribution obtained in performing the correction α is that of the image data of the pixels included in the cut-out image part (face part), and the entire image of the composition target original image is obtained as the sampling region. Is different. Explaining in the figure, since the background image of the building can be seen on the right side of the drawing as shown in FIG. 8 in the composition target original image, if the entire image of the composition target original image is sampled, the pixel image of such a background image is displayed. The data also rides on the histogram and affects the luminance distribution. However, in the sampling at the cut-out image part (face part), the image data of the pixels of the background image is not on the histogram and is not reflected in the luminance distribution. That is, the result of the data processing with the correction α (the adjustment result of brightness, contrast, etc.) is as if the clipped image part (face part) is the entire image. ) Is viewed from the perspective area of the frame image, the image is balanced. On the other hand, in the data processing result of the entire composition target original image including the background image, the image data of the pixels of the background image is reflected, so if the image of the processing result is cut out in the perspective area and viewed, Since the cut image has a balance influenced by the background image, the balance tends to be lost.
この結果、フレーム画像と合成されて視認される画像(切り出し済み画像部位(顔部位))は、その視認される透視領域がサイズとして反映した画像の性質に基づく補正α(画像調整)を受けたものとなるので、画像のバランスに崩れはなく違和感を軽減できる。また、透視領域から視認されることになる画像調整は、元画像の画像データのデータ処理によるものであることから、違和感をより確実に軽減できる。 As a result, the image that is visually recognized by being synthesized with the frame image (the cut-out image portion (face portion)) has undergone correction α (image adjustment) based on the properties of the image reflected as the size of the visible fluoroscopic region. As a result, the balance of the image is not lost and the uncomfortable feeling can be reduced. Further, since the image adjustment to be visually recognized from the fluoroscopic region is based on the data processing of the image data of the original image, the uncomfortable feeling can be more reliably reduced.
また、本実施例では、サンプリング結果に基づくデータ処理(補正α)に処されるデータを切り出し済み画像部位(顔部位)に含まれるものとするので、そのデータ数が少なくて済む。よって、演算負荷を軽減でき好ましい。 Further, in this embodiment, since the data to be processed by the data processing (correction α) based on the sampling result is included in the cut-out image part (face part), the number of data can be reduced. Therefore, the calculation load can be reduced, which is preferable.
D.変形例:
以上いくつかの実施例について説明したが、本発明はこれら実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において、種々の態様で実施可能である。例えば、次のような変形も可能である。
D. Variation:
Although some examples have been described above, the present invention is not limited to these examples and embodiments, and can be implemented in various modes without departing from the scope of the invention. For example, the following modifications are possible.
図9はフレーム画像が異形形状の透視領域TRを有する場合における合成対象元画像のサイズ決定手法(ステップS270)の変形例を説明する説明図である。この変形例は、フレーム画像の透視領域が異形形状を取る場合に、合成対象元画像とそのサイズ決定に際して対比する仮想の透視領域を矩形形状として決定する手法を取っている。 FIG. 9 is an explanatory diagram illustrating a modification of the method for determining the size of the composition target original image (step S270) when the frame image has an irregularly shaped perspective region TR. In this modified example, when the perspective area of the frame image has an irregular shape, a virtual perspective area to be compared when determining the size of the composition target original image and its size is determined as a rectangular shape.
図9に示すように、フレーム画像が図示する異形形状の透視領域TRを有する際には、その透視領域の外郭線と接し当該透視領域を取り囲む矩形形状HTRを、フレーム画像の画同データ解析、或いは、フレーム画像が予め有するこの矩形形状HTRの座標データ等から定める。そして、この矩形形状HTRとの対比を経て、合成対象元画像のサイズ決定を行い、スケーリングする。 As shown in FIG. 9, when the frame image has an irregularly shaped perspective region TR shown in the figure, a rectangular shape HTR that is in contact with the outline of the perspective region and surrounds the perspective region is analyzed with the same data analysis of the frame image. Alternatively, it is determined from the coordinate data of the rectangular shape HTR that the frame image has in advance. Then, the size of the composition target original image is determined and scaled through comparison with the rectangular shape HTR.
また、合成対象元画像の補正αによるデータ処理に際しては、合成対象元画像のサイズ決定・スケーリング後の画像のデータについて行ったが、この合成対象元画像の読み込み後に補正αを実行し、その後に、サイズ決定・スケーリングを行うようにすることもできる。また、第3実施例では、顔部位の切り出し・サイズ決定・スケーリング後の画像(切り出し済み顔部位の画像)のデータについて補正αを行ったが、切り出し済みの顔部位の画像について先に補正αのデータ補正を行い、その後、サイズ決定・スケーリングを行うようにすることもできる。 In addition, in the data processing by the correction α of the composition target original image, the image data after the size determination / scaling of the composition target original image was performed. After the composition target original image is read, the correction α is executed, Sizing and scaling can also be performed. In the third embodiment, the correction α is performed on the data of the face part cut-out, size determination, and scaled image (the cut-out face part image), but the cut-out face part image is corrected first. It is also possible to perform data correction, and then perform size determination / scaling.
また、上記の各実施例では、フレーム画像を合成対象元画像の上に来るものとして説明した。しかし、合成対象元画像のサイズ決定・スケーリングを経ていることから、透視領域とスケーリング後の画像が同一形状の矩形形状であれば、合成対象元画像をフレーム画像の透視領域の上に重ねるように構成することもできる。また、図9に示すように、透視領域が異形形状であっても、図中の矩形形状HTRでサイズ決定・スケーリングした画像を、透視領域の異形形状輪郭に沿って切り抜けば、合成対象元画像をフレーム画像の透視領域の上に重ねるように構成することもできる。 In each of the above-described embodiments, the frame image is described as being on the composition target original image. However, since the composition target original image has been sized and scaled, if the perspective area and the scaled image are the same rectangular shape, the composition target original image is superimposed on the perspective area of the frame image. It can also be configured. Further, as shown in FIG. 9, even if the perspective region has an irregular shape, if the image that has been sized and scaled by the rectangular shape HTR in the figure is cut out along the irregular shape contour of the perspective region, the composition target original image Can be configured to overlap with the fluoroscopic region of the frame image.
20...画像データベース
21...デジタルビデオカメラ
22...デジタルスチルカメラ
23...DVD
24...ハードディスク
25...携帯電話
30...パーソナルコンピュータ
34...ハードディスク
40...ユーザインターフェース
41...キーボード
42...マウス
43...ディスプレイ
50...カラープリンタ
100...画像処理システム
TR...透視領域
HTR...矩形形状
20 ...
24 ...
Claims (11)
重ね合わせ対象となる第1画像と第2画像のうち、前記第1画像を加工する画像加工部と、
前記第1画像を透視させる透視領域を有する前記第2画像の前記透視領域に前記第1画像が重なるように、前記第2画像と前記調整後の第1画像とを合成する合成部とを備え、
前記画像加工部は、
前記第2画像が有する前記透視領域に所定の関係で対応するよう前記第1画像の表示態様を決定する表示態様決定部と、
該決定した表示態様での画像表示となるように、前記第1画像を構成する第1画像データを調整する調整部とを有する
画像生成装置。 An image generation device that generates a composite image by superimposing images,
Of the first image and the second image to be superimposed, an image processing unit that processes the first image;
A synthesis unit that synthesizes the second image and the adjusted first image so that the first image overlaps the fluoroscopic region of the second image having a fluoroscopic region for allowing the first image to be seen through; ,
The image processing unit
A display mode determination unit that determines a display mode of the first image so as to correspond to the fluoroscopic region of the second image in a predetermined relationship;
An image generation apparatus comprising: an adjustment unit that adjusts first image data constituting the first image so as to display an image in the determined display mode.
前記表示態様決定部は、
前記第2画像が有する前記透視領域のサイズに合わせて前記第1画像の表示サイズを決定するサイズ決定部を有する
画像生成装置。 The image generation apparatus according to claim 1,
The display mode determination unit
An image generation apparatus comprising: a size determining unit that determines a display size of the first image in accordance with a size of the fluoroscopic region included in the second image.
前記第2画像を構成する第2画像データには、前記第1画像の表示サイズを決定する情報が含まれている
画像生成装置。 The image generation apparatus according to claim 2,
The second image data constituting the second image includes information for determining a display size of the first image.
前記表示態様決定部は、
前記第2画像が有する前記透視領域の性質に基づいて、前記透視領域に透視表示する前記第1画像の画像部位位置を決定する部位決定部を有する
画像生成装置。 The image generation apparatus according to claim 1,
The display mode determination unit
An image generation apparatus comprising: a part determining unit that determines an image part position of the first image to be displayed in a fluoroscopic area based on a property of the fluoroscopic area of the second image.
前記第2画像を構成する第2画像データには、前記第1画像の画像部位位置を決定する情報が含まれている
画像生成装置。 The image generation apparatus according to claim 4,
The second image data constituting the second image includes information for determining an image part position of the first image.
前記画像加工部は、
前記透視領域に透視表示される前記第1画像の画像部位について、前記第1画像を構成する画像データの統計的特性に基づいた画像データ補正を行う補正実行部を有する
画像生成装置。 The image generation apparatus according to any one of claims 1 to 5,
The image processing unit
An image generation apparatus, comprising: a correction execution unit that performs image data correction on an image portion of the first image that is transparently displayed in the fluoroscopic region based on statistical characteristics of image data constituting the first image.
更に、
前記透視領域の異なる画像を複数記憶する記憶部と、
該記憶された複数の画像の一つを、前記第2画像として選択する画像選択部とを有する
画像生成装置。 The image generation apparatus according to any one of claims 1 to 6,
Furthermore,
A storage unit for storing a plurality of images having different perspective areas;
An image generation apparatus comprising: an image selection unit that selects one of the plurality of stored images as the second image.
前記記憶部は、外部から前記透視領域の異なる画像の入力が可能とされている
画像生成装置。 The image generation apparatus according to claim 7, wherein
The image generation apparatus, wherein the storage unit is capable of inputting an image having a different perspective area from the outside.
(a)重ね合わせ対象となる第1画像と第2画像のうち前記第1画像について、前記第2画像が前記第1画像を透視させるよう有する透視領域に所定の関係で対応するよう前記第1画像の表示態様を決定する工程と、
(b)前記工程(a)で決定した前記表示態様での画像表示となるように、前記第1画像データを構成する第1画像データを調整する工程と、
(c)前記第2画像と前記工程(b)で調整後の前記第1画像とを、前記透視領域に前記表示態様の前記第1画像が重なるように、合成する工程とを備える
画像生成方法。 An image generation method for generating a composite image by superimposing a plurality of images,
(A) For the first image of the first image and the second image to be superimposed, the first image corresponds to a fluoroscopic region having a predetermined relationship so that the second image allows the first image to be seen through. Determining a display mode of the image;
(B) adjusting the first image data constituting the first image data so as to display an image in the display mode determined in the step (a);
(C) A step of combining the second image and the first image adjusted in the step (b) so that the first image in the display mode overlaps the fluoroscopic region. .
(a)重ね合わせ対象となる第1画像と第2画像のうち前記第1画像について、前記第2画像が前記第1画像を透視させるよう有する透視領域に所定の関係で対応するよう前記第1画像の表示態様を決定する機能と、
(b)前記機能(a)で決定した前記表示態様での画像表示となるように、前記第1画像データを構成する第1画像データを調整する機能と、
(c)前記第2画像と前記機能(b)で調整後の前記第1画像とを、前記透視領域に前記表示態様の前記第1画像が重なるように、合成する機能と、
を、前記コンピュータに実現させるコンピュータプログラム。 A computer program for causing a computer to execute image composition processing for superimposing a plurality of images,
(A) For the first image of the first image and the second image to be superimposed, the first image corresponds to a fluoroscopic region having a predetermined relationship so that the second image allows the first image to be seen through. A function for determining the display mode of the image;
(B) a function of adjusting the first image data constituting the first image data so as to display an image in the display mode determined in the function (a);
(C) a function of combining the second image and the first image adjusted by the function (b) so that the first image of the display mode overlaps the fluoroscopic region;
A computer program for causing the computer to realize the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004070237A JP4148165B2 (en) | 2004-03-12 | 2004-03-12 | Image composition to create a composite image by overlaying images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004070237A JP4148165B2 (en) | 2004-03-12 | 2004-03-12 | Image composition to create a composite image by overlaying images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005260630A true JP2005260630A (en) | 2005-09-22 |
JP4148165B2 JP4148165B2 (en) | 2008-09-10 |
Family
ID=35085924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004070237A Expired - Fee Related JP4148165B2 (en) | 2004-03-12 | 2004-03-12 | Image composition to create a composite image by overlaying images |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4148165B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010128578A1 (en) * | 2009-05-07 | 2010-11-11 | Canon Kabushiki Kaisha | Image processing method and image processing apparatus |
JP2010273392A (en) * | 2010-09-08 | 2010-12-02 | Canon Inc | Image processing method and image processing device |
JP2011077850A (en) * | 2009-09-30 | 2011-04-14 | Casio Computer Co Ltd | Image processing apparatus, image processing method, and program |
US8054478B2 (en) | 2006-07-24 | 2011-11-08 | Konica Minolta Business Technologies, Inc. | Image forming apparatus, and method for changing number of lines in band buffer based on memory size to be required |
JP2013219587A (en) * | 2012-04-10 | 2013-10-24 | Dainippon Printing Co Ltd | Printed matter creation device and printed matter creation method |
-
2004
- 2004-03-12 JP JP2004070237A patent/JP4148165B2/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8054478B2 (en) | 2006-07-24 | 2011-11-08 | Konica Minolta Business Technologies, Inc. | Image forming apparatus, and method for changing number of lines in band buffer based on memory size to be required |
US8294914B2 (en) | 2006-07-24 | 2012-10-23 | Konica Minolta Business Technologies, Inc. | Image forming apparatus and method for changing number of lines in band buffer based on memory size to be required |
WO2010128578A1 (en) * | 2009-05-07 | 2010-11-11 | Canon Kabushiki Kaisha | Image processing method and image processing apparatus |
JP2010263423A (en) * | 2009-05-07 | 2010-11-18 | Canon Inc | Method and device for processing image |
CN102422628A (en) * | 2009-05-07 | 2012-04-18 | 佳能株式会社 | Image processing method and image processing apparatus |
US9185265B2 (en) | 2009-05-07 | 2015-11-10 | Canon Kabushiki Kaisha | Image processing method and image processing apparatus for performing a tone correction to acquire a combined image |
JP2011077850A (en) * | 2009-09-30 | 2011-04-14 | Casio Computer Co Ltd | Image processing apparatus, image processing method, and program |
JP2010273392A (en) * | 2010-09-08 | 2010-12-02 | Canon Inc | Image processing method and image processing device |
JP2013219587A (en) * | 2012-04-10 | 2013-10-24 | Dainippon Printing Co Ltd | Printed matter creation device and printed matter creation method |
Also Published As
Publication number | Publication date |
---|---|
JP4148165B2 (en) | 2008-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20080112648A1 (en) | Image processor and image processing method | |
JP3810943B2 (en) | Image processing apparatus, image processing method, and recording medium recording image processing program | |
EP4287610A1 (en) | Focusing method and apparatus, electronic device, and medium | |
KR20150119621A (en) | display apparatus and image composition method thereof | |
JP2011119974A (en) | Panoramic image synthesizer, panoramic image synthesis method, and program | |
JP4875470B2 (en) | Color correction apparatus and color correction program | |
WO2024027583A1 (en) | Image processing method and apparatus, and electronic device and readable storage medium | |
JP2009237977A (en) | Image output control device, image output control method, image output control program, and printer | |
JP4797039B2 (en) | Image composition method and apparatus | |
JP4148165B2 (en) | Image composition to create a composite image by overlaying images | |
JP2007208912A (en) | Image processing apparatus and control method, computer program, and storage medium | |
JP2009094902A (en) | Image synthesizing apparatus, image synthesizing method, program and recoding medium | |
JP3983623B2 (en) | Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded | |
JP2005244536A (en) | Image composition for generating composite image by overlapping image | |
JP2005252739A (en) | Static image generating device and method thereof | |
JP2005107967A (en) | Image composition apparatus and method | |
JP2000196956A (en) | Device and method for synthesizing picture | |
JP2007166383A (en) | Digital camera, image composing method, and program | |
JP2007200091A (en) | Image processor | |
JP2008053813A (en) | Image processor, image processing method, and image processing program | |
JP4354256B2 (en) | Image output device, image output program, server device, and image output system | |
JP2011135350A (en) | Image processing apparatus and method of controlling the same | |
WO2024042976A1 (en) | Image generation method, image file creating method, and image generation device | |
WO2024042979A1 (en) | Image file creation method and image file creation device | |
JP2009237978A (en) | Image output control device, image output control method, image output control program, and printer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080219 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080603 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080616 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130704 Year of fee payment: 5 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |