JP2005244536A - Image composition for generating composite image by overlapping image - Google Patents

Image composition for generating composite image by overlapping image Download PDF

Info

Publication number
JP2005244536A
JP2005244536A JP2004050818A JP2004050818A JP2005244536A JP 2005244536 A JP2005244536 A JP 2005244536A JP 2004050818 A JP2004050818 A JP 2004050818A JP 2004050818 A JP2004050818 A JP 2004050818A JP 2005244536 A JP2005244536 A JP 2005244536A
Authority
JP
Japan
Prior art keywords
image
data
area
region
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004050818A
Other languages
Japanese (ja)
Inventor
Kiyoaki Murai
清昭 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004050818A priority Critical patent/JP2005244536A/en
Publication of JP2005244536A publication Critical patent/JP2005244536A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce wrong feeling in a composite image in which images are overlapped. <P>SOLUTION: Dot-matrix-like pixel image data for composing a frame image are read, a see-through region in the frame image is determined, and the image region of an original image to be composed corresponding to the perspective region is determined as a region to be seen through. The image data of the original image to be composed included in the region to be seen through determined in such manner are sampled, the image data are processed according to the result (histogram), and the contrast of the image is for example adjusted. The new image of the target to be composed is generated, based on the processed image data, and the new image is composed while overlapping below the frame image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像を重ね合わせて合成画像を生成する技術に関する。   The present invention relates to a technique for generating a composite image by superimposing images.

近年では、デジタルスチルカメラ等の普及により、画像をデジタルデータで簡便に入手できる。こうした状況であるため、画像の表示或いはプリント等に際して、画像の色ずれやカラーバランスを調整する技術が提案されている(例えば、特許文献1)。   In recent years, with the spread of digital still cameras and the like, images can be easily obtained as digital data. Because of this situation, a technique for adjusting the color shift and color balance of an image when displaying or printing the image has been proposed (for example, Patent Document 1).

特開平10−271524号公報JP-A-10-271524

また、撮影した画像を、いわゆるフレームと重ね合わせる技術も提案されている(例えば、特許文献2)。   In addition, a technique for superimposing a photographed image on a so-called frame has been proposed (for example, Patent Document 2).

特開2003−233366号公報JP 2003-233366 A

画像撮影に際しては、その後のフレームとの合成を考慮されることは少ない。よって、撮影済み画像を、その色ずれやカラーバランスを調整した上でフレームと合成すると、合成画像に違和感が生じることがある。例えば、カラーバランス等の調整は、その画像全体について実行されるものの、フレームとの合成画像では、その調整済み画像の一部領域しか視認できない。このため、せっかく行ったバランス調整が、フレームにより画像の視認領域が限定されるような場合には、却ってアンバランスとなることもあった。   When shooting an image, there is little consideration for subsequent synthesis with a frame. Therefore, when a photographed image is combined with a frame after adjusting its color shift and color balance, the composite image may be uncomfortable. For example, although adjustments such as color balance are performed on the entire image, only a partial region of the adjusted image can be visually recognized in the composite image with the frame. For this reason, when the balance adjustment performed with great effort is limited to the visual recognition area of the image by the frame, the balance may be unbalanced.

本発明は、上記問題点を解決するためになされ、画像を重ね合わせた合成画像における違和感の低減を図ることを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to reduce a sense of incongruity in a composite image in which images are superimposed.

かかる課題の少なくとも一部を解決するため、本発明の画像生成装置では、重ね合わせ対象となる第1画像と当該第1画像の透視領域を有する第2画像の両画像を、第2画像が第1画像の上に重なるような合成に先立ち、下に位置する第1画像を加工する。この加工に際しては、第2画像の透視領域に所定の関係で対応するよう第1画像の対応領域を決定した上で、第1画像を構成する第1画像データを、この決定した対応領域における第1画像の性質に基づいて調整する。このため、第2画像の透視領域でしか視認されない第1画像についての画像調整は、この視認される領域、即ち対応領域での第1画像での画像の性質に基づくものとなるので、第1画像が視認される視認領域が第2画像で制限されても、画像調整済みの第1画像の違和感を軽減できる。   In order to solve at least a part of the problem, in the image generation device of the present invention, both the first image to be superimposed and the second image having the fluoroscopic region of the first image are included in the second image. Prior to the synthesis that overlaps one image, the first image located below is processed. In this processing, after determining the corresponding region of the first image so as to correspond to the fluoroscopic region of the second image with a predetermined relationship, the first image data constituting the first image is converted into the first image data in the determined corresponding region. Adjust based on the properties of one image. For this reason, the image adjustment for the first image that is visible only in the perspective area of the second image is based on the nature of the image in the first image in the visible area, that is, in the corresponding area. Even if the visual recognition area where the image is visually recognized is limited by the second image, the uncomfortable feeling of the first image after the image adjustment can be reduced.

こうした本発明の画像生成装置において、第1画像の画像調整を、第1画像を構成する第1画像データに対する補正を行うことで実行するようにし、こうした画像調整に際し、第1画像データに対する補正時のサンプリング領域を第1画像の対応領域とする。そして、このサンプリング領域の第1画像データから得られた統計的特性に基づいて第1画像データを補正して、第1画像を調整するようにすることが好ましい。   In such an image generation apparatus of the present invention, the image adjustment of the first image is executed by correcting the first image data constituting the first image, and at the time of correction of the first image data during such image adjustment. Is the corresponding area of the first image. It is preferable to adjust the first image by correcting the first image data based on the statistical characteristics obtained from the first image data in the sampling region.

こうすれば、対応領域での画像(第1画像)の性質を第1画像データでより的確に把握できるので、第1画像の視認領域が第2画像で制限された場合の画像調整済み第1画像の違和感を、より確実に軽減できる。   In this way, since the property of the image (first image) in the corresponding area can be grasped more accurately by the first image data, the image adjusted first when the visual recognition area of the first image is limited by the second image. The uncomfortable feeling of the image can be reduced more reliably.

また、こうしたサンプリング領域の画像データ状況に基づいた第1画像の画像データ補正を、第1画像を構成する第1画像データのうち、被透視領域の前記第1画像データを少なくとも含む画像データについて行うようにすることが好ましい。この場合、第1画像を構成する総ての第1画像データについて画像データ補正を行ってもよく、第1画像を構成する第1画像データのうち、被透視領域の前記第1画像データ(即ち、サンプリング領域のデータ)について行う画像データ補正を行ってもよい。後者の補正手法であれば、補正対象のデータが少ないことから、処理負荷を軽減できる。   Further, the image data correction of the first image based on the image data situation of the sampling area is performed on the image data including at least the first image data of the fluoroscopic area among the first image data constituting the first image. It is preferable to do so. In this case, image data correction may be performed on all the first image data constituting the first image, and among the first image data constituting the first image, the first image data of the fluoroscopic region (that is, the first image data) Image data correction performed on sampling area data) may be performed. With the latter correction method, the processing load can be reduced because there is little data to be corrected.

上記の本発明の画像生成装置において、更に、透視領域の異なる画像を複数記憶する記憶部と、この記憶された複数の画像の一つを第2画像として選択する画像選択部とを備えるようにすることもできる。こうすれば、透視領域が相違する第2画像を第1画像に合成した場合にあっても違和感を軽減でき、適用範囲の拡大を図ることができる。しかも、記憶部を外部からの画像入力が可能なものとすれば、より好ましい。   The image generation apparatus of the present invention described above further includes a storage unit that stores a plurality of images with different perspective areas, and an image selection unit that selects one of the stored images as a second image. You can also In this way, even when the second image having a different perspective area is combined with the first image, the uncomfortable feeling can be reduced and the application range can be expanded. Moreover, it is more preferable if the storage unit can input an image from the outside.

また、第2画像を構成する第2画像データに第1画像の調整のための対応領域を決定する情報を含ませるようにすることができる他、第2画像データに第1画像調整に際して第1画像データに対して行う補正の内容に関する補正関与データを含ませ、この補正関与データを反映させて第1画像データを補正して第1画像を調整するようにすることもできる。このようにすれば、画像調整が簡便となる。   In addition, the second image data constituting the second image can include information for determining a corresponding area for adjusting the first image, and the second image data includes the first image adjustment in the first image adjustment. It is also possible to include correction participation data relating to the contents of correction performed on the image data, and to correct the first image data by reflecting this correction participation data to adjust the first image. In this way, the image adjustment becomes simple.

更に、第2画像が有する透視領域の周辺の透視領域周辺画像部位を少なくとも含む第2画像領域について、該第2画像領域を第2画像サンプリング領域として、該第2画像サンプリング領域に含まれる第2画像データから得られた画像の統計的特性を第2画像サンプリング部で求め、この求めた統計的特性を、調整部に夜第1画像データの補正に反映させることもできる。こうすれば、第2画像における透視領域周辺画像部位を少なくとも含む第2画像領域の画像の性質が、第1画像データ調整に反映されるので、第1画像の違和感をより緩和できる。   Further, with respect to a second image area including at least a fluoroscopic area surrounding image portion around the fluoroscopic area of the second image, the second image area is set as the second image sampling area, and the second image area includes the second image sampling area. The statistical characteristics of the image obtained from the image data can be obtained by the second image sampling unit, and the obtained statistical characteristics can be reflected in the correction of the first image data at night by the adjustment unit. By so doing, the nature of the image of the second image region including at least the fluoroscopic region peripheral image portion in the second image is reflected in the first image data adjustment, so that the uncomfortable feeling of the first image can be further alleviated.

この他、上記課題の少なくとも一部を解決するため、本発明は次の構成を取るようにもできる。即ち、複数の画像を重ね合わせる画像合成に際して、第1画像を調整し、この加工後の第1画像を、その重ね合わせ対象となる第2画像の上に重ねて両画像を合成する。この際、第2画像を、第1画像の一部領域の画像部分が第2画像の上に重なることで第1画像の当該画像部分が見えるように定義された重ね合わせ領域を備えるものとし、この重ね合わせ領域に対応する第1画像の画像部分の切り出す処理と、該切り出し対象となる領域における第1画像の性質に基づいた第1画像の調整処理とを実行し、画像調整および切り出し済みの第1画像の一部領域の画像部分を、第2画像の重ね合わせ領域に重ねて合成する。   In addition, in order to solve at least a part of the above problems, the present invention may be configured as follows. That is, at the time of image composition in which a plurality of images are superimposed, the first image is adjusted, and the processed first image is superimposed on the second image to be superimposed, and both images are synthesized. At this time, the second image includes an overlapping region defined so that the image portion of the first image can be seen by overlapping the image portion of the partial region of the first image on the second image, A process for cutting out the image portion of the first image corresponding to the overlapping area and an adjustment process for the first image based on the property of the first image in the area to be cut out are executed, and the image adjustment and cut-out have been performed. The image portion of the partial area of the first image is superimposed on the overlapping area of the second image and synthesized.

つまり、先に説明した本発明は、第1画像の透視領域を有する第2画像を第1画像の上に重ねるようにしたが、この発明は、その逆の発想であり、第1画像の画像部分が上に重なることで第1画像の当該画像部分を見えるように定義される重ね合わせ領域を有する第2画像に、その重ね合わせ領域において、上記と同様の画像調整を行った第1画像を切り取って重ねる。こうしても、先の発明と同様の効果を奏することができる。   That is, in the present invention described above, the second image having the fluoroscopic region of the first image is superimposed on the first image, but the present invention is the opposite idea, and the image of the first image A first image that has been subjected to the same image adjustment as described above is applied to a second image having a superimposed region that is defined so that the image portion of the first image can be seen by overlapping the portion. Cut and stack. Even in this case, the same effect as the previous invention can be obtained.

上記した本発明の画像合成は、種々の形態で実現することが可能であり、例えば、画像合成方法はもとより、画像合成装置や方法の機能をコンピュータに実現させるためのコンピュータプログラム、そのプログラムを記録した記録媒体等の形態で実現することができる。   The above-described image composition of the present invention can be realized in various forms. For example, in addition to the image composition method, a computer program for causing a computer to realize the functions of the image composition apparatus and method, and the program are recorded. It can be realized in the form of a recording medium or the like.

以下、本発明の実施の形態について、実施例に基づき以下の順序で説明する。
A.第1実施例:
A1.画像処理装置の構成:
A2.画像処理:
B.第2実施例の画像処理:
C.第3実施例の画像処理:
D.変形例:
Hereinafter, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
A1. Configuration of image processing device:
A2. Image processing:
B. Image processing of the second embodiment:
C. Image processing of the third embodiment:
D. Variation:

A.第1実施例:
A1.画像処理装置の構成:
図1は本発明の第1実施例としての画像処理システム100を示す説明図である。図示するように、この画像処理システム100は、動画像や静止画像などの画像データを供給する画像データベース20、画像データベース20から入力した画像に対して画像処理を実行する画像処理装置としてのパーソナルコンピュータ30、画像処理の実行をユーザが指示するためのユーザインターフェース40、画像処理を施した画像を出力するカラープリンタ50等から構成されている。
A. First embodiment:
A1. Configuration of image processing device:
FIG. 1 is an explanatory diagram showing an image processing system 100 as a first embodiment of the present invention. As shown in the figure, this image processing system 100 includes an image database 20 that supplies image data such as moving images and still images, and a personal computer as an image processing apparatus that executes image processing on images input from the image database 20. 30, a user interface 40 for a user to instruct execution of image processing, a color printer 50 for outputting an image subjected to image processing, and the like.

画像データベース20は、デジタルビデオカメラ21,デジタルスチルカメラ22,DVD23,ハードディスク24,携帯電話25などの画像を取り扱う機器を有し、パーソナルコンピュータ30へ画像データを供給する。なお、第1実施例の画像データベース20に保有される画像データは、デジタルスチルカメラ22で取得した静止画像データである。パーソナルコンピュータ30は、後述する合成画像を、画像データベース20のデジタルスチルカメラ22や携帯電話25等に出力するよう、構成されている。   The image database 20 includes devices that handle images such as a digital video camera 21, a digital still camera 22, a DVD 23, a hard disk 24, and a mobile phone 25, and supplies image data to the personal computer 30. Note that the image data held in the image database 20 of the first embodiment is still image data acquired by the digital still camera 22. The personal computer 30 is configured to output a composite image, which will be described later, to the digital still camera 22 or the mobile phone 25 of the image database 20.

パーソナルコンピュータ30は、画像処理を実行するCPU31、ROM32、RAM33、画像処理のソフトウェアをインストールするハードディスク34、画像データベース20,ユーザインターフェース40やカラープリンタ50などの外部機器とやり取りするためのI/F回路35等を有している。ハードディスク34にインストールされたソフトウェアの画像処理は、入力した複数枚、詳しくは2枚の静止画像を合成して一枚の高解像度の静止画像を生成する処理である。このソフトウェアをインストールしたパーソナルコンピュータ30は、画像処理装置としての「画像加工部」,「合成部」,「領域決定部」,「調整部」の各機能を有する。なお、この画像処理の流れについては、後に詳しく説明する。   The personal computer 30 includes a CPU 31 for executing image processing, a ROM 32, a RAM 33, a hard disk 34 for installing image processing software, an image database 20, an I / F circuit for exchanging with external devices such as a user interface 40 and a color printer 50. 35 etc. The image processing of the software installed in the hard disk 34 is a process of generating a single high-resolution still image by combining a plurality of input still images, specifically two still images. The personal computer 30 installed with this software has the functions of “image processing unit”, “compositing unit”, “region determining unit”, and “adjusting unit” as an image processing apparatus. The flow of this image processing will be described in detail later.

ユーザインターフェース40は、ユーザが画像処理の実行操作を行なうためのキーボード41やマウス42、画像処理を実行する前の画像や合成処理後の静止画像を表示するディスプレイ43などを備えている。   The user interface 40 includes a keyboard 41 and a mouse 42 for a user to perform an image processing execution operation, a display 43 that displays an image before image processing and a still image after composition processing, and the like.

A2.画像処理:
図2は重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第1実施例の画像処理のフローチャート、図3は第1実施例の画像処理の内容を説明するための説明図である。第1画像は、第2画像の下となるように重ねられる画像であり、以下の説明では、合成対象元画像と称する。第2画像は、第1画像(合成対象元画像)の一部領域を透視させる透視領域を有する画像であり、フレーム画像と称する。上述のハード構成を有する画像処理システム100において、ユーザがキーボード41やマウス42を操作することで、パーソナルコンピュータ30にインストールされた画像処理が開始される。
A2. Image processing:
FIG. 2 is a flowchart of image processing according to the first embodiment for generating a single still image by combining the first image and the second image to be superimposed, and FIG. 3 illustrates the contents of the image processing according to the first embodiment. It is explanatory drawing for doing. The first image is an image that is superimposed so as to be below the second image, and is referred to as a composition target original image in the following description. The second image is an image having a fluoroscopic region that allows a partial region of the first image (composition target original image) to be seen through, and is referred to as a frame image. In the image processing system 100 having the above-described hardware configuration, when the user operates the keyboard 41 or the mouse 42, the image processing installed in the personal computer 30 is started.

画像処理が開始すると、パーソナルコンピュータ30は、画像データベース20にフレーム画像群として記憶済みの各フレーム画像をディスプレイ43上で表示する(ステップS200)。この際の表示には、例えばディスプレイ43の右半分の表示領域に、サムネイル状に一覧表示したり、各画像を一枚ずつ順次表示切り替えしてもよい。ユーザは、所望するフレーム画像をマウス操作等で特定するので、パーソナルコンピュータ30は、このフレーム画像の選択有無を判定し(ステップS210)、待機する。   When image processing starts, the personal computer 30 displays each frame image stored as a frame image group in the image database 20 on the display 43 (step S200). For this display, for example, a list of thumbnails may be displayed in the display area on the right half of the display 43, or each image may be displayed and switched one by one. Since the user specifies a desired frame image by operating the mouse or the like, the personal computer 30 determines whether or not this frame image is selected (step S210) and waits.

パーソナルコンピュータ30は、選択されたフレーム画像を構成する画素(例えば、ドットマトリックス状の画素)のデータ(画像データ)を読み込む(ステップS220)。この画像データは、RGBの色データの他、画像透過の可否を決定するアルファチャンネルデータを併せ持って構成されている。パーソナルコンピュータ30は、こうしたフレーム画像の画像データ読み込みにより、アルファチャンネルデータで透過するとされた領域(フレーム画像における透視領域)を決定し、これに所定の関係を持って対応する合成対象元画像の画像領域を被透視領域として決定する(ステップS230)。   The personal computer 30 reads data (image data) of pixels (for example, dot matrix-like pixels) constituting the selected frame image (step S220). This image data is composed of RGB color data and alpha channel data that determines whether image transmission is possible. The personal computer 30 determines an area (perspective area in the frame image) that is supposed to be transmitted by the alpha channel data by reading the image data of the frame image, and has a predetermined relationship with the image of the original image to be synthesized corresponding thereto. The region is determined as a see-through region (step S230).

図3を用いて説明すると、パーソナルコンピュータ30は、マトリックス座標の開始点座標(Xs,Ys)から終点座標(Xe,Ye)の各画素の画像データを読み込み、座標(Xa1,Yb1)、(Xa1,Ybi)、(Xai,Yb1)、(Xai,Ybi)で囲まれた矩形形状のフレーム画像の透視領域を合成対象元画像の被透視領域とする。これは、フレーム画像におけるこの矩形領域の画像データは、総て画像透過を行うとしてアルファチャンネルデータを有するからである。また、被透視領域の決定に際しては、上記した矩形形状の頂点座標の他、その位置を定める情報、例えば、開始点座標(Xs,Ys)と矩形形状コーナ座標(Xa1,Yb1)との関係も決定される。この場合、フレーム画像の透視領域が矩形形状であると定まっていれば、対角の座標(Xa1,Yb1)、(Xai,Ybi)で合成対象元画像の被透視領域を決定可能である。また、フレーム画像の透視領域が、異形形状であれば、その外郭線に乗った座標を用いれば、異形形状のフレーム画像の透視領域および合成対象元画像の被透視領域を決定できる。これらの場合の透視領域と被透視領域は、その形状が同一であるという関係を持っている。   Referring to FIG. 3, the personal computer 30 reads the image data of each pixel of the end point coordinates (Xe, Ye) from the start point coordinates (Xs, Ys) of the matrix coordinates, and coordinates (Xa1, Yb1), (Xa1). , Ybi), (Xai, Yb1), (Xai, Ybi), the perspective area of the rectangular frame image is set as the perspective area of the composition target original image. This is because the image data of this rectangular area in the frame image has alpha channel data as if all image transmission is performed. In determining the fluoroscopic region, in addition to the above-described rectangular vertex coordinates, information for determining the position, for example, the relationship between the start point coordinates (Xs, Ys) and the rectangular corner coordinates (Xa1, Yb1) It is determined. In this case, if the fluoroscopic region of the frame image is determined to be rectangular, the fluoroscopic region of the composition target original image can be determined by the diagonal coordinates (Xa1, Yb1) and (Xai, Ybi). If the perspective area of the frame image is an irregular shape, the perspective area of the irregularly shaped frame image and the perspective area of the composition target original image can be determined by using the coordinates on the outline. The fluoroscopic region and the fluoroscopic region in these cases have a relationship that their shapes are the same.

透視領域およびこれに対応する被透視領域は、フレーム画像が異なれば相違するので、画像合成に用いるフレーム画像ごとに、ステップS230にて被透視領域を決定するのである。なお、一旦決定した透視領域を、そのフレーム画像の識別データ(例えば、フレーム名称データ)と対応付けてハードディスク34に記憶させ、次回からはフレーム画像の識別データ判別を経て、フレーム画像の透視領域を読み出し合成対象元画像の被透視領域を決定するように構成することもできる。   The fluoroscopic area and the fluoroscopic area corresponding to the fluoroscopic area are different if the frame images are different. Therefore, the fluoroscopic area is determined in step S230 for each frame image used for image synthesis. The fluoroscopic area once determined is stored in the hard disk 34 in association with the identification data (for example, frame name data) of the frame image, and from the next time the identification data of the frame image is determined, It can also be configured to determine the see-through region of the read compositing target original image.

パーソナルコンピュータ30は、フレーム画像の表示・選択待機と同様、画像データベース20に合成対象元画像群として記憶済みの各合成対象元画像をディスプレイ43上で表示し(ステップS240)、ユーザによる合成対象元画像の選択を待機する(ステップS250)。この場合、本画像合成処理に先立ちこうした合成対象元画像表示を行い、ユーザによる合成対象元画像の選択を受けて、本画像合成処理を実行するように構成することもできる。このように構成すれば、ステップS240と250は省略される。   The personal computer 30 displays each composition target original image stored as a composition target original image group in the image database 20 on the display 43 in the same manner as the frame image display / selection standby (step S240). The image selection waits (step S250). In this case, the composition target original image may be displayed prior to the main image composition process, and the main image composition process may be executed upon selection of the composition target original image by the user. With this configuration, steps S240 and 250 are omitted.

パーソナルコンピュータ30は、選択された合成対象元画像を構成する画素(例えば、ドットマトリックス状の画素)のデータ(画像データ)を読み込む(ステップS260)。そして、この読み込んだ画像データのうち、ステップS230で定めた被透視領域に含まれる画像データをサンプリングし、このサンプリングの結果として得られる画像の統計的特性に基づいたデータ処理を行う(ステップS270)。このサンプリング・データ処理を図3で説明すると、ステップS230で定めた被透視領域を、読み込んだ合成対象元画像に反映させ、具体的には、既述した矩形形状の被透視領域を定める頂点座標とその位置を定める情報に基づき、合成対象元画像に被透視領域を割り当て、その領域に含まれる画素の画像データ(RGB色データ)を画素ごとにサンプリングし、その統計的特性として輝度分布のヒストグラムを得る。そして、例えば、このヒストグラム(メジアンm0)を、正規分布のヒストグラム(メジアンm)に近づくようデータ処理を行い明度調整する。この他、ヒストグラムの最大値・最小値を左右に広げるようなデータ処理を行いコントラスト調整を行うようにすることもできる。なお、こうしたデータ処理を便宜上、補正αと称する。   The personal computer 30 reads data (image data) of pixels (for example, dot matrix-like pixels) constituting the selected composition target original image (step S260). Then, among the read image data, the image data included in the fluoroscopic region determined in step S230 is sampled, and data processing based on the statistical characteristics of the image obtained as a result of the sampling is performed (step S270). . This sampling data processing will be described with reference to FIG. 3. The perspective coordinates determined in step S230 are reflected in the read composition source original image, and specifically, the vertex coordinates that define the rectangular-shaped transparent region described above. And a region to be synthesized are allocated to the original image to be synthesized based on the information for determining the position, the image data (RGB color data) of the pixels included in the region are sampled for each pixel, and the histogram of the luminance distribution as a statistical characteristic thereof Get. For example, this histogram (median m0) is subjected to data processing so as to approach the normal distribution histogram (median m), and the brightness is adjusted. In addition, it is also possible to perform contrast adjustment by performing data processing that widens the maximum and minimum values of the histogram to the left and right. Such data processing is referred to as correction α for convenience.

ステップS270で求めた輝度分布は、被透視領域に含まれる画素の画像データのものであり、合成対象元画像の画像全体をサンプリング領域として得られたものとは相違する。図で説明すると、合成対象元画像には、図3のように図中右方や上方に背景画像が見られるので、合成対象元画像の画像全体をサンプリングすれば、こうした背景画像の画素の画像データもヒストグラムに乗り、輝度分布に影響を与える。ところが、ステップS270でのサンプリングは、被透視領域に含まれる画素の画像データに限られるので、背景画像の画素の画像データはヒストグラムに乗らず、輝度分布には反映されない。つまり、ステップS270でのデータ処理の結果(明度・コントラスト等の調整結果)は、被透視領域をあたかも全画像としたようなものとなるので、この被透視領域を視認した場合にあっては、画像としてのバランスが取れたものとなる。その一方、背景画像を含む合成対象元画像全体のデータ処理結果では、背景画像の画素の画像データが反映したものとなるので、その処理結果の画像を被透視領域で切り取って視認したとすれば、その切り取り画像は、背景画像の影響を受けたバランスを有することから、却ってバランスが崩れがちとなる。   The luminance distribution obtained in step S270 is for the image data of the pixels included in the see-through region, and is different from that obtained for the entire image of the composition target original image as the sampling region. Explaining in the figure, since the background image is seen on the right side or above in the figure as shown in FIG. 3 in the composition target original image, if the whole image of the composition target original image is sampled, the image of the pixels of such background image The data also rides on the histogram and affects the luminance distribution. However, since the sampling in step S270 is limited to the image data of the pixels included in the fluoroscopic region, the image data of the pixels of the background image is not on the histogram and is not reflected in the luminance distribution. In other words, the result of the data processing in step S270 (the adjustment result of brightness, contrast, etc.) is as if the transparent area is an entire image. Therefore, when the transparent area is viewed, The image is balanced. On the other hand, since the data processing result of the entire composition target original image including the background image reflects the image data of the pixels of the background image, assuming that the image of the processing result is cut out and viewed in the fluoroscopic region. The cut image has a balance affected by the background image, and the balance tends to be lost.

ステップS270に続いて、パーソナルコンピュータ30は、上記のデータ処理済みの画像データに基づいて合成対象の新画像を生成する(ステップS280)。この新画像生成は次のようにすればよい。図3に示すように、データ処理による補正αを合成対象元画像における被透視領域ウィンドウ範囲Waについて行うようにして、この補正α済みの被透視領域ウィンドウ範囲Waの画像を含む新画像として生成することができる。このほか、この被透視領域ウィンドウ範囲Waより拡張した拡張ウィンドウ範囲Wbについて補正αを行った画像を含む新画像として生成することもできる。或いは、補正αを合成対象元画像の全域について行って新画像を生成することができる。これらの新画像の生成手法は、ユーザインターフェース40のマウス操作等にて決定するようにすればよい。   Subsequent to step S270, the personal computer 30 generates a new image to be synthesized based on the image data that has been processed (step S280). This new image generation may be performed as follows. As shown in FIG. 3, correction α by data processing is performed on the fluoroscopic region window range Wa in the composition target original image, and a new image including the image of the fluoroscopic region window range Wa that has been corrected α is generated. be able to. In addition, it is also possible to generate a new image including an image obtained by performing correction α on the extended window range Wb extended from the see-through region window range Wa. Alternatively, the correction α can be performed on the entire area of the composition target original image to generate a new image. These new image generation methods may be determined by a mouse operation of the user interface 40 or the like.

パーソナルコンピュータ30は、こうして生成した合成対象新画像と、ステップS210で選択済みのフレーム画像とを、フレーム画像が上になるように重ねて合成し(ステップS290)、本ルーチンを終了する。得られた合成画像は、ハードディスク24等に記憶され、ユーザインターフェース40からの指示に基づき、カラープリンタ50に印刷画像として出力されたり、ディスプレイ43や携帯電話25の壁紙画像として出力される。   The personal computer 30 combines the new image to be combined generated in this way and the frame image selected in step S210 so that the frame images are on top (step S290), and ends this routine. The obtained composite image is stored in the hard disk 24 or the like, and is output as a print image to the color printer 50 or as a wallpaper image of the display 43 or the mobile phone 25 based on an instruction from the user interface 40.

この一連の画像合成処理を行う本実施例では、フレーム画像と合成対象の画像とを重ねて合成するに際して、フレーム画像により視認される被透視領域に含まれる合成対象元画像の画像データをサンプリング対象とし、その統計的特性が反映したデータ処理(補正α)を行い、合成対象となる新画像を生成する(ステップS270〜280)。よって、フレーム画像と合成されて視認される画像は、その視認される被透視領域の画像の性質に基づく補正α(画像調整)を受けたものとなるので、画像のバランスに崩れはなく違和感を軽減できる。また、被透視領域から視認されることになる画像調整は、元画像の画像データのデータ処理によるものであることから、違和感をより確実に軽減できる。   In this embodiment in which this series of image composition processing is performed, when superimposing the frame image and the image to be synthesized, the image data of the composition target original image included in the fluoroscopic region visually recognized by the frame image is sampled. Then, data processing (correction α) reflecting the statistical characteristics is performed, and a new image to be synthesized is generated (steps S270 to 280). Therefore, the image that is visually recognized by being combined with the frame image is subjected to correction α (image adjustment) based on the properties of the image of the visible region to be visually recognized, so that the balance of the image is not disturbed and the user feels uncomfortable. Can be reduced. Further, since the image adjustment to be visually recognized from the see-through region is based on the data processing of the image data of the original image, the uncomfortable feeling can be more reliably reduced.

また、本実施例では、被透視領域の合成対象元画像のサンプリング結果に基づくデータ処理(補正α)を、合成対象元画像における被透視領域ウィンドウ範囲Waについて行う第1手法と、被透視領域ウィンドウ範囲Waより拡張した拡張ウィンドウ範囲Wbについて行う第2手法と、合成対象元画像の全域について行う第3手法のいずれかを取れるようにした。よって、この補正αを経た画像生成のバリエーションを増やすことができる。特に、第1手法による新画像生成では、画像データのデータ処理、即ち補正αに処されるデータ数が少なくて済むので、演算負荷を軽減でき好ましい。また、第2手法による新画像生成では、第3手法に比べて演算負荷を軽減できるほか、生成後の新画像の画像領域をフレーム画像が有する透視領域より広くできるので、サンプリング領域としての被透視領域決定の際の演算をラフにでき、その分、演算負荷を軽減できる。   In the present embodiment, the first method for performing data processing (correction α) based on the sampling result of the composition target original image of the fluoroscopic region for the fluoroscopic region window range Wa in the composition target original image, and the fluoroscopic region window One of the second method performed for the extended window range Wb extended from the range Wa and the third method performed for the entire area of the composition target original image can be taken. Therefore, variations in image generation through the correction α can be increased. In particular, the new image generation by the first method is preferable because the data processing of the image data, that is, the number of data to be subjected to the correction α can be reduced, which can reduce the calculation load. In addition, in the new image generation by the second method, the calculation load can be reduced as compared with the third method, and the image area of the new image after generation can be made wider than the perspective area of the frame image, so that the perspective image as the sampling area can be obtained. The calculation at the time of area determination can be made rough, and the calculation load can be reduced accordingly.

さらに、本実施例では、画像データベース20に、フレーム画像となり得るフレーム画像を複数記憶させ、その中から選択されたフレーム画像の透視領域に対応する合成対象元画像の被透視領域を決定するようにした(ステップS200〜230)。よって、透視領域が相違するフレーム画像を、同一の合成対象元画像に合成した場合にあっても違和感を軽減でき、適用範囲の拡大を図ることができる。しかも、種々のフレーム画像を画像データベース20のDVD23,ハードディスク24に記憶させておき、その画像を画像合成の際に用いるようにしたので、種々のフレーム画像と合成対象元画像を合成した多様な合成画像を生成できる。なお、種々のフレーム画像をハードディスク34に記憶させておき、その画像を用いるようにすることもできる。   Furthermore, in the present embodiment, a plurality of frame images that can be frame images are stored in the image database 20, and the see-through area of the composition target original image corresponding to the see-through area of the frame image selected from the frame images is determined. (Steps S200 to 230). Therefore, even when frame images having different fluoroscopic regions are synthesized with the same composition target original image, the uncomfortable feeling can be reduced and the application range can be expanded. In addition, since various frame images are stored in the DVD 23 and the hard disk 24 of the image database 20 and used in the image composition, various composite images obtained by compositing various frame images and the original image to be combined are used. An image can be generated. It should be noted that various frame images can be stored in the hard disk 34 and used.

B.第2実施例の画像処理:
第2実施例は、そのハード構成は先に説明した第1実施例と変わるものはなく、その画像処理の内容が一部相違する。図4は重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第2実施例の画像処理のフローチャート、図5は第2実施例の画像処理の内容を説明するための説明図である。
B. Image processing of the second embodiment:
The hardware configuration of the second embodiment is not different from that of the first embodiment described above, and the contents of the image processing are partially different. FIG. 4 is a flowchart of image processing according to the second embodiment for generating a single still image by synthesizing the first image and the second image to be superimposed, and FIG. 5 illustrates the contents of the image processing according to the second embodiment. It is explanatory drawing for doing.

図4に示すように、この第2実施例にあっても、パーソナルコンピュータ30は、まず、画像データベース20にフレーム画像群として記憶済みの各フレーム画像をディスプレイ43上で表示し(ステップS200)、ユーザによるフレーム画像の選択を待機する(ステップS210)。フレーム画像が選択されると、パーソナルコンピュータ30は、選択されたフレーム画像が有する画像データの読み込みとその解析を実行する(ステップS225)。   As shown in FIG. 4, even in the second embodiment, the personal computer 30 first displays each frame image stored as a frame image group in the image database 20 on the display 43 (step S200). It waits for the user to select a frame image (step S210). When the frame image is selected, the personal computer 30 reads the image data included in the selected frame image and analyzes the image data (step S225).

この実施例では、フレーム画像が有する画像データ構造に特徴があり、図5に示すように、その画像データは、合成対象元画像の画像処理に関与するデータを含むメータデータと、RGB色データ等のフレームイメージデータとを含む。メタデータは、フレーム画像のフレーム名称のデータの他、合成対象元画像の被透視領域決定に必要とされる透視領域データ(既述した開始点座標(Xs,Ys)や透視領域の座標(Xa1,Yb1)、(Xai,Ybi))と、合成対象元画像の画像処理に関与する補正データとを含む。   In this embodiment, the image data structure of the frame image has a feature. As shown in FIG. 5, the image data includes meter data including data related to the image processing of the composition target original image, RGB color data, and the like. Frame image data. The metadata includes the frame name data of the frame image, as well as the perspective area data (start point coordinates (Xs, Ys) described above and the coordinates of the perspective area (Xa1) necessary for determining the perspective area of the composition target original image. , Yb1), (Xai, Ybi)) and correction data related to the image processing of the composition target original image.

本実施例では、フレーム画像は矩形形状の透視領域を有すると仮定しているので、透視領域データとしては、矩形形状の始点座標(Xa1,Yb1)と終点座標(Xai,Ybi)を持てば足り、データ構成が単純となる。この場合、透視領域が異形形状であれば、その異形形状の輪郭に沿った座標データがメタデータに蓄積される。補正データは、フレーム画像の図柄の色調、コントラスト等に基づいて、合成対象元画像の画像処理(上記した補正α)を更に補正するデータと、合成対象元画像の画像処理対象となる補正実行領域(既述した被透視領域ウィンドウ範囲Wa、拡張ウィンドウ範囲Wb、全画像範囲Wall)を示すデータとを含む。例えば、フレーム画像が明るい色調の図柄である場合には、先に説明した合成対象元画像の被透視領域内の画像データについての補正αにより色調補正する際に、より色調を明るくすうよう補正する(補正α→補正α0)ことを指示するデータ(例えば、補正係数等)が補正データとして格納されている。画像処理対象の補正実行領域データとしては、既述した被透視領域ウィンドウ範囲Wa、拡張ウィンドウ範囲Wb、全画像範囲Wallのいずれかが格納されている。   In this embodiment, since it is assumed that the frame image has a rectangular perspective area, it is sufficient to have the rectangular start point coordinates (Xa1, Yb1) and end point coordinates (Xai, Ybi) as the perspective area data. The data structure becomes simple. In this case, if the fluoroscopic region has an irregular shape, coordinate data along the contour of the irregular shape is accumulated in the metadata. The correction data includes data for further correcting the image processing (the correction α described above) of the composition target original image based on the color tone, contrast, and the like of the frame image, and a correction execution area that is an image processing target of the composition target original image. (Described above, data indicating the see-through region window range Wa, the extended window range Wb, and the entire image range Wall). For example, when the frame image has a bright color tone, the color tone is corrected to be brighter when the color tone is corrected by the correction α for the image data in the fluoroscopic region of the composition target original image described above. Data (for example, correction coefficient etc.) instructing (correction α → correction α0) is stored as correction data. As the correction execution area data to be subjected to image processing, any one of the already described fluoroscopic area window range Wa, the extended window range Wb, and the entire image range Wall is stored.

パーソナルコンピュータ30は、こうした諸データを読み込んで解析することで、既述したように合成対象元画像の被透視領域やデータ補正に関するデータを収得すると、画像データベース20に合成対象元画像群として記憶済みの各合成対象元画像の表示(ステップS240)、ユーザによる合成対象元画像の選択待機(ステップS250)を行う。その後、選択合成対象元画像の画像データ読み込みを行い(ステップS260)、ステップS235で解析決定した被透視領域に含まれる画像データをサンプリングして、そのデータ処理を行う(ステップS275)。このサンプリングについては、先のステップS270と同様、輝度分布のヒストグラムを得る。ところが、このヒストグラムを用いたデータ処理に際しては、その補正αを、ステップS235で解析した補正データが反映した補正α0とする。これにより、合成対象元画像の被透視領域に含まれる画像データのサンプリングに基づく画像データ補正と、合成対象元画像の被透視領域を取り囲むフレーム画像に基づく画像データ補正とが、新たな画像に反映されることになる。   When the personal computer 30 obtains data relating to the fluoroscopic region of the composition target original image and data correction as described above by reading and analyzing such various data, it is stored in the image database 20 as a composition target original image group. Each of the compositing target original images is displayed (step S240), and the user waits for selection of the compositing target original image (step S250). Thereafter, the image data of the selected composition target original image is read (step S260), the image data included in the fluoroscopic region analyzed and determined in step S235 is sampled, and the data processing is performed (step S275). For this sampling, a histogram of luminance distribution is obtained as in step S270. However, in the data processing using this histogram, the correction α is set to the correction α0 reflected by the correction data analyzed in step S235. As a result, the image data correction based on the sampling of the image data included in the fluoroscopic region of the composition target original image and the image data correction based on the frame image surrounding the fluoroscopic region of the composition target original image are reflected in the new image. Will be.

ステップS275に続いては、既述したステップS280とステップS290の処理を実行して、補正α0を経て生成した合成対象新画像とフレーム画像とを、フレーム画像が上になるように重ねて合成し、本ルーチンを終了する。この場合、ステップS280での新画像生成は、ステップS225で取得した補正実行領域データで定まる領域について補正α0を実行することで、新たな画像が生成される。   Subsequent to step S275, the processes of steps S280 and S290 described above are executed, and the new image to be combined and the frame image generated through the correction α0 are combined so that the frame image is on top. This routine is terminated. In this case, in the new image generation in step S280, a new image is generated by executing correction α0 for the area determined by the correction execution area data acquired in step S225.

この一連の画像合成処理を行う本第2実施例にあっても、第1実施例と同様の効果を奏することができる。特に、この第2実施例では、合成対象元画像の被透視領域に含まれる画像データのサンプリングに基づく画像データ補正に、合成対象元画像の被透視領域を取り囲むフレーム画像に基づく画像データ補正を加味するので、合成後の画像全体としても違和感を軽減できる。また、フレーム画像のデータに、合成対象元画像の画像処理についてのデータを含ませているので、簡便である。   Even in the second embodiment in which this series of image composition processing is performed, the same effects as in the first embodiment can be obtained. In particular, in the second embodiment, the image data correction based on the sampling of the image data included in the fluoroscopic area of the composition target original image is added with the image data correction based on the frame image surrounding the fluoroscopic area of the composition target original image. Therefore, the sense of incongruity can be reduced as a whole image after synthesis. Further, since the data of the frame image includes the data about the image processing of the composition target original image, it is simple.

C.第3実施例の画像処理:
第3実施例は、フレーム画像の画像領域に合成対象元画像の一部画像を重ねるよう画像合成する点に特徴があり、ハード構成は先に説明した第1実施例と同様である。図6は重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第3実施例の画像処理のフローチャート、図7は第3実施例の画像処理の内容を説明するための説明図である。
C. Image processing of the third embodiment:
The third embodiment is characterized in that image composition is performed such that a partial image of the composition target original image is superimposed on the image area of the frame image, and the hardware configuration is the same as that of the first embodiment described above. FIG. 6 is a flowchart of image processing according to the third embodiment for generating a single still image by synthesizing the first image and the second image to be superimposed, and FIG. 7 illustrates the contents of the image processing according to the third embodiment. It is explanatory drawing for doing.

図6に示すように、この第3実施例にあっても、パーソナルコンピュータ30は、まず、画像データベース20にフレーム画像群として記憶済みの各フレーム画像をディスプレイ43上で表示し(ステップS200)、ユーザによるフレーム画像の選択を待機する(ステップS210)。フレーム画像が選択されると、パーソナルコンピュータ30は、選択されたフレーム画像が有する画像データの読み込みを実行する(ステップS220)。   As shown in FIG. 6, even in the third embodiment, the personal computer 30 first displays each frame image stored as a frame image group in the image database 20 on the display 43 (step S200). It waits for the user to select a frame image (step S210). When the frame image is selected, the personal computer 30 executes reading of image data included in the selected frame image (step S220).

この実施例では、フレーム画像が有する画像データ構造に特徴があり、図7に示すように、フレーム画像は、合成後にも視認される視認領域画像SGと、合成対象元画像の一部画像に重なって視認されなくなる被視認領域画像HGとを含む。フレーム画像は、視認領域画像SGと被視認領域画像HGについてそれぞれRGB色データを有するものの、被視認領域画像HGについては、当該領域が合成対象元画像の一部画像部分が重なることで合成対象元画像のこの一部画像部分を視認させるようにする重ね合わせ領域である旨のデータ(重畳データ)を含んでいる。   In this embodiment, the image data structure of the frame image has a feature. As shown in FIG. 7, the frame image overlaps the visual recognition area image SG that is visually recognized even after the synthesis and a partial image of the synthesis target original image. And a viewable region image HG that is no longer visible. Although the frame image has RGB color data for each of the viewing area image SG and the viewing area image HG, for the viewing area image HG, the synthesis target element is obtained by overlapping the partial image portion of the composition target original image. It includes data (superimposition data) indicating that it is a superposition region that allows this partial image portion of the image to be viewed.

パーソナルコンピュータ30は、読み込んだフレーム画像の画像データに基づいて合成対象元画像の重ね合わせ領域を決定する(ステップS300)。この領域決定手法は、第1実施例で説明した手法と変わるところはなく、図7に示すように、フレーム画像の重畳データで把握される被視認領域画像HGを、合成対象元画像の重ね合わせ領域HG0に対応させる。この際、第1実施例で説明したように画像領域の開始点座標等のデータが用いられる。   The personal computer 30 determines the overlapping area of the composition target original image based on the image data of the read frame image (step S300). This region determination method is not different from the method described in the first embodiment. As shown in FIG. 7, the region-of-view image HG grasped by the frame image superimposition data is superimposed on the composition source image. It corresponds to the region HG0. At this time, as described in the first embodiment, data such as the start point coordinates of the image area is used.

こうして合成対象元画像の重ね合わせ領域HG0が決定されると、パーソナルコンピュータ30は、画像データベース20に合成対象元画像群として記憶済みの各合成対象元画像の表示(ステップS240)、ユーザによる合成対象元画像の選択待機(ステップS250)を行う。その後、選択合成対象元画像の画像データ読み込みを行い(ステップS260)、読み込んだ画像データのうち、合成対象元画像の重ね合わせ領域HG0に含まれる画像データで得られる画像を、合成対象元画像から切り抜く(ステップS310)。   When the overlapping area HG0 of the composition target original image is determined in this way, the personal computer 30 displays each composition target original image stored as a composition target original image group in the image database 20 (step S240), and the composition target by the user. The original image selection is waited (step S250). Thereafter, the image data of the selected composition target original image is read (step S260), and among the read image data, an image obtained with the image data included in the overlapping area HG0 of the composition target original image is read from the composition target original image. Cut out (step S310).

パーソナルコンピュータ30は、この切り抜き済みの画像(切り抜き画像)、即ち合成対象元画像の重ね合わせ領域HG0に含まれる画像データをサンプリングして、そのデータ処理を行う(ステップS320)。このサンプリングについては、先のステップS270と同様、輝度分布のヒストグラムを求め、例えば、そのヒストグラムヒストグラム(メジアンm0)を、正規分布のヒストグラム(メジアンm)に近づくようにする明度調整や、ヒストグラムの最大値・最小値を左右に広げるようなコントラスト調整のデータ処理(補正β)を行う。   The personal computer 30 samples this cut-out image (cut-out image), that is, image data included in the overlapping area HG0 of the composition target original image, and performs data processing thereof (step S320). For this sampling, as in the previous step S270, a luminance distribution histogram is obtained. For example, brightness adjustment is performed so that the histogram histogram (median m0) approaches the normal distribution histogram (median m), or the histogram maximum Contrast adjustment data processing (correction β) is performed to widen the value and minimum value to the left and right.

ステップS320に続き、パーソナルコンピュータ30は、上記のデータ処理済みの画像データに基づいて合成対象の切り抜き済み新画像を生成する(ステップS330)。この新画像生成は次のようにすればよい。図7に示すように、データ処理による補正βを、ステップS310で切り抜き済み画像の画像データについて行い、切り抜き形状での補正済み新画像を生成する。   Following step S320, the personal computer 30 generates a new cut-out image to be synthesized based on the image data that has been processed (step S330). This new image generation may be performed as follows. As shown in FIG. 7, correction β by data processing is performed on the image data of the clipped image in step S <b> 310 to generate a corrected new image with a clipped shape.

パーソナルコンピュータ30は、こうして生成した合成対象の切り抜き済み新画像と、ステップS210で選択済みのフレーム画像とを、フレーム画像における被視認領域画像HGの領域に合成対象の切り抜き済み新画像が上になるように重ねて合成し(ステップS340)、本ルーチンを終了する。   The personal computer 30 adds the cut-out new image to be synthesized and the frame image selected in step S210 to the synthesis target cut-out new image in the region of the viewable region image HG in the frame image. In such a manner, they are combined (step S340), and this routine is terminated.

この一連の画像合成処理を行う本第3実施例にあっても、第1実施例と同様の効果を奏することができる。   Even in the third embodiment in which this series of image composition processing is performed, the same effects as in the first embodiment can be obtained.

D.変形例:
以上いくつかの実施例について説明したが、本発明はこれら実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において、種々の態様で実施可能である。例えば、次のような変形も可能である。
D. Variation:
Although some examples have been described above, the present invention is not limited to these examples and embodiments, and can be implemented in various modes without departing from the scope of the invention. For example, the following modifications are possible.

図8Aは合成対象元画像にフレーム画像を上にして重ねる画像合成の際の合成対象元画像の被透視領域決定手法(ステップS230)の1変形例を説明する説明図、図8Bは被透視領域決定手法(ステップS230)の他の変形例を説明する説明図、図8Cは被透視領域決定手法(ステップS230)のまた別の変形例を説明する説明図である。これら変形例は、フレーム画像の透視領域が異形形状を取る場合に、合成対象元画像の被透視領域を矩形形状として決定する手法を取っている。   FIG. 8A is an explanatory diagram for explaining a modified example of the method for determining the perspective area of the composition target original image (step S230) at the time of image composition in which the frame image is superimposed on the composition target original image, and FIG. FIG. 8C is an explanatory diagram for explaining another modified example of the fluoroscopic region determining method (step S230). These modified examples take a method of determining the fluoroscopic region of the composition target original image as a rectangular shape when the fluoroscopic region of the frame image has an irregular shape.

図8Aは、フレーム画像が図示する異形形状の透視領域TRを有する場合、合成対象元画像における矩形形状の被透視領域HTRを、異形形状の透視領域TRに納まってしまう矩形形状の最大の大きさとする例を示している。また、この変形例は、図1のようにフレーム画像が矩形形状の透視領域を有する場合であっても、合成対象元画像における矩形形状の被透視領域HTRをフレーム画像の矩形形状の透視領域と必ずしも一致させる必要がないことも意味する。なお、矩形形状を長方形とすれば、その四辺が異形形状の透視領域TRの最も内側で接するような長方形とすることもできる。   FIG. 8A shows that when the frame image has an irregularly shaped perspective region TR shown in the figure, the rectangular-shaped perspective region HTR in the composition target original image has a maximum rectangular shape that fits in the irregularly shaped perspective region TR. An example is shown. Further, in this modification, even when the frame image has a rectangular perspective region as shown in FIG. 1, the rectangular perspective region HTR in the composition target original image is defined as the rectangular perspective region of the frame image. It also means that they do not necessarily need to be matched. In addition, if the rectangular shape is a rectangle, the rectangle may have a shape in which the four sides are in contact with the innermost side of the irregularly shaped perspective region TR.

こうすれば、ステップS270における画像データ処理の際のサンプリング領域(即ち、被透視領域HTR)を狭くできるので、演算負荷を軽減できる。この場合、データ処理(補正α)を行って新画像を生成するに際しては、補正の対象となる領域を、透視領域TRより広い拡張ウィンドウ範囲Wbとしたり、合成対象元画像の全域とすればよい。なお、拡張ウィンドウ範囲Wbを被透視領域HTRとすることもでき、この場合は、合成対象元画像における矩形形状の被透視領域HTRを、異形形状の透視領域TRを取り囲む矩形形状の最小の大きさとする例となる。   In this way, the sampling area (that is, the fluoroscopic area HTR) at the time of image data processing in step S270 can be narrowed, so that the calculation load can be reduced. In this case, when data processing (correction α) is performed to generate a new image, the area to be corrected may be the extended window range Wb wider than the fluoroscopic area TR or the entire area of the composition target original image. . Note that the extended window range Wb can also be the see-through region HTR. In this case, the rectangular-shaped see-through region HTR in the composition target original image is set to the minimum size of the rectangular shape surrounding the deform-shaped see-through region TR. This is an example.

図8Bは、フレーム画像が図示する異形形状の透視領域TRを有する場合、合成対象元画像における矩形形状の被透視領域HTRを、異形形状の透視領域TRの外郭線と干渉するようにする例を示している。換言すれば、図8Aにおいて実線で示す合成対象元画像の最小矩形形状の被透視領域HTRと、二点鎖線で示す最大矩形形状の被透視領域HTRの間の中間矩形形状の被透視領域HTRとする例でもある。   FIG. 8B shows an example in which, when the frame image has the irregularly shaped perspective region TR shown in the figure, the rectangular perspective region HTR in the composition target original image interferes with the outline of the irregularly shaped perspective region TR. Show. In other words, in FIG. 8A, the minimum rectangular-shaped perspective region HTR of the composition target original image indicated by a solid line, and the intermediate rectangular-shaped perspective region HTR between the maximum rectangular-shaped perspective region HTR indicated by a two-dot chain line, It is also an example.

図8Cは、フレーム画像が図示する異形形状の透視領域TRを有する場合、合成対象元画像における矩形形状の被透視領域を、図8Aに実線で示す合成対象元画像の最小矩形形状の被透視領域HTR1と、図8Bに実線で示す中間矩形形状の被透視領域HTR2とを有するようにし、その上で、ステップS230での被透視領域決定や、ステップS270でのデータ処理(補正α)に重み付けを施した例を示している。つまり、この図8Cにおいて、最小矩形形状の被透視領域HTR1に含まれる画像データをステップS230での被透視領域とし、この被透視領域(最小矩形形状の透視領域HTR1)に含まれる画像データについて、ステップS270におけるサンプリングを行う。そして、最小矩形形状の透視領域HTR1に含まれる画像データについての補正αは、その重み付けを1として既述した補正αそのままの手法でデータ処理を行う。ところが、中間矩形形状の被透視領域HTR2に含まれ最小矩形形状の被透視領域HTR1から離れた領域に含まれる画像データについての補正αは、その重み付けを、例えば0.7というような重み付けをして、データ処理を行う。こうすれば、次のような利点がある。   8C shows a rectangular-shaped perspective region in the composition target original image when the frame image has an irregularly shaped perspective region TR illustrated in FIG. 8A. The minimum rectangular shape perspective region of the composition target original image shown by a solid line in FIG. It has HTR1 and a transparent region HTR2 having an intermediate rectangular shape shown by a solid line in FIG. 8B, and on that basis, determination of the transparent region in step S230 and weighting of data processing (correction α) in step S270 are performed. An example is given. That is, in FIG. 8C, the image data included in the transparent region HTR1 having the smallest rectangular shape is set as the transparent region in step S230, and the image data included in the transparent region (the transparent region HTR1 having the smallest rectangular shape) is Sampling is performed in step S270. Then, the correction α for the image data included in the fluoroscopic region HTR1 having the minimum rectangular shape is subjected to data processing by the method of the correction α described above with the weighting set to 1. However, the correction α for image data included in the intermediate rectangular shape of the transparent region HTR2 and included in the region away from the minimum rectangular shape of the transparent region HTR1 is weighted, for example, 0.7. Data processing. This has the following advantages.

合成対象元画像をステップS270でのサンプリング結果に基づきデータ補正する際、フレーム画像の透視領域に干渉せずに当該領域に含まれる画像(最小矩形形状の透視領域HTR1に相当する画像)は、重み付けが1で補正αのデータ処理が行われた画像となり、その外側の画像(中間矩形形状の被透視領域HTR2と最小矩形形状の被透視領域HTR1の間の画像)は、重み付けが異なることから、画像の色調・コントラストを、最小矩形形状の透視領域HTR1に相当する画像とフレーム画像での画像の推移に合わせることも可能となる。よって、合成画像における違和感をより軽減することも可能となる。   When data correction is performed on the compositing target original image based on the sampling result in step S270, an image included in the region without interference with the fluoroscopic region of the frame image (an image corresponding to the fluoroscopic region HTR1 having the smallest rectangular shape) is weighted. Is an image that has been subjected to the correction α data processing with 1 and the outer image (the image between the intermediate rectangular-shaped transparent region HTR2 and the minimum rectangular-shaped transparent region HTR1) has different weights. It is also possible to match the color tone / contrast of the image to the transition of the image in the image corresponding to the transparent region HTR1 having the smallest rectangular shape and the frame image. Therefore, it is possible to further reduce the uncomfortable feeling in the composite image.

また、合成対象元画像の被透視領域決定に際しては、フレーム画像における透視領域と合成対象元画像の被透視領域のマトリックス座標の開始点座標(Xs,Ys)を同じとしたが、次のようにすることもできる。フレーム画像の透視領域に組み込まれて透視される画像は、人物の顔とされることが一般的である。よって、合成対象元画像が人物画像を有するようなものであれば、ステップS230における処理を、フレーム画像における透視領域決定の処理と、合成対象元画像が有する人物の顔描写部分の特定処理と、顔描写部分をフレーム画像における透視領域に対応するよう定める適応処理とに分けるようにすることもできる。こうすれば、フレーム画像の透視領域のほぼ中央付近に、合成対象元画像における人物の顔を合成するようにすることができ好ましい。なお、合成対象元画像が有する人物の顔描写部分の特定は、マトリックス状の画素データが肌色データとして縦・横に分布する状態等の解析を経て実行される。   In addition, when determining the perspective area of the composition target original image, the start point coordinates (Xs, Ys) of the matrix coordinates of the perspective area in the frame image and the perspective area of the composition target original image are the same. You can also In general, an image incorporated in a see-through area of a frame image and seen through is a human face. Therefore, if the composition target original image includes a person image, the processing in step S230 includes processing for determining a fluoroscopic region in the frame image, and specifying a human face description portion included in the composition target original image, It is also possible to divide the face drawing portion into adaptive processing that is determined so as to correspond to the fluoroscopic region in the frame image. This is preferable because the face of the person in the composition target original image can be synthesized near the center of the perspective area of the frame image. It should be noted that the identification of the face depiction portion of the person included in the composition target original image is executed through analysis such as a state in which matrix-like pixel data is distributed vertically and horizontally as skin color data.

次のような変形例も可能である。第2実施例では、合成対象元画像の被透視領域に含まれる画像データのサンプリングに基づく画像データ補正(補正α)に、合成対象元画像の被透視領域を取り囲むフレーム画像に基づく画像データ補正(補正α0)を加味するに当たり、この補正α0をフレーム画像のデータに含ませた。しかし、こうした補正α0を、フレーム画像そのものから演算算出するよう、変形することができる。   The following modifications are also possible. In the second embodiment, the image data correction (correction α) based on the sampling of the image data included in the fluoroscopic region of the composition target original image is corrected to the image data correction based on the frame image surrounding the fluoroscopic region of the composition target original image (correction α). In consideration of the correction α0), the correction α0 is included in the frame image data. However, such correction α0 can be modified so as to be calculated from the frame image itself.

つまり、フレーム画像の透視領域周辺、例えば透視領域周囲の画像部位を少なくとも含むフレーム画像の画像領域をサンプリング領域として、当該領域に含まれる画像データから得られた画像の統計的特性(例えば、輝度分布)を求める。そして、この統計的特性を、第2実施例における補正α0に代えて用い、合成対象元画像の画像データ補正を行う。こうしても、第2実施例と同様の効果を得ることができる。輝度分布の他、統計的特性として得られるフレーム画像における透視領域周辺の画像の色調に応じて、合成対象元画像を補色補正(データ補正)するようにすることもできる。   In other words, the image characteristic of the image obtained from the image data included in the region (for example, luminance distribution) is set as the sampling region, the image region of the frame image including at least the fluoroscopic region of the frame image, for example, the image region around the fluoroscopic region. ) Then, this statistical characteristic is used in place of the correction α0 in the second embodiment to perform image data correction of the composition target original image. Even in this case, the same effect as the second embodiment can be obtained. In addition to the luminance distribution, the composition target original image may be subjected to complementary color correction (data correction) according to the color tone of the image around the fluoroscopic region in the frame image obtained as a statistical characteristic.

本発明の第1実施例としての画像処理システム100を示す説明図である。It is explanatory drawing which shows the image processing system 100 as 1st Example of this invention. 重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第1実施例の画像処理のフローチャートである。It is a flowchart of the image processing of 1st Example which synthesize | combines the 1st image used as a superimposition object, and a 2nd image, and produces | generates one still image. 第1実施例の画像処理の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of the image processing of 1st Example. 重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第2実施例の画像処理のフローチャートである。It is a flowchart of the image processing of 2nd Example which synthesize | combines the 1st image used as a superimposition object, and a 2nd image, and produces | generates one still image. 第2実施例の画像処理の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of the image processing of 2nd Example. 重ね合わせ対象となる第1画像と第2画像を合成して一の静止画像を生成する第3実施例の画像処理のフローチャートである。It is a flowchart of the image processing of 3rd Example which synthesize | combines the 1st image used as a superimposition object, and a 2nd image, and produces | generates one still image. 第3実施例の画像処理の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of the image processing of 3rd Example. 合成対象元画像にフレーム画像を上にして重ねる画像合成の際の合成対象元画像の被透視領域決定手法の1変形例を説明する説明図である。It is explanatory drawing explaining the 1st modification of the see-through | perspective area | region determination method of the synthetic | combination object original image at the time of the image composition which overlaps a frame image on a compositing object original image. 画像の重ね合わせ合成の際の被透視領域決定手法の他の変形例を説明する説明図である。It is explanatory drawing explaining the other modification of the to-be-transparent area | region determination method in the case of the superimposition synthesis | combination of an image. 画像の重ね合わせ合成の際の被透視領域決定手法のまた別の変形例を説明する説明図である。It is explanatory drawing explaining another modification of the to-be-viewed area | region determination method in the case of the superimposition synthesis | combination of an image.

符号の説明Explanation of symbols

20...画像データベース
21...デジタルビデオカメラ
22...デジタルスチルカメラ
23...DVD
24...ハードディスク
25...携帯電話
30...パーソナルコンピュータ
34...ハードディスク
35...I/F回路
40...ユーザインターフェース
41...キーボード
42...マウス
43...ディスプレイ
50...カラープリンタ
100...画像処理システム
SG...視認領域画像
HG...被視認領域画像
TR...透視領域
HTR...被透視領域
20 ... Image database 21 ... Digital video camera 22 ... Digital still camera 23 ... DVD
24 ... Hard disk 25 ... Mobile phone 30 ... Personal computer 34 ... Hard disk 35 ... I / F circuit 40 ... User interface 41 ... Keyboard 42 ... Mouse 43 ... Display 50 ... Color printer 100 ... Image processing system SG ... Viewing area image HG ... Viewing area image TR ... Perspective area HTR ... Perspective area

Claims (13)

画像を重ね合わせて合成画像を生成する画像生成装置であって、
重ね合わせ対象となる第1画像と第2画像が重なり合ったときに下に位置する前記第1画像を加工する画像加工部と、
前記第1画像を透視させる透視領域を有する前記第2画像が前記第1画像の上に重なるように、前記第2画像と前記調整後の第1画像とを合成する合成部とを備え、
前記画像加工部は、
前記第2画像が有する前記透視領域に所定の関係で対応するよう前記第1画像上の所定の対応領域を決定する領域決定部と、
該決定した対応領域における前記第1画像の性質に基づいて、前記第1画像を構成する第1画像データを調整する調整部とを有する
画像生成装置。
An image generation device that generates a composite image by superimposing images,
An image processing unit that processes the first image located below when the first image and the second image to be superimposed overlap;
A synthesis unit that synthesizes the second image and the first image after adjustment so that the second image having a fluoroscopic region for seeing through the first image overlaps the first image;
The image processing unit
An area determining unit that determines a predetermined corresponding area on the first image so as to correspond to the fluoroscopic area of the second image in a predetermined relationship;
An image generation apparatus comprising: an adjustment unit that adjusts first image data constituting the first image based on the property of the first image in the determined corresponding region.
請求項1記載の画像生成装置であって、
前記調整部は、
前記第1画像データに対する補正を行って前記第1画像を調整するに当たり、前記対応領域をサンプリング領域とし、該サンプリング領域の前記第1画像データから得られた画像の統計的特性に基づいた画像データ補正により、前記第1画像を調整する
画像生成装置。
The image generation apparatus according to claim 1,
The adjustment unit is
When adjusting the first image by performing correction on the first image data, the corresponding area is set as a sampling area, and the image data is based on statistical characteristics of an image obtained from the first image data in the sampling area. An image generation apparatus that adjusts the first image by correction.
請求項2記載の画像生成装置であって、
前記調整部は、
前記サンプリング領域の画像データ状況に基づいた画像データ補正を、前記第1画像を構成する前記第1画像データのうち、前記対応領域の前記第1画像データを少なくとも含む画像データについて行う
画像生成装置。
The image generation apparatus according to claim 2,
The adjustment unit is
An image generation apparatus that performs image data correction based on an image data state of the sampling area for image data including at least the first image data of the corresponding area among the first image data constituting the first image.
請求項3記載の画像生成装置であって、
前記調整部は、
前記画像データ補正を、前記第1画像を構成する総ての前記第1画像データについて行う第1補正と、前記第1画像を構成する前記第1画像データのうち、前記対応領域の前記第1画像データについて行う第2補正から選択的に実行する
画像生成装置。
The image generation device according to claim 3,
The adjustment unit is
Of the first image data constituting the first image, the first correction of the corresponding region is performed in the first correction performed on the first image data constituting the first image. An image generation apparatus that is selectively executed from the second correction performed on image data.
請求項2ないし請求項4いずれか記載の画像生成装置であって、
更に、
前記透視領域の異なる画像を複数記憶する記憶部と、
該記憶された複数の画像の一つを、前記第2画像として選択する画像選択部とを有する
画像生成装置。
The image generation apparatus according to any one of claims 2 to 4,
Furthermore,
A storage unit for storing a plurality of images having different perspective areas;
An image generation apparatus comprising: an image selection unit that selects one of the plurality of stored images as the second image.
請求項5記載の画像生成装置であって、
前記記憶部は、外部から前記透視領域の異なる画像の入力が可能とされている
画像生成装置。
The image generation apparatus according to claim 5, wherein
The image generation apparatus, wherein the storage unit is capable of inputting an image having a different perspective area from the outside.
請求項2ないし請求項6いずれか記載の画像生成装置であって、
前記第2画像を構成する第2画像データには、前記対応領域を決定する情報が含まれている
画像生成装置。
The image generation apparatus according to claim 2, wherein:
The second image data constituting the second image includes information for determining the corresponding area.
請求項2ないし請求項7いずれか記載の画像生成装置であって、
前記第2画像データには、前記第1画像調整に際して前記第1画像データに対して行う補正の内容に関する補正関与データが含まれ、
前記調整部は、前記補正関与データを反映させて前記第1画像データを補正し、前記第1画像を調整する
画像生成装置。
The image generation apparatus according to any one of claims 2 to 7,
The second image data includes correction-related data related to the content of correction performed on the first image data during the first image adjustment,
The image generation apparatus that adjusts the first image by correcting the first image data by reflecting the correction participation data.
請求項2ないし請求項7いずれか記載の画像生成装置であって、
更に、
前記第2画像が有する前記透視領域の周辺の前記第2画像の透視領域周辺画像部位を少なくとも含む第2画像領域について、該第2画像領域を第2画像サンプリング領域として、該第2画像サンプリング領域に含まれる前記第2画像の第2画像データから得られた画像の統計的特性を求める第2画像サンプリング部を備え、
前記調整部は、前記第2画像サンプリング部が求めた前記統計的特性を、前記第1画像データの補正に反映させて前記第1画像を調整する
画像生成装置。
The image generation apparatus according to any one of claims 2 to 7,
Furthermore,
With respect to a second image region including at least a fluoroscopic region surrounding image portion of the second image around the fluoroscopic region of the second image, the second image sampling region is defined as the second image sampling region. A second image sampling unit for obtaining a statistical characteristic of an image obtained from the second image data of the second image included in
The image generation device adjusts the first image by reflecting the statistical characteristic obtained by the second image sampling unit in the correction of the first image data.
複数の画像を重ね合わせて合成画像を生成する画像生成装置であって、
画像合成に際して、第1画像を調整する調整部と、
加工後の第1画像と、その重ね合わせ対象となる第2画像とを合成する合成部とを備え、
前記第2画像は、
前記第1画像の一部領域の画像部分が前記第2画像の上に重なることで前記第1画像の前記画像部分が見えるように定義された重ね合わせ領域を備え、
前記調整部は、
前記重ね合わせ領域に対応する前記第1画像の前記画像部分を切り出す処理と、該切り出し対象となる領域における前記第1画像の性質に基づいた前記第1画像の調整処理とを実行し、
前記合成部は、
前記切り出された前記第1画像の前記一部領域の前記画像部分を、前記第2画像の前記重ね合わせ領域に重ねて合成する
画像生成装置。
An image generation device that generates a composite image by superimposing a plurality of images,
An adjustment unit for adjusting the first image during image synthesis;
A synthesis unit that synthesizes the first image after processing and the second image to be superimposed;
The second image is
An overlapping region defined so that the image portion of the first image can be seen by overlapping an image portion of the partial region of the first image on the second image;
The adjustment unit is
Performing a process of cutting out the image portion of the first image corresponding to the overlapping area, and an adjustment process of the first image based on the property of the first image in the area to be cut out;
The synthesis unit is
An image generation apparatus that combines the image portion of the partial area of the cut out first image with the overlapping area of the second image.
複数の画像を重ね合わせて合成画像を生成する画像生成方法であって、
(a)重ね合わせ対象となる第1画像と第2画像が重なり合ったときに下に位置する前記第1画像について、前記第2画像が前記第1画像を透視させるよう有する透視領域に所定の関係で対応するよう前記第1画像上の所定の対応領域を決定する工程と、
(b)前記第1画像を構成する第1画像データのうち、前記工程(a)で決定した前記対応領域をサンプリング領域とし、該サンプリング領域の前記第1画像データから得られた画像の統計的特性に基づいた画像データの補正を行って前記第1画像を調整する工程と、
(c)前記第1画像の上に重なる前記第2画像と前記工程(b)で調整後の前記第1画像とを、前記第2画像が前記第1画像の上になるように合成する工程とを備える
画像生成方法。
An image generation method for generating a composite image by superimposing a plurality of images,
(A) With respect to the first image positioned below when the first image and the second image to be overlapped overlap each other, the second image has a predetermined relationship with the fluoroscopic region that allows the first image to be seen through Determining a predetermined corresponding area on the first image to correspond with
(B) Among the first image data constituting the first image, the corresponding area determined in the step (a) is set as a sampling area, and the statistical value of the image obtained from the first image data in the sampling area is determined. Adjusting the first image by correcting image data based on characteristics;
(C) combining the second image that overlaps the first image and the first image that has been adjusted in the step (b) so that the second image is on the first image. An image generation method comprising:
複数の画像を重ね合わる画像合成処理をコンピュータに実行させるためのコンピュータプログラムであって、
(a)重ね合わせ対象となる第1画像と第2画像が重なり合ったときに下に位置する前記第1画像について、前記第2画像が前記第1画像を透視させるよう有する透視領域に所定の関係で対応するよう前記第1画像上の所定の対応領域を決定する機能と、
(b)前記第1画像を構成する第1画像データのうち、前記機能(a)で決定した前記対応領域をサンプリング領域とし、該サンプリング領域の前記第1画像データから得られた画像の統計的特性に基づいた画像データの補正を行って前記第1画像を調整する機能と、
(c)前記第1画像の上に重なる前記第2画像と前記機能(b)で調整後の前記第1画像とを、前記第2画像が前記第1画像の上になるように合成する機能と、
を、前記コンピュータに実現させるコンピュータプログラム。
A computer program for causing a computer to execute image composition processing for superimposing a plurality of images,
(A) With respect to the first image positioned below when the first image and the second image to be overlapped overlap each other, the second image has a predetermined relationship with the fluoroscopic region that allows the first image to be seen through A function of determining a predetermined corresponding area on the first image so as to correspond with
(B) Out of the first image data constituting the first image, the corresponding area determined by the function (a) is set as a sampling area, and the statistical value of the image obtained from the first image data in the sampling area A function of adjusting the first image by correcting image data based on characteristics;
(C) A function of synthesizing the second image overlapping the first image and the first image adjusted by the function (b) so that the second image is on the first image. When,
A computer program for causing the computer to realize the above.
請求項12に記載したコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the computer program according to claim 12 is recorded.
JP2004050818A 2004-02-26 2004-02-26 Image composition for generating composite image by overlapping image Pending JP2005244536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004050818A JP2005244536A (en) 2004-02-26 2004-02-26 Image composition for generating composite image by overlapping image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004050818A JP2005244536A (en) 2004-02-26 2004-02-26 Image composition for generating composite image by overlapping image

Publications (1)

Publication Number Publication Date
JP2005244536A true JP2005244536A (en) 2005-09-08

Family

ID=35025796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004050818A Pending JP2005244536A (en) 2004-02-26 2004-02-26 Image composition for generating composite image by overlapping image

Country Status (1)

Country Link
JP (1) JP2005244536A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101807293A (en) * 2010-03-19 2010-08-18 上海合合信息科技发展有限公司 Method for adjusting detection result of image quadrilateral frame
US9053556B2 (en) 2008-10-30 2015-06-09 Seiko Epson Corporation Image processing apparatus for panoramic synthesis of a plurality of sub-images
KR101551917B1 (en) * 2015-04-02 2015-09-08 스타십벤딩머신 주식회사 Apparatus and method for composing image
KR101555879B1 (en) * 2015-03-25 2015-09-30 스타십벤딩머신 주식회사 Apparatus for composing image and method thereof
CN114520875A (en) * 2022-01-28 2022-05-20 西安维沃软件技术有限公司 Video processing method and device and electronic equipment

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9053556B2 (en) 2008-10-30 2015-06-09 Seiko Epson Corporation Image processing apparatus for panoramic synthesis of a plurality of sub-images
CN101807293A (en) * 2010-03-19 2010-08-18 上海合合信息科技发展有限公司 Method for adjusting detection result of image quadrilateral frame
KR101555879B1 (en) * 2015-03-25 2015-09-30 스타십벤딩머신 주식회사 Apparatus for composing image and method thereof
WO2016153309A1 (en) * 2015-03-25 2016-09-29 스타십벤딩머신 주식회사 Image synthesis apparatus and method
KR101551917B1 (en) * 2015-04-02 2015-09-08 스타십벤딩머신 주식회사 Apparatus and method for composing image
WO2016159693A1 (en) * 2015-04-02 2016-10-06 스타십벤딩머신 주식회사 Image synthesis device and method
CN114520875A (en) * 2022-01-28 2022-05-20 西安维沃软件技术有限公司 Video processing method and device and electronic equipment
CN114520875B (en) * 2022-01-28 2024-04-02 西安维沃软件技术有限公司 Video processing method and device and electronic equipment

Similar Documents

Publication Publication Date Title
JP5365823B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium
JP3870109B2 (en) Image display apparatus, image display method, and image display program
JP5205968B2 (en) Gradation correction method, gradation correction apparatus, gradation correction program, and image device
JP2006033656A (en) User interface provider
JP2008060760A (en) Image processing program and image processing apparatus
JP5235759B2 (en) Image processing apparatus, image processing method, and program
JP5089783B2 (en) Image processing apparatus and control method thereof
JP6087612B2 (en) Image processing apparatus and image processing method
JP2006115444A (en) Method, device, program for image processing, and electronic camera
JP5610245B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium
JP6527641B2 (en) Image processing apparatus and superimposed image generation method
CN115294055A (en) Image processing method, image processing device, electronic equipment and readable storage medium
JP2008282204A (en) Image processor and image processing method
JP2008072604A (en) Image processing system, apparatus, medium, and program
JP2005244536A (en) Image composition for generating composite image by overlapping image
JP2009237927A (en) Image composition method and device
US7387386B2 (en) Ophthalmologic image processing apparatus
JP2007208912A (en) Image processing apparatus and control method, computer program, and storage medium
JP4148165B2 (en) Image composition to create a composite image by overlaying images
JP6257268B2 (en) Image processing apparatus and image processing method
JP2006114006A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
JPWO2010058678A1 (en) Designated color region defining circuit, detection circuit, and image processing apparatus using the same
JP5365881B2 (en) Image processing apparatus and image processing method
JP2007158446A (en) Image processor, image processing method and program, recording medium
JP2006067155A (en) Image correction apparatus, image pickup apparatus, and image correction program