JP2000287127A - Image synthesizing device - Google Patents

Image synthesizing device

Info

Publication number
JP2000287127A
JP2000287127A JP11090434A JP9043499A JP2000287127A JP 2000287127 A JP2000287127 A JP 2000287127A JP 11090434 A JP11090434 A JP 11090434A JP 9043499 A JP9043499 A JP 9043499A JP 2000287127 A JP2000287127 A JP 2000287127A
Authority
JP
Japan
Prior art keywords
image
subject
background
user
background image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11090434A
Other languages
Japanese (ja)
Inventor
Toru Baba
亨 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP11090434A priority Critical patent/JP2000287127A/en
Publication of JP2000287127A publication Critical patent/JP2000287127A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To apply the most proper image processing to a background by synthesizing the image of a subject photographed with a camera with a background image in a selected optional position and size and selecting either the display of guidance in the optimum synthesis position or execution of optional movement editing processing by user. SOLUTION: A pattern memory 255 has a storing area previously devided to separately store two types of data and stores background image data to be superimposed on the image of the subject, lightness and saturation data for correcting the lightness and saturation of the subject and guide data such as an operation menu to be displayed on a monitor 241. An image processing part 256 executes a processing for extracting the contour of the subject image from subject image data which is fetched from an image input part 254 by the control of a CPU 251. The user superimposes the subject image on the designated position of the background image selected by a touch operation by the designated angle and size and executes synthesis.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写体のデジタル
画像と、別のデジタル画像を合成してプリント出力する
画像合成装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus for synthesizing a digital image of a subject with another digital image and outputting the synthesized image.

【0002】[0002]

【従来の技術】従来、街頭、店先、ゲームセンタ等に設
置されている画像プリント装置では、あらかじめ用意し
た複数のフレーム画像(ハートマーク、キャラクタや風
景画等)の中から利用者が選択したフレーム画像に、カ
メラで撮影した被写体画像を合成し、プリントアウトし
て利用者に提供している。この画像プリント装置を使用
する際は、利用者は先ず用意された複数のフレーム画像
の中から好みのフレーム画像を選択する。フレーム画像
が選択されると、モニタ画面に、選択されたフレーム画
像とカメラで撮影された被写体である利用者が同時に写
し出される。利用者はモニタ画面を見ながら移動して、
フレーム画像中の自分の位置を決定する。位置決定後、
被写体が撮影され、被写体画像とフレーム画像が合成さ
れてプリントアウトされる。特開平10−186473
号公報に記載のものは、奥行きがあって面白味のある合
成画像を作成する為に、複数の異なる前景フレームと背
景フレームを用意し、利用者の選択した任意の前景フレ
ーム画像と背景フレーム画像の間に被写体画像を挟み込
んで画像合成するようにしている。
2. Description of the Related Art Conventionally, in an image printing apparatus installed in a street, a storefront, a game center, or the like, a frame selected by a user from a plurality of frame images (heart mark, character, landscape image, etc.) prepared in advance. The image is combined with the subject image captured by the camera, and printed out and provided to the user. When using this image printing apparatus, the user first selects a desired frame image from a plurality of prepared frame images. When the frame image is selected, the selected frame image and the user who is the subject photographed by the camera are simultaneously displayed on the monitor screen. The user moves while looking at the monitor screen,
Determine your position in the frame image. After positioning,
The subject is photographed, and the subject image and the frame image are combined and printed out. JP-A-10-186473
The publication describes a plurality of different foreground frames and background frames prepared by a user in order to create a deep and interesting composite image. The image is synthesized by sandwiching the subject image in between.

【0003】[0003]

【発明が解決しようとする課題】従来の画像プリント装
置では、被写体との合成に使用される背景画像は2次元
的に描かれた絵やフレームが多くを占めている。これら
の絵やフレームでは合成するときに被写体を撮影した画
像を取り込むスペースがあらかじめ用意されている。し
たがって、合成する場合には撮影した被写体の画像を選
択した背景画像の決められたスペースに単に貼り付ける
だけであるため、利用者が背景に対して任意の位置に自
分の画像を貼り付けることができなかった。さらに合成
結果が印刷されるまで利用者は自分が背景画像に対し
て、どの位置で映っているのかが確認できなかった。
In a conventional image printing apparatus, a background image used for synthesizing a subject is mainly composed of a two-dimensionally drawn picture or frame. In these pictures and frames, a space for taking in an image of a subject at the time of composition is prepared in advance. Therefore, in the case of composition, since the image of the photographed subject is simply pasted in the determined space of the selected background image, the user can paste his own image at an arbitrary position with respect to the background. could not. Further, the user could not confirm where he or she was in the background image until the composite result was printed.

【0004】このような問題に対して、背景データ、撮
影した被写体データをそれぞれ、デジタル情報として保
持することができるため、合成段階で利用者が被写体の
位置を自由に移動する編集をすることが可能な背景画像
に対して、撮影した被写体の画像をクロマキー合成処理
によって、あたかもその背景に被写体が存在しているよ
うに自然な状態で合成する画像プリント装置が知られて
いる。しかしながら、実際に利用者が自分の画像を撮影
した後に自分で画像の大きさ、角度、位置などの移動、
加工の処理の指定をしなければならないために操作や手
順に精通していなければならず、さらに1度の撮影、合
成、印刷に対して非常に時間がかかり、効率がわるいと
いう問題があった。
In order to deal with such a problem, the background data and the photographed subject data can be respectively held as digital information, so that the user can freely edit the position of the subject in the synthesizing stage. 2. Description of the Related Art There is known an image printing apparatus that combines a captured image of a subject with a possible background image by a chroma key combining process in a natural state as if the subject is present in the background. However, after the user actually takes his own image, the user moves the image size, angle, position, etc.,
Since the processing must be specified, the user must be familiar with the operations and procedures. Further, it takes a very long time for one shooting, combining, and printing, and the efficiency is poor. .

【0005】本発明の目的は、画像プリント装置におい
て、被写体の画像が画面上のどの位置に合成するのか、
印刷前にプレビューとして被写体と背景データの位置関
係をみせて利用者が、望む最適な被写体の背景データの
位置を示し、背景に対して適切な画像の大きさに編集し
て画像合成を行うことにある。
[0005] An object of the present invention is to determine at which position on the screen an image of a subject is synthesized in an image printing apparatus.
Before printing, show the positional relationship between the subject and the background data as a preview, show the position of the optimal background data of the desired subject, and edit the image to an appropriate size for the background and perform image composition. It is in.

【0006】[0006]

【課題を解決するための手段】本発明の目的はユーザが
任意に選択した背景画像とユーザ自身を撮影した画像を
合成して印刷する画像合成装置において、被写体を撮影
する為のカメラと、あらかじめ用意された複数の背景画
像を記憶する背景画像記憶手段と、前記背景画像記憶手
段に記憶されている背景画像の中から任意の背景画像を
利用者が選択する際に操作される背景画像選択手段と、
前記カメラにより撮影された被写体画像を、前記背景画
像選択手段により選択された背景画像中の任意の位置・
大きさで合成する場合に、最適な合成位置へガイダンス
を表示する処理と、ユーザによる任意の移動編集処理の
いずれかを選択する編集処理選択手段を備えることによ
って達成できる。
SUMMARY OF THE INVENTION An object of the present invention is to provide an image synthesizing apparatus for synthesizing and printing a background image arbitrarily selected by a user and an image of the user himself, and a camera for photographing a subject, Background image storage means for storing a plurality of prepared background images, and background image selection means operated when a user selects an arbitrary background image from the background images stored in the background image storage means When,
A subject image photographed by the camera is placed at an arbitrary position in the background image selected by the background image selecting means.
When combining images by size, this can be achieved by providing a process for displaying guidance at an optimum combination position and an editing process selecting means for selecting any one of arbitrary moving editing processes by the user.

【0007】[0007]

【発明の実施の形態】以下、本発明を実施する場合の一
形態を図面を参照して具体的に説明する。図1は、本発
明の画像合成装置の一実施形態を示す機能構成図であ
り、図1に示すように、被写体1を撮影する為のカメラ
(ディジタルカメラ)2と、あらかじめ背景画像の領域
別に記憶した領域別明度・彩度記憶手段4と、前記背景
画像記憶手段3に記憶されている背景画像の中から任意
の背景画像を利用者が選択する際に操作される背景画像
選択手段5と、前記カメラ2により撮影された被写体画
像を、前記背景画像選択手段5により選択された背景画
像中の任意の位置、角度、大きさで合成する為に、利用
者が被写体画像合成位置、角度、大きさの指標のうち少
なくとも位置の指標を指定する被写体画像位置・角度・
大きさ指定手段6と、前記カメラ2で撮影された被写体
画像を、前記背景画像選択手段5で選択された背景画像
中に前記被写体画像位置・角度・大きさ指定手段(以
下、指定手段と略記)6により指示された位置、角度、
大きさで前記領域別明度・彩度記憶手段4に記憶された
明度、彩度のデータで補正して合成して出力手段7から
出力する画像処理制御手段8を備えている。背景画像記
憶手段3中の各組の背景画像は、各組の背景画像中に存
在する背景構成要素を奥行方向の位置に応じて分離した
複数の背景画像群で構成し、前記指定手段6では背景画
像の2次元平面上の位置だけでなく奥行方向の被写体画
像合成位置も選択可能になっている。更に、前記背景画
像群を更に複数の領域に分割し、その分割領域別に被写
体画像を配置した時に被写体画像が背景画像に違和感な
く馴染むような明度・彩度のデータを前記領域別明度・
彩度記憶手段4に予め記憶しておき、利用者に指定され
た被写体画像の配置位置により前記領域別明度・彩度記
憶手段4に記憶された明度・彩度のデータによって被写
体画像の明度と彩度を補正して背景画像に合成するよう
になっている。ここで、背景画像記憶手段3に記憶され
る背景画像と、領域別明度・彩度記憶手段4に記憶され
る明度・彩度のデータは、これらを1セットにして記憶
する記憶媒体で用意しておき、この記憶媒体から取得す
ることも可能であるし、背景画像と明度・彩度のデータ
とを本装置に付属する入力装置から直接入力することも
可能である。記録媒体を用いる構成にすることにより、
本装置の設置場所あるいは使用環境に応じた背景画像を
極めて容易に使用可能になると共に、更新も容易にな
る。なお、記録媒体に代えてインターネット等の通信回
線を使用してサーバコンピュータから取得する構成にす
ることもできる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a functional block diagram showing an embodiment of the image synthesizing apparatus according to the present invention. As shown in FIG. 1, a camera (digital camera) 2 for photographing a subject 1 and a background image A region-based brightness / saturation storage unit 4 stored; a background image selection unit 5 operated when a user selects an arbitrary background image from background images stored in the background image storage unit 3; In order to combine the subject image photographed by the camera 2 at an arbitrary position, angle, and size in the background image selected by the background image selecting means 5, the user may select the subject image combining position, angle, The subject image position, angle,
A size designating means 6 and a subject image photographed by the camera 2 are placed in the background image selected by the background image selecting means 5 by the subject image position / angle / size designating means (hereinafter abbreviated as designating means). ) Position, angle indicated by 6;
An image processing control unit 8 is provided which corrects and combines the brightness and saturation data stored in the brightness / saturation storage unit 4 according to size and outputs the corrected data from the output unit 7. The background image of each set in the background image storage means 3 is composed of a plurality of background image groups obtained by separating background components present in each set of background images in accordance with the position in the depth direction. It is possible to select not only the position of the background image on the two-dimensional plane but also the position of the subject image synthesis in the depth direction. Further, the background image group is further divided into a plurality of regions, and when the subject image is arranged for each of the divided regions, the brightness / saturation data such that the subject image fits into the background image without a sense of incongruity is obtained.
The brightness and saturation data stored in the saturation storage means 4 in advance and the brightness / saturation data stored in the area-specific brightness / saturation storage means 4 according to the arrangement position of the subject image designated by the user. The saturation is corrected and the background image is synthesized. Here, the background image stored in the background image storage unit 3 and the brightness / saturation data stored in the area-specific brightness / saturation storage unit 4 are prepared in a storage medium that stores these as one set. In addition, it is also possible to acquire from this storage medium, and it is also possible to directly input a background image and lightness / saturation data from an input device attached to the present apparatus. By using a recording medium,
The background image according to the installation place or use environment of the present apparatus can be used very easily, and updating can be easily performed. It should be noted that a configuration is possible in which the information is acquired from the server computer using a communication line such as the Internet instead of the recording medium.

【0008】図2は、画像合成装置の一実施形態を示す
側面図であり筐体21の内部は被写体22が複数人収容
可能な空間が用意されている。そして、被写体22の正
面側には、被写体22を撮影するカメラ23と、図1の
背景画像選択手段5に相当するタッチパネルを備えたモ
ニタ24と、出力手段7に相当するビデオプリンタ26
が配置されている。また、画像処理制御手段8、背景画
像記憶手段3、領域別明度・彩度記憶手段4を含む制御
装置25が配置されている。カメラ23は、例えばCC
Dカメラが使用され、その視野は、筐体内部に入室した
1人又は複数人の被写体22の頭部から足元までの全身
の画像を撮影可能に設定されている。
FIG. 2 is a side view showing an embodiment of the image synthesizing apparatus. A space for accommodating a plurality of subjects 22 is provided inside a housing 21. On the front side of the subject 22, a camera 23 for photographing the subject 22, a monitor 24 provided with a touch panel corresponding to the background image selecting means 5 in FIG.
Is arranged. Further, a control device 25 including an image processing control unit 8, a background image storage unit 3, and an area-specific brightness / saturation storage unit 4 is arranged. The camera 23 is, for example, CC
A D camera is used, and its field of view is set so that an image of the whole body from the head to the feet of one or more subjects 22 who have entered the inside of the housing can be taken.

【0009】図3は、図2の画像合成装置の機能部分の
構成を示すブロック図であり、制御装置25には、CP
U251、メモリ252、I/O制御部253、画像入
力部254、パターンメモリ255、画像処理部25
6、画像出力部257が設けられ、I/O制御部253
にはタッチパネル242が接続されている。また、画像
出力部257には、ビデオプリンタ26とモニタ(ディ
スプレイ)241が接続されている。タッチパネル24
2は、モニタ241(図2のモニタ24に相当)の画面
表面上に配置され、表示画面上の任意の位置に接触また
は押圧すると、その位置を示す位置信号を出力するもの
であり、この実施形態では、各種操作メニユーの選択、
背景画像の選択、被写体画像の合成位置、角度、大きさ
を指定するために使用される。また、カメラ23として
は、例えばCCDカメラが使用される。
FIG. 3 is a block diagram showing a configuration of a functional portion of the image synthesizing apparatus shown in FIG.
U251, memory 252, I / O control unit 253, image input unit 254, pattern memory 255, image processing unit 25
6, an image output unit 257 is provided, and an I / O control unit 253 is provided.
Is connected to a touch panel 242. The video output unit 257 is connected to a video printer 26 and a monitor (display) 241. Touch panel 24
Numeral 2 is arranged on the screen surface of the monitor 241 (corresponding to the monitor 24 in FIG. 2), and outputs a position signal indicating the position when touched or pressed at an arbitrary position on the display screen. In the form, selection of various operation menus,
It is used to select a background image and to specify the composition position, angle, and size of the subject image. As the camera 23, for example, a CCD camera is used.

【0010】画像入力部254は、カメラ23で撮影し
た画像データをA/D変換装置(図示しない)によりア
ナログ信号からデジタル信号に変換する。CPU251
は、カメラ23からの撮影画像から被写体画像の輪郭部
を抽出し、パターンメモリ255に格納してある背景画
像と合成し、ピデオプリンタ26ヘプリント出力処理を
行う。メモリ252には画像入力部254から取り込ん
だ被写体画像データが記憶されるほか、CPU251に
発する命令と本合成画像作成装置の制御手段となる命令
群がプログラムとして記憶されている。また、CPU2
51の処理データもワークメモリとして一時的に記憶す
る。
An image input unit 254 converts image data photographed by the camera 23 from an analog signal to a digital signal by an A / D converter (not shown). CPU 251
Extracts the contour of the subject image from the image captured by the camera 23, combines the contour with the background image stored in the pattern memory 255, and performs print output processing to the video printer 26. The memory 252 stores the subject image data fetched from the image input unit 254, and also stores, as a program, a command issued to the CPU 251 and a command group serving as control means of the composite image creating apparatus. Also, CPU2
The processing data of 51 is also temporarily stored as a work memory.

【0011】パターンメモリ255は、2種類のデータ
を分けて格納するようにあらかじめ格納領域を255A
と255Bとに分けてあり、被写体画像と重ね合わせる
背景画像データと、被写体の明度と彩度を補正する為の
領域別明度・彩度データ及びモニタ241に表示する操
作メニュー等のガイドデータが記憶されている。パター
ンメモリ255Aには被写体画像と重ね合わせる背景画
像データと、被写体の明度・彩度を補正する為の領域別
明度・彩度データ及びモニタ241に表示する操作メニ
ューのガイドが記憶されている。パターンメモリ255
Bにはユーザが撮影した画像を格納されている。前記背
景画像データ及び領域別明度・彩度データについては後
述する。
The pattern memory 255 has a storage area of 255A in advance so as to store two types of data separately.
And 255B, and stores background image data to be superimposed on the subject image, brightness / saturation data by region for correcting the brightness and saturation of the subject, and guide data such as an operation menu displayed on the monitor 241. Have been. The pattern memory 255A stores background image data to be superimposed on the subject image, brightness / saturation data for each region for correcting the brightness / saturation of the subject, and an operation menu guide displayed on the monitor 241. Pattern memory 255
B stores an image captured by the user. The background image data and the brightness / saturation data for each area will be described later.

【0012】画像処理部256は、CPU251の制御
により、画像入力部254から取り込んだ被写体画像デ
ータから、被写体画像の輪郭抽出処理を実行する。そし
て、利用者(被写体)がタッチパネル操作で選択した背景
画像中の指定位置に指定の角度および指定の大きさで重
ね合わせ合成する。画像出力部257は、画像処理部2
56が合成した画像をモニタ画面に表示すると共に、ピ
デオプリンタ26からプリント出力させる。
The image processing section 256 executes contour extraction processing of a subject image from subject image data taken from the image input section 254 under the control of the CPU 251. Then, the user (subject) superimposes and synthesizes the image at a specified position and a specified size in the background image selected by the touch panel operation. The image output unit 257 includes the image processing unit 2
The combined image is displayed on the monitor screen and printed out from the video printer 26.

【0013】図4及び図5、図6に前記パターンメモリ
255に記憶する背景画像データ及び領域別明度・彩度
データを示す。図4は、パターンメモリ255に記憶す
る1組の背景画像データの構成を示す図であり、図5及
び図6は1組の背景画像に対して記憶される領域別明度
・彩度データの構成を示す図であり、パターンメモリ2
55にはこのようにして構成された複数組の背景画像デ
ータと対応する領域別明度・彩度データが予め記憶され
ている。図4に示すような1枚の背景画像401があっ
た場合、本発明では、図4に示すように、1枚の背景画
像中の背景構成要素を、前方から奥行方向の距離に応じ
て人間が判断しながら複数枚の画像に分割(分離)する。
FIGS. 4, 5 and 6 show background image data and brightness / saturation data by area stored in the pattern memory 255. FIG. FIG. 4 is a diagram showing the configuration of one set of background image data stored in the pattern memory 255. FIGS. 5 and 6 show the configuration of area-specific brightness / saturation data stored for one set of background images. FIG.
55 stores in advance the plurality of sets of background image data and the brightness / saturation data for each area corresponding to the sets. In a case where there is one background image 401 as shown in FIG. 4, in the present invention, as shown in FIG. 4, a background component in one background image is changed according to the distance in the depth direction from the front. Is divided (separated) into a plurality of images while determining.

【0014】すなわち、図4の例では、1番手前側の背
景構成要素402と403を1枚目の分離背景画像41
1として分離し、さらにそのすぐ奥に位置する背景構成
要素404を2枚目の分離背景画像412として分離
し、以降、同様にして、背景構成要素405を3枚目の
分離背景画像413、背景構成要素406を4枚目の分
離背景画像414、背景構成要素407を5枚目の分離
背景画像415として分離する。この場合、分離数は任
意である。パターンメモリ255には、1枚の背景画像
401のデータを分離背景画像411〜415からなる
背景画像群として記憶させる。
That is, in the example of FIG. 4, the background components 402 and 403 on the first front side are divided into the first separated background image 41.
1, the background component 404 located immediately behind is separated as the second separated background image 412, and thereafter, the background component 405 is similarly separated into the third separated background image 413 and the background. The component 406 is separated as a fourth separated background image 414, and the background component 407 is separated as a fifth separated background image 415. In this case, the number of separation is arbitrary. The pattern memory 255 stores the data of one background image 401 as a background image group including the separated background images 411 to 415.

【0015】被写体画像410を背景画像に合成する際
には、被写体22である利用者のタッチパネル指示操作
により前記複数枚の分離背景画像中の連続した任意の2
枚の分離背景画像の間に被写体画像を挟み込むことによ
り、奥行方向の任意の位置に被写体画像を合成する。
When synthesizing the subject image 410 with the background image, any two consecutive two or more of the plurality of separated background images are operated by a user's touch panel instruction operation as the subject 22.
By sandwiching the subject image between the separated background images, the subject image is synthesized at an arbitrary position in the depth direction.

【0016】このように、背景画像の奥行き方向の任意
の位置に被写体画像を合成する場合、合成位置における
背景に馴染んだ自然な合成画像を作成する場合、合成位
置における背景に合うように被写体画像の明度と彩度を
補正する必要がある。領域別明度・彩度データはそのた
めに必要になるものであり、図5、図6に示すように、
図4で示した分離背景画像の各々を、更に複数の領域
(図6の例では9領域)に人間が分割する。以降、分割
された各々の領域を分割領域という。分割数は任意であ
り、分割する領域の大きさも均等でなくてもよい。
As described above, when synthesizing a subject image at an arbitrary position in the depth direction of the background image, when creating a natural synthesized image that is familiar with the background at the synthesis position, and when synthesizing the subject image so as to match the background at the synthesis position. It is necessary to correct the brightness and saturation of the image. The brightness / saturation data for each area is necessary for that purpose. As shown in FIGS. 5 and 6,
Each of the separated background images shown in FIG. 4 is further divided into a plurality of regions (9 regions in the example of FIG. 6) by a human. Hereinafter, each of the divided areas is referred to as a divided area. The number of divisions is arbitrary, and the sizes of the regions to be divided may not be uniform.

【0017】図6では、分離背景画像の各々を均等に9
つの矩形領域に分割した例を示す。分割領域毎に、分割
領域に被写体画像を置いた時に最適となる明度・彩度の
データを人間があらかじめ決めて、図6に示すように何
枚目の分離背景画像であるかを示す奥行方向の位置ごと
に各分割領域(a〜i)の明度601、彩度602とし
て記憶しておく。なお、記憶しておく各分割領域の明度
601、彩度602は以下のようにして決める。分離背
景画像のある分割領域にモデル画像を配置してモデル画
像の明度・彩度を人間が調整しながら背景画像と合成
し、モデル画像が背景画像になじむと判断したモデル画
像の明度・彩度を当該分割領域の明度・彩度とする。こ
れを全分離背景画像の全分割領域について行うことによ
り、全分離背景画像の全分割領域の明度601、彩度6
02を決める。あらかじめ用意した複数の背景画像すべ
てについて、当該背景画像の分離背景画像を分割領域に
分割し、前記のように分割領域ごとに明度・彩度を決定
してパターンメモリ255に記憶しておく。被写体画像
の配置位置が利用者により指定されたら、その配置位置
における前記明度601、彩度602のデータを参照
し、被写体画像の明度と彩度として適用する。
In FIG. 6, each of the separated background images is equally divided into nine.
An example in which the image is divided into two rectangular areas is shown. For each of the divided areas, a human determines in advance lightness / saturation data that is optimal when the subject image is placed in the divided area, and indicates the number of separated background images as shown in FIG. Are stored as the lightness 601 and the saturation 602 of each divided area (a to i) for each position. The brightness 601 and the saturation 602 of each divided area to be stored are determined as follows. A model image is placed in a divided area of the separated background image, and the brightness and saturation of the model image are synthesized by the human while adjusting the brightness and saturation of the model image. Is the brightness / saturation of the divided area. By performing this for all the divided areas of the all-isolated background image, the brightness 601 and the saturation 6
Decide 02. For all of the plurality of background images prepared in advance, the separated background image of the background image is divided into divided regions, and the brightness and saturation are determined for each divided region and stored in the pattern memory 255 as described above. When the position of the subject image is designated by the user, the data of the brightness 601 and the saturation 602 at the placement position are referred to and applied as the brightness and the saturation of the subject image.

【0018】図7はユーザ画像の位置の編集処理を示す
フローチャートである。まず、被写体(利用者)22
は、モニタ兼タッチパネル24に表示された複数の背景
画の中から希望する背景画を選択する(ステップ70
1)。次に、カメラ23により被写体22をビデオ撮影
する(ステップ702)。合成を行う前に、ユーザに対
して、背景に対する撮影した画像の配置位置の編集を、
自動的に最適な位置および大きさに自動編集させるか、
もしくは自分で編集するかどうかを選択させる(ステッ
プ703)。自動編集を選択した場合に、図8で示され
るように選択した背景に対して、合成される予定の位置
に撮影した画像大きさの矩形が表示される(ステップ7
04)。ここで示された合成位置でも良い場合はそのま
ま合成を行い、印刷を行う。もしも、表示された位置が
気に入らない場合はステップ703の自分で編集すると
ころに戻り、タッチパネルを利用して、画像を任意の位
置へ移動させ、合成を行う(処理は図11へ)。
FIG. 7 is a flowchart showing the editing process of the position of the user image. First, the subject (user) 22
Selects a desired background image from a plurality of background images displayed on the monitor / touch panel 24 (step 70).
1). Next, video shooting of the subject 22 is performed by the camera 23 (step 702). Before combining, the user is required to edit the position of the shot image with respect to the background,
Automatically edit to the optimal position and size automatically,
Alternatively, the user is allowed to select whether or not to edit (step 703). When the automatic editing is selected, a rectangle having the size of the captured image is displayed at the position to be combined with the background selected as shown in FIG. 8 (step 7).
04). If the combining position shown here is acceptable, the combining is performed as it is and printing is performed. If the user does not like the displayed position, the process returns to step 703 where the user himself edits the image. The image is moved to an arbitrary position using the touch panel and the image is synthesized (the process proceeds to FIG. 11).

【0019】図9はステップ704の最適な画像位置へ
ガイダンス矩形を表示する自動処理の流れの詳細を示す
フローチャートである。ステップ703で自動処理が選
択されると、図4,5,6のデータを元にしてユーザが
選択した背景画像がいくつの要素(何枚の要素)から構
成されているかを抽出する(ステップ901)。その要
素の中で大きい要素(建物や木など)を少なくと2つ以
上を抽出する(ステップ902)。抽出された複数の要
素間の奥行きのデータと、それぞれの要素の大きさを算
出する(ステップ903)。合成しようとするユーザの
画像が全身、半身、複数のいずれであるかをパターンメ
モリ255を参照して確認する(ステップ904)。全
身画像、複数写っている場合にはステップ903で算出
された要素と、ユーザ画像の大きさを比較する。まず、
比較対象となる構成要素が全体の背景画像の半分以上前
にあるかないかを判断する(ステップ905)。対象と
なる背景画像要素が全体の背景画像の枚数の半分より前
にある場合(奥行きが浅い)はさらに背景画像の構成要
素とユーザの大きさを比較し、比較の結果、ユーザの大
きさが算出された背景要素の単位比率の1/2以下であ
る場合は(ステップ906)、その比較を行った背景要
素が写っている画像のスペースの部分を検索し、その場
所に矩形を表示する(ステップ907)。ユーザの大き
さが1/2以上であるときは、別の背景要素(奥行きの
深い要素)位置に移動し、さらに縮小させて表示する
(ステップ908)。
FIG. 9 is a flowchart showing details of the flow of the automatic processing for displaying the guidance rectangle at the optimum image position in step 704. When the automatic processing is selected in step 703, the number of elements (how many elements) the background image selected by the user is extracted based on the data of FIGS. ). At least two or more large elements (such as buildings and trees) are extracted from the elements (step 902). The depth data between the plurality of extracted elements and the size of each element are calculated (step 903). It is checked whether the image of the user to be synthesized is a whole body, a half body, or a plurality of images by referring to the pattern memory 255 (step 904). If a plurality of whole-body images are shown, the size of the user image is compared with the element calculated in step 903. First,
It is determined whether or not the component to be compared is at least half before the entire background image (step 905). If the target background image element is located before half of the total number of background images (shallow depth), the components of the background image are further compared with the size of the user, and as a result of the comparison, the size of the user is reduced. If the calculated unit ratio of the background element is equal to or smaller than 1/2 (step 906), a search is made for a space portion of the image in which the compared background element is shown, and a rectangle is displayed at that location (step 906). Step 907). If the size of the user is 1 / or more, the user moves to another background element (element having a large depth) and further reduces and displays the image (step 908).

【0020】ステップ904でユーザの画像が半身であ
る場合は構成要素が全体の背景画像の半分以上、後ろで
(奥行きが深い)あるかどうかを判断して(ステップ9
09)、さらに背景画像の要素が重なり合う部分を検出
し、そこに表示する(ステップ910)。ステップ90
9で対象となる背景画像要素が半分以上前にある場合
(奥行きが浅い)はユーザによる任意位置への移動編集
処理に移る(ステップ911)。
If it is determined in step 904 that the image of the user is half body, it is determined whether or not the component is more than half of the whole background image and is behind (deep) (step 9).
09) Further, a portion where the elements of the background image overlap is detected and displayed there (step 910). Step 90
In step 9, if the target background image element is more than half forward (shallow depth), the process moves to the user's moving and editing process to an arbitrary position (step 911).

【0021】図10は画像合成と画像位置の編集を示す
フローチャートである。図2を参照して説明する。図7
のステップ701で選択された背景画像とステップ70
2で撮影された被写体のモニタ画像を重ねてモニタ兼タ
ッチパネル24に画面表示する。次に、被写体(利用
者)22はポーズを決め、被写体(利用者)22が直接
指定したシャッタータイミングまたは装置が決定したシ
ャッタータイミングでカメラ23により被写体22の撮
影を行う(ステップ1001)。撮影した画像から被写
体22の輪郭を抽出し(ステップ1002)、抽出した
被写体画像をステップ1001の被写体(利用者)22
の指示に応じて補正する(ステップ1003)。補正し
た被写体画像と背景画像を合成し(ステップ100
4)、ビデオプリンタ26で印刷し出力する(ステップ
1005)。
FIG. 10 is a flowchart showing image composition and image position editing. This will be described with reference to FIG. FIG.
The background image selected in step 701 and step 70
The monitor image of the subject captured in step 2 is superimposed and displayed on the monitor / touch panel 24 on the screen. Next, the subject (user) 22 determines a pose, and shoots the subject 22 with the camera 23 at the shutter timing directly specified by the subject (user) 22 or the shutter timing determined by the apparatus (step 1001). The contour of the subject 22 is extracted from the photographed image (step 1002), and the extracted subject image is used as the subject (user) 22 in step 1001.
(Step 1003). The corrected subject image and the background image are combined (step 100).
4) Print and output by the video printer 26 (step 1005).

【0022】図11は背景画像における平面上の位置指
定から被写体画像の奥行方向の挿入・位置指定までの操
作の流れ及びモニタ兼タッチパネル24の表示内容を示
したものである。以下、図9のステップ順序に従って図
11および図12を用いて位置、角度、大きさの指示方
法の詳細を説明する。ここでは、モニタ兼タッチパネル
24には選択した背景画像と、カメラ23で撮影した被
写体モニタ画像を被写体(利用者)22の指定に従い、
移動、回転、拡大(または縮小)して合成して表示する
例を説明する。
FIG. 11 shows the flow of operations from the position designation on the plane in the background image to the insertion / position designation in the depth direction of the subject image, and the display contents of the monitor and touch panel 24. Hereinafter, the details of the method of designating the position, angle, and size will be described with reference to FIGS. 11 and 12 in accordance with the step sequence of FIG. Here, the selected background image and the subject monitor image captured by the camera 23 are displayed on the monitor / touch panel 24 according to the designation of the subject (user) 22.
An example of moving, rotating, enlarging (or reducing), combining and displaying will be described.

【0023】始めに、制御装置25は、被写体(利用
者)22が選択した背景画像上の最前面にカメラ23で
撮影した被写体モニタ画像をあらかじめ定めた矩形領域
で表示する(ステップ1101)。次に、制御装置25
は、モニタ兼タッチパネル24のモニタ画面上に、被写
体画像の2次元平面上の位置を指定するようガイダンス
を表示し、被写体(利用者)22が被写体画像の位置を
移動するように促す(ステップ1102)。そこで、被
写体(利用者)22はタッチパネル操作により被写体モ
ニタ画像を指で触れながら画面上で移動させ、2次元平
面上の位置を指定する(ステップ1103)。すなわ
ち、破線で示す被写体モニタ画像11031を画面上で
矢印方向に移動させ、好みの合成位置で停止させる。1
1032は好みの合成位置で停止された被写体モニタ画
像である。次に2次元平面上の位置を指定し終わったな
らば、被写体(利用者)22はモニタ兼タッチパネル2
4上に表示された「位置決定ボタン」を押す(ステップ
1104)。
First, the control device 25 displays a subject monitor image captured by the camera 23 in the foreground on the background image selected by the subject (user) 22 in a predetermined rectangular area (step 1101). Next, the control device 25
Displays guidance on the monitor screen of the monitor / touch panel 24 to specify the position of the subject image on the two-dimensional plane, and prompts the subject (user) 22 to move the position of the subject image (step 1102). ). Thus, the subject (user) 22 moves on the screen by touching the subject monitor image with a finger by operating the touch panel, and specifies a position on a two-dimensional plane (step 1103). That is, the subject monitor image 11031 indicated by the broken line is moved in the direction of the arrow on the screen and stopped at the desired combination position. 1
Reference numeral 1032 denotes a subject monitor image stopped at a desired combination position. Next, when the position on the two-dimensional plane has been specified, the subject (user) 22
Then, the user presses the "position determination button" displayed above (step 1104).

【0024】次に、制御装置25は、被写体モニタ画像
の回転角度を指定するようガイダンスを表示する(ステ
ップ1105)。被写体(利用者)22はモニタ兼タッ
チパネル24で被写体モニタ画像11032に触れなが
ら指を回転させることにより、あらかじめ定めた被写体
モニタ画像の中心点等の支点を中心に指の移動量に合わ
せて被写体モニタ画像11032を回転させることによ
り、被写体モニタ画像11032の回転角度を指定する
(ステップ1106)。制御装置25は、被写体(利用
者)22からの指定に応じて被写体モニタ画像1103
2を回転させる。11033は、回転角度が指定された
被写体モニタ画像である。被写体画像の回転角度を指定
し終わったならば、被写体(利用者)22はモニタ兼タ
ッチパネル24上に表示された「角度決定ボタン」を押
す(ステップ1107)。
Next, the control device 25 displays guidance for designating the rotation angle of the subject monitor image (step 1105). The subject (user) 22 rotates his / her finger while touching the subject monitor image 11032 on the monitor / touch panel 24 so that the subject can be monitored in accordance with the amount of movement of the finger around a predetermined fulcrum such as the center point of the subject monitor image. By rotating the image 11032, the rotation angle of the subject monitor image 11032 is specified (step 1106). The control device 25 controls the subject monitor image 1103 according to the designation from the subject (user) 22.
Rotate 2. 11033 is a subject monitor image in which the rotation angle is specified. When the rotation angle of the subject image has been specified, the subject (user) 22 presses an “angle determination button” displayed on the monitor / touch panel 24 (step 1107).

【0025】次に、制御装置25は、被写体画像の大き
さを指定するようガイダンスを表示する(ステップ11
08)。被写体(利用者)22は、被写体モニタ画像1
1033に触れ、矩形領域として表示されている被写体
モニタ画像領域の中心線から遠ざかる方向または近づく
方向に指を移動する。指が中心線から遠ざかる方向に移
動することで拡大、指が中心線に近づく方向に移動する
ことで縮小と判断する。被写体(利用者)22は指を移
動させることにより、被写体モニタ画像の大きさを指定
する(ステップ1109)。制御装置25は、被写体
(利用者)22からの指定に従って被写体モニタ画像1
1033の大きさを変化させる。11034は、拡大さ
れたモニタ画像を表している。被写体画像の大きさを指
定し終わったならば、被写体(利用者)22はモニタ兼
タッチパネル24上に表示された「大きさ決定ボタン」
を押す(ステップ1110)。
Next, the control device 25 displays guidance to specify the size of the subject image (step 11).
08). The subject (user) 22 is the subject monitor image 1
The user touches 1033 and moves the finger in a direction away from or near the center line of the subject monitor image area displayed as a rectangular area. When the finger moves away from the center line, it is determined that the image is enlarged, and when the finger moves toward the center line, it is determined that the image is reduced. The subject (user) 22 specifies the size of the subject monitor image by moving the finger (step 1109). The control device 25 controls the subject monitor image 1 according to the designation from the subject (user) 22.
The size of 1033 is changed. 11034 represents an enlarged monitor image. After specifying the size of the subject image, the subject (user) 22 displays the “size determination button” displayed on the monitor / touch panel 24.
Is pressed (step 1110).

【0026】次に、制御装置25は、被写体モニタ画像
の奥行方向の挿入位置を指定するようガイダンスを表示
する(ステップ1111)。被写体(利用者)22はモ
ニタ兼タッチパネル24上で奥行方向の挿入位置を指定
する(ステップ1112)。制御装置25は、被写体
(利用者)22からの指定に従つて被写体モニタ画像1
1034の奥行方向の挿入位置を変化させる。詳細は図
13を用いて後述する。11035は奥行方向の挿入位
置が決定された被写体モニタ画像である。奥行き方向の
挿入位置を指定し終わったならば、モニタ兼タッチパネ
ル24上に表示された「奥行挿入位置決定ボタン」を押
す(ステップ1113)。
Next, the control device 25 displays guidance for designating the insertion position of the subject monitor image in the depth direction (step 1111). The subject (user) 22 specifies an insertion position in the depth direction on the monitor / touch panel 24 (step 1112). The control device 25 controls the subject monitor image 1 according to the designation from the subject (user) 22.
The insertion position of the 1034 in the depth direction is changed. Details will be described later with reference to FIG. 11035 is a subject monitor image in which the insertion position in the depth direction has been determined. When the insertion position in the depth direction has been specified, the user presses a “depth insertion position determination button” displayed on the monitor / touch panel 24 (step 1113).

【0027】図13は奥行方向の被写体画像挿入位置の
指定方法とモニタ兼タッチパネル24の表示を示したも
のである。まず、被写体(利用者)22が選択した背景
画像上の最前面である1枚目分離背景画像411の前面
に、被写体(利用者)22がステップ1003からステ
ップ1110で指定した平面上の位置、角度、大きさに
変形した被写体モニタ画像11034を表示する。モニ
タ上には前記被写体モニタ画像10034と合わせて奥
行方向の挿入位置を指定する為のボタンを表示する。後
方向(奥に向かう方向)を示すボタン1301を被写体
(利用者)22が押すと、あらかじめ奥行方向の要素別
に分離してある分離背景画像411〜415の1枚後方
へ被写体モニタ画像11034を移動する。後方向ボタ
ン1301を押す前に被写体モニタ画像11034がn
枚目分離背景画像の前面にあった場合、後方向ボタン1
301を押すことにより、被写体画像はn枚目分離背景
画像とn+1枚目分離背景画像との間に位置することに
なる。すなわち、n枚目分離背景画像の前面にあった被
写体画像が、n+1枚目分離背景画像の前面に存在する
ことになる。
FIG. 13 shows a method of designating the position of inserting the subject image in the depth direction and the display on the monitor / touch panel 24. First, the position of the subject (user) 22 on the plane designated in steps 1003 to 1110 is placed in front of the first separated background image 411 which is the foreground on the background image selected by the subject (user) 22. A subject monitor image 11034 deformed to an angle and size is displayed. A button for designating the insertion position in the depth direction is displayed on the monitor together with the subject monitor image 10034. When the subject (user) 22 presses a button 1301 indicating a backward direction (a direction toward the back), the subject monitor image 11034 is moved to the back of one of the separated background images 411 to 415 previously separated for each element in the depth direction. I do. Before the backward direction button 1301 is pressed, the subject monitor image
Back button 1 if it is on the front of the sheet separated background image
By pressing 301, the subject image is positioned between the n-th separated background image and the (n + 1) -th separated background image. That is, the subject image in front of the n-th separated background image exists in front of the (n + 1) -th separated background image.

【0028】この状態で、制御装置25は、全分離背景
画像と被写体画像とを合成、すなわち挟み込み合成して
モニタ画面に表示する。更に、後方向ボタン1301が
押されれば、更に1枚後方へ被写体モニタ画像1103
4を移動して合成してモニタ表示し、前方向ボタン13
02が押されれば、1枚手前方向へ被写体モニタ画像1
1034を移動して合成し、モニタ表示する。このよう
にして、被写体モニタ画像の挿入位置を順次ずらして合
成してモニタ表示することにより、被写体(利用者)2
2は分離背景画像411〜415に対して被写体モニタ
画像11034の挿入位置を選択できる。更に、背景画
像上の奥行を含む位置に応じてあらかじめ明度・彩度を
決めておき、上記画像合成時に被写体画像の配置位置に
応じて被写体画像の明度・彩度を補正して合成すること
により、被写体画像を背景画像に馴染ませて合成するこ
とができる。
In this state, the control device 25 combines the entire separated background image and the subject image, that is, inserts and combines them, and displays them on the monitor screen. Further, when the rear direction button 1301 is pressed, the subject monitor image 1103 is further moved backward by one image.
4 is moved and synthesized and displayed on the monitor.
When 02 is pressed, the subject monitor image 1 is moved forward by one image.
1034 is moved and synthesized, and displayed on a monitor. In this way, the subject monitor image is synthesized by shifting the insertion position of the subject monitor image sequentially and displayed on the monitor, so that the subject (user) 2
2 can select the insertion position of the subject monitor image 11034 with respect to the separated background images 411 to 415. Furthermore, the brightness and saturation are determined in advance according to the position including the depth on the background image, and the brightness and saturation of the subject image are corrected and combined according to the arrangement position of the subject image at the time of the above-described image combining, thereby combining the images. In addition, the subject image can be blended with the background image.

【0029】図14は、被写体画像の補正手順を示すも
のである。まず、被写体(利用者)22が指定した被写
体画像の背景画像平面上の位置、回転角度、拡大/
縮小倍率、奥行方向挿入位置の4つの情報を取り出
す(ステップ1401)。次に、被写体画像を上記,
,の情報をもとに変形、移動する(ステップ140
2)。次に、変形、移動した被写体画像が、何枚目の分
離背景画像にあり、該分離背景画像の領域中のどの分割
領域を占めるかを取り出す。ここで被写体画像が複数の
分割領域にまたがる場合は、最も大きな面積を占める分
割領域を採用する(ステップ1403)。次に、前記
の奥行方向挿入位置及び取出した被写体画像が占める分
割領域に対応する分割領域別明度・彩度データを図3の
パターンメモリ255から取り出し、取り出した分割領
域別明度・彩度データを被写体画像の明度・彩度として
被写体画像を補正する(ステップ1404)。例えば、
n−1枚目分離背景画像とn枚目分離背景画像との間に
被写体画像があって、n枚目分離背景画像における被写
体画像が占める分割領域がiである場合は、分割領域別
明度・彩度データ中の「奥行方向挿入位置」がn枚目の
分割領域iの明度・彩度データによって被写体画像の明
度・彩度が補正される。以上により、面白味があり、な
おかつ背景画に溶け込んだ自然な合成画像を作成するこ
とができる。
FIG. 14 shows a procedure for correcting a subject image. First, the position of the subject image designated by the subject (user) 22 on the background image plane, the rotation angle, the enlargement /
Four pieces of information of the reduction magnification and the insertion position in the depth direction are extracted (step 1401). Next, the subject image is
, And move based on the information of (step 140)
2). Next, the number of the separated background image in which the deformed or moved subject image is located and which divided region in the region of the separated background image occupies is extracted. Here, when the subject image extends over a plurality of divided regions, the divided region occupying the largest area is adopted (step 1403). Next, the brightness / saturation data for each divided region corresponding to the above-described insertion position in the depth direction and the divided region occupied by the taken out subject image is extracted from the pattern memory 255 in FIG. 3, and the extracted brightness / saturation data for each divided region is extracted. The subject image is corrected as the brightness / saturation of the subject image (step 1404). For example,
If there is a subject image between the (n-1) -th separated background image and the n-th separated background image and the divided area occupied by the subject image in the n-th separated background image is i, The brightness / saturation of the subject image is corrected by the brightness / saturation data of the n-th divided area i in the “depth direction insertion position” in the saturation data. As described above, it is possible to create a natural composite image that is interesting and blends with the background image.

【0030】[0030]

【発明の効果】本発明によれば、撮影した画像を背景に
対して、合成する際に背景のどの位置に撮影した画像が
貼り付けられるのかが予め分かるため、合成結果を予測
することができ、さらに合成前に自分で任意の位置に画
像位置を移動することができるため、撮影者の意図にあ
った合成結果を合成前に予測することができる。
According to the present invention, it is possible to predict in advance where the photographed image is to be pasted on the background at the time of combining the photographed image with the background. Further, since the image position can be moved to an arbitrary position by himself before the combination, the combination result intended for the photographer can be predicted before the combination.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像合成装置の一実施の形態を示す機
能構成図である。
FIG. 1 is a functional configuration diagram showing an embodiment of an image synthesizing apparatus according to the present invention.

【図2】本発明の画像合成装置の一実施の形態を示す側
面図である。
FIG. 2 is a side view showing an embodiment of the image synthesizing apparatus of the present invention.

【図3】図2の画像合成装置の機能部分の一実施の形態
を示すブロック構成図である。
FIG. 3 is a block diagram showing an embodiment of a functional part of the image synthesizing apparatus of FIG. 2;

【図4】背景画像の構成と記憶方法を示す説明図であ
る。
FIG. 4 is an explanatory diagram showing a configuration and a storage method of a background image.

【図5】明度、彩度補正用のデータの構成と記憶方法を
示す説明図である。
FIG. 5 is an explanatory diagram showing a configuration and a storage method of data for brightness and saturation correction.

【図6】図5の続きを示す説明図である。FIG. 6 is an explanatory view showing a continuation of FIG. 5;

【図7】ユーザ画像の位置の編集処理を示すフローチャ
ートである。
FIG. 7 is a flowchart illustrating editing processing of a position of a user image.

【図8】ユーザ画像の編集状態を示す図である。FIG. 8 is a diagram showing an editing state of a user image.

【図9】ステップ704の最適な画像位置へガイダンス
矩形を表示する自動処理の流れの詳細を示すフローチャ
ートである。
FIG. 9 is a flowchart illustrating details of an automatic processing flow for displaying a guidance rectangle at an optimal image position in step 704.

【図10】画像合成処理手順を示すフローチャートであ
る。
FIG. 10 is a flowchart illustrating an image synthesis processing procedure.

【図11】被写体画像の位置、角度、大きさの指定手順
とモニタ画面の表示例を示す説明図である。
FIG. 11 is an explanatory diagram showing a procedure for specifying a position, an angle, and a size of a subject image and a display example of a monitor screen.

【図12】図11の続きを示す説明図である。FIG. 12 is an explanatory view showing a continuation of FIG. 11;

【図13】被写体画像の奥行方向挿入位置の指定手順と
モニタ画像の表示例を示すフローチャートである。
FIG. 13 is a flowchart illustrating a designation procedure of a depth direction insertion position of a subject image and a display example of a monitor image.

【図14】被写体画像の補正手順を示すフローチャート
である。
FIG. 14 is a flowchart illustrating a procedure for correcting a subject image.

【符号の説明】[Explanation of symbols]

22…被写体、23…カメラ、24…モニタ兼タッチパ
ネル、25…制御装置、26…ビデオプリンタ、251
…CPU、252…メモリ、253…I/O制御部、2
54…画像入力部、255…パターンメモリ、256…
画像処理部、257…画像出力部、242…タッチパネ
ル。
Reference numeral 22: subject, 23: camera, 24: monitor and touch panel, 25: control device, 26: video printer, 251
... CPU, 252 ... memory, 253 ... I / O control unit, 2
54 ... image input unit, 255 ... pattern memory, 256 ...
Image processing unit, 257: Image output unit, 242: Touch panel.

フロントページの続き Fターム(参考) 5B050 BA11 BA12 CA07 EA12 EA19 FA02 FA03 FA05 FA08 FA13 5C022 AA13 AB68 AC01 AC13 AC69 5C023 AA02 AA03 AA04 AA16 AA31 AA37 AA38 BA11 CA03 DA04 DA08 5C054 AA01 EA01 EA07 FC12 FD03 FD07 FE06 FE14 GB02 HA15 5C076 AA12 AA19 AA21 AA22 AA24 BA03 BA04 Continued on front page F-term (reference) 5B050 BA11 BA12 CA07 EA12 EA19 FA02 FA03 FA05 FA08 FA13 5C022 AA13 AB68 AC01 AC13 AC69 5C023 AA02 AA03 AA04 AA16 AA31 AA37 AA38 BA11 CA03 DA04 DA08 5C054 AA01 EA01 EA07 FC12 AA12 AA19 AA21 AA22 AA24 BA03 BA04

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ユーザが任意に選択した背景画像とユー
ザ自身を撮影した画像を合成して印刷する画像合成装置
において、 被写体を撮影する為のカメラと、 あらかじめ用意された複数の背景画像を記憶する背景画
像記憶手段と、 前記背景画像記憶手段に記憶されている背景画像の中か
ら任意の背景画像を利用者が選択する際に操作される背
景画像選択手段と、 前記カメラにより撮影された被写体画像を、前記背景画
像選択手段により選択された背景画像中の任意の位置・
大きさで合成する場合に、最適な合成位置へガイダンス
を表示する処理と、ユーザによる任意の移動編集処理の
いずれかを選択する編集処理選択手段とを備えたことを
特徴とする画像合成装置。
An image synthesizing apparatus for synthesizing and printing a background image arbitrarily selected by a user and an image of the user himself, and stores a camera for photographing a subject and a plurality of background images prepared in advance. Background image storage means, a background image selection means operated when a user selects an arbitrary background image from background images stored in the background image storage means, and a subject photographed by the camera The image is placed at an arbitrary position in the background image selected by the background image selecting means.
An image synthesizing apparatus comprising: a process of displaying guidance at an optimum synthesis position when an image is synthesized in a size; and an editing process selection unit that selects any one of arbitrary moving editing processes by a user.
JP11090434A 1999-03-31 1999-03-31 Image synthesizing device Pending JP2000287127A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11090434A JP2000287127A (en) 1999-03-31 1999-03-31 Image synthesizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11090434A JP2000287127A (en) 1999-03-31 1999-03-31 Image synthesizing device

Publications (1)

Publication Number Publication Date
JP2000287127A true JP2000287127A (en) 2000-10-13

Family

ID=13998513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11090434A Pending JP2000287127A (en) 1999-03-31 1999-03-31 Image synthesizing device

Country Status (1)

Country Link
JP (1) JP2000287127A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004006566A1 (en) * 2002-07-08 2004-01-15 Casio Computer Co., Ltd. Camera apparatus, photographing method and a storage medium that records method of photographing
KR20040029587A (en) * 2002-10-01 2004-04-08 한홍엽 Method of imaging making for personal digital assistant
KR100458886B1 (en) * 2001-05-23 2004-12-03 고나미 가부시끼가이샤 Image processing device, image processing method, program and automatic picture taking machine
JP2006094030A (en) * 2004-09-22 2006-04-06 Casio Comput Co Ltd Image pickup device, and composite image creating method, and program
JP2008126014A (en) * 2006-11-27 2008-06-05 Samii Kk Game machine and program for the same
JP2008271260A (en) * 2007-04-20 2008-11-06 Make Softwear:Kk Image display method, image display device, image output device and computer program
JP2012205114A (en) * 2011-03-25 2012-10-22 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2021048450A (en) * 2019-09-17 2021-03-25 大日本印刷株式会社 Imaging apparatus and imaging system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100458886B1 (en) * 2001-05-23 2004-12-03 고나미 가부시끼가이샤 Image processing device, image processing method, program and automatic picture taking machine
WO2004006566A1 (en) * 2002-07-08 2004-01-15 Casio Computer Co., Ltd. Camera apparatus, photographing method and a storage medium that records method of photographing
US7321391B2 (en) 2002-07-08 2008-01-22 Casio Computer Co., Ltd. Camera apparatus, photographing method and a storage medium that records method of photographing
KR20040029587A (en) * 2002-10-01 2004-04-08 한홍엽 Method of imaging making for personal digital assistant
JP2006094030A (en) * 2004-09-22 2006-04-06 Casio Comput Co Ltd Image pickup device, and composite image creating method, and program
JP2008126014A (en) * 2006-11-27 2008-06-05 Samii Kk Game machine and program for the same
JP2008271260A (en) * 2007-04-20 2008-11-06 Make Softwear:Kk Image display method, image display device, image output device and computer program
JP2012205114A (en) * 2011-03-25 2012-10-22 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2021048450A (en) * 2019-09-17 2021-03-25 大日本印刷株式会社 Imaging apparatus and imaging system
JP7276031B2 (en) 2019-09-17 2023-05-18 大日本印刷株式会社 Imaging device and imaging system

Similar Documents

Publication Publication Date Title
US6621938B1 (en) Image capture apparatus and method
EP1156453B1 (en) Image processing apparatus, image processing method, storage medium, and program
JP2005223905A (en) Digital camera and method for making still panorama photograph and combined photograph
JP2000090232A (en) Panoramic image synthesizing device and record medium storing panoramic image synthesizing program
KR20090009108A (en) Method of assembling a panoramic image, method of providing a virtual 3d projection of a panoramic image and camera therefor
JP2004328265A (en) Display method and display device
JP2004228994A (en) Image editor, image trimming method, and program
JP2004199248A (en) Image layouting device, method and program
US8311393B2 (en) Image editing apparatus and method
CN114598819A (en) Video recording method and device and electronic equipment
JPH11331693A (en) Method for processing picture and its device
JP4340836B2 (en) Image composition apparatus and image composition program
JP2000287127A (en) Image synthesizing device
JP2004040559A (en) Method and program for processing image and image processor
US6941029B1 (en) Image processing apparatus, image processing method, and storage medium therefor with stitched image correctional feature
JP3591575B2 (en) Image synthesizing apparatus and image synthesizing method
JP3812563B2 (en) Image processing apparatus and program
JP2005252739A (en) Static image generating device and method thereof
JP2007166383A (en) Digital camera, image composing method, and program
JP3062859U (en) Image synthesis device
JP2004234500A (en) Image layout device, image layout method, program in image layout device and image editing device
JP2006086732A (en) Image processor and image processing method
JP4864282B2 (en) Image projection device
JP4631261B2 (en) Captured image projection apparatus, image processing method thereof, and program
JP2008187256A (en) Motion image creating device, method and program