JP5030257B2 - Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program - Google Patents

Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program Download PDF

Info

Publication number
JP5030257B2
JP5030257B2 JP2006117134A JP2006117134A JP5030257B2 JP 5030257 B2 JP5030257 B2 JP 5030257B2 JP 2006117134 A JP2006117134 A JP 2006117134A JP 2006117134 A JP2006117134 A JP 2006117134A JP 5030257 B2 JP5030257 B2 JP 5030257B2
Authority
JP
Japan
Prior art keywords
image
editing
user
displayed
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006117134A
Other languages
Japanese (ja)
Other versions
JP2007295032A (en
Inventor
千晃 那須
陽代 砂田
Original Assignee
株式会社メイクソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メイクソフトウェア filed Critical 株式会社メイクソフトウェア
Priority to JP2006117134A priority Critical patent/JP5030257B2/en
Publication of JP2007295032A publication Critical patent/JP2007295032A/en
Application granted granted Critical
Publication of JP5030257B2 publication Critical patent/JP5030257B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、写真シール作成装置、写真シール作成装置の制御方法、ならびに写真シール作成装置の制御プログラムに関する。   The present invention relates to a photo sticker creating apparatus, a control method for the photo sticker creating apparatus, and a control program for the photo sticker creating apparatus.

アミューズメント施設等に設置され、設けられた撮影ブース内において被写体(ユーザ)を自動的に撮影し、この撮影画像と、付属のタッチペンによりユーザから入力される文字や図形、あらかじめ記憶されているスタンプ画像、フレーム画像、背景画像などの編集画像とを合成して印刷用画像を作成し、この印刷用画像をシールシート等の印刷媒体に印刷して提供する写真シール作成装置があることは広く知られている。   A subject (user) is automatically photographed in a photographing booth installed at an amusement facility or the like, and this photographed image, characters and figures input from the user with an attached touch pen, and a stamp image stored in advance It is widely known that there is a photo sticker creating apparatus that creates a print image by combining an edited image such as a frame image and a background image, and prints the print image on a print medium such as a seal sheet. ing.

このような写真シール作成装置においては、被写体の撮影を行うための撮影ブースと、撮影した画像に対して編集を行うための編集ブースとが互いに異なる位置に設けられ、異なるユーザが撮影行為と編集行為とを同時に行えるようにした、いわゆる多重接客方式を採用しているものがある。   In such a photo sticker creation apparatus, a shooting booth for shooting a subject and an editing booth for editing a shot image are provided at different positions so that different users can perform shooting action and editing. Some employ a so-called multiple customer service system that allows simultaneous actions.

ところで、近年の写真シール作成装置の利用者層は、比較的に若いユーザが多くを占めており、このようなユーザからは、作成できる写真の綺麗さに加えて、撮影画像に対して楽しく編集(落書き)できる装置や、より個性的な写真を作成することができる装置が好まれる傾向にある。   By the way, the number of users of photo sticker creation devices in recent years is relatively young, and in addition to the beauty of photos that can be created, such users can enjoy editing edited images. There is a tendency to prefer a device capable of (doodle) and a device capable of creating a more unique photograph.

このような中、撮影画像の編集時においてユーザが編集画像としてどのような画像を選択するのかによって、各ユーザの個性の表現方法が変わり、しかも写真の仕上がりが全く異なる面白さになることから、ペン画像、スタンプ画像、フレーム画像等の種類は豊富に用意されている。   Under such circumstances, since the expression method of each user's personality changes depending on what kind of image the user selects as the edited image at the time of editing the captured image, and the finish of the photograph becomes completely different, There are many types of pen images, stamp images, frame images, and so on.

一方、上記のように編集画像が豊富に用意されていることから、編集時にユーザから、ペン画像を入力するためのペンツール、スタンプ画像を入力するためのスタンプツール、フレーム画像を入力するためのフレームツールのそれぞれが選択された際には、これらの画像のサンプル画像は、ディスプレイにおける撮影画像が表示されていない領域にパレット表示されるようになっている。これにより、ユーザは、自身が使用したいツールの編集画像を数ある選択肢の中から容易かつ迅速に選択することができる。   On the other hand, since a large number of edited images are prepared as described above, a pen tool for inputting a pen image, a stamp tool for inputting a stamp image, and a frame for inputting a frame image from the user during editing. When each of the tools is selected, sample images of these images are displayed in a palette on the area where the captured image is not displayed on the display. As a result, the user can easily and quickly select an edited image of the tool he / she wants to use from a number of options.

しかしながら、編集時に使用することができる編集画像は、パレットに表示されているものに限られているので、ユーザはどのような図柄なのかをひとめで判断することができる。したがって、編集画像が豊富に用意されていても、ユーザによっては不満に思うこともある。   However, since the edited images that can be used at the time of editing are limited to those displayed on the palette, the user can determine at a glance what kind of design the image is. Therefore, even if a large number of edited images are prepared, some users may be dissatisfied.

このような中、パレットに表示されていない編集画像を使用できるようにしてユーザに対して満足感を与えるようにしたもの(例えば特許文献1〜3参照)、パレット表示されているサンプル画像の色等を変化させることで他人とは異なる編集画像を使用できるようにし、ユーザに対して満足感を与えるようにしたもの(例えば特許文献4参照)などがある。   Under such circumstances, an edited image that is not displayed on the palette can be used so as to satisfy the user (for example, see Patent Documents 1 to 3), and the color of the sample image displayed on the palette For example, there is an image that makes it possible to use an edited image different from that of others by changing the image quality, etc., and to give satisfaction to the user (for example, see Patent Document 4).

例えば特許文献1には、あらかじめ、対になる4種類のアクションスタンプ画像を用意しておき、ユーザが、タッチペンによりアクションスタンプを選択してディスプレイにおける大表示枠をタッチする(接触状態を維持し続ける)と、その間、前記4種類のアクションスタンプ画像が所定の間隔で順に大表示枠に表示され、ユーザが大表示枠からペン先を離すと、その時点において表示されているアクションスタンプ画像が、落書き画像として決定されることが記載されている(例えば、段落〔0090〕〜〔0094〕、図8〜図10参照)。   For example, in Patent Document 1, four types of action stamp images to be paired are prepared in advance, and the user selects an action stamp with a touch pen and touches the large display frame on the display (continues to maintain the contact state). In the meantime, the four types of action stamp images are sequentially displayed in the large display frame at predetermined intervals, and when the user removes the pen tip from the large display frame, the action stamp image displayed at that time is displayed as a graffiti. It is described that it is determined as an image (see, for example, paragraphs [0090] to [0094] and FIGS. 8 to 10).

また、特許文献2には、ユーザが「ふうせんスタンプ」、「回転スタンプ」、「七色スタンプ」、「いっぱいスタンプ」などの所定の機能のスタンプツールを選択し、タッチペンによりディスプレイの所定の位置をタッチする(接触状態を維持し続ける)と、その間、「ふうせんスタンプ」が選択されている場合には、スタンプ画像が所定の間隔で拡大・縮小して表示され(例えば、段落〔0182〕、〔0183〕、図32参照)、「回転スタンプ」が選択されている場合には、スタンプ画像が回転しているような画像が順次表示され(例えば、段落〔0189〕、図33参照)、「七色スタンプ」が選択されている場合には、スタンプ画像の向きが変化して表示されつつ、タッチペンのペン先の移動に伴って色がランダムに変化するように表示され(例えば、段落〔0191〕、図34参照)、さらに「いっぱいスタンプ」が選択されている場合には、表示されるスタンプ画像の数が時間とともに増えて表示される(例えば、段落〔0198〕、図36参照)ことが記載されている。   In Patent Document 2, the user selects a stamp tool having a predetermined function such as “Fusen stamp”, “Rotary stamp”, “Seven-color stamp”, “Full stamp”, and touches a predetermined position on the display with a touch pen. If the “sticker stamp” is selected during this period (the contact state is maintained), the stamp image is enlarged and reduced at a predetermined interval (for example, paragraphs [0182] and [0183). 32], when “Rotary stamp” is selected, images in which the stamp image is rotated are sequentially displayed (for example, see paragraph [0189], FIG. 33), and “seven-color stamp” is displayed. ”Is selected, the orientation of the stamp image changes and the color changes randomly as the tip of the touch pen moves. When “full stamp” is selected (for example, paragraph [0191], see FIG. 34), the number of stamp images to be displayed increases with time (for example, paragraph [0198). ], See FIG.

また、特許文献3には、あらかじめ、対になる5種類のスタンプ画像を用意しておき、「パタパタスタンプ」が選択された場合には、ユーザがタッチペンでディスプレイをタッチすると、最初にタッチされた位置で、タッチされるごとに、用意していた5種類の画像が順次、切り替えられて表示されること(例えば、段落〔0329〕、図34(A)参照)が記載されており、また、ユーザがタッチペンでディスプレイをタッチすると、タッチされた位置において、タッチされるごとに、用意していた5種類の画像が順次、表示されること(例えば、段落〔0332〕、図34(B)参照)が記載されている。   Also, in Patent Document 3, five types of stamp images to be paired are prepared in advance. When “Pattern Stamp” is selected, when the user touches the display with a touch pen, the first touch is made. It is described that the five types of prepared images are sequentially switched and displayed each time the position is touched (for example, see paragraph [0329], FIG. 34A). When the user touches the display with a touch pen, each time the user touches the touched position, five types of prepared images are sequentially displayed (for example, see paragraph [0332] and FIG. 34B). ) Is described.

また、特許文献4には、編集作業を行う際に用いる編集画像を変化させるためのスーパーチェンジボタンを編集画像ごとに備え、ユーザによりスーパーチェンジボタンがタッチされると、編集画像の色や大きさなどを、編集対象となる画像(表示されている撮影画像)上ではなく、パレット上において、変化させることが記載されている(例えば、段落〔0082〕、図8および図9参照)。
特開2002−304669号公報 特開2003−37813号公報 特開2005−80284号公報 特開2004−153613号公報
Further, in Patent Document 4, a super change button for changing an edit image used when editing is performed is provided for each edit image, and when the user touches the super change button, the color or size of the edit image is changed. Are changed on the palette, not on the image to be edited (displayed captured image) (see paragraph [0082], FIG. 8 and FIG. 9).
JP 2002-304669 A JP 2003-37813 A Japanese Patent Laying-Open No. 2005-80284 JP 2004-153613 A

しかしながら、上記の特許文献1および特許文献2に記載されている技術によれば、ユーザは豊富な種類のスタンプ画像を楽しむことができるが、これらのスタンプ画像の図柄は、ユーザの操作により、時間とともに変化するようにされ、ユーザが、この変化を任意のタイミングでストップさせることで、使用できる図柄が決定される。このため、例えばユーザが所望する図柄が存在しても、ユーザが、所定のタイミングでうまく上記変化をストップさせることができなければ、所望する図柄を選択することができない、すなわち所望しない図柄が選択されてしまうことがある。したがって、ユーザにとっては、所望する図柄を再び選択するという煩わしい作業が必要となり、編集作業に余計な時間がかかってしまう。   However, according to the techniques described in Patent Document 1 and Patent Document 2 described above, the user can enjoy a wide variety of stamp images. The symbols that can be used are determined by the user stopping the change at an arbitrary timing. For this reason, for example, even if a symbol desired by the user exists, if the user cannot stop the above change at a predetermined timing, the desired symbol cannot be selected, that is, an unwanted symbol is selected. It may be done. Therefore, for the user, a troublesome work of selecting a desired symbol again is necessary, and an extra time is required for the editing work.

また、特許文献3に記載された技術によれば、ユーザが所望するタイミングで、スタンプ画像を変化させることができるので、ユーザは、所望するスタンプ画像の図柄を容易に選択することができるが、選択したスタンプ画像は、ユーザが落書き画像入力領域をタッチした位置に入力されるため、操作に不慣れなユーザ(またはこのパタパタスタンプ機能を初めて使用するユーザ)の場合、所望しない位置にスタンプ画像が配置されることになり、スタンプ画像を所望の位置に配置するためには時間がかかってしまう。また、どの位置にスタンプ画像を配置するかによって、写真に対する見栄えの良し悪しが分かれるため、ユーザはにとってはさらに時間がかかってしまう結果になる。   Further, according to the technique described in Patent Document 3, since the stamp image can be changed at a timing desired by the user, the user can easily select a desired stamp image pattern. Since the selected stamp image is input at the position where the user touched the graffiti image input area, if the user is not familiar with the operation (or a user who uses this pattern stamp function for the first time), the stamp image is placed at an undesired position. Therefore, it takes time to arrange the stamp image at a desired position. In addition, since the appearance of the photo is different depending on the position where the stamp image is arranged, it takes more time for the user.

さらに、特許文献4に記載されている技術によれば、スーパーチェンジボタンにより、スタンプ画像の色や大きさなどをリアルタイムで変化させ続けることができ、ユーザが個性的な写真を作成するには役立つが、色や大きさ等を決定してから描画領域(編集対象画像)に対して描き込みを行うため、編集対象画像に対して、選択したスタンプ画像の色や大きさなどのバランスを合わせることが難しく、作業に時間がかかってしまう。   Furthermore, according to the technique described in Patent Document 4, the color and size of the stamp image can be continuously changed in real time by the super change button, which is useful for the user to create a unique photograph. However, since the drawing area (image to be edited) is drawn after determining the color and size, the balance of the color and size of the selected stamp image is adjusted to the image to be edited. Is difficult and time consuming.

そこで本発明はこのような問題を解決して、撮影した画像に対して編集画像を入力する写真シール作成装置において、ユーザが編集入力できる編集画像のバリエーションを増加させるとともに、増加された編集画像を容易に選択、入力でき、好みに応じた個性的な写真シールを作成できるようにすることを目的とする。   Accordingly, the present invention solves such a problem, and in the photo sticker creation apparatus for inputting an edited image to a photographed image, the variation of the edited image that can be edited and input by the user is increased, and the increased edited image is displayed. The purpose is to make it possible to easily select and input, and to create a unique photo sticker according to preference.

上記課題を解決するために請求項1記載の発明は、被写体を撮影する撮影手段と、所定の模様画像で構成される編集画像を記憶する記憶手段と、前記撮影手段で撮影した撮影画像に対して前記編集画像の入力を受け付ける受付手段と、前記受付手段で受け付けた編集画像と前記撮影画像とを合成する合成手段と、前記合成手段で合成した合成画像をシール紙に印刷する印刷手段とを備え、前記受付手段で入力を受け付ける編集画像の模様画像の分布および/または密度を調整する調整手段をさらに備えるものである。   In order to solve the above-mentioned problem, the invention described in claim 1 is directed to a photographing unit for photographing a subject, a storage unit for storing an edited image composed of a predetermined pattern image, and a photographed image photographed by the photographing unit. Receiving means for receiving the input of the edited image, combining means for combining the edited image received by the receiving means and the photographed image, and printing means for printing the combined image combined by the combining means on a sticker sheet. And an adjusting means for adjusting the distribution and / or density of the pattern image of the edited image that receives the input by the receiving means.

このような構成によると、編集画像は、調整手段により模様画像の分布および/または密度が調整されるので、例えば従来では、一度の操作で入力していた編集画像を、数回に分けて徐々に入力することができ、ユーザに対して驚きを与えることができる。   According to such a configuration, the edit image is adjusted in distribution and / or density of the pattern image by the adjusting means. For example, conventionally, the edit image that has been input in one operation is gradually divided into several times. Can be surprised to the user.

請求項2記載の発明は、請求項1記載の写真シール作成装置において、記憶手段は、分布および/または密度の異なる複数のパタン画像を記憶し、調整手段は、受付手段による受け付けごとに、前記パタン画像を入力することにより、前記分布および/または密度を調整するものである。   According to a second aspect of the present invention, in the photographic sticker creating apparatus according to the first aspect, the storage unit stores a plurality of pattern images having different distributions and / or densities, and the adjustment unit The distribution and / or density is adjusted by inputting a pattern image.

このような構成によれば、調整手段は、受付手段による受け付けごとに、パタン画像を入力することにより、前記分布および/または密度を調整するので、ユーザは、所定のタイミングで所望のパタン画像を容易に選択することができる。また、このように所定のタイミングで所望のパタン画像を容易に選択することができるので、例えば、撮影画像に対して表示される前に編集画像の図柄や色を決定する場合に比べて、撮影画像に対する大きさや色合いなどのバランスを容易に確認することができ、所望しない編集画像が入力されることを抑制することができる。   According to such a configuration, the adjustment unit adjusts the distribution and / or density by inputting a pattern image every time it is received by the reception unit. Therefore, the user can display a desired pattern image at a predetermined timing. Easy to choose. In addition, since a desired pattern image can be easily selected at a predetermined timing in this way, for example, compared to the case where the design or color of an edited image is determined before being displayed on the captured image. It is possible to easily check the balance of the size and color of the image, and to suppress the input of an undesired edited image.

請求項3記載の発明は、請求項2記載の写真シール作成装置において、調整手段は、受付手段による受け付けごとに、模様画像の密度を高めるよう調整するものである。   According to a third aspect of the present invention, in the photographic sticker creating apparatus according to the second aspect, the adjusting means adjusts the density of the pattern image to be increased every time the receiving means accepts it.

このような構成によれば、調整手段は、受付手段による受け付けごとに、模様画像の密度を高めるよう調整するので、編集画像は徐々に多くなり、ユーザに対して驚きを与えることができる。   According to such a configuration, the adjustment means adjusts to increase the density of the pattern image every time it is received by the receiving means, so that the number of edited images gradually increases, and the user can be surprised.

請求項4記載の発明は、請求項2または3記載の写真シール作成装置において、調整手段は、受付手段による受け付けごとに、撮影画像の外側から中央側へ向けて模様画像が分布するよう調整するものである。   According to a fourth aspect of the present invention, in the photographic sticker creating apparatus according to the second or third aspect, the adjustment means adjusts the pattern image so that the pattern image is distributed from the outside of the photographed image toward the center side every time the reception means accepts it. Is.

このような構成によれば、例えばユーザが全身撮影を行って、撮影画像の周縁部とユーザ(被写体)との間に大きな隙間が生じる場合であっても、調整手段は、受付手段による受け付けごとに、撮影画像の外側から中央側へ向けて模様画像が分布するよう調整するので、上記のような隙間に画像を詰めるようにすることができ、前記隙間が目立たない、仕上がり具合の良好な写真を作成することができる。   According to such a configuration, for example, even when the user performs whole body photographing and a large gap is generated between the peripheral portion of the photographed image and the user (subject), the adjustment unit performs the reception by the reception unit. In addition, since the pattern image is adjusted so that the pattern image is distributed from the outer side to the center side of the photographed image, the image can be packed in the gap as described above, and the gap is not conspicuous and has a good finish. Can be created.

請求項5記載の発明は、被写体を撮影する撮影ステップと、前記撮影ステップで撮影した撮影画像に対して、所定の模様画像で構成される編集画像の入力を受け付ける受付ステップと、前記受付ステップで受け付けた編集画像と前記撮影画像とを合成する合成ステップと、前記合成ステップで合成した合成画像をシール紙に印刷する印刷ステップとを備え、前記受付ステップで入力を受け付ける編集画像の模様画像の分布および/または密度を調整する調整ステップをさらに備えるものである。   According to a fifth aspect of the present invention, in the photographing step of photographing a subject, an accepting step of accepting an input of an edited image composed of a predetermined pattern image with respect to the photographed image photographed in the photographing step, and the accepting step A distribution step of combining the received edited image and the photographed image; and a printing step of printing the combined image combined in the combining step on a sticker sheet, and receiving the input in the receiving step. And / or an adjustment step of adjusting the density.

このようにすると、編集画像は、調整ステップにより模様画像の分布および/または密度が調整されるので、例えば従来では、一度の操作で入力していた編集画像を、数回に分けて徐々に入力することができ、ユーザに対して驚きを与えることができる。   In this way, since the distribution and / or density of the pattern image is adjusted in the adjustment step by the adjustment step, for example, the edit image that has been input in a single operation in the past is gradually input in several times. Can give a surprise to the user.

請求項6記載の発明は、被写体を撮影する撮影ステップと、前記撮影ステップで撮影した撮影画像に対して、所定の模様画像で構成される編集画像の入力を受け付ける受付ステップと、前記受付ステップで受け付けた編集画像と前記撮影画像とを合成する合成ステップと、前記合成ステップで合成した合成画像をシール紙に印刷する印刷ステップとを備え、前記受付ステップで入力を受け付ける編集画像の模様画像の分布および/または密度を調整する調整ステップをさらに備えるものである。   According to a sixth aspect of the present invention, in the photographing step for photographing a subject, an accepting step for accepting an input of an edited image composed of a predetermined pattern image with respect to the photographed image photographed in the photographing step, and the accepting step A distribution step of combining the received edited image and the photographed image; and a printing step of printing the combined image combined in the combining step on a sticker sheet, and receiving the input in the receiving step. And / or an adjustment step of adjusting the density.

これによると、編集画像は、調整ステップにより模様画像の分布および/または密度が調整されるので、例えば従来では、一度の操作で入力していた編集画像を、数回に分けて徐々に入力することができ、ユーザに対して驚きを与えることができる。   According to this, since the distribution and / or density of the pattern image is adjusted by the adjustment step, the edited image that has been input in a single operation is gradually input in several steps. Can give a surprise to the user.

以上のように本発明によれば、撮影した画像に対して編集画像を入力する写真シール作成装置において、ユーザが編集入力できる編集画像のバリエーションを増加させるとともに、増加された編集画像を容易に選択、入力でき、好みに応じた個性的な写真シールを作成することができる。   As described above, according to the present invention, in the photo sticker creation apparatus for inputting an edited image to a photographed image, the variation of the edited image that can be edited and input by the user is increased, and the increased edited image can be easily selected. You can enter and create unique photo stickers according to your preferences.

本発明の実施の形態の写真シール作成装置1を、図1〜図28を参照しながら説明する。   A photo sticker creating apparatus 1 according to an embodiment of the present invention will be described with reference to FIGS.

(外観構成)
まず、写真シール作成装置1の外観構成から説明する。図1は、写真シール作成装置1の側面図、図2は、撮影側筐体3を撮影ブース6内から見た図である。
(Appearance configuration)
First, the external structure of the photo sticker creating apparatus 1 will be described. FIG. 1 is a side view of the photo sticker creating apparatus 1, and FIG. 2 is a view of the photographing side housing 3 as seen from inside the photographing booth 6.

図1に示すように、写真シール作成装置1は、利用者(被写体)を撮影する撮影手段としてのカメラ2を備えるとともに種々の処理および制御を行う機器を備える撮影側筐体3と、この撮影側筐体3におけるカメラ2と対向する位置に距離を置いて設けられている背景ユニット4と、撮影側筐体3と背景ユニット4の上部に左右一対の天井フレーム5が架設されて形成される撮影ブース6内に設けられ、被写体であるユーザ7の撮影ポーズの形成を補助する門型のはしご8および移動可能な可動椅子9と、撮影側筐体3の背面に隣接して設けられている編集側筐体10とを備える。   As shown in FIG. 1, a photo sticker creating apparatus 1 includes a camera 2 as a photographing means for photographing a user (subject) and a photographing side housing 3 including equipment for performing various processes and controls, and this photographing. The background unit 4 is provided at a position facing the camera 2 in the side housing 3 at a distance, and a pair of left and right ceiling frames 5 are installed above the photographing side housing 3 and the background unit 4. It is provided in the shooting booth 6 and is provided adjacent to the back side of the shooting-side housing 3 and a portal ladder 8 and a movable movable chair 9 that assist the formation of a shooting pose of the user 7 as a subject. The editing-side casing 10 is provided.

撮影側筐体3における背景ユニット4に対向する側の面には、カメラ2のほか、図2に示すように、カメラ2が現在撮影している画像をユーザ7に対してリアルタイムで表示するとともに、ユーザ7からの操作入力の受付、およびデモ画面や撮影操作の手順等をユーザ7に対して表示するタッチパネルディスプレイ11と、撮影時にユーザ7を照射するための複数のストロボ12a〜12d(以下、これらに区別をつける必要が無い場合には単にストロボ12と記す)と、対価であるコインを投入するためのコイン投入口13と、撮影操作時に音声案内やBGMを出力する撮影側スピーカ14とが設けられている。   On the surface on the side facing the background unit 4 in the photographing-side housing 3, in addition to the camera 2, as shown in FIG. The operation input from the user 7 and the touch panel display 11 for displaying the demonstration screen and the shooting operation procedure to the user 7 and a plurality of strobes 12a to 12d for irradiating the user 7 at the time of shooting When there is no need to distinguish between them, they are simply referred to as a strobe 12), a coin insertion slot 13 for inserting coins as a consideration, and a shooting-side speaker 14 that outputs voice guidance and BGM during shooting operation. Is provided.

さらに、この撮影側筐体3の外部における一方の側面にはプリント取出口15が設けられ、このプリント取出口15からは、撮影画像と編集入力した画像とを合成した印刷用画像(編集画像を入力しなかった場合には撮影画像)が撮影側筐体3の内部に収納された印刷手段としてのプリンタ16(図3参照)によってシールシート17(図3参照)などの印刷媒体に印刷されたものが排出される。   Furthermore, a print take-out port 15 is provided on one side surface outside the photographing-side casing 3, and the print take-out port 15 prints an image for printing (edited image as a combination of the photographed image and the input image). If no input is made, the photographed image) is printed on a print medium such as a seal sheet 17 (see FIG. 3) by a printer 16 (see FIG. 3) as a printing means housed in the photographing housing 3. Things are discharged.

背景ユニット4の上部には、撮影時に上下方向に展開されてユーザ7の背景となる複数種類、ここでは3種類の背景カーテン18a〜18cを備えたカーテンユニット18が設けられている。背景カーテン18a〜18cは、未使用時にはカーテンユニット18内に巻き取られた状態で収納される。これらの背景カーテン18a〜18cは、ユーザ7からのタッチパネルディスプレイ11への操作を介して指定されたものが、背景ユニット4の壁面に沿って展開される。なお、背景カーテン18a〜18cのうちのいずれかは、後述するクロマキ合成を好適に行えるように緑などの単色のものとされており、本実施の形態においては、背景カーテン18aが緑色の単色で、撮影時にユーザの背景として展開される場合を説明する。   Above the background unit 4, a curtain unit 18 including a plurality of types of background curtains 18 a to 18 c, which are developed in the vertical direction at the time of shooting and serve as the background of the user 7, is provided here. The background curtains 18a to 18c are stored in a state of being wound in the curtain unit 18 when not in use. These background curtains 18 a to 18 c that are designated through an operation on the touch panel display 11 from the user 7 are developed along the wall surface of the background unit 4. Note that any one of the background curtains 18a to 18c has a single color such as green so that the later-described blackboard composition can be suitably performed. In the present embodiment, the background curtain 18a is a single green color. A case where the image is developed as the background of the user at the time of shooting will be described.

編集側筐体10には、撮影ブース6において撮影した画像を表示してタッチペン19A、19B(以下、これらに区別をつける必要が無い場合には単にタッチペン19と記す)によりユーザ7からの編集画像の入力操作を受け付ける受付手段としてのタブレットディスプレイ20と、編集画像の入力操作時に音声案内やBGMを出力する編集側スピーカ21(図3参照)とが設けられている。22Aは、撮影ブース6とは異なる箇所に設けられて、ユーザ7が、撮影された画像に対して編集行為を行う編集ブースである。なお、図1においては現れていないが、編集側筐体10の反対側にも、タッチペン19A、19B、タブレットディスプレイ20、編集側スピーカ21が設けられて編集ブース22Bが設けられており、異なる2組のユーザが、それぞれが撮影した画像に対して同時に編集行為を行うことが可能とされている。したがって、本実施の形態の写真シール作成装置1は、一つの撮影ブース6と二つの編集ブース22A、22Bとを備える三重接客方式を採用している。上記編集ブース22A、22Bの周囲には、ユーザ7がそれぞれのブースにおいて編集作業をする際に、他の利用者から画像等の内容が見えないようにするための周囲カーテンが設けられているが、図面の煩雑化を避けるため、図示は省略している。   The editing-side housing 10 displays images taken at the shooting booth 6 and is edited by the user 7 with touch pens 19A and 19B (hereinafter simply referred to as touch pen 19 when there is no need to distinguish them). A tablet display 20 as a receiving means for receiving the input operation, and an editing-side speaker 21 (see FIG. 3) that outputs voice guidance and BGM during the input operation of the edited image are provided. 22A is an editing booth provided at a location different from the shooting booth 6 and in which the user 7 performs an editing action on the shot image. Although not shown in FIG. 1, touch pens 19A and 19B, a tablet display 20, and an editing speaker 21 are provided on the opposite side of the editing housing 10, and an editing booth 22B is provided. A set of users can simultaneously perform an editing action on images taken by each user. Therefore, the photo sticker creating apparatus 1 of the present embodiment employs a triple customer service system including one shooting booth 6 and two editing booths 22A and 22B. Around the editing booths 22A and 22B, there are provided surrounding curtains to prevent other users from seeing the contents of images and the like when the user 7 performs editing work in each booth. In order to avoid complication of the drawings, the illustration is omitted.

上記の写真シール作成装置1は、ユーザ7からのニーズに対応すべくさまざまな機能、例えば音声案内機能、ストロボ照射光の変更機能などを備えている。これらさまざまの機能を実現するための機能構成を、図3を参照しながら説明する。図3は、写真シール作成装置1の機能構成を示すブロック図である。   The photo sticker creating apparatus 1 has various functions such as a voice guidance function and a function for changing strobe irradiation light in order to meet the needs from the user 7. A functional configuration for realizing these various functions will be described with reference to FIG. FIG. 3 is a block diagram showing a functional configuration of the photo sticker creating apparatus 1.

(機能構成)
写真シール作成装置1は、図3に示すように、カメラ2による撮影およびカメラ2によって撮影した画像の転送など、撮影側の処理を実行する撮影用コンピュータ装置23aと、編集処理時にユーザ7からタブレットディスプレイ20に入力された内容をこのタブレットディスプレイ20に表示するとともに、入力に基づいて編集入力する画像の作成、描画などを行う編集に関する処理や、プリンタ16の印刷に関する処理を実行する画像編集用コンピュータ装置23bと、動作中のコンピュータ装置23a、23bからの指示を受け付けて、接続されている各種装置を制御する制御基板24とを備える。この撮影用コンピュータ装置23aと画像編集用コンピュータ装置23bとは互いに接続され、画像データなどの授受をピアツーピアで行う。
(Functional configuration)
As shown in FIG. 3, the photo sticker creating apparatus 1 includes a photographing computer device 23a that performs photographing-side processing such as photographing by the camera 2 and transfer of images photographed by the camera 2, and a tablet from the user 7 during editing processing. An image editing computer that displays the content input on the display 20 on the tablet display 20 and executes processing related to editing for creating and drawing an image to be edited and input based on the input, and processing related to printing of the printer 16. A device 23b and a control board 24 that receives instructions from the computer devices 23a and 23b in operation and controls various devices connected thereto. The photographing computer device 23a and the image editing computer device 23b are connected to each other and exchange image data and the like on a peer-to-peer basis.

コンピュータ装置23a、23bは、CPU(Central Processing Unit)25a、25bと、写真シール作成装置1に所定の処理を実行させるためのプログラム、種々の処理に必要なグラフィックデータ、音声データ、撮影画像、編集入力する画像などを記憶する記憶手段としてのハードディスクドライブ(HDD)26a、26bと、プログラムの一時的な作業領域となるメモリ27a、27bとを有する。   The computer devices 23a and 23b are CPUs (Central Processing Units) 25a and 25b, a program for causing the photo sticker creation device 1 to execute predetermined processing, graphic data necessary for various processing, audio data, photographed images, editing Hard disk drives (HDD) 26a and 26b serving as storage means for storing input images and the like, and memories 27a and 27b serving as temporary work areas for programs.

撮影用コンピュータ装置23aは、カメラ2、クロマキーキャプチャーボード28、タッチパネルディスプレイ11、制御基板24と電気的に接続され、撮影ブース6での撮影側の処理を実行する。具体的には、内部のHDD26aに記憶された撮影側の処理についてのプログラムを実行して、ユーザ7からタッチパネルディスプレイ11を介して受け付けた入力操作に基づく指示信号に従って、制御基板24に対して制御信号を送信する。   The photographing computer device 23 a is electrically connected to the camera 2, chroma key capture board 28, touch panel display 11, and control board 24, and executes processing on the photographing side in the photographing booth 6. Specifically, a program for processing on the photographing side stored in the internal HDD 26a is executed, and the control board 24 is controlled in accordance with an instruction signal based on an input operation received from the user 7 via the touch panel display 11. Send a signal.

画像編集用コンピュータ装置23bは、プリンタ16、タブレットディスプレイ20、制御基板24に電気的に接続され、編集ブース22A、22Bでの編集に関する処理および撮影側筐体3内に収納されているプリンタ16の印刷処理を実行する。具体的には、画像編集用コンピュータ装置23bは、ユーザがタブレットディスプレイ20に対して行うタッチペン19操作に応じて制御信号を制御基板24に送信する。   The image editing computer device 23 b is electrically connected to the printer 16, the tablet display 20, and the control board 24, and performs processing related to editing in the editing booths 22 </ b> A and 22 </ b> B and the printer 16 housed in the photographing side housing 3. Execute print processing. Specifically, the image editing computer device 23 b transmits a control signal to the control board 24 in accordance with the operation of the touch pen 19 performed on the tablet display 20 by the user.

撮影側筐体3に設けられているタッチパネルディスプレイ11は、ユーザ7の指等の接触を検知し、その位置に応じた指示信号を撮影用コンピュータ装置23aに送信する。このタッチパネルディスプレイ11は、撮影用コンピュータ装置23aから送信された画像、具体的には、カメラ2で撮像された画像、撮影のための案内、選択肢などをユーザ7に対して表示する。   The touch panel display 11 provided in the photographing side housing 3 detects contact of the user 7 with a finger or the like, and transmits an instruction signal corresponding to the position to the photographing computer device 23a. The touch panel display 11 displays to the user 7 an image transmitted from the imaging computer device 23a, specifically, an image captured by the camera 2, guidance for shooting, options, and the like.

クロマキーキャプチャーボード28は、カメラ2および撮影用コンピュータ装置23aに接続され、このクロマキーキャプチャーボード28により、図4に示すように、カメラ2から取り込んだ画像とあらかじめHDD26aに記憶された背景画像とがクロマキ合成(詳細は後述)され、合成された画像が例えば毎秒30フレームで撮影用コンピュータ装置23aに送られる。そして、送られた画像がCPU25aにより、順次、タッチパネルディスプレイ11に表示され、その結果、タッチパネルディスプレイ11にライブ画像が表示される。   The chroma key capture board 28 is connected to the camera 2 and the computer device 23a for photographing. With the chroma key capture board 28, as shown in FIG. 4, an image captured from the camera 2 and a background image stored in the HDD 26a in advance are chroma chroma. The images are combined (details will be described later), and the combined image is sent to the photographing computer device 23a at, for example, 30 frames per second. Then, the sent images are sequentially displayed on the touch panel display 11 by the CPU 25 a, and as a result, a live image is displayed on the touch panel display 11.

タブレットディスプレイ20は、それぞれに対応する左右のタッチペン19A、19Bにおけるペン先の接触を検知し、その位置に応じた指示信号を画像編集用コンピュータ装置23bに送信する。そして、画像編集用コンピュータ装置23bから送信された画像、具体的には、編集画像の入力処理時にユーザ7により描画されたペン画像、選択されたスタンプ画像、フレーム画像などの編集画像を、表示している撮影画像(編集対象となる画像)の上に重ねて表示する。   The tablet display 20 detects the contact of the pen tip of the left and right touch pens 19A and 19B corresponding to each, and transmits an instruction signal corresponding to the position to the image editing computer device 23b. Then, an image transmitted from the image editing computer device 23b, specifically, an edited image such as a pen image drawn by the user 7 at the time of input processing of the edited image, a selected stamp image, or a frame image is displayed. The image is displayed so as to overlap the photographed image (image to be edited).

プリンタ16は、撮影画像と、撮影画像に対して編集処理により入力された画像とを、CPU25bが備える合成手段としての機能により合成した印刷用画像をシールシート17に印刷する。以下の例では、プリンタ16が印刷用画像をシールシート17に印刷する場合を説明するが、印刷媒体はシールシート17に限定されず、他の印刷媒体でもよい。   The printer 16 prints on the sticker sheet 17 a print image obtained by combining the captured image and the image input by the editing process on the captured image with a function as a combining unit included in the CPU 25b. In the following example, a case where the printer 16 prints an image for printing on the sticker sheet 17 will be described. However, the print medium is not limited to the sticker sheet 17 and may be another print medium.

制御基板24は、コンピュータ装置23a、23bの他に、ストロボ制御部29、撮影ブース6や編集ブース22A、22Bに設けられている蛍光灯30、サービスパネル31、印刷中LED32、印刷エラーLED33、コイン制御部34、カーテンユニット18および音声制御部35に接続され、それぞれを所定の設定に従って制御する。   In addition to the computer devices 23a and 23b, the control board 24 includes a strobe controller 29, a fluorescent lamp 30 provided in the photographing booth 6 and the editing booths 22A and 22B, a service panel 31, a printing LED 32, a printing error LED 33, a coin It is connected to the control unit 34, the curtain unit 18, and the sound control unit 35, and controls each according to a predetermined setting.

ストロボ制御部29は、カメラ2およびストロボ12に接続され、カメラ2のシャッタタイミングに応じて発光するようにストロボ12を制御する。   The strobe control unit 29 is connected to the camera 2 and the strobe 12 and controls the strobe 12 to emit light according to the shutter timing of the camera 2.

サービスパネル31は、投入されたコインの枚数をカウントするコインカウンタ、印刷されたプリントの枚数をカウントするプリントカウンタ、撮影側スピーカ14、編集側スピーカ21から出力する音声のボリュームを調整する音量調整つまみ、テストモードを行うためのテストボタン、コインを投入しなくても装置が利用できるようにするためのサービスボタン等を備えるパネルであり、写真シール作成装置1が設置される店舗などの管理人が各種設定やメンテナンスの操作を行う際に用いる。サービスパネル31は、テストボタンの操作などが行われると、その操作にしたがった制御信号を制御基板24に対して送信したり、所定の指示信号をコンピュータ装置23a、23bに送信したりする。   The service panel 31 includes a coin counter that counts the number of inserted coins, a print counter that counts the number of printed prints, a volume adjustment knob that adjusts the volume of sound output from the photographing speaker 14 and the editing speaker 21. , A panel having a test button for performing a test mode, a service button for enabling the apparatus to be used without inserting coins, and an administrator of a store or the like where the photo sticker creating apparatus 1 is installed Used for various settings and maintenance operations. When the test panel is operated, the service panel 31 transmits a control signal according to the operation to the control board 24, or transmits a predetermined instruction signal to the computer devices 23a and 23b.

なお、制御基板24は、撮影用コンピュータ装置23aあるいは画像編集用コンピュータ装置23bから受信した制御信号(指示コマンドなど)にしたがって、サービスパネル31に対して制御信号を送信する。サービスパネル31は、この制御信号に従って、コインカウンタやプリントカウンタを動作させる(たとえばカウンタを1インクリメントする)。   The control board 24 transmits a control signal to the service panel 31 in accordance with a control signal (such as an instruction command) received from the imaging computer device 23a or the image editing computer device 23b. The service panel 31 operates a coin counter or a print counter according to this control signal (for example, the counter is incremented by 1).

音声制御部35は制御基板24を介して撮影用コンピュータ装置23aおよび画像編集用コンピュータ装置23bに接続されている。撮影用スピーカ14は、撮影側筐体3に配備され、撮影用コンピュータ装置23aから制御基板24および音声制御部35を介して与えられる指示信号に基づいて、撮影のための操作方法などの案内やBGMなどを出力する。また、編集用スピーカ21は、編集側筐体10に配備され、画像編集用コンピュータ装置23bから制御基板24および音声制御部35を介して与えられる指示信号に基づいて、編集のための操作方法などの案内やBGMなどを出力する。   The sound control unit 35 is connected to the photographing computer device 23 a and the image editing computer device 23 b through the control board 24. The shooting speaker 14 is provided in the shooting-side housing 3 and provides guidance on operation methods for shooting based on instruction signals given from the shooting computer device 23a via the control board 24 and the voice control unit 35. BGM etc. are output. The editing speaker 21 is provided in the editing-side casing 10 and is based on an instruction signal given from the image editing computer device 23b via the control board 24 and the voice control unit 35. , Guidance, BGM, etc. are output.

コイン制御部34は、コイン投入口13に投入されたコインの正当性を検出し、制御基板24にコインが投入されたことを示す検出信号を送信する。このとき、制御基板24は、撮影用コンピュータ装置23aあるいは画像編集用コンピュータ装置23bから受信した制御信号(指示コマンドなど)にしたがって、コイン制御部34に対して制御信号を送信する。所定枚数のコインが投入されると、コイン制御部34は制御信号にしたがって、新たにコインが投入されないようにコイン投入口13をブロックする。   The coin control unit 34 detects the validity of the coin inserted into the coin insertion slot 13 and transmits a detection signal indicating that the coin has been inserted into the control board 24. At this time, the control board 24 transmits a control signal to the coin control unit 34 in accordance with a control signal (such as an instruction command) received from the imaging computer device 23a or the image editing computer device 23b. When a predetermined number of coins are inserted, the coin control unit 34 blocks the coin insertion slot 13 according to the control signal so that no new coins are inserted.

以上のような構成において、ユーザ7は、撮影ブース6内において、タッチパネルディスプレイ11を介して背景画像を選択したうえで、撮影用椅子8を利用するなどして好みの撮影ポーズを形成して写真撮影を行う。   In the configuration as described above, the user 7 selects a background image via the touch panel display 11 in the shooting booth 6 and then forms a favorite shooting pose by using the shooting chair 8 or the like. Take a picture.

上記のようにして、撮影を行ったユーザ7は、編集ブース22Aまたは22Bに移動し、タッチペン19を用いて、撮影画像が表示されるタブレットディスプレイ20に対して編集画像の入力を行う。そして、編集画像の入力が終わると、生成された印刷用画像がシールシート17に印刷されて排出されるプリント取出口15に移動し、出力されるシールシート17を取得して写真シール作成装置1の利用を終了する。   As described above, the user 7 who has taken the image moves to the editing booth 22A or 22B and uses the touch pen 19 to input the edited image to the tablet display 20 on which the taken image is displayed. When the input of the edited image is finished, the generated printing image is printed on the sticker sheet 17 and moved to the print outlet 15 where the sticker sheet 17 to be output is obtained to obtain the photo sticker creating apparatus 1. End use of.

上記の一連の処理における編集画像の入力時に、ユーザは、本発明の特徴を備えた「ぷくぷくフレーム」なる機能と、「カラーチェンジ」なる機能とを使用することができるが、まず「ぷくぷくフレーム」機能を使用する場合の説明を行う。   When inputting an edited image in the above-described series of processing, the user can use a function called “pukupuku frame” and a function called “color change” having the features of the present invention. Describes when using the function.

〔ぷくぷくフレーム〕
(撮影側の処理)
まず、撮影側の処理を、図5を参照しながら説明する。この撮影側の処理は、撮影用コンピュータ装置23aにおけるCPU25aがHDD26aに記憶された動作プログラムをメモリ27aに読出して実行することで実現される。
[Pukupuku frame]
(Processing on the shooting side)
First, the processing on the photographing side will be described with reference to FIG. This processing on the photographing side is realized by the CPU 25a in the photographing computer device 23a reading out the operation program stored in the HDD 26a to the memory 27a and executing it.

撮影側の処理としては、図5に示すように、はじめに、写真シール作成装置1に電源が投入されると、撮影用コンピュータ装置23aのHDD26a、画像編集用コンピュータ装置23bのHDD26bに格納された動作プログラムが起動する。CPU25a、25bは、各種機器が正常に接続されているかチェックし、初期化が必要な機器に対しては初期化を行う(S11)。   As processing on the photographing side, as shown in FIG. 5, when the photo sticker creating apparatus 1 is first turned on, the operations stored in the HDD 26a of the photographing computer device 23a and the HDD 26b of the image editing computer device 23b are stored. The program starts. The CPUs 25a and 25b check whether various devices are normally connected, and perform initialization for devices that need to be initialized (S11).

初期化処理時に、コイン制御部34がコイン投入口13をロックするように作動している場合は、CPU25aはロックを解除する制御信号を送出し、ロックを解除する。そしてコイン投入を可能にする(S12)。   If the coin control unit 34 is operating to lock the coin insertion slot 13 during the initialization process, the CPU 25a sends a control signal for releasing the lock, and releases the lock. Then, coins can be inserted (S12).

次にCPU25aは、写真シール作成装置1の利用を促すタイトルデモ画面を撮影ブース6におけるタッチパネルディスプレイ11に表示し(S13)、その間にコイン制御部34において対価であるコインの投入を監視する(S14)。   Next, the CPU 25a displays a title demo screen for prompting the use of the photo sticker creating apparatus 1 on the touch panel display 11 in the photographing booth 6 (S13), and during that time, the coin control unit 34 monitors the insertion of coins as compensation (S14). ).

S14において、所定の枚数のコインが、ユーザにより投入されたと判断する(S14でYES)と、これ以上のコインが過剰に投入されないように、コイン投入口13をロックする(S15)。   If it is determined in S14 that a predetermined number of coins have been inserted by the user (YES in S14), the coin insertion slot 13 is locked so that no more coins are inserted (S15).

S15において、コインロックを行うと、次に、ユーザ7からタッチパネルディスプレイ11を介して、撮影コースの選択を受け付ける(S16)。この撮影コースは、あらかじめ複数種類のコースが設けられているが、以下では、例として「キレイ撮りコース」または「重ね撮りコース」を選択できる場合を説明し、まず、「キレイ撮りコース」が選択された場合を説明する(S16でNO)。この「キレイ撮りコース」は、カメラ2による1回の撮影により1枚の写真画像を生成するコースであり、撮影側コンピュータ装置23aはこの処理を実行するための通常撮影処理手段としての機能を備える。   If coin lock is performed in S15, next, selection of a shooting course is accepted from the user 7 via the touch panel display 11 (S16). This shooting course has several types of courses in advance, but in the following, we will explain the case where “Beautiful shooting course” or “Overlap shooting course” can be selected as an example. First, “Beautiful shooting course” is selected The case will be described (NO in S16). This “beautiful shooting course” is a course for generating one photographic image by one shooting by the camera 2, and the shooting-side computer device 23a has a function as a normal shooting processing means for executing this processing. .

なお、「重ね撮りコース」が選択された場合(S16でYES)は後述する。これらのコースは、選択されるコースによって撮影方法、撮影回数、写り具合、明るさなどが異なるように設定されている。また、「重ね撮りコース」は、カメラ2により複数回の撮影を行わせ、この複数回の撮影により得られた複数の撮影画像を重ねて1枚の合成写真画像を生成するコースであり、撮影側コンピュータ装置23aはこの処理を実行するための重ね撮影処理手段としての機能も備える。この「重ね撮りコース」を選択することによって実施される撮影(以下、重ね撮りと記す)では、1回目に撮影した画像を、2回目の撮影時の前景や後景に設定して撮影を行ったり、前述のようにして2回目の撮影を行って生成した撮影画像を、さらに3回目の撮影時の前景や後景に設定して撮影を行ったりする(詳細は後述)。   Note that the case where the “overlapping shooting course” is selected (YES in S16) will be described later. These courses are set so that the shooting method, the number of shots, the image quality, the brightness, and the like differ depending on the selected course. In addition, the “overlapping shooting course” is a course in which the camera 2 performs a plurality of shootings, and a plurality of shooting images obtained by the plurality of shootings are overlapped to generate one composite photo image. The side computer device 23a also has a function as an overlapping photographing processing means for executing this processing. In shooting (hereinafter referred to as “overlap shooting”) that is performed by selecting this “overlap shooting course”, the first shot image is set as the foreground or background during the second shooting. Alternatively, the captured image generated by performing the second imaging as described above is further set as the foreground and the background for the third imaging (details will be described later).

S16において、CPU25aは、撮影コースの選択として「キレイ撮りコース」を受け付けると(S16でNO)、次に合成する背景画像の選択を受け付け(S17)、S18において、カメラ2が現在撮影している画像をライブ画像としてタッチパネルディスプレイ11に表示する。そして、CPU25aは、S16において選択された「キレイ撮りコース」の設定に基づいて、写りや明るさを変更し、シャッタ動作を行う(S19)。この場合、選択されている「キレイ撮りコース」は、上述のように、通常の撮影と同様、一回の撮影で一枚の写真画像を生成する撮影コースであり、このような撮影コースにおける撮影手順は既知であるので、ここでは詳細な説明は省略する。   In S16, when the CPU 25a accepts a “beautiful photographing course” as the selection of the photographing course (NO in S16), the CPU 25a accepts selection of the background image to be combined next (S17), and the camera 2 is currently photographing in S18. The image is displayed on the touch panel display 11 as a live image. Then, the CPU 25a changes the image and brightness based on the setting of the “beautiful shooting course” selected in S16, and performs a shutter operation (S19). In this case, as described above, the selected “beautiful shooting course” is a shooting course that generates a single photographic image by one shooting as in the case of normal shooting, and shooting in such a shooting course. Since the procedure is already known, detailed description is omitted here.

そして、S19においてシャッタ動作を行うと、どのような画像が撮影されたのかをユーザ7に示すべく、CPU25aは、撮影した画像をタッチパネルディスプレイ11に表示する(S20)。撮影画像を所定の間だけ表示すると、S21において、「キレイ撮りコース」として設定されている所定枚数の撮影が終了したかを判断し、撮影していないと判断すれば(S21でNO)、「もう一枚撮るよ!」などの音声案内を行うとともに、S18〜S20の処理を再び行う。撮影したと判断すると(S21でYES)、S22において撮影制限時間が経過したかを判断する(S22)。   When the shutter operation is performed in S19, the CPU 25a displays the captured image on the touch panel display 11 to indicate to the user 7 what kind of image has been captured (S20). When the captured image is displayed for a predetermined period, it is determined in S21 whether the predetermined number of images set as the “beautiful shooting course” has been completed, and if it is determined that the image has not been captured (NO in S21), “ The voice guidance such as “I will take another picture!” Is performed, and the processing of S18 to S20 is performed again. If it is determined that shooting has been performed (YES in S21), it is determined in S22 whether the shooting limit time has elapsed (S22).

S22において、撮影制限時間が経過していないと判断すれば(S22でNO)、処理をS16に戻し、撮影コースの選択を受け付ける。なお、この時点で撮影制限時間の残り時間が所定の残り時間よりも短い場合には、S16において、「キレイ撮りコース」よりも撮影に時間を要する「重ね撮りコース」を選択できないようにしてもよい。   If it is determined in S22 that the photographing time limit has not elapsed (NO in S22), the process returns to S16 and the selection of the photographing course is accepted. If the remaining time of the shooting limit time is shorter than the predetermined remaining time at this time, it is not possible to select the “overlap shooting course” that requires more time for shooting than the “beautiful shooting course” in S16. Good.

S22において、撮影制限時間が経過したと判断すれば(S22でYES)、タッチパネルディスプレイ11に撮影終了の画面を表示する(S23)。そして、CPU25aは、撮影ブース6において撮影した画像を所定の編集ブース22A(または22B)に転送し(S24)、ユーザに編集作業をさせるべく編集ブースへの案内を行い(S25)、処理をS12に戻す。   If it is determined in S22 that the shooting time limit has elapsed (YES in S22), a shooting completion screen is displayed on the touch panel display 11 (S23). Then, the CPU 25a transfers the image shot at the shooting booth 6 to the predetermined editing booth 22A (or 22B) (S24), guides the editing booth to allow the user to perform editing work (S25), and performs the processing at S12. Return to.

撮影を終えたユーザ7は撮影側の処理が終了したことになるので、撮影ブース6を出て、次の編集作業を行うべく、所定の編集ブース22に移動し、編集作業を開始する。   The user 7 who has finished photographing has finished the processing on the photographing side. Therefore, the user 7 leaves the photographing booth 6 and moves to a predetermined editing booth 22 to start the editing work in order to perform the next editing work.

(編集側の処理)
次に、編集側の処理を、図6〜図15を参照しながら説明する。図6は、編集側の処理を示すフローチャート、図7は、図6における編集画像の入力処理を示すフローチャート、図8は、図7における「ぷくぷくフレーム」機能についての処理を示すフローチャート、図9〜図15は、編集画像の入力処理時に、タブレットディスプレイ20に表示される編集画像などの例を示す図である。
(Editing process)
Next, processing on the editing side will be described with reference to FIGS. 6 is a flowchart showing processing on the editing side, FIG. 7 is a flowchart showing input processing of the edited image in FIG. 6, FIG. 8 is a flowchart showing processing regarding the “pukupuku frame” function in FIG. FIG. 15 is a diagram illustrating an example of an edited image displayed on the tablet display 20 during the editing image input process.

編集側の処理は、画像編集用コンピュータ装置23bの電源が投入されると、HDD26bに記憶されたプログラムがメモリ27bに自動的に展開され、CPU25bにより実行される処理である。編集側の処理を実行することにより、ユーザに対して、カメラ2で撮影された撮影画像に対する編集画像の入力を行えるようにする。   The process on the editing side is a process executed when the program stored in the HDD 26b is automatically expanded in the memory 27b and executed by the CPU 25b when the image editing computer device 23b is turned on. By executing the processing on the editing side, the user can input an edited image for the captured image captured by the camera 2.

編集側の処理として、図6に示すように、CPU25bは、まず初期化処理を行い(S40)、「先に撮影をしてね!」などの待機画面を表示する(S41)。そして、撮影側から撮影画像が転送されると(S42)、編集画像の入力処理を行う(S43)。この編集画像の入力処理では、ユーザ7はタッチペン19により、ペンツール、スタンプツール、フレームツールなどの好みの編集ツールを選択し、所定の編集画像を撮影画像に対して入力するが、この編集画像の入力処理については後で詳述する。   As processing on the editing side, as shown in FIG. 6, the CPU 25b first performs initialization processing (S40), and displays a standby screen such as “Please shoot first!” (S41). When the photographed image is transferred from the photographing side (S42), an edit image input process is performed (S43). In this edit image input process, the user 7 selects a favorite edit tool such as a pen tool, a stamp tool, and a frame tool with the touch pen 19 and inputs a predetermined edit image to the captured image. The input process will be described in detail later.

S43において、編集画像の入力処理が終了すると、CPU25bは、ユーザから印刷する画像の選択を受け付け(S44)、ユーザ7から、受け付けた印刷画像をシールシート17に印刷する際のレイアウトの選択を受け付け(S45)、印刷を実行して(S46)写真シール作成装置1の利用を終了させる。   When the editing image input process is completed in S43, the CPU 25b accepts selection of an image to be printed from the user (S44), and accepts selection of a layout for printing the accepted print image on the sticker sheet 17 from the user 7. (S45), printing is executed (S46), and use of the photo sticker creating apparatus 1 is terminated.

ここで、編集画像の入力処理について、図7〜図15を参照しながら説明する。   Here, editing image input processing will be described with reference to FIGS.

図7に示すように、編集画像の入力処理として、CPU25bはまず最初に、編集画面50(図9参照)をタブレットディスプレイ20に表示する(S51)。ここで、この編集画面50について説明すると、この編集画面50は、大きく左右の領域L、Rに分けられ、ユーザが左右に分かれて、左のユーザ7は左のタッチペン19Aで、右のユーザ7は右のタッチペン19Bで、それぞれの撮影画像(編集対象画像)に編集画像の入力を行えるようにされている。   As shown in FIG. 7, as an editing image input process, the CPU 25b first displays an editing screen 50 (see FIG. 9) on the tablet display 20 (S51). Here, the editing screen 50 will be described. The editing screen 50 is roughly divided into left and right areas L and R, the user is divided into left and right, the left user 7 is the left touch pen 19A, and the right user 7 is divided. In the right touch pen 19B, an edited image can be input to each captured image (image to be edited).

この編集画面50には、編集作業(編集プレイ)が可能な残り時間を表示するタイマ51、撮影画像を表示して編集画像を描画するための編集エリア52、複数のツールを選択するための編集ツールボタン53、各編集ツールボタン53に対応したサンプル画像54を表示するサンプル画像表示エリア55、入力した編集画像上にタッチペン19のペン先を当て、任意の軌跡を描くことで、その軌跡に合わせて前記編集画像を消去する消しゴムボタン56、編集画像の入力工程を一つ前の段階に戻す「戻る」ボタン57a、「戻る」ボタン57aにより戻した工程を一つ先の段階に進める「進む」ボタン57b、選択されている撮影画像(編集対象画像)に対する編集画像の入力を最初からやり直す「はじめから」ボタン57c、ペンツール選択時におけるペン画像の太さなどを変更するための太さ変更ボタン58、編集画像の入力作業を終了する「おしまい」ボタン59、選択されることで、サムネイル表示されている画像を編集エリア52に表示するサムネイル表示ボタン60などが表示されている。ちなみに、図9に示す編集画面50は、初期設定時の画面であり、編集エリア52には、任意の撮影画像が表示され、編集ツールとしてはペンツールが選択され、さらに、ペンツールにおけるサンプル画像54としては、パレット表示されている複数のサンプル画像54のうち、左上に位置するサンプル画像54が選択されている状態とされている。   The editing screen 50 includes a timer 51 that displays the remaining time during which editing work (editing play) is possible, an editing area 52 for displaying a captured image and drawing the edited image, and editing for selecting a plurality of tools. A tool button 53, a sample image display area 55 for displaying a sample image 54 corresponding to each editing tool button 53, a pen tip of the touch pen 19 is placed on the input edited image, and an arbitrary trajectory is drawn to match the trajectory. The eraser button 56 for erasing the edited image, the “return” button 57a for returning the edit image input process to the previous stage, and the process returned by the “return” button 57a is advanced to the next stage. A button 57b, a "start from" button 57c for re-inputting an edited image from the beginning for the selected photographed image (image to be edited), a pen tool A selection button 58 for changing the thickness of the pen image at the time of selection, an “end” button 59 for ending the input operation of the edited image, and selecting the image displayed as a thumbnail by selecting the editing area 52 A thumbnail display button 60 to be displayed is displayed. Incidentally, the editing screen 50 shown in FIG. 9 is a screen at the time of initial setting. An arbitrary captured image is displayed in the editing area 52, a pen tool is selected as an editing tool, and a sample image 54 in the pen tool is displayed. Is a state in which the sample image 54 located in the upper left is selected from the plurality of sample images 54 displayed in the palette.

なお、本実施の形態においては、CPU25bが、タッチペン19Aおよびタッチペン19Bからタブレットディスプレイ20に対してされる入力を、所定の僅かな間隔で交互に受け付けているので、ユーザが領域L、Rの両方において独立かつ並行して編集画像の入力を行えるようにされている。しかしながら、以下、図7〜図15を参照する説明においては、説明の複雑化を避けるため、領域Lで行われる編集作業については説明を省略し、領域Rで行われる編集作業についての説明をする。   In the present embodiment, the CPU 25b alternately accepts input from the touch pen 19A and the touch pen 19B to the tablet display 20 at a predetermined slight interval, so that the user can use both the regions L and R. In FIG. 5, the edited image can be input independently and in parallel. However, in the following description with reference to FIGS. 7 to 15, the description of the editing work performed in the region R will be omitted and the editing work performed in the region R will be described in order to avoid complicated description. .

説明を図7のフローチャートに戻して、S51において編集画面50を表示すると、S52において、CPU25bは、ユーザ7によるタッチペン19Bの操作により、編集ツールボタン53における「ぷくぷくフレーム」ボタン53dが選択されたかを判断する。S52において、「ぷくぷくフレーム」ボタン53dが選択されたと判断した場合(S52でYES)には、S53にてぷくぷくフレームツールによる処理(詳細は後述)を行い、「ぷくぷくフレーム」ボタン53dが選択されていないと判断した場合(S52でNO)には、S54において、ユーザ7によるタッチペン19Bの操作により、編集ツールボタン53における「カラーチェンジ」ボタン53eが選択されたかを判断する。   Returning to the flowchart of FIG. 7, when the editing screen 50 is displayed in S51, in S52, the CPU 25b determines whether or not the “pukupuku frame” button 53d in the editing tool button 53 is selected by the operation of the touch pen 19B by the user 7. to decide. If it is determined in S52 that the “pukupuku frame” button 53d has been selected (YES in S52), the Pukupuku frame tool performs processing (details will be described later) in S53, and the “pukupuku frame” button 53d has been selected. If it is determined that there is not (NO in S52), it is determined in S54 whether or not the "color change" button 53e in the editing tool button 53 is selected by the operation of the touch pen 19B by the user 7.

S54において、「カラーチェンジ」ボタン53eが選択されたと判断した場合(S54でYES)には、S55にてカラーチェンジツールによる処理(詳細は後述)を行い、「カラーチェンジ」ボタン53eが選択されていないと判断した場合(S54でNO)には、S56において、ユーザ7によるタッチペン19Bの操作により、その他の編集ツールボタン53a〜53cの何れかが選択されたかを判断する。   If it is determined in S54 that the “color change” button 53e has been selected (YES in S54), processing by the color change tool (details will be described later) is performed in S55, and the “color change” button 53e has been selected. If it is determined that there is not (NO in S54), it is determined in S56 whether any of the other editing tool buttons 53a to 53c is selected by the operation of the touch pen 19B by the user 7.

S56において、その他の編集ツールボタン53として、ペンツールボタン53a、フレームツールボタン53b、スタンプツールボタン53cの何れかが選択されたと判断した場合(S56でYES)には、S57において、選択されたツールボタンに対応する編集画像の入力処理を行う。これらの処理は既に知られているので、ここでは特に説明はしない。また、S57の処理が終了した場合には処理をS52に戻すが、S57の処理の途中において、「おしまい」ボタン59が選択された場合には、当然に、処理は編集画像の入力処理を抜け、図6に示す編集側の処理に戻る。   If it is determined in S56 that any of the pen tool button 53a, the frame tool button 53b, and the stamp tool button 53c is selected as the other editing tool button 53 (YES in S56), the selected tool button is selected in S57. The input process of the edited image corresponding to is performed. Since these processes are already known, they are not specifically described here. When the process of S57 is completed, the process returns to S52. However, if the “end” button 59 is selected during the process of S57, the process naturally goes out of the edit image input process. Returning to the processing on the editing side shown in FIG.

説明を図7に戻して、S56において、ペンツールボタン53a、フレームツールボタン53b、スタンプツールボタン53cの何れも選択されていないと判断した場合(S56でNO)には、S58において、その他の機能ボタンが選択されたかを判断する。ここで、他の機能ボタンとは、消しゴムボタン56、「戻る」ボタン57a、「進む」ボタン57b、「はじめから」ボタン57c、「おしまい」ボタン59、サムネイル表示ボタン60などである。   Returning to FIG. 7, if it is determined in S56 that none of the pen tool button 53a, the frame tool button 53b, and the stamp tool button 53c has been selected (NO in S56), the other function buttons in S58. Determine whether is selected. Here, the other function buttons include an eraser button 56, a “return” button 57a, a “forward” button 57b, a “start” button 57c, a “end” button 59, a thumbnail display button 60, and the like.

S58において、その他の機能ボタンが選択されたと判断すると(S58でYES)、S59において選択されたボタンが「おしまい」ボタン59であるかを判断する。選択された機能ボタンが「おしまい」ボタン59であると判断した場合には、編集画像の入力処理を抜けて、処理を図6に示す編集側の処理に戻す。また、S59において「おしまい」ボタン59ではないと判断した場合(S59でNO)には、S60において、選択された機能ボタンに対応する処理を行う。具体的には、例えば、消しゴムボタン56が選択された場合には「消しゴム」の処理、「戻る」ボタン57aが選択された場合には「戻る」の処理、「進む」ボタン57bが選択された場合には「進む」の処理、「はじめから」ボタン57cが選択された場合には「はじめから」の処理、サムネイル表示ボタン60が選択された場合には、サムネイル画像を編集エリア52に表示するなどの処理を行う。S60の処理を終えると、処理をS52に戻す。なお、上記の機能ボタンに対応する処理は、既に知られているので、ここでは詳細な説明を省略する。   If it is determined in S58 that another function button has been selected (YES in S58), it is determined whether the button selected in S59 is the “end” button 59 or not. If it is determined that the selected function button is the “end” button 59, the editing image input process is exited, and the process returns to the editing process shown in FIG. If it is determined in S59 that the button is not the “end” button 59 (NO in S59), processing corresponding to the selected function button is performed in S60. Specifically, for example, when the eraser button 56 is selected, the “eraser” process is selected, when the “return” button 57a is selected, the “return” process is selected, and the “forward” button 57b is selected. In this case, the “proceeding” process, the “starting from” button 57c is selected, the “starting from” process is selected, and if the thumbnail display button 60 is selected, the thumbnail image is displayed in the editing area 52. Process such as. When the process of S60 is completed, the process returns to S52. Since the processing corresponding to the above function buttons is already known, detailed description thereof is omitted here.

また、S58において、その他の機能ボタンが選択されていないと判断すると(S58でNO)、S61において、編集作業の制限時間が経過したかを判断し、経過したと判断した場合(S61でYES)には、編集画像の入力処理を抜けて、処理を図6に示す編集側の処理に戻す。S61において、編集作業の制限時間が経過していないと判断した場合(S61でNO)には、処理をS52に戻す。   If it is determined in S58 that no other function button is selected (NO in S58), it is determined in S61 whether the time limit for editing work has elapsed, and if it is determined that it has elapsed (YES in S61). In this case, the editing image input process is exited, and the process returns to the editing process shown in FIG. If it is determined in S61 that the time limit for editing work has not elapsed (NO in S61), the process returns to S52.

ここで、ぷくぷくフレームツールによる処理を、図8を参照しながら説明する。この「ぷくぷくフレーム」機能は、例えば図10に示すように、あらかじめ、パタン情報1〜パタン情報3(詳細は後述)に対応したパタン画像としてのフレーム画像をHDD26bに記憶させた状態で(本実施の形態では3種類)、ユーザに、サンプル画像を選択させ、タッチペン19Bによる操作によりパタン情報を設定させることで、その設定されたパタン情報に対応するフレーム画像を、編集エリア52上に描画する機能である。このパタン情報とは、パタン画像、すなわち「ぷくぷくフレーム」機能で使用できるフレーム画像に与えられる情報であり、あらかじめHDD26bに記憶された複数種類のフレーム画像の中から、選択中のサンプル画像54についての所定のフレーム画像を特定するための情報である。また、この「ぷくぷくフレーム」機能で使用できるフレーム画像は、図10に示すように、フレーム画像を構成する最小単位の図柄である模様画像75から構成されており、それぞれのパタン情報に対応する画像は、CPU25bが備える調整手段としての機能により、模様画像75の分布および/または密度が異なるようにされている。なお、この調整手段による分布および/または密度の調整は、CPU25bが任意に調整してもよいし、あらかじめ調整後の画像をHDD26bに記憶させておき、それらを順に画面に描画させるようにしてもよい。本実施の形態では、後者の場合を説明する。   Here, processing by the Puku Puku frame tool will be described with reference to FIG. For example, as shown in FIG. 10, this “pukupuku frame” function is a state in which a frame image as a pattern image corresponding to pattern information 1 to pattern information 3 (details will be described later) is stored in the HDD 26b in advance (this embodiment). In this mode, the user can select a sample image and set the pattern information by operating the touch pen 19B, thereby drawing a frame image corresponding to the set pattern information on the editing area 52. It is. This pattern information is information given to a pattern image, that is, a frame image that can be used with the “pump frame” function, and is selected from a plurality of types of frame images stored in advance in the HDD 26b. This is information for specifying a predetermined frame image. Further, as shown in FIG. 10, the frame image that can be used with this “pukupuku frame” function is composed of a pattern image 75 that is a symbol of the smallest unit constituting the frame image, and an image corresponding to each pattern information. Is different from the distribution and / or density of the pattern image 75 by the function of the adjusting means provided in the CPU 25b. The distribution and / or density adjustment by the adjusting means may be arbitrarily adjusted by the CPU 25b, or the adjusted images may be stored in advance in the HDD 26b and drawn on the screen in order. Good. In the present embodiment, the latter case will be described.

図7に示したS52において「ぷくぷくフレーム」ボタン53dが選択されたと判断すると、CPU25bは、図8に示すように、S71として、「ぷくぷくフレーム」におけるパレット情報を初期化する。このパレット情報は、例えば「現在選択されているサンプル画像がどれであるか」という情報、およびそのサンプル画像についてのパタン情報を有する。パレット情報を初期化すると、S72として、図11に示すように、編集画面50の表示を切り替える。すなわち、領域Rに対するユーザにより「ぷくぷくフレーム」ボタン53dが選択されたことを示すべく、この「ぷくぷくフレーム」ボタン53dにカーソルを表示し、また、ぷくぷくフレーム機能に対応したサンプル画像54をサンプル画像表示エリア55に表示する。ちなみに、上記の初期化処理によって、初期状態で選択されているサンプル画像54は、左上に表示されているサンプル画像とされ、さらに、このサンプル画像54に対応するパタン情報は「1」に設定されている。   If it is determined in S52 shown in FIG. 7 that the “pukupuku frame” button 53d has been selected, the CPU 25b initializes palette information in the “pukupuku frame” in S71 as shown in FIG. The palette information includes, for example, information “which sample image is currently selected” and pattern information about the sample image. When the palette information is initialized, the display of the editing screen 50 is switched as shown in FIG. 11 in S72. That is, a cursor is displayed on the “pukupuku frame” button 53d to indicate that the “pukupuku frame” button 53d has been selected by the user for the region R, and a sample image 54 corresponding to the pukupuku frame function is displayed as a sample image. Display in area 55. Incidentally, the sample image 54 selected in the initial state by the above-described initialization process is the sample image displayed in the upper left, and the pattern information corresponding to this sample image 54 is set to “1”. ing.

S72において編集画面50の表示を変えると、S73において、CPU25bは、他のタグ61(図11参照)が選択されたかを判断する。S73において、他のタグ61が選択されたと判断すると、そのタグ61に対応するサンプル画像54をサンプル画像表示エリア55に表示する(図示は省略)とともに、そのタグにおけるパレット情報を初期化する(S74)。また、S73において、他のタグ61が選択されていないと判断(S73でNO)すると、S75において、初期状態で設定されているサンプル画像54(または既に選択されているサンプル画像)から他のサンプル画像(例えば、図11中の54a)に変更されたか、すなわち他のサンプル画像54aが選択されたかを判断する。他のサンプル画像54aが選択されたと判断した場合(S75でYES)には、そのサンプル画像54aについてのパタン情報を「1」に設定する(S76)。また、他のサンプル画像54aが選択されていないと判断した場合(S75でNO)には、処理をS77に進める。   When the display of the editing screen 50 is changed in S72, the CPU 25b determines in S73 whether another tag 61 (see FIG. 11) has been selected. If it is determined in S73 that another tag 61 has been selected, the sample image 54 corresponding to that tag 61 is displayed in the sample image display area 55 (not shown), and the palette information in that tag is initialized (S74). ). If it is determined in S73 that no other tag 61 has been selected (NO in S73), in S75, another sample is selected from the sample image 54 (or a sample image that has already been selected) set in the initial state. It is determined whether the image has been changed to an image (for example, 54a in FIG. 11), that is, whether another sample image 54a has been selected. If it is determined that another sample image 54a has been selected (YES in S75), the pattern information for that sample image 54a is set to “1” (S76). If it is determined that another sample image 54a has not been selected (NO in S75), the process proceeds to S77.

S77では、CPU25bは、ユーザによるタッチペン19Bの操作により編集エリア52が選択(タッチ)されたかを判断する。S77において、編集エリア52が選択されたと判断すると(S77でYES)、S78において、CPU25bは、パタン情報に対応するフレーム画像を編集エリア52に描画する。ここで、パタン情報1に対応するフレーム画像が描画された編集エリア52の例を、図12(a)に示す。なお、S77において、編集エリア52が選択されていないと判断した(S77でNO)場合については後述する。   In S77, the CPU 25b determines whether the editing area 52 has been selected (touched) by the operation of the touch pen 19B by the user. If it is determined in S77 that the editing area 52 has been selected (YES in S77), the CPU 25b draws a frame image corresponding to the pattern information in the editing area 52 in S78. Here, FIG. 12A shows an example of the editing area 52 in which the frame image corresponding to the pattern information 1 is drawn. Note that the case where it is determined in S77 that the editing area 52 has not been selected (NO in S77) will be described later.

S78において、パタン情報に対応するフレーム画像を編集エリア52に描画すると、次に、現在選択されているサンプル画像54のパタン情報が「3」であるかを判断する(S79)。上記の場合、パタン情報は「1」であるので、ここでは処理をS80に進め、パタン情報を1増やす。すなわちパタン情報を「2」に設定する。そして、処理をS73に戻す。   If the frame image corresponding to the pattern information is drawn in the editing area 52 in S78, it is next determined whether or not the pattern information of the currently selected sample image 54 is “3” (S79). In the above case, since the pattern information is “1”, the process proceeds to S80 and the pattern information is incremented by 1. That is, the pattern information is set to “2”. Then, the process returns to S73.

S73において、サンプル画像54は既に選択された状態であり、さらに、そのパタン情報は「2」である。ここでユーザが新たに他のタグ61を選択した場合(S73でYES)には、処理を74に進め、上述のようにS74以降の処理を行う。また、ユーザが他のタグ61を選択しなかった場合(S73でNO)や、他のサンプル画像54aを選択しなかった場合(S75でNO)には、そのままの状態、すなわち選択されているサンプル画像54のパタン情報が「2」の状態で、S77以降の処理が行われる。S77において、編集エリア52が選択されたと判断すると(S77でYES)、CPU25bは、S78において、図12(b)に示すような、パタン情報2に対応するフレーム画像を編集エリア52に表示する。なお、図12(b)に示す表示例は、図12(a)に示す表示例に対して、図10(a)におけるパタン情報2に対応するフレーム画像が重ねて表示された状態、すなわち編集エリア52に、パタン情報1に対応するフレーム画像およびパタン情報2に対応するフレーム画像が表示された状態を示している。また、図12(b)における斜め方向のハッチングは、説明の都合上、パタン情報1に対応するフレーム画像に対して施したものであり、実際の編集エリア52には表示されない。   In S73, the sample image 54 is already selected, and the pattern information is “2”. If the user newly selects another tag 61 (YES in S73), the process proceeds to 74, and the processes after S74 are performed as described above. Further, when the user does not select another tag 61 (NO in S73) or when the user does not select another sample image 54a (NO in S75), the state as it is, that is, the selected sample. In the state where the pattern information of the image 54 is “2”, the processes after S77 are performed. If it is determined in S77 that the editing area 52 has been selected (YES in S77), the CPU 25b displays a frame image corresponding to the pattern information 2 in the editing area 52 as shown in FIG. In the display example shown in FIG. 12B, the frame image corresponding to the pattern information 2 in FIG. 10A is displayed superimposed on the display example shown in FIG. In the area 52, a frame image corresponding to the pattern information 1 and a frame image corresponding to the pattern information 2 are displayed. Further, the hatching in the oblique direction in FIG. 12B is performed on the frame image corresponding to the pattern information 1 for convenience of explanation, and is not displayed in the actual editing area 52.

そして、説明を図8に戻して、上記と同様にS79、S80、S73〜S77の処理を繰り返し、サンプル画像54のパタン情報が「3」に設定された状態でS78に進むと、図12(c)に示すように、パタン情報3に対応するフレーム画像を編集エリア52に表示する。なお、図12(c)に示す表示例は、図12(b)に示す表示例に対して、図10(a)におけるパタン情報3に対応するフレーム画像が重ねて表示された状態、すなわち編集エリア52に、パタン情報1に対応するフレーム画像、パタン情報2に対応するフレーム画像およびパタン情報3に対応するフレーム画像が表示された状態を示している。また、図12(c)における斜め方向のハッチングは、説明の都合上、パタン情報1に対応するフレーム画像に対して施したものであり、横方向のハッチングは、パタン情報2に対応するフレーム画像に対して施したものであり、これらのハッチングは、ともに実際の編集エリア52には表示されない。   Returning to FIG. 8, when the processing of S79, S80, and S73 to S77 is repeated in the same manner as described above and the pattern information of the sample image 54 is set to “3”, the process proceeds to S78. As shown in c), the frame image corresponding to the pattern information 3 is displayed in the editing area 52. The display example shown in FIG. 12C is a state in which the frame image corresponding to the pattern information 3 in FIG. 10A is displayed superimposed on the display example shown in FIG. In the area 52, a frame image corresponding to the pattern information 1, a frame image corresponding to the pattern information 2, and a frame image corresponding to the pattern information 3 are displayed. In addition, the hatching in the diagonal direction in FIG. 12C is performed on the frame image corresponding to the pattern information 1 for convenience of explanation, and the hatching in the horizontal direction is a frame image corresponding to the pattern information 2. Both of these hatchings are not displayed in the actual editing area 52.

そして、説明を図8に戻して、S79において、パタン情報が「3」であると判断される(S79でYES)ので、このサンプル画像54のパタン情報を「1」に戻し(S81)、処理をS73に戻す。   Returning to FIG. 8, since it is determined in S79 that the pattern information is “3” (YES in S79), the pattern information of this sample image 54 is returned to “1” (S81), and the processing is performed. To S73.

このような処理をすることで、ユーザ7が「ぷくぷくフレーム」ボタン53dを選択し、所定のサンプル画像54を選択したうえで編集エリア52をタッチペン19でタッチするたびに、図12(a)〜図12(c)に示すようにフレーム画像が順に、編集エリア52上に表示される。   By performing such processing, whenever the user 7 selects the “pump frame” button 53d, selects a predetermined sample image 54, and touches the editing area 52 with the touch pen 19, FIG. As shown in FIG. 12C, the frame images are displayed in order on the editing area 52.

上記のように、フレーム画像は、CPU25bが備える調整手段としての機能により、模様画像75の分布および/または密度が調整されるので、例えば従来では、一度の操作で入力していた編集画像を、数回に分けて徐々に入力することができ、ユーザに対して驚きを与えることができる。また、ユーザ7は、所定のタイミングでタブレットディスプレイ20に対してタッチ等の入力を行うことで、このタブレットディスプレイ20に対してパタン情報を入力することができ、CPU25bは、この入力に基づいてパタン情報を取得し、取得したパタン情報に対応するパタン画像を特定し、特定したパタン画像を編集エリア52における所定の位置に表示するので、ユーザは、所望のフレーム画像を、自分自身のペースで選択することができ、思い通りの編集を容易に行うことができる。また、特定されたフレーム画像は、所定の位置に表示されるので、初めて使用するユーザや操作に不慣れなユーザであっても、フレーム画像の表示位置に違いが出ないため、上記のようなユーザであっても、フレーム画像の入力を上手く行うことができ、貴重な編集時間を効率的に使用することができる。さらに、特定された画像は、上述のように所定の位置に表示されるので、例えば、表示される前に編集画像の図柄や色が変化する場合に比べて、撮影画像に対する大きさや色合いなどのバランスを容易に確認することができ、所望しない編集画像が入力されることを抑制することができる。   As described above, since the distribution and / or density of the pattern image 75 is adjusted by the function as the adjustment means provided in the CPU 25b, for example, an edited image that has been input in one operation in the past is Input can be made gradually in several times, and the user can be surprised. In addition, the user 7 can input pattern information to the tablet display 20 by performing an input such as touch on the tablet display 20 at a predetermined timing, and the CPU 25b performs patterning based on the input. Since the information is acquired, the pattern image corresponding to the acquired pattern information is specified, and the specified pattern image is displayed at a predetermined position in the editing area 52, the user can select the desired frame image at his / her own pace. Can be edited easily. In addition, since the specified frame image is displayed at a predetermined position, even if it is a user who is using it for the first time or a user who is unfamiliar with the operation, there is no difference in the display position of the frame image. Even so, it is possible to input frame images well, and valuable editing time can be used efficiently. Furthermore, since the specified image is displayed at a predetermined position as described above, for example, the size and hue of the captured image are compared with the case where the design or color of the edited image changes before being displayed. The balance can be easily confirmed, and input of an undesired edited image can be suppressed.

説明を図8に戻して、上記のS77において、編集エリア52が選択されていないと判断した場合(S77でNO)には、S82において、パレット以外の箇所のボタン、すなわち他の編集ツールボタン53や機能ボタンが選択されたかを判断し、選択されたと判断した場合(S82でYES)には、ぷくぷくフレーム処理を抜け、処理を図7におけるS58に戻す。   Returning to FIG. 8, when it is determined in S77 that the editing area 52 has not been selected (NO in S77), buttons other than the palette, that is, other editing tool buttons 53 are selected in S82. It is determined whether or not a function button has been selected. If it is determined that the button has been selected (YES in S82), the frame process is exited, and the process returns to S58 in FIG.

S82において、パレット以外の箇所のボタンが選択されていないと判断した場合(S82でNO)には、処理をS73に戻す。なお、図8には示していないが、このぷくぷくフレーム処理の途中においても、編集制限時間が経過していないかは常に監視されており、編集制限時間が経過したと判断した場合には、当然に、編集画像の入力処理は終了される。   If it is determined in S82 that any button other than the palette is not selected (NO in S82), the process returns to S73. Although not shown in FIG. 8, it is always monitored whether the editing time limit has elapsed even during the frame processing, and when it is determined that the editing time limit has elapsed, Then, the editing image input process is terminated.

以上が、「ぷくぷくフレーム」機能により編集画像の入力をする場合の説明であるが、上記の説明において、例えば図11では、サンプル画像54としてパタン情報「1」に対応する画像のみが示されているが、これに限らず、例えば図13(a)に示すように、全てのパタン情報に対応するサンプル画像を一括して表示しても良いし、図13(b)に示すように、パタン情報1〜3に対応するフレーム画像を重ねて表示した画像のみを表示するようにしてもよい。   The above is the description of the case where the edited image is input by the “pump frame” function. In the above description, for example, in FIG. 11, only the image corresponding to the pattern information “1” is shown as the sample image 54. However, the present invention is not limited to this. For example, as shown in FIG. 13A, sample images corresponding to all pattern information may be displayed in a lump, or as shown in FIG. Only an image in which frame images corresponding to the information 1 to 3 are displayed in an overlapping manner may be displayed.

また、上記のパタン情報1〜パタン情報3に対応するパタン画像としては、図10に示した場合のように、パタン情報が1から3に進むにつれて、図柄が表示されていない空白の部分(非描画領域)に図柄が詰められるようにしても良いし、図14(a)に示すように、パタン情報が1から3に変化するのに伴って、全く異なる画像が表示されるようにしても良い。また、この場合は、パタン情報1に対応する画像にパタン情報2に対応する画像が重ねられる場合でもよいし、パタン情報1に対応する画像とパタン情報2に対応する画像とが切り替えられる場合であってもよい(なお、パタン情報3に対応する画像も同様である)。   Further, as the pattern image corresponding to the pattern information 1 to pattern information 3 described above, as shown in FIG. 10, as the pattern information progresses from 1 to 3, a blank portion where no symbol is displayed (non-display) The drawing area may be filled with symbols or, as shown in FIG. 14A, a completely different image may be displayed as the pattern information changes from 1 to 3. good. In this case, the image corresponding to the pattern information 1 may be superimposed on the image corresponding to the pattern information 1, or the image corresponding to the pattern information 1 and the image corresponding to the pattern information 2 may be switched. It may be present (the same applies to the image corresponding to the pattern information 3).

さらに、図14(b)に示すように、パタン情報が1から3に進むにつれて、配置されるフレーム画像が、編集エリア52の外側から内側に配置されるようにしてもよい(図中の破線は、Aがパタン情報1に対応するフレーム画像が描画される領域の境界、Bがパタン情報2に対応するフレーム画像が描画される領域の境界、Cがパタン情報3に対応するフレーム画像が描画される領域の境界を示しており、実際の編集エリア52には表示されない)。   Furthermore, as shown in FIG. 14B, as the pattern information advances from 1 to 3, the frame images to be arranged may be arranged from the outside to the inside of the editing area 52 (broken line in the figure). A is the boundary of the area where the frame image corresponding to the pattern information 1 is drawn, B is the boundary of the area where the frame image corresponding to the pattern information 2 is drawn, and C is the frame image corresponding to the pattern information 3 The boundary of the area to be displayed is shown and is not displayed in the actual editing area 52).

このようにすることで、例えば図14(b)に示すように、ユーザ7が全身撮影を行って、撮影画像の周縁部とユーザ7との間に大きな隙間が生じる場合であっても、ぷくぷくフレーム機能により表示されるフレーム画像が、パタン情報の変化により徐々に写真の中央部側に描画されることで、上記のような隙間にフレーム画像を詰めるようにして描画することができ、前記隙間が目立たない、仕上がり具合の良好な写真を作成することができる。またこの場合、図14(c)に示すように、ユーザがアップ撮影を行った際に、パタン情報1に対応するフレーム画像を表示しただけでは、前述した隙間は完全に詰められずフレーム画像が表示される領域としては不十分であり、逆に、パタン情報3に対応するフレーム画像までを表示してしまうと、表示されるフレーム画像がユーザの顔に重なってしまい、好適な仕上がりとはならない。したがって、このような場合には、表示させるフレーム画像を、パタン情報2に対応するフレーム画像にとどめることで、前述した隙間の問題も解消され、かつ、フレーム画像がユーザの顔に重なることを防止することができ、仕上がり具合の良好な写真を得ることができる。   In this way, for example, as shown in FIG. 14B, even when the user 7 performs whole body photographing and a large gap is generated between the peripheral portion of the photographed image and the user 7, The frame image displayed by the frame function is gradually drawn on the center side of the photograph due to the change of the pattern information, so that the frame image can be drawn so as to fill the gap as described above. This makes it possible to create a photo that is inconspicuous and has a good finish. Further, in this case, as shown in FIG. 14C, when the user performs the up-shooting, the frame image is not completely closed only by displaying the frame image corresponding to the pattern information 1. The displayed area is insufficient, and conversely, if a frame image corresponding to the pattern information 3 is displayed, the displayed frame image overlaps the user's face, which is not a preferable finish. . Therefore, in such a case, by limiting the frame image to be displayed to the frame image corresponding to the pattern information 2, the above-mentioned gap problem is solved and the frame image is prevented from overlapping the user's face. It is possible to obtain a photograph with good finish.

また、上記では、ぷくぷくフレーム機能についてのみ説明しているが、図15に示すように、ぷくぷくフレームだけでなく、「ぷくぷくスタンプ」なる機能を設けて、ぷくぷくフレーム同様、パタン情報に対応するスタンプ画像をあらかじめ用意しておき、ユーザが指定したパタン情報に対応するスタンプ画像を、編集エリア52に描画するようにしてもよい。なお、ぷくぷくスタンプを実施する際の処理は、ぷくぷくフレームの場合と同様であるので、詳細な説明は省略する。   In the above description, only the Puku Puku frame function is described. However, as shown in FIG. 15, not only a Puku Puku frame but also a “Puku Puku stamp” function is provided, and a stamp image corresponding to pattern information is provided as in the Puku Puku frame. May be prepared in advance, and a stamp image corresponding to the pattern information designated by the user may be drawn in the editing area 52. Note that the processing for carrying out the stamping is the same as that for the punching frame, and a detailed description thereof will be omitted.

また、上記の場合には、パタン情報の入力動作(タブレットディスプレイ20へのタッチ動作)に基づいて、表示するパタン画像を変更させている場合を説明しているが、これに限らず、例えば、ユーザ7がタッチペン19をタブレットディスプレイ20に接触させている間、パタン画像が順に切り替わって表示されるようにしても良い。さらに、このように、ユーザ7がタッチペン19をタブレットディスプレイ20に接触させている間、パタン画像の分布および/または密度が連続的に変化するような表示にしてもよい。   Moreover, although the case where the pattern image to display is changed based on the input operation (touch operation to the tablet display 20) of pattern information is described in the above case, the present invention is not limited to this. While the user 7 is touching the touch pen 19 with the tablet display 20, the pattern images may be sequentially switched and displayed. Further, in this way, the display may be such that the distribution and / or density of the pattern image changes continuously while the user 7 is in contact with the tablet display 20.

なお、上記の例では、図12に示すように、パタン情報1に対応するフレーム画像の上にパタン情報2に対応するフレーム画像、パタン情報2に対応するフレーム画像の上にパタン情報3に対応するフレーム画像を重ねて表示するようにしているが、これに限らず、パタン情報2に対応するフレーム画像を編集エリア52に表示する際には、パタン情報1に対応するフレーム画像に代えて、パタン情報2に対応するフレーム画像を描画してもよい(パタン情報3に対応するフレーム画像の場合も同様)。   In the above example, as shown in FIG. 12, the frame image corresponding to the pattern information 2 on the frame image corresponding to the pattern information 1 and the pattern information 3 on the frame image corresponding to the pattern information 2 are supported. However, the present invention is not limited to this. When a frame image corresponding to the pattern information 2 is displayed in the editing area 52, the frame image corresponding to the pattern information 1 is replaced with the frame image. A frame image corresponding to the pattern information 2 may be drawn (the same applies to the frame image corresponding to the pattern information 3).

さらに、パタン情報1〜3に対応するフレーム画像が経時的な変化を示すような画像、例えばパタン情報1〜3に対応するフレーム画像が画面の上側から徐々に雪が降ってくるような画像であってもよい。すなわち、上記の「ぷくぷくフレーム」機能は、ユーザが設定するパタン情報に対応して編集エリア52に表示されるフレーム画像を異ならせて表示させる機能である。   Further, the frame image corresponding to the pattern information 1 to 3 shows an image showing a change over time, for example, the frame image corresponding to the pattern information 1 to 3 is snowing gradually from the upper side of the screen. May be. That is, the “pump frame” function is a function for displaying the frame image displayed in the editing area 52 in a different manner corresponding to the pattern information set by the user.

次に、編集画像の入力時に、ユーザが「カラーチェンジ」なる機能を使用する場合の説明を、図16〜図28を参照して行う。   Next, a description will be given with reference to FIGS. 16 to 28 when the user uses the function “color change” when inputting an edited image.

〔カラーチェンジ〕
カラーチェンジツールによる機能は、「重ね撮りコース」により撮影された重ね撮影画像に対して、例えば、一番前景に設定されたユーザの画像(人物画像)の色調はそのままにして、それ以外の人物画像の色調を変更する機能である。したがって、ここではまず、図5におけるS26の「重ね撮り」について説明する。
[Color change]
The function of the color change tool is that, for example, the color of the user's image (person image) set as the foreground is left as it is for the superimposed image captured by the “overlapping shooting course”, and the other person This function changes the color tone of an image. Therefore, first, “overlapping” in S26 in FIG. 5 will be described.

「重ね撮り」の処理としては、まず、図16に示すように、S261として、重ね撮影の回数を0回に設定し、次に、S262で明るさ選択、S263で背景画像の選択を受け付ける。そして、S264として、CPU25aは、図4に示すように、クロマキーキャプチャーボード28により、カメラ2から取り込んだ画像とS263で選択された背景画像とをクロマキ合成処理する。詳細には、撮影ブース6におけるユーザ7の背景として、上述のように緑一色の背景カーテン18aが展開されており、クロマキ合成処理として、カメラ2から取り込んだ画像における緑色の部分(人物画像以外の領域)と緑色以外の部分(人物画像領域)とを分けるマスクを用いて、前記緑色の部分にS263で選択された背景画像を合成する。これにより、S263で選択された背景画像がユーザの背景となった撮影画像が生成される。   As the “overshoot” process, first, as shown in FIG. 16, the number of overlap shots is set to 0 in S261, then the brightness is selected in S262 and the background image is selected in S263. In S264, as shown in FIG. 4, the CPU 25a uses the chroma key capture board 28 to perform a chromachase process on the image captured from the camera 2 and the background image selected in S263. Specifically, the background curtain 18a of one green color is developed as the background of the user 7 in the shooting booth 6, and the green portion (other than the person image) in the image captured from the camera 2 is used as the chromachal synthesis process. The background image selected in S263 is combined with the green portion using a mask that separates the region) and the non-green portion (person image region). As a result, a captured image is generated in which the background image selected in S263 is the background of the user.

そして、S265において、図17に示すように、タッチパネルディスプレイ11にライブ画像を表示するとともに、S266において、重ね撮りの見本画像62をタッチパネルディスプレイ11に表示し、S267にてシャッタ動作を行ってユーザを撮影する。なお、本実施の形態では、「重ね撮り」撮影として合計3回の撮影を行うものとし、図17に示すように、タッチパネルディスプレイ11の右上には、全shot数のうち現在は何shot目なのかが表示される。   In S265, as shown in FIG. 17, the live image is displayed on the touch panel display 11, and in S266, the sample image 62 of the overlap shot is displayed on the touch panel display 11, and the shutter operation is performed in S267 and the user is selected. Take a picture. In the present embodiment, a total of three shootings are performed as “overlapping” shooting, and as shown in FIG. 17, at the upper right of the touch panel display 11, what is the current shot number among the total number of shots. Is displayed.

そして、シャッタ動作を行うと、S268において、重ね撮影回数を1回加算し、次に、重ね撮影回数が3回かを判断する(S269)。この段階では、重ね撮影回数は1回であるので処理をS270に進め、重ね撮影回数が2回であるかを判断する(S270)。この段階では、重ね撮影回数は1回であるので、処理をS271に進める。   When the shutter operation is performed, in S268, the number of times of overlapping shooting is added once, and then it is determined whether the number of times of overlapping shooting is 3 (S269). At this stage, since the number of times of overlapping shooting is one, the process proceeds to S270, and it is determined whether the number of times of overlapping shooting is two (S270). At this stage, since the number of times of overlap shooting is 1, the process proceeds to S271.

S271においては、図18(a)、図19(a)に示すような重ね設定画面を表示する。詳細には、例えば、まず図18(a)に示すように、1回目に撮影した画像(以下、1回目の撮影画像と記す)における人物画像S1を前景、ライブ画像を人物画像S1の後景とした状態、すなわち奥側に重ねた状態で、タッチパネルディスプレイ11に表示する。このとき、1回目の撮影画像とライブ画像とのレイヤ関係は、図18(b)に示すように、ライブ画像の上に1回目の撮影画像が重ねられた状態とされている。この前景とされている1回目の撮影画像は、CPU25aが備える特定手段としての機能により、画像のクロマキ合成時のマスクを用いて、被写体である人物画像S1のみが非透明表示(見える(表示)状態)にされ、背景画像(人物画像以外の領域)が透明表示(見えない(非表示)状態)にされてライブ画像上に重ねられており、後景とされるライブ画像としては、カメラ2から取り込んだ画像と背景画像68とがクロマキ合成されたものが表示されている。したがって、タッチパネルディスプレイ11には、図18(a)に示すように、ライブ画像上に人物画像S1が重ねられ、かつ、それらの画像の背後に背景画像68が表示された状態とされている。   In S271, an overlap setting screen as shown in FIGS. 18A and 19A is displayed. Specifically, for example, as shown in FIG. 18A, first, the person image S1 in the first image (hereinafter referred to as the first image) is foreground and the live image is the background of the person image S1. It is displayed on the touch panel display 11 in such a state that it is overlaid on the back side. At this time, the layer relationship between the first captured image and the live image is such that the first captured image is superimposed on the live image, as shown in FIG. The first captured image, which is the foreground, is displayed in a non-transparent manner (visible (display)) by using a mask at the time of image chroma composition by using a function as specifying means provided in the CPU 25a. The background image (region other than the person image) is displayed in a transparent state (invisible (non-displayed) state) and superimposed on the live image. An image obtained by combining the background image 68 with the image captured from the image is displayed. Therefore, as shown in FIG. 18A, the touch panel display 11 is in a state where the person image S1 is superimposed on the live image and the background image 68 is displayed behind the images.

ここで、ユーザが、図18(a)における「前に重ねる」ボタン、すなわちライブ画像を前景として重ねるための前景ボタン63Aを選択すると、タッチパネルディスプレイ11の表示は、図19(a)に示すような表示に切り替えられる。すなわち、ライブ画像における人物部分が前景、1回目の撮影画像全体が後景として表示される。このとき、ライブ画像と1回目の撮影画像とのレイヤ関係は、図19(b)に示すようになっている。すなわち、1回目の撮影画像上にライブ画像が重ねられた状態とされており、前景とされているライブ画像は、画像のクロマキ合成時に用いたマスクにより、人物画像のみが非透明表示(見える状態)にされ、背景画像(人物画像以外の領域)が透明表示(見えない状態)にされて1回目の撮影画像上に重ねられており、後景とされる1回目の撮影画像としては、カメラ2から取り込んだ画像と背景画像68とがクロマキ合成されたものが表示されている。このため、タッチパネルディスプレイ11には、図19(a)に示すように、1回目の撮影画像上にライブ画像における人物画像部分が重ねられ、かつ、それらの画像の背後に背景画像68が表示された状態とされている。ここで、ユーザ7が「後に重ねる」ボタン、すなわちライブ画像を後景として重ねるための後景ボタン63Bを選択すると、タッチパネルディスプレイ11の表示は、再び、図18(a)に示すような、ライブ画像が後景、1回目の撮影画像における人物画像S1が前景とされた表示に切り替えられる。   Here, when the user selects the “overlay in front” button in FIG. 18A, that is, the foreground button 63A for overlaying the live image as the foreground, the display on the touch panel display 11 is as shown in FIG. 19A. Can be switched to the correct display. That is, the person portion in the live image is displayed as the foreground, and the entire first captured image is displayed as the background. At this time, the layer relationship between the live image and the first captured image is as shown in FIG. That is, the live image is overlaid on the first shot image, and the live image that is the foreground is displayed in a non-transparent state (visible state) by the mask used when synthesizing the image. The background image (region other than the person image) is displayed in a transparent state (invisible) and superimposed on the first shot image, and the first shot image used as the background is a camera. 2, an image obtained by combining the image captured from 2 and the background image 68 is displayed. Therefore, on the touch panel display 11, as shown in FIG. 19A, the person image portion of the live image is superimposed on the first captured image, and the background image 68 is displayed behind the images. It is supposed to be in a state. Here, when the user 7 selects the “overlay” button, that is, the background button 63B for overlaying the live image as the background, the display on the touch panel display 11 is again displayed as shown in FIG. The display is switched to the display in which the image is the foreground and the human image S1 in the first captured image is the foreground.

このような状態で、CPU25aは、S272において、ユーザ7から、ライブ画像を1回目の撮影画像に対して前景にするのか、後景にするのかの選択を受け付ける。なお、ここでは、図18(a)に示すように、ライブ画像を1回目の撮影画像の後景とする選択がユーザ7からされたものとする。   In such a state, in S272, the CPU 25a receives a selection from the user 7 as to whether the live image is to be the foreground or the background for the first captured image. Here, as shown in FIG. 18A, it is assumed that the user 7 has selected the live image as the back scene of the first captured image.

S272において、重ね設定を受け付けると、処理をS267に戻し、図18(a)に示した状態で、すなわち1回目の撮影画像における人物画像部分を前景とした状態でシャッタ動作を行う。次に、上述したようなS268、S269、S270の処理を行うが、S270においては撮影回数が2回であるので、処理をS273に進める。S273において、重ね撮影を終了するかどうかをユーザに選択させる。本実施の形態では上述のように3回の撮影を行うので処理をS271に進める。   In S272, when the overlap setting is accepted, the process returns to S267, and the shutter operation is performed in the state shown in FIG. 18A, that is, in the state where the person image portion in the first captured image is the foreground. Next, the processes of S268, S269, and S270 as described above are performed. In S270, since the number of times of photographing is two, the process proceeds to S273. In step S273, the user is allowed to select whether or not to end the overlapping shooting. In this embodiment, since the photographing is performed three times as described above, the process proceeds to S271.

S271においては、図20(a)、図21(a)に示すような重ね設定画面を表示する。詳細には、例えば、まず図20(a)に示すように、1回目の撮影画像における人物画像S1および2回目の撮影画像における人物画像S2を、ライブ画像よりも前景とした状態で、タッチパネルディスプレイ11に表示する。このとき、ライブ画像と、1回目の撮影画像および2回目の撮影画像とのレイヤ関係は、図20(b)に示すように、ライブ画像の上に、2回目の撮影画像が重ねられ、さらにその上に1回目の撮影画像が重ねられた状態とされている。1回目の撮影画像および2回目の撮影画像は、画像のクロマキ合成時に用いたマスクにより、人物画像S1およびS2のみが非透明表示(見える状態)にされ、背景画像(人物画像以外の領域)が透明表示(見えない状態)にされて重ねられており、ライブ画像としては、カメラ2から取り込んだ画像と背景画像68とがクロマキ合成されたものが表示されている。したがって、タッチパネルディスプレイ11には、図20(a)に示すように、ライブ画像上に2回目の撮影画像における人物画像S2、さらにその上に1回目の撮影画像における人物画像S1が重ねられ、かつ、それらの画像の背後に背景画像68が表示された状態とされている。   In S271, an overlap setting screen as shown in FIGS. 20A and 21A is displayed. Specifically, for example, as shown in FIG. 20A, first, the touch panel display is displayed with the person image S1 in the first photographed image and the person image S2 in the second photographed image as the foreground rather than the live image. 11 is displayed. At this time, the layer relationship between the live image, the first captured image, and the second captured image is such that the second captured image is superimposed on the live image, as shown in FIG. The first captured image is overlaid thereon. In the first shot image and the second shot image, only the person images S1 and S2 are displayed non-transparently (visible) by the mask used at the time of image chroma composition, and the background image (region other than the person image) is displayed. The images are superimposed in a transparent display (invisible state), and as the live image, an image obtained by synthesizing the image captured from the camera 2 and the background image 68 is displayed. Therefore, on the touch panel display 11, as shown in FIG. 20A, the person image S2 in the second shot image is superimposed on the live image, and the person image S1 in the first shot image is further superimposed on the live image, and The background image 68 is displayed behind these images.

ここで、ユーザが、図20(a)における前景ボタン63Aを選択すると、タッチパネルディスプレイ11の表示は、図21(a)に示すような表示に切り替えられる。すなわち、ライブ画像における人物画像部分が一番上に、その下に1回目の撮影画像における人物画像S1、さらにその下に2回目の撮影画像が表示される。このとき、ライブ画像と、1回目の撮影画像および2回目の撮影画像とのレイヤ関係は、図21(b)に示すようになっている。すなわち、2回目の撮影画像上に1回目の撮影画像が重ねられ、さらにその上にライブ画像が重ねられた状態とされており、最も上に重ねられたライブ画像は、画像のクロマキ合成時に用いたマスクにより、人物画像のみが非透明表示(見える状態)にされ、背景画像(人物画像以外の領域)が透明表示(見えない状態)にされて1回目の撮影画像上に重ねられており、1回目の撮影画像としては、画像のクロマキ合成時に用いたマスクにより、人物画像S1のみが非透明表示(見える状態)にされ、背景画像(人物画像以外の領域)が透明表示(見えない状態)にされて2回目の撮影画像上に重ねられている。2回目の撮影画像としては、カメラ2から取り込んだ画像と背景画像68とがクロマキ合成されたものが表示されている。このため、タッチパネルディスプレイ11には、図21(a)に示すように、2回目の撮影画像上に1回目の撮影画像における人物画像S1およびライブ画像における人物画像部分がこの順で重ねられ、かつ、それらの画像の背後に背景画像68が表示された状態とされている。また、この状態で、ユーザ7が後景ボタン63Bを選択すると、タッチパネルディスプレイ11の表示は、再び、図20(a)に示すような表示に切り替えられる。   Here, when the user selects the foreground button 63A in FIG. 20A, the display on the touch panel display 11 is switched to the display as shown in FIG. That is, the person image portion in the live image is displayed at the top, the person image S1 in the first captured image is displayed below it, and the second captured image is displayed therebelow. At this time, the layer relationship between the live image, the first shot image, and the second shot image is as shown in FIG. In other words, the first captured image is overlaid on the second captured image, and the live image is further superimposed on the first captured image. The live image superimposed on the top is used for synthesizing the image. Only the human image is displayed in a non-transparent display (visible state) by the mask, and the background image (an area other than the human image) is displayed in a transparent display (invisible state) and superimposed on the first shot image, As the first photographed image, only the person image S1 is displayed non-transparently (visible) and the background image (region other than the human image) is transparently displayed (invisible) by the mask used at the time of image chroma composition. And is superimposed on the second shot image. As the second captured image, an image obtained by synthesizing the image captured from the camera 2 and the background image 68 is displayed. Therefore, on the touch panel display 11, as shown in FIG. 21A, the person image S1 in the first captured image and the person image portion in the live image are superimposed in this order on the second captured image, and The background image 68 is displayed behind these images. In this state, when the user 7 selects the background button 63B, the display on the touch panel display 11 is again switched to the display as shown in FIG.

このような状態で、CPU25aは、S272において、ユーザ7から、ライブ画像を前に重ねるのか、後ろに重ねるのかの選択を受け付ける。なお、ここでは、図20(a)に示すように、ライブ画像を後ろに重ねる選択がユーザ7からされたものとする。   In such a state, in S272, the CPU 25a receives a selection from the user 7 as to whether the live images are superimposed on the front or the rear. Here, as shown in FIG. 20A, it is assumed that the user 7 has made a selection to superimpose the live image behind.

S272において、重ね設定を受け付けると、処理をS267に戻し、図20(a)に示した状態で、すなわち1回目および2回目の撮影画像における人物画像S1およびS2の後ろにライブ画像を重ねた状態でシャッタ動作を行う。次に、上述したようなS268、S269の処理を行うが、S269においては撮影回数が3回であるので、処理をS274に進める。   When the superimposition setting is accepted in S272, the process returns to S267, and in the state shown in FIG. 20A, that is, the live image is superimposed on the back of the human images S1 and S2 in the first and second captured images. The shutter operation is performed. Next, the processes of S268 and S269 as described above are performed. In S269, since the number of shootings is 3, the process proceeds to S274.

S274においては、画像レイヤの統合処理が行われる。このとき、CPU25aは、編集画像の入力時において前景とする前景画像と、前景とする画像以外の領域から設定される画像、すなわち後景画像とを設定する。詳細には、図22(a)に示すように、画像レイヤの統合処理がされない状態で、「重ね撮り」撮影した画像のデータが、撮影用コンピュータ装置23aから画像編集用コンピュータ装置23bに転送されると、画像編集用コンピュータ装置23bにおいては、例えば上から、タブレットディスプレイ20に押圧されたペン先の移動を検知する移動レイヤ70A、ペン画像用のレイヤ70B、スタンプ画像用のレイヤ70C、フレーム画像用のレイヤ70D、第1の人物レイヤ(ここでは人物画像S1)70E、第2の人物レイヤ(ここでは人物画像S2)70F、第3の人物レイヤ(ここでは人物画像S3)70G、人物と背景との間にスタンプ画像を配置するためのいわゆる背面スタンプ画像用のレイヤ70H、3回目の撮影画像における背景画像用のレイヤ70Iの、少なくとも9層のレイヤが必要となるが、S274において、画像レイヤの統合処理を行うことで、図22(b)に示すように、図22(a)における第2の人物レイヤ70Fと第3の人物レイヤ70Gとを後景画像69のレイヤ70Jとして1つのレイヤに統合し、3回目の撮影画像における背景画像用のレイヤ70Iを、後景画像69の背景画像用のレイヤ70Kとすることで、少なくとも必要なレイヤの数を8層に減少させることができ、その分、画像編集用コンピュータ装置23bにおける処理が重くなることを防止することができる。なお、背面スタンプ機能とは、人物画像と背景画像との間にスタンプ画像を配置する機能である。   In S274, image layer integration processing is performed. At this time, the CPU 25a sets a foreground image as a foreground and an image set from an area other than the image as a foreground, that is, a background image when an edited image is input. Specifically, as shown in FIG. 22 (a), data of an image captured by “overshoot” without image layer integration processing is transferred from the imaging computer device 23a to the image editing computer device 23b. Then, in the image editing computer device 23b, for example, from the top, the moving layer 70A for detecting the movement of the pen point pressed against the tablet display 20, the layer 70B for the pen image, the layer 70C for the stamp image, the frame image Layer 70D, first person layer (here, person image S1) 70E, second person layer (here, person image S2) 70F, third person layer (here, person image S3) 70G, person and background A so-called back stamp image layer 70H for placing a stamp image between Although at least nine layers of the background image layer 70I are required, as shown in FIG. 22B, the second layer in FIG. 22A is obtained by performing the image layer integration processing in S274. The person layer 70 </ b> F and the third person layer 70 </ b> G are integrated into one layer as the layer 70 </ b> J of the background image 69, and the background image layer 70 </ b> I in the third captured image is used for the background image of the background image 69. By using this layer 70K, at least the number of necessary layers can be reduced to eight layers, and accordingly, the processing in the image editing computer device 23b can be prevented from becoming heavy. The back stamp function is a function for placing a stamp image between a person image and a background image.

また、このように、各画像レイヤの統合処理をすることで、図23に示すように、CPU25aは、1回目の撮影画像における人物画像S1を前景画像66とし、その他の人物画像のレイヤ、ここでは2回目の撮影画像における人物画像S2と3回目の撮影画像における人物画像S3とを一層のレイヤに合成した画像を後景画像69として設定する。   In addition, by integrating the image layers in this way, as shown in FIG. 23, the CPU 25a sets the person image S1 in the first captured image as the foreground image 66, and other person image layers, here In this case, an image obtained by combining the person image S2 in the second captured image and the person image S3 in the third captured image into a single layer is set as the background image 69.

なお、上述のように、画像レイヤの統合処理は、画像編集用コンピュータ装置23bの処理が重くなることを避けるために行う処理であることから、画像編集用コンピュータ装置23bの処理性能を向上させれば特に必要な処理ではなく、また、画像編集用コンピュータ装置23b側で行ってもよい。さらに、画像レイヤを統合しない状態で、すなわち、前景画像66と後景画像69とを設定しない状態で撮影画像のデータを画像編集用コンピュータ装置23bに転送することで、画像編集用コンピュータ装置23bにおける編集側の処理時において、どの画像を前景とするのかをユーザに選択させるようにすることができ、ユーザに対してより満足度の高い編集操作を提供することもできる。   Note that, as described above, the image layer integration processing is performed to avoid the processing of the image editing computer device 23b from becoming heavy, and thus the processing performance of the image editing computer device 23b can be improved. For example, the processing is not particularly necessary, and may be performed on the image editing computer device 23b side. Further, by transferring the captured image data to the image editing computer device 23b in a state where the image layers are not integrated, that is, in a state where the foreground image 66 and the background image 69 are not set, in the image editing computer device 23b. At the time of processing on the editing side, the user can be made to select which image is the foreground, and the editing operation with higher satisfaction can be provided to the user.

S274の処理を終えると、重ね撮り撮影の処理を抜け、処理を図5のS22に進める。なお、S273において、ユーザから重ね撮影を終了することが選択された場合(S273でYES)にも、同様にS274の処理を行い、重ね撮り撮影の処理を抜け、処理を図5のS22に進める。なお、S22以降の処理は既に上述しているのでここでは説明を省略する。   When the process of S274 is completed, the process of overshooting is exited, and the process proceeds to S22 of FIG. In S273, if the user selects to end the overlap shooting (YES in S273), the process of S274 is similarly performed, the overlap shooting process is terminated, and the process proceeds to S22 in FIG. . In addition, since the process after S22 has already been mentioned above, description is abbreviate | omitted here.

次に、撮影が終了すると、図6に示す編集側の処理を進めるが、ここで、図7の編集画像の入力処理におけるS55に示した「カラーチェンジ」処理について、図24〜図28を参照しながら説明する。図24は、図7のS55における「カラーチェンジ」処理を示すフローチャート、図25は、カラーチェンジ処理において表示される編集画面50の例を示す図である。   Next, when shooting is finished, the processing on the editing side shown in FIG. 6 is advanced. Here, the “color change” processing shown in S55 in the input processing of the edited image shown in FIG. 7 will be described with reference to FIGS. While explaining. FIG. 24 is a flowchart showing the “color change” process in S55 of FIG. 7, and FIG. 25 is a diagram showing an example of the edit screen 50 displayed in the color change process.

カラーチェンジ処理は、まず、図7におけるS54において「カラーチェンジ」ボタン53eが選択されたと判断(S54でYES)すると、図25に示すように、パレットの表示をカラーチェンジ用のパレット表示に切り替える(図24におけるS551)。すなわち、「カラーチェンジ」機能によって編集対象画像をどのように編集できるのかをユーザに説明するための見本画像64を表示するとともに、ユーザがどのような色調にカラーチェンジをするのかを選択させる選択手段としての色調選択ボタン65をユーザに対して表示する。なお、ここで表示される見本画像64は、あらかじめHDD26bに記憶させておいた画像やアニメーションなどであってもよい。また、このような見本画像64は、パレット上に限らず、編集画面50上におけるユーザが見やすい適宜の位置に表示してもよい。   In the color change process, when it is determined that the “color change” button 53e is selected in S54 in FIG. 7 (YES in S54), the palette display is switched to the palette display for color change as shown in FIG. S551 in FIG. 24). That is, the selection means for displaying the sample image 64 for explaining to the user how the image to be edited can be edited by the “color change” function and for selecting the color tone to be changed by the user. Is displayed to the user. The sample image 64 displayed here may be an image or animation stored in advance in the HDD 26b. Further, such a sample image 64 is not limited to being displayed on the palette, and may be displayed at an appropriate position on the editing screen 50 that is easy for the user to see.

説明を図24に戻し、S551において、色調選択ボタン65を表示すると、S552において、色調選択ボタン65が選択されたかを判断する。   Returning to FIG. 24, when the color tone selection button 65 is displayed in S551, it is determined in S552 whether the color tone selection button 65 is selected.

S552において、色調選択ボタン65が選択されたと判断した場合(S552でYES)には、CPU25bは、選択された色調に基づいて、図16におけるS274で決定した後景画像69に対して色調の変更処理を行う(S553)。このとき、CPU25bは、自身が備える識別手段としての機能により、画像が合成写真画像か否かを判断しており、本実施の形態の場合は、合成写真画像であるので、S553において色調変更処理を行う。   If it is determined in S552 that the color tone selection button 65 has been selected (YES in S552), the CPU 25b changes the color tone of the background image 69 determined in S274 of FIG. 16 based on the selected color tone. Processing is performed (S553). At this time, the CPU 25b determines whether or not the image is a composite photograph image by a function as an identification unit provided in the CPU 25b. In the present embodiment, the CPU 25b is a composite photograph image. I do.

色調の変更は、例えば、あらかじめ、モノクロ、セピア、ピンク、ブルーのそれぞれの色調に対応するように設定されたトーンカーブを読み込むことによって実現される。詳細には、例えば図26に示すように、三原色R(Red)、G(Green)、B(Blue)のそれぞれに出力特性の異なる複数種類のトーンカーブ(実線、破線、一点鎖線など)があらかじめ設定されており、カメラ2で撮影された元の撮影画像の三原色R、G、Bの色信号を入力値とし、トーンカーブに基づく線形変換後の値、すなわち入力値とは異なる色レベルの色信号を出力値として、例えば、モノクロが選択されたなら、モノクロに対応するように設定されたR、G、Bそれぞれのトーンカーブを読み出すことで、後景画像69の色調を、モノクロの色調に変更する。なお、色調変更手段により、撮影画像に対して入力される編集画像の色調は変更されない。これにより、ユーザが選択した編集画像の色調が思わぬ色調に変更されることを防止して、ユーザの利用満足度をさらに向上させることができる。   The change of the color tone is realized by, for example, reading a tone curve set in advance so as to correspond to each color tone of monochrome, sepia, pink, and blue. In detail, for example, as shown in FIG. 26, a plurality of types of tone curves (solid line, broken line, one-dot chain line, etc.) having different output characteristics are provided in advance for the three primary colors R (Red), G (Green), and B (Blue). The color signals of the three primary colors R, G, and B of the original photographed image photographed by the camera 2 are set as input values, and the values after linear conversion based on the tone curve, that is, colors having a color level different from the input values For example, if monochrome is selected using the signal as an output value, the tone curve of each of R, G, and B set so as to correspond to monochrome is read to change the color tone of the background image 69 to the monochrome tone. change. Note that the color tone of the edited image input to the captured image is not changed by the color tone changing means. Thereby, it is possible to prevent the color tone of the edited image selected by the user from being changed to an unexpected color tone, and to further improve the user satisfaction.

ここで、カラーチェンジツールの機能により、後景画像69の色調が変更されたものの例を、図27に示す。図27に示すように、後景画像69、ここでは、2回目の撮影画像における人物画像S2と3回目の撮影画像における人物画像S3との合成画像の色調が変更されることで、前景画像66とされている1回目の撮影画像における人物画像S1を、後景画像69と比べて引き立たせる、すなわち、ポスターのように前景画像66を後景画像69に対して目立たせたり、前景画像66と後景画像69とにおいて遠近感を強調したりすることができる。このように、重ね撮影した画像に対して新たな演出を加えることができるとともに、ユーザに対して、より個性的な編集操作ができるようにすることができる。以上のようにして後景画像69の色調が変更されると、次に、処理をS552に戻す。   Here, FIG. 27 shows an example in which the color tone of the background image 69 is changed by the function of the color change tool. As shown in FIG. 27, the foreground image 69, in this case, the foreground image 66 is changed by changing the color tone of the composite image of the person image S2 in the second captured image and the person image S3 in the third captured image. The person image S1 in the first captured image is made to stand out compared to the background image 69, that is, the foreground image 66 is made to stand out from the background image 69 like a poster, Perspective can be emphasized in the background image 69. In this way, it is possible to add a new effect to the image that has been shot and to perform a more specific editing operation for the user. When the color tone of the background image 69 is changed as described above, the process returns to S552.

S552において、色調選択ボタン65が選択されていないと判断した場合(S552でNO)には、処理をS554に進める。S554において、図25に示す「もとに戻る」ボタン67が選択されたかを判断する。この「もとに戻る」ボタン67は、後景画像69に対して色調の変更処理が行われている場合に、この色調変更された画像を、色調変更がされる前の状態に戻すためのボタンである。これにより、ユーザは、後景画像69の色調を例えば4種類すべての色調に変更してみて、やはり色調変更しないほうが良いと感じたり、色調変更前の画像を確認したい場合に、「戻る」ボタン57aを複数回選択しなくても、「もとに戻る」ボタン67を一度選択するだけで、後景画像69の色調を、変更前の状態に戻すことができる。   If it is determined in S552 that the color selection button 65 has not been selected (NO in S552), the process proceeds to S554. In S554, it is determined whether the “return to original” button 67 shown in FIG. 25 has been selected. The “return to original” button 67 is used for returning the image whose color tone has been changed to the state before the color tone is changed when the color tone changing process is performed on the background image 69. Button. As a result, when the user changes the color tone of the background image 69 to, for example, all four types of color tone, and feels that it is better not to change the color tone, or wants to check the image before the color tone change, the “return” button Even if 57a is not selected a plurality of times, the color tone of the background image 69 can be returned to the state before the change only by selecting the “return to original” button 67 once.

S554において、「もとに戻る」ボタン67が選択されたと判断すると(S554でYES)、S555において、(後景画像69の色調が変更されている場合には)後景画像69の色調を、変更前の状態に戻す。なお、色調が変更されていない場合には、表示される画面上に変化はない。   If it is determined in S554 that the “return to original” button 67 has been selected (YES in S554), the color tone of the background image 69 is changed (if the color tone of the background image 69 has been changed) in S555. Return to the state before the change. When the color tone is not changed, there is no change on the displayed screen.

また、S554において、「もとに戻る」ボタン67が選択されていないと判断すると(S554でNO)、S556において、パレット以外の箇所のボタン、すなわち他の編集ツールボタン53や機能ボタンが選択されたかを判断し、選択されたと判断した場合(S556でYES)には、カラーチェンジ処理を抜け、処理を図7におけるS58に戻す。また、パレット以外の箇所のボタンが選択されていないと判断した場合(S556でNO)には、処理をS552に戻す。なお、図24には示していないが、このカラーチェンジ処理の途中においても、編集制限時間が経過していないかは常に監視されており、編集制限時間が経過したと判断した場合には、当然に、編集画像の入力処理は終了される。   If it is determined in S554 that the “return” button 67 has not been selected (NO in S554), a button other than the palette, that is, another editing tool button 53 or function button is selected in S556. If it is determined that it has been selected (YES in S556), the color change process is exited, and the process returns to S58 in FIG. If it is determined that a button other than the palette is not selected (NO in S556), the process returns to S552. Although not shown in FIG. 24, it is always monitored whether the editing time limit has elapsed even during the color change process. Then, the editing image input process is terminated.

編集画像の入力処理を終えると、処理を図6に示すS44に進め、印刷する画像を確定し、ユーザ7から、確定した印刷画像をシールシート17に印刷する際のレイアウトの選択を受け付け(S45)、印刷を実行して(S46)写真シール作成装置1の利用を終了させる。   When the input process of the edited image is completed, the process proceeds to S44 shown in FIG. 6, the image to be printed is confirmed, and the user 7 accepts the selection of the layout for printing the confirmed print image on the sticker sheet 17 (S45). ), Printing is executed (S46), and the use of the photo sticker creating apparatus 1 is terminated.

なお、上記においては、人物画像S2と人物画像S3とを一層のレイヤに合成したものを後景画像69としているが、これに限らず、例えば図28(a)に示すように、一番上の人物画像S1を前景画像66とし、それ以外の人物画像S2、S3のレイヤを統合せずに後景画像69とし、人物画像S2、人物画像S3のそれぞれに異なる色調変更処理を施して、人物画像S1、人物画像S2、人物画像S3のそれぞれが異なる色調になるようにしてもよい。   In the above description, the background image 69 is obtained by combining the person image S2 and the person image S3 into a single layer. However, the present invention is not limited to this. For example, as shown in FIG. The person image S1 is used as the foreground image 66, the other person images S2 and S3 are not integrated into the background image 69, and the person image S2 and the person image S3 are subjected to different color tone changing processes. The image S1, the person image S2, and the person image S3 may have different colors.

また、上記においては、人物画像S2および人物画像S3に対して色調の変更ができる場合を説明しているが、これに限らず、例えば図28(b)に示すように、人物画像S2、S3に加えて背景画像68に対しても、すなわち人物画像S1よりも下のレイヤとなる全ての画像に対して色調の変更をしてもよい。   In the above description, the case where the color tone can be changed with respect to the person image S2 and the person image S3 is described. However, the present invention is not limited to this, and for example, as shown in FIG. In addition, the color tone may be changed for the background image 68, that is, for all the images that are layers below the person image S1.

また、上記においては、重ね撮影により撮影した画像に対してカラーチェンジ処理ができる場合を説明したが、これに限らず、例えば図28(c)に示すように、重ね撮影しなかった撮影画像(上記の例ではキレイ撮りコースによる撮影画像)に対しても、人物画像S1を前景画像66、背景画像68を後景画像69とすることで、この後景画像69に対してカラーチェンジ処理を施すようにしてもよい。さらに、図示は省略するが、前記重ね撮影しなかった撮影画像に対しては、写真画像全体にカラーチェンジ処理を施してもよいし、逆に、カラーチェンジ処理を施さないようにすることもできる。   Further, in the above description, the case where the color change processing can be performed on the image captured by the overlapping shooting has been described. However, the present invention is not limited to this. For example, as illustrated in FIG. Also in the above example, the person image S1 is used as the foreground image 66 and the background image 68 is used as the background image 69, so that a color change process is performed on the background image 69. You may do it. Further, although not shown in the figure, the photographed image that has not been overlaid may be subjected to a color change process on the entire photographic image, or conversely, a color change process may not be performed. .

また、上記においては、前景画像66に対して後景画像69の色調を変更した場合の説明をしたが、これに限らず、前景画像66の色調を変更して、重ね撮影画像に対して新たな演出を加えてもよい。   Further, in the above description, the case where the color tone of the foreground image 69 is changed with respect to the foreground image 66 has been described. You may add various effects.

また、上記においては、色調の変更処理時に読み込まれるトーンカーブの色調は、あらかじめ設定されている場合を説明しているが、これに限らず、編集画面50上に、「濃くする」、「薄くする」などの調整ボタンを表示して、ユーザに、色調変更後の濃淡に関する微調整をさせるようにしてもよい。   In the above description, the tone curve color tone read at the time of the color tone changing process is set in advance. However, the present invention is not limited to this, and on the editing screen 50, “darken”, “lighten” An adjustment button such as “Yes” may be displayed to allow the user to make fine adjustments regarding the shade after the color change.

さらに、上記においては、後景画像69となる人物画像に対してトーンカーブを読み込むことで色調の変更を行っているが、これに限らず、例えば、図示は省略するが、人物画像S2の上に、指定された色に色調変更可能なフィルタレイヤを設け、さらに人物画像S3の上に、同じく指定された色に色調変更可能なフィルタレイヤを設けて、ユーザに、フィルタレイヤの色調を変更させる選択を行わせることで、フィルタの色をユーザの望む色に変更して、人物画像S2、S3の色調を変更させることもできる。   Furthermore, in the above description, the tone is changed by reading the tone curve for the person image to be the background image 69. However, the present invention is not limited to this. In addition, a filter layer capable of changing the color tone to the designated color is provided, and a filter layer capable of changing the color tone to the designated color is also provided on the person image S3 to allow the user to change the color tone of the filter layer. By making the selection, the color of the filter can be changed to a color desired by the user, and the color tone of the person images S2 and S3 can be changed.

本発明の実施の形態の写真シール作成装置の側面図である。It is a side view of the photographic sticker creation apparatus of an embodiment of the invention. 撮影側筐体を撮影ブース内から見た図である。It is the figure which looked at the photography side case from the photography booth. 写真シール作成装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a photograph sticker production apparatus. クロマキ合成処理の概要を説明する図である。It is a figure explaining the outline | summary of a chromach synthesis process. 撮影側の処理を示すフローチャートである。It is a flowchart which shows the process by the imaging | photography side. 編集側の処理を示すフローチャートである。It is a flowchart which shows the process by the side of an edit. 編集画像の入力処理を示すフローチャートである。It is a flowchart which shows the input process of an edit image. ぷくぷくフレーム処理を示すフローチャートである。It is a flowchart which shows a Puku Puku frame process. 編集画像の入力処理時における編集画面の表示例である。It is an example of a display of the edit screen at the time of input processing of an edit image. パタン情報に対応するフレーム画像の例を示す図である。It is a figure which shows the example of the frame image corresponding to pattern information. ぷくぷくフレームツールが選択された際の編集画面の表示例を示す図である。It is a figure which shows the example of a display of an edit screen when the Puku Puku frame tool is selected. ユーザによりパタン情報が設定された際に編集エリアに表示されるフレーム画像の例を示す図である。It is a figure which shows the example of the frame image displayed on an edit area when pattern information is set by the user. ぷくぷくフレームツールが選択された際の編集画面におけるパレット表示の例を示す図である。It is a figure which shows the example of the palette display in the edit screen when the Puku Puku frame tool is selected. パタン情報に対応するフレーム画像の例を示す図であって、図10に示す例とは異なる例を示す図である。It is a figure which shows the example of the frame image corresponding to pattern information, Comprising: It is a figure which shows the example different from the example shown in FIG. ぷくぷくスタンプを使用する場合におけるパレット表示の例を示す図である。It is a figure which shows the example of the palette display in the case of using a Puku Puku stamp. 重ね撮り処理を示すフローチャートである。It is a flowchart which shows a superposition photography process. 重ね撮り撮影時にタッチパネルディスプレイに表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on a touchscreen display at the time of superposition photography. (a)は、重ね設定画面の例を示す図、(b)はそのときの画像レイヤの関係を示す図である。(A) is a figure which shows the example of an overlap setting screen, (b) is a figure which shows the relationship of the image layer at that time. (a)は、重ね設定画面の例を示す図、(b)はそのときの画像レイヤの関係を示す図である。(A) is a figure which shows the example of an overlap setting screen, (b) is a figure which shows the relationship of the image layer at that time. (a)は、重ね設定画面の例を示す図、(b)はそのときの画像レイヤの関係を示す図である。(A) is a figure which shows the example of an overlap setting screen, (b) is a figure which shows the relationship of the image layer at that time. (a)は、重ね設定画面の例を示す図、(b)はそのときの画像レイヤの関係を示す図である。(A) is a figure which shows the example of an overlap setting screen, (b) is a figure which shows the relationship of the image layer at that time. (a)は、統合前の画像レイヤの例を示す図、(b)は、統合後の画像レイヤの例を示す図である。(A) is a figure which shows the example of the image layer before integration, (b) is a figure which shows the example of the image layer after integration. 前景画像および後景画像として決定された画像を示す図である。It is a figure which shows the image determined as a foreground image and a background image. カラーチェンジ処理を示すフローチャートである。It is a flowchart which shows a color change process. カラーチェンジ処理時における編集画面の表示例を示す図である。It is a figure which shows the example of a display of the edit screen at the time of a color change process. トーンカーブを用いた色調変更処理を説明する図である。It is a figure explaining the color tone change process using a tone curve. カラーチェンジ処理により編集された撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image edited by the color change process. カラーチェンジ処理により編集された撮影画像の例であって、図27に示すものとは異なる例を示す図である。FIG. 28 is a diagram illustrating an example of a captured image edited by color change processing, which is an example different from that illustrated in FIG. 27.

符号の説明Explanation of symbols

2 カメラ
6 撮影ブース
19 タッチペン
20 タブレットディスプレイ
26b HDD
2 Camera 6 Shooting booth 19 Touch pen 20 Tablet display 26b HDD

Claims (3)

被写体を撮影する撮影手段と、
所定の模様画像で構成され、分布および/または密度の異なる複数のパタン画像を記憶する記憶手段と、
前記撮影手段で撮影した撮影画像に対して前記パタン画像の入力を受け付ける受付手段と、
前記受付手段で受け付けたパタン画像と前記撮影画像とを合成する合成手段と、
前記合成手段で合成した合成画像をシール紙に印刷する印刷手段と、
前記受付手段による受け付けごとに、前記パタン画像を入力することにより、模様画像の密度を高めるよう調整する調整手段を備えることを特徴とする写真シール作成装置。
Photographing means for photographing the subject;
Storage means for storing a plurality of pattern images composed of predetermined pattern images and having different distributions and / or densities ;
Accepting means for accepting input of the pattern image for a photographed image photographed by the photographing means;
Combining means for combining the pattern image received by the receiving means and the captured image;
Printing means for printing the composite image synthesized by the synthesis means on a sticker paper ;
An apparatus for creating a photo sticker , comprising: an adjusting unit that adjusts the density of a pattern image by inputting the pattern image each time it is received by the receiving unit.
被写体を撮影する撮影ステップと、
所定の模様画像で構成され、分布および/または密度の異なるパタン画像を記憶手段に記憶させる記憶ステップと、
前記撮影ステップで撮影した撮影画像に対して、前記パタン画像の入力を受け付ける受付ステップと、
前記受付ステップで受け付けたパタン画像と前記撮影画像とを合成する合成ステップと、
前記合成ステップで合成した合成画像をシール紙に印刷する印刷ステップと、
前記受付ステップによる受け付けごとに、前記パタン画像を入力することにより、模様画像の密度を高めるよう調整する調整ステップを備えることを特徴とする写真シール作成装置の制御方法。
A shooting step for shooting the subject;
A storage step of storing in the storage means pattern images composed of predetermined pattern images and having different distributions and / or densities;
An accepting step of accepting an input of the pattern image for the photographed image photographed in the photographing step;
A combining step of combining the pattern image received in the receiving step and the captured image;
A printing step of printing the combined image combined in the combining step on a sticker sheet;
A control method for a photo sticker creating apparatus, comprising: an adjustment step of adjusting a pattern image density by inputting the pattern image for each reception in the reception step .
被写体を撮影する撮影ステップと、
所定の模様画像で構成され、分布および/または密度の異なるパタン画像を記憶手段に記憶させる記憶ステップと、
前記撮影ステップで撮影した撮影画像に対して、前記パタン画像の入力を受け付ける受付ステップと、
前記受付ステップで受け付けたパタン画像と前記撮影画像とを合成する合成ステップと、
前記合成ステップで合成した合成画像をシール紙に印刷する印刷ステップと、
前記受付ステップによる受け付けごとに、前記パタン画像を入力することにより、模様画像の密度を高めるよう調整する調整ステップを備えることを特徴とする写真シール作成装置の制御プログラム。
A shooting step for shooting the subject;
A storage step of storing in the storage means pattern images composed of predetermined pattern images and having different distributions and / or densities;
An accepting step of accepting an input of the pattern image for the photographed image photographed in the photographing step;
A combining step of combining the pattern image received in the receiving step and the captured image;
A printing step of printing the combined image combined in the combining step on a sticker sheet;
A control program for a photographic sticker creating apparatus, comprising: an adjustment step for adjusting the pattern image density by inputting the pattern image for each reception by the reception step .
JP2006117134A 2006-04-20 2006-04-20 Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program Active JP5030257B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006117134A JP5030257B2 (en) 2006-04-20 2006-04-20 Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006117134A JP5030257B2 (en) 2006-04-20 2006-04-20 Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program

Publications (2)

Publication Number Publication Date
JP2007295032A JP2007295032A (en) 2007-11-08
JP5030257B2 true JP5030257B2 (en) 2012-09-19

Family

ID=38765241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006117134A Active JP5030257B2 (en) 2006-04-20 2006-04-20 Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program

Country Status (1)

Country Link
JP (1) JP5030257B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6048754B2 (en) * 2013-12-20 2016-12-21 フリュー株式会社 Photo sticker creation apparatus, image editing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3444873B1 (en) * 2002-10-23 2003-09-08 株式会社メイクソフトウェア Photo vending machine, image input method, and image input program

Also Published As

Publication number Publication date
JP2007295032A (en) 2007-11-08

Similar Documents

Publication Publication Date Title
JP5036738B2 (en) Photography game machine, photography game method and photography game program
JP4316001B1 (en) Photography game machine, photography game method and photography game program
JP2007295036A (en) Photograph seal making device, and its control method and control program
JP2007240887A (en) Automatic photographing device and method thereof
JP4453681B2 (en) Photographic image processing apparatus, photographic image processing apparatus control method, photographic image processing control program, computer-readable recording medium, and composite image communication system
JP4316002B1 (en) Photography game machine, photography game method and photography game program
JP2020074041A (en) Imaging device for gaming, image processing device, and image processing method
JP4674903B2 (en) Photography equipment
JP2008054234A (en) Photographing game machine
JP2008065112A (en) Photographing amusement machine
JP4553378B2 (en) Image editing apparatus, photo sticker creating apparatus, image editing method, and image editing program
JP5030257B2 (en) Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program
JP5802977B2 (en) Photo shooting game machine and photo shooting game system
JP4999606B2 (en) Image shooting and editing apparatus, image shooting and editing method, and image editing program
JP2009033755A (en) Photo print providing apparatus, method and program
JP2004320091A (en) Photographic print providing apparatus, and method and program thereof
JP3859693B1 (en) Automatic photography apparatus and method
JP6792154B2 (en) Photographing game console and image processing method
JP2010068507A (en) Photo game machine, photo game method and photo game program
JP2016177015A (en) Photo seal creation device and image processing method
JP2005181843A (en) Photograph vending machine and control method and control program therefor
JP2010009255A (en) Photographing game system, and photographing game machine and server used for the same
JP3903870B2 (en) PHOTO PRINT DEVICE CONTROL METHOD, PHOTO PRINT DEVICE CONTROL PROGRAM, RECORDING MEDIUM CONTAINING PHOTO PRINT DEVICE CONTROL PROGRAM, PHOTO PRINT DEVICE, AND PRINT MEDIUM UNIT
JP2006339951A (en) Device, method and program for automatic photography
JP2008040988A (en) Photography game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120625

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120625

R150 Certificate of patent or registration of utility model

Ref document number: 5030257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250