JP5802977B2 - Photo shooting game machine and photo shooting game system - Google Patents

Photo shooting game machine and photo shooting game system Download PDF

Info

Publication number
JP5802977B2
JP5802977B2 JP2010009006A JP2010009006A JP5802977B2 JP 5802977 B2 JP5802977 B2 JP 5802977B2 JP 2010009006 A JP2010009006 A JP 2010009006A JP 2010009006 A JP2010009006 A JP 2010009006A JP 5802977 B2 JP5802977 B2 JP 5802977B2
Authority
JP
Japan
Prior art keywords
image
editing
edited
images
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010009006A
Other languages
Japanese (ja)
Other versions
JP2010160490A (en
Inventor
西口 雅也
雅也 西口
陽代 砂田
陽代 砂田
内田 健
健 内田
Original Assignee
株式会社メイクソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メイクソフトウェア filed Critical 株式会社メイクソフトウェア
Priority to JP2010009006A priority Critical patent/JP5802977B2/en
Publication of JP2010160490A publication Critical patent/JP2010160490A/en
Application granted granted Critical
Publication of JP5802977B2 publication Critical patent/JP5802977B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)

Description

本発明は、写真撮影遊戯機及び写真撮影遊戯システムに関し、さらに詳しくは、プレイヤを撮影して得られた写真画像にプレイヤが落書き可能な写真撮影遊戯機、及びその写真撮影遊戯機と携帯端末に接続可能なサーバとを備えた写真撮影遊戯システムに関する。   The present invention relates to a photography game machine and a photography game system, and more specifically, to a photography game machine that allows a player to doodle on a photograph image obtained by photographing a player, and the photography game machine and portable terminal thereof. The present invention relates to a photography game system including a connectable server.

写真撮影遊戯機は、アミューズメント施設等に設置され、利用者である被写体を撮影して写真画像を得て、得られた写真画像に、利用者により入力された文字や図形、スタンプ画像、フレーム画像、背景画像といった画像を合成し、合成画像をレイアウトしてシールシートに印刷した写真シールを提供する。
特開2001−245290号公報(特許文献1)や特開2004−15428号公報(特許文献2)に開示されているように、最近では、写真撮影遊戯機で作成された合成画像を写真シールとして提供するだけでなく、作成された合成画像を利用者の携帯電話機の待ち受け画像として提供可能な写真撮影遊戯機が登場している。また、表現力の高い待ち受け画像を提供するために、アニメーション動作する待ち受け画像を提供する写真撮影遊戯機も登場している。
A photography game machine is installed in an amusement facility, etc., photographs a subject that is a user to obtain a photographic image, and characters and figures inputted by the user, a stamp image, a frame image on the obtained photographic image Provided is a photo sticker in which an image such as a background image is synthesized, the synthesized image is laid out and printed on a seal sheet.
As disclosed in Japanese Patent Application Laid-Open No. 2001-245290 (Patent Document 1) and Japanese Patent Application Laid-Open No. 2004-15428 (Patent Document 2), recently, a composite image created by a photography game machine is used as a photo sticker. Photographic game machines that can not only provide but also provide a created composite image as a standby image of a user's mobile phone have appeared. In addition, in order to provide a standby image with high expressiveness, a photography game machine that provides a standby image that performs an animation operation has also appeared.

特開2001−245290号公報JP 2001-245290 A 特開2004−15428号公報JP 2004-15428 A

しかしながら、待ち受け画像の表現力を高めるほど、写真撮影遊戯機内のメモリ等の装置資源の負担は大きくなる。   However, the higher the expressiveness of the standby image, the greater the burden on the device resources such as the memory in the photographic game machine.

また、写真撮影遊戯機は、作成された合成画像をサーバを介して利用者の携帯電話機やPDA(Personal Digital Assistants)等の携帯端末に提供するが、表現力の高い待ち受け画像ほど送信されるデータ量が大きくなるため、写真撮影遊戯機とサーバとの間の通信負荷が増加する。写真撮影遊戯機を設置する施設の設備負荷を軽減するため、写真撮影遊戯機とサーバとの間の通信はPHS(Personal Handyphone System)を利用する場合が多い。施設によっては電波状態が良好とはいえない場合もあるため、通信容量が増加するとデータ送信が安定しない。そのため、通信容量を抑えつつ、表現力の高い画像を提供できる方が望ましい。   In addition, the photography amusement machine provides the created composite image to a user's mobile phone or PDA (Personal Digital Assistants) or other portable terminal via a server. Since the amount increases, the communication load between the photography game machine and the server increases. In order to reduce the equipment load of the facility where the photo game machine is installed, communication between the photo game machine and the server often uses PHS (Personal Handyphone System). Depending on the facility, the radio wave condition may not be good, so if the communication capacity increases, data transmission will not be stable. Therefore, it is desirable to provide images with high expressive power while suppressing communication capacity.

本発明の目的は、画像を作成するときの装置資源の負荷増大を抑制できる写真撮影遊戯機を提供することである。   An object of the present invention is to provide a photography amusement machine capable of suppressing an increase in the load of apparatus resources when creating an image.

本発明の他の目的は、写真撮影遊戯機とサーバとの間の通信負荷を抑えることのできる写真撮影遊戯機を提供することである。   Another object of the present invention is to provide a photography amusement machine that can suppress the communication load between the photography amusement machine and the server.

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

本発明による写真撮影遊戯機は、カメラとディスプレイとを備え、カメラ制御手段と、第1の編集手段と、第2の編集手段と、印刷手段と、送信手段とを備える。カメラ制御手段は、被写体を撮影して写真画像を生成するようカメラを制御する。第1の編集手段は、写真画像を第1の画素数でディスプレイに表示し、写真画像の編集を受け付け、前記写真画像を編集して第1の編集画像を生成する。第2の編集手段は、写真画像又は第1の編集画像を編集対象画像として第1の画素数よりも小さい第2の画素数でディスプレイに表示し、編集対象画像の編集を受け付け、受け付けた編集に基づいて第2の編集画像を作成する。印刷手段は、第1の編集画像を印刷する。送信手段は、第2の編集画像をサーバに送信する。

A photography amusement machine according to the present invention includes a camera and a display, and includes camera control means, first editing means, second editing means, printing means, and transmission means. The camera control means controls the camera to shoot a subject and generate a photographic image. The first editing means displays the photographic image on the display with the first number of pixels, accepts editing of the photographic image, edits the photographic image, and generates a first edited image. The second editing means displays the photographic image or the first edited image as an editing target image on the display with a second pixel number smaller than the first pixel number, receives editing of the editing target image, and receives the editing to create a second editing image based on. The printing unit prints the first edited image. Transmission means transmits the second knitting Atsumariga image server.

本発明の写真撮影遊戯機は、2つの編集手段を備える。第2の編集手段では、編集対象画像が第1の編集手段で編集される写真画像よりも小さい画素数で表示される。編集対象となる画像の画素数、つまりデータ容量が小さいため、メモリ等の装置資源の負荷増大を抑制できる。また、第2の編集手段により編集された画像はサーバに送信されるが、画素数が小さい画像であるため、写真撮影遊戯機とサーバ間の通信負荷を抑えることができる。   The photography game machine of the present invention includes two editing means. In the second editing means, the editing target image is displayed with a smaller number of pixels than the photographic image edited by the first editing means. Since the number of pixels of the image to be edited, that is, the data capacity is small, an increase in the load of device resources such as a memory can be suppressed. In addition, the image edited by the second editing means is transmitted to the server. However, since the image has a small number of pixels, the communication load between the photographic game machine and the server can be suppressed.

好ましくは、第2の編集手段は、印刷手段が第1の編集画像の印刷中に、編集対象画像の編集を受け付ける。   Preferably, the second editing unit accepts editing of the editing target image while the printing unit is printing the first edited image.

この場合、プレイヤは印刷待ち時間の退屈感を解消できる。   In this case, the player can eliminate the boring feeling of the print waiting time.

好ましくは、写真撮影遊戯機はさらに、記憶手段と、レイヤ設定手段とを備える。記憶手段は、複数のパタン画像で構成されるスタンプ動画像を記憶する。レイヤ設定手段は、編集対象画像が入力される編集対象レイヤと、スタンプ動画像が入力される複数の動画レイヤとを設定するレイヤ設定手段とを備える。第2の編集手段はさらに、スタンプ動画像の入力を受け付けたとき複数のパタン画像を複数の動画レイヤにそれぞれ入力して、編集対象レイヤの画像及び複数の動画レイヤの画像で構成され複数の動画レイヤの画像が順次表示される動画像に用いられる複数の動画レイヤの画像を作成する。   Preferably, the photography amusement machine further includes a storage unit and a layer setting unit. The storage means stores a stamp moving image composed of a plurality of pattern images. The layer setting unit includes a layer setting unit that sets an editing target layer to which an editing target image is input and a plurality of moving image layers to which a stamp moving image is input. The second editing means further inputs a plurality of pattern images to a plurality of moving image layers when receiving an input of a stamp moving image, and includes a plurality of moving images composed of an image of an editing target layer and a plurality of moving image layers. A plurality of moving image layer images used for moving images in which layer images are sequentially displayed are created.

第2の編集手段は、第1の画素数よりも小さい第2の画素数の編集対象画像を編集するため、画素数を小さくした分メモリ負荷が軽減される。メモリ負荷が軽減された分、複数の動画レイヤを設定できる。そのため、複数の動画レイヤの画像が順次表示される動画像に用いられる複数の動画レイヤ画像を作成でき、複数の動画レイヤ画像により動画像は表現力の高いアニメーション動作を実現できる。   Since the second editing unit edits the editing target image having the second number of pixels smaller than the first number of pixels, the memory load is reduced by reducing the number of pixels. Since the memory load is reduced, multiple video layers can be set. Therefore, a plurality of moving image layer images used for a moving image in which images of a plurality of moving image layers are sequentially displayed can be created, and the moving image can realize an animation operation with high expressiveness by the plurality of moving image layer images.

好ましくは、記憶手段はさらに、スタンプ静止画像を記憶する。第2の編集手段はさらに、スタンプ静止画像の入力を受け付けたときスタンプ静止画像を複数の動画レイヤにそれぞれ入力する。   Preferably, the storage means further stores a stamp still image. The second editing means further inputs the stamp still image to each of the plurality of moving image layers when receiving the input of the stamp still image.

この場合、同一スタンプ静止画像が複数の動画レイヤにそれぞれ入力されるため、動画像において複数の動画レイヤの画像が順次表示された場合であっても、動画レイヤ画像内のスタンプ静止画像はアニメーション動作をしない。   In this case, since the same stamp still image is input to each of the plurality of moving image layers, even if the images of the plurality of moving image layers are sequentially displayed in the moving image, the stamp still image in the moving image layer image is animated. Do not do.

好ましくは、記憶手段は複数のスタンプ動画像を記憶する。写真撮影遊戯機はさらに、選択手段と、アニメーション表示手段とを備える。選択手段は、複数のスタンプ動画像の中から所望のスタンプ動画像を選択する。アニメーション表示手段は、選択手段により選択されたスタンプ動画像に対応するパタン画像をディスプレイに順次表示するアニメーション表示手段とを備える。   Preferably, the storage means stores a plurality of stamp moving images. The photography game machine further includes selection means and animation display means. The selecting means selects a desired stamp moving image from a plurality of stamp moving images. The animation display means includes animation display means for sequentially displaying a pattern image corresponding to the stamp moving image selected by the selection means on the display.

この場合、プレイヤは、選択されたスタンプ動画像のアニメーション動作を確認できる。   In this case, the player can confirm the animation operation of the selected stamp moving image.

好ましくは、編集対象画像は、表示優先順位の異なる前記写真画像及び複数のレイヤ画像で構成される。第2の編集手段はさらに、写真画像及び前記複数のレイヤ画像を表示優先順位の低い順に重ねて1つの編集対象レイヤに入力する。ここで、レイヤ画像とは、たとえば、背景画像やフレーム画像である。フレーム画像とは、写真画像の周辺部分を装飾した画像だけでなく、写真画像の中央部分を装飾する画像も含む。また、フレーム画像は写真画像の手前に入る画像であり、前景画像である。また、レイヤ画像は、第1の編集手段により入力されたペン画像やスタンプ画像といったいわゆる落書き画像も含む。   Preferably, the editing target image includes the photographic image and a plurality of layer images having different display priorities. The second editing means further inputs the photographic image and the plurality of layer images to one editing target layer by superimposing them in the descending order of display priority. Here, the layer image is, for example, a background image or a frame image. The frame image includes not only an image in which the peripheral portion of the photographic image is decorated but also an image in which the central portion of the photographic image is decorated. The frame image is an image that comes in front of the photographic image and is a foreground image. The layer image also includes a so-called graffiti image such as a pen image or a stamp image input by the first editing means.

この場合、レイヤの設定数を抑えることができる。   In this case, the number of layer settings can be suppressed.

本発明による写真撮影遊戯システムは、上述の写真撮影遊戯機と、携帯端末に接続可能なサーバとを備える。写真撮影遊戯機又はサーバは、編集対象レイヤの画像及び複数の動画レイヤの画像に基づいて、動画像を作成する。サーバは、作成された動画像を携帯端末に送信する。   A photography game system according to the present invention includes the photography game machine described above and a server that can be connected to a portable terminal. The photography game machine or server creates a moving image based on the image of the editing target layer and the images of the plurality of moving image layers. The server transmits the created moving image to the mobile terminal.

本発明による写真撮影遊戯システムでは、作成された動画像を携帯端末に送信する。携帯端末のディスプレイは小さいため、画素数の少ない第2の画素数の編集対象画像に基づいて作成された動画像を携帯端末のディスプレイに表示した場合に視覚的に違和感がない。また、動画像は複数の動画レイヤ画像を順次表示するため、表現力豊かなアニメーション動作を実現できる。   In the photography game system according to the present invention, the created moving image is transmitted to the portable terminal. Since the display of the portable terminal is small, there is no visual discomfort when a moving image created based on the image to be edited having the second number of pixels with a small number of pixels is displayed on the display of the portable terminal. In addition, since a moving image sequentially displays a plurality of moving image layer images, an animation operation rich in expressiveness can be realized.

好ましくは、写真撮影遊戯機はさらに、合成手段を備える。合成手段は、動画レイヤの画像を編集対象レイヤの画像と合成した合成画像を動画レイヤごとに作成する。動画像作成手段は、複数の合成画像が所定の順番で順次表示される動画像を作成する。   Preferably, the photography game machine further includes a synthesizing unit. The synthesizing unit creates, for each moving image layer, a combined image obtained by combining the moving image layer image with the editing target layer image. The moving image creating means creates a moving image in which a plurality of composite images are sequentially displayed in a predetermined order.

好ましくは、動画像作成手段は、各動画レイヤの画像が所定の順番で編集対象レイヤの画像上に順次表示される動画像を作成する。   Preferably, the moving image creating means creates a moving image in which the images of the moving image layers are sequentially displayed on the image of the editing target layer in a predetermined order.

この場合、編集対象レイヤの画像と動画レイヤの画像とを合成するのではなく、編集対象レイヤ画像の上に各動画レイヤ画像を順次表示させる。たとえば非可逆圧縮形式で変換された合成画像を復号すると、合成画像の被写体が合成画像ごとにずれる場合がある。この場合、合成画像を順次表示させると、合成画像を切り替え表示するごとに被写体がずれ、視覚的に違和感を生じる。編集対象レイヤ画像の上に各動画レイヤの画像を順次表示させれば、合成画像時に発生しうるような被写体のずれは生じないため、視覚的な違和感も生じない。   In this case, instead of synthesizing the editing target layer image and the moving image layer image, the moving image layer images are sequentially displayed on the editing target layer image. For example, when a composite image converted in the lossy compression format is decoded, the subject of the composite image may be shifted for each composite image. In this case, if the composite images are sequentially displayed, the subject is shifted each time the composite images are switched and displayed, and a visually uncomfortable feeling is generated. If the images of the respective moving image layers are sequentially displayed on the editing target layer image, the subject shift that may occur at the time of the composite image does not occur, so that the visual discomfort does not occur.

本発明による写真撮影遊戯機の制御方法は、上述の写真撮影遊戯機を制御する方法であり、本発明による制御プログラムは、上述の写真撮影遊戯機に実装されるプログラムである。   The method for controlling a photography game machine according to the present invention is a method for controlling the above-mentioned photography game machine, and the control program according to the present invention is a program implemented in the above-mentioned photography game machine.

本発明の第1の実施の形態による写真撮影遊戯システムの全体構成を示す図である。1 is a diagram showing an overall configuration of a photography game system according to a first embodiment of the present invention. 図1中の写真撮影遊戯機の外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of the photography game machine in FIG. 図1中の写真撮影遊戯機における画像編集装置及び撮影装置の斜視図である。It is a perspective view of the image editing apparatus and imaging device in the photography game machine in FIG. 図1中の写真撮影遊戯機の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the photography game machine in FIG. 図4中の撮影用コンピュータ装置による撮影処理を示すフロー図である。FIG. 5 is a flowchart showing a photographing process by the photographing computer device in FIG. 4. 図4中の画像編集用コンピュータ装置による画像編集処理を示すフロー図である。FIG. 5 is a flowchart showing image editing processing by the image editing computer device in FIG. 4. 図6中のステップS23で編集ディスプレイに表示される落書き画面を示す図である。It is a figure which shows the graffiti screen displayed on an edit display by step S23 in FIG. 待ち受け動画を構成するコマ画像を説明するための図である。It is a figure for demonstrating the frame image which comprises a standby moving image. 図4中の画像編集用コンピュータ装置による待ち受け動画編集処理及び動画サンプル選択処理を示すフロー図である。FIG. 5 is a flowchart showing standby moving image editing processing and moving image sample selection processing by the image editing computer device in FIG. 4. 図9中のステップS30で編集ディスプレイに表示される選択画面を示す図である。It is a figure which shows the selection screen displayed on an edit display by step S30 in FIG. 図9中のステップS31の動作の詳細を示す図である。It is a figure which shows the detail of operation | movement of step S31 in FIG. 図11中のステップS311で編集ディスプレイに表示される選択画面を示す図である。It is a figure which shows the selection screen displayed on an edit display by step S311 in FIG. 図11中のステップS313で編集ディスプレイに表示される選択画面を示す図である。It is a figure which shows the selection screen displayed on an edit display by step S313 in FIG. 待ち受け動画を構成するコマ画像に含まれるスタンプ動画像を説明するための図である。It is a figure for demonstrating the stamp moving image contained in the frame image which comprises a standby moving image. 図11中のステップS314の動作を説明するための模式図である。It is a schematic diagram for demonstrating operation | movement of step S314 in FIG. 図11中のステップS314で作成される編集対象画像の一例を示す図である。It is a figure which shows an example of the edit object image produced by step S314 in FIG. 図11中のステップS316で編集ディスプレイに表示される落書き画面を示す図である。It is a figure which shows the graffiti screen displayed on an edit display by step S316 in FIG. スタンプ動画像を構成するパタン画像を示す図である。It is a figure which shows the pattern image which comprises a stamp moving image. ペン動画像を構成するパタン画像を示す図である。It is a figure which shows the pattern image which comprises a pen moving image. 図17に示した落書き画像で「スタンプ1」タブがタッチされた状態を示す図である。FIG. 18 is a diagram illustrating a state where a “stamp 1” tab is touched in the graffiti image illustrated in FIG. 17. 図11中のステップS319の動作の詳細を示す図である。It is a figure which shows the detail of operation | movement of step S319 in FIG. 図11中のステップS319の動作を説明するための模式図である。It is a schematic diagram for demonstrating operation | movement of step S319 in FIG. 図8に示した待ち受け動画の構成と異なる他の構成を示す図である。It is a figure which shows the other structure different from the structure of the standby moving image shown in FIG. 図21とは異なる、図11中のステップS319の動作の詳細を示す図である。It is a figure which shows the detail of operation | movement of step S319 in FIG. 11 different from FIG. 図24中のステップS65でサーバに送信されるデータを示す図である。It is a figure which shows the data transmitted to a server by step S65 in FIG. 図9中のステップS34で表示される選択画像を示す図である。It is a figure which shows the selection image displayed by step S34 in FIG. 図26に示した選択画像で「全身用」タブがタッチされた状態を示す図である。FIG. 27 is a diagram illustrating a state where a “whole body” tab is touched in the selection image illustrated in FIG. 26. 図26に示した選択画像で「特殊」タブがタッチされた状態を示す図である。FIG. 27 is a diagram illustrating a state in which a “special” tab is touched in the selection image illustrated in FIG. 26. 図9中のステップS35で表示される選択画像を示す図である。It is a figure which shows the selection image displayed by step S35 in FIG. 本発明の第2の実施の形態による写真撮影遊戯システムの全体構成を示す図である。It is a figure which shows the whole structure of the photography game system by the 2nd Embodiment of this invention. 図30中の写真撮影遊戯機で実行される待ち受け動画編集処理を示すフロー図である。It is a flowchart which shows the standby moving image editing process performed with the photography game machine in FIG. 図31中のステップS101で編集ディスプレイに表示される選択画面を示す図である。It is a figure which shows the selection screen displayed on an edit display by step S101 in FIG. 図31中のステップS102で設定される表示レイヤの構造を示す図である。It is a figure which shows the structure of the display layer set by step S102 in FIG. 図31中のステップS103で表示される落書き画面を示す図である。It is a figure which shows the graffiti screen displayed by step S103 in FIG. 図34に示した落書き画面で「アニメーションペン」タブがタッチされたときのパレットエリアの状態を示す図である。It is a figure which shows the state of the palette area when the "animation pen" tab is touched on the graffiti screen shown in FIG. 図34に示した落書き画面で「アニメーションスタンプ」タブがタッチされたときのパレットエリアの状態を示す図である。It is a figure which shows the state of the palette area when the "animation stamp" tab is touched on the graffiti screen shown in FIG. 配置情報データベースの構成を示す図である。It is a figure which shows the structure of an arrangement | positioning information database. 図34に示した落書き画面で「背景/フレーム」タブがタッチされたときのパレットエリアの状態を示す図である。FIG. 35 is a diagram showing a state of a palette area when a “background / frame” tab is touched on the graffiti screen shown in FIG. 34. 図31中のステップS108で送信されたデータを示す図である。It is a figure which shows the data transmitted by step S108 in FIG. 図30中のサーバでの動画ファイル作成処理を示すフロー図である。It is a flowchart which shows the moving image file creation process in the server in FIG. 図40中のステップS302で設定されるレイヤを示す図である。It is a figure which shows the layer set by step S302 in FIG. 図40中のステップS305を説明するための図である。It is a figure for demonstrating step S305 in FIG.

以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。
1.第1の実施の形態
1.1.全体構成
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.
1. 1. First embodiment 1.1. overall structure

図1を参照して、本実施の形態による写真撮影遊戯システムは、写真撮影遊戯機1と、サーバ300とを備える。写真撮影遊戯機1は、プレイヤを被写体として撮影して写真画像を作成し、作成された写真画像の編集を受け付けてシールシートに印刷するための画像を作成する。写真撮影遊戯機1はさらに、携帯端末である携帯電話機400のディスプレイに表示する待ち受け動画用のデータを作成する。サーバ300は写真撮影遊戯機1からデータを受け、待ち受け動画を作成し、携帯電話機400に送信する。携帯電話機400は待ち受け動画を受け、ディスプレイに表示する。
1.2.写真撮影遊戯機の外観構成
Referring to FIG. 1, the photography game system according to the present embodiment includes a photography game machine 1 and a server 300. The photographic game machine 1 shoots a player as a subject to create a photographic image, accepts editing of the created photographic image, and creates an image for printing on a sticker sheet. The photography game machine 1 further creates standby video data to be displayed on the display of the mobile phone 400 which is a mobile terminal. The server 300 receives data from the photography game machine 1, creates a standby moving image, and transmits it to the mobile phone 400. The mobile phone 400 receives the standby moving image and displays it on the display.
1.2. Appearance structure of photography game machine

図2及び図3を参照して、写真撮影遊戯機1は、撮影を行う撮影ブース2と、撮影により得られた写真画像の編集を行う2つの編集ブース3とに分かれる。撮影ブース2には、撮影装置4及び背面パネル5が互いに対向して設置され、編集ブース3には、2つの画像編集装置8が背中合わせに設置され、かつ撮影装置4に隣接して設置される。背面パネル5の前面には椅子6が設置され、クロマキ用に背面パネル5及び椅子6は単一色(たとえば緑色)にされている。撮影ブース2及び編集ブース3はサイドカーテン(図示せず)などにより外部と区分されている。   2 and 3, the photography game machine 1 is divided into a photography booth 2 for photographing and two editing booths 3 for editing photograph images obtained by photographing. In the photographing booth 2, the photographing device 4 and the rear panel 5 are installed facing each other, and in the editing booth 3, two image editing devices 8 are installed back to back and are installed adjacent to the photographing device 4. . A chair 6 is installed on the front surface of the back panel 5, and the back panel 5 and the chair 6 are made in a single color (for example, green) for chroma. The photography booth 2 and the editing booth 3 are separated from the outside by a side curtain (not shown).

撮影ブース2の側面にはコインを投入するためのコイン投入口31が設けられ、撮影装置4の側面には撮影ブース2で撮影しかつ編集ブース3で編集した写真画像をシールシートに印刷して排出するプリント排出口51が設けられる。   A coin insertion slot 31 for inserting coins is provided on the side of the photography booth 2, and a photograph image taken at the photography booth 2 and edited at the editing booth 3 is printed on a sticker sheet on the side of the photography apparatus 4. A print discharge port 51 for discharging is provided.

この写真撮影遊戯機1を利用する場合、プレイヤはコイン投入口31にコインを投入した後、撮影ブース2に入り、撮影装置4に向かって撮影操作を行う。撮影終了後、プレイヤは写真撮影遊戯機1が指定するどちらかの編集ブース3に移動し、今度は画像編集装置8に向かって画像編集操作、具体的には、フレーム、スタンプ、ペン書きの文字や図形などの編集画像を入力する。編集終了後、プレイヤはプリント排出口51から排出された写真シールを受け取る。   When using this photographic game machine 1, the player inserts a coin into the coin insertion slot 31, enters the shooting booth 2, and performs a shooting operation toward the shooting device 4. After shooting, the player moves to one of the editing booths 3 designated by the photography game machine 1, and this time, the image editing operation toward the image editing device 8, specifically, characters written in a frame, stamp, and pen. Enter an edited image such as an image. After editing, the player receives the photo sticker discharged from the print discharge port 51.

また、プレイヤは写真撮影遊戯機1が写真シールを印刷中に、編集ブース3で待ち受け動画用の画像編集操作を行う。つまり、印刷中の待ち時間を利用して、待ち受け動画を作成する。   In addition, the player performs an image editing operation for a standby moving image in the editing booth 3 while the photo game machine 1 is printing a photo sticker. That is, a standby moving image is created using the waiting time during printing.

撮影装置4の正面中央にはカメラ10が設けられ、その下方には撮影用ディスプレイ11が設けられ、さらにそれらの周りには照明装置9が設けられる。カメラ10はプレイヤを被写体として撮影するもので、一般にデジタルカメラが用いられる。カメラ10は複数台設けたり、移動や角度調節をできるようにしたりしてもよい。   A camera 10 is provided at the center of the front of the photographing device 4, a photographing display 11 is provided below, and an illumination device 9 is provided around them. The camera 10 photographs a player as a subject, and a digital camera is generally used. A plurality of cameras 10 may be provided, or the camera 10 may be moved or adjusted in angle.

撮影用ディスプレイ11は、自身が被写体となるプレイヤ用の確認モニタで、表示画面が見やすいようにプレイヤに向けられている。撮影用ディスプレイ11は、カメラ10で撮影されている映像を左右反転してライブ映像(動画)としてリアルタイムで表示する。したがって、プレイヤは鏡のように映る自分の姿を見ながら撮影を行うことができる。さらに、その表示画面上には透明なタッチパネル12(図4参照)が貼り付けられており、撮影用ディスプレイ11は、タッチパネル12に対するプレイヤの入力操作を受け付ける。撮影用ディスプレイ11には、プレイヤによる種々の操作をタッチパネル12上で入力するためのタッチペン13が設けられる。撮影用ディスプレイ11はライブ映像の他、確認用の撮影済み写真画像、各種案内画面、操作ボタンなども表示する。   The photographing display 11 is a confirmation monitor for the player who is the subject, and is directed toward the player so that the display screen can be easily seen. The shooting display 11 displays a live video (moving image) in real time by horizontally flipping the video shot by the camera 10. Therefore, the player can take a picture while looking at his / her appearance that looks like a mirror. Further, a transparent touch panel 12 (see FIG. 4) is pasted on the display screen, and the photographing display 11 accepts a player's input operation on the touch panel 12. The photographing display 11 is provided with a touch pen 13 for inputting various operations by the player on the touch panel 12. The shooting display 11 displays a photographed image for confirmation, various guidance screens, operation buttons, and the like in addition to the live video.

照明装置9は、カメラ10の上下左右及び天井に設けられ、被写体を前方から照明する。照明装置9はその内部に、蛍光灯などの常灯照明と、ストロボなどの閃光照明(フラッシュ)とを有する。ストロボは、プレイヤから撮影の開始が指示され、カメラ10が撮影しているライブ映像を写真画像(静止画)として取り込む瞬間に発光し、被写体を強く照明する。照明装置は上記以外に、被写体の側方及び後方にも設けられ、被写体をあらゆる方向から照明する。   The illumination device 9 is provided on the top, bottom, left, and right of the camera 10 and the ceiling, and illuminates the subject from the front. The illuminating device 9 includes an ordinary lamp illumination such as a fluorescent lamp and a flash illumination (flash) such as a strobe. The strobe emits light at the moment when the start of shooting is instructed by the player and the live video captured by the camera 10 is captured as a photographic image (still image), and illuminates the subject strongly. In addition to the above, the illumination device is also provided on the side and rear of the subject to illuminate the subject from all directions.

画像編集装置8は、撮影装置4で得られた写真画像を編集処理するための装置である。画像編集装置8の正面中央には編集ディスプレイ40が設けられる。編集ディスプレイ40は、カメラ10で撮影された写真画像の中から選択された1又は複数の写真画像を表示する。さらに、その表示画面上には透明なタッチパネル41(図4参照)が貼り付けられており、編集ディスプレイ40は、タッチパネル41に対するプレイヤの編集操作を受け付ける。編集ディスプレイ40の両側には、編集画像をタッチパネル41上で入力するためのタッチペン42が設けられる。画像編集装置8は、プレイヤの編集操作に応じて写真画像に対して画像編集処理を実行する(画像編集処理)。   The image editing device 8 is a device for editing a photographic image obtained by the photographing device 4. An editing display 40 is provided at the front center of the image editing device 8. The editing display 40 displays one or more photographic images selected from photographic images taken by the camera 10. Further, a transparent touch panel 41 (see FIG. 4) is pasted on the display screen, and the edit display 40 accepts a player's editing operation on the touch panel 41. On both sides of the editing display 40, touch pens 42 for inputting an edited image on the touch panel 41 are provided. The image editing device 8 performs an image editing process on the photographic image according to the editing operation of the player (image editing process).

画像編集処理を実行後、写真撮影遊戯機1は作成された編集画像(写真画像に背景画像や、フレーム画像、ペン画像やスタンプ画像といった落書き画像を重ねた画像)をシールシートに印刷してプリント排出口51から排出し、出来上がった写真シールをプレイヤに提供する。   After executing the image editing process, the photography amusement machine 1 prints the created edited image (image obtained by overlaying a graffiti image such as a background image, a frame image, a pen image or a stamp image on a photo image) on a sticker sheet and prints it. The photo sticker discharged from the discharge port 51 is provided to the player.

画像編集装置8はさらに、編集画像をシールシートに印刷している間、プレイヤの編集操作に応じて、携帯電話機の待ち受け動画用の画像編集を受け付ける(待ち受け動画編集処理)。作成された待ち受け画像は、サーバに送信され、サーバからプレイヤの携帯電話機に転送される。
1.3.写真撮影遊戯機の機能構成
The image editing device 8 further receives image editing for the standby moving image of the mobile phone in accordance with the editing operation by the player while the edited image is printed on the sticker sheet (standby moving image editing process). The created standby image is transmitted to the server and transferred from the server to the player's mobile phone.
1.3. Functional configuration of photo game machine

図4を参照して、写真撮影遊戯機1は、撮影処理を実行する撮影用コンピュータ装置101aと、画像編集処理を実行する画像編集用コンピュータ装置101bと、動作中のコンピュータ装置101a,101bからの指示を受け付けて、接続されている各種装置を制御する制御基板102と、クロマキキャプチャボード17とを備える。撮影用コンピュータ装置101aと画像編集用コンピュータ装置101bとは互いに接続され、画像データなどの授受をピアツーピアで行う。これらは写真撮影遊戯機1の制御装置100として機能する。   Referring to FIG. 4, the photography game machine 1 includes a photographing computer device 101 a that performs photographing processing, an image editing computer device 101 b that performs image editing processing, and operating computer devices 101 a and 101 b. A control board 102 that receives instructions and controls various devices connected thereto, and a chroma capture board 17 are provided. The photographing computer device 101a and the image editing computer device 101b are connected to each other and exchange image data and the like on a peer-to-peer basis. These function as the control device 100 of the photographic game machine 1.

コンピュータ装置101a,101bは、CPU(Central Processing Unit)103a,103bと、本装置に所定の処理を実行させるための制御プログラム、処理に必要なグラフィックデータ、音声データ、撮影された写真画像、入力された編集画像、あらかじめ用意された複数のレイヤ画像(背景画像、フレーム画像)、あらかじめ用意された複数のスタンプ静止画像及びペン静止画像等を記憶するハードディスク104a,104b、制御プログラムの一時的な作業領域となるメモリ105a,105bとを含む。   The computer apparatuses 101a and 101b are input with CPU (Central Processing Unit) 103a and 103b, a control program for causing the apparatus to execute a predetermined process, graphic data necessary for the process, audio data, photographed photographic image, and the like. Hard disk 104a, 104b for storing edited images, a plurality of layer images (background images, frame images) prepared in advance, a plurality of stamp still images and pen still images prepared in advance, and a temporary work area for a control program And the memories 105a and 105b.

ハードディスク104bはさらに、待ち受け動画作成用に準備された複数のスタンプ動画像やペン動画像を固有の識別IDに対応づけて記憶する。各スタンプ動画像及び各ペン動画像は複数のパタン画像で構成され、パラパラマンガと同じ要領でパタン画像を順番に表示することで、アニメーション動作を実現する。スタンプ動画像はたとえば、図18に示すように2枚のパタン画像P10−1,P10−2で構成され、ペン動画像はたとえば、図19に示す2枚のパタン画像P11−1,P11−2で構成される。   The hard disk 104b further stores a plurality of stamp moving images and pen moving images prepared for standby video creation in association with unique identification IDs. Each stamp moving image and each pen moving image is composed of a plurality of pattern images, and an animation operation is realized by sequentially displaying the pattern images in the same manner as the flip book. For example, the stamp moving image is composed of two pattern images P10-1 and P10-2 as shown in FIG. 18, and the pen moving image is, for example, two pattern images P11-1 and P11-2 shown in FIG. Consists of.

撮影用コンピュータ装置101aは、撮影ブース2での撮影処理を実行する。具体的には、撮影用コンピュータ装置101aは制御プログラムを実行し、タッチパネル12に対するタッチペン13による入力操作に応じて制御信号を制御基板102に送信する。また、撮影用コンピュータ装置101aは、カメラ10、撮影用ディスプレイ11、制御基板102と接続され、それらを制御する。クロマキキャプチャボード17は、カメラ10で撮影されている映像を所定の時間間隔(たとえば30フレーム/秒)でデジタルデータ(静止画像)として取り込み、取り込んだ静止画像の中からクロマキ技術により被写体以外の領域を検出し、その検出した領域に選択された所望の背景画像を合成する。   The imaging computer device 101a executes imaging processing at the imaging booth 2. Specifically, the imaging computer device 101 a executes a control program and transmits a control signal to the control board 102 in response to an input operation with the touch pen 13 on the touch panel 12. The photographing computer device 101a is connected to the camera 10, the photographing display 11, and the control board 102, and controls them. The chroma capture board 17 captures video captured by the camera 10 as digital data (still image) at a predetermined time interval (for example, 30 frames / second), and uses the chroma image technique to capture images other than the subject from the captured still image. A region is detected, and a desired background image selected is synthesized with the detected region.

画像編集用コンピュータ装置101bは、編集ブース3での画像編集処理、待ち受け動画編集処理及び印刷処理を実行する。具体的には、画像編集用コンピュータ装置101bは制御プログラムを実行し、タッチパネル41に対するタッチペン42による入力操作に応じて制御信号を制御基板102に送信する。画像編集用コンピュータ装置101bは、プリンタ55、編集ディスプレイ40、制御基板102に接続され、それらを制御する。画像編集装置8は2台設けられるので、編集ディスプレイ40、タッチパネル41及びタッチペン42は2組設けられる。   The image editing computer apparatus 101b executes image editing processing, standby moving image editing processing, and printing processing in the editing booth 3. Specifically, the image editing computer apparatus 101 b executes a control program and transmits a control signal to the control board 102 in accordance with an input operation with the touch pen 42 on the touch panel 41. The image editing computer device 101b is connected to the printer 55, the editing display 40, and the control board 102 and controls them. Since two image editing devices 8 are provided, two sets of editing display 40, touch panel 41, and touch pen 42 are provided.

プリンタ55は、編集画像をシールシート等の印刷媒体に印刷する。この実施の形態のプリンタ55は編集画像をシールシートに印刷するが、印刷媒体はシールシートに限定されることなく、他の印刷媒体でもよい。   The printer 55 prints the edited image on a print medium such as a sticker sheet. The printer 55 of this embodiment prints the edited image on the sticker sheet, but the print medium is not limited to the sticker sheet and may be another print medium.

タッチパネル12は、撮影用ディスプレイ11の上に積層されている。タッチパネル12は、タッチペン13の接触を検知し、それに応じた指示信号を撮影用コンピュータ装置101aに送信する。撮影用ディスプレイ11は、撮影用コンピュータ装置101aから送信された画像、具体的には、カメラ10で撮像された写真画像、撮影のための案内、選択肢など表示する。   The touch panel 12 is laminated on the photographing display 11. The touch panel 12 detects the touch of the touch pen 13 and transmits an instruction signal corresponding to the touch to the photographing computer device 101a. The photographing display 11 displays an image transmitted from the photographing computer device 101a, specifically, a photographic image captured by the camera 10, guidance for photographing, options, and the like.

タッチパネル41は、編集ディスプレイ40の上に積層されている。タッチパネル41は、タッチペン42の接触を検知し、それに応じた指示信号を画像編集用コンピュータ装置101bに送信する。編集ディスプレイ40は、画像編集用コンピュータ装置101bから送信されたスタンプ画像、ペン画像、背景画像、フレーム画像等を写真画像上に重ねて表示する。   The touch panel 41 is stacked on the editing display 40. The touch panel 41 detects the touch of the touch pen 42 and transmits an instruction signal corresponding to the touch to the image editing computer apparatus 101b. The editing display 40 displays the stamp image, pen image, background image, frame image, and the like transmitted from the image editing computer apparatus 101b on the photographic image.

制御基板102は、コンピュータ装置101a,101bの他に、ストロボ制御部110、ストロボ15、蛍光灯14、サービスパネル113、印刷中LED52、印刷エラーLED53、コイン制御部112、及び音声制御部111に接続される。   In addition to the computer devices 101a and 101b, the control board 102 is connected to the strobe control unit 110, strobe 15, fluorescent lamp 14, service panel 113, printing LED 52, print error LED 53, coin control unit 112, and voice control unit 111. Is done.

ストロボ制御部110はカメラ10に接続され、カメラ10のシャッタタイミングに応じて発光するようにストロボ15を制御する。音声制御部111は制御基板102を介して撮影用コンピュータ装置101a及び画像編集用コンピュータ装置101bに接続される。撮影用スピーカ16は、撮影ブース2に配備され、撮影用コンピュータ装置101aから制御基板102を介して与えられる指示信号に基づいて、撮影プレイのための操作方法などの案内やBGMなどを出力する。編集用スピーカ46は、編集ブース3に配備され、画像編集用コンピュータ装置101bから制御基板102を介して与えられる指示信号に基づいて、編集プレイのための操作方法などの案内やBGMなどを出力する。
1.4.動作
A strobe control unit 110 is connected to the camera 10 and controls the strobe 15 to emit light according to the shutter timing of the camera 10. The audio control unit 111 is connected to the photographing computer device 101a and the image editing computer device 101b via the control board 102. The photographing speaker 16 is provided in the photographing booth 2 and outputs guidance such as an operation method for photographing play, BGM, and the like based on an instruction signal given from the photographing computer device 101a via the control board 102. The editing speaker 46 is provided in the editing booth 3, and outputs guidance such as an operation method for editing play, BGM, and the like based on an instruction signal given from the image editing computer apparatus 101b via the control board 102. .
1.4. Action

上述した写真撮影遊戯機1を含む写真撮影遊戯システムの動作は概略次の通りである。   The operation of the photography game system including the above-described photography game machine 1 is roughly as follows.

まず、撮影用コンピュータ装置101aは、撮影ブース2においてカメラ10で被写体を撮影して写真画像を得る撮影処理を実行する。次に、画像編集用コンピュータ装置101bは、編集ブース3において利用者の入力操作に応じて編集画像を作成する画像編集処理を実行する。画像編集処理を実行後、作成された編集画像をシールシートに印刷する印刷処理を開始する。   First, the photographing computer device 101a executes photographing processing for photographing a subject with the camera 10 in the photographing booth 2 to obtain a photographic image. Next, the image editing computer device 101b executes an image editing process for creating an edited image in response to a user input operation in the editing booth 3. After executing the image editing process, a printing process for printing the created edited image on the sticker sheet is started.

画像編集用コンピュータ装置101bはさらに、印刷処理を実行中に、待ち受け動画を編集する待ち受け動画編集処理を実行する。以下、撮影処理、画像編集処理及び待ち受け動画編集処理の詳細を説明する。   The image editing computer apparatus 101b further executes a standby moving image editing process for editing a standby moving image during the printing process. Details of the photographing process, the image editing process, and the standby moving image editing process will be described below.

[撮影処理]
まず、撮影ブース2での写真撮影遊戯機1の動作を説明する。撮影用コンピュータ装置101aのCPU103aは、ハードディスク104aに記憶されたコンピュータプログラムをメモリ105aに読出して実行することにより、この撮影処理を実現する。
[Shooting process]
First, the operation of the photography game machine 1 at the photography booth 2 will be described. The CPU 103a of the photographing computer device 101a implements this photographing process by reading the computer program stored in the hard disk 104a into the memory 105a and executing it.

図5を参照して、CPU103aは、写真撮影遊戯機1の利用を促すタイトルデモ画面を撮影用ディスプレイ11に表示する(S1)。タイトルデモ画面の表示中にコイン制御部112が所定枚数のコインの投入を受け付ける(S2)。   Referring to FIG. 5, the CPU 103a displays a title demonstration screen for encouraging use of the photography game machine 1 on the photographing display 11 (S1). During the display of the title demonstration screen, the coin control unit 112 accepts insertion of a predetermined number of coins (S2).

続いて、CPU103aは、利用者の選択操作に応じて所望の背景画像を選択し(S3)、カメラ10で撮影されているライブ映像を撮影用ディスプレイ11に表示し(S4)、そのライブ映像を所定のシャッタタイミングで固定して写真画像を生成し、生成された写真画像をメモリ105aに保存し(S5)、その写真画像をプレイヤに確認してもらうために撮影用ディスプレイ11に表示する(S6)。CPU103aは、所定枚数(ここでは一例として8枚とする)を撮影し終えるまで上記ステップS4〜S6を繰り返す(S7)。   Subsequently, the CPU 103a selects a desired background image in accordance with the user's selection operation (S3), displays the live video shot by the camera 10 on the shooting display 11 (S4), and displays the live video. A photographic image is generated with a fixed shutter timing, the generated photographic image is stored in the memory 105a (S5), and the photographic image is displayed on the photographing display 11 for confirmation by the player (S6). ). The CPU 103a repeats the above steps S4 to S6 until it finishes shooting a predetermined number (here, 8 as an example) (S7).

所定枚数(8枚)の撮影を終え、撮影制限時間が経過すると(S8でYES)、CPU103aは、撮影された8枚の写真画像を撮影用ディスプレイ11に表示し、8枚の写真画像から所定枚数(ここでは一例として4枚とする)の写真画像を選択するよう利用者に促す。タッチペン13による利用者の操作に基づいて、CPU103aは4枚の写真画像を選択する(S9)。CPU103aは選択された4枚の写真画像のデータを画像編集用コンピュータ装置101bに転送する(S10)。最後に、CPU103aは、編集ブース3へ移動するよう促す案内を撮影用ディスプレイ11に表示し(S11)、ステップS1に戻って再びタイトルデモ画面を表示する。   When the predetermined number of images (eight images) have been shot and the time limit for shooting has elapsed (YES in S8), the CPU 103a displays the eight photographed images on the photographing display 11, and a predetermined number of images from the eight photograph images is determined. The user is prompted to select the number of photographic images (here, four as an example). Based on the operation of the user with the touch pen 13, the CPU 103a selects four photographic images (S9). The CPU 103a transfers the data of the four selected photographic images to the image editing computer device 101b (S10). Finally, the CPU 103a displays a guide for moving to the editing booth 3 on the photographing display 11 (S11), returns to step S1, and displays the title demo screen again.

[画像編集処理]
次に、編集ブース3での画像編集処理について説明する。画像編集用コンピュータ装置101bのCPU103bはハードディスク104bに記憶された制御プログラムをメモリ105bに読出して実行することにより、画像編集処理を実現する。
[Image editing processing]
Next, the image editing process in the editing booth 3 will be described. The CPU 103b of the image editing computer device 101b implements image editing processing by reading the control program stored in the hard disk 104b into the memory 105b and executing it.

図6を参照して、CPU103bは、撮影プレイから始めるよう促す待機画面を編集ディスプレイ40に表示する(S21)。図5に示した撮影処理が終了すると、撮影用コンピュータ装置101aから画像編集用コンピュータ装置101bにステップS9で選択された写真画像のデータが転送されて来るので、画像編集用コンピュータ装置101bはこれを受信する(S22)。CPU103bは図7に示すような落書き画面を編集ディスプレイ40に表示し、タッチペン42による利用者の落書き入力に応じて写真画像の編集を受け付ける(S23)。   Referring to FIG. 6, CPU 103b displays a standby screen for prompting to start from shooting play on editing display 40 (S21). When the photographing process shown in FIG. 5 is completed, the data of the photographic image selected in step S9 is transferred from the photographing computer device 101a to the image editing computer device 101b. Receive (S22). The CPU 103b displays a graffiti screen as shown in FIG. 7 on the editing display 40, and accepts editing of a photographic image according to the user's graffiti input by the touch pen 42 (S23).

図7に示すように、編集ディスプレイ40内には、左右に2つの描画領域60L及び60Rが表示され、2人の利用者がそれぞれの描画領域60(60L、60R)で画像を編集できるようになっている。また、図5中のステップS9で選択された4枚の写真画像のうちの2枚が一方の描画領域60Lに割り当てられ、他の2枚が他方の描画領域60Rに割り当てられる。これにより、各々の描画領域60で異なる写真画像の編集を行うことができ、限られた編集時間内でより多くの編集を行うことができる。   As shown in FIG. 7, two editing areas 60L and 60R are displayed on the left and right in the editing display 40 so that two users can edit images in the respective drawing areas 60 (60L, 60R). It has become. Further, two of the four photographic images selected in step S9 in FIG. 5 are assigned to one drawing area 60L, and the other two are assigned to the other drawing area 60R. Thereby, different photographic images can be edited in each drawing area 60, and more editing can be performed within a limited editing time.

CPU103bは、メモリ105b内に複数のレイヤ(写真レイヤ、背景レイヤ、フレームレイヤ、ペンレイヤ、スタンプレイヤ等)を設定し、設定された各レイヤに対応する画像を入力する。たとえば、背景画像は背景レイヤに入力され、フレーム画像はフレームレイヤに、ペン画像はペンレイヤに、スタンプ画像はスタンプレイヤに入力される。   The CPU 103b sets a plurality of layers (photo layer, background layer, frame layer, pen layer, stamp layer, etc.) in the memory 105b, and inputs an image corresponding to each set layer. For example, the background image is input to the background layer, the frame image is input to the frame layer, the pen image is input to the pen layer, and the stamp image is input to the stamp layer.

このとき、CPU103bは、選択された写真画像を所定の画素数で写真レイヤに展開し、その画素数(たとえば、480×640ドット)で描画領域60に表示する。   At this time, the CPU 103b develops the selected photographic image on the photographic layer with a predetermined number of pixels, and displays it in the drawing area 60 with the number of pixels (for example, 480 × 640 dots).

落書き画面にはさらに、各描画領域60L、60Rでの編集に利用される落書きツールを選択するための落書きツール選択ボタン61が表示される。たとえば、描画領域60Rを編集中のプレイヤの操作により、「ペン」ボタン61がタッチされたとき、CPU103bはタッチを検知してペンパレット63を表示する。ペンパレット63には複数のペン画像64が表示され、プレイヤがペンパレット63内のいずれかのペン画像64をタッチすると、そのペン画像を描画領域60Rに描画できる。ペンパレット63は複数用意され、ペンパレットごとにタブ62が設けられている。他の落書きツール(スペシャル、スタンプ、手書き、フレーム等)も同様に、複数のパレットが用意されている。このように、プレイヤは豊富な落書きツールから所望の落書き画像を選択して描画領域60上に描画できる。   The graffiti screen further displays a graffiti tool selection button 61 for selecting a graffiti tool used for editing in each of the drawing areas 60L and 60R. For example, when the “pen” button 61 is touched by the operation of the player who is editing the drawing area 60R, the CPU 103b detects the touch and displays the pen palette 63. A plurality of pen images 64 are displayed on the pen palette 63, and when the player touches any of the pen images 64 in the pen palette 63, the pen images can be drawn in the drawing area 60R. A plurality of pen palettes 63 are prepared, and a tab 62 is provided for each pen palette. Other graffiti tools (specials, stamps, handwriting, frames, etc.) have multiple palettes as well. In this way, the player can select a desired graffiti image from an abundance of graffiti tools and draw it on the drawing area 60.

写真画像を編集して編集画像を作成後、CPU103bは予め定められた印刷レイアウトを複数種類表示し、その中から所望の印刷レイアウトを選択するよう利用者に促す(S24)。利用者が印刷レイアウトを選択すると、CPU103bは選択された印刷レイアウトで編集画像をシールシートにプリンタ55で印刷し、写真シールをプリント排出口51から利用者に提供する(S25)。   After creating the edited image by editing the photographic image, the CPU 103b displays a plurality of predetermined print layouts and prompts the user to select a desired print layout from them (S24). When the user selects a print layout, the CPU 103b prints an edited image on a sticker sheet with the printer 55 using the selected print layout, and provides a photo sticker to the user from the print discharge port 51 (S25).

[待ち受け動画編集処理]
CPU103bは、ステップS25の印刷処理を開始した後、待ち受け動画編集処理を実行する。待ち受け動画編集処理は、印刷処理の実行中、たとえば、印刷処理が開始されてから終了するまでの間(例えば1分)実行される。これにより、印刷待ちによるプレイヤの退屈感を解消できる。
[Standby video editing]
After starting the printing process in step S25, the CPU 103b executes a standby moving image editing process. The standby moving image editing process is executed during execution of the printing process, for example, from the start of the printing process to the end thereof (for example, 1 minute). As a result, the feeling of boredom of the player due to waiting for printing can be eliminated.

待ち受け動画編集処理の詳細を説明する前に、待ち受け動画の構成について説明する。図8に示すように、待ち受け動画は複数のコマ画像FP1〜FP4で構成される。携帯電話機400のディスプレイに表示されるコマ画像を、所定時間(たとえば0.5秒)おきに、FP1→FP2→FP3→FP4の順番で巡回させながら切り替えることで、コマ画像FP1〜FP4内のスタンプ動画像P2、P3及びP4がアニメーション動作をする。要するに、待ち受け動画は、パラパラマンガと同じ要領でアニメーション動作を実現する。以下、このような待ち受け動画を作成する待ち受け動画編集処理について説明する。   Before describing the details of the standby video editing process, the configuration of the standby video will be described. As shown in FIG. 8, the standby moving image is composed of a plurality of frame images FP1 to FP4. By switching the frame images displayed on the display of the mobile phone 400 in the order of FP1 → FP2 → FP3 → FP4 at predetermined time intervals (for example, 0.5 seconds), the stamps in the frame images FP1 to FP4 are switched. The moving images P2, P3, and P4 perform an animation operation. In short, the standby video can be animated in the same way as the flip book. The standby video editing process for creating such a standby video will be described below.

図9を参照して、CPU103bはまず、編集ディスプレイ40に図10に示す案内画面を表示する(S30)。案内画面には、「らくがきする」ボタン75と、「画像を選ぶ」ボタン76と、「編集しない」ボタン77とが表示される。   Referring to FIG. 9, CPU 103b first displays the guidance screen shown in FIG. 10 on editing display 40 (S30). On the guidance screen, a “draft” button 75, a “select image” button 76, and a “do not edit” button 77 are displayed.

利用者の操作により「らくがきをする」ボタン75が選択され、かつ、決定のボタン74が選択されたとき、CPU103bは待ち受け動画編集処理を実行する(S31)。   When the “write scribbling” button 75 is selected by the user's operation and the determination button 74 is selected, the CPU 103b executes standby moving image editing processing (S31).

図11を参照して、CPU103bはまず、編集ディスプレイ40に図12に示す画像選択画面を表示する。画像選択画面の上段には、撮影処理(図5)のステップS9で選択された4枚の写真画像A〜Dが表示され、下段には画像編集処理により作成され、写真画像A〜Dにそれぞれ対応する編集画像E〜Hが表示される。プレイヤは、タッチペン42を用いて、編集ディスプレイ40に表示された8枚の画像A〜Hのうち所望の画像を1枚タッチして選択する。このとき、タッチされた画像(ここでは、写真画像A)の周囲にはカーソル66が表示され、選択された画像が視覚的にわかりやすくなっている。プレイヤは画像を選択後、「決定」ボタン65をタッチする。CPU103bは「決定」ボタン65へのタッチを検知して、カーソル66で囲まれた写真画像Aを編集対象画像に設定する(S311)。なお、CPU103bは図12に示す画像選択画面を編集ディスプレイ40上に左右に並べて2つ表示する。つまり、画像編集処理における落書き画面(図7)と同様に、左右に同じ画面を表示して2人のプレイヤが並行して待ち受け動画を編集できるようにする。以降の説明で登場する表示画面も図7と同様に、それぞれの画面で選択を受け付けた内容に基づいて、編集ディスプレイ40に互いに独立して操作するための画面が左右に2つ表示されるものとする。   Referring to FIG. 11, CPU 103b first displays an image selection screen shown in FIG. In the upper part of the image selection screen, the four photographic images A to D selected in step S9 of the photographing process (FIG. 5) are displayed, and in the lower part, they are created by the image editing process, and each of the photographic images A to D is displayed. Corresponding edited images E to H are displayed. The player uses the touch pen 42 to select a desired image by touching one of the eight images A to H displayed on the editing display 40. At this time, a cursor 66 is displayed around the touched image (here, photographic image A), so that the selected image is visually easy to understand. After selecting an image, the player touches the “OK” button 65. The CPU 103b detects a touch on the “OK” button 65, and sets the photographic image A surrounded by the cursor 66 as an image to be edited (S311). The CPU 103b displays two image selection screens shown in FIG. 12 side by side on the editing display 40. That is, similar to the graffiti screen in the image editing process (FIG. 7), the same screen is displayed on the left and right so that two players can edit the standby video in parallel. Similarly to FIG. 7, the display screens appearing in the following description are those in which two screens for independent operation are displayed on the editing display 40 on the left and right sides based on the contents received on each screen. And

CPU103bは、ステップS311で選択された画像が写真画像か編集画像かを判断する(S312)。たとえば、ステップS311で写真画像Aが選択された場合、CPU103bは写真画像が選択されたと判断し(S312でYES)、レイヤ画像(背景画像及びフレーム画像)の選択処理を実行する(S313)。このとき、CPU103bは図13に示す背景及びフレーム選択画面を編集ディスプレイ40に表示する。背景選択エリア70には、ハードディスク104bから読み出された背景画像を表示した複数の画像選択ボタン72が配置され、フレーム選択エリア71にはハードディスク104bから読み出されたフレーム画像が表示された複数の画像選択ボタン72が配置される。なお、背景選択エリア70、フレーム選択エリア71内の「なし」画像Kの画像選択ボタン72がタッチされた場合、背景画像、フレーム画像は写真画像Aに付加されない。つまり、利用者は「なし」画像Kを選択することにより背景画像及び/又はフレーム画像を選択しないこともできる。   The CPU 103b determines whether the image selected in step S311 is a photographic image or an edited image (S312). For example, if the photograph image A is selected in step S311, the CPU 103b determines that the photograph image has been selected (YES in S312), and executes a layer image (background image and frame image) selection process (S313). At this time, the CPU 103b displays the background and frame selection screen shown in FIG. In the background selection area 70, a plurality of image selection buttons 72 that display background images read from the hard disk 104b are arranged. In the frame selection area 71, a plurality of frame images read from the hard disk 104b are displayed. An image selection button 72 is arranged. When the image selection button 72 for the “none” image K in the background selection area 70 and the frame selection area 71 is touched, the background image and the frame image are not added to the photographic image A. That is, the user can select no background image and / or frame image by selecting the “none” image K.

たとえば、背景画像Iの画像選択ボタン72とフレーム画像Jの画像選択ボタン72のタッチを検知すると、CPU103bは、背景画像Iとフレーム画像Jをそれぞれ選択画像として設定する。   For example, when the touch of the image selection button 72 for the background image I and the image selection button 72 for the frame image J is detected, the CPU 103b sets the background image I and the frame image J as selection images, respectively.

なお、ステップS311で編集画像E〜Hのいずれかを選択した場合(S312でNO)、ステップ313をスキップする。編集画像E〜Hには、背景画像やフレーム画像がすでに描画されているからである。   If any one of the edited images E to H is selected in step S311 (NO in S312), step 313 is skipped. This is because background images and frame images are already drawn on the edited images E to H.

ここで、CPU103bは、レイヤの設定を行う(S314及びS315)。図14を参照して、レイヤは、編集対象レイヤ80と、編集対象レイヤ80上に重なる複数の動画レイヤ81〜84とで構成される。   Here, the CPU 103b sets a layer (S314 and S315). Referring to FIG. 14, the layer includes an editing target layer 80 and a plurality of moving image layers 81 to 84 that overlap the editing target layer 80.

スタンプ動画像を構成する各パタン画像は、入力される動画レイヤをあらかじめ対応付けられている。たとえば、図14中のテーブルを参照して、スタンプ動画像P4は、4つのパタン画像P4−1〜P4−4で構成される。そして、スタンプ動画像P4が選択された場合、各パタン画像P4−1〜P4−4は、対応する動画レイヤ81〜84にそれぞれ入力される。具体的には、パタン画像P4−1は動画レイヤ81に、P4−2は動画レイヤ82に、P4−3は動画レイヤ83に、P4−4は動画レイヤ84にそれぞれ入力される。同様に、スタンプ動画像トP3は、3つのパタン画像P3−1〜P3−3で構成され、スタンプ動画像P3が選択された場合、パタン画像P3−1は動画レイヤ81及び82に入力され、P3−2が動画レイヤ83に、P3−3が動画レイヤ84にそれぞれ入力される。スタンプ動画像P2は、2つのパタン画像P2−1及びP2−2で構成され、スタンプ動画像P2が選択された場合、パタン画像P2−1は動画レイヤ81及び82に、パタン画像P2−2は動画レイヤ83及び84にそれぞれ入力される。図14中のテーブルは、ハードディスク104bにあらかじめ入力されている。ペン動画像についても上述のスタンプ動画像と同様に、各パタン画像が対応する動画レイヤ81〜84に入力される。   Each pattern image constituting the stamp moving image is associated with an input moving image layer in advance. For example, referring to the table in FIG. 14, the stamp moving image P4 is composed of four pattern images P4-1 to P4-4. When the stamp moving image P4 is selected, the pattern images P4-1 to P4-4 are input to the corresponding moving image layers 81 to 84, respectively. Specifically, the pattern image P4-1 is input to the moving image layer 81, P4-2 is input to the moving image layer 82, P4-3 is input to the moving image layer 83, and P4-4 is input to the moving image layer 84. Similarly, the stamp moving image P3 includes three pattern images P3-1 to P3-3, and when the stamp moving image P3 is selected, the pattern image P3-1 is input to the moving image layers 81 and 82, P3-2 is input to the moving image layer 83 and P3-3 is input to the moving image layer 84, respectively. The stamp moving image P2 includes two pattern images P2-1 and P2-2. When the stamp moving image P2 is selected, the pattern image P2-1 is displayed on the moving image layers 81 and 82, and the pattern image P2-2 is displayed on the moving image layer P2-2. Input to the moving image layers 83 and 84, respectively. The table in FIG. 14 is input in advance to the hard disk 104b. As for the pen moving image, each pattern image is input to the corresponding moving image layers 81 to 84 in the same manner as the stamp moving image.

なお、動画レイヤ81〜84にはスタンプ静止画像やペン静止画像も入力できる。たとえばスタンプ静止画像P1は、各動画レイヤ81〜84の同じ配置位置にそれぞれ入力される。   Note that a stamp still image and a pen still image can also be input to the moving image layers 81 to 84. For example, the stamp still image P1 is input to the same arrangement position of each of the moving image layers 81 to 84.

CPU103bはレイヤを設定するとき、各レイヤ80〜84のサイズを、画像編集処理で設定されるレイヤのサイズよりも小さくする。CPU103bは、編集対象レイヤ80に入力される編集対象画像の画素数(解像度)を、画像編集処理時に写真レイヤに展開される写真画像の画素数よりも小さくする。待ち受け動画を表示する携帯電話機400のディスプレイサイズは小さいため、待ち受け動画の画素数はシールシートに印刷される編集画像の画素数より低くても視覚的に違和感がないからである。編集対象画像の画素数を小さくすることにより、上述のとおり、編集対象レイヤ80のサイズも小さくできる。その結果、余ったメモリ容量で複数の動画レイヤ81〜84を設定できる。動画レイヤ数が多いほど、コマ画像を多く作成できるため、表現力の高いアニメーション動作を実現できる。なお、各レイヤのサイズは同じとする。   When the layer is set, the CPU 103b makes the size of each layer 80 to 84 smaller than the size of the layer set in the image editing process. The CPU 103b makes the number of pixels (resolution) of the editing target image input to the editing target layer 80 smaller than the number of pixels of the photographic image developed in the photographic layer during the image editing process. This is because the display size of the mobile phone 400 that displays the standby moving image is small, so that even if the number of pixels of the standby moving image is lower than the number of pixels of the edited image printed on the sticker sheet, there is no visual discomfort. By reducing the number of pixels of the editing target image, the size of the editing target layer 80 can be reduced as described above. As a result, a plurality of moving image layers 81 to 84 can be set with a surplus memory capacity. As the number of moving image layers increases, more frame images can be created, so that highly expressive animation operations can be realized. Note that the size of each layer is the same.

CPU103bはさらに、設定された編集対象レイヤ80上にステップS311及びステップS313で選択された画像(写真画像、背景画像及びフレーム画像)を上書き展開する(S314)。画像編集処理の場合、背景レイヤ、写真レイヤ、フレームレイヤを準備し、各画像を対応するレイヤに展開してこれらのレイヤを重ねて編集ディスプレイ40に表示したが、待ち受け動画編集処理では、背景レイヤ、写真レイヤ、フレームレイヤの3つのレイヤを準備せず、1つの編集対象レイヤに背景画像、写真画像及びフレーム画像を上書き展開する。これにより、画像編集処理で背景レイヤ及びフレームレイヤに利用されていたメモリ容量分を動画レイヤの設定に利用できる。   Further, the CPU 103b overwrites and develops the image (photo image, background image, and frame image) selected in step S311 and step S313 on the set editing target layer 80 (S314). In the case of the image editing process, a background layer, a photo layer, and a frame layer are prepared, and each image is expanded into a corresponding layer and these layers are superimposed and displayed on the editing display 40. However, in the standby video editing process, the background layer Without preparing three layers, a photo layer and a frame layer, a background image, a photo image, and a frame image are overwritten and developed on one editing target layer. Thereby, the memory capacity used for the background layer and the frame layer in the image editing process can be used for setting the moving image layer.

写真画像、背景画像及びフレーム画像には表示優先順位が設定されており、CPU103bは、表示優先順位の低い画像から順番に編集対象レイヤ80上に上書き展開する。たとえば、図15に示すように、背景画像Iの表示優先順位が最も低く、フレーム画像Jの表示優先順位が最も高い場合、まず初めに背景画像Iを編集対象レイヤ80上に展開し、次に背景画像Iが展開された編集対象レイヤ80上に写真画像Aを上書き展開し、最後にフレーム画像Jを上書き展開する。編集対象レイヤ80上に展開するとき、写真画像A中の被写体を除く単一色の領域(図15中の斜線部86)はクロマキ技術により透明にされる。また、フレーム画像J中の斜線部87は透明である。そのため、これらの画像を重ねて展開した場合、編集対象レイヤ80上に展開された編集対象画像は図16に示すとおりとなる。   Display priority is set for the photographic image, the background image, and the frame image, and the CPU 103b performs overwriting development on the editing target layer 80 in order from the image with the lowest display priority. For example, as shown in FIG. 15, when the display priority of the background image I is the lowest and the display priority of the frame image J is the highest, the background image I is first developed on the editing target layer 80, and then The photo image A is overwritten and developed on the editing target layer 80 on which the background image I is developed, and finally the frame image J is overwritten and developed. When the image is expanded on the editing target layer 80, a single color area (shaded portion 86 in FIG. 15) excluding the subject in the photographic image A is made transparent by the chroma technique. Further, the hatched portion 87 in the frame image J is transparent. Therefore, when these images are superimposed and developed, the editing target image developed on the editing target layer 80 is as shown in FIG.

以上のように、待ち受け動画編集処理では、画像の画素数(解像度)を編集画像よりも小さくし、これにより余ったメモリ容量を複数の動画レイヤの設定に利用する。   As described above, in the standby moving image editing process, the number of pixels (resolution) of the image is made smaller than that of the edited image, and the remaining memory capacity is used for setting a plurality of moving image layers.

さらに、背景レイヤ及びフレームレイヤを設定せずに、1枚の編集対象レイヤ80上に背景画像、写真画像、フレーム画像を重ねて展開する。そのため、背景レイヤ及びフレームレイヤを設定する画像編集処理と比較して、メモリ負担を軽減でき、軽減した分を複数の動画レイヤの設定に利用できる。   Furthermore, without setting a background layer and a frame layer, a background image, a photographic image, and a frame image are superimposed and developed on one editing target layer 80. Therefore, compared with the image editing process for setting the background layer and the frame layer, the memory load can be reduced, and the reduced amount can be used for setting a plurality of moving image layers.

編集対象レイヤ80上に編集対象画像を展開した後、CPU103bは、複数の動画レイヤ81〜84を設定する(S315)。本実施の形態では、動画レイヤを4つ設定する。編集対象画像の画素数を小さくし、かつ、1枚の編集対象レイヤ80上に背景画像、写真画像及びフレーム画像を上書き展開することによりメモリ負担を軽減した分、動画レイヤ数を多く設定することができるため、より表現力の高いアニメーション動作を実現できる。本実施の形態では動画レイヤを4枚(81〜84)としたが、メモリ負荷に応じて、それ以上の動画レイヤ数を設定してもよい4枚未満の動画レイヤ数としてもよい。以下、動画レイヤ81〜84に展開される画像の描画方法について説明する。   After developing the editing target image on the editing target layer 80, the CPU 103b sets a plurality of moving image layers 81 to 84 (S315). In the present embodiment, four moving image layers are set. Reduce the memory load by reducing the number of pixels in the image to be edited and overwriting the background image, photo image, and frame image on the single edit target layer 80, and increase the number of movie layers. Therefore, it is possible to realize more expressive animation motion. In the present embodiment, the number of moving image layers is four (81 to 84). However, the number of moving image layers may be set to more than four, depending on the memory load. Hereinafter, a method of drawing an image developed on the moving image layers 81 to 84 will be described.

編集対象レイヤ80及び動画レイヤ81〜84を設定後、CPU103bは図17に示すような落書き画面を編集ディスプレイ40に表示する(S316)。落書き画面中の描画領域90には、編集対象レイヤ80に入力された編集対象画像が表示される。編集対象レイヤ80に入力された編集対象画像の画素数は、画像編集処理時の写真レイヤに入力された写真画像の画素数よりも小さいため、描画領域90に表示される編集対象画像は図7中の描画領域60L、60Rに表示される画像よりも小さい画素数(たとえば240×320ドット)で表示される。   After setting the editing target layer 80 and the moving image layers 81 to 84, the CPU 103b displays a graffiti screen as shown in FIG. 17 on the editing display 40 (S316). In the drawing area 90 in the graffiti screen, the editing target image input to the editing target layer 80 is displayed. Since the number of pixels of the editing target image input to the editing target layer 80 is smaller than the number of pixels of the photographic image input to the photographic layer at the time of image editing processing, the editing target image displayed in the drawing area 90 is FIG. The image is displayed with a smaller number of pixels (for example, 240 × 320 dots) than the image displayed in the drawing regions 60L and 60R.

続いて、CPU103bは、落書き時間のカウントを開始し、落書き時間が制限時間(たとえば1分)に達するか、おしまいボタン91がタッチペン42でタッチされるまでの間(S318でYES)、CPU103bは落書き処理を実行する(S317)。   Subsequently, the CPU 103b starts counting the graffiti time, and until the graffiti time reaches a time limit (for example, 1 minute) or until the end button 91 is touched with the touch pen 42 (YES in S318), the CPU 103b The process is executed (S317).

落書き処理実行時、CPU103bは、タッチペン42による落書き画面へのタッチを検知する。なお、待ち受け動画編集処理は印刷処理中に実行されるが、一般的に印刷時間は画像編集処理の実行時間よりも短いため、待ち受け動画編集処理の時間は画像編集処理の時間よりも短く設定する。そのため、落書きツールの種類も画像編集処理時よりも制限する。   When the graffiti process is executed, the CPU 103b detects a touch on the graffiti screen by the touch pen 42. The standby video editing process is executed during the printing process, but since the printing time is generally shorter than the image editing process execution time, the standby video editing process time is set shorter than the image editing process time. . For this reason, the types of graffiti tools are also limited compared to the image editing process.

たとえば、スタンプボタン96のタッチを検知すると、図17のように複数のスタンプタブ92が表示される。「アニメーションスタンプ1」タブ92のタッチを検知すると、図17に示すように、CPU103bは落書きツールを「アニメーションスタンプ」に設定し、落書き画面にアニメーションスタンプパレット97を表示する。アニメーションスタンプパレット97には、スタンプ動画像が表示された複数の画像選択ボタン98が表示される。このとき、各画像選択ボタン98に表示されたスタンプ動画像はアニメーション動作せず、各スタンプ動画像を構成する複数のパタン画像のうち、いずれか1つのパタン画像(たとえば、最もデータサイズの大きいパタン画像)のみが表示される。たとえば、画像選択ボタン98Bには、スタンプ動画像P4を構成するパタン画像P4−1〜P4−4(図14参照)のうち、データサイズが最大であるパタン画像P4−4が表示されている。   For example, when the touch of the stamp button 96 is detected, a plurality of stamp tabs 92 are displayed as shown in FIG. When the touch of the “animation stamp 1” tab 92 is detected, as shown in FIG. 17, the CPU 103b sets the graffiti tool to “animation stamp” and displays the animation stamp palette 97 on the graffiti screen. In the animation stamp palette 97, a plurality of image selection buttons 98 on which stamp moving images are displayed are displayed. At this time, the stamp moving image displayed on each image selection button 98 is not animated, and one of the plurality of pattern images constituting each stamp moving image (for example, the pattern having the largest data size). (Image) only. For example, in the image selection button 98B, a pattern image P4-4 having the maximum data size among the pattern images P4-1 to P4-4 (see FIG. 14) constituting the stamp moving image P4 is displayed.

複数の画像選択ボタン98のうち、ボタン98Aのタッチを検知すると、CPU103bは、ボタン98Aの周囲にカーソルCUを表示し、ボタン98Aのパタン画像P4−1を含むスタンプ動画像をP10と特定し、特定されたスタンプ動画像P10のアニメーション動作をアニメーション表示エリア99に表示する。図18に示すように、スタンプ動画像P10がパタン画像P10−1及びP10−2で構成されているとき、CPU103bは、アニメーション表示エリア99にパタン画像P10−1とP10−2とを交互に切り替えて順次表示する。なお、CPU103bが選択ボタン98Bのタッチを検知した場合、選択ボタン98Bに表示されたパタン画像P4−4の属する画像をスタンプ動画像P4と特定し、アニメーション表示エリア99にスタンプ動画像P4のアニメーション動作を表示する。つまり、パタン画像P4−1〜P4−4を順番に繰り返し表示する。   When the touch of the button 98A is detected among the plurality of image selection buttons 98, the CPU 103b displays the cursor CU around the button 98A, identifies the stamp moving image including the pattern image P4-1 of the button 98A as P10, The animation operation of the identified stamp moving image P10 is displayed in the animation display area 99. As shown in FIG. 18, when the stamp moving image P10 is composed of the pattern images P10-1 and P10-2, the CPU 103b switches the pattern images P10-1 and P10-2 alternately in the animation display area 99. Display sequentially. When the CPU 103b detects the touch of the selection button 98B, the image to which the pattern image P4-4 displayed on the selection button 98B belongs is specified as the stamp moving image P4, and the animation operation of the stamp moving image P4 is performed in the animation display area 99. Is displayed. That is, the pattern images P4-1 to P4-4 are repeatedly displayed in order.

以上のとおり、アニメーションスタンプパレット97内の画像選択ボタン98に表示されたスタンプ動画像は動作せず、選択されたスタンプ動画像のみ、アニメーション表示エリア99でアニメーション動作させる。アニメーションスタンプパレット97内の画像選択ボタン98に表示される全てのスタンプ動画像を動作させた場合、見た目が煩わしい。選択されたスタンプ動画像のアニメーション動作のみをアニメーション表示エリア99で表示することで、プレイヤは選択したスタンプ動画像の動作を確認でき、かつ、見た目の煩わしさを解消できる。さらに、パレット上の全てのスタンプ動画像を動作させないため、処理負担も軽減できる。   As described above, the stamp moving image displayed on the image selection button 98 in the animation stamp palette 97 does not operate, and only the selected stamp moving image is animated in the animation display area 99. When all the stamp moving images displayed on the image selection button 98 in the animation stamp palette 97 are operated, the appearance is troublesome. By displaying only the animation operation of the selected stamp moving image in the animation display area 99, the player can confirm the operation of the selected stamp moving image and can eliminate the troublesomeness of appearance. Furthermore, since all the stamp moving images on the pallet are not operated, the processing load can be reduced.

画像選択ボタン98Bのタッチを検知したのち、描画領域90内で再びタッチを検知したとき、CPU103bは、描画領域90内のタッチを検知した位置にスタンプ動画像P4を描画する。このとき、CPU103bは、ハードディスク104bからスタンプ動画像P4を構成するパタン画像P4−1〜P4−4を読み出す。そして、描画領域90内での検知位置(配置位置)に相当する動画レイヤ81内の配置位置にパタン画像P4−1を入力する。同様に、描画領域90内での検知位置に相当する動画レイヤ82〜84内の配置位置に、パタン画像P4−2〜P4−4をそれぞれ展開する(図14参照)。   After detecting the touch of the image selection button 98B, when the touch is detected again in the drawing area 90, the CPU 103b draws the stamp moving image P4 at the position where the touch in the drawing area 90 is detected. At this time, the CPU 103b reads pattern images P4-1 to P4-4 constituting the stamp moving image P4 from the hard disk 104b. Then, the pattern image P4-1 is input to the arrangement position in the moving image layer 81 corresponding to the detection position (arrangement position) in the drawing area 90. Similarly, the pattern images P4-2 to P4-4 are respectively developed at the arrangement positions in the moving image layers 82 to 84 corresponding to the detection positions in the drawing area 90 (see FIG. 14).

以上の方法により、スタンプ動画像を動画レイヤ81〜84に入力する。なお、ペン動画像が選択、描画された場合も同様の処理を実行する。ペン動画像は、たとえば、図19に示すようにペンの色が異なるパタン画像P11−1及びP11−2で構成される。   The stamp moving image is input to the moving image layers 81 to 84 by the above method. The same process is executed when a pen moving image is selected and drawn. The pen moving image includes, for example, pattern images P11-1 and P11-2 having different pen colors as shown in FIG.

以上の方法により、CPU103bは動画レイヤ81〜84にスタンプ動画像及びペン動画像を順次描画する。図14では、スタンプ動画像P2、P3、P4が描画された場合の動画レイヤ81〜84を示す。   With the above method, the CPU 103b sequentially draws the stamp moving image and the pen moving image on the moving image layers 81 to 84. FIG. 14 shows moving image layers 81 to 84 when the stamp moving images P2, P3, and P4 are drawn.

CPU103bは、編集対象レイヤ80に動画レイヤ84を重ねた画像を描画領域90に表示する。この場合、描画領域90の画面はアニメーション動作をしないため、処理負担が軽減される。また、CPU103bは、編集対象レイヤ80上に重ねる動画レイヤをを順次切り替えながら、描画領域90に画像を表示してもよい。この場合、描画領域90の画面はアニメーション動作する。   The CPU 103 b displays an image in which the moving image layer 84 is superimposed on the editing target layer 80 in the drawing area 90. In this case, since the screen of the drawing area 90 does not perform an animation operation, the processing load is reduced. Further, the CPU 103b may display an image in the drawing area 90 while sequentially switching the moving image layers to be superimposed on the editing target layer 80. In this case, the screen of the drawing area 90 performs an animation operation.

CPU103bはまた、落書き処理時に、上述のスタンプ動画像及びペン動画像だけでなく、スタンプ静止画像及びペン静止画像も描画できる。図20に示すように、CPU103bは、「スタンプ1」タブ92のタッチを検知すると、落書きツールを「静止画スタンプ」に設定する。そして、ハードディスク104bから静止画像であるスタンプ静止画像を読み出して、スタンプパレット93内の画像選択ボタン94に表示する。   The CPU 103b can also draw not only the stamp moving image and the pen moving image described above but also the stamp still image and the pen still image during the graffiti process. As illustrated in FIG. 20, when detecting the touch of the “stamp 1” tab 92, the CPU 103b sets the graffiti tool to “still image stamp”. Then, a stamp still image that is a still image is read from the hard disk 104 b and displayed on the image selection button 94 in the stamp palette 93.

複数の画像選択ボタン94のうち、ボタン94Aのタッチを検知したとき、CPU103bはスタンプ静止画像P1を選択画像に設定する。続いて、描画領域90内の地点X1でタッチを検知したとき、CPU103bは、地点X1に相当する動画レイヤ81〜84内の配置位置にスタンプ静止画像P1をそれぞれ入力する(図14参照)。   When the touch of the button 94A is detected among the plurality of image selection buttons 94, the CPU 103b sets the stamp still image P1 as the selected image. Subsequently, when a touch is detected at the point X1 in the drawing area 90, the CPU 103b inputs the stamp still image P1 to the arrangement position in the moving image layers 81 to 84 corresponding to the point X1 (see FIG. 14).

このように、静止画像と動画像とを同じパレットに表示せず、静止画像の選択を受け付けるために表示されるパレットと、動画像の選択を受け付けるために表示されるパレットとを、それぞれ区別していずれかを表示する。そのため、パレットに表示されている画像が動く画像か動かない画像かを視覚的に区別でき、選択または入力の容易性が高まり、混乱することがない。   In this way, the still image and the moving image are not displayed on the same palette, and the palette displayed for receiving the selection of the still image and the palette displayed for receiving the selection of the moving image are distinguished from each other. Display either one. Therefore, it is possible to visually distinguish whether the image displayed on the palette is a moving image or a non-moving image, and the ease of selection or input is increased and there is no confusion.

以上の方法により、落書き処理を実行した結果、制限時間の経過、又は、おしまいボタン91のタッチを検知したとき(S318でYES)、編集対象レイヤ80及び動画レイヤ81〜84に入力された画像をファイルに保存し、保存したファイルをサーバに送信する(データ送信処理:S319)。データ送信処理は、以下のとおり、CASE1及びCASE2の2通りの処理方法があり、CPU103bは、CASE1及びCASE2のいずれを実行してもよい。以下、CASE1及びCASE2について説明する。   As a result of executing the graffiti processing by the above method, when the elapse of the time limit or the touch of the end button 91 is detected (YES in S318), the images input to the editing target layer 80 and the moving image layers 81 to 84 are displayed. The file is saved, and the saved file is transmitted to the server (data transmission process: S319). The data transmission process has two processing methods, CASE1 and CASE2, as follows, and the CPU 103b may execute either CASE1 or CASE2. Hereinafter, CASE1 and CASE2 will be described.

[CASE1]
図21及び図22を参照して、CPU103bはまず、編集対象レイヤ80上の画像BPを読み出す(S51)。続いて、動画レイヤ81の画像PP1を読み出し(S52)、読み出した画像PP1を画像BP上に重ねて合成し、合成画像CP1を作成する(S53)。合成後、全ての動画レイヤの画像PP1〜PP4に対して合成画像を作成していなければ(S54でNO)、次の画像PP2を読み出し(S52)、合成画像CP2を作成する。図22に示すように、全ての画像PP1〜PP4に対して合成画像CP1〜CP4を作成した後(S54でYES)、これらの合成画像CP1〜CP4を圧縮ファイル形式(例えばJPEG形式やGIF形式)に変換して合成画像ファイルとし、メモリ105bに格納する(S55)。
[CASE1]
Referring to FIGS. 21 and 22, the CPU 103b first reads an image BP on the editing target layer 80 (S51). Subsequently, the image PP1 of the moving image layer 81 is read (S52), and the read image PP1 is superimposed on the image BP and synthesized to create a synthesized image CP1 (S53). If a composite image has not been created for all the moving image layers PP1 to PP4 after synthesis (NO in S54), the next image PP2 is read (S52), and a composite image CP2 is created. As shown in FIG. 22, after the composite images CP1 to CP4 are created for all the images PP1 to PP4 (YES in S54), these composite images CP1 to CP4 are compressed into a compressed file format (for example, JPEG format or GIF format). Is converted into a composite image file and stored in the memory 105b (S55).

格納後、プレイヤの携帯電話機400を特定するためのアドレス情報を受け付け、メモリ105bに保存する(S56)。CPU103bは、メモリ105bに格納した合成画像ファイル及びアドレス情報をサーバ300に送信する(S57)。   After the storage, address information for specifying the player's mobile phone 400 is received and stored in the memory 105b (S56). The CPU 103b transmits the composite image file and address information stored in the memory 105b to the server 300 (S57).

なお、CPU103bは、合成画像ファイル及びアドレス情報と共に、合成画像CPU1〜CP4の表示順番及び表示時間に関するアニメーション設定情報を送信する。アニメーション設定情報は、たとえば、合成画像CP1〜CP4を、0.5秒おきにCP1→CP2→CP3→CP4の順に巡回して表示する、といった表示順番情報及び表示時間情報を含む。ただし、サーバ300がアニメーション設定情報を予め記憶している場合、CPU103bはアニメーション設定情報を送信しない。   The CPU 103b transmits animation setting information related to the display order and display time of the composite images CPU1 to CP4 together with the composite image file and the address information. The animation setting information includes, for example, display order information and display time information such that the composite images CP1 to CP4 are displayed in cycles of CP1 → CP2 → CP3 → CP4 every 0.5 seconds. However, when the server 300 stores animation setting information in advance, the CPU 103b does not transmit animation setting information.

サーバ300は、合成画像ファイル、アニメーション設定情報及びアドレス情報を受け、自身のメモリに保存する。保存後、サーバ300は、合成画像ファイルをデコードして生成された合成画像CP1〜CP4と、アニメーション設定情報とに基づいて、待ち受け動画ファイルを作成する。待ち受け動画ファイルは、たとえば、アニメーションGIFファイルであってもよいし、フラッシュファイルであってもよい。いずれのファイル形式であっても、合成画像CP1〜CP4及びアニメーション設定情報に基づいて動画ファイルを作成できる。   The server 300 receives the composite image file, animation setting information, and address information, and stores them in its own memory. After saving, the server 300 creates a standby moving image file based on the composite images CP1 to CP4 generated by decoding the composite image file and the animation setting information. The standby moving image file may be, for example, an animation GIF file or a flash file. In any file format, a moving image file can be created based on the composite images CP1 to CP4 and the animation setting information.

サーバは、作成された動画ファイルをアドレス情報と対応づけて自身のハードディスクに保存する。そして、プレイヤが使用する携帯電話機400からの要求に応じて、アドレス情報に対応する携帯電話機400に動画ファイルを送信する。   The server stores the created moving image file in its own hard disk in association with the address information. And according to the request | requirement from the mobile telephone 400 which a player uses, a moving image file is transmitted to the mobile telephone 400 corresponding to address information.

プレイヤの携帯電話機400は、受信した待ち受け動画ファイルに基づいて、合成画像CP1〜CP4を順番にディスプレイに表示する。これにより、プレイヤは、待ち受け動画のアニメーション動作を見ることができる。   The cellular phone 400 of the player displays the composite images CP1 to CP4 in order on the display based on the received standby moving image file. Thereby, the player can see the animation operation of the standby moving image.

[CASE2]
CASE1のように、合成画像CP1〜CP4を作成し、パラパラマンガの要領で合成画像CP1〜CP4を順次切り替えて表示することで、待ち受け動画としてもよいが、他の方法により待ち受け動画を作成してもよい。
[CASE2]
As in CASE1, composite images CP1 to CP4 are created, and the composite images CP1 to CP4 are sequentially switched and displayed in the manner of the flip book. Also good.

図23に示すように、CASE2では、CASE1のように合成画像CP1〜CP4を作成しない。代わりに、携帯電話機400に表示するときに、動画レイヤの画像PP1〜PP4を編集対象レイヤの画像BP上に重ねて表示し、かつ、画像PP1〜PP4を順番に切り替えて繰り返し表示する。つまり、画像BPが画像PP1〜PP4の背景となる。   As shown in FIG. 23, CASE2 does not create composite images CP1 to CP4 unlike CASE1. Instead, when displaying on the mobile phone 400, the images PP1 to PP4 of the moving image layer are superimposed on the image BP of the editing target layer, and the images PP1 to PP4 are sequentially switched and repeatedly displayed. That is, the image BP becomes the background of the images PP1 to PP4.

合成画像CP1〜CP4を作成し、これをたとえばJPEGのような非可逆圧縮ファイル形式に変換した場合、デコード後の合成画像CP1〜CP4内の被写体の輪郭等が各画像でずれる場合がある。場合によっては、被写体の目や鼻といった部位の位置が若干ずれる。このようなズレは、アニメーション動作のときに視覚的な違和感を生じさせる。   When composite images CP1 to CP4 are created and converted into an irreversible compression file format such as JPEG, the outline of the subject in the composite images CP1 to CP4 after decoding may be shifted between the images. In some cases, the position of the subject's eyes or nose is slightly shifted. Such a shift causes visual discomfort during the animation operation.

これに対し、CASE2のような動画構成にすれば、被写体を含む画像BPは画像PP1〜PP4とは別個に圧縮される。そのため、デコード後の人物画像にズレは発生するはずがなく、視覚的な違和感は発生しない。以下、CASE2の処理方法を説明する。   On the other hand, if a moving image structure such as CASE2 is used, the image BP including the subject is compressed separately from the images PP1 to PP4. For this reason, there should be no deviation in the decoded human image, and no visual discomfort will occur. Hereinafter, a processing method of CASE 2 will be described.

図24及び図25を参照して、CPU103bはまず、編集対象レイヤ80の画像BPを圧縮ファイル形式で保存する(S61)。続いて、動画レイヤ81〜84の画像PP1〜PP4を圧縮ファイル形式で保存する(S62)。さらに、CPU103bは、アニメーション設定情報を作成する(S63)。図25に示すように、アニメーション設定情報は、下層レイヤ及び上層レイヤに展開する画像の順番及び各画像の表示時間を含む。表示時間はメモリ105bに予め記憶されている。   24 and 25, the CPU 103b first stores the image BP of the editing target layer 80 in a compressed file format (S61). Subsequently, the images PP1 to PP4 of the moving image layers 81 to 84 are stored in a compressed file format (S62). Further, the CPU 103b creates animation setting information (S63). As shown in FIG. 25, the animation setting information includes the order of images developed in the lower layer and the upper layer and the display time of each image. The display time is stored in advance in the memory 105b.

続いて、CPU103bは、プレイヤの携帯電話機のアドレス情報を受け付け、メモリ105bに保存する(S64)。保存後、画像BPと、画像PP1〜PP4と、アニメーション設定情報と、アドレス情報とをサーバ300に送信する(S65)。   Subsequently, the CPU 103b receives the address information of the player's mobile phone and stores it in the memory 105b (S64). After saving, the image BP, the images PP1 to PP4, the animation setting information, and the address information are transmitted to the server 300 (S65).

サーバ300は、写真撮影遊戯機1からデータを受信し、アニメーション設定情報に基づいて、待ち受け動画ファイルを作成し、作成された待ち受け動画ファイルをアドレス情報に対応づけて保存する。そして、プレイヤが使用する携帯電話機からの要求に応じて、アドレス情報に対応する携帯電話機400に動画ファイルを送信する。   The server 300 receives data from the photographic game machine 1, creates a standby video file based on the animation setting information, and stores the created standby video file in association with the address information. Then, in response to a request from the mobile phone used by the player, the moving image file is transmitted to the mobile phone 400 corresponding to the address information.

プレイヤの携帯電話機400は、受信した動画ファイルに基づいて、図23に示すように、画像BPを背景画像とした状態で、画像BP上で画像PP1〜PP4を順次切り替えて繰り返し表示する。これにより、プレイヤは、待ち受け画像のアニメーション動作を見ることができる。   Based on the received moving image file, the player's mobile phone 400 sequentially switches and displays the images PP1 to PP4 on the image BP in a state where the image BP is a background image, as shown in FIG. Thereby, the player can see the animation operation of the standby image.

[動画像サンプル選択処理]
上述の待ち受け画像編集処理では、ユーザが落書きツールを用いてスタンプ動画像等を自由に描画したが、1又は複数のスタンプ動画像を含む複数のコマ画像で構成される動画サンプルを予め準備して、ユーザに動画サンプルを選択させてもよい。この場合、ユーザは動画サンプルを選択するだけで容易に待ち受け動画を作成できる。以下、動画サンプル選択処理について説明する。
[Video sample selection processing]
In the above-described standby image editing process, a user freely draws a stamp moving image or the like by using a graffiti tool. However, a moving image sample including a plurality of frame images including one or a plurality of stamp moving images is prepared in advance. The user may select a moving image sample. In this case, the user can easily create a standby moving image simply by selecting a moving image sample. Hereinafter, the moving image sample selection process will be described.

図9及び図10を参照して、印刷開始時に編集ディスプレイ40に表示された選択画面(図10)のうち、ユーザ操作により「画像を選ぶ」ボタン76のタッチを検知したとき(S30)、CPU103bは動画サンプル選択処理(S32〜S37)を実行する。   Referring to FIGS. 9 and 10, when the touch of the “select image” button 76 is detected by the user operation in the selection screen (FIG. 10) displayed on the editing display 40 at the start of printing (S30), the CPU 103b. Executes moving image sample selection processing (S32 to S37).

CPU103bはまず、編集ディスプレイ40に図12に示す選択画面を表示する(S32)。選択画面の上段には、撮影処理のステップS9で選択された4枚の写真画像A〜Dが表示され、下段には画像編集処理により作成された編集画像E〜Hが表示される。選択画面に表示された8枚の画像のうちのいずれか1つの画像へのタッチを検知したとき、タッチされた画像の周囲にカーソル66を表示し、決定ボタン65のタッチを検知したとき、カーソル66で囲まれた画像を編集対象画像に設定する。   First, the CPU 103b displays the selection screen shown in FIG. 12 on the editing display 40 (S32). In the upper part of the selection screen, the four photographic images A to D selected in step S9 of the photographing process are displayed, and in the lower part, the edited images E to H created by the image editing process are displayed. When a touch on any one of the eight images displayed on the selection screen is detected, a cursor 66 is displayed around the touched image, and when a touch on the enter button 65 is detected, the cursor The image surrounded by 66 is set as an image to be edited.

CPU103bは、選択設定された編集対象画像が写真画像あるか編集画像であるか判断する(S33)。たとえば、タッチされた画像が写真画像Aである場合(S33でYES)、図26に示すように、CPU103bは編集ディスプレイ40に写真画像用の複数の動画サンプル選択画面を表示する(S34)。   The CPU 103b determines whether the selected editing target image is a photographic image or an edited image (S33). For example, when the touched image is the photographic image A (YES in S33), as shown in FIG. 26, the CPU 103b displays a plurality of moving image sample selection screens for photographic images on the editing display 40 (S34).

「アップ用」タブ121へのタッチを検知すると、図26に示すようにアップ用パレット125を表示する。CPU103bは、複数のアップ用動画サンプルを写真画像A上に重ねて画像選択ボタン124として表示する。アップ用動画サンプルは、被写体がアップで撮影された写真画像を編集対象画像とした場合に編集対象画像との組合せが良好な動画サンプルであり、主として画像領域内の上辺近傍及び下辺近傍にスタンプ動画像を配置する。   When a touch on the “up” tab 121 is detected, an up palette 125 is displayed as shown in FIG. The CPU 103b displays a plurality of up moving image samples on the photographic image A as an image selection button 124. The video sample for up is a video sample that has a good combination with the image to be edited when a photographic image taken with the subject up is used as the image to be edited, and is mainly used in the vicinity of the upper and lower sides of the image area. Arrange the image.

「全身用」タブ122へのタッチを検知すると、図27に示すように全身用パレット126を表示する。全身用パレット126には、アップ用動画サンプルとデザインが異なる全身用動画サンプルを写真画像A上に重ねて画像選択ボタン127として表示する。全身用動画サンプルは、編集対象画像が被写体の全身を含むことを前提として準備された動画サンプルであり、主として画像領域内の周縁部近傍にスタンプ動画像が配置される。   When a touch on the “whole body” tab 122 is detected, a whole body palette 126 is displayed as shown in FIG. On the whole body palette 126, a whole body moving image sample having a design different from that of the up moving image sample is superimposed on the photographic image A and displayed as an image selection button 127. The whole body moving image sample is a moving image sample prepared on the assumption that the image to be edited includes the whole body of the subject, and the stamp moving image is arranged mainly in the vicinity of the peripheral portion in the image region.

「特殊」タブ123へのタッチを検知すると、図28に示すように特殊パレット128を表示する。特殊パレット128には、表示位置が固定されておらず画像領域内を移動するスタンプ動画像や、点滅するスタンプ動画像が予めデザインされた動画サンプルを写真画像A上に重ねて画像選択ボタン129A〜129Dとして表示する。動画サンプル内のスタンプ動画像G1やG2は、画像領域内で任意の方向又は上下、左右方向に移動する。スタンプ動画像G3及びG4は、所定期間おきに点滅する。これらのスタンプ動画像は、あるタイミングでは被写体の上に重なって表示されるが、別のタイミングでは被写体の上から離れたり、消えたりして被写体と重ならない。そのため、アニメーション動作中にスタンプ動画像G1〜G4が被写体上に常時重なるのを防止できる。   When a touch on the “special” tab 123 is detected, a special palette 128 is displayed as shown in FIG. In the special palette 128, the image selection buttons 129 </ b> A to 129 </ b> A are displayed by superimposing a moving image sample preliminarily designed on a photographic image A with a stamp moving image that moves within the image area without a fixed display position. Displayed as 129D. The stamp moving images G1 and G2 in the moving image sample move in an arbitrary direction or in the vertical and horizontal directions within the image area. The stamp moving images G3 and G4 blink at predetermined intervals. These stamp moving images are displayed over the subject at a certain timing, but they are separated from the subject or disappear at another timing and do not overlap the subject. Therefore, it is possible to prevent the stamp moving images G1 to G4 from always overlapping on the subject during the animation operation.

上述のいずれのタブ121〜123を選択しても、画像選択ボタンにはステップS32で選択された画像(写真画像A)を各タブ121〜123で分類された動画サンプルと重ねて表示する。プレイヤは、各タブ121〜123を切替ながら各タブの画像選択ボタンを見て、写真画像Aとデザイン的に相性のよい動画サンプル(たとえば、写真画像A内の被写体にスタンプ動画像が重なる時間が最も短い動画サンプル等)を選択できる。   Regardless of which of the above-described tabs 121 to 123 is selected, the image (photo image A) selected in step S32 is displayed on the image selection button so as to overlap with the moving image samples classified in the tabs 121 to 123. The player looks at the image selection button of each tab while switching the tabs 121 to 123, and the moving image sample having a design compatibility with the photographic image A (for example, the time when the stamp moving image overlaps the subject in the photographic image A) The shortest video sample etc. can be selected.

ユーザ操作による画像選択ボタンへのタッチを検知し、かつ、決定ボタン130のタッチを検知したとき、CPU103bは検知された画像選択ボタンに表示された動画サンプルを選択する(S36)。設定された動画像サンプルは、図14と同様に、複数の画像PP1〜PP4で構成されている。CPU103は、ステップS32で選択された画像(写真画像A)及び複数の画像PP1〜PP4とを用いて送信処理を実行する(S37)。送信処理の詳細は、上述のCASE1又はCASE2と同様であり、いずれのCASEを実行してもよい。   When the touch on the image selection button by the user operation is detected and the touch on the determination button 130 is detected, the CPU 103b selects the moving image sample displayed on the detected image selection button (S36). The set moving image sample is composed of a plurality of images PP1 to PP4 as in FIG. The CPU 103 executes a transmission process using the image (photograph image A) selected in step S32 and the plurality of images PP1 to PP4 (S37). The details of the transmission process are the same as those of CASE 1 or CASE 2 described above, and either CASE may be executed.

一方、ステップS32で選択された画像が写真画像ではなく、編集画像であるとき(S33でNO)CPU103bは、編集画像用の動画サンプルをアップ用パレット、全身用パレット及び特殊パレットに表示する(S35)。たとえば、「アップ用」タブ121へのタッチを検知すると、CPU103bは、図29に示すように編集画像用にデザインされた動画サンプルを編集画像上に重ねて画像選択ボタンとして表示する。各動画像サンプルはスタンプ動画像G5を含む、写真画像用の動画サンプルと比較して、編集画像用の動画サンプルは、画像全体に対するスタンプ動画像(G5)の占める割合が小さい。編集画像は写真画像に装飾を既に加えられたものであるため、スタンプ動画像の占める割合を小さくすることで、過剰な装飾を抑制する。   On the other hand, when the image selected in step S32 is not a photo image but an edited image (NO in S33), the CPU 103b displays the moving image sample for the edited image on the up palette, the whole body palette, and the special palette (S35). ). For example, when a touch on the “up” tab 121 is detected, the CPU 103b displays a moving image sample designed for the edited image as an image selection button superimposed on the edited image as shown in FIG. Each moving image sample includes the stamp moving image G5, and the moving image sample for the edited image has a smaller proportion of the stamp moving image (G5) in the entire image than the moving image sample for the photographic image. Since the edited image is obtained by adding decoration to the photographic image, excessive decoration is suppressed by reducing the proportion of the stamp moving image.

以上のとおり、動画サンプル選択処理の場合、利用者は予め用意された複数の動画サンプルの中から、ステップS32で選択された画像(写真画像又は編集画像)とデザイン的に相性の良い動画サンプルを選択するだけで、待ち受け画像を容易に作成できる。このように動画サンプルを選択させる場合、ステップS32で選択された編集対象画像とデザイン的に相性の良いデザインを容易に選択できるのが好ましいが、本実施の形態の場合、編集対象画像内の被写体の構図に対応して動画サンプルを分類する。具体的には、被写体の「アップ」が撮影されている編集対象画像に適した動画サンプルをアップ用パレットに、被写体の「全身」が撮影されている編集対象画像に適した動画サンプルを全身用パレットにそれぞれ分類して表示する。このように、編集対象画像内の被写体の構図(大きさや画像領域中の被写体の配置位置)に応じて動画像サンプルを分類することにより、相性の良いデザイン画像サンプルを容易かつ迅速に選択できる。たとえば、プレイヤがステップS32で写真画像Aを選択した場合、写真画像A中の被写体はアップで撮影されているため、プレイヤはアップ用タブ121を選択すれば、写真画像Aと相性のよい動画サンプルを迅速に見つけることができ、動画サンプルの選択を容易にする。   As described above, in the moving image sample selection process, the user selects a moving image sample having a good design compatibility with the image (photo image or edited image) selected in step S32 from a plurality of moving image samples prepared in advance. A standby image can be easily created just by selecting. When selecting a moving image sample in this way, it is preferable that a design having a design compatibility with the image to be edited selected in step S32 can be easily selected. However, in this embodiment, the subject in the image to be edited is selected. The video samples are classified according to the composition. Specifically, a video sample suitable for the image to be edited in which the subject “up” is shot is used for the up palette, and a video sample suitable for the image to be edited in which the “whole body” is photographed is used for the whole body. Sort and display on each palette. In this way, by classifying the moving image samples according to the composition of the subject in the image to be edited (size or arrangement position of the subject in the image region), it is possible to easily and quickly select a design image sample having good compatibility. For example, when the player selects the photographic image A in step S32, the subject in the photographic image A has been shot up, so if the player selects the up tab 121, the moving image sample that is compatible with the photographic image A is selected. Can be found quickly and facilitate the selection of video samples.

なお、図10の案内画面で「編集しない」ボタン77を選択した場合、写真画像A〜D又は編集画像E〜Hを編集ディスプレイ40に表示し、プレイヤが写真画像又は編集画像を閲覧できるようにする(S38)。たとえば携帯電話機400を所有しないプレイヤのために、写真画像又は編集画像を閲覧できるようにする。   When the “Do not edit” button 77 is selected on the guidance screen of FIG. 10, the photographic images A to D or the edited images E to H are displayed on the editing display 40 so that the player can view the photographic image or the edited image. (S38). For example, a photographic image or an edited image can be browsed for a player who does not own the mobile phone 400.

CPU103bは、ステップS39で、編集ディスプレイ40に「シールは横から出るよう」等のメッセージを表示して、一連のプレイを終了したことをプレイヤに通知する。メッセージを表示した後、CPU103bは、写真シールをプリント排出口51から利用者に提供する。   In step S39, the CPU 103b displays a message such as “Seal sticks out from the side” on the editing display 40 to notify the player that the series of play is finished. After displaying the message, the CPU 103 b provides a photo sticker to the user from the print discharge port 51.

上述の実施の形態では、写真撮影遊戯機1が待ち受け動画用のデータをサーバ300に送信し、サーバ300で待ち受け動画を作成したが、写真撮影遊戯機1で待ち受け動画を作成し、作成された待ち受け動画をサーバ300経由で携帯電話機400に送信してもよい。要するに、待ち受け動画の作成は、写真撮影遊戯機1が実行してもよいし、サーバ300が実行してもよい。
2.第2の実施の形態
In the above-described embodiment, the photography game machine 1 transmits standby video data to the server 300, and the server 300 creates the standby video. However, the photography video game machine 1 creates and creates the standby video. The standby moving image may be transmitted to the mobile phone 400 via the server 300. In short, the creation of the standby moving image may be executed by the photography game machine 1 or the server 300.
2. Second embodiment

第1の実施の形態では、写真撮影遊戯機1が動画レイヤ81〜84に描画された画像PP1〜PP4を含む画像データをサーバに送信したが、他の方法でも待ち受け動画を作成することも可能である。   In the first embodiment, the photography game machine 1 transmits image data including the images PP1 to PP4 drawn on the moving image layers 81 to 84 to the server, but it is also possible to create a standby moving image by other methods. It is.

図30を参照して、写真撮影遊戯システム内のサーバ300は、複数のスタンプ動画像及びペン動画像を固有の識別IDと対応づけてハードディスク301に記憶する。   Referring to FIG. 30, server 300 in the photography game system stores a plurality of stamp moving images and pen moving images in the hard disk 301 in association with unique identification IDs.

写真撮影遊戯機1は、第1の実施の形態のように画像PP1〜PP4を送信せず、代わりに、選択されたスタンプ動画像の識別ID及び配置位置に関する配置情報を画像BPとともにサーバ300に送信する。サーバ300は、配置情報に基づいてハードディスク301からスタンプ動画像を読み出した後、画像PP1〜PP4を作成し、画像BP及び画像PP1〜PP4に基づいて待ち受け動画ファイル302を作成する。作成された動画ファイルは携帯電話機400に表示され、ディスプレイ上で待ち受け動画がアニメーション表示される。本実施の形態では、画像PP1〜PP4の代わりに配置情報が送信されるため、送信されるデータ容量は第1の実施の形態よりも抑えることができる。そのため、写真撮影遊戯機1とサーバ300との間の通信容量も抑えることができる。以下、本実施の形態による待ち受け動作編集処理の詳細を説明する。   The photography game machine 1 does not transmit the images PP1 to PP4 as in the first embodiment, and instead, the server 300 transmits the arrangement information regarding the identification ID and the arrangement position of the selected stamp moving image together with the image BP. Send. After reading the stamp moving image from the hard disk 301 based on the arrangement information, the server 300 creates the images PP1 to PP4, and creates the standby moving image file 302 based on the image BP and the images PP1 to PP4. The created moving image file is displayed on the mobile phone 400, and the standby moving image is animated on the display. In the present embodiment, since the arrangement information is transmitted instead of the images PP1 to PP4, the data capacity to be transmitted can be suppressed as compared with the first embodiment. Therefore, the communication capacity between the photography game machine 1 and the server 300 can also be suppressed. Details of the standby operation editing process according to this embodiment will be described below.

図31を参照して、印刷処理を開始後、CPU103bは編集ディスプレイ40に図32に示す選択画面を表示し、表示されたいずれかの写真画像A〜Dを利用者に選択させる。表示された写真画像のうち、所定の写真画像(たとえば写真画像A)へのタッチを検知したとき、タッチされた写真画像Aを編集対象画像に設定する(S101)。   Referring to FIG. 31, after starting the printing process, the CPU 103b displays the selection screen shown in FIG. 32 on the editing display 40, and allows the user to select one of the displayed photographic images A to D. When a touch on a predetermined photographic image (for example, photographic image A) is detected among the displayed photographic images, the touched photographic image A is set as an editing target image (S101).

写真画像Aを選択した後、CPU103bは表示レイヤを設定する(S102)。図33に示すとおり、表示レイヤには、奥から順に、背景レイヤ201、編集対象レイヤ202、フレームレイヤ203、ペン下スタンプレイヤ204、ペンレイヤ205A及び205A、ペン上スタンプレイヤ206があり、これらはメモリ105bに設定される。表示レイヤを構成する各レイヤは表示優先順位が低いほど奥に配置される。図33では、背景レイヤ201が最も表示優先順位が低く、ペン上スタンプレイヤ206が最も表示優先順位が高い。   After selecting the photographic image A, the CPU 103b sets a display layer (S102). As shown in FIG. 33, the display layer includes, in order from the back, a background layer 201, an editing target layer 202, a frame layer 203, a pen bottom stamp layer 204, pen layers 205A and 205A, and a pen top stamp layer 206. 105b is set. Each layer constituting the display layer is arranged deeper as the display priority is lower. In FIG. 33, the background layer 201 has the lowest display priority, and the on-pen stamp layer 206 has the highest display priority.

背景レイヤ201には、背景画像が展開され、編集対象レイヤ202には、ステップS101で選択された編集対象画像(写真画像A)が展開される。フレームレイヤ203にはフレーム画像が展開される。ペン下スタンプレイヤ204及びペン上スタンプレイヤ206には、スタンプ画像が展開される。   A background image is developed in the background layer 201, and the editing target image (photograph image A) selected in step S101 is expanded in the editing target layer 202. A frame image is developed on the frame layer 203. A stamp image is developed on the lower pen stamp layer 204 and the upper pen stamp layer 206.

ペンレイヤ205A及び205Bには、2つのパタン画像で構成されるペン動画像が展開される。本実施の形態では、表示レイヤのうち、ペンレイヤ(205A、205B)のみ複数設定される。ペンレイヤには、タッチパネル41にタッチした状態で移動させたタッチペン42の軌跡に沿ってペン画像が入力される。ペン画像以外の画像(たとえばスタンプ画像)の場合、タッチペン42が描画領域内の1点をタッチすれば、配置位置が決定される。つまり、配置情報は、タッチされた1点の座標データで十分である。しかしながら、ペン画像の場合、軌跡に沿って描画されるため、配置情報は軌跡上の複数の点の座標データとなり、他の画像よりも配置情報が過剰に多くなる。また、サーバ300が複数の座標データに基づいてペン画像を描画する処理も煩雑になる。そこで、ペン画像についてのみ、複数のペンレイヤ205A及び205Bを準備し、ペンレイヤ205A及び205Bに入力された画像データをサーバに送信する。ペン動画像を入力する場合、第1の実施の形態と同様に複数のレイヤが必要となるため、複数のペンレイヤ205A及び205Bを準備する。   A pen moving image composed of two pattern images is developed on the pen layers 205A and 205B. In the present embodiment, among the display layers, only a plurality of pen layers (205A, 205B) are set. A pen image is input to the pen layer along the locus of the touch pen 42 moved in a state where the touch panel 41 is touched. In the case of an image other than a pen image (for example, a stamp image), if the touch pen 42 touches one point in the drawing area, the arrangement position is determined. That is, the coordinate information of one touched point is sufficient for the arrangement information. However, in the case of a pen image, drawing is performed along a trajectory, so the arrangement information becomes coordinate data of a plurality of points on the trajectory, and the arrangement information is excessively larger than other images. In addition, the process for the server 300 to draw a pen image based on a plurality of coordinate data becomes complicated. Therefore, only for the pen image, a plurality of pen layers 205A and 205B are prepared, and the image data input to the pen layers 205A and 205B is transmitted to the server. When a pen moving image is input, since a plurality of layers are required as in the first embodiment, a plurality of pen layers 205A and 205B are prepared.

表示レイヤを設定後、CPU103bは図34に示す落書き画面を編集ディスプレイ40に表示する(S103)。   After setting the display layer, the CPU 103b displays the graffiti screen shown in FIG. 34 on the editing display 40 (S103).

落書き画面中の描画領域90には、表示レイヤに展開された画像が重ねて表示される。ステップS103では、表示レイヤのうち、画像が入力されているのは写真画像Aが展開された編集対象レイヤ202のみであるため、CPU103bは描画領域90に写真画像Aを表示する。このとき、第1の実施の形態と同様に、表示レイヤを構成する各レイヤは、画像編集処理時のレイヤよりもサイズが小さく、その結果、描画領域90に表示される画像の画素数も画像編集処理時に描画領域に表示される画像よりも小さくなる。   In the drawing area 90 in the graffiti screen, the image developed on the display layer is displayed in an overlapping manner. In step S103, since only the editing target layer 202 in which the photographic image A is developed is input to the display layer, the CPU 103b displays the photographic image A in the drawing area 90. At this time, as in the first embodiment, each layer constituting the display layer is smaller in size than the layer during the image editing process, and as a result, the number of pixels of the image displayed in the drawing area 90 is also the image. It becomes smaller than the image displayed in the drawing area during the editing process.

CPU103bは落書き時間のカウントを開始し、落書き処理を実行する(S200)。落書き処理は、落書き時間が制限時間に達するか、又は、おしまいボタン68がタッチペン42でタッチされる(S104でYES)まで実行される。   The CPU 103b starts counting the graffiti time and executes the graffiti process (S200). The graffiti process is executed until the graffiti time reaches the time limit or until the end button 68 is touched with the touch pen 42 (YES in S104).

たとえば、アニメーションペンタブ306のタッチを検知すると、CPU103bは、パレットエリア500に図35に示すアニメーションペンパレット310を表示する。第1の実施の形態と同様に、アニメーションペンパレット310には複数のペン動画像が表示された画像選択ボタン311と、選択されたペン動画像のアニメーション動作を表示するアニメーション表示エリア312とが表示される。各ペン動画像は、たとえば図19に示すように、2つのパタン画像P11−1及びP11−2で構成される。   For example, when detecting the touch of the animation pen tab 306, the CPU 103b displays the animation pen palette 310 shown in FIG. As in the first embodiment, the animation pen palette 310 displays an image selection button 311 on which a plurality of pen moving images are displayed, and an animation display area 312 that displays the animation operation of the selected pen moving images. Is done. Each pen moving image is composed of two pattern images P11-1 and P11-2, for example, as shown in FIG.

アニメーションペンパレット310内の画像選択ボタン311Aのタッチを検知したとき、CPU103bは画像選択ボタン311Aに表示されたペン動画像P11を落書きツールに選択設定する。   When detecting the touch of the image selection button 311A in the animation pen palette 310, the CPU 103b selects and sets the pen moving image P11 displayed on the image selection button 311A as a graffiti tool.

落書きツールを設定した後、描画領域90へのペン画像の入力が確定したとき、つまり、タッチペン42が描画領域90上のタッチパネル41にタッチし、タッチした状態で移動した後、タッチパネル41から離れたとき(S202でYES)、CPU103bは、タッチペン42の移動軌跡に沿ってペン動画像P11を描画する。具体的には、タッチペン42の移動軌跡に沿って、ペンレイヤ205Aにパタン画像P11−1を入力し、ペンレイヤ205Bにパタン画像P11−2を入力する(S203)。   After setting the graffiti tool, when the input of the pen image to the drawing area 90 is confirmed, that is, the touch pen 42 touches the touch panel 41 on the drawing area 90, moves in a touched state, and then moves away from the touch panel 41. At this time (YES in S202), the CPU 103b draws the pen moving image P11 along the movement locus of the touch pen 42. Specifically, the pattern image P11-1 is input to the pen layer 205A and the pattern image P11-2 is input to the pen layer 205B along the movement locus of the touch pen 42 (S203).

なお、描画領域90にはペンレイヤ205Aに描画されたパタン画像P11−1のみを表示する。描画領域90内でアニメーション動作をさせると処理負荷が大きくなるため、1つのペンレイヤ205Aに入力された画像のみを表示させて処理負荷を抑える。   In the drawing area 90, only the pattern image P11-1 drawn on the pen layer 205A is displayed. When an animation operation is performed in the drawing area 90, the processing load increases, so that only the image input to one pen layer 205A is displayed to reduce the processing load.

描画領域90からタッチペン42が離れたとき、ペン動画像の入力が確定される(S202でYES)。このとき、表示レイヤに展開されている画像、つまり、描画領域90に表示された画像をUNDO画像としてメモリ105b内のUNDO画像データベースに保存する(S204)。CPU103bはさらに、保存されたUNDO画面をUNDO表示部360内の画像選択ボタン321に表示する(S205)。UNDO表示部360は複数の画像選択ボタン321を一列に配列して表示する。図34では、一列に配列された複数の画像選択ボタン321に表示されるUNDO画像は、左に行くほど古く、右に行くほど新しい。   When the touch pen 42 moves away from the drawing area 90, the input of the pen moving image is confirmed (YES in S202). At this time, the image developed on the display layer, that is, the image displayed in the drawing area 90 is stored as an UNDO image in the UNDO image database in the memory 105b (S204). The CPU 103b further displays the stored UNDO screen on the image selection button 321 in the UNDO display unit 360 (S205). The UNDO display unit 360 displays a plurality of image selection buttons 321 arranged in a line. In FIG. 34, UNDO images displayed on a plurality of image selection buttons 321 arranged in a row are older as they go to the left and newer as they go to the right.

UNDO画像データベースには、画像の入力が確定するごとに、UNDO画像が登録される。このとき、UNDOデータベースには、表示レイヤに展開された画像と、スタンプ画像の識別ID及び配置位置を示す配置情報とが登録される。UNDO画像データベースは、画像選択ボタン数分のUNDO画像を登録可能である。UNDO画像データベースは、所定数のUNDO画像を古い順に保存する。所定数のUNDO画像を保存した後、新たなUNDO画像を保存する場合、最も古いUNDO画像を削除し、新たなUNDO画像を保存する。CPU103bは、先頭(最も左側に配列された)画像選択ボタン321からUNDO画像を古い順に表示する。UNDO表示部360内の画像選択ボタン321は、スクロールボタン370をタッチすることにより左右にスクロール移動する。   In the UNDO image database, an UNDO image is registered every time an image input is confirmed. At this time, the image developed on the display layer and the arrangement information indicating the identification ID and arrangement position of the stamp image are registered in the UNDO database. In the UNDO image database, UNDO images corresponding to the number of image selection buttons can be registered. The UNDO image database stores a predetermined number of UNDO images in chronological order. When storing a new UNDO image after storing a predetermined number of UNDO images, the oldest UNDO image is deleted and a new UNDO image is stored. The CPU 103b displays the UNDO images in order from the oldest from the top (leftmost) image selection button 321. The image selection button 321 in the UNDO display unit 360 scrolls left and right by touching the scroll button 370.

落書き処理では通常、描画領域内の所望の部分の画像データを消去可能な、いわゆる消しゴム機能があるが、本実施の形態の場合、消しゴム機能を装備しない。本実施の形態では、スタンプレイヤ204、206に描画されたスタンプ画像の画像データをサーバに送信するのではなく、位置情報のみを送信する。仮に、画像データを送信するのであれば、消しゴムによってスタンプ画像が部分的に消されても、部分的に消されたスタンプ画像の画像データをサーバに容易に送信できるが、本実施の形態のように位置情報のみを送信する場合、位置情報とは別に、消しゴムで消された部分の情報を新たに作成してサーバに送信しなければならず、処理が煩雑になる。そこで、本実施の形態では、UNDO表示部360に描画領域に表示された画像の履歴としてUNDO画像を表示させる。これにより、描画を失敗した場合であっても所望のUNDO画像に戻すことができるため、消しゴム機能を代替できる。   In the graffiti process, there is usually a so-called eraser function that can erase image data of a desired portion in the drawing area. However, in this embodiment, the eraser function is not provided. In this embodiment, the image data of the stamp image drawn on the stamp layers 204 and 206 is not transmitted to the server, but only the position information is transmitted. If the image data is transmitted, even if the stamp image is partially erased by the eraser, the image data of the partially erased stamp image can be easily transmitted to the server. When only the position information is transmitted, information on the part erased by the eraser must be newly created and transmitted to the server separately from the position information, and the processing becomes complicated. Therefore, in the present embodiment, an UNDO image is displayed on the UNDO display unit 360 as a history of images displayed in the drawing area. Thereby, even if it is a case where drawing fails, since it can return to a desired UNDO image, an eraser function can be substituted.

UNDO表示部360内の画像選択ボタン321のいずれかへのタッチを検知したとき(S212でYES)、CPU103bはタッチされた画像選択ボタン321に表示されたUNDO画面をUNDO画像データベースから読み出し、表示レイヤに上書き展開する(S213)。また、メモリ105bに格納された後述する配置情報もUNDO画像の配置情報に更新される(S214)。これにより、プレイヤは過去の画像に戻して描画をやり直すことができる。   When a touch on any of the image selection buttons 321 in the UNDO display unit 360 is detected (YES in S212), the CPU 103b reads the UNDO screen displayed on the touched image selection button 321 from the UNDO image database, and displays the display layer. Overwrite expansion to (S213). In addition, the arrangement information described later stored in the memory 105b is also updated to the arrangement information of the UNDO image (S214). Thereby, the player can return to the past image and redo the drawing.

上述ではペン画像としてペン動画像の描画について説明したが、静止画像であるペン静止画像を描画することもできる。CPU103bは、「ペン/スタンプ」タブ305を検知すると、図34に示すように、パレットエリア500に静止画像(ペン/スタンプ)パレット320を表示する。静止画像パレット320には、複数の静止画像が表示された画像選択ボタン325が表示されている。ペン画像領域324内の画像選択ボタン325へのタッチを検知したとき、CPU103bは、タッチされたペン静止画像を落書きツールに設定する。描画領域90内への入力が確定したとき(S202でYES)CPU103bは、タッチペン42の移動軌跡に沿ってペンレイヤ205A及び205Bにペン静止画像を入力する。このとき、ペンレイヤ205A及び205Bともに同じペン静止画像が入力される。   In the above description, the drawing of the pen moving image as the pen image has been described. However, a pen still image that is a still image can be drawn. When detecting the “pen / stamp” tab 305, the CPU 103b displays a still image (pen / stamp) palette 320 in the palette area 500, as shown in FIG. In the still image palette 320, an image selection button 325 on which a plurality of still images are displayed is displayed. When detecting a touch on the image selection button 325 in the pen image area 324, the CPU 103b sets the touched pen still image as a graffiti tool. When the input into the drawing area 90 is confirmed (YES in S202), the CPU 103b inputs a pen still image to the pen layers 205A and 205B along the movement locus of the touch pen 42. At this time, the same pen still image is input to both the pen layers 205A and 205B.

CPU103bがアニメーションスタンプタグ303のタッチを検知したとき、図36に示すアニメーションスタンプパレット330をパレットエリア500に表示する。アニメーションスタンプパレット330内には、スタンプ動画像が表示された複数の画像選択ボタン340と、選択されたスタンプ動画像をペン上スタンプレイヤ206に描画するかペン下スタンプレイヤ204に描画するかを設定するためのペン上ボタン351及びペン下ボタン352が表示される。また、描画するスタンプ動画像の画像サイズを設定するためのサイズボタン353が表示される。下方のサイズボタン353を選択するほどスタンプ動画像のサイズを大きく描画できる。   When the CPU 103 b detects the touch of the animation stamp tag 303, the animation stamp palette 330 shown in FIG. 36 is displayed in the palette area 500. In the animation stamp palette 330, a plurality of image selection buttons 340 on which a stamp moving image is displayed and whether the selected stamp moving image is to be drawn on the on-pen stamp layer 206 or on the under-pen stamp layer 204 are set. A pen up button 351 and a pen down button 352 are displayed. In addition, a size button 353 for setting the image size of the stamp moving image to be drawn is displayed. As the size button 353 below is selected, the size of the stamp moving image can be drawn larger.

プレイヤは所望のスタンプ動画像が表示された画像選択ボタン340と、ペン上ボタン351又はペン下ボタン352と、所望のサイズボタン353とをタッチし、CPU103bがこれらのタッチを検知することにより、CPU103bはタッチされた画像選択ボタン340に表示されたスタンプ動画像を落書きツールに設定する。このときCPU103bは、落書きツールに設定されたスタンプ動画像の識別IDと、タッチされたペン上ボタン351又はペン下ボタン352により特定される描画レイヤ情報と、タッチされたサイズボタン353により決定される画像サイズ情報とをメモリ105bに格納する。   The player touches an image selection button 340 on which a desired stamp moving image is displayed, a pen up button 351 or a pen down button 352, and a desired size button 353, and the CPU 103b detects these touches, whereby the CPU 103b. Sets the stamp moving image displayed on the touched image selection button 340 to the graffiti tool. At this time, the CPU 103b is determined by the stamp moving image identification ID set in the graffiti tool, the drawing layer information specified by the touched pen up button 351 or the pen down button 352, and the touched size button 353. The image size information is stored in the memory 105b.

スタンプ動画像を落書きツールに設定した後、描画領域90内への入力を確定したとき、つまり、タッチペン42で描画領域90内の所定の位置をタッチした後、タッチペン42がタッチパネル41から離れたとき(S206でYES)、描画領域内の検知したタッチ位置に対応するスタンプレイヤ204又は206内の位置に選択されたスタンプ動画像を描画する(S207)。このとき、スタンプ動画像を構成する複数のパタン画像のうち、いずれか1つ(たとえばデータ量が最大のもの)を指定されたスタンプレイヤ(ペン上スタンプレイヤ206又はペン下スタンプレイヤ204)に指定されたサイズで描画する。描画後、CPU103bは、先にメモリ105bに格納したスタンプ動画像の識別IDと、描画レイヤ情報と、画像サイズ情報と、ステップS206で検知した描画領域内での配置位置とを図37に示す配置情報データベースに登録する(S208)。配置情報データベースは、メモリ105bに保存される(S209)。ステップS209を実行後、ステップS204に進み、UNDO処理(S204及びS205)を実行する。   After setting the stamp moving image in the graffiti tool, when the input into the drawing area 90 is confirmed, that is, when the touch pen 42 leaves the touch panel 41 after touching a predetermined position in the drawing area 90 with the touch pen 42 (YES in S206), the selected stamp moving image is drawn at a position in the stamp layer 204 or 206 corresponding to the detected touch position in the drawing area (S207). At this time, one of the plurality of pattern images constituting the stamp moving image (for example, the one with the largest data amount) is designated as the designated stamp layer (the on-pen stamp layer 206 or the under-pen stamp layer 204). Draw at the specified size. After the drawing, the CPU 103b displays the stamp moving image identification ID, the drawing layer information, the image size information, and the arrangement position in the drawing area detected in step S206 previously stored in the memory 105b as shown in FIG. Register in the information database (S208). The arrangement information database is stored in the memory 105b (S209). After executing step S209, the process proceeds to step S204, and UNDO processing (S204 and S205) is executed.

静止画像であるスタンプ静止画像を描画する場合も、上述のスタンプ動画像と同様の処理が実行される。静止画像であるスタンプ静止画像の識別IDと、描画領域内でタッチされた配置位置と、画像サイズ情報と、描画レイヤ情報とが配置情報として配置情報データベースに登録される。   Even when a stamp still image, which is a still image, is drawn, the same processing as the above-described stamp moving image is executed. An identification ID of a stamp still image which is a still image, an arrangement position touched in the drawing area, image size information, and drawing layer information are registered as arrangement information in the arrangement information database.

このように、スタンプ画像については、配置情報を保存することにより、画像データをサーバに送信するのではなく、配置情報のみをサーバに送信する。そのため、画像データを送信する場合と比較して通信容量を抑えることができる。   As described above, with respect to the stamp image, by storing the arrangement information, the image data is not transmitted to the server, but only the arrangement information is transmitted to the server. Therefore, the communication capacity can be reduced compared to the case where image data is transmitted.

背景画像、フレーム画像の描画も、上述のペン画像の描画と同様の処理が実行される。「背景/フレーム」タグ304のタッチを検知すると、図38に示す背景/フレームパレット344を表示する。背景エリア341には、背景画像を表示した複数の画像選択ボタンが表示され、フレームエリア342には、フレーム画像を表示した複数のフレーム選択ボタンが表示される。セットエリア343には、背景画像とフレーム画像とがセットごとに重なって画像選択ボタンとして表示される。   For the drawing of the background image and the frame image, the same processing as the drawing of the pen image described above is executed. When the touch of the “background / frame” tag 304 is detected, a background / frame palette 344 shown in FIG. 38 is displayed. A plurality of image selection buttons that display background images are displayed in the background area 341, and a plurality of frame selection buttons that display frame images are displayed in the frame area 342. In the set area 343, the background image and the frame image are displayed as an image selection button by overlapping each set.

背景エリア341内の画像選択ボタンのタッチを検知したとき、CPU103bは、タッチされた画像選択ボタンの背景画像IDを特定し、落書きツールに設定する。フレームエリア342内の画像選択ボタンのタッチを検知したとき、CPU103bは、タッチされた画像選択ボタンのフレームIDを特定し、落書きツールに設定する。セットエリア343内の画像選択ボタンのタッチを検知したとき、CPU103bは、タッチされた画像選択ボタンの背景画像ID及びフレームIDを特定し、特定された背景画像及びフレーム画像を落書きツールに設定する。つまり、背景画像とフレーム画像を一度に描画可能とする。   When detecting the touch of the image selection button in the background area 341, the CPU 103b specifies the background image ID of the touched image selection button and sets it in the graffiti tool. When detecting the touch of the image selection button in the frame area 342, the CPU 103b identifies the frame ID of the touched image selection button and sets it to the graffiti tool. When detecting the touch of the image selection button in the set area 343, the CPU 103b specifies the background image ID and frame ID of the touched image selection button, and sets the specified background image and frame image in the graffiti tool. That is, the background image and the frame image can be drawn at once.

描画領域内のタッチを検知したとき(S210でYES)特定された背景ID、フレームIDの背景画像、フレーム画像を背景レイヤ201、フレームレイヤ203にそれぞれ描画し、描画領域90内の画像に反映する(S211)。   When a touch in the drawing area is detected (YES in S210), the background image and frame image with the specified background ID and frame ID are drawn on the background layer 201 and the frame layer 203, respectively, and reflected in the image in the drawing area 90. (S211).

落書き時間が制限時間に達するか、又は、おしまいボタン68がタッチペン42でタッチされたとき(S104でYES)、落書き処理を終了する。CPU103bは、アドレス情報を受け付け、メモリ105bに格納する(S105)。   When the graffiti time reaches the time limit or when the end button 68 is touched with the touch pen 42 (YES in S104), the graffiti process is terminated. The CPU 103b receives the address information and stores it in the memory 105b (S105).

続いて、CPU103bは、表示レイヤのうち、背景レイヤ201、編集対象レイヤ202及びフレームレイヤ203に描画された画像を合成して図39に示す画像BPを作成する(S106)。CPU103bは、作成された画像BPを圧縮ファイル形式に変換してメモリ105bに保存する。CPU103bはまた、ペンレイヤ205A及び205Bに描画された画像PP11及びPP12を圧縮ファイル形式に変換してメモリ105bに保存する。さらに、画像PP11及びPP12の表示順番、表示時間を示すアニメーション設定情報402を作成し、メモリ105bに保存する(S107)。   Subsequently, the CPU 103b combines images drawn on the background layer 201, the editing target layer 202, and the frame layer 203 among the display layers to create an image BP shown in FIG. 39 (S106). The CPU 103b converts the created image BP into a compressed file format and stores it in the memory 105b. The CPU 103b also converts the images PP11 and PP12 drawn on the pen layers 205A and 205B into a compressed file format and stores them in the memory 105b. Furthermore, animation setting information 402 indicating the display order and display time of the images PP11 and PP12 is created and stored in the memory 105b (S107).

CPU103bは、編集対象画像BPと、画像PP11、PP12と、画像PP11及びPP12のアニメーション設定情報402と、配置情報406と、アドレス情報407とをサーバに送信する(S108)。このとき、スタンプ画像は送信されず、その配置情報のみが送信されるため、通信容量を抑えることができる。   The CPU 103b transmits the editing target image BP, the images PP11 and PP12, the animation setting information 402 of the images PP11 and PP12, the arrangement information 406, and the address information 407 to the server (S108). At this time, the stamp image is not transmitted and only the arrangement information is transmitted, so that the communication capacity can be suppressed.

[サーバの動作]
図40を参照して、サーバ300は、写真撮影遊戯機1からデータを受信し、メモリに格納した後(S301)、図41に示すように、表示優先順位が低い順に、編集対象レイヤ501、ペン下スタンプレイヤ511〜514、ペンレイヤ521〜524、ペン上スタンプレイヤ531〜534を設定する。設定後、サーバ300は、編集対象レイヤ501に送信された画像BPを展開する(S302)。複数のレイヤ511〜514、521〜524、531〜534の各々は0.5秒ずつ表示されるように設定されている。
[Server operation]
Referring to FIG. 40, server 300 receives the data from photography amusement machine 1 and stores it in the memory (S301). Then, as shown in FIG. 41, as shown in FIG. Pen lower stamp layers 511 to 514, pen layers 521 to 524, and pen upper stamp layers 531 to 534 are set. After the setting, the server 300 expands the image BP transmitted to the editing target layer 501 (S302). Each of the plurality of layers 511 to 514, 521 to 524, and 531 to 534 is set to be displayed for 0.5 seconds.

続いて、編集対象画像レイヤ501以外の各レイヤに、動画像を構成するパタン画像を入力する。サーバはまず、送信されたペン画像のパタン画像PP11及びPP12を読み出し、同じく送信されたアニメーション設定情報402に基づいて、パタン画像PP11及びPP12をペンレイヤ521〜524に展開する(S303)。たとえば、アニメーション設定情報がパタン画像PP11、PP12の順番で0.5秒ずつ表示する旨を示している場合、サーバ300は、ペンレイヤ521及び523にパタン画像PP11を、ペンレイヤ522及び524にパタン画像PP12をそれぞれ展開する。なお、送信されたペン画像のパタン画像が4枚である場合、それぞれのペンレイヤ521〜524にそれぞれのパタン画像を展開すればよい。   Subsequently, a pattern image constituting the moving image is input to each layer other than the editing target image layer 501. First, the server reads the pattern images PP11 and PP12 of the transmitted pen image, and expands the pattern images PP11 and PP12 on the pen layers 521 to 524 based on the transmitted animation setting information 402 (S303). For example, when the animation setting information indicates that the pattern images PP11 and PP12 are displayed in order of 0.5 seconds, the server 300 displays the pattern image PP11 in the pen layers 521 and 523 and the pattern image PP12 in the pen layers 522 and 524. Expand each. In addition, when the pattern image of the transmitted pen image is four sheets, each pattern image should just be expand | deployed to each pen layer 521-524.

続いて、サーバ300は、配置情報406に基づいて、ペン下スタンプレイヤ511〜514、ペン上スタンプレイヤ531〜534にスタンプ画像を入力する。サーバ300はのハードディスク301に、4つのパタン画像で構成されるスタンプ動画像と、静止画像であるスタンプ静止画像とを記憶している。サーバは、配置情報406内の識別IDでスタンプ画像を特定する。特定されたスタンプ画像がスタンプ動画像であるとき、指定された描画レイヤ(たとえばペン下スタンプレイヤ511〜514)の指定された配置位置に4つのパタン画像をそれぞれ入力する。一方、特定されたスタンプ画像がスタンプ静止画像である場合、4つのレイヤの指定された配置位置に同一のスタンプ静止画像を入力する(S304)。以上の動作により、ステップS302で設定されたレイヤに画像を入力する。   Subsequently, based on the arrangement information 406, the server 300 inputs stamp images to the pen bottom stamp layers 511 to 514 and the pen top stamp layers 531 to 534. The server 300 stores in the hard disk 301 a stamp moving image composed of four pattern images and a stamp still image that is a still image. The server identifies the stamp image with the identification ID in the arrangement information 406. When the identified stamp image is a stamp moving image, four pattern images are respectively input to designated arrangement positions of designated drawing layers (for example, the lower pen stamp layers 511 to 514). On the other hand, if the identified stamp image is a stamp still image, the same stamp still image is input to the designated arrangement positions of the four layers (S304). With the above operation, an image is input to the layer set in step S302.

続いて、サーバは待ち受け動画の構成要素となる合成画像を作成する(S305)。図42に示すように、下から順に、編集対象画像レイヤ501上に展開された画像BP、ペン下スタンプレイヤ511の画像、ペンレイヤ521の画像PP1、ペン上スタンプレイヤ531の画像を重ねて合成し、合成画像CP11を作成する。同様に、編集対象画像BP、ペン下スタンプレイヤ512の画像、ペンレイヤ521の画像P12、ペン上スタンプレイヤ532の画像を合成し、合成画像CP12を作成する。同じ要領で図42に示すように合成画像CP13及びCP14を作成する。
作成された合成画像CP11〜CP14はファイル圧縮形式で変換され、メモリに格納される。続いて、サーバは、合成画像CP11〜CP14の表示順番及び表示時間を示すアニメーション設定情報を作成し、保存する(S306)。
最後に、作成されたコマ画像及びアニメーション設定情報に基づいて、待ち受け動画ファイルを作成し、アドレス情報と対応づけてハードディスク301に保存する(S307)。以降のサーバ300の動作及び携帯電話機400の動作は第1の実施の形態と同じである。
Subsequently, the server creates a composite image that is a constituent element of the standby moving image (S305). As shown in FIG. 42, in order from the bottom, the image BP expanded on the image layer 501 to be edited, the image of the pen lower stamp layer 511, the image PP1 of the pen layer 521, and the image of the pen upper stamp layer 531 are superimposed and combined. A composite image CP11 is created. Similarly, the editing target image BP, the pen lower stamp layer 512 image, the pen layer 521 image P12, and the pen upper stamp layer 532 image are combined to create a combined image CP12. In the same manner, composite images CP13 and CP14 are created as shown in FIG.
The created composite images CP11 to CP14 are converted in a file compression format and stored in the memory. Subsequently, the server creates and stores animation setting information indicating the display order and display time of the composite images CP11 to CP14 (S306).
Finally, a standby moving image file is created based on the created frame image and animation setting information, and stored in the hard disk 301 in association with the address information (S307). The subsequent operation of the server 300 and the operation of the mobile phone 400 are the same as those in the first embodiment.

なお、サーバ300は第1の実施の形態でのCASE2のように、合成画像を作成せず、画像BPと、それ以外の画像とを別個の画像としてもよい。   Note that the server 300 may not create a composite image and separate the image BP and other images as in the case 2 in the first embodiment.

以上、上述の実施の形態(第1及び第2の実施の形態)では、待ち受け動画を作成したが、待ち受け画像として動画ではなく静止画を作成してもよい。この場合であっても、静止画レイヤに展開される画像の画素数は画像編集処理時の画像の画素数よりも小さいため、メモリ105bの負荷は低減される。静止画を作成する場合、サーバ300は写真撮影遊戯機1から送信される静止画を保存し、携帯電話機400に送信する。   As described above, in the above-described embodiments (first and second embodiments), a standby moving image is created, but a still image may be created as a standby image instead of a moving image. Even in this case, since the number of pixels of the image developed on the still image layer is smaller than the number of pixels of the image at the time of the image editing process, the load on the memory 105b is reduced. When creating a still image, the server 300 stores the still image transmitted from the photography game machine 1 and transmits it to the mobile phone 400.

また、第2の実施の形態では、スタンプ画像に対してのみ配置情報を作成してサーバ300に送信したが、スタンプ画像以外の画像であって、画像の識別IDと、配置位置と、サイズとの少なくとも1つで特定可能な画像については、配置情報のみをサーバに送信してもよい。たとえば、フレーム画像、背景画像は、ハードディスク301にフレーム画像及び背景画像を識別IDと対応づけて保存しておけば、これらの画像の配置情報として識別IDをサーバ300に送信することによりサーバ300で描画可能である。そのため、フレーム画像及び背景画像に関しては、これらの画像に代えて、これらの画像の識別IDのみをサーバ300に送信してもよい。   In the second embodiment, the arrangement information is generated only for the stamp image and transmitted to the server 300. However, the image is an image other than the stamp image, and the image identification ID, the arrangement position, the size, For at least one of the images that can be specified, only the arrangement information may be transmitted to the server. For example, if the frame image and the background image are stored in the hard disk 301 in association with the identification ID, the server 300 transmits the identification ID to the server 300 as arrangement information of these images. It can be drawn. Therefore, regarding the frame image and the background image, only the identification IDs of these images may be transmitted to the server 300 instead of these images.

また、印刷中に待ち受け画像編集処理を実行するとしたが、印刷中以外のタイミングで実行してもよい。   Although the standby image editing process is executed during printing, it may be executed at a timing other than during printing.

以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。   While the embodiments of the present invention have been described above, the above-described embodiments are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and can be implemented by appropriately modifying the above-described embodiment without departing from the spirit thereof.

1 写真撮影遊戯機
40 編集ディスプレイ
80 静止画レイヤ
81〜84 動画レイヤ
101b 画像編集用コンピュータ装置
104b,301 ハードディスク
105b メモリ
300 サーバ
DESCRIPTION OF SYMBOLS 1 Photographing game machine 40 Editing display 80 Still picture layer 81-84 Movie layer 101b Computer apparatus 104b for image editing, 301 Hard disk 105b Memory 300 Server

Claims (11)

カメラとディスプレイとを備えた写真撮影遊戯機であって、
被写体を撮影して写真画像を作成するよう前記カメラを制御するカメラ制御手段と、
前記写真画像を印刷用の編集対象として前記ディスプレイに表示し、前記写真画像に対して編集を受け付け、受け付けた編集に基づいて第1の編集画像を作成する第1の編集手段と、
記写真画像を編集対象として前記ディスプレイに表示し、前記写真画像に対して編集を受け付け、受け付けた編集に基づいて動画的要素を含む第2の編集画像を作成する第2の編集手段と、
前記第1の編集画像を印刷する印刷手段と、
前記第2の編集画像をサーバに送信する送信手段と、を備え、
前記第1の編集手段は、前記印刷用の編集対象としての写真画像を、第1の画素数で、編集するとともに前記ディスプレイに表示し、
前記第2の編集手段は、前記編集対象としての写真画像を、前記第1の画素数より小さい第2の画素数で、編集するとともに前記ディスプレイに表示する、写真撮影遊戯機。
A photography game machine with a camera and a display,
Camera control means for controlling the camera to photograph a subject and create a photographic image;
Displayed before Symbol display and edited for printing the photographic image, receiving an edit to the photographic image, the first editing means for generating a first edited image based on the editing accepted,
Displayed before Symbol display and edited the previous SL photographic image, receiving an edit to the photographic image, the second editing means for creating a second edit images including moving element based on the editing accepted When,
Printing means for printing the first edited image;
Transmitting means for transmitting the second edited image to a server,
The first editing unit edits the photographic image as the print target to be edited with the first number of pixels and displays it on the display;
The second editing means, the photographic image as the edited the first number of pixels smaller than the number the second pixel is displayed on the display as well as edit, photograph shooting game machine.
請求項1に記載の写真撮影遊戯機であって、
前記第2の編集手段は、前記印刷手段が前記第1の編集画像を印刷中に、前記編集対象としての写真画像の編集を受け付けることを特徴とする写真撮影遊戯機。
A photography game machine according to claim 1,
The photographic game machine according to claim 2, wherein the second editing unit accepts editing of a photographic image as the editing target while the printing unit is printing the first edited image.
請求項1又は請求項2に記載の写真撮影遊戯機であってさらに、
複数のパタン画像で構成されるスタンプ動画像を記憶する記憶手段と、
前記第2の編集手段において前記編集対象とされた写真画像が入力される編集対象レイヤと、前記スタンプ動画像が入力される複数の動画レイヤとを設定するレイヤ設定手段とを備え、
前記第2の編集手段はさらに、前記スタンプ動画像の入力を受け付けたとき前記複数のパタン画像を前記複数の動画レイヤにそれぞれ入力して、前記編集対象レイヤの画像及び複数の動画レイヤの画像で構成され前記複数の動画レイヤの画像が順次表示される動画像に用いられる前記複数の動画レイヤの画像を作成することを特徴とする写真撮影遊戯機。
The photography game machine according to claim 1 or 2, further comprising:
Storage means for storing a stamp moving image composed of a plurality of pattern images;
A layer setting unit that sets an editing target layer to which the photographic image to be edited in the second editing unit is input and a plurality of moving image layers to which the stamp moving image is input;
The second editing unit further inputs the plurality of pattern images to the plurality of moving image layers when receiving the input of the stamp moving image, and outputs the image of the editing target layer and the images of the plurality of moving image layers. A photography amusement machine comprising the plurality of moving image layers used for a moving image configured and sequentially displayed with images of the plurality of moving image layers.
請求項3に記載の写真撮影遊戯機であって、
前記記憶手段はさらに、スタンプ静止画像を記憶し、
前記第2の編集手段はさらに、前記スタンプ静止画像の入力を受け付けたとき前記スタンプ静止画像を前記複数の動画レイヤにそれぞれ入力することを特徴とする写真撮影遊戯機。
A photography game machine according to claim 3,
The storage means further stores a stamp still image,
The photography game machine, wherein the second editing means further inputs the stamp still image to the plurality of moving image layers when receiving the input of the stamp still image.
請求項3に記載の写真撮影遊戯機であって、
前記記憶手段は複数のスタンプ動画像を記憶し、
前記写真撮影遊戯機はさらに、
前記複数のスタンプ動画像の中から所望のスタンプ動画像を選択する選択手段と、
前記選択手段により選択されたスタンプ動画像に対応するパタン画像を前記ディスプレイに順次表示するアニメーション表示手段とを備えることを特徴とする写真撮影遊戯機。
A photography game machine according to claim 3,
The storage means stores a plurality of stamp moving images,
The photography game machine further includes:
Selecting means for selecting a desired stamp moving image from the plurality of stamp moving images;
A photography amusement machine comprising: animation display means for sequentially displaying a pattern image corresponding to the stamp moving image selected by the selection means on the display.
請求項3に記載の写真撮影遊戯機であって、
前記第2の編集手段において前記編集対象とされた写真画像は、表示優先順位の異なる前記写真画像及び複数のレイヤ画像で構成され、
前記第2の編集手段はさらに、前記写真画像及び前記複数のレイヤ画像を表示優先順位の低い順に重ねて1つの前記編集対象レイヤに入力することを特徴とする写真撮影遊戯機。
A photography game machine according to claim 3,
The photographic image to be edited by the second editing means is composed of the photographic image having a different display priority and a plurality of layer images,
The photo editing game machine according to claim 2, wherein the second editing means further inputs the photographic image and the plurality of layer images to one of the editing target layers in a layered order of display priority.
請求項3〜請求項6のいずれか1項に記載の写真撮影遊戯機と、携帯端末に接続可能なサーバとを備えた写真撮影遊戯システムであって、
前記写真撮影遊戯機又はサーバは、
前記編集対象レイヤの画像及び複数の動画レイヤの画像に基づいて、前記動画像を作成する動画像作成手段を備え、
前記サーバは、
前記作成された動画像を前記携帯端末に送信する手段とを備えることを特徴とする写真撮影遊戯システム。
A photography game system comprising the photography game machine according to any one of claims 3 to 6, and a server connectable to a mobile terminal,
The photography game machine or server is
A moving image creating means for creating the moving image based on the image of the editing target layer and a plurality of moving image layers;
The server
A photography game system comprising: means for transmitting the created moving image to the portable terminal.
請求項7に記載の写真撮影遊戯システムであって、
前記写真撮影遊戯機はさらに、
前記動画レイヤの画像を前記編集対象レイヤの画像と合成した合成画像を動画レイヤごとに作成する合成手段を備え、
前記動画像作成手段は、複数の前記合成画像が所定の順番で順次表示される前記動画像を作成することを特徴とする写真撮影遊戯システム。
The photography game system according to claim 7,
The photography game machine further includes:
Composing means for creating for each moving image layer a combined image obtained by combining the moving image layer image with the editing target layer image,
The moving picture creating means creates the moving picture in which a plurality of the synthesized images are sequentially displayed in a predetermined order.
請求項7に記載の写真撮影遊戯システムであって、
前記動画像作成手段は、前記各動画レイヤの画像が所定の順番で前記編集対象レイヤの画像上に順次表示される動画像を作成することを特徴とする写真撮影遊戯システム。
The photography game system according to claim 7,
The moving picture creating means creates a moving picture in which the images of the moving image layers are sequentially displayed on the images of the editing target layer in a predetermined order.
カメラと、ディスプレイと、プリンタとを備えた写真撮影遊戯機の制御方法であって、
被写体を撮影して写真画像を作成するよう前記カメラを制御するカメラ制御ステップと、
前記写真画像を印刷用の編集対象として前記ディスプレイに表示し、前記写真画像に対して編集を受け付け、受け付けた編集に基づいて第1の編集画像を作成する第1の編集ステップと、
記写真画像を編集対象として前記ディスプレイに表示し、前記写真画像に対して編集を受け付け、受け付けた編集に基づいて動画的要素を含む第2の編集画像を作成する第2の編集ステップと、
前記第1の編集画像を印刷する印刷ステップと、
前記第2の編集画像をサーバに送信する送信ステップと、を備え、
前記第1の編集ステップは、前記印刷用の編集対象としての写真画像を、第1の画素数で、編集するとともに前記ディスプレイに表示し、
前記第2の編集ステップは、前記編集対象としての写真画像を、前記第1の画素数より小さい第2の画素数で、編集するとともに前記ディスプレイに表示する、
写真撮影遊戯機の制御方法。
A control method for a photography amusement machine comprising a camera, a display, and a printer,
A camera control step for controlling the camera to photograph a subject and create a photographic image;
Displayed before Symbol display and edited for printing the photographic image, receiving an edit to the image, a first editing step of creating a first edited image based on the editing accepted,
Displayed before Symbol display and edited the previous SL photographic image, receiving an edit to the photographic image, a second editing step of creating a second edited image including moving element based on the editing accepted When,
A printing step of printing the first edited image;
And a transmission step of transmitting the second edited image to the server,
In the first editing step, the photographic image as the editing object for printing is edited with the first number of pixels and displayed on the display;
In the second editing step, the photographic image to be edited is edited with a second pixel number smaller than the first pixel number and displayed on the display.
How to control a photography game machine.
カメラと、ディスプレイと、プリンタとを備えた写真撮影遊戯機に実装される制御プログラムであって、
被写体を撮影して写真画像を作成するよう前記カメラを制御するカメラ制御ステップと、
前記写真画像を印刷用の編集対象として前記ディスプレイに表示し、前記写真画像に対して編集を受け付け、受け付けた編集に基づいて第1の編集画像を作成する第1の編集ステップと、
記写真画像を編集対象として前記ディスプレイに表示し、前記写真画像に対して編集を受け付け、受け付けた編集に基づいて動画的要素を含む第2の編集画像を作成する第2の編集ステップと、
前記第1の編集画像を印刷する印刷ステップと、
前記第2の編集画像をサーバに送信する送信ステップと、をコンピュータに実行させ、
前記第1の編集ステップは、前記印刷用の編集対象としての写真画像を、第1の画素数で、編集するとともに前記ディスプレイに表示し、
前記第2の編集ステップは、前記編集対象としての写真画像を、前記第1の画素数より小さい第2の画素数で、編集するとともに前記ディスプレイに表示する、制御プログラム。
A control program implemented in a photography amusement machine having a camera, a display, and a printer,
A camera control step for controlling the camera to photograph a subject and create a photographic image;
Displayed before Symbol display and edited for printing the photographic image, receiving an edit to the image, a first editing step of creating a first edited image based on the editing accepted,
Displayed before Symbol display and edited the previous SL photographic image, receiving an edit to the photographic image, a second editing step of creating a second edited image including moving element based on the editing accepted When,
A printing step of printing the first edited image;
A transmission step of transmitting the second edited image to the server, cause the computer to execute,
In the first editing step, the photographic image as the editing object for printing is edited with the first number of pixels and displayed on the display;
In the second editing step, the photographic image to be edited is edited with a second pixel number smaller than the first pixel number and displayed on the display .
JP2010009006A 2010-01-19 2010-01-19 Photo shooting game machine and photo shooting game system Active JP5802977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010009006A JP5802977B2 (en) 2010-01-19 2010-01-19 Photo shooting game machine and photo shooting game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010009006A JP5802977B2 (en) 2010-01-19 2010-01-19 Photo shooting game machine and photo shooting game system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006305824A Division JP4464382B2 (en) 2006-11-10 2006-11-10 Photo shooting game machine and photo shooting game system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014098537A Division JP5857278B2 (en) 2014-05-12 2014-05-12 Photo shooting game machine and photo shooting game system

Publications (2)

Publication Number Publication Date
JP2010160490A JP2010160490A (en) 2010-07-22
JP5802977B2 true JP5802977B2 (en) 2015-11-04

Family

ID=42577651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010009006A Active JP5802977B2 (en) 2010-01-19 2010-01-19 Photo shooting game machine and photo shooting game system

Country Status (1)

Country Link
JP (1) JP5802977B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5720662B2 (en) * 2012-12-03 2015-05-20 フリュー株式会社 Image processing apparatus, image processing method, and program
JP5804392B2 (en) * 2013-04-26 2015-11-04 株式会社メイクソフトウェア Photo game machine
JP6355107B2 (en) * 2015-08-13 2018-07-11 株式会社メイクソフトウェア Photography game machine and its control program
JP6748353B2 (en) * 2016-08-05 2020-09-02 フリュー株式会社 Photo creation game machine, display control method, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3139831B2 (en) * 1992-05-27 2001-03-05 キヤノン株式会社 Image editing method and apparatus
JP3324036B2 (en) * 2000-02-22 2002-09-17 株式会社アトラス Image data distribution method in amusement device
JP3791341B2 (en) * 2001-02-22 2006-06-28 富士ゼロックス株式会社 Image processing device
JP3809805B2 (en) * 2001-10-24 2006-08-16 オムロンエンタテインメント株式会社 Photo sticker vending method and apparatus
JP4693344B2 (en) * 2003-08-29 2011-06-01 フリュー株式会社 Photo sticker making apparatus and photo sticker making method
JP4218547B2 (en) * 2004-02-20 2009-02-04 フリュー株式会社 PHOTOGRAPHIC PRINT DEVICE, PHOTOGRAPHIC PRINT DEVICE CONTROL METHOD, PHOTOGRAPHIC PRINT DEVICE CONTROL PROGRAM, AND COMPUTER READABLE RECORDING MEDIUM
JP4403850B2 (en) * 2004-03-24 2010-01-27 フリュー株式会社 PHOTOGRAPHIC EDITING METHOD, ITS SYSTEM, ITS DEVICE, AND MOBILE CHECK
JP2006287578A (en) * 2005-03-31 2006-10-19 Sony Corp Video processing system, video processor, video processing method and computer program

Also Published As

Publication number Publication date
JP2010160490A (en) 2010-07-22

Similar Documents

Publication Publication Date Title
JP4464382B2 (en) Photo shooting game machine and photo shooting game system
JP4316001B1 (en) Photography game machine, photography game method and photography game program
JP2007240887A (en) Automatic photographing device and method thereof
JP4316002B1 (en) Photography game machine, photography game method and photography game program
JP2014050027A (en) Photographic sticker creating apparatus, control method for photographic sticker creating apparatus, and control program for photographic sticker creating apparatus
JP5802977B2 (en) Photo shooting game machine and photo shooting game system
JP5636544B2 (en) Photo shooting game system and photo shooting game method
JP4742996B2 (en) Image editing apparatus, image editing method, image editing program, recording medium recording the same, and photo printing apparatus
JP5668514B2 (en) Automatic photo creation device
JP2007060325A (en) Image editing device, photo seal preparing device, image editing method and image editing program
JP5750961B2 (en) Game shooting device, game shooting method, and program
JP5857278B2 (en) Photo shooting game machine and photo shooting game system
JP2010061338A (en) Photographic sticke creation device and method, and program
JP2007325132A (en) Photographing and printing device, control method of photographing and printing device, and image edit program and recording medium for recording the same
JP3859693B1 (en) Automatic photography apparatus and method
JP5802965B2 (en) Photo game machine
JP2010068507A (en) Photo game machine, photo game method and photo game program
JP5750830B2 (en) Shooting device for play
JP4990840B2 (en) Image editing apparatus and photography game machine using the same
JP5790034B2 (en) Automatic photo creation device
JP5958047B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP2011199769A5 (en)
JP2017032779A (en) Photograph shooting play machine
JP6734629B2 (en) Photographing amusement machine and control program
JP6028163B2 (en) Photo shooting system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20140512

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140519

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20140520

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140704

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20140708

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20150407

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20150615

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20150616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150622

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20150804

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150806

R150 Certificate of patent or registration of utility model

Ref document number: 5802977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250