JP5857278B2 - Photo shooting game machine and photo shooting game system - Google Patents

Photo shooting game machine and photo shooting game system Download PDF

Info

Publication number
JP5857278B2
JP5857278B2 JP2014098537A JP2014098537A JP5857278B2 JP 5857278 B2 JP5857278 B2 JP 5857278B2 JP 2014098537 A JP2014098537 A JP 2014098537A JP 2014098537 A JP2014098537 A JP 2014098537A JP 5857278 B2 JP5857278 B2 JP 5857278B2
Authority
JP
Japan
Prior art keywords
image
editing
images
moving image
stamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014098537A
Other languages
Japanese (ja)
Other versions
JP2014186337A (en
Inventor
西口 雅也
雅也 西口
陽代 砂田
陽代 砂田
内田 健
健 内田
Original Assignee
株式会社メイクソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メイクソフトウェア filed Critical 株式会社メイクソフトウェア
Priority to JP2014098537A priority Critical patent/JP5857278B2/en
Publication of JP2014186337A publication Critical patent/JP2014186337A/en
Application granted granted Critical
Publication of JP5857278B2 publication Critical patent/JP5857278B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)

Description

本発明は、写真撮影遊戯機及び写真撮影遊戯システムに関し、さらに詳しくは、プレイ
ヤを撮影して得られた写真画像にプレイヤが落書き可能な写真撮影遊戯機、及びその写真
撮影遊戯機と携帯端末に接続可能なサーバとを備えた写真撮影遊戯システムに関する。
The present invention relates to a photography game machine and a photography game system, and more specifically, to a photography game machine that allows a player to doodle on a photograph image obtained by photographing a player, and the photography game machine and portable terminal thereof. The present invention relates to a photography game system including a connectable server.

写真撮影遊戯機は、アミューズメント施設等に設置され、利用者である被写体を撮影し
て写真画像を得て、得られた写真画像に、利用者により入力された文字や図形、スタンプ
画像、フレーム画像、背景画像といった画像を合成し、合成画像をレイアウトしてシール
シートに印刷した写真シールを提供する。
特開2001−245290号公報(特許文献1)や特開2004−15428号公報
(特許文献2)に開示されているように、最近では、写真撮影遊戯機で作成された合成画
像を写真シールとして提供するだけでなく、作成された合成画像を利用者の携帯電話機の
待ち受け画像として提供可能な写真撮影遊戯機が登場している。また、表現力の高い待ち
受け画像を提供するために、アニメーション動作する待ち受け画像を提供する写真撮影遊
戯機も登場している。
A photography game machine is installed in an amusement facility, etc., photographs a subject that is a user to obtain a photographic image, and characters and figures inputted by the user, a stamp image, a frame image on the obtained photographic image Provided is a photo sticker in which an image such as a background image is synthesized, the synthesized image is laid out and printed on a seal sheet.
As disclosed in Japanese Patent Application Laid-Open No. 2001-245290 (Patent Document 1) and Japanese Patent Application Laid-Open No. 2004-15428 (Patent Document 2), recently, a composite image created by a photography game machine is used as a photo sticker. Photographic game machines that can not only provide but also provide a created composite image as a standby image of a user's mobile phone have appeared. In addition, in order to provide a standby image with high expressiveness, a photography game machine that provides a standby image that performs an animation operation has also appeared.

特開2001−245290号公報JP 2001-245290 A 特開2004−15428号公報JP 2004-15428 A

しかしながら、待ち受け画像の表現力を高めるほど、写真撮影遊戯機内のメモリ等の装
置資源の負担は大きくなる。
However, the higher the expressiveness of the standby image, the greater the burden on the device resources such as the memory in the photographic game machine.

また、写真撮影遊戯機は、作成された合成画像をサーバを介して利用者の携帯電話機や
PDA(Personal Digital Assistants)等の携帯端末に提供するが、表現力の高い待ち
受け画像ほど送信されるデータ量が大きくなるため、写真撮影遊戯機とサーバとの間の通
信負荷が増加する。写真撮影遊戯機を設置する施設の設備負荷を軽減するため、写真撮影
遊戯機とサーバとの間の通信はPHS(Personal Handyphone System)を利用する場合が
多い。施設によっては電波状態が良好とはいえない場合もあるため、通信容量が増加する
とデータ送信が安定しない。そのため、通信容量を抑えつつ、表現力の高い画像を提供で
きる方が望ましい。
In addition, the photography amusement machine provides the created composite image to a user's mobile phone or PDA (Personal Digital Assistants) or other portable terminal via a server. Since the amount increases, the communication load between the photography game machine and the server increases. In order to reduce the equipment load of the facility where the photo game machine is installed, communication between the photo game machine and the server often uses PHS (Personal Handyphone System). Depending on the facility, the radio wave condition may not be good, so if the communication capacity increases, data transmission will not be stable. Therefore, it is desirable to provide images with high expressive power while suppressing communication capacity.

本発明の目的は、画像を作成するときの装置資源の負荷増大を抑制できる写真撮影遊戯
機を提供することである。
An object of the present invention is to provide a photography amusement machine capable of suppressing an increase in the load of apparatus resources when creating an image.

本発明の他の目的は、写真撮影遊戯機とサーバとの間の通信負荷を抑えることのできる
写真撮影遊戯機を提供することである。
Another object of the present invention is to provide a photography amusement machine that can suppress the communication load between the photography amusement machine and the server.

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

本発明による写真撮影遊戯機は、カメラとディスプレイとを備え、カメラ制御手段と、
第1の編集手段と、第2の編集手段とを備える。カメラ制御手段は、被写体を撮影して写
真画像を生成するようカメラを制御する。第1の編集手段は、写真画像を第1の画素数で
ディスプレイに表示し、写真画像の編集を受け付けて第1の編集画像を生成する。第2の
編集手段は、写真画像又は第1の編集画像を編集対象画像として第1の画素数よりも小さ
い第2の画素数でディスプレイに表示し、編集対象画像の編集を受け付ける。
A photography amusement machine according to the present invention comprises a camera and a display, camera control means,
First editing means and second editing means are provided. The camera control means controls the camera to shoot a subject and generate a photographic image. The first editing means displays the photographic image on the display with the first number of pixels, receives the editing of the photographic image, and generates the first edited image. The second editing means displays the photographic image or the first edited image as an editing target image on the display with a second number of pixels smaller than the first number of pixels, and accepts editing of the editing target image.

好ましくは、写真撮影遊戯機はさらに、印刷手段と、送信手段とを備える。印刷手段は
、第1の編集画像を印刷する。送信手段は、第2の編集手段で編集された画像をサーバに
送信する。
Preferably, the photography amusement machine further includes a printing unit and a transmission unit. The printing unit prints the first edited image. The transmission unit transmits the image edited by the second editing unit to the server.

本発明の写真撮影遊戯機は、2つの編集手段を備える。第2の編集手段では、編集対象
画像が第1の編集手段で編集される写真画像よりも小さい画素数で表示される。編集対象
となる画像の画素数、つまりデータ容量が小さいため、メモリ等の装置資源の負荷増大を
抑制できる。また、第2の編集手段により編集された画像はサーバに送信されるが、画素
数が小さい画像であるため、写真撮影遊戯機とサーバ間の通信負荷を抑えることができる
The photography game machine of the present invention includes two editing means. In the second editing means, the editing target image is displayed with a smaller number of pixels than the photographic image edited by the first editing means. Since the number of pixels of the image to be edited, that is, the data capacity is small, an increase in the load of device resources such as a memory can be suppressed. In addition, the image edited by the second editing means is transmitted to the server. However, since the image has a small number of pixels, the communication load between the photographic game machine and the server can be suppressed.

好ましくは、第2の編集手段は、印刷手段が第1の編集画像の印刷中に、編集対象画像
の編集を受け付ける。
Preferably, the second editing unit accepts editing of the editing target image while the printing unit is printing the first edited image.

この場合、プレイヤは印刷待ち時間の退屈感を解消できる。   In this case, the player can eliminate the boring feeling of the print waiting time.

好ましくは、写真撮影遊戯機はさらに、記憶手段と、レイヤ設定手段とを備える。記憶
手段は、複数のパタン画像で構成されるスタンプ動画像を記憶する。レイヤ設定手段は、
編集対象画像が入力される編集対象レイヤと、スタンプ動画像が入力される複数の動画レ
イヤとを設定するレイヤ設定手段とを備える。第2の編集手段はさらに、スタンプ動画像
の入力を受け付けたとき複数のパタン画像を複数の動画レイヤにそれぞれ入力して、編集
対象レイヤの画像及び複数の動画レイヤの画像で構成され複数の動画レイヤの画像が順次
表示される動画像に用いられる複数の動画レイヤの画像を作成する。
Preferably, the photography amusement machine further includes a storage unit and a layer setting unit. The storage means stores a stamp moving image composed of a plurality of pattern images. Layer setting means
Layer setting means for setting an editing target layer to which an editing target image is input and a plurality of moving image layers to which a stamp moving image is input. The second editing means further inputs a plurality of pattern images to a plurality of moving image layers when receiving an input of a stamp moving image, and includes a plurality of moving images composed of an image of an editing target layer and a plurality of moving image layers. A plurality of moving image layer images used for moving images in which layer images are sequentially displayed are created.

第2の編集手段は、第1の画素数よりも小さい第2の画素数の編集対象画像を編集する
ため、画素数を小さくした分メモリ負荷が軽減される。メモリ負荷が軽減された分、複数
の動画レイヤを設定できる。そのため、複数の動画レイヤの画像が順次表示される動画像
に用いられる複数の動画レイヤ画像を作成でき、複数の動画レイヤ画像により動画像は表
現力の高いアニメーション動作を実現できる。
Since the second editing unit edits the editing target image having the second number of pixels smaller than the first number of pixels, the memory load is reduced by reducing the number of pixels. Since the memory load is reduced, multiple video layers can be set. Therefore, a plurality of moving image layer images used for a moving image in which images of a plurality of moving image layers are sequentially displayed can be created, and the moving image can realize an animation operation with high expressiveness by the plurality of moving image layer images.

好ましくは、記憶手段はさらに、スタンプ静止画像を記憶する。第2の編集手段はさら
に、スタンプ静止画像の入力を受け付けたときスタンプ静止画像を複数の動画レイヤにそ
れぞれ入力する。
Preferably, the storage means further stores a stamp still image. The second editing means further inputs the stamp still image to each of the plurality of moving image layers when receiving the input of the stamp still image.

この場合、同一スタンプ静止画像が複数の動画レイヤにそれぞれ入力されるため、動画
像において複数の動画レイヤの画像が順次表示された場合であっても、動画レイヤ画像内
のスタンプ静止画像はアニメーション動作をしない。
In this case, since the same stamp still image is input to each of the plurality of moving image layers, even if the images of the plurality of moving image layers are sequentially displayed in the moving image, the stamp still image in the moving image layer image is animated. Do not do.

好ましくは、記憶手段は複数のスタンプ動画像を記憶する。写真撮影遊戯機はさらに、
選択手段と、アニメーション表示手段とを備える。選択手段は、複数のスタンプ動画像の
中から所望のスタンプ動画像を選択する。アニメーション表示手段は、選択手段により選
択されたスタンプ動画像に対応するパタン画像をディスプレイに順次表示するアニメーシ
ョン表示手段とを備える。
Preferably, the storage means stores a plurality of stamp moving images. In addition, photography game machines
Selection means and animation display means are provided. The selecting means selects a desired stamp moving image from a plurality of stamp moving images. The animation display means includes animation display means for sequentially displaying a pattern image corresponding to the stamp moving image selected by the selection means on the display.

この場合、プレイヤは、選択されたスタンプ動画像のアニメーション動作を確認できる
In this case, the player can confirm the animation operation of the selected stamp moving image.

好ましくは、編集対象画像は、表示優先順位の異なる前記写真画像及び複数のレイヤ画
像で構成される。第2の編集手段はさらに、写真画像及び前記複数のレイヤ画像を表示優
先順位の低い順に重ねて1つの編集対象レイヤに入力する。ここで、レイヤ画像とは、た
とえば、背景画像やフレーム画像である。フレーム画像とは、写真画像の周辺部分を装飾
した画像だけでなく、写真画像の中央部分を装飾する画像も含む。また、フレーム画像は
写真画像の手前に入る画像であり、前景画像である。また、レイヤ画像は、第1の編集手
段により入力されたペン画像やスタンプ画像といったいわゆる落書き画像も含む。
Preferably, the editing target image includes the photographic image and a plurality of layer images having different display priorities. The second editing means further inputs the photographic image and the plurality of layer images to one editing target layer by superimposing them in the descending order of display priority. Here, the layer image is, for example, a background image or a frame image. The frame image includes not only an image in which the peripheral portion of the photographic image is decorated but also an image in which the central portion of the photographic image is decorated. The frame image is an image that comes in front of the photographic image and is a foreground image. The layer image also includes a so-called graffiti image such as a pen image or a stamp image input by the first editing means.

この場合、レイヤの設定数を抑えることができる。   In this case, the number of layer settings can be suppressed.

本発明による写真撮影遊戯システムは、上述の写真撮影遊戯機と、携帯端末に接続可能
なサーバとを備える。写真撮影遊戯機又はサーバは、編集対象レイヤの画像及び複数の動
画レイヤの画像に基づいて、動画像を作成する。サーバは、作成された動画像を携帯端末
に送信する。
A photography game system according to the present invention includes the photography game machine described above and a server that can be connected to a portable terminal. The photography game machine or server creates a moving image based on the image of the editing target layer and the images of the plurality of moving image layers. The server transmits the created moving image to the mobile terminal.

本発明による写真撮影遊戯システムでは、作成された動画像を携帯端末に送信する。携
帯端末のディスプレイは小さいため、画素数の少ない第2の画素数の編集対象画像に基づ
いて作成された動画像を携帯端末のディスプレイに表示した場合に視覚的に違和感がない
。また、動画像は複数の動画レイヤ画像を順次表示するため、表現力豊かなアニメーショ
ン動作を実現できる。
In the photography game system according to the present invention, the created moving image is transmitted to the portable terminal. Since the display of the portable terminal is small, there is no visual discomfort when a moving image created based on the image to be edited having the second number of pixels with a small number of pixels is displayed on the display of the portable terminal. In addition, since a moving image sequentially displays a plurality of moving image layer images, an animation operation rich in expressiveness can be realized.

好ましくは、写真撮影遊戯機はさらに、合成手段を備える。合成手段は、動画レイヤの
画像を編集対象レイヤの画像と合成した合成画像を動画レイヤごとに作成する。動画像作
成手段は、複数の合成画像が所定の順番で順次表示される動画像を作成する。
Preferably, the photography game machine further includes a synthesizing unit. The synthesizing unit creates, for each moving image layer, a combined image obtained by combining the moving image layer image with the editing target layer image. The moving image creating means creates a moving image in which a plurality of composite images are sequentially displayed in a predetermined order.

好ましくは、動画像作成手段は、各動画レイヤの画像が所定の順番で編集対象レイヤの
画像上に順次表示される動画像を作成する。
Preferably, the moving image creating means creates a moving image in which the images of the moving image layers are sequentially displayed on the image of the editing target layer in a predetermined order.

この場合、編集対象レイヤの画像と動画レイヤの画像とを合成するのではなく、編集対
象レイヤ画像の上に各動画レイヤ画像を順次表示させる。たとえば非可逆圧縮形式で変換
された合成画像を復号すると、合成画像の被写体が合成画像ごとにずれる場合がある。こ
の場合、合成画像を順次表示させると、合成画像を切り替え表示するごとに被写体がずれ
、視覚的に違和感を生じる。編集対象レイヤ画像の上に各動画レイヤの画像を順次表示さ
せれば、合成画像時に発生しうるような被写体のずれは生じないため、視覚的な違和感も
生じない。
In this case, instead of synthesizing the editing target layer image and the moving image layer image, the moving image layer images are sequentially displayed on the editing target layer image. For example, when a composite image converted in the lossy compression format is decoded, the subject of the composite image may be shifted for each composite image. In this case, if the composite images are sequentially displayed, the subject is shifted each time the composite images are switched and displayed, and a visually uncomfortable feeling is generated. If the images of the respective moving image layers are sequentially displayed on the editing target layer image, the subject shift that may occur at the time of the composite image does not occur, so that the visual discomfort does not occur.

本発明による写真撮影遊戯機の制御方法は、上述の写真撮影遊戯機を制御する方法であ
り、本発明による制御プログラムは、上述の写真撮影遊戯機に実装されるプログラムであ
る。
The method for controlling a photography game machine according to the present invention is a method for controlling the above-mentioned photography game machine, and the control program according to the present invention is a program implemented in the above-mentioned photography game machine.

本発明の第1の実施の形態による写真撮影遊戯システムの全体構成を示す図である。1 is a diagram showing an overall configuration of a photography game system according to a first embodiment of the present invention. 図1中の写真撮影遊戯機の外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of the photography game machine in FIG. 図1中の写真撮影遊戯機における画像編集装置及び撮影装置の斜視図である。It is a perspective view of the image editing apparatus and imaging device in the photography game machine in FIG. 図1中の写真撮影遊戯機の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the photography game machine in FIG. 図4中の撮影用コンピュータ装置による撮影処理を示すフロー図である。FIG. 5 is a flowchart showing a photographing process by the photographing computer device in FIG. 4. 図4中の画像編集用コンピュータ装置による画像編集処理を示すフロー図である。FIG. 5 is a flowchart showing image editing processing by the image editing computer device in FIG. 4. 図6中のステップS23で編集ディスプレイに表示される落書き画面を示す図である。It is a figure which shows the graffiti screen displayed on an edit display by step S23 in FIG. 待ち受け動画を構成するコマ画像を説明するための図である。It is a figure for demonstrating the frame image which comprises a standby moving image. 図4中の画像編集用コンピュータ装置による待ち受け動画編集処理及び動画サンプル選択処理を示すフロー図である。FIG. 5 is a flowchart showing standby moving image editing processing and moving image sample selection processing by the image editing computer device in FIG. 4. 図9中のステップS30で編集ディスプレイに表示される選択画面を示す図である。It is a figure which shows the selection screen displayed on an edit display by step S30 in FIG. 図9中のステップS31の動作の詳細を示す図である。It is a figure which shows the detail of operation | movement of step S31 in FIG. 図11中のステップS311で編集ディスプレイに表示される選択画面を示す図である。It is a figure which shows the selection screen displayed on an edit display by step S311 in FIG. 図11中のステップS313で編集ディスプレイに表示される選択画面を示す図である。It is a figure which shows the selection screen displayed on an edit display by step S313 in FIG. 待ち受け動画を構成するコマ画像に含まれるスタンプ動画像を説明するための図である。It is a figure for demonstrating the stamp moving image contained in the frame image which comprises a standby moving image. 図11中のステップS314の動作を説明するための模式図である。It is a schematic diagram for demonstrating operation | movement of step S314 in FIG. 図11中のステップS314で作成される編集対象画像の一例を示す図である。It is a figure which shows an example of the edit object image produced by step S314 in FIG. 図11中のステップS316で編集ディスプレイに表示される落書き画面を示す図である。It is a figure which shows the graffiti screen displayed on an edit display by step S316 in FIG. スタンプ動画像を構成するパタン画像を示す図である。It is a figure which shows the pattern image which comprises a stamp moving image. ペン動画像を構成するパタン画像を示す図である。It is a figure which shows the pattern image which comprises a pen moving image. 図17に示した落書き画像で「スタンプ1」タブがタッチされた状態を示す図である。FIG. 18 is a diagram illustrating a state where a “stamp 1” tab is touched in the graffiti image illustrated in FIG. 17. 図11中のステップS319の動作の詳細を示す図である。It is a figure which shows the detail of operation | movement of step S319 in FIG. 図11中のステップS319の動作を説明するための模式図である。It is a schematic diagram for demonstrating operation | movement of step S319 in FIG. 図8に示した待ち受け動画の構成と異なる他の構成を示す図である。It is a figure which shows the other structure different from the structure of the standby moving image shown in FIG. 図21とは異なる、図11中のステップS319の動作の詳細を示す図である。It is a figure which shows the detail of operation | movement of step S319 in FIG. 11 different from FIG. 図24中のステップS65でサーバに送信されるデータを示す図である。It is a figure which shows the data transmitted to a server by step S65 in FIG. 図9中のステップS34で表示される選択画像を示す図である。It is a figure which shows the selection image displayed by step S34 in FIG. 図26に示した選択画像で「全身用」タブがタッチされた状態を示す図である。FIG. 27 is a diagram illustrating a state where a “whole body” tab is touched in the selection image illustrated in FIG. 26. 図26に示した選択画像で「特殊」タブがタッチされた状態を示す図である。FIG. 27 is a diagram illustrating a state in which a “special” tab is touched in the selection image illustrated in FIG. 26. 図9中のステップS35で表示される選択画像を示す図である。It is a figure which shows the selection image displayed by step S35 in FIG. 本発明の第2の実施の形態による写真撮影遊戯システムの全体構成を示す図である。It is a figure which shows the whole structure of the photography game system by the 2nd Embodiment of this invention. 図30中の写真撮影遊戯機で実行される待ち受け動画編集処理を示すフロー図である。It is a flowchart which shows the standby moving image editing process performed with the photography game machine in FIG. 図31中のステップS101で編集ディスプレイに表示される選択画面を示す図である。It is a figure which shows the selection screen displayed on an edit display by step S101 in FIG. 図31中のステップS102で設定される表示レイヤの構造を示す図である。It is a figure which shows the structure of the display layer set by step S102 in FIG. 図31中のステップS103で表示される落書き画面を示す図である。It is a figure which shows the graffiti screen displayed by step S103 in FIG. 図34に示した落書き画面で「アニメーションペン」タブがタッチされたときのパレットエリアの状態を示す図である。It is a figure which shows the state of the palette area when the "animation pen" tab is touched on the graffiti screen shown in FIG. 図34に示した落書き画面で「アニメーションスタンプ」タブがタッチされたときのパレットエリアの状態を示す図である。It is a figure which shows the state of the palette area when the "animation stamp" tab is touched on the graffiti screen shown in FIG. 配置情報データベースの構成を示す図である。It is a figure which shows the structure of an arrangement | positioning information database. 図34に示した落書き画面で「背景/フレーム」タブがタッチされたときのパレットエリアの状態を示す図である。FIG. 35 is a diagram showing a state of a palette area when a “background / frame” tab is touched on the graffiti screen shown in FIG. 34. 図31中のステップS108で送信されたデータを示す図である。It is a figure which shows the data transmitted by step S108 in FIG. 図30中のサーバでの動画ファイル作成処理を示すフロー図である。It is a flowchart which shows the moving image file creation process in the server in FIG. 図40中のステップS302で設定されるレイヤを示す図である。It is a figure which shows the layer set by step S302 in FIG. 図40中のステップS305を説明するための図である。It is a figure for demonstrating step S305 in FIG.

以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分に
は同一符号を付してその説明は繰り返さない。
1.第1の実施の形態
1.1.全体構成
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.
1. 1. First embodiment 1.1. overall structure

図1を参照して、本実施の形態による写真撮影遊戯システムは、写真撮影遊戯機1と、
サーバ300とを備える。写真撮影遊戯機1は、プレイヤを被写体として撮影して写真画
像を作成し、作成された写真画像の編集を受け付けてシールシートに印刷するための画像
を作成する。写真撮影遊戯機1はさらに、携帯端末である携帯電話機400のディスプレ
イに表示する待ち受け動画用のデータを作成する。サーバ300は写真撮影遊戯機1から
データを受け、待ち受け動画を作成し、携帯電話機400に送信する。携帯電話機400
は待ち受け動画を受け、ディスプレイに表示する。
1.2.写真撮影遊戯機の外観構成
Referring to FIG. 1, a photography game system according to the present embodiment includes a photography game machine 1,
And a server 300. The photographic game machine 1 shoots a player as a subject to create a photographic image, accepts editing of the created photographic image, and creates an image for printing on a sticker sheet. The photography game machine 1 further creates standby video data to be displayed on the display of the mobile phone 400 which is a mobile terminal. The server 300 receives data from the photography game machine 1, creates a standby moving image, and transmits it to the mobile phone 400. Mobile phone 400
Receives the standby video and displays it on the display.
1.2. Appearance structure of photography game machine

図2及び図3を参照して、写真撮影遊戯機1は、撮影を行う撮影ブース2と、撮影によ
り得られた写真画像の編集を行う2つの編集ブース3とに分かれる。撮影ブース2には、
撮影装置4及び背面パネル5が互いに対向して設置され、編集ブース3には、2つの画像
編集装置8が背中合わせに設置され、かつ撮影装置4に隣接して設置される。背面パネル
5の前面には椅子6が設置され、クロマキ用に背面パネル5及び椅子6は単一色(たとえ
ば緑色)にされている。撮影ブース2及び編集ブース3はサイドカーテン(図示せず)な
どにより外部と区分されている。
2 and 3, the photography game machine 1 is divided into a photography booth 2 for photographing and two editing booths 3 for editing photograph images obtained by photographing. In photography booth 2,
The photographing device 4 and the back panel 5 are installed facing each other, and two image editing devices 8 are installed back to back in the editing booth 3 and are installed adjacent to the photographing device 4. A chair 6 is installed on the front surface of the back panel 5, and the back panel 5 and the chair 6 are made in a single color (for example, green) for chroma. The photography booth 2 and the editing booth 3 are separated from the outside by a side curtain (not shown).

撮影ブース2の側面にはコインを投入するためのコイン投入口31が設けられ、撮影装
置4の側面には撮影ブース2で撮影しかつ編集ブース3で編集した写真画像をシールシー
トに印刷して排出するプリント排出口51が設けられる。
A coin insertion slot 31 for inserting coins is provided on the side of the photography booth 2, and a photograph image taken at the photography booth 2 and edited at the editing booth 3 is printed on a sticker sheet on the side of the photography apparatus 4. A print discharge port 51 for discharging is provided.

この写真撮影遊戯機1を利用する場合、プレイヤはコイン投入口31にコインを投入し
た後、撮影ブース2に入り、撮影装置4に向かって撮影操作を行う。撮影終了後、プレイ
ヤは写真撮影遊戯機1が指定するどちらかの編集ブース3に移動し、今度は画像編集装置
8に向かって画像編集操作、具体的には、フレーム、スタンプ、ペン書きの文字や図形な
どの編集画像を入力する。編集終了後、プレイヤはプリント排出口51から排出された写
真シールを受け取る。
When using this photographic game machine 1, the player inserts a coin into the coin insertion slot 31, enters the shooting booth 2, and performs a shooting operation toward the shooting device 4. After shooting, the player moves to one of the editing booths 3 designated by the photography game machine 1, and this time, the image editing operation toward the image editing device 8, specifically, characters written in a frame, stamp, and pen. Enter an edited image such as an image. After editing, the player receives the photo sticker discharged from the print discharge port 51.

また、プレイヤは写真撮影遊戯機1が写真シールを印刷中に、編集ブース3で待ち受け
動画用の画像編集操作を行う。つまり、印刷中の待ち時間を利用して、待ち受け動画を作
成する。
In addition, the player performs an image editing operation for a standby moving image in the editing booth 3 while the photo game machine 1 is printing a photo sticker. That is, a standby moving image is created using the waiting time during printing.

撮影装置4の正面中央にはカメラ10が設けられ、その下方には撮影用ディスプレイ1
1が設けられ、さらにそれらの周りには照明装置9が設けられる。カメラ10はプレイヤ
を被写体として撮影するもので、一般にデジタルカメラが用いられる。カメラ10は複数
台設けたり、移動や角度調節をできるようにしたりしてもよい。
A camera 10 is provided in the center of the front of the photographing apparatus 4, and a photographing display 1 is provided below the camera 10.
1 is provided, and a lighting device 9 is provided around them. The camera 10 photographs a player as a subject, and a digital camera is generally used. A plurality of cameras 10 may be provided, or the camera 10 may be moved or adjusted in angle.

撮影用ディスプレイ11は、自身が被写体となるプレイヤ用の確認モニタで、表示画面
が見やすいようにプレイヤに向けられている。撮影用ディスプレイ11は、カメラ10で
撮影されている映像を左右反転してライブ映像(動画)としてリアルタイムで表示する。
したがって、プレイヤは鏡のように映る自分の姿を見ながら撮影を行うことができる。さ
らに、その表示画面上には透明なタッチパネル12(図4参照)が貼り付けられており、
撮影用ディスプレイ11は、タッチパネル12に対するプレイヤの入力操作を受け付ける
。撮影用ディスプレイ11には、プレイヤによる種々の操作をタッチパネル12上で入力
するためのタッチペン13が設けられる。撮影用ディスプレイ11はライブ映像の他、確
認用の撮影済み写真画像、各種案内画面、操作ボタンなども表示する。
The photographing display 11 is a confirmation monitor for the player who is the subject, and is directed toward the player so that the display screen can be easily seen. The shooting display 11 displays a live video (moving image) in real time by horizontally flipping the video shot by the camera 10.
Therefore, the player can take a picture while looking at his / her appearance that looks like a mirror. Further, a transparent touch panel 12 (see FIG. 4) is pasted on the display screen,
The shooting display 11 accepts a player's input operation on the touch panel 12. The photographing display 11 is provided with a touch pen 13 for inputting various operations by the player on the touch panel 12. The shooting display 11 displays a photographed image for confirmation, various guidance screens, operation buttons, and the like in addition to the live video.

照明装置9は、カメラ10の上下左右及び天井に設けられ、被写体を前方から照明する
。照明装置9はその内部に、蛍光灯などの常灯照明と、ストロボなどの閃光照明(フラッ
シュ)とを有する。ストロボは、プレイヤから撮影の開始が指示され、カメラ10が撮影
しているライブ映像を写真画像(静止画)として取り込む瞬間に発光し、被写体を強く照
明する。照明装置は上記以外に、被写体の側方及び後方にも設けられ、被写体をあらゆる
方向から照明する。
The illumination device 9 is provided on the top, bottom, left, and right of the camera 10 and the ceiling, and illuminates the subject from the front. The illuminating device 9 includes an ordinary lamp illumination such as a fluorescent lamp and a flash illumination (flash) such as a strobe. The strobe emits light at the moment when the start of shooting is instructed by the player and the live video captured by the camera 10 is captured as a photographic image (still image), and illuminates the subject strongly. In addition to the above, the illumination device is also provided on the side and rear of the subject to illuminate the subject from all directions.

画像編集装置8は、撮影装置4で得られた写真画像を編集処理するための装置である。
画像編集装置8の正面中央には編集ディスプレイ40が設けられる。編集ディスプレイ4
0は、カメラ10で撮影された写真画像の中から選択された1又は複数の写真画像を表示
する。さらに、その表示画面上には透明なタッチパネル41(図4参照)が貼り付けられ
ており、編集ディスプレイ40は、タッチパネル41に対するプレイヤの編集操作を受け
付ける。編集ディスプレイ40の両側には、編集画像をタッチパネル41上で入力するた
めのタッチペン42が設けられる。画像編集装置8は、プレイヤの編集操作に応じて写真
画像に対して画像編集処理を実行する(画像編集処理)。
The image editing device 8 is a device for editing a photographic image obtained by the photographing device 4.
An editing display 40 is provided at the front center of the image editing device 8. Editing display 4
0 displays one or more photographic images selected from among photographic images taken by the camera 10. Further, a transparent touch panel 41 (see FIG. 4) is pasted on the display screen, and the edit display 40 accepts a player's editing operation on the touch panel 41. On both sides of the editing display 40, touch pens 42 for inputting an edited image on the touch panel 41 are provided. The image editing device 8 performs an image editing process on the photographic image according to the editing operation of the player (image editing process).

画像編集処理を実行後、写真撮影遊戯機1は作成された編集画像(写真画像に背景画像
や、フレーム画像、ペン画像やスタンプ画像といった落書き画像を重ねた画像)をシール
シートに印刷してプリント排出口51から排出し、出来上がった写真シールをプレイヤに
提供する。
After executing the image editing process, the photography amusement machine 1 prints the created edited image (image obtained by overlaying a graffiti image such as a background image, a frame image, a pen image or a stamp image on a photo image) on a sticker sheet and prints it. The photo sticker discharged from the discharge port 51 is provided to the player.

画像編集装置8はさらに、編集画像をシールシートに印刷している間、プレイヤの編集
操作に応じて、携帯電話機の待ち受け動画用の画像編集を受け付ける(待ち受け動画編集
処理)。作成された待ち受け画像は、サーバに送信され、サーバからプレイヤの携帯電話
機に転送される。
1.3.写真撮影遊戯機の機能構成
The image editing device 8 further receives image editing for the standby moving image of the mobile phone in accordance with the editing operation by the player while the edited image is printed on the sticker sheet (standby moving image editing process). The created standby image is transmitted to the server and transferred from the server to the player's mobile phone.
1.3. Functional configuration of photo game machine

図4を参照して、写真撮影遊戯機1は、撮影処理を実行する撮影用コンピュータ装置1
01aと、画像編集処理を実行する画像編集用コンピュータ装置101bと、動作中のコ
ンピュータ装置101a,101bからの指示を受け付けて、接続されている各種装置を
制御する制御基板102と、クロマキキャプチャボード17とを備える。撮影用コンピュ
ータ装置101aと画像編集用コンピュータ装置101bとは互いに接続され、画像デー
タなどの授受をピアツーピアで行う。これらは写真撮影遊戯機1の制御装置100として
機能する。
Referring to FIG. 4, a photographic game machine 1 is a photographic computer device 1 that executes a photographic process.
01a, an image editing computer apparatus 101b that executes image editing processing, a control board 102 that receives instructions from the operating computer apparatuses 101a and 101b, and controls various connected apparatuses, and a chroma capture board 17. The photographing computer device 101a and the image editing computer device 101b are connected to each other and exchange image data and the like on a peer-to-peer basis. These function as the control device 100 of the photographic game machine 1.

コンピュータ装置101a,101bは、CPU(Central Processing Unit)103a
,103bと、本装置に所定の処理を実行させるための制御プログラム、処理に必要なグ
ラフィックデータ、音声データ、撮影された写真画像、入力された編集画像、あらかじめ
用意された複数のレイヤ画像(背景画像、フレーム画像)、あらかじめ用意された複数の
スタンプ静止画像及びペン静止画像等を記憶するハードディスク104a,104b、制
御プログラムの一時的な作業領域となるメモリ105a,105bとを含む。
The computer apparatuses 101a and 101b include a CPU (Central Processing Unit) 103a.
103b, a control program for causing the apparatus to execute a predetermined process, graphic data necessary for the process, audio data, a photographed photograph image, an input edited image, a plurality of layer images prepared in advance (background Image, frame image), hard disks 104a and 104b for storing a plurality of stamp still images and pen still images prepared in advance, and memories 105a and 105b serving as temporary work areas for control programs.

ハードディスク104bはさらに、待ち受け動画作成用に準備された複数のスタンプ動
画像やペン動画像を固有の識別IDに対応づけて記憶する。各スタンプ動画像及び各ペン
動画像は複数のパタン画像で構成され、パラパラマンガと同じ要領でパタン画像を順番に
表示することで、アニメーション動作を実現する。スタンプ動画像はたとえば、図18に
示すように2枚のパタン画像P10−1,P10−2で構成され、ペン動画像はたとえば
、図19に示す2枚のパタン画像P11−1,P11−2で構成される。
The hard disk 104b further stores a plurality of stamp moving images and pen moving images prepared for standby video creation in association with unique identification IDs. Each stamp moving image and each pen moving image is composed of a plurality of pattern images, and an animation operation is realized by sequentially displaying the pattern images in the same manner as the flip book. For example, the stamp moving image is composed of two pattern images P10-1 and P10-2 as shown in FIG. 18, and the pen moving image is, for example, two pattern images P11-1 and P11-2 shown in FIG. Consists of.

撮影用コンピュータ装置101aは、撮影ブース2での撮影処理を実行する。具体的に
は、撮影用コンピュータ装置101aは制御プログラムを実行し、タッチパネル12に対
するタッチペン13による入力操作に応じて制御信号を制御基板102に送信する。また
、撮影用コンピュータ装置101aは、カメラ10、撮影用ディスプレイ11、制御基板
102と接続され、それらを制御する。クロマキキャプチャボード17は、カメラ10で
撮影されている映像を所定の時間間隔(たとえば30フレーム/秒)でデジタルデータ(
静止画像)として取り込み、取り込んだ静止画像の中からクロマキ技術により被写体以外
の領域を検出し、その検出した領域に選択された所望の背景画像を合成する。
The imaging computer device 101a executes imaging processing at the imaging booth 2. Specifically, the imaging computer device 101 a executes a control program and transmits a control signal to the control board 102 in response to an input operation with the touch pen 13 on the touch panel 12. The photographing computer device 101a is connected to the camera 10, the photographing display 11, and the control board 102, and controls them. The chroma capture board 17 converts video captured by the camera 10 into digital data (for example, 30 frames / second) at predetermined time intervals.
As a still image), an area other than the subject is detected from the captured still image by the chroma technique, and a desired background image selected is synthesized with the detected area.

画像編集用コンピュータ装置101bは、編集ブース3での画像編集処理、待ち受け動
画編集処理及び印刷処理を実行する。具体的には、画像編集用コンピュータ装置101b
は制御プログラムを実行し、タッチパネル41に対するタッチペン42による入力操作に
応じて制御信号を制御基板102に送信する。画像編集用コンピュータ装置101bは、
プリンタ55、編集ディスプレイ40、制御基板102に接続され、それらを制御する。
画像編集装置8は2台設けられるので、編集ディスプレイ40、タッチパネル41及びタ
ッチペン42は2組設けられる。
The image editing computer apparatus 101b executes image editing processing, standby moving image editing processing, and printing processing in the editing booth 3. Specifically, the image editing computer apparatus 101b.
Executes a control program and transmits a control signal to the control board 102 in response to an input operation with the touch pen 42 on the touch panel 41. The image editing computer device 101b
The printer 55, the editing display 40, and the control board 102 are connected to control them.
Since two image editing devices 8 are provided, two sets of editing display 40, touch panel 41, and touch pen 42 are provided.

プリンタ55は、編集画像をシールシート等の印刷媒体に印刷する。この実施の形態の
プリンタ55は編集画像をシールシートに印刷するが、印刷媒体はシールシートに限定さ
れることなく、他の印刷媒体でもよい。
The printer 55 prints the edited image on a print medium such as a sticker sheet. The printer 55 of this embodiment prints the edited image on the sticker sheet, but the print medium is not limited to the sticker sheet and may be another print medium.

タッチパネル12は、撮影用ディスプレイ11の上に積層されている。タッチパネル1
2は、タッチペン13の接触を検知し、それに応じた指示信号を撮影用コンピュータ装置
101aに送信する。撮影用ディスプレイ11は、撮影用コンピュータ装置101aから
送信された画像、具体的には、カメラ10で撮像された写真画像、撮影のための案内、選
択肢など表示する。
The touch panel 12 is laminated on the photographing display 11. Touch panel 1
2 detects the touch of the touch pen 13 and transmits an instruction signal corresponding to the contact to the photographing computer apparatus 101a. The photographing display 11 displays an image transmitted from the photographing computer device 101a, specifically, a photographic image captured by the camera 10, guidance for photographing, options, and the like.

タッチパネル41は、編集ディスプレイ40の上に積層されている。タッチパネル41
は、タッチペン42の接触を検知し、それに応じた指示信号を画像編集用コンピュータ装
置101bに送信する。編集ディスプレイ40は、画像編集用コンピュータ装置101b
から送信されたスタンプ画像、ペン画像、背景画像、フレーム画像等を写真画像上に重ね
て表示する。
The touch panel 41 is stacked on the editing display 40. Touch panel 41
Detects the touch of the touch pen 42 and transmits an instruction signal corresponding to the contact to the image editing computer apparatus 101b. The editing display 40 includes an image editing computer device 101b.
The stamp image, pen image, background image, frame image, and the like transmitted from are overlaid on the photographic image.

制御基板102は、コンピュータ装置101a,101bの他に、ストロボ制御部11
0、ストロボ15、蛍光灯14、サービスパネル113、印刷中LED52、印刷エラー
LED53、コイン制御部112、及び音声制御部111に接続される。
In addition to the computer devices 101a and 101b, the control board 102 includes a strobe control unit 11.
0, strobe 15, fluorescent lamp 14, service panel 113, printing LED 52, printing error LED 53, coin control unit 112, and voice control unit 111.

ストロボ制御部110はカメラ10に接続され、カメラ10のシャッタタイミングに応
じて発光するようにストロボ15を制御する。音声制御部111は制御基板102を介し
て撮影用コンピュータ装置101a及び画像編集用コンピュータ装置101bに接続され
る。撮影用スピーカ16は、撮影ブース2に配備され、撮影用コンピュータ装置101a
から制御基板102を介して与えられる指示信号に基づいて、撮影プレイのための操作方
法などの案内やBGMなどを出力する。編集用スピーカ46は、編集ブース3に配備され
、画像編集用コンピュータ装置101bから制御基板102を介して与えられる指示信号
に基づいて、編集プレイのための操作方法などの案内やBGMなどを出力する。
1.4.動作
A strobe control unit 110 is connected to the camera 10 and controls the strobe 15 to emit light according to the shutter timing of the camera 10. The audio control unit 111 is connected to the photographing computer device 101a and the image editing computer device 101b via the control board 102. The photographing speaker 16 is provided in the photographing booth 2 and is a photographing computer device 101a.
Based on the instruction signal given through the control board 102, guidance such as an operation method for photographing play, BGM, and the like are output. The editing speaker 46 is provided in the editing booth 3, and outputs guidance such as an operation method for editing play, BGM, and the like based on an instruction signal given from the image editing computer apparatus 101b via the control board 102. .
1.4. Action

上述した写真撮影遊戯機1を含む写真撮影遊戯システムの動作は概略次の通りである。   The operation of the photography game system including the above-described photography game machine 1 is roughly as follows.

まず、撮影用コンピュータ装置101aは、撮影ブース2においてカメラ10で被写体
を撮影して写真画像を得る撮影処理を実行する。次に、画像編集用コンピュータ装置10
1bは、編集ブース3において利用者の入力操作に応じて編集画像を作成する画像編集処
理を実行する。画像編集処理を実行後、作成された編集画像をシールシートに印刷する印
刷処理を開始する。
First, the photographing computer device 101a executes photographing processing for photographing a subject with the camera 10 in the photographing booth 2 to obtain a photographic image. Next, the image editing computer apparatus 10
1b executes an image editing process for creating an edited image in response to a user input operation in the editing booth 3. After executing the image editing process, a printing process for printing the created edited image on the sticker sheet is started.

画像編集用コンピュータ装置101bはさらに、印刷処理を実行中に、待ち受け動画を
編集する待ち受け動画編集処理を実行する。以下、撮影処理、画像編集処理及び待ち受け
動画編集処理の詳細を説明する。
The image editing computer apparatus 101b further executes a standby moving image editing process for editing a standby moving image during the printing process. Details of the photographing process, the image editing process, and the standby moving image editing process will be described below.

[撮影処理]
まず、撮影ブース2での写真撮影遊戯機1の動作を説明する。撮影用コンピュータ装置
101aのCPU103aは、ハードディスク104aに記憶されたコンピュータプログ
ラムをメモリ105aに読出して実行することにより、この撮影処理を実現する。
[Shooting process]
First, the operation of the photography game machine 1 at the photography booth 2 will be described. The CPU 103a of the photographing computer device 101a implements this photographing process by reading the computer program stored in the hard disk 104a into the memory 105a and executing it.

図5を参照して、CPU103aは、写真撮影遊戯機1の利用を促すタイトルデモ画面
を撮影用ディスプレイ11に表示する(S1)。タイトルデモ画面の表示中にコイン制御
部112が所定枚数のコインの投入を受け付ける(S2)。
Referring to FIG. 5, the CPU 103a displays a title demonstration screen for encouraging use of the photography game machine 1 on the photographing display 11 (S1). During the display of the title demonstration screen, the coin control unit 112 accepts insertion of a predetermined number of coins (S2).

続いて、CPU103aは、利用者の選択操作に応じて所望の背景画像を選択し(S3
)、カメラ10で撮影されているライブ映像を撮影用ディスプレイ11に表示し(S4)
、そのライブ映像を所定のシャッタタイミングで固定して写真画像を生成し、生成された
写真画像をメモリ105aに保存し(S5)、その写真画像をプレイヤに確認してもらう
ために撮影用ディスプレイ11に表示する(S6)。CPU103aは、所定枚数(ここ
では一例として8枚とする)を撮影し終えるまで上記ステップS4〜S6を繰り返す(S
7)。
Subsequently, the CPU 103a selects a desired background image according to the user's selection operation (S3).
), The live image taken by the camera 10 is displayed on the photographing display 11 (S4).
Then, the live image is fixed at a predetermined shutter timing to generate a photographic image, the generated photographic image is stored in the memory 105a (S5), and the photographic display 11 is used for the player to confirm the photographic image. (S6). The CPU 103a repeats the above steps S4 to S6 until it finishes photographing a predetermined number (here, eight is taken as an example) (S
7).

所定枚数(8枚)の撮影を終え、撮影制限時間が経過すると(S8でYES)、CPU
103aは、撮影された8枚の写真画像を撮影用ディスプレイ11に表示し、8枚の写真
画像から所定枚数(ここでは一例として4枚とする)の写真画像を選択するよう利用者に
促す。タッチペン13による利用者の操作に基づいて、CPU103aは4枚の写真画像
を選択する(S9)。CPU103aは選択された4枚の写真画像のデータを画像編集用
コンピュータ装置101bに転送する(S10)。最後に、CPU103aは、編集ブー
ス3へ移動するよう促す案内を撮影用ディスプレイ11に表示し(S11)、ステップS
1に戻って再びタイトルデモ画面を表示する。
When the predetermined number of images (8 images) have been shot and the shooting time limit has elapsed (YES in S8), the CPU
103a displays the eight photographed images on the photographing display 11 and prompts the user to select a predetermined number of photograph images (four as an example here) from the eight photograph images. Based on the operation of the user with the touch pen 13, the CPU 103a selects four photographic images (S9). The CPU 103a transfers the data of the four selected photographic images to the image editing computer device 101b (S10). Finally, the CPU 103a displays a guide prompting the user to move to the editing booth 3 on the photographing display 11 (S11).
Return to 1 and display the title demo screen again.

[画像編集処理]
次に、編集ブース3での画像編集処理について説明する。画像編集用コンピュータ装置
101bのCPU103bはハードディスク104bに記憶された制御プログラムをメモ
リ105bに読出して実行することにより、画像編集処理を実現する。
[Image editing processing]
Next, the image editing process in the editing booth 3 will be described. The CPU 103b of the image editing computer device 101b implements image editing processing by reading the control program stored in the hard disk 104b into the memory 105b and executing it.

図6を参照して、CPU103bは、撮影プレイから始めるよう促す待機画面を編集デ
ィスプレイ40に表示する(S21)。図5に示した撮影処理が終了すると、撮影用コン
ピュータ装置101aから画像編集用コンピュータ装置101bにステップS9で選択さ
れた写真画像のデータが転送されて来るので、画像編集用コンピュータ装置101bはこ
れを受信する(S22)。CPU103bは図7に示すような落書き画面を編集ディスプ
レイ40に表示し、タッチペン42による利用者の落書き入力に応じて写真画像の編集を
受け付ける(S23)。
Referring to FIG. 6, CPU 103b displays a standby screen for prompting to start from shooting play on editing display 40 (S21). When the photographing process shown in FIG. 5 is completed, the data of the photographic image selected in step S9 is transferred from the photographing computer device 101a to the image editing computer device 101b. Receive (S22). The CPU 103b displays a graffiti screen as shown in FIG. 7 on the editing display 40, and accepts editing of a photographic image according to the user's graffiti input by the touch pen 42 (S23).

図7に示すように、編集ディスプレイ40内には、左右に2つの描画領域60L及び6
0Rが表示され、2人の利用者がそれぞれの描画領域60(60L、60R)で画像を編
集できるようになっている。また、図5中のステップS9で選択された4枚の写真画像の
うちの2枚が一方の描画領域60Lに割り当てられ、他の2枚が他方の描画領域60Rに
割り当てられる。これにより、各々の描画領域60で異なる写真画像の編集を行うことが
でき、限られた編集時間内でより多くの編集を行うことができる。
As shown in FIG. 7, the editing display 40 includes two drawing areas 60L and 6 on the left and right.
0R is displayed, and two users can edit images in the respective drawing areas 60 (60L, 60R). Further, two of the four photographic images selected in step S9 in FIG. 5 are assigned to one drawing area 60L, and the other two are assigned to the other drawing area 60R. Thereby, different photographic images can be edited in each drawing area 60, and more editing can be performed within a limited editing time.

CPU103bは、メモリ105b内に複数のレイヤ(写真レイヤ、背景レイヤ、フレ
ームレイヤ、ペンレイヤ、スタンプレイヤ等)を設定し、設定された各レイヤに対応する
画像を入力する。たとえば、背景画像は背景レイヤに入力され、フレーム画像はフレーム
レイヤに、ペン画像はペンレイヤに、スタンプ画像はスタンプレイヤに入力される。
The CPU 103b sets a plurality of layers (photo layer, background layer, frame layer, pen layer, stamp layer, etc.) in the memory 105b, and inputs an image corresponding to each set layer. For example, the background image is input to the background layer, the frame image is input to the frame layer, the pen image is input to the pen layer, and the stamp image is input to the stamp layer.

このとき、CPU103bは、選択された写真画像を所定の画素数で写真レイヤに展開
し、その画素数(たとえば、480×640ドット)で描画領域60に表示する。
At this time, the CPU 103b develops the selected photographic image on the photographic layer with a predetermined number of pixels, and displays it in the drawing area 60 with the number of pixels (for example, 480 × 640 dots).

落書き画面にはさらに、各描画領域60L、60Rでの編集に利用される落書きツール
を選択するための落書きツール選択ボタン61が表示される。たとえば、描画領域60R
を編集中のプレイヤの操作により、「ペン」ボタン61がタッチされたとき、CPU10
3bはタッチを検知してペンパレット63を表示する。ペンパレット63には複数のペン
画像64が表示され、プレイヤがペンパレット63内のいずれかのペン画像64をタッチ
すると、そのペン画像を描画領域60Rに描画できる。ペンパレット63は複数用意され
、ペンパレットごとにタブ62が設けられている。他の落書きツール(スペシャル、スタ
ンプ、手書き、フレーム等)も同様に、複数のパレットが用意されている。このように、
プレイヤは豊富な落書きツールから所望の落書き画像を選択して描画領域60上に描画で
きる。
The graffiti screen further displays a graffiti tool selection button 61 for selecting a graffiti tool used for editing in each of the drawing areas 60L and 60R. For example, the drawing area 60R
When the “pen” button 61 is touched by the operation of the player who is editing the
3b detects the touch and displays the pen palette 63. A plurality of pen images 64 are displayed on the pen palette 63, and when the player touches any of the pen images 64 in the pen palette 63, the pen images can be drawn in the drawing area 60R. A plurality of pen palettes 63 are prepared, and a tab 62 is provided for each pen palette. Other graffiti tools (specials, stamps, handwriting, frames, etc.) have multiple palettes as well. in this way,
The player can select a desired graffiti image from a variety of graffiti tools and draw it on the drawing area 60.

写真画像を編集して編集画像を作成後、CPU103bは予め定められた印刷レイアウ
トを複数種類表示し、その中から所望の印刷レイアウトを選択するよう利用者に促す(S
24)。利用者が印刷レイアウトを選択すると、CPU103bは選択された印刷レイア
ウトで編集画像をシールシートにプリンタ55で印刷し、写真シールをプリント排出口5
1から利用者に提供する(S25)。
After creating the edited image by editing the photographic image, the CPU 103b displays a plurality of predetermined print layouts and prompts the user to select a desired print layout (S).
24). When the user selects a print layout, the CPU 103b prints an edited image on a sticker sheet with the printer 55 using the selected print layout, and a photo sticker on the print discharge port 5.
1 is provided to the user (S25).

[待ち受け動画編集処理]
CPU103bは、ステップS25の印刷処理を開始した後、待ち受け動画編集処理を
実行する。待ち受け動画編集処理は、印刷処理の実行中、たとえば、印刷処理が開始され
てから終了するまでの間(例えば1分)実行される。これにより、印刷待ちによるプレイ
ヤの退屈感を解消できる。
[Standby video editing]
After starting the printing process in step S25, the CPU 103b executes a standby moving image editing process. The standby moving image editing process is executed during execution of the printing process, for example, from the start of the printing process to the end thereof (for example, 1 minute). As a result, the feeling of boredom of the player due to waiting for printing can be eliminated.

待ち受け動画編集処理の詳細を説明する前に、待ち受け動画の構成について説明する。
図8に示すように、待ち受け動画は複数のコマ画像FP1〜FP4で構成される。携帯電
話機400のディスプレイに表示されるコマ画像を、所定時間(たとえば0.5秒)おき
に、FP1→FP2→FP3→FP4の順番で巡回させながら切り替えることで、コマ画
像FP1〜FP4内のスタンプ動画像P2、P3及びP4がアニメーション動作をする。
要するに、待ち受け動画は、パラパラマンガと同じ要領でアニメーション動作を実現する
。以下、このような待ち受け動画を作成する待ち受け動画編集処理について説明する。
Before describing the details of the standby video editing process, the configuration of the standby video will be described.
As shown in FIG. 8, the standby moving image is composed of a plurality of frame images FP1 to FP4. By switching the frame images displayed on the display of the mobile phone 400 in the order of FP1 → FP2 → FP3 → FP4 at predetermined time intervals (for example, 0.5 seconds), the stamps in the frame images FP1 to FP4 are switched. The moving images P2, P3, and P4 perform an animation operation.
In short, the standby video can be animated in the same way as the flip book. The standby video editing process for creating such a standby video will be described below.

図9を参照して、CPU103bはまず、編集ディスプレイ40に図10に示す案内画
面を表示する(S30)。案内画面には、「らくがきする」ボタン75と、「画像を選ぶ
」ボタン76と、「編集しない」ボタン77とが表示される。
Referring to FIG. 9, CPU 103b first displays the guidance screen shown in FIG. 10 on editing display 40 (S30). On the guidance screen, a “draft” button 75, a “select image” button 76, and a “do not edit” button 77 are displayed.

利用者の操作により「らくがきをする」ボタン75が選択され、かつ、決定のボタン7
4が選択されたとき、CPU103bは待ち受け動画編集処理を実行する(S31)。
The “write scribble” button 75 is selected by the user's operation, and the decision button 7
When 4 is selected, the CPU 103b executes a standby moving image editing process (S31).

図11を参照して、CPU103bはまず、編集ディスプレイ40に図12に示す画像
選択画面を表示する。画像選択画面の上段には、撮影処理(図5)のステップS9で選択
された4枚の写真画像A〜Dが表示され、下段には画像編集処理により作成され、写真画
像A〜Dにそれぞれ対応する編集画像E〜Hが表示される。プレイヤは、タッチペン42
を用いて、編集ディスプレイ40に表示された8枚の画像A〜Hのうち所望の画像を1枚
タッチして選択する。このとき、タッチされた画像(ここでは、写真画像A)の周囲には
カーソル66が表示され、選択された画像が視覚的にわかりやすくなっている。プレイヤ
は画像を選択後、「決定」ボタン65をタッチする。CPU103bは「決定」ボタン6
5へのタッチを検知して、カーソル66で囲まれた写真画像Aを編集対象画像に設定する
(S311)。なお、CPU103bは図12に示す画像選択画面を編集ディスプレイ4
0上に左右に並べて2つ表示する。つまり、画像編集処理における落書き画面(図7)と
同様に、左右に同じ画面を表示して2人のプレイヤが並行して待ち受け動画を編集できる
ようにする。以降の説明で登場する表示画面も図7と同様に、それぞれの画面で選択を受
け付けた内容に基づいて、編集ディスプレイ40に互いに独立して操作するための画面が
左右に2つ表示されるものとする。
Referring to FIG. 11, CPU 103b first displays an image selection screen shown in FIG. In the upper part of the image selection screen, the four photographic images A to D selected in step S9 of the photographing process (FIG. 5) are displayed, and in the lower part, they are created by the image editing process, and each of the photographic images A to D is displayed. Corresponding edited images E to H are displayed. The player uses the touch pen 42
Is used to select one of the eight images A to H displayed on the editing display 40 by touching the desired image. At this time, a cursor 66 is displayed around the touched image (here, photographic image A), so that the selected image is visually easy to understand. After selecting an image, the player touches the “OK” button 65. The CPU 103b displays the “OK” button 6
5 is detected, and the photographic image A surrounded by the cursor 66 is set as an image to be edited (S311). The CPU 103b displays the image selection screen shown in FIG.
Two are displayed side by side on top of 0. That is, similar to the graffiti screen in the image editing process (FIG. 7), the same screen is displayed on the left and right so that two players can edit the standby video in parallel. Similarly to FIG. 7, the display screens appearing in the following description are those in which two screens for independent operation are displayed on the editing display 40 on the left and right sides based on the contents received on each screen. And

CPU103bは、ステップS311で選択された画像が写真画像か編集画像かを判断
する(S312)。たとえば、ステップS311で写真画像Aが選択された場合、CPU
103bは写真画像が選択されたと判断し(S312でYES)、レイヤ画像(背景画像
及びフレーム画像)の選択処理を実行する(S313)。このとき、CPU103bは図
13に示す背景及びフレーム選択画面を編集ディスプレイ40に表示する。背景選択エリ
ア70には、ハードディスク104bから読み出された背景画像を表示した複数の画像選
択ボタン72が配置され、フレーム選択エリア71にはハードディスク104bから読み
出されたフレーム画像が表示された複数の画像選択ボタン72が配置される。なお、背景
選択エリア70、フレーム選択エリア71内の「なし」画像Kの画像選択ボタン72がタ
ッチされた場合、背景画像、フレーム画像は写真画像Aに付加されない。つまり、利用者
は「なし」画像Kを選択することにより背景画像及び/又はフレーム画像を選択しないこ
ともできる。
The CPU 103b determines whether the image selected in step S311 is a photographic image or an edited image (S312). For example, if photographic image A is selected in step S311, the CPU
103b determines that a photographic image has been selected (YES in S312), and executes a layer image (background image and frame image) selection process (S313). At this time, the CPU 103b displays the background and frame selection screen shown in FIG. In the background selection area 70, a plurality of image selection buttons 72 that display background images read from the hard disk 104b are arranged. In the frame selection area 71, a plurality of frame images read from the hard disk 104b are displayed. An image selection button 72 is arranged. When the image selection button 72 for the “none” image K in the background selection area 70 and the frame selection area 71 is touched, the background image and the frame image are not added to the photographic image A. That is, the user can select no background image and / or frame image by selecting the “none” image K.

たとえば、背景画像Iの画像選択ボタン72とフレーム画像Jの画像選択ボタン72の
タッチを検知すると、CPU103bは、背景画像Iとフレーム画像Jをそれぞれ選択画
像として設定する。
For example, when the touch of the image selection button 72 for the background image I and the image selection button 72 for the frame image J is detected, the CPU 103b sets the background image I and the frame image J as selection images, respectively.

なお、ステップS311で編集画像E〜Hのいずれかを選択した場合(S312でNO
)、ステップ313をスキップする。編集画像E〜Hには、背景画像やフレーム画像がす
でに描画されているからである。
If any of the edited images E to H is selected in step S311 (NO in S312)
), Step 313 is skipped. This is because background images and frame images are already drawn on the edited images E to H.

ここで、CPU103bは、レイヤの設定を行う(S314及びS315)。図14を
参照して、レイヤは、編集対象レイヤ80と、編集対象レイヤ80上に重なる複数の動画
レイヤ81〜84とで構成される。
Here, the CPU 103b sets a layer (S314 and S315). Referring to FIG. 14, the layer includes an editing target layer 80 and a plurality of moving image layers 81 to 84 that overlap the editing target layer 80.

スタンプ動画像を構成する各パタン画像は、入力される動画レイヤをあらかじめ対応付
けられている。たとえば、図14中のテーブルを参照して、スタンプ動画像P4は、4つ
のパタン画像P4−1〜P4−4で構成される。そして、スタンプ動画像P4が選択され
た場合、各パタン画像P4−1〜P4−4は、対応する動画レイヤ81〜84にそれぞれ
入力される。具体的には、パタン画像P4−1は動画レイヤ81に、P4−2は動画レイ
ヤ82に、P4−3は動画レイヤ83に、P4−4は動画レイヤ84にそれぞれ入力され
る。同様に、スタンプ動画像トP3は、3つのパタン画像P3−1〜P3−3で構成され
、スタンプ動画像P3が選択された場合、パタン画像P3−1は動画レイヤ81及び82
に入力され、P3−2が動画レイヤ83に、P3−3が動画レイヤ84にそれぞれ入力さ
れる。スタンプ動画像P2は、2つのパタン画像P2−1及びP2−2で構成され、スタ
ンプ動画像P2が選択された場合、パタン画像P2−1は動画レイヤ81及び82に、パ
タン画像P2−2は動画レイヤ83及び84にそれぞれ入力される。図14中のテーブル
は、ハードディスク104bにあらかじめ入力されている。ペン動画像についても上述の
スタンプ動画像と同様に、各パタン画像が対応する動画レイヤ81〜84に入力される。
Each pattern image constituting the stamp moving image is associated with an input moving image layer in advance. For example, referring to the table in FIG. 14, the stamp moving image P4 is composed of four pattern images P4-1 to P4-4. When the stamp moving image P4 is selected, the pattern images P4-1 to P4-4 are input to the corresponding moving image layers 81 to 84, respectively. Specifically, the pattern image P4-1 is input to the moving image layer 81, P4-2 is input to the moving image layer 82, P4-3 is input to the moving image layer 83, and P4-4 is input to the moving image layer 84. Similarly, the stamp moving image P3 is composed of three pattern images P3-1 to P3-3. When the stamp moving image P3 is selected, the pattern image P3-1 includes the moving image layers 81 and 82.
P3-2 is input to the moving image layer 83, and P3-3 is input to the moving image layer 84. The stamp moving image P2 includes two pattern images P2-1 and P2-2. When the stamp moving image P2 is selected, the pattern image P2-1 is displayed on the moving image layers 81 and 82, and the pattern image P2-2 is displayed on the moving image layer P2-2. Input to the moving image layers 83 and 84, respectively. The table in FIG. 14 is input in advance to the hard disk 104b. As for the pen moving image, each pattern image is input to the corresponding moving image layers 81 to 84 in the same manner as the stamp moving image.

なお、動画レイヤ81〜84にはスタンプ静止画像やペン静止画像も入力できる。たと
えばスタンプ静止画像P1は、各動画レイヤ81〜84の同じ配置位置にそれぞれ入力さ
れる。
Note that a stamp still image and a pen still image can also be input to the moving image layers 81 to 84. For example, the stamp still image P1 is input to the same arrangement position of each of the moving image layers 81 to 84.

CPU103bはレイヤを設定するとき、各レイヤ80〜84のサイズを、画像編集処
理で設定されるレイヤのサイズよりも小さくする。CPU103bは、編集対象レイヤ8
0に入力される編集対象画像の画素数(解像度)を、画像編集処理時に写真レイヤに展開
される写真画像の画素数よりも小さくする。待ち受け動画を表示する携帯電話機400の
ディスプレイサイズは小さいため、待ち受け動画の画素数はシールシートに印刷される編
集画像の画素数より低くても視覚的に違和感がないからである。編集対象画像の画素数を
小さくすることにより、上述のとおり、編集対象レイヤ80のサイズも小さくできる。そ
の結果、余ったメモリ容量で複数の動画レイヤ81〜84を設定できる。動画レイヤ数が
多いほど、コマ画像を多く作成できるため、表現力の高いアニメーション動作を実現でき
る。なお、各レイヤのサイズは同じとする。
When the layer is set, the CPU 103b makes the size of each layer 80 to 84 smaller than the size of the layer set in the image editing process. The CPU 103b reads the editing target layer 8
The number of pixels (resolution) of the editing target image input to 0 is made smaller than the number of pixels of the photographic image developed on the photographic layer during the image editing process. This is because the display size of the mobile phone 400 that displays the standby moving image is small, so that even if the number of pixels of the standby moving image is lower than the number of pixels of the edited image printed on the sticker sheet, there is no visual discomfort. By reducing the number of pixels of the editing target image, the size of the editing target layer 80 can be reduced as described above. As a result, a plurality of moving image layers 81 to 84 can be set with a surplus memory capacity. As the number of moving image layers increases, more frame images can be created, so that highly expressive animation operations can be realized. Note that the size of each layer is the same.

CPU103bはさらに、設定された編集対象レイヤ80上にステップS311及びス
テップS313で選択された画像(写真画像、背景画像及びフレーム画像)を上書き展開
する(S314)。画像編集処理の場合、背景レイヤ、写真レイヤ、フレームレイヤを準
備し、各画像を対応するレイヤに展開してこれらのレイヤを重ねて編集ディスプレイ40
に表示したが、待ち受け動画編集処理では、背景レイヤ、写真レイヤ、フレームレイヤの
3つのレイヤを準備せず、1つの編集対象レイヤに背景画像、写真画像及びフレーム画像
を上書き展開する。これにより、画像編集処理で背景レイヤ及びフレームレイヤに利用さ
れていたメモリ容量分を動画レイヤの設定に利用できる。
Further, the CPU 103b overwrites and develops the image (photo image, background image, and frame image) selected in step S311 and step S313 on the set editing target layer 80 (S314). In the case of image editing processing, a background layer, a photo layer, and a frame layer are prepared, each image is developed into a corresponding layer, and these layers are overlapped to edit the display 40.
In the standby moving image editing process, the background layer, the photo layer, and the frame layer are not prepared, but the background image, the photo image, and the frame image are overwritten and expanded on one editing target layer. Thereby, the memory capacity used for the background layer and the frame layer in the image editing process can be used for setting the moving image layer.

写真画像、背景画像及びフレーム画像には表示優先順位が設定されており、CPU10
3bは、表示優先順位の低い画像から順番に編集対象レイヤ80上に上書き展開する。た
とえば、図15に示すように、背景画像Iの表示優先順位が最も低く、フレーム画像Jの
表示優先順位が最も高い場合、まず初めに背景画像Iを編集対象レイヤ80上に展開し、
次に背景画像Iが展開された編集対象レイヤ80上に写真画像Aを上書き展開し、最後に
フレーム画像Jを上書き展開する。編集対象レイヤ80上に展開するとき、写真画像A中
の被写体を除く単一色の領域(図15中の斜線部86)はクロマキ技術により透明にされ
る。また、フレーム画像J中の斜線部87は透明である。そのため、これらの画像を重ね
て展開した場合、編集対象レイヤ80上に展開された編集対象画像は図16に示すとおり
となる。
Display priority is set for the photographic image, background image, and frame image, and the CPU 10
In 3b, the image on the editing target layer 80 is overwritten and developed in order from the image having the lowest display priority. For example, as shown in FIG. 15, when the display priority of the background image I is the lowest and the display priority of the frame image J is the highest, the background image I is first developed on the editing target layer 80,
Next, the photographic image A is overwritten and developed on the editing target layer 80 on which the background image I is developed, and finally the frame image J is overwritten and developed. When the image is expanded on the editing target layer 80, a single color area (shaded portion 86 in FIG. 15) excluding the subject in the photographic image A is made transparent by the chroma technique. Further, the hatched portion 87 in the frame image J is transparent. Therefore, when these images are superimposed and developed, the editing target image developed on the editing target layer 80 is as shown in FIG.

以上のように、待ち受け動画編集処理では、画像の画素数(解像度)を編集画像よりも
小さくし、これにより余ったメモリ容量を複数の動画レイヤの設定に利用する。
As described above, in the standby moving image editing process, the number of pixels (resolution) of the image is made smaller than that of the edited image, and the remaining memory capacity is used for setting a plurality of moving image layers.

さらに、背景レイヤ及びフレームレイヤを設定せずに、1枚の編集対象レイヤ80上に
背景画像、写真画像、フレーム画像を重ねて展開する。そのため、背景レイヤ及びフレー
ムレイヤを設定する画像編集処理と比較して、メモリ負担を軽減でき、軽減した分を複数
の動画レイヤの設定に利用できる。
Furthermore, without setting a background layer and a frame layer, a background image, a photographic image, and a frame image are superimposed and developed on one editing target layer 80. Therefore, compared with the image editing process for setting the background layer and the frame layer, the memory load can be reduced, and the reduced amount can be used for setting a plurality of moving image layers.

編集対象レイヤ80上に編集対象画像を展開した後、CPU103bは、複数の動画レ
イヤ81〜84を設定する(S315)。本実施の形態では、動画レイヤを4つ設定する
。編集対象画像の画素数を小さくし、かつ、1枚の編集対象レイヤ80上に背景画像、写
真画像及びフレーム画像を上書き展開することによりメモリ負担を軽減した分、動画レイ
ヤ数を多く設定することができるため、より表現力の高いアニメーション動作を実現でき
る。本実施の形態では動画レイヤを4枚(81〜84)としたが、メモリ負荷に応じて、
それ以上の動画レイヤ数を設定してもよい4枚未満の動画レイヤ数としてもよい。以下、
動画レイヤ81〜84に展開される画像の描画方法について説明する。
After developing the editing target image on the editing target layer 80, the CPU 103b sets a plurality of moving image layers 81 to 84 (S315). In the present embodiment, four moving image layers are set. Reduce the memory load by reducing the number of pixels in the image to be edited and overwriting the background image, photo image, and frame image on the single edit target layer 80, and increase the number of movie layers. Therefore, it is possible to realize more expressive animation motion. In the present embodiment, the number of moving image layers is four (81 to 84), but depending on the memory load,
It is good also as the number of moving image layers less than 4 sheets which may set the moving image layer number beyond it. Less than,
A method for drawing an image developed on the moving image layers 81 to 84 will be described.

編集対象レイヤ80及び動画レイヤ81〜84を設定後、CPU103bは図17に示
すような落書き画面を編集ディスプレイ40に表示する(S316)。落書き画面中の描
画領域90には、編集対象レイヤ80に入力された編集対象画像が表示される。編集対象
レイヤ80に入力された編集対象画像の画素数は、画像編集処理時の写真レイヤに入力さ
れた写真画像の画素数よりも小さいため、描画領域90に表示される編集対象画像は図7
中の描画領域60L、60Rに表示される画像よりも小さい画素数(たとえば240×3
20ドット)で表示される。
After setting the editing target layer 80 and the moving image layers 81 to 84, the CPU 103b displays a graffiti screen as shown in FIG. 17 on the editing display 40 (S316). In the drawing area 90 in the graffiti screen, the editing target image input to the editing target layer 80 is displayed. Since the number of pixels of the editing target image input to the editing target layer 80 is smaller than the number of pixels of the photographic image input to the photographic layer at the time of image editing processing, the editing target image displayed in the drawing area 90 is FIG.
The number of pixels smaller than the images displayed in the drawing areas 60L and 60R (for example, 240 × 3)
20 dots).

続いて、CPU103bは、落書き時間のカウントを開始し、落書き時間が制限時間(
たとえば1分)に達するか、おしまいボタン91がタッチペン42でタッチされるまでの
間(S318でYES)、CPU103bは落書き処理を実行する(S317)。
Subsequently, the CPU 103b starts counting the graffiti time, and the graffiti time is limited to the time limit (
For example, until the end button 91 is touched with the touch pen 42 (YES in S318), the CPU 103b executes graffiti processing (S317).

落書き処理実行時、CPU103bは、タッチペン42による落書き画面へのタッチを
検知する。なお、待ち受け動画編集処理は印刷処理中に実行されるが、一般的に印刷時間
は画像編集処理の実行時間よりも短いため、待ち受け動画編集処理の時間は画像編集処理
の時間よりも短く設定する。そのため、落書きツールの種類も画像編集処理時よりも制限
する。
When the graffiti process is executed, the CPU 103b detects a touch on the graffiti screen by the touch pen 42. The standby video editing process is executed during the printing process, but since the printing time is generally shorter than the image editing process execution time, the standby video editing process time is set shorter than the image editing process time. . For this reason, the types of graffiti tools are also limited compared to the image editing process.

たとえば、スタンプボタン96のタッチを検知すると、図17のように複数のスタンプ
タブ92が表示される。「アニメーションスタンプ1」タブ92のタッチを検知すると、
図17に示すように、CPU103bは落書きツールを「アニメーションスタンプ」に設
定し、落書き画面にアニメーションスタンプパレット97を表示する。アニメーションス
タンプパレット97には、スタンプ動画像が表示された複数の画像選択ボタン98が表示
される。このとき、各画像選択ボタン98に表示されたスタンプ動画像はアニメーション
動作せず、各スタンプ動画像を構成する複数のパタン画像のうち、いずれか1つのパタン
画像(たとえば、最もデータサイズの大きいパタン画像)のみが表示される。たとえば、
画像選択ボタン98Bには、スタンプ動画像P4を構成するパタン画像P4−1〜P4−
4(図14参照)のうち、データサイズが最大であるパタン画像P4−4が表示されてい
る。
For example, when the touch of the stamp button 96 is detected, a plurality of stamp tabs 92 are displayed as shown in FIG. When a touch on the “Animation Stamp 1” tab 92 is detected,
As shown in FIG. 17, the CPU 103b sets the graffiti tool to “animation stamp” and displays the animation stamp palette 97 on the graffiti screen. In the animation stamp palette 97, a plurality of image selection buttons 98 on which stamp moving images are displayed are displayed. At this time, the stamp moving image displayed on each image selection button 98 is not animated, and one of the plurality of pattern images constituting each stamp moving image (for example, the pattern having the largest data size). (Image) only. For example,
The image selection button 98B includes pattern images P4-1 to P4- constituting the stamp moving image P4.
4 (see FIG. 14), a pattern image P4-4 having the maximum data size is displayed.

複数の画像選択ボタン98のうち、ボタン98Aのタッチを検知すると、CPU103
bは、ボタン98Aの周囲にカーソルCUを表示し、ボタン98Aのパタン画像P4−1
を含むスタンプ動画像をP10と特定し、特定されたスタンプ動画像P10のアニメーシ
ョン動作をアニメーション表示エリア99に表示する。図18に示すように、スタンプ動
画像P10がパタン画像P10−1及びP10−2で構成されているとき、CPU103
bは、アニメーション表示エリア99にパタン画像P10−1とP10−2とを交互に切
り替えて順次表示する。なお、CPU103bが選択ボタン98Bのタッチを検知した場
合、選択ボタン98Bに表示されたパタン画像P4−4の属する画像をスタンプ動画像P
4と特定し、アニメーション表示エリア99にスタンプ動画像P4のアニメーション動作
を表示する。つまり、パタン画像P4−1〜P4−4を順番に繰り返し表示する。
When the touch of the button 98A among the plurality of image selection buttons 98 is detected, the CPU 103
b displays a cursor CU around the button 98A and displays a pattern image P4-1 of the button 98A.
Is identified as P10, and the animation operation of the identified stamp moving image P10 is displayed in the animation display area 99. As shown in FIG. 18, when the stamp moving image P10 is composed of pattern images P10-1 and P10-2, the CPU 103
In b, the pattern images P10-1 and P10-2 are alternately switched and displayed sequentially in the animation display area 99. When the CPU 103b detects the touch of the selection button 98B, the image to which the pattern image P4-4 displayed on the selection button 98B belongs is selected as the stamp moving image P.
4 and the animation operation of the stamp moving image P4 is displayed in the animation display area 99. That is, the pattern images P4-1 to P4-4 are repeatedly displayed in order.

以上のとおり、アニメーションスタンプパレット97内の画像選択ボタン98に表示さ
れたスタンプ動画像は動作せず、選択されたスタンプ動画像のみ、アニメーション表示エ
リア99でアニメーション動作させる。アニメーションスタンプパレット97内の画像選
択ボタン98に表示される全てのスタンプ動画像を動作させた場合、見た目が煩わしい。
選択されたスタンプ動画像のアニメーション動作のみをアニメーション表示エリア99で
表示することで、プレイヤは選択したスタンプ動画像の動作を確認でき、かつ、見た目の
煩わしさを解消できる。さらに、パレット上の全てのスタンプ動画像を動作させないため
、処理負担も軽減できる。
As described above, the stamp moving image displayed on the image selection button 98 in the animation stamp palette 97 does not operate, and only the selected stamp moving image is animated in the animation display area 99. When all the stamp moving images displayed on the image selection button 98 in the animation stamp palette 97 are operated, the appearance is troublesome.
By displaying only the animation operation of the selected stamp moving image in the animation display area 99, the player can confirm the operation of the selected stamp moving image and can eliminate the troublesomeness of appearance. Furthermore, since all the stamp moving images on the pallet are not operated, the processing load can be reduced.

画像選択ボタン98Bのタッチを検知したのち、描画領域90内で再びタッチを検知し
たとき、CPU103bは、描画領域90内のタッチを検知した位置にスタンプ動画像P
4を描画する。このとき、CPU103bは、ハードディスク104bからスタンプ動画
像P4を構成するパタン画像P4−1〜P4−4を読み出す。そして、描画領域90内で
の検知位置(配置位置)に相当する動画レイヤ81内の配置位置にパタン画像P4−1を
入力する。同様に、描画領域90内での検知位置に相当する動画レイヤ82〜84内の配
置位置に、パタン画像P4−2〜P4−4をそれぞれ展開する(図14参照)。
After detecting the touch of the image selection button 98B, when detecting the touch again in the drawing area 90, the CPU 103b moves the stamp moving image P to the position where the touch in the drawing area 90 is detected.
4 is drawn. At this time, the CPU 103b reads pattern images P4-1 to P4-4 constituting the stamp moving image P4 from the hard disk 104b. Then, the pattern image P4-1 is input to the arrangement position in the moving image layer 81 corresponding to the detection position (arrangement position) in the drawing area 90. Similarly, the pattern images P4-2 to P4-4 are respectively developed at the arrangement positions in the moving image layers 82 to 84 corresponding to the detection positions in the drawing area 90 (see FIG. 14).

以上の方法により、スタンプ動画像を動画レイヤ81〜84に入力する。なお、ペン動
画像が選択、描画された場合も同様の処理を実行する。ペン動画像は、たとえば、図19
に示すようにペンの色が異なるパタン画像P11−1及びP11−2で構成される。
The stamp moving image is input to the moving image layers 81 to 84 by the above method. The same process is executed when a pen moving image is selected and drawn. The pen moving image is, for example, shown in FIG.
As shown in FIG. 4, the pattern images P11-1 and P11-2 have different pen colors.

以上の方法により、CPU103bは動画レイヤ81〜84にスタンプ動画像及びペン
動画像を順次描画する。図14では、スタンプ動画像P2、P3、P4が描画された場合
の動画レイヤ81〜84を示す。
With the above method, the CPU 103b sequentially draws the stamp moving image and the pen moving image on the moving image layers 81 to 84. FIG. 14 shows moving image layers 81 to 84 when the stamp moving images P2, P3, and P4 are drawn.

CPU103bは、編集対象レイヤ80に動画レイヤ84を重ねた画像を描画領域90
に表示する。この場合、描画領域90の画面はアニメーション動作をしないため、処理負
担が軽減される。また、CPU103bは、編集対象レイヤ80上に重ねる動画レイヤを
を順次切り替えながら、描画領域90に画像を表示してもよい。この場合、描画領域90
の画面はアニメーション動作する。
The CPU 103b displays an image obtained by superimposing the moving image layer 84 on the editing target layer 80 in the drawing area 90.
To display. In this case, since the screen of the drawing area 90 does not perform an animation operation, the processing load is reduced. Further, the CPU 103b may display an image in the drawing area 90 while sequentially switching the moving image layers to be superimposed on the editing target layer 80. In this case, the drawing area 90
The screen is animated.

CPU103bはまた、落書き処理時に、上述のスタンプ動画像及びペン動画像だけで
なく、スタンプ静止画像及びペン静止画像も描画できる。図20に示すように、CPU1
03bは、「スタンプ1」タブ92のタッチを検知すると、落書きツールを「静止画スタ
ンプ」に設定する。そして、ハードディスク104bから静止画像であるスタンプ静止画
像を読み出して、スタンプパレット93内の画像選択ボタン94に表示する。
The CPU 103b can also draw not only the stamp moving image and the pen moving image described above but also the stamp still image and the pen still image during the graffiti process. As shown in FIG.
When 03b detects the touch of the “stamp 1” tab 92, the graffiti tool is set to “still image stamp”. Then, a stamp still image that is a still image is read from the hard disk 104 b and displayed on the image selection button 94 in the stamp palette 93.

複数の画像選択ボタン94のうち、ボタン94Aのタッチを検知したとき、CPU10
3bはスタンプ静止画像P1を選択画像に設定する。続いて、描画領域90内の地点X1
でタッチを検知したとき、CPU103bは、地点X1に相当する動画レイヤ81〜84
内の配置位置にスタンプ静止画像P1をそれぞれ入力する(図14参照)。
When the touch of the button 94A among the plurality of image selection buttons 94 is detected, the CPU 10
3b sets the stamp still image P1 as the selected image. Subsequently, the point X1 in the drawing area 90
When the touch is detected, the CPU 103b moves the moving image layers 81 to 84 corresponding to the point X1.
The stamp still image P1 is input to each of the arrangement positions (see FIG. 14).

このように、静止画像と動画像とを同じパレットに表示せず、静止画像の選択を受け付
けるために表示されるパレットと、動画像の選択を受け付けるために表示されるパレット
とを、それぞれ区別していずれかを表示する。そのため、パレットに表示されている画像
が動く画像か動かない画像かを視覚的に区別でき、選択または入力の容易性が高まり、混
乱することがない。
In this way, the still image and the moving image are not displayed on the same palette, and the palette displayed for receiving the selection of the still image and the palette displayed for receiving the selection of the moving image are distinguished from each other. Display either one. Therefore, it is possible to visually distinguish whether the image displayed on the palette is a moving image or a non-moving image, and the ease of selection or input is increased and there is no confusion.

以上の方法により、落書き処理を実行した結果、制限時間の経過、又は、おしまいボタ
ン91のタッチを検知したとき(S318でYES)、編集対象レイヤ80及び動画レイ
ヤ81〜84に入力された画像をファイルに保存し、保存したファイルをサーバに送信す
る(データ送信処理:S319)。データ送信処理は、以下のとおり、CASE1及びC
ASE2の2通りの処理方法があり、CPU103bは、CASE1及びCASE2のい
ずれを実行してもよい。以下、CASE1及びCASE2について説明する。
As a result of executing the graffiti processing by the above method, when the elapse of the time limit or the touch of the end button 91 is detected (YES in S318), the images input to the editing target layer 80 and the moving image layers 81 to 84 are displayed. The file is saved, and the saved file is transmitted to the server (data transmission process: S319). The data transmission process is as follows: CASE 1 and C
There are two ASE2 processing methods, and the CPU 103b may execute either CASE1 or CASE2. Hereinafter, CASE1 and CASE2 will be described.

[CASE1]
図21及び図22を参照して、CPU103bはまず、編集対象レイヤ80上の画像B
Pを読み出す(S51)。続いて、動画レイヤ81の画像PP1を読み出し(S52)、
読み出した画像PP1を画像BP上に重ねて合成し、合成画像CP1を作成する(S53
)。合成後、全ての動画レイヤの画像PP1〜PP4に対して合成画像を作成していなけ
れば(S54でNO)、次の画像PP2を読み出し(S52)、合成画像CP2を作成す
る。図22に示すように、全ての画像PP1〜PP4に対して合成画像CP1〜CP4を
作成した後(S54でYES)、これらの合成画像CP1〜CP4を圧縮ファイル形式(
例えばJPEG形式やGIF形式)に変換して合成画像ファイルとし、メモリ105bに
格納する(S55)。
[CASE1]
Referring to FIG. 21 and FIG. 22, first, the CPU 103 b first determines the image B on the editing target layer 80.
P is read (S51). Subsequently, the image PP1 of the moving image layer 81 is read (S52),
The read image PP1 is superimposed on the image BP and synthesized to create a synthesized image CP1 (S53).
). If a composite image has not been created for all the moving image layers PP1 to PP4 after synthesis (NO in S54), the next image PP2 is read (S52), and a composite image CP2 is created. As shown in FIG. 22, after the composite images CP1 to CP4 are created for all the images PP1 to PP4 (YES in S54), these composite images CP1 to CP4 are converted into a compressed file format (
For example, it is converted into a JPEG format or a GIF format to be a composite image file and stored in the memory 105b (S55).

格納後、プレイヤの携帯電話機400を特定するためのアドレス情報を受け付け、メモ
リ105bに保存する(S56)。CPU103bは、メモリ105bに格納した合成画
像ファイル及びアドレス情報をサーバ300に送信する(S57)。
After the storage, address information for specifying the player's mobile phone 400 is received and stored in the memory 105b (S56). The CPU 103b transmits the composite image file and address information stored in the memory 105b to the server 300 (S57).

なお、CPU103bは、合成画像ファイル及びアドレス情報と共に、合成画像CPU
1〜CP4の表示順番及び表示時間に関するアニメーション設定情報を送信する。アニメ
ーション設定情報は、たとえば、合成画像CP1〜CP4を、0.5秒おきにCP1→C
P2→CP3→CP4の順に巡回して表示する、といった表示順番情報及び表示時間情報
を含む。ただし、サーバ300がアニメーション設定情報を予め記憶している場合、CP
U103bはアニメーション設定情報を送信しない。
The CPU 103b, together with the composite image file and the address information, combines the composite image CPU.
The animation setting information regarding the display order and display time of 1 to CP4 is transmitted. The animation setting information is, for example, that the composite images CP1 to CP4 are CP1 → C every 0.5 seconds.
It includes display order information and display time information such as displaying in the order of P2 → CP3 → CP4. However, if the server 300 stores animation setting information in advance, CP
U103b does not transmit animation setting information.

サーバ300は、合成画像ファイル、アニメーション設定情報及びアドレス情報を受け
、自身のメモリに保存する。保存後、サーバ300は、合成画像ファイルをデコードして
生成された合成画像CP1〜CP4と、アニメーション設定情報とに基づいて、待ち受け
動画ファイルを作成する。待ち受け動画ファイルは、たとえば、アニメーションGIFフ
ァイルであってもよいし、フラッシュファイルであってもよい。いずれのファイル形式で
あっても、合成画像CP1〜CP4及びアニメーション設定情報に基づいて動画ファイル
を作成できる。
The server 300 receives the composite image file, animation setting information, and address information, and stores them in its own memory. After saving, the server 300 creates a standby moving image file based on the composite images CP1 to CP4 generated by decoding the composite image file and the animation setting information. The standby moving image file may be, for example, an animation GIF file or a flash file. In any file format, a moving image file can be created based on the composite images CP1 to CP4 and the animation setting information.

サーバは、作成された動画ファイルをアドレス情報と対応づけて自身のハードディスク
に保存する。そして、プレイヤが使用する携帯電話機400からの要求に応じて、アドレ
ス情報に対応する携帯電話機400に動画ファイルを送信する。
The server stores the created moving image file in its own hard disk in association with the address information. And according to the request | requirement from the mobile telephone 400 which a player uses, a moving image file is transmitted to the mobile telephone 400 corresponding to address information.

プレイヤの携帯電話機400は、受信した待ち受け動画ファイルに基づいて、合成画像
CP1〜CP4を順番にディスプレイに表示する。これにより、プレイヤは、待ち受け動
画のアニメーション動作を見ることができる。
The cellular phone 400 of the player displays the composite images CP1 to CP4 in order on the display based on the received standby moving image file. Thereby, the player can see the animation operation of the standby moving image.

[CASE2]
CASE1のように、合成画像CP1〜CP4を作成し、パラパラマンガの要領で合成
画像CP1〜CP4を順次切り替えて表示することで、待ち受け動画としてもよいが、他
の方法により待ち受け動画を作成してもよい。
[CASE2]
As in CASE1, composite images CP1 to CP4 are created, and the composite images CP1 to CP4 are sequentially switched and displayed in the manner of the flip book. Also good.

図23に示すように、CASE2では、CASE1のように合成画像CP1〜CP4を
作成しない。代わりに、携帯電話機400に表示するときに、動画レイヤの画像PP1〜
PP4を編集対象レイヤの画像BP上に重ねて表示し、かつ、画像PP1〜PP4を順番
に切り替えて繰り返し表示する。つまり、画像BPが画像PP1〜PP4の背景となる。
As shown in FIG. 23, CASE2 does not create composite images CP1 to CP4 unlike CASE1. Instead, when displaying on the mobile phone 400, images PP1 to PP of the moving image layer.
PP4 is superimposed on the image BP of the editing target layer and displayed, and the images PP1 to PP4 are switched in order and repeatedly displayed. That is, the image BP becomes the background of the images PP1 to PP4.

合成画像CP1〜CP4を作成し、これをたとえばJPEGのような非可逆圧縮ファイ
ル形式に変換した場合、デコード後の合成画像CP1〜CP4内の被写体の輪郭等が各画
像でずれる場合がある。場合によっては、被写体の目や鼻といった部位の位置が若干ずれ
る。このようなズレは、アニメーション動作のときに視覚的な違和感を生じさせる。
When composite images CP1 to CP4 are created and converted into an irreversible compression file format such as JPEG, the outline of the subject in the composite images CP1 to CP4 after decoding may be shifted between the images. In some cases, the position of the subject's eyes or nose is slightly shifted. Such a shift causes visual discomfort during the animation operation.

これに対し、CASE2のような動画構成にすれば、被写体を含む画像BPは画像PP
1〜PP4とは別個に圧縮される。そのため、デコード後の人物画像にズレは発生するは
ずがなく、視覚的な違和感は発生しない。以下、CASE2の処理方法を説明する。
On the other hand, if a moving image structure such as CASE2 is used, the image BP including the subject is the image PP.
1 to PP4 are compressed separately. For this reason, there should be no deviation in the decoded human image, and no visual discomfort will occur. Hereinafter, a processing method of CASE 2 will be described.

図24及び図25を参照して、CPU103bはまず、編集対象レイヤ80の画像BP
を圧縮ファイル形式で保存する(S61)。続いて、動画レイヤ81〜84の画像PP1
〜PP4を圧縮ファイル形式で保存する(S62)。さらに、CPU103bは、アニメ
ーション設定情報を作成する(S63)。図25に示すように、アニメーション設定情報
は、下層レイヤ及び上層レイヤに展開する画像の順番及び各画像の表示時間を含む。表示
時間はメモリ105bに予め記憶されている。
Referring to FIGS. 24 and 25, first, the CPU 103b first selects the image BP of the editing target layer 80.
Are stored in a compressed file format (S61). Subsequently, the image PP1 of the moving image layers 81 to 84
... PP4 are stored in a compressed file format (S62). Further, the CPU 103b creates animation setting information (S63). As shown in FIG. 25, the animation setting information includes the order of images developed in the lower layer and the upper layer and the display time of each image. The display time is stored in advance in the memory 105b.

続いて、CPU103bは、プレイヤの携帯電話機のアドレス情報を受け付け、メモリ
105bに保存する(S64)。保存後、画像BPと、画像PP1〜PP4と、アニメー
ション設定情報と、アドレス情報とをサーバ300に送信する(S65)。
Subsequently, the CPU 103b receives the address information of the player's mobile phone and stores it in the memory 105b (S64). After saving, the image BP, the images PP1 to PP4, the animation setting information, and the address information are transmitted to the server 300 (S65).

サーバ300は、写真撮影遊戯機1からデータを受信し、アニメーション設定情報に基
づいて、待ち受け動画ファイルを作成し、作成された待ち受け動画ファイルをアドレス情
報に対応づけて保存する。そして、プレイヤが使用する携帯電話機からの要求に応じて、
アドレス情報に対応する携帯電話機400に動画ファイルを送信する。
The server 300 receives data from the photographic game machine 1, creates a standby video file based on the animation setting information, and stores the created standby video file in association with the address information. And according to the request from the mobile phone used by the player,
The moving image file is transmitted to the mobile phone 400 corresponding to the address information.

プレイヤの携帯電話機400は、受信した動画ファイルに基づいて、図23に示すよう
に、画像BPを背景画像とした状態で、画像BP上で画像PP1〜PP4を順次切り替え
て繰り返し表示する。これにより、プレイヤは、待ち受け画像のアニメーション動作を見
ることができる。
Based on the received moving image file, the player's mobile phone 400 sequentially switches and displays the images PP1 to PP4 on the image BP in a state where the image BP is a background image, as shown in FIG. Thereby, the player can see the animation operation of the standby image.

[動画像サンプル選択処理]
上述の待ち受け画像編集処理では、ユーザが落書きツールを用いてスタンプ動画像等を
自由に描画したが、1又は複数のスタンプ動画像を含む複数のコマ画像で構成される動画
サンプルを予め準備して、ユーザに動画サンプルを選択させてもよい。この場合、ユーザ
は動画サンプルを選択するだけで容易に待ち受け動画を作成できる。以下、動画サンプル
選択処理について説明する。
[Video sample selection processing]
In the above-described standby image editing process, a user freely draws a stamp moving image or the like by using a graffiti tool. However, a moving image sample including a plurality of frame images including one or a plurality of stamp moving images is prepared in advance. The user may select a moving image sample. In this case, the user can easily create a standby moving image simply by selecting a moving image sample. Hereinafter, the moving image sample selection process will be described.

図9及び図10を参照して、印刷開始時に編集ディスプレイ40に表示された選択画面
(図10)のうち、ユーザ操作により「画像を選ぶ」ボタン76のタッチを検知したとき
(S30)、CPU103bは動画サンプル選択処理(S32〜S37)を実行する。
Referring to FIGS. 9 and 10, when the touch of the “select image” button 76 is detected by the user operation in the selection screen (FIG. 10) displayed on the editing display 40 at the start of printing (S30), the CPU 103b. Executes moving image sample selection processing (S32 to S37).

CPU103bはまず、編集ディスプレイ40に図12に示す選択画面を表示する(S
32)。選択画面の上段には、撮影処理のステップS9で選択された4枚の写真画像A〜
Dが表示され、下段には画像編集処理により作成された編集画像E〜Hが表示される。選
択画面に表示された8枚の画像のうちのいずれか1つの画像へのタッチを検知したとき、
タッチされた画像の周囲にカーソル66を表示し、決定ボタン65のタッチを検知したと
き、カーソル66で囲まれた画像を編集対象画像に設定する。
First, the CPU 103b displays the selection screen shown in FIG. 12 on the editing display 40 (S
32). In the upper part of the selection screen, the four photo images A to 4 selected in step S9 of the photographing process are displayed.
D is displayed, and edited images E to H created by the image editing process are displayed in the lower part. When a touch on any one of the 8 images displayed on the selection screen is detected,
When the cursor 66 is displayed around the touched image and the touch of the enter button 65 is detected, the image surrounded by the cursor 66 is set as an image to be edited.

CPU103bは、選択設定された編集対象画像が写真画像あるか編集画像であるか判
断する(S33)。たとえば、タッチされた画像が写真画像Aである場合(S33でYE
S)、図26に示すように、CPU103bは編集ディスプレイ40に写真画像用の複数
の動画サンプル選択画面を表示する(S34)。
The CPU 103b determines whether the selected editing target image is a photographic image or an edited image (S33). For example, if the touched image is a photographic image A (YE in S33)
S) As shown in FIG. 26, the CPU 103b displays a plurality of moving image sample selection screens for photographic images on the editing display 40 (S34).

「アップ用」タブ121へのタッチを検知すると、図26に示すようにアップ用パレッ
ト125を表示する。CPU103bは、複数のアップ用動画サンプルを写真画像A上に
重ねて画像選択ボタン124として表示する。アップ用動画サンプルは、被写体がアップ
で撮影された写真画像を編集対象画像とした場合に編集対象画像との組合せが良好な動画
サンプルであり、主として画像領域内の上辺近傍及び下辺近傍にスタンプ動画像を配置す
る。
When a touch on the “up” tab 121 is detected, an up palette 125 is displayed as shown in FIG. The CPU 103b displays a plurality of up moving image samples on the photographic image A as an image selection button 124. The video sample for up is a video sample that has a good combination with the image to be edited when a photographic image taken with the subject up is used as the image to be edited, and is mainly used in the vicinity of the upper and lower sides of the image area. Arrange the image.

「全身用」タブ122へのタッチを検知すると、図27に示すように全身用パレット1
26を表示する。全身用パレット126には、アップ用動画サンプルとデザインが異なる
全身用動画サンプルを写真画像A上に重ねて画像選択ボタン127として表示する。全身
用動画サンプルは、編集対象画像が被写体の全身を含むことを前提として準備された動画
サンプルであり、主として画像領域内の周縁部近傍にスタンプ動画像が配置される。
When a touch on the “whole body” tab 122 is detected, as shown in FIG.
26 is displayed. On the whole body palette 126, a whole body moving image sample having a design different from that of the up moving image sample is superimposed on the photographic image A and displayed as an image selection button 127. The whole body moving image sample is a moving image sample prepared on the assumption that the image to be edited includes the whole body of the subject, and the stamp moving image is arranged mainly in the vicinity of the peripheral portion in the image region.

「特殊」タブ123へのタッチを検知すると、図28に示すように特殊パレット128
を表示する。特殊パレット128には、表示位置が固定されておらず画像領域内を移動す
るスタンプ動画像や、点滅するスタンプ動画像が予めデザインされた動画サンプルを写真
画像A上に重ねて画像選択ボタン129A〜129Dとして表示する。動画サンプル内の
スタンプ動画像G1やG2は、画像領域内で任意の方向又は上下、左右方向に移動する。
スタンプ動画像G3及びG4は、所定期間おきに点滅する。これらのスタンプ動画像は、
あるタイミングでは被写体の上に重なって表示されるが、別のタイミングでは被写体の上
から離れたり、消えたりして被写体と重ならない。そのため、アニメーション動作中にス
タンプ動画像G1〜G4が被写体上に常時重なるのを防止できる。
When a touch on the “special” tab 123 is detected, as shown in FIG.
Is displayed. In the special palette 128, the image selection buttons 129 </ b> A to 129 </ b> A are displayed by superimposing a moving image sample preliminarily designed on a photographic image A with a stamp moving image that moves within the image area without a fixed display position. Displayed as 129D. The stamp moving images G1 and G2 in the moving image sample move in an arbitrary direction or in the vertical and horizontal directions within the image area.
The stamp moving images G3 and G4 blink at predetermined intervals. These stamp videos are
At some timing, the image is displayed over the subject, but at another timing, the subject is separated from the subject or disappears and does not overlap the subject. Therefore, it is possible to prevent the stamp moving images G1 to G4 from always overlapping on the subject during the animation operation.

上述のいずれのタブ121〜123を選択しても、画像選択ボタンにはステップS32
で選択された画像(写真画像A)を各タブ121〜123で分類された動画サンプルと重
ねて表示する。プレイヤは、各タブ121〜123を切替ながら各タブの画像選択ボタン
を見て、写真画像Aとデザイン的に相性のよい動画サンプル(たとえば、写真画像A内の
被写体にスタンプ動画像が重なる時間が最も短い動画サンプル等)を選択できる。
Regardless of which of the above-described tabs 121 to 123 is selected, the image selection button has step S32.
The image (photograph image A) selected in (1) is displayed so as to overlap with the moving image samples classified by the tabs 121 to 123. The player looks at the image selection button of each tab while switching the tabs 121 to 123, and the moving image sample having a design compatibility with the photographic image A (for example, the time when the stamp moving image overlaps the subject in the photographic image A) The shortest video sample etc. can be selected.

ユーザ操作による画像選択ボタンへのタッチを検知し、かつ、決定ボタン130のタッ
チを検知したとき、CPU103bは検知された画像選択ボタンに表示された動画サンプ
ルを選択する(S36)。設定された動画像サンプルは、図14と同様に、複数の画像P
P1〜PP4で構成されている。CPU103は、ステップS32で選択された画像(写
真画像A)及び複数の画像PP1〜PP4とを用いて送信処理を実行する(S37)。送
信処理の詳細は、上述のCASE1又はCASE2と同様であり、いずれのCASEを実
行してもよい。
When the touch on the image selection button by the user operation is detected and the touch on the determination button 130 is detected, the CPU 103b selects the moving image sample displayed on the detected image selection button (S36). The set moving image sample includes a plurality of images P as in FIG.
It is composed of P1 to PP4. The CPU 103 executes a transmission process using the image (photograph image A) selected in step S32 and the plurality of images PP1 to PP4 (S37). The details of the transmission process are the same as those of CASE 1 or CASE 2 described above, and either CASE may be executed.

一方、ステップS32で選択された画像が写真画像ではなく、編集画像であるとき(S
33でNO)CPU103bは、編集画像用の動画サンプルをアップ用パレット、全身用
パレット及び特殊パレットに表示する(S35)。たとえば、「アップ用」タブ121へ
のタッチを検知すると、CPU103bは、図29に示すように編集画像用にデザインさ
れた動画サンプルを編集画像上に重ねて画像選択ボタンとして表示する。各動画像サンプ
ルはスタンプ動画像G5を含む、写真画像用の動画サンプルと比較して、編集画像用の動
画サンプルは、画像全体に対するスタンプ動画像(G5)の占める割合が小さい。編集画
像は写真画像に装飾を既に加えられたものであるため、スタンプ動画像の占める割合を小
さくすることで、過剰な装飾を抑制する。
On the other hand, when the image selected in step S32 is not a photographic image but an edited image (S
The CPU 103b displays the edited image moving image sample on the up palette, the whole body palette, and the special palette (S35). For example, when a touch on the “up” tab 121 is detected, the CPU 103b displays a moving image sample designed for the edited image as an image selection button superimposed on the edited image as shown in FIG. Each moving image sample includes the stamp moving image G5, and the moving image sample for the edited image has a smaller proportion of the stamp moving image (G5) in the entire image than the moving image sample for the photographic image. Since the edited image is obtained by adding decoration to the photographic image, excessive decoration is suppressed by reducing the proportion of the stamp moving image.

以上のとおり、動画サンプル選択処理の場合、利用者は予め用意された複数の動画サン
プルの中から、ステップS32で選択された画像(写真画像又は編集画像)とデザイン的
に相性の良い動画サンプルを選択するだけで、待ち受け画像を容易に作成できる。このよ
うに動画サンプルを選択させる場合、ステップS32で選択された編集対象画像とデザイ
ン的に相性の良いデザインを容易に選択できるのが好ましいが、本実施の形態の場合、編
集対象画像内の被写体の構図に対応して動画サンプルを分類する。具体的には、被写体の
「アップ」が撮影されている編集対象画像に適した動画サンプルをアップ用パレットに、
被写体の「全身」が撮影されている編集対象画像に適した動画サンプルを全身用パレット
にそれぞれ分類して表示する。このように、編集対象画像内の被写体の構図(大きさや画
像領域中の被写体の配置位置)に応じて動画像サンプルを分類することにより、相性の良
いデザイン画像サンプルを容易かつ迅速に選択できる。たとえば、プレイヤがステップS
32で写真画像Aを選択した場合、写真画像A中の被写体はアップで撮影されているため
、プレイヤはアップ用タブ121を選択すれば、写真画像Aと相性のよい動画サンプルを
迅速に見つけることができ、動画サンプルの選択を容易にする。
As described above, in the moving image sample selection process, the user selects a moving image sample having a good design compatibility with the image (photo image or edited image) selected in step S32 from a plurality of moving image samples prepared in advance. A standby image can be easily created just by selecting. When selecting a moving image sample in this way, it is preferable that a design having a design compatibility with the image to be edited selected in step S32 can be easily selected. However, in this embodiment, the subject in the image to be edited is selected. The video samples are classified according to the composition. Specifically, a video sample suitable for the image to be edited in which the “up” of the subject is shot is placed on the up palette.
The moving image samples suitable for the image to be edited in which the “whole body” of the subject is photographed are classified and displayed on the whole body palette. In this way, by classifying the moving image samples according to the composition of the subject in the image to be edited (size or arrangement position of the subject in the image region), it is possible to easily and quickly select a design image sample having good compatibility. For example, if the player has step S
When the photograph image A is selected in step 32, the subject in the photograph image A is taken up, so that the player can quickly find a moving image sample that is compatible with the photograph image A by selecting the up tab 121. This makes it easy to select video samples.

なお、図10の案内画面で「編集しない」ボタン77を選択した場合、写真画像A〜D
又は編集画像E〜Hを編集ディスプレイ40に表示し、プレイヤが写真画像又は編集画像
を閲覧できるようにする(S38)。たとえば携帯電話機400を所有しないプレイヤの
ために、写真画像又は編集画像を閲覧できるようにする。
If the “Do not edit” button 77 is selected on the guidance screen of FIG.
Alternatively, the edited images E to H are displayed on the editing display 40 so that the player can view the photographic image or the edited image (S38). For example, a photographic image or an edited image can be browsed for a player who does not own the mobile phone 400.

CPU103bは、ステップS39で、編集ディスプレイ40に「シールは横から出る
よう」等のメッセージを表示して、一連のプレイを終了したことをプレイヤに通知する。
メッセージを表示した後、CPU103bは、写真シールをプリント排出口51から利用
者に提供する。
In step S39, the CPU 103b displays a message such as “Seal sticks out from the side” on the editing display 40 to notify the player that the series of play is finished.
After displaying the message, the CPU 103 b provides a photo sticker to the user from the print discharge port 51.

上述の実施の形態では、写真撮影遊戯機1が待ち受け動画用のデータをサーバ300に
送信し、サーバ300で待ち受け動画を作成したが、写真撮影遊戯機1で待ち受け動画を
作成し、作成された待ち受け動画をサーバ300経由で携帯電話機400に送信してもよ
い。要するに、待ち受け動画の作成は、写真撮影遊戯機1が実行してもよいし、サーバ3
00が実行してもよい。
2.第2の実施の形態
In the above-described embodiment, the photography game machine 1 transmits standby video data to the server 300, and the server 300 creates the standby video. However, the photography video game machine 1 creates and creates the standby video. The standby moving image may be transmitted to the mobile phone 400 via the server 300. In short, the creation of the standby video may be executed by the photography game machine 1 or the server 3.
00 may execute.
2. Second embodiment

第1の実施の形態では、写真撮影遊戯機1が動画レイヤ81〜84に描画された画像P
P1〜PP4を含む画像データをサーバに送信したが、他の方法でも待ち受け動画を作成
することも可能である。
In the first embodiment, the image P drawn on the moving image layers 81 to 84 by the photography game machine 1.
Although the image data including P1 to PP4 is transmitted to the server, it is also possible to create a standby moving image by other methods.

図30を参照して、写真撮影遊戯システム内のサーバ300は、複数のスタンプ動画像
及びペン動画像を固有の識別IDと対応づけてハードディスク301に記憶する。
Referring to FIG. 30, server 300 in the photography game system stores a plurality of stamp moving images and pen moving images in the hard disk 301 in association with unique identification IDs.

写真撮影遊戯機1は、第1の実施の形態のように画像PP1〜PP4を送信せず、代わ
りに、選択されたスタンプ動画像の識別ID及び配置位置に関する配置情報を画像BPと
ともにサーバ300に送信する。サーバ300は、配置情報に基づいてハードディスク3
01からスタンプ動画像を読み出した後、画像PP1〜PP4を作成し、画像BP及び画
像PP1〜PP4に基づいて待ち受け動画ファイル302を作成する。作成された動画フ
ァイルは携帯電話機400に表示され、ディスプレイ上で待ち受け動画がアニメーション
表示される。本実施の形態では、画像PP1〜PP4の代わりに配置情報が送信されるた
め、送信されるデータ容量は第1の実施の形態よりも抑えることができる。そのため、写
真撮影遊戯機1とサーバ300との間の通信容量も抑えることができる。以下、本実施の
形態による待ち受け動作編集処理の詳細を説明する。
The photography game machine 1 does not transmit the images PP1 to PP4 as in the first embodiment, and instead, the server 300 transmits the arrangement information regarding the identification ID and the arrangement position of the selected stamp moving image together with the image BP. Send. The server 300 uses the hard disk 3 based on the arrangement information.
After reading the stamp moving image from 01, the images PP1 to PP4 are created, and the standby moving image file 302 is created based on the image BP and the images PP1 to PP4. The created moving image file is displayed on the mobile phone 400, and the standby moving image is animated on the display. In the present embodiment, since the arrangement information is transmitted instead of the images PP1 to PP4, the data capacity to be transmitted can be suppressed as compared with the first embodiment. Therefore, the communication capacity between the photography game machine 1 and the server 300 can also be suppressed. Details of the standby operation editing process according to this embodiment will be described below.

図31を参照して、印刷処理を開始後、CPU103bは編集ディスプレイ40に図3
2に示す選択画面を表示し、表示されたいずれかの写真画像A〜Dを利用者に選択させる
。表示された写真画像のうち、所定の写真画像(たとえば写真画像A)へのタッチを検知
したとき、タッチされた写真画像Aを編集対象画像に設定する(S101)。
Referring to FIG. 31, after starting the printing process, the CPU 103b displays the editing display 40 in FIG.
2 is displayed, and the user selects any one of the displayed photographic images A to D. When a touch on a predetermined photographic image (for example, photographic image A) is detected among the displayed photographic images, the touched photographic image A is set as an editing target image (S101).

写真画像Aを選択した後、CPU103bは表示レイヤを設定する(S102)。図3
3に示すとおり、表示レイヤには、奥から順に、背景レイヤ201、編集対象レイヤ20
2、フレームレイヤ203、ペン下スタンプレイヤ204、ペンレイヤ205A及び20
5A、ペン上スタンプレイヤ206があり、これらはメモリ105bに設定される。表示
レイヤを構成する各レイヤは表示優先順位が低いほど奥に配置される。図33では、背景
レイヤ201が最も表示優先順位が低く、ペン上スタンプレイヤ206が最も表示優先順
位が高い。
After selecting the photographic image A, the CPU 103b sets a display layer (S102). FIG.
3, the display layer includes a background layer 201 and an editing target layer 20 in order from the back.
2, frame layer 203, pen bottom stamp layer 204, pen layers 205A and 20
5A, an on-pen stamp layer 206 is set in the memory 105b. Each layer constituting the display layer is arranged deeper as the display priority is lower. In FIG. 33, the background layer 201 has the lowest display priority, and the on-pen stamp layer 206 has the highest display priority.

背景レイヤ201には、背景画像が展開され、編集対象レイヤ202には、ステップS
101で選択された編集対象画像(写真画像A)が展開される。フレームレイヤ203に
はフレーム画像が展開される。ペン下スタンプレイヤ204及びペン上スタンプレイヤ2
06には、スタンプ画像が展開される。
In the background layer 201, a background image is developed, and in the editing target layer 202, step S
The image to be edited (photo image A) selected in 101 is developed. A frame image is developed on the frame layer 203. Pen lower stamp layer 204 and pen upper stamp layer 2
In 06, a stamp image is developed.

ペンレイヤ205A及び205Bには、2つのパタン画像で構成されるペン動画像が展
開される。本実施の形態では、表示レイヤのうち、ペンレイヤ(205A、205B)の
み複数設定される。ペンレイヤには、タッチパネル41にタッチした状態で移動させたタ
ッチペン42の軌跡に沿ってペン画像が入力される。ペン画像以外の画像(たとえばスタ
ンプ画像)の場合、タッチペン42が描画領域内の1点をタッチすれば、配置位置が決定
される。つまり、配置情報は、タッチされた1点の座標データで十分である。しかしなが
ら、ペン画像の場合、軌跡に沿って描画されるため、配置情報は軌跡上の複数の点の座標
データとなり、他の画像よりも配置情報が過剰に多くなる。また、サーバ300が複数の
座標データに基づいてペン画像を描画する処理も煩雑になる。そこで、ペン画像について
のみ、複数のペンレイヤ205A及び205Bを準備し、ペンレイヤ205A及び205
Bに入力された画像データをサーバに送信する。ペン動画像を入力する場合、第1の実施
の形態と同様に複数のレイヤが必要となるため、複数のペンレイヤ205A及び205B
を準備する。
A pen moving image composed of two pattern images is developed on the pen layers 205A and 205B. In the present embodiment, among the display layers, only a plurality of pen layers (205A, 205B) are set. A pen image is input to the pen layer along the locus of the touch pen 42 moved in a state where the touch panel 41 is touched. In the case of an image other than a pen image (for example, a stamp image), if the touch pen 42 touches one point in the drawing area, the arrangement position is determined. That is, the coordinate information of one touched point is sufficient for the arrangement information. However, in the case of a pen image, drawing is performed along a trajectory, so the arrangement information becomes coordinate data of a plurality of points on the trajectory, and the arrangement information is excessively larger than other images. In addition, the process for the server 300 to draw a pen image based on a plurality of coordinate data becomes complicated. Therefore, a plurality of pen layers 205A and 205B are prepared only for the pen image, and the pen layers 205A and 205B are prepared.
The image data input to B is transmitted to the server. When a pen moving image is input, a plurality of layers are required as in the first embodiment, so a plurality of pen layers 205A and 205B are used.
Prepare.

表示レイヤを設定後、CPU103bは図34に示す落書き画面を編集ディスプレイ4
0に表示する(S103)。
After setting the display layer, the CPU 103b displays the graffiti screen shown in FIG.
0 is displayed (S103).

落書き画面中の描画領域90には、表示レイヤに展開された画像が重ねて表示される。
ステップS103では、表示レイヤのうち、画像が入力されているのは写真画像Aが展開
された編集対象レイヤ202のみであるため、CPU103bは描画領域90に写真画像
Aを表示する。このとき、第1の実施の形態と同様に、表示レイヤを構成する各レイヤは
、画像編集処理時のレイヤよりもサイズが小さく、その結果、描画領域90に表示される
画像の画素数も画像編集処理時に描画領域に表示される画像よりも小さくなる。
In the drawing area 90 in the graffiti screen, the image developed on the display layer is displayed in an overlapping manner.
In step S103, since only the editing target layer 202 in which the photographic image A is developed is input to the display layer, the CPU 103b displays the photographic image A in the drawing area 90. At this time, as in the first embodiment, each layer constituting the display layer is smaller in size than the layer during the image editing process, and as a result, the number of pixels of the image displayed in the drawing area 90 is also the image. It becomes smaller than the image displayed in the drawing area during the editing process.

CPU103bは落書き時間のカウントを開始し、落書き処理を実行する(S200)
。落書き処理は、落書き時間が制限時間に達するか、又は、おしまいボタン68がタッチ
ペン42でタッチされる(S104でYES)まで実行される。
The CPU 103b starts counting graffiti time and executes graffiti processing (S200).
. The graffiti process is executed until the graffiti time reaches the time limit or until the end button 68 is touched with the touch pen 42 (YES in S104).

たとえば、アニメーションペンタブ306のタッチを検知すると、CPU103bは、
パレットエリア500に図35に示すアニメーションペンパレット310を表示する。第
1の実施の形態と同様に、アニメーションペンパレット310には複数のペン動画像が表
示された画像選択ボタン311と、選択されたペン動画像のアニメーション動作を表示す
るアニメーション表示エリア312とが表示される。各ペン動画像は、たとえば図19に
示すように、2つのパタン画像P11−1及びP11−2で構成される。
For example, when detecting the touch of the animation pen tab 306, the CPU 103b
An animation pen palette 310 shown in FIG. 35 is displayed in the palette area 500. As in the first embodiment, the animation pen palette 310 displays an image selection button 311 on which a plurality of pen moving images are displayed, and an animation display area 312 that displays the animation operation of the selected pen moving images. Is done. Each pen moving image is composed of two pattern images P11-1 and P11-2, for example, as shown in FIG.

アニメーションペンパレット310内の画像選択ボタン311Aのタッチを検知したと
き、CPU103bは画像選択ボタン311Aに表示されたペン動画像P11を落書きツ
ールに選択設定する。
When detecting the touch of the image selection button 311A in the animation pen palette 310, the CPU 103b selects and sets the pen moving image P11 displayed on the image selection button 311A as a graffiti tool.

落書きツールを設定した後、描画領域90へのペン画像の入力が確定したとき、つまり
、タッチペン42が描画領域90上のタッチパネル41にタッチし、タッチした状態で移
動した後、タッチパネル41から離れたとき(S202でYES)、CPU103bは、
タッチペン42の移動軌跡に沿ってペン動画像P11を描画する。具体的には、タッチペ
ン42の移動軌跡に沿って、ペンレイヤ205Aにパタン画像P11−1を入力し、ペン
レイヤ205Bにパタン画像P11−2を入力する(S203)。
After setting the graffiti tool, when the input of the pen image to the drawing area 90 is confirmed, that is, the touch pen 42 touches the touch panel 41 on the drawing area 90, moves in a touched state, and then moves away from the touch panel 41. When (YES in S202), the CPU 103b
A pen moving image P <b> 11 is drawn along the movement locus of the touch pen 42. Specifically, the pattern image P11-1 is input to the pen layer 205A and the pattern image P11-2 is input to the pen layer 205B along the movement locus of the touch pen 42 (S203).

なお、描画領域90にはペンレイヤ205Aに描画されたパタン画像P11−1のみを
表示する。描画領域90内でアニメーション動作をさせると処理負荷が大きくなるため、
1つのペンレイヤ205Aに入力された画像のみを表示させて処理負荷を抑える。
In the drawing area 90, only the pattern image P11-1 drawn on the pen layer 205A is displayed. When an animation operation is performed in the drawing area 90, the processing load increases.
Only the image input to one pen layer 205A is displayed to reduce the processing load.

描画領域90からタッチペン42が離れたとき、ペン動画像の入力が確定される(S2
02でYES)。このとき、表示レイヤに展開されている画像、つまり、描画領域90に
表示された画像をUNDO画像としてメモリ105b内のUNDO画像データベースに保
存する(S204)。CPU103bはさらに、保存されたUNDO画面をUNDO表示
部360内の画像選択ボタン321に表示する(S205)。UNDO表示部360は複
数の画像選択ボタン321を一列に配列して表示する。図34では、一列に配列された複
数の画像選択ボタン321に表示されるUNDO画像は、左に行くほど古く、右に行くほ
ど新しい。
When the touch pen 42 moves away from the drawing area 90, the input of the pen moving image is confirmed (S2).
02 is YES). At this time, the image developed on the display layer, that is, the image displayed in the drawing area 90 is stored as an UNDO image in the UNDO image database in the memory 105b (S204). The CPU 103b further displays the stored UNDO screen on the image selection button 321 in the UNDO display unit 360 (S205). The UNDO display unit 360 displays a plurality of image selection buttons 321 arranged in a line. In FIG. 34, UNDO images displayed on a plurality of image selection buttons 321 arranged in a row are older as they go to the left and newer as they go to the right.

UNDO画像データベースには、画像の入力が確定するごとに、UNDO画像が登録さ
れる。このとき、UNDOデータベースには、表示レイヤに展開された画像と、スタンプ
画像の識別ID及び配置位置を示す配置情報とが登録される。UNDO画像データベース
は、画像選択ボタン数分のUNDO画像を登録可能である。UNDO画像データベースは
、所定数のUNDO画像を古い順に保存する。所定数のUNDO画像を保存した後、新た
なUNDO画像を保存する場合、最も古いUNDO画像を削除し、新たなUNDO画像を
保存する。CPU103bは、先頭(最も左側に配列された)画像選択ボタン321から
UNDO画像を古い順に表示する。UNDO表示部360内の画像選択ボタン321は、
スクロールボタン370をタッチすることにより左右にスクロール移動する。
In the UNDO image database, an UNDO image is registered every time an image input is confirmed. At this time, the image developed on the display layer and the arrangement information indicating the identification ID and arrangement position of the stamp image are registered in the UNDO database. In the UNDO image database, UNDO images corresponding to the number of image selection buttons can be registered. The UNDO image database stores a predetermined number of UNDO images in chronological order. When storing a new UNDO image after storing a predetermined number of UNDO images, the oldest UNDO image is deleted and a new UNDO image is stored. The CPU 103b displays the UNDO images in order from the oldest from the top (leftmost) image selection button 321. The image selection button 321 in the UNDO display unit 360 is
By touching the scroll button 370, the scroll is moved to the left and right.

落書き処理では通常、描画領域内の所望の部分の画像データを消去可能な、いわゆる消
しゴム機能があるが、本実施の形態の場合、消しゴム機能を装備しない。本実施の形態で
は、スタンプレイヤ204、206に描画されたスタンプ画像の画像データをサーバに送
信するのではなく、位置情報のみを送信する。仮に、画像データを送信するのであれば、
消しゴムによってスタンプ画像が部分的に消されても、部分的に消されたスタンプ画像の
画像データをサーバに容易に送信できるが、本実施の形態のように位置情報のみを送信す
る場合、位置情報とは別に、消しゴムで消された部分の情報を新たに作成してサーバに送
信しなければならず、処理が煩雑になる。そこで、本実施の形態では、UNDO表示部3
60に描画領域に表示された画像の履歴としてUNDO画像を表示させる。これにより、
描画を失敗した場合であっても所望のUNDO画像に戻すことができるため、消しゴム機
能を代替できる。
In the graffiti process, there is usually a so-called eraser function that can erase image data of a desired portion in the drawing area. However, in this embodiment, the eraser function is not provided. In this embodiment, the image data of the stamp image drawn on the stamp layers 204 and 206 is not transmitted to the server, but only the position information is transmitted. If you are sending image data,
Even if the stamp image is partially erased by the eraser, the image data of the partially erased stamp image can be easily transmitted to the server. However, when only the position information is transmitted as in this embodiment, the position information Apart from that, the information of the part erased by the eraser must be newly created and transmitted to the server, and the processing becomes complicated. Therefore, in the present embodiment, the UNDO display unit 3
An UNDO image is displayed as a history of images displayed in the drawing area 60. This
Even if drawing fails, the desired UNDO image can be restored, so that the eraser function can be substituted.

UNDO表示部360内の画像選択ボタン321のいずれかへのタッチを検知したとき
(S212でYES)、CPU103bはタッチされた画像選択ボタン321に表示され
たUNDO画面をUNDO画像データベースから読み出し、表示レイヤに上書き展開する
(S213)。また、メモリ105bに格納された後述する配置情報もUNDO画像の配
置情報に更新される(S214)。これにより、プレイヤは過去の画像に戻して描画をや
り直すことができる。
When a touch on any of the image selection buttons 321 in the UNDO display unit 360 is detected (YES in S212), the CPU 103b reads the UNDO screen displayed on the touched image selection button 321 from the UNDO image database, and displays the display layer. Overwrite expansion to (S213). In addition, the arrangement information described later stored in the memory 105b is also updated to the arrangement information of the UNDO image (S214). Thereby, the player can return to the past image and redo the drawing.

上述ではペン画像としてペン動画像の描画について説明したが、静止画像であるペン静
止画像を描画することもできる。CPU103bは、「ペン/スタンプ」タブ305を検
知すると、図34に示すように、パレットエリア500に静止画像(ペン/スタンプ)パ
レット320を表示する。静止画像パレット320には、複数の静止画像が表示された画
像選択ボタン325が表示されている。ペン画像領域324内の画像選択ボタン325へ
のタッチを検知したとき、CPU103bは、タッチされたペン静止画像を落書きツール
に設定する。描画領域90内への入力が確定したとき(S202でYES)CPU103
bは、タッチペン42の移動軌跡に沿ってペンレイヤ205A及び205Bにペン静止画
像を入力する。このとき、ペンレイヤ205A及び205Bともに同じペン静止画像が入
力される。
In the above description, the drawing of the pen moving image as the pen image has been described. However, a pen still image that is a still image can be drawn. When detecting the “pen / stamp” tab 305, the CPU 103b displays a still image (pen / stamp) palette 320 in the palette area 500, as shown in FIG. In the still image palette 320, an image selection button 325 on which a plurality of still images are displayed is displayed. When detecting a touch on the image selection button 325 in the pen image area 324, the CPU 103b sets the touched pen still image as a graffiti tool. When the input to the drawing area 90 is confirmed (YES in S202), the CPU 103
In b, a pen still image is input to the pen layers 205 </ b> A and 205 </ b> B along the movement path of the touch pen 42. At this time, the same pen still image is input to both the pen layers 205A and 205B.

CPU103bがアニメーションスタンプタグ303のタッチを検知したとき、図36
に示すアニメーションスタンプパレット330をパレットエリア500に表示する。アニ
メーションスタンプパレット330内には、スタンプ動画像が表示された複数の画像選択
ボタン340と、選択されたスタンプ動画像をペン上スタンプレイヤ206に描画するか
ペン下スタンプレイヤ204に描画するかを設定するためのペン上ボタン351及びペン
下ボタン352が表示される。また、描画するスタンプ動画像の画像サイズを設定するた
めのサイズボタン353が表示される。下方のサイズボタン353を選択するほどスタン
プ動画像のサイズを大きく描画できる。
When the CPU 103b detects the touch of the animation stamp tag 303, FIG.
The animation stamp palette 330 shown in FIG. In the animation stamp palette 330, a plurality of image selection buttons 340 on which a stamp moving image is displayed and whether the selected stamp moving image is to be drawn on the on-pen stamp layer 206 or on the under-pen stamp layer 204 are set. A pen up button 351 and a pen down button 352 are displayed. In addition, a size button 353 for setting the image size of the stamp moving image to be drawn is displayed. As the size button 353 below is selected, the size of the stamp moving image can be drawn larger.

プレイヤは所望のスタンプ動画像が表示された画像選択ボタン340と、ペン上ボタン
351又はペン下ボタン352と、所望のサイズボタン353とをタッチし、CPU10
3bがこれらのタッチを検知することにより、CPU103bはタッチされた画像選択ボ
タン340に表示されたスタンプ動画像を落書きツールに設定する。このときCPU10
3bは、落書きツールに設定されたスタンプ動画像の識別IDと、タッチされたペン上ボ
タン351又はペン下ボタン352により特定される描画レイヤ情報と、タッチされたサ
イズボタン353により決定される画像サイズ情報とをメモリ105bに格納する。
The player touches an image selection button 340 on which a desired stamp moving image is displayed, a pen up button 351 or a pen down button 352, and a desired size button 353, and the CPU 10
When 3b detects these touches, the CPU 103b sets the stamp moving image displayed on the touched image selection button 340 in the graffiti tool. At this time, the CPU 10
3b is an identification ID of the stamp moving image set in the graffiti tool, drawing layer information specified by the touched pen up button 351 or the pen down button 352, and an image size determined by the touched size button 353 Information is stored in the memory 105b.

スタンプ動画像を落書きツールに設定した後、描画領域90内への入力を確定したとき
、つまり、タッチペン42で描画領域90内の所定の位置をタッチした後、タッチペン4
2がタッチパネル41から離れたとき(S206でYES)、描画領域内の検知したタッ
チ位置に対応するスタンプレイヤ204又は206内の位置に選択されたスタンプ動画像
を描画する(S207)。このとき、スタンプ動画像を構成する複数のパタン画像のうち
、いずれか1つ(たとえばデータ量が最大のもの)を指定されたスタンプレイヤ(ペン上
スタンプレイヤ206又はペン下スタンプレイヤ204)に指定されたサイズで描画する
。描画後、CPU103bは、先にメモリ105bに格納したスタンプ動画像の識別ID
と、描画レイヤ情報と、画像サイズ情報と、ステップS206で検知した描画領域内での
配置位置とを図37に示す配置情報データベースに登録する(S208)。配置情報デー
タベースは、メモリ105bに保存される(S209)。ステップS209を実行後、ス
テップS204に進み、UNDO処理(S204及びS205)を実行する。
After setting the stamp moving image in the graffiti tool, when the input into the drawing area 90 is confirmed, that is, after touching a predetermined position in the drawing area 90 with the touch pen 42, the touch pen 4
When 2 moves away from the touch panel 41 (YES in S206), the selected stamp moving image is drawn at a position in the stamp layer 204 or 206 corresponding to the detected touch position in the drawing area (S207). At this time, one of the plurality of pattern images constituting the stamp moving image (for example, the one with the largest data amount) is designated as the designated stamp layer (the on-pen stamp layer 206 or the under-pen stamp layer 204). Draw at the specified size. After rendering, the CPU 103b identifies the stamp moving image identification ID previously stored in the memory 105b.
The drawing layer information, the image size information, and the arrangement position in the drawing area detected in step S206 are registered in the arrangement information database shown in FIG. 37 (S208). The arrangement information database is stored in the memory 105b (S209). After executing step S209, the process proceeds to step S204, and UNDO processing (S204 and S205) is executed.

静止画像であるスタンプ静止画像を描画する場合も、上述のスタンプ動画像と同様の処
理が実行される。静止画像であるスタンプ静止画像の識別IDと、描画領域内でタッチさ
れた配置位置と、画像サイズ情報と、描画レイヤ情報とが配置情報として配置情報データ
ベースに登録される。
Even when a stamp still image, which is a still image, is drawn, the same processing as the above-described stamp moving image is executed. An identification ID of a stamp still image which is a still image, an arrangement position touched in the drawing area, image size information, and drawing layer information are registered as arrangement information in the arrangement information database.

このように、スタンプ画像については、配置情報を保存することにより、画像データを
サーバに送信するのではなく、配置情報のみをサーバに送信する。そのため、画像データ
を送信する場合と比較して通信容量を抑えることができる。
As described above, with respect to the stamp image, by storing the arrangement information, the image data is not transmitted to the server, but only the arrangement information is transmitted to the server. Therefore, the communication capacity can be reduced compared to the case where image data is transmitted.

背景画像、フレーム画像の描画も、上述のペン画像の描画と同様の処理が実行される。
「背景/フレーム」タグ304のタッチを検知すると、図38に示す背景/フレームパレ
ット344を表示する。背景エリア341には、背景画像を表示した複数の画像選択ボタ
ンが表示され、フレームエリア342には、フレーム画像を表示した複数のフレーム選択
ボタンが表示される。セットエリア343には、背景画像とフレーム画像とがセットごと
に重なって画像選択ボタンとして表示される。
For the drawing of the background image and the frame image, the same processing as the drawing of the pen image described above is executed.
When the touch of the “background / frame” tag 304 is detected, a background / frame palette 344 shown in FIG. 38 is displayed. A plurality of image selection buttons that display background images are displayed in the background area 341, and a plurality of frame selection buttons that display frame images are displayed in the frame area 342. In the set area 343, the background image and the frame image are displayed as an image selection button by overlapping each set.

背景エリア341内の画像選択ボタンのタッチを検知したとき、CPU103bは、タ
ッチされた画像選択ボタンの背景画像IDを特定し、落書きツールに設定する。フレーム
エリア342内の画像選択ボタンのタッチを検知したとき、CPU103bは、タッチさ
れた画像選択ボタンのフレームIDを特定し、落書きツールに設定する。セットエリア3
43内の画像選択ボタンのタッチを検知したとき、CPU103bは、タッチされた画像
選択ボタンの背景画像ID及びフレームIDを特定し、特定された背景画像及びフレーム
画像を落書きツールに設定する。つまり、背景画像とフレーム画像を一度に描画可能とす
る。
When detecting the touch of the image selection button in the background area 341, the CPU 103b specifies the background image ID of the touched image selection button and sets it in the graffiti tool. When detecting the touch of the image selection button in the frame area 342, the CPU 103b identifies the frame ID of the touched image selection button and sets it to the graffiti tool. Set area 3
When detecting the touch of the image selection button 43, the CPU 103b identifies the background image ID and frame ID of the touched image selection button, and sets the identified background image and frame image in the graffiti tool. That is, the background image and the frame image can be drawn at once.

描画領域内のタッチを検知したとき(S210でYES)特定された背景ID、フレー
ムIDの背景画像、フレーム画像を背景レイヤ201、フレームレイヤ203にそれぞれ
描画し、描画領域90内の画像に反映する(S211)。
When a touch in the drawing area is detected (YES in S210), the background image and frame image with the specified background ID and frame ID are drawn on the background layer 201 and the frame layer 203, respectively, and reflected in the image in the drawing area 90. (S211).

落書き時間が制限時間に達するか、又は、おしまいボタン68がタッチペン42でタッ
チされたとき(S104でYES)、落書き処理を終了する。CPU103bは、アドレ
ス情報を受け付け、メモリ105bに格納する(S105)。
When the graffiti time reaches the time limit or when the end button 68 is touched with the touch pen 42 (YES in S104), the graffiti process is terminated. The CPU 103b receives the address information and stores it in the memory 105b (S105).

続いて、CPU103bは、表示レイヤのうち、背景レイヤ201、編集対象レイヤ2
02及びフレームレイヤ203に描画された画像を合成して図39に示す画像BPを作成
する(S106)。CPU103bは、作成された画像BPを圧縮ファイル形式に変換し
てメモリ105bに保存する。CPU103bはまた、ペンレイヤ205A及び205B
に描画された画像PP11及びPP12を圧縮ファイル形式に変換してメモリ105bに
保存する。さらに、画像PP11及びPP12の表示順番、表示時間を示すアニメーショ
ン設定情報402を作成し、メモリ105bに保存する(S107)。
Subsequently, the CPU 103b, among the display layers, the background layer 201, the editing target layer 2
02 and the image drawn on the frame layer 203 are combined to create an image BP shown in FIG. 39 (S106). The CPU 103b converts the created image BP into a compressed file format and stores it in the memory 105b. The CPU 103b also has pen layers 205A and 205B.
The images PP11 and PP12 drawn in the above are converted into a compressed file format and stored in the memory 105b. Furthermore, animation setting information 402 indicating the display order and display time of the images PP11 and PP12 is created and stored in the memory 105b (S107).

CPU103bは、編集対象画像BPと、画像PP11、PP12と、画像PP11及
びPP12のアニメーション設定情報402と、配置情報406と、アドレス情報407
とをサーバに送信する(S108)。このとき、スタンプ画像は送信されず、その配置情
報のみが送信されるため、通信容量を抑えることができる。
The CPU 103b, the editing target image BP, the images PP11 and PP12, the animation setting information 402 of the images PP11 and PP12, the arrangement information 406, and the address information 407.
Are transmitted to the server (S108). At this time, the stamp image is not transmitted and only the arrangement information is transmitted, so that the communication capacity can be suppressed.

[サーバの動作]
図40を参照して、サーバ300は、写真撮影遊戯機1からデータを受信し、メモリに
格納した後(S301)、図41に示すように、表示優先順位が低い順に、編集対象レイ
ヤ501、ペン下スタンプレイヤ511〜514、ペンレイヤ521〜524、ペン上ス
タンプレイヤ531〜534を設定する。設定後、サーバ300は、編集対象レイヤ50
1に送信された画像BPを展開する(S302)。複数のレイヤ511〜514、521
〜524、531〜534の各々は0.5秒ずつ表示されるように設定されている。
[Server operation]
Referring to FIG. 40, server 300 receives the data from photography amusement machine 1 and stores it in the memory (S301). Then, as shown in FIG. 41, as shown in FIG. Pen lower stamp layers 511 to 514, pen layers 521 to 524, and pen upper stamp layers 531 to 534 are set. After setting, the server 300 edits the editing target layer 50
The image BP transmitted to 1 is developed (S302). Multiple layers 511-514, 521
Each of .about.524 and 531 to 534 is set to be displayed for 0.5 seconds.

続いて、編集対象画像レイヤ501以外の各レイヤに、動画像を構成するパタン画像を
入力する。サーバはまず、送信されたペン画像のパタン画像PP11及びPP12を読み
出し、同じく送信されたアニメーション設定情報402に基づいて、パタン画像PP11
及びPP12をペンレイヤ521〜524に展開する(S303)。たとえば、アニメー
ション設定情報がパタン画像PP11、PP12の順番で0.5秒ずつ表示する旨を示し
ている場合、サーバ300は、ペンレイヤ521及び523にパタン画像PP11を、ペ
ンレイヤ522及び524にパタン画像PP12をそれぞれ展開する。なお、送信された
ペン画像のパタン画像が4枚である場合、それぞれのペンレイヤ521〜524にそれぞ
れのパタン画像を展開すればよい。
Subsequently, a pattern image constituting the moving image is input to each layer other than the editing target image layer 501. First, the server reads the pattern images PP11 and PP12 of the transmitted pen image, and based on the animation setting information 402 that is also transmitted, the pattern image PP11.
And PP12 are developed on the pen layers 521 to 524 (S303). For example, when the animation setting information indicates that the pattern images PP11 and PP12 are displayed in order of 0.5 seconds, the server 300 displays the pattern image PP11 in the pen layers 521 and 523 and the pattern image PP12 in the pen layers 522 and 524. Expand each. In addition, when the pattern image of the transmitted pen image is four sheets, each pattern image should just be expand | deployed to each pen layer 521-524.

続いて、サーバ300は、配置情報406に基づいて、ペン下スタンプレイヤ511〜
514、ペン上スタンプレイヤ531〜534にスタンプ画像を入力する。サーバ300
はのハードディスク301に、4つのパタン画像で構成されるスタンプ動画像と、静止画
像であるスタンプ静止画像とを記憶している。サーバは、配置情報406内の識別IDで
スタンプ画像を特定する。特定されたスタンプ画像がスタンプ動画像であるとき、指定さ
れた描画レイヤ(たとえばペン下スタンプレイヤ511〜514)の指定された配置位置
に4つのパタン画像をそれぞれ入力する。一方、特定されたスタンプ画像がスタンプ静止
画像である場合、4つのレイヤの指定された配置位置に同一のスタンプ静止画像を入力す
る(S304)。以上の動作により、ステップS302で設定されたレイヤに画像を入力
する。
Subsequently, the server 300, based on the arrangement information 406, creates a pen bottom stamp layer 511-
514, the stamp image is input to the on-pen stamp layers 531 to 534. Server 300
The hard disk 301 stores a stamp moving image composed of four pattern images and a stamp still image which is a still image. The server identifies the stamp image with the identification ID in the arrangement information 406. When the identified stamp image is a stamp moving image, four pattern images are respectively input to designated arrangement positions of designated drawing layers (for example, the lower pen stamp layers 511 to 514). On the other hand, if the identified stamp image is a stamp still image, the same stamp still image is input to the designated arrangement positions of the four layers (S304). With the above operation, an image is input to the layer set in step S302.

続いて、サーバは待ち受け動画の構成要素となる合成画像を作成する(S305)。図
42に示すように、下から順に、編集対象画像レイヤ501上に展開された画像BP、ペ
ン下スタンプレイヤ511の画像、ペンレイヤ521の画像PP1、ペン上スタンプレイ
ヤ531の画像を重ねて合成し、合成画像CP11を作成する。同様に、編集対象画像B
P、ペン下スタンプレイヤ512の画像、ペンレイヤ521の画像P12、ペン上スタン
プレイヤ532の画像を合成し、合成画像CP12を作成する。同じ要領で図42に示す
ように合成画像CP13及びCP14を作成する。
作成された合成画像CP11〜CP14はファイル圧縮形式で変換され、メモリに格納さ
れる。続いて、サーバは、合成画像CP11〜CP14の表示順番及び表示時間を示すア
ニメーション設定情報を作成し、保存する(S306)。
最後に、作成されたコマ画像及びアニメーション設定情報に基づいて、待ち受け動画フ
ァイルを作成し、アドレス情報と対応づけてハードディスク301に保存する(S307
)。以降のサーバ300の動作及び携帯電話機400の動作は第1の実施の形態と同じで
ある。
Subsequently, the server creates a composite image that is a constituent element of the standby moving image (S305). As shown in FIG. 42, in order from the bottom, the image BP expanded on the image layer 501 to be edited, the image of the pen lower stamp layer 511, the image PP1 of the pen layer 521, and the image of the pen upper stamp layer 531 are superimposed and combined. A composite image CP11 is created. Similarly, image B to be edited
P, the image of the lower pen stamp layer 512, the image P12 of the pen layer 521, and the image of the upper pen stamp layer 532 are combined to create a combined image CP12. In the same manner, composite images CP13 and CP14 are created as shown in FIG.
The created composite images CP11 to CP14 are converted in a file compression format and stored in the memory. Subsequently, the server creates and stores animation setting information indicating the display order and display time of the composite images CP11 to CP14 (S306).
Finally, a standby moving image file is created based on the created frame image and animation setting information, and stored in the hard disk 301 in association with the address information (S307).
). The subsequent operation of the server 300 and the operation of the mobile phone 400 are the same as those in the first embodiment.

なお、サーバ300は第1の実施の形態でのCASE2のように、合成画像を作成せず
、画像BPと、それ以外の画像とを別個の画像としてもよい。
Note that the server 300 may not create a composite image and separate the image BP and other images as in the case 2 in the first embodiment.

以上、上述の実施の形態(第1及び第2の実施の形態)では、待ち受け動画を作成した
が、待ち受け画像として動画ではなく静止画を作成してもよい。この場合であっても、静
止画レイヤに展開される画像の画素数は画像編集処理時の画像の画素数よりも小さいため
、メモリ105bの負荷は低減される。静止画を作成する場合、サーバ300は写真撮影
遊戯機1から送信される静止画を保存し、携帯電話機400に送信する。
As described above, in the above-described embodiments (first and second embodiments), a standby moving image is created, but a still image may be created as a standby image instead of a moving image. Even in this case, since the number of pixels of the image developed on the still image layer is smaller than the number of pixels of the image at the time of the image editing process, the load on the memory 105b is reduced. When creating a still image, the server 300 stores the still image transmitted from the photography game machine 1 and transmits it to the mobile phone 400.

また、第2の実施の形態では、スタンプ画像に対してのみ配置情報を作成してサーバ3
00に送信したが、スタンプ画像以外の画像であって、画像の識別IDと、配置位置と、
サイズとの少なくとも1つで特定可能な画像については、配置情報のみをサーバに送信し
てもよい。たとえば、フレーム画像、背景画像は、ハードディスク301にフレーム画像
及び背景画像を識別IDと対応づけて保存しておけば、これらの画像の配置情報として識
別IDをサーバ300に送信することによりサーバ300で描画可能である。そのため、
フレーム画像及び背景画像に関しては、これらの画像に代えて、これらの画像の識別ID
のみをサーバ300に送信してもよい。
In the second embodiment, the arrangement information is created only for the stamp image and the server 3
Sent to 00, but it is an image other than the stamp image, the image identification ID, the arrangement position,
For images that can be specified by at least one of the sizes, only the arrangement information may be transmitted to the server. For example, if the frame image and the background image are stored in the hard disk 301 in association with the identification ID, the server 300 transmits the identification ID to the server 300 as arrangement information of these images. It can be drawn. for that reason,
For frame images and background images, instead of these images, identification IDs of these images
May be transmitted to the server 300.

また、印刷中に待ち受け画像編集処理を実行するとしたが、印刷中以外のタイミングで
実行してもよい。
Although the standby image editing process is executed during printing, it may be executed at a timing other than during printing.

以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するため
の例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣
旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。
While the embodiments of the present invention have been described above, the above-described embodiments are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and can be implemented by appropriately modifying the above-described embodiment without departing from the spirit thereof.

1 写真撮影遊戯機
40 編集ディスプレイ
80 静止画レイヤ
81〜84 動画レイヤ
101b 画像編集用コンピュータ装置
104b,301 ハードディスク
105b メモリ
300 サーバ
DESCRIPTION OF SYMBOLS 1 Photographing game machine 40 Editing display 80 Still picture layer 81-84 Movie layer 101b Computer apparatus 104b for image editing, 301 Hard disk 105b Memory 300 Server

Claims (4)

カメラを備える写真撮影遊戯機であって、
被写体として複数の利用者を撮影して複数の写真画像を作成するよう前記カメラを制御するカメラ制御手段と、
利用者ごとに写真画像の編集を受け付けるための複数の編集画面を表示するディスプレイと、
前記複数の編集画面のうちの一の編集画面において、前記複数の写真画像のうちの一の写真画像を表示し、前記一の写真画像に対する印刷用の編集を受け付けて第1の編集画像を作成する第1の編集手段と、
前記一の編集画面において、前記一の写真画像を表示し、前記一の写真画像に対する送信用の編集を受け付けて第2の編集画像を作成する第2の編集手段と、を備えることにより、前記利用者ごとに、前記複数の写真画像のうちの一の写真画像から印刷用の前記第1の編集画像と、送信用の前記第2の編集画像の両方を作成し、
前記第1の編集画像を印刷する印刷手段と、
前記第2の編集画像をサーバに送信する送信手段と、
を備えることを特徴とする写真撮影遊戯機。
A photography game equipped with a camera,
Camera control means for controlling the camera to shoot a plurality of users as subjects and create a plurality of photographic images;
A display that displays multiple editing screens for accepting photo image editing for each user,
In one of the editing screen of the plurality of edit screen, it shows an photographic image of the plurality of photographic images Table, first edited image Installing receives the editing for printing on the one image A first editing means for creating
In the one of the edit screen, the show one of the photographic image table, and a second editing means for creating a second edit image Installing receives the editing for transmission to the one of a photographic image, by providing the , For each user, create both the first edited image for printing and the second edited image for transmission from one of the plurality of photographic images,
Printing means for printing the first edited image;
Transmitting means for transmitting the second edited image to a server;
A photo game machine characterized by comprising:
請求項1に記載の写真撮影遊戯機であって、
前記第2の編集手段は、前記印刷手段が前記第1の編集画像を印刷中に、前記一の写真画像に対する送信用の編集を受け付けることを特徴とする写真撮影遊戯機。
A photography game machine according to claim 1,
The photography game machine according to claim 2, wherein the second editing means accepts editing for transmission on the one photographic image while the printing means is printing the first edited image.
カメラと、ディスプレイとを備えた写真撮影遊戯機の制御方法であって、
被写体として複数の利用者を撮影して複数の写真画像を作成するよう前記カメラを制御するカメラ制御ステップと、
前記ディスプレイに、利用者ごとに写真画像の編集を受け付けるための複数の編集画面を表示する表示ステップと、
前記複数の編集画面のうちの一の編集画面において、前記複数の写真画像のうちの一の写真画像を表示し、前記一の写真画像に対する印刷用の編集を受け付けて第1の編集画像を作成する第1の編集ステップと、
前記一の編集画面において、前記一の写真画像を表示し、前記一の写真画像に対する送信用の編集を受け付けて第2の編集画像を作成する第2の編集ステップと、を備えることにより、前記利用者ごとに、前記複数の写真画像のうちの一の写真画像から印刷用の前記第1の編集画像と、送信用の前記第2の編集画像の両方を作成し、
前記第1の編集画像を印刷する印刷ステップと、
前記第2の編集画像をサーバに送信する送信ステップと、
を備えることを特徴とする写真撮影遊戯機の制御方法。
A method for controlling a photography amusement machine having a camera and a display ,
A camera control step for controlling the camera to shoot a plurality of users as subjects and create a plurality of photographic images;
A display step for displaying a plurality of editing screens for accepting editing of photographic images for each user on the display;
In one of the editing screen of the plurality of edit screen, it shows an photographic image of the plurality of photographic images Table, first edited image Installing receives the editing for printing on the one image A first editing step to create
In the one of the edit screen, the show one of the photographic image table, and a second editing step of creating a second edit image Installing receives the editing for transmission to the one of a photographic image, by providing the , For each user, create both the first edited image for printing and the second edited image for transmission from one of the plurality of photographic images,
A printing step of printing the first edited image;
A transmission step of transmitting the second edited image to a server;
A method for controlling a photography amusement machine, comprising:
カメラと、ディスプレイとを備えた写真撮影遊戯機に実装される制御プログラムであって、
被写体として複数の利用者を撮影して複数の写真画像を作成するよう前記カメラを制御するカメラ制御ステップと、
前記ディスプレイに、利用者ごとに写真画像の編集を受け付けるための複数の編集画面を表示する表示ステップと、
前記複数の編集画面のうちの一の編集画面において、前記複数の写真画像のうちの一の写真画像を表示し、前記一の写真画像に対する印刷用の編集を受け付けて第1の編集画像を作成する第1の編集ステップと、
前記一の編集画面において、前記一の写真画像を表示し、前記一の写真画像に対する送信用の編集を受け付けて第2の編集画像を作成する第2の編集ステップと、をコンピュータに実行させて、前記利用者ごとに、前記複数の写真画像のうちの一の写真画像から印刷用の前記第1の編集画像と、送信用の前記第2の編集画像の両方を作成し、
前記第1の編集画像を印刷する印刷ステップと、
前記第2の編集画像をサーバに送信する送信ステップと、
前記コンピュータに実行させるための制御プログラム。
A control program implemented in a photography amusement machine having a camera and a display ,
A camera control step for controlling the camera to shoot a plurality of users as subjects and create a plurality of photographic images;
A display step for displaying a plurality of editing screens for accepting editing of photographic images for each user on the display;
In one of the editing screen of the plurality of edit screen, it shows an photographic image of the plurality of photographic images Table, first edited image Installing receives the editing for printing on the one image A first editing step to create
Executed in the one of the edit screen, the show one of the photographic image table, and a second editing step of creating a second edit image Installing receives the editing for transmission, to a computer for said first image Then, for each user, create both the first edited image for printing and the second edited image for transmission from one of the plurality of photographic images,
A printing step of printing the first edited image;
A transmission step of transmitting the second edited image to a server;
A control program for causing the computer to perform the.
JP2014098537A 2014-05-12 2014-05-12 Photo shooting game machine and photo shooting game system Active JP5857278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014098537A JP5857278B2 (en) 2014-05-12 2014-05-12 Photo shooting game machine and photo shooting game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014098537A JP5857278B2 (en) 2014-05-12 2014-05-12 Photo shooting game machine and photo shooting game system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010009006A Division JP5802977B2 (en) 2010-01-19 2010-01-19 Photo shooting game machine and photo shooting game system

Publications (2)

Publication Number Publication Date
JP2014186337A JP2014186337A (en) 2014-10-02
JP5857278B2 true JP5857278B2 (en) 2016-02-10

Family

ID=51833912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014098537A Active JP5857278B2 (en) 2014-05-12 2014-05-12 Photo shooting game machine and photo shooting game system

Country Status (1)

Country Link
JP (1) JP5857278B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112822385A (en) * 2021-03-15 2021-05-18 东莞市尚乐照明科技有限公司 Camera with AI interaction and network sharing system thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3057877U (en) * 1998-09-21 1999-06-08 船井電機株式会社 Playing device for creating composite images
JP2001292391A (en) * 2000-04-05 2001-10-19 Wendeii:Kk Player photographic system, player photographing device and server device
JP2002287238A (en) * 2001-01-19 2002-10-03 Make Softwear:Kk Photograph vending machine, photograph vending method, printing medium, photographing program and recording medium
JP4301966B2 (en) * 2004-02-13 2009-07-22 株式会社メイクソフトウェア Photo vending machine, photo vending machine control method, and photo vending machine control program

Also Published As

Publication number Publication date
JP2014186337A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP4464382B2 (en) Photo shooting game machine and photo shooting game system
JP4316001B1 (en) Photography game machine, photography game method and photography game program
JP2014050027A (en) Photographic sticker creating apparatus, control method for photographic sticker creating apparatus, and control program for photographic sticker creating apparatus
JP5802977B2 (en) Photo shooting game machine and photo shooting game system
JP5636544B2 (en) Photo shooting game system and photo shooting game method
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP2007325131A (en) Image edit apparatus, image edit method, image edit program and recording medium for recording the same, and photographing and printing device
JP5750961B2 (en) Game shooting device, game shooting method, and program
JP2012169987A (en) Automatic photograph making device
JP5857278B2 (en) Photo shooting game machine and photo shooting game system
JP5151093B2 (en) Photo sticker creation apparatus and method, and program
JP5802965B2 (en) Photo game machine
JP5750830B2 (en) Shooting device for play
JP2010062791A (en) Photograph seal creating apparatus, method, and program
JP5895394B2 (en) Game shooting device, game shooting method, and game shooting program
JP6255790B2 (en) Image processing apparatus and display control method
JP5790034B2 (en) Automatic photo creation device
JP5958047B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP2011199769A5 (en)
JP6028163B2 (en) Photo shooting system
JP5790896B2 (en) Game shooting device, game shooting method, and game shooting program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP6734629B2 (en) Photographing amusement machine and control program
JP2014132772A (en) Imaging device for game, processing method and program of imaging device for game
JP5974611B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150624

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150824

R150 Certificate of patent or registration of utility model

Ref document number: 5857278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250