JP2013038517A - Device, method and program for photo-taking play - Google Patents

Device, method and program for photo-taking play Download PDF

Info

Publication number
JP2013038517A
JP2013038517A JP2011171324A JP2011171324A JP2013038517A JP 2013038517 A JP2013038517 A JP 2013038517A JP 2011171324 A JP2011171324 A JP 2011171324A JP 2011171324 A JP2011171324 A JP 2011171324A JP 2013038517 A JP2013038517 A JP 2013038517A
Authority
JP
Japan
Prior art keywords
image
unit
editing
processing
edited
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011171324A
Other languages
Japanese (ja)
Other versions
JP5887752B2 (en
Inventor
Satoshi Tatsumi
聡 辰巳
Mina Shimizu
美奈 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tatsumi Denshi Kogyo KK
Original Assignee
Tatsumi Denshi Kogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tatsumi Denshi Kogyo KK filed Critical Tatsumi Denshi Kogyo KK
Priority to JP2011171324A priority Critical patent/JP5887752B2/en
Publication of JP2013038517A publication Critical patent/JP2013038517A/en
Application granted granted Critical
Publication of JP5887752B2 publication Critical patent/JP5887752B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a device, method and program for photo-taking play, capable of editing a photographic picture according to user taste, even after the picture is imaged.SOLUTION: The photo-taking play device includes: an imaging unit for generating a photographic picture by imaging a subject; an edition unit for generating an edition picture by accepting an edition operation on the photographic picture; and an output unit for printing the edition picture. The edition unit includes: display means for displaying an imaged picture and at least one icon representing an instrument having a predetermined function; input means for accepting processing on the imaged picture displayed on the display means, based on the instrument function represented by the icon; and control means for controlling to perform image processing on the imaged picture to process based on the function provided in the instrument, and to generate the edition picture.

Description

本発明は、写真撮影遊戯装置、写真撮影遊戯方法、及び写真撮影遊戯プログラムに関する。   The present invention relates to a photography game device, a photography game method, and a photography game program.

従来より、利用者を含む被写体をカメラで撮影し、その撮影画像を印刷写真として出力する遊戯用の写真撮影遊戯装置が知られている。このような写真撮影遊戯装置では、利用者の嗜好に応じて、撮影画像を編集できるものが多く提案されている。例えば、背景画像や前景画像を複数の中から選択して撮影画像に組み合わせるたり、或いは、タッチペンを用いて、撮影画像に対して文字や絵を自由に描いたりできるように構成されているものがある(例えば、特許文献1)。   2. Description of the Related Art Conventionally, there has been known a photography photography game device for a game in which a subject including a user is photographed with a camera and the photographed image is output as a printed photograph. As such a photography game device, many devices capable of editing a photographed image according to the user's preference have been proposed. For example, there is a configuration in which a background image or a foreground image can be selected from a plurality of images and combined with a captured image, or a character or a picture can be freely drawn on a captured image using a touch pen. There is (for example, Patent Document 1).

特許第4672923号公報Japanese Patent No. 4672923

しかしながら、上記のような写真撮影遊戯装置では、撮影画像自体を編集するものではなく、撮影画像に対して予め用意された画像を組み合わせたり、文字や絵を付加するような編集しかできなかった。したがって、撮影後であっても、撮影画像自体を編集できる装置、より好ましくは直感的に撮影画像自体を編集できる装置が要望されていた。   However, the above-described photography game device does not edit the photographed image itself, but can only edit the photographed image by combining images prepared in advance or adding characters or pictures. Therefore, there has been a demand for an apparatus that can edit a captured image itself, more preferably an apparatus that can intuitively edit a captured image itself even after shooting.

本発明は、上記問題を解決するためになされたものであり、撮影後の画像であっても、利用者の嗜好に応じて撮影画像を直感的に編集することが可能な写真撮影遊戯装置、写真撮影遊戯方法、及び写真撮影遊戯プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problem, and is a photography game device capable of intuitively editing a photographed image according to a user's preference, even for a photographed image, An object is to provide a photography game method and a photography game program.

本発明に係る写真撮影遊戯装置は、被写体を撮影して撮影画像を生成する撮影部と、前記撮影画像に対する編集操作を受け付けて編集画像を生成する編集部と、前記編集画像を出力する出力部と、を備え、前記編集部は、前記撮影画像、及び所定の機能を有する器具を表す少なくとも一つのアイコンを表示する表示手段と、前記表示手段に表示された前記撮影画像に対し、前記アイコンで表される前記器具の機能に基づく処理を行うことを受け付ける入力手段と、前記器具が有する機能に基づく処理を行うように、前記撮影画像に対して画像処理を行い、前記編集画像を生成する制御手段と、を備えている。   A photography game device according to the present invention includes a photographing unit that photographs a subject and generates a photographed image, an editing unit that receives an editing operation on the photographed image and generates an edited image, and an output unit that outputs the edited image The editing unit includes a display unit that displays the captured image and at least one icon representing an instrument having a predetermined function, and the icon for the captured image displayed on the display unit. An input unit that accepts processing based on the function of the appliance represented, and control for performing image processing on the captured image and generating the edited image so as to perform processing based on the function of the appliance Means.

この構成によれば、撮影された撮影画像に対し、利用者の嗜好に応じて直感的に編集を行うことができる。すなわち、利用者がアイコンで表された器具の機能に基づく処理を行うことを入力すると、その機能に基づく処理を行うように、撮影画像を画像処理することができる。例えば、小顔処理のためのローラーを表すアイコンが表示されている場合、このローラーによる処理を行うことを入力すると、小顔になるように撮影画像の顔が画像処理される。このように、本発明では、撮影後の画像であっても、利用者の嗜好に応じて撮影画像を編集することができる。この際、擬似的に器具を用い、この器具の有する機能に基づく処理を行うように画像処理を行うため、画像処理の過程や結果を直感的にイメージしやすく、また、利用者の嗜好を表しやすいため、満足度を向上することができる。なお、本発明における出力部は、編集画像を印刷するほか、編集画像を電子データとして送信したり、編集画像を他の端末で無線又は有線を介して受け取ることができるようにするものである。   According to this configuration, it is possible to intuitively edit a photographed captured image according to the user's preference. That is, when the user inputs to perform processing based on the function of the appliance represented by the icon, the captured image can be image-processed so as to perform processing based on the function. For example, in the case where an icon representing a roller for small face processing is displayed, when inputting that processing by this roller is input, the face of the photographed image is processed so as to become a small face. Thus, in the present invention, even a captured image can be edited according to the user's preference. At this time, since the image processing is performed so as to perform processing based on the function of the device using a pseudo device, it is easy to intuitively image the process and result of the image processing, and represents the user's preference. Since it is easy, satisfaction can be improved. The output unit according to the present invention prints the edited image, transmits the edited image as electronic data, and allows the other terminal to receive the edited image via wireless or wired connection.

本発明に係る写真撮影遊戯方法は、被写体を撮影して撮影画像を生成するステップと、前記撮影画像に対する編集操作を受け付けて編集画像を生成するステップと、前記編集画像を出力するステップと、を備え、前記編集画像を生成するステップは、前記撮影画像、及び所定の機能を有する器具を表す少なくとも一つのアイコンを表示するステップと、表示された前記撮影画像に対し、前記アイコンで表される前記器具の機能に基づく処理を行うことを受け付けるステップと、前記器具が有する機能に基づく処理を行うように、前記撮影画像に対して画像処理を行い、前記編集画像を生成するステップと、を備えている。   The photography game method according to the present invention includes a step of photographing a subject to generate a photographed image, a step of receiving an editing operation on the photographed image to generate an edited image, and a step of outputting the edited image. And the step of generating the edited image includes displaying the photographed image and at least one icon representing an instrument having a predetermined function, and the icon represented by the icon for the displayed photographed image. A step of accepting processing based on the function of the instrument, and a step of performing image processing on the captured image to generate the edited image so as to perform processing based on the function of the instrument. Yes.

本発明に係る写真撮影遊戯プログラムは、被写体を撮影して撮影画像を生成する撮影部と、前記撮影画像に対する編集操作を受け付けて編集画像を生成する編集部と、前記編集画像を出力する出力部と、を備える写真撮影遊戯装置のコンピュータに、前記撮影画像、及び所定の機能を有する器具を表す少なくとも一つのアイコンを表示するステップと、表示された前記撮影画像に対し、前記アイコンで表される前記器具の機能に基づく処理を行うことを受け付けるステップと、前記器具が有する機能に基づく処理を行うように、前記撮影画像に対して画像処理を行い、前記編集画像を生成するステップと、を実行させる。   A photography game program according to the present invention includes a photographing unit that photographs a subject to generate a photographed image, an editing unit that receives an editing operation on the photographed image and generates an edited image, and an output unit that outputs the edited image And a step of displaying at least one icon representing the photographed image and an instrument having a predetermined function on a computer of a photography game device comprising: the displayed photographed image represented by the icon Performing a step of accepting processing based on the function of the instrument, and a step of performing image processing on the captured image and generating the edited image so as to perform a process based on the function of the instrument. Let

本発明によれば、撮影後の画像であっても、利用者の嗜好に応じて撮影画像を直感的に編集することができる。   According to the present invention, even a captured image can be edited intuitively according to the user's preference.

本発明の一実施形態に係る写真撮影遊戯装置である遊戯用写真作成装置の外観を示す図である。It is a figure which shows the external appearance of the photograph production apparatus for games which is a photography game device which concerns on one Embodiment of this invention. 上記実施形態における撮影部の正面図である。It is a front view of the imaging part in the said embodiment. 上記実施形態における編集部の正面図である。It is a front view of the edit part in the said embodiment. 上記実施形態における出力部の正面図である。It is a front view of the output part in the said embodiment. 上記実施形態において、撮影操作用タッチパネルの画面構成を示す模式図である。In the said embodiment, it is a schematic diagram which shows the screen structure of the touchscreen for imaging operations. 上記実施形態において、編集操作用タッチパネルの画面構成を示す模式図である。In the said embodiment, it is a schematic diagram which shows the screen structure of the touch panel for edit operations. 上記実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。It is a block diagram which shows the structure which looked at the principal part of the photo production apparatus for play concerning the said embodiment from the functional surface. 上記実施形態における撮影処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the imaging | photography process in the said embodiment. 上記実施形態における編集処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the edit process in the said embodiment. 上記実施形態における美容編集処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the beauty edit process in the said embodiment. 上記実施形態における美容編集処理の過程を示す図である。It is a figure which shows the process of the beauty edit process in the said embodiment. 上記実施形態における美容編集処理の過程を示す図である。It is a figure which shows the process of the beauty edit process in the said embodiment. 上記実施形態における美容編集処理の過程を示す図である。It is a figure which shows the process of the beauty edit process in the said embodiment.

以下、本発明に係る写真撮影遊戯装置の一実施形態について、図面を参照しつつ説明する。図1は、本実施形態に係る写真撮影遊戯装置である遊戯用写真作成装置の外観を示す図である。より詳細には、図1(a)は、この遊戯用写真作成装置を横から見た外観側面図であり、図1(b)は、上から見た外観平面図である。以下では、まず、この遊戯用写真作成装置の全体構成について説明する。   Hereinafter, an embodiment of a photography game apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an appearance of a game photo creation device which is a photo game device according to the present embodiment. More specifically, FIG. 1 (a) is an external side view of the play photo creation apparatus as viewed from the side, and FIG. 1 (b) is an external plan view as viewed from above. In the following, first, the overall configuration of this play photo creating apparatus will be described.

<1 全体構成>
図1に示すように、この遊戯用写真作成装置は、利用者が入る撮影室2を備えており、この撮影室2には、利用者を撮影して撮影画像を取得する撮影部3が取り付けられている。そして、撮影室2の外部には、撮影部3に隣接して編集部4が設けられている。この編集部4は、撮影画像に対する利用者による落書きなどの編集操作を受け付け、撮影画像を編集した編集画像を生成するものである。そして、編集部4には、編集画像を出力する出力部5が隣接している。
<1 Overall configuration>
As shown in FIG. 1, this play photo creating apparatus includes a shooting room 2 for a user to enter, and a shooting unit 3 for shooting the user and acquiring a shot image is attached to the shooting room 2. It has been. An editing unit 4 is provided outside the shooting room 2 adjacent to the shooting unit 3. The editing unit 4 accepts an editing operation such as graffiti by a user on a captured image, and generates an edited image obtained by editing the captured image. The editing unit 4 is adjacent to an output unit 5 that outputs an edited image.

次に、上記各部位について、図2〜図4も参照しつつ、詳細に説明する。図2は、撮影部3の正面図、図3は編集部4の正面図、図4は出力部5の正面図である。   Next, each part will be described in detail with reference to FIGS. FIG. 2 is a front view of the photographing unit 3, FIG. 3 is a front view of the editing unit 4, and FIG. 4 is a front view of the output unit 5.

図1に示すように、撮影室2は、略直方体形状であって、撮影部3は、内部に入る利用者から見て前の面である撮影室2の前面に沿って配置されている。なお、撮影室2の左右両側面の一部には、それぞれ利用者が出入りするための開口部と、当該開口部の一部または全部を覆う遮光カーテンとが設けられている。また、撮影室2の内部に入る利用者から見て後ろの面である背面にはクロマキー合成処理のための単一の色(ここでは青色または緑色)が付されている。なお、これらの色は、例えば、撮影部3の撮影範囲に含まれる床面等にも付されていてもよい。   As shown in FIG. 1, the shooting room 2 has a substantially rectangular parallelepiped shape, and the shooting unit 3 is disposed along the front surface of the shooting room 2, which is the front surface when viewed from the user entering the inside. Note that an opening for a user to enter and exit, and a light-shielding curtain that covers a part or all of the opening are provided on a part of each of the left and right side surfaces of the photographing room 2. In addition, a single color (in this case, blue or green) for chroma key composition processing is attached to the rear surface, which is the rear surface as viewed from the user who enters the photographing room 2. In addition, these colors may be attached | subjected also to the floor surface etc. which are contained in the imaging | photography range of the imaging | photography part 3, for example.

図2に示すように、撮影部3は、利用者を撮影する撮像手段としてのカメラ10と、このカメラ10の上下左右の位置に配置され閃光を発する4つのストロボ11,12,13L,13Rとを備えている。また、下方のストロボの下側には、さらにもう一つのストロボ14が設けられている。そして、カメラ10の下方には、利用者からの操作の受け付けや撮影画像の表示等を行う撮影操作用タッチパネル20が設けられている。また、最下部のストロボ14の右側には、コイン投入口26が設けられている。   As shown in FIG. 2, the photographing unit 3 includes a camera 10 as an imaging unit for photographing a user, and four strobes 11, 12, 13 </ b> L, and 13 </ b> R that are arranged at upper, lower, left, and right positions of the camera 10 and emit flash light. It has. Further, another strobe 14 is provided below the lower strobe. A shooting operation touch panel 20 is provided below the camera 10 to accept operations from the user and display captured images. A coin insertion slot 26 is provided on the right side of the lowermost strobe 14.

カメラ10は、典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラであって、利用者を撮影し、その撮影画像を表す画像信号を出力する。ストロボ11〜14は、撮影のための充分な光を得るために利用者に向かって閃光を発する。撮影操作用タッチパネル20は、撮影の際に利用者による各種操作を受け付けるための操作画面を提供するとともに、上記画像信号に基づく画像をリアルタイムで表示するように構成されている。   The camera 10 is typically a digital camera that generates a digital image signal using a CCD (Charge Coupled Device), captures a user, and outputs an image signal representing the captured image. The flashes 11 to 14 emit a flash toward the user in order to obtain sufficient light for photographing. The shooting operation touch panel 20 is configured to provide an operation screen for accepting various operations by the user during shooting, and to display an image based on the image signal in real time.

ここで、撮影操作用タッチパネル20について、図5を参照しつつ、さらに詳細に説明する。図5は、撮影操作用タッチパネル20の表示構成を示す模式図である。同図に示すように、撮影時点において、撮影操作用タッチパネル20には、リアルタイムで撮影画像を表示するためのリアルタイムプレビュー領域201と、ポーズの見本を表示するためのポーズ見本表示領域202と、撮影によって得られる編集対象画像を表示するための編集対象画像表示領域203とが表示されている。なお、リアルタイムプレビュー領域201には、利用者に選択された後述の背景画像が撮影画像に対してクロマキー合成表示される。   Here, the photographing operation touch panel 20 will be described in more detail with reference to FIG. FIG. 5 is a schematic diagram showing a display configuration of the touch panel 20 for shooting operation. As shown in the figure, at the time of shooting, the shooting operation touch panel 20 has a real-time preview area 201 for displaying a shot image in real time, a pose sample display area 202 for displaying a pose sample, and a shooting. The editing target image display area 203 for displaying the editing target image obtained by the above is displayed. In the real-time preview area 201, a background image, which will be described later, selected by the user is displayed with a chroma key combined with the captured image.

また、撮影部3は、コンピュータを中心に構成され各部の制御等を行う制御装置、I/O制御装置、および編集部4と通信を行うためのネットワークアダプタ等を内蔵している。   The photographing unit 3 is built around a computer and includes a control device that controls each unit, an I / O control device, and a network adapter that communicates with the editing unit 4.

次に、編集部4について説明する。編集部4は、撮影部3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置、および撮影部3等と通信を行うためのネットワークアダプタ等を内蔵している。また、編集部4は、図1(b)に示すように、2組の利用者がプレイ可能なように2つのユニット4a、4bに分かれている。そのうちの一方のユニット4aには、落書き領域や落書きのためのメニュー、ツール等を表示する領域を含みGUI(Graphical User Interface)表示手段として機能する編集操作用タッチパネル400と、この編集操作用タッチパネル400に対する操作に使用されるポインティングデバイスとしてのタッチペン49L、49Rとが設けられている。なお、他方のユニット4bについても同様の構成となっている。ここで、図1(a)において手前に見えるユニット4aを「落書きブースA」と呼び、その反対側(図では裏側)のユニット4bを「落書きブースB」と呼ぶ。   Next, the editing unit 4 will be described. The editing unit 4 is configured around a computer similar to the photographing unit 3 and includes a control device that controls each unit, a network adapter for communicating with the photographing unit 3 and the like. Further, as shown in FIG. 1B, the editing unit 4 is divided into two units 4a and 4b so that two sets of users can play. One of the units 4a includes an editing operation touch panel 400 including a graffiti area, an area for displaying a menu for graffiti, a tool, and the like, and functioning as a GUI (Graphical User Interface) display means, and the editing operation touch panel 400 Touch pens 49L and 49R are provided as pointing devices used for the operation of. The other unit 4b has the same configuration. Here, the unit 4a seen in the foreground in FIG. 1A is referred to as “graffiti booth A”, and the unit 4b on the opposite side (the back side in the figure) is referred to as “graffiti booth B”.

本実施形態における編集操作用タッチパネル400は、各ユニット4a、4bにおいてそれぞれ2人の利用者が同時に落書きを行えるような表示構成となっている。なお、本説明においては、左側の利用者が使用する構成要素には「L」を含む参照符号を付し、右側の利用者が使用する構成要素には「R」を含む参照符号を付している。   The editing operation touch panel 400 according to the present embodiment has a display configuration in which two users can perform graffiti at the same time in each of the units 4a and 4b. In this description, components used by the user on the left side are given reference signs including “L”, and components used by the user on the right side are assigned reference signs including “R”. ing.

また、本実施形態における編集操作用タッチパネル400は、複数のタッチペン49L、49Rによる操作位置を同時に検出可能に構成されており、かつ、検出される各操作位置が、タッチペン49L、49Rのうちのいずれの操作に対応するのかも検出可能となっている。例えば、編集操作用タッチパネル400として静電容量方式のタッチパネルを使用した場合には、このような複数の操作位置の同時検出と操作されたタッチペンの識別とが可能である。   In addition, the editing operation touch panel 400 according to the present embodiment is configured to be able to simultaneously detect the operation positions of the plurality of touch pens 49L and 49R, and each of the detected operation positions is any of the touch pens 49L and 49R. It is also possible to detect whether it corresponds to the above operation. For example, when a capacitive touch panel is used as the editing operation touch panel 400, simultaneous detection of such a plurality of operation positions and identification of the operated touch pen are possible.

続いて、編集操作用タッチパネル400について、図6を参照しつつ詳細に説明する。図6は、編集操作用タッチパネル400の画面構成を示す模式図である。同図に示すように、この編集操作用タッチパネル400は、左右一対のスペースに区分けされ、2人の利用者がそれぞれ使用できるようになっている。各スペースの上部中央には、撮影画像に基づいて生成された複数の編集対象画像から選択された画像を表示し(仮想的な)落書きを行える矩形状の落書き領域41L、41Rが設けられている。落書き領域41L、41Rの下方には、利用者が落書きを行うためのツール、すなわち(選択された)編集対象画像に対する編集指示のためのツールの集合であって使用可能に表示したものとしてのパレット42L、42Rが設けられている。そして、その側方には、それらパレット42L、42Rに含まれるツールの種類を切り替えるためのモード選択ボタン群44L、44Rが設けられている。これらモード選択ボタン群44L、44Rにより、パレットモードを例えば「ペン」、「スタンプ」、「フレーム」、および「背景」のいずれかに切り替えることができる。また、パレット42L、42Rの上部には、タブ43L、43Rが設けられており、タブを切り替えることによって多種類のアイテムの表示、選択が可能となっている。さらに、落書き領域41L、41Rの側方、つまり編集操作用タッチパネル400の両端部には、パレット42L、42Rに含まれるツール以外で落書きに関する操作を行うためのボタン群45L、45Rがそれぞれ設けられている。これらのボタン群45L、45Rには、後述するように、美容処理を行うため器具を表す複数のアイコンが含まれている。例えば、小顔処理用のローラーや、まつげをカールさせるためのビューラーなどを表したアイコンが含まるが、これ以外の美容器具を表すアイコンを設けることもできる。その他、これらのボタン群45L、45Rには、例えば「らくがき終了」、「らくがき全消去」、「一つ戻る」、「元の顔に戻る」、「消しゴム」、「背景消しゴム」、「太いペン」、「中ぐらいのペン」、および「細いペン」というような機能を提供するボタンが含まれている。   Next, the editing operation touch panel 400 will be described in detail with reference to FIG. FIG. 6 is a schematic diagram showing a screen configuration of the editing operation touch panel 400. As shown in the figure, the editing operation touch panel 400 is divided into a pair of left and right spaces, and can be used by two users. In the upper center of each space, rectangular graffiti areas 41L and 41R that display images selected from a plurality of editing target images generated based on the captured images and perform (virtual) graffiti are provided. . Below the graffiti areas 41L and 41R, a palette as a collection of tools for the user to perform graffiti, that is, a set of tools for editing instructions for the (selected) editing target image. 42L and 42R are provided. On the side thereof, mode selection button groups 44L and 44R for switching the types of tools included in the palettes 42L and 42R are provided. With these mode selection buttons 44L and 44R, the palette mode can be switched to, for example, “pen”, “stamp”, “frame”, and “background”. In addition, tabs 43L and 43R are provided on the tops of the pallets 42L and 42R, and various types of items can be displayed and selected by switching the tabs. Further, button groups 45L and 45R for performing operations related to graffiti other than the tools included in the palettes 42L and 42R are provided on the sides of the graffiti areas 41L and 41R, that is, at both ends of the editing operation touch panel 400, respectively. Yes. As will be described later, these button groups 45L and 45R include a plurality of icons representing instruments for performing beauty processing. For example, an icon representing a roller for processing a small face, a viewer for curling eyelashes, and the like are included, but an icon representing a beauty tool other than this can also be provided. In addition, these button groups 45L and 45R include, for example, “End of Rakugaki”, “Erase of Rakugaki”, “Return to One”, “Return to original face”, “Eraser”, “Background eraser”, “Thick pen” ”,“ Medium pen ”, and“ Thin pen ”buttons are included.

また、編集操作用タッチパネル400には、左右の利用者が共通に使用する構成要素が設けられている。例えば、両落書き領域41L、41Rの間の上部には、落書き時間の残り時間を表示するためのタイマー46が設けられている。そして、このタイマーの下方には、編集用の複数の編集対象画像を編集候補画像として小さく一覧表示した画像群である候補画像サムネイル47が設けられている。さらに、候補画像サムネイル47の下方には、タブやアイテム等の選択が行われたときに当該選択されたものについての使用説明等を表示するためのガイド画面表示領域48が設けられている。   Further, the editing operation touch panel 400 is provided with components commonly used by the left and right users. For example, a timer 46 for displaying the remaining graffiti time is provided above the graffiti areas 41L and 41R. Below this timer, a candidate image thumbnail 47, which is an image group in which a plurality of editing target images for editing are displayed in a small list as editing candidate images, is provided. Further, below the candidate image thumbnail 47, a guide screen display area 48 is provided for displaying a usage description or the like of the selected item when a tab or item is selected.

続いて、出力部5について説明する。図4に示すように、出力部5は、典型的には前面下方に、編集部4で編集操作が行われた編集画像を印刷した写真シールや写真カード等を取り出す取出口33を備えている。また、出力部5は、例えば携帯電話端末に内蔵される赤外線ポートにより、例えばデコメール(登録商標)画像等の素材画像や撮影画像に落書きをした編集画像などを利用者の携帯電話端末に転送する際に利用者によって操作される出力操作用タッチパネル30を備える場合がある。さらに、出力操作用タッチパネル30の下方に配置され上記素材画像等を赤外線信号として携帯電話端末に向けて直接送信するための赤外線ポート(非接触通信ポート)31が設けられ、上記通信の際に必要な操作方法や効果音などを音声によって利用者に知らせるスピーカ32も設けられている場合がある。   Next, the output unit 5 will be described. As shown in FIG. 4, the output unit 5 typically includes an outlet 33 that takes out a photo sticker, a photo card, or the like on which an edited image that has been edited by the editing unit 4 has been printed. . Also, the output unit 5 transfers, for example, a material image such as a Deco-mail (registered trademark) image or an edited image obtained by graffitiing a photographed image to the user's mobile phone terminal by using an infrared port built in the mobile phone terminal In some cases, a touch panel 30 for output operation that is operated by a user when performing the operation is provided. Further, an infrared port (non-contact communication port) 31 is provided below the output operation touch panel 30 for directly transmitting the material image or the like as an infrared signal to the mobile phone terminal, and is necessary for the communication. In some cases, a speaker 32 is also provided to notify the user by voice of various operation methods and sound effects.

出力操作用タッチパネル30は、利用者が編集画像を印刷された写真シール等だけでなく携帯電話端末でも見たい場合に、上記素材画像等を上記非接触通信機能を備えた携帯電話端末に送信するのに必要な各種操作を受け付けるための操作画面を提供するように構成されていている。なお、この操作は主に編集画像の写真シール等が印刷されるまでの時間を利用して行われるので、利用者は写真シール等が印刷されるまでの時間を持て余すことなく有効に利用することができる。また、出力部5に出力操作用タッチパネル30を設けずに、この操作を編集部4の編集操作用タッチパネル400で行うようにすることもできる。   The output operation touch panel 30 transmits the material image or the like to the mobile phone terminal having the non-contact communication function when the user wants to view the edited image not only on the photo sticker on which the edited image is printed but also on the mobile phone terminal. It is configured to provide an operation screen for accepting various operations necessary for this. This operation is mainly performed using the time until the photo sticker of the edited image is printed. Therefore, the user should use the time effectively until the photo sticker is printed. Can do. Further, this operation can be performed on the editing operation touch panel 400 of the editing unit 4 without providing the output operation touch panel 30 in the output unit 5.

このような出力部5も、撮影部3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置および編集部4等と通信を行うためのネットワークアダプタ等を内蔵しているほか、編集画像を写真シール等として印刷するネットワークプリンタ35を備えている。   Such an output unit 5 is also configured around a computer similar to the photographing unit 3 and includes a control device for controlling each unit and the like, a network adapter for communicating with the editing unit 4 and the like, as well as editing. A network printer 35 for printing an image as a photo sticker or the like is provided.

以上のような構成において、利用者は、撮影室2において撮影を行った後、編集部4の落書きブースAまたは落書きブースBの編集操作用タッチパネル400を使用することにより、撮影画像に基づいて生成された編集対象画像に対して落書きや編集作業を行う。そして、利用者は、落書きなどによって生成された編集画像をネットワークプリンタによって印刷したり、赤外線通信機能を有する携帯電話端末に画像を送信し、携帯電話端末で受信した画像を端末画面に表示させたりする。   In the configuration as described above, the user uses the graffiti booth A of the editing unit 4 or the touch panel 400 for the editing operation of the graffiti booth B after shooting in the shooting room 2 to generate based on the shot image. Graffiti and editing work is performed on the edited image. Then, the user prints an edited image generated by graffiti or the like by a network printer, transmits the image to a mobile phone terminal having an infrared communication function, and displays the image received by the mobile phone terminal on the terminal screen. To do.

<2 機能的構成>
続いて、本実施形態に係る遊戯用写真作成装置の機能的構成について、図7を参照しつつ説明する。図7は、この遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。同図に示すように、この遊戯用写真作成装置は、機能的には、3つの処理部、つまり撮影処理部7、編集処理部8、及び出力処理部9で構成されている。撮影処理部7は、主として利用者を撮影する処理(撮影処理)を行うものである。編集処理部8は、主として編集対象画像に対する利用者の編集操作に応じて当該編集対象画像の編集処理を行うものである。そして、出力処理部9は、編集対象画像に編集処理を施した編集画像を写真シール等として出力したり、作成された素材画像等を非接触通信を利用して携帯電話端末に出力したりする処理(出力処理)を行うものである。これらの処理部6,7,8は、後述するように、ネットワークアダプタである第1、第2および第3の通信部75,83,95をそれぞれ有しており、これらの通信部75,83,95が、LAN(Local Area Network)であるネットワーク6を介してそれぞれ相互に通信可能となっている。以下、各処理部について、詳細に説明する。
<2 Functional configuration>
Next, the functional configuration of the game photo creation device according to the present embodiment will be described with reference to FIG. FIG. 7 is a block diagram showing a configuration of the main part of the play photo creating apparatus as seen from the functional aspect. As shown in the figure, this play photo creating apparatus is functionally composed of three processing units, that is, a photographing processing unit 7, an editing processing unit 8, and an output processing unit 9. The photographing processing unit 7 mainly performs processing for photographing a user (photographing processing). The editing processing unit 8 mainly performs editing processing on the editing target image in accordance with a user's editing operation on the editing target image. Then, the output processing unit 9 outputs the edited image obtained by performing the editing process on the image to be edited as a photo sticker or the like, or outputs the created material image or the like to the mobile phone terminal using non-contact communication. Processing (output processing) is performed. As will be described later, these processing units 6, 7, and 8 have first, second, and third communication units 75, 83, and 95 that are network adapters, respectively. 95 can communicate with each other via a network 6 which is a LAN (Local Area Network). Hereinafter, each processing unit will be described in detail.

まず、撮影処理部7について説明する。撮影処理部7は、第1の制御部70を備え、この制御部70に、撮像部71、第1の表示・操作部72、I/O制御部73、及び第1の通信部75が電気的に接続されている。また、I/O制御部73には、照明部74が電気的に接続されている。撮像部71は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(撮影画像)を表す画像信号を出力する。この画像信号は第1の制御部70に入力されて、その内部のメモリに撮影画像データとして一時的に記憶される。また、この撮影画像データは撮影画像信号として第1の制御部70から第1の表示・操作部72に供給され、当該撮影画像信号に基づく撮影画像がリアルタイムに表示される。なお、実際には、撮影画像として保存される撮影画像データは高解像度の静止画データであり、リアルタイム表示を行うための撮影画像データ(「スルー画像データ」とも呼ばれる)は低解像度の動画データであるが、撮影対象は同一であるので、以下では原則としてこれらを特に区別しないで説明する。   First, the imaging processing unit 7 will be described. The imaging processing unit 7 includes a first control unit 70, and an imaging unit 71, a first display / operation unit 72, an I / O control unit 73, and a first communication unit 75 are electrically connected to the control unit 70. Connected. The illumination unit 74 is electrically connected to the I / O control unit 73. The imaging unit 71 corresponds to the camera 10 configured using an imaging element such as a CCD, and captures an image in real time and outputs an image signal representing the image (captured image). This image signal is input to the first control unit 70 and temporarily stored as photographed image data in its internal memory. The captured image data is supplied as a captured image signal from the first control unit 70 to the first display / operation unit 72, and a captured image based on the captured image signal is displayed in real time. Actually, the captured image data stored as the captured image is high-resolution still image data, and the captured image data for real-time display (also referred to as “through image data”) is low-resolution moving image data. However, since the photographing objects are the same, the following description will be made without distinguishing them in principle.

第1の表示・操作部72は、撮影操作用タッチパネル20に相当し、撮影画像に付加されるべきフレーム、背景画像、前景画像などを選択する操作やシャッター操作等を受け付ける。これらの操作を示す信号は、操作信号として第1の制御部70に入力される。ここで、利用者を撮影するための(選択された撮影メニューに対応する)所定の処理が開始されると、第1の表示・操作部72に利用者のための案内が表示され、その後の第1の制御部70からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にストロボ11〜14から閃光が放たれる。そのとき、利用者の撮影画像を表す信号として撮像部71から出力される画像信号が第1の制御部70に入力され、第1の制御部70内のメモリまたは補助記憶装置としてのハードディスク装置等に撮影画像データとして格納される。   The first display / operation unit 72 corresponds to the shooting operation touch panel 20 and receives an operation for selecting a frame, a background image, a foreground image, and the like to be added to the shot image, a shutter operation, and the like. Signals indicating these operations are input to the first control unit 70 as operation signals. Here, when a predetermined process for photographing the user (corresponding to the selected photographing menu) is started, guidance for the user is displayed on the first display / operation unit 72, and thereafter Based on an instruction from the first control unit 70, a flash is emitted from the flashes 11 to 14 in the shooting direction of the camera 10 after a predetermined time of about several seconds. At that time, an image signal output from the imaging unit 71 as a signal representing a photographed image of the user is input to the first control unit 70, a memory in the first control unit 70, a hard disk device as an auxiliary storage device, or the like. Stored as captured image data.

照明部74は、カメラ10の上下左右の位置に配置されたストロボ11,12,13L,13R,14に相当し、第1の制御部70からの指示に基づきI/O制御部73によって点灯/消灯および調光が制御される。I/O制御部73は、撮影部3に内蔵されるI/O制御装置に相当し、第1の制御部70からの指示に基づき、照明部74を制御する。また、後述のコイン検出部(不図示)からの検出信号等の入力信号を第1の制御部70へ転送する。第1の通信部75は、撮影部3に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The illumination unit 74 corresponds to the strobes 11, 12, 13 </ b> L, 13 </ b> R, 14 disposed at the top, bottom, left, and right positions of the camera 10, and is turned on / off by the I / O control unit 73 based on an instruction from the first control unit 70. Turning off and dimming are controlled. The I / O control unit 73 corresponds to an I / O control device built in the photographing unit 3 and controls the illumination unit 74 based on an instruction from the first control unit 70. Further, an input signal such as a detection signal from a coin detection unit (not shown) described later is transferred to the first control unit 70. The first communication unit 75 corresponds to a network adapter built in the photographing unit 3 and functions as an interface for data transmission / reception via the network 6.

第1の制御部70は、撮影部3に内蔵され、CPU、メモリ、フレームバッファ、タイマー、補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号等に基づき各部を制御するために、上述のように各部に指示を出す。また、撮影された画像に基づいて編集対象画像を生成する。生成された編集対象画像はフレームバッファに書き込まれることにより、第1の表示・操作部72に表示される。この編集対象画像は、撮影画像と、所定の背景画像等とを合成した画像である。撮影画像のうち背景に相当する領域にはマスクの作成に使用されるキー色となる背景色が付されている。第1の制御部70は、周知のクロマキー合成処理の手法に基づき、利用者の像のみを含む撮影画像部分を抽出し、この撮影画像部分が背景画像中に嵌め込まれるように合成して編集対象画像を生成する。このように生成された編集対象画像はフレームバッファに書き込まれることにより第1の表示・操作部72に表示される。   The first control unit 70 is a built-in image capturing unit 3 and corresponds to a control unit mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device, and the like. When the CPU executes the program, an instruction is given to each unit as described above in order to control each unit based on the operation signal or the like input as described above. In addition, an editing target image is generated based on the captured image. The generated image to be edited is written in the frame buffer and displayed on the first display / operation unit 72. This editing target image is an image obtained by synthesizing a captured image and a predetermined background image. An area corresponding to the background in the photographed image is assigned a background color which is a key color used for creating a mask. The first control unit 70 extracts a captured image portion including only the user image based on a well-known chroma key composition processing method, and synthesizes the captured image portion so as to be fitted in the background image to be edited. Generate an image. The editing target image generated in this way is displayed on the first display / operation unit 72 by being written in the frame buffer.

上記の構成要素の他、撮影部3におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に撮影部3に設けられており、第1の制御部70は、コイン検出部での検出結果に基づき、利用者に所定時間だけ撮影や背景画像および前景画像の選択や落書き等、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部による検出動作やその検出結果に基づく第1の制御部70による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。   In addition to the above components, a coin detection unit (not shown) for detecting coins inserted into the coin insertion slot 26 in the photographing unit 3 is further provided in the photographing unit 3, and the first control unit 70 is Based on the detection result of the coin detection unit, each unit is controlled so as to allow the user to play with the present photo creation device, such as shooting, selection of the background image and foreground image, and graffiti for a predetermined time. Since the detection operation by the coin detection unit and the control operation by the first control unit 70 based on the detection result are the same as those of the conventional game photo creation device and are well known, detailed description thereof will be omitted.

次に、編集処理部8について説明する。この編集処理部8は、第2の制御部80を備えており、この制御部80に、一対の第2の表示・操作部81,82、及び第2の通信部83が電気的に接続されている。第2の制御部80は、編集部4に内蔵され、CPU、メモリ、フレームバッファ、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、編集処理に関する全体の制御を行う。すなわち、第2の制御部80は、第2の表示・操作部81,82を制御するGUI制御手段として機能する。また、第2の制御部80は、第1の制御部70から送られてきた編集対象画像(第1の制御部70で生成された編集対象画像のなかから利用者に選択された編集対象画像)に対する落書き処理や美容編集処理を行うための操作信号に基づき、その編集対象画像に所定画像を描画したり、あるいは後述する美容編集処理を行った編集画像を生成する。   Next, the edit processing unit 8 will be described. The editing processing unit 8 includes a second control unit 80, and a pair of second display / operation units 81 and 82 and a second communication unit 83 are electrically connected to the control unit 80. ing. The second control unit 80 is a built-in editing unit 4 and corresponds to a control unit configured mainly by a computer including a CPU, a memory, a frame buffer, an auxiliary storage device, and the like, and a predetermined program stored in an internal memory Is executed by the CPU to perform overall control related to the editing process. That is, the second control unit 80 functions as a GUI control unit that controls the second display / operation units 81 and 82. The second control unit 80 also edits the image to be edited sent from the first control unit 70 (the image to be edited selected by the user from the images to be edited generated by the first control unit 70). ) Based on an operation signal for performing a graffiti process or a beauty editing process, an image to be edited is generated on the image to be edited, or an edited image to which a beauty editing process described later is performed is generated.

美容編集処理を行うために、第2の制御部80は、編集対象画像に対して周知の顔認識処理(顔検出処理)を行い、その編集対象画像に含まれる利用者の顔の位置を検出するとともに、顔の構造の検出も行う。顔の構造の検出とは、例えば、顔の輪郭、髪型、目、鼻、口、耳の大きさ、位置などを認識することである。そして、第2の制御部80は、認識された顔に対する美容処理を受け付ける。例えば、認識された被写体の顔に対し、タッチパネル400を介してタッチしたタッチペン49の位置から、美容処理を行うべき顔の範囲を検出したり、あるいは、タッチパネル400上でタッチペン49をスライドさせたときに、その距離、時間、またはスライド回数などを検出する。スライドとは、直線又は曲線に沿うもの、往復動など、種々の形態がある。このように、検出された顔に対して、美容編集の指示があった場合には、指定された範囲の画像処理を行い、これをフレームバッファに書き込んで、第2の表示・操作部81,82に表示する。例えば、美容編集処理として小顔処理が選択され、処理すべき範囲として頬から顎にかけての所定の範囲が指定された場合には、タッチペン49をスライドした距離、時間、回数などの少なくとも一つに基づいて、検出された頬から顎にかけての輪郭を縮小するように、輪郭を修正するような画像処理を行う。例えば、スライドの距離が大きいほど、処理量を大きくすることができる。なお、処理量とは、ここでは頬から顎にかけての輪郭の縮小量をいう。また、顎等の輪郭の縮小とともに、これに付随するパーツの処理も行う。例えば、顎等の輪郭の縮小と同時に口の大きさも縮小する。すなわち、小顔処理に伴って、顔のバランスが崩れないように、調整を行う。このように、第2の制御部80では、検出された顔に対し、所定の美容処理が行われるような画像処理のプログラムを各種保存し、必要に応じて実行するように構成される。   In order to perform the beauty editing process, the second control unit 80 performs a known face recognition process (face detection process) on the editing target image and detects the position of the user's face included in the editing target image. In addition, the face structure is also detected. The detection of the face structure means, for example, recognition of the face outline, hairstyle, eyes, nose, mouth, ear size, position, and the like. And the 2nd control part 80 receives the beauty process with respect to the recognized face. For example, when a face range to be subjected to cosmetic processing is detected from the position of the touch pen 49 touched via the touch panel 400 with respect to the face of the recognized subject, or when the touch pen 49 is slid on the touch panel 400 In addition, the distance, time, or number of slides is detected. There are various forms of slides, such as those along a straight line or a curve, and reciprocating motion. In this way, when there is an instruction for beauty editing for the detected face, image processing in the designated range is performed, and this is written in the frame buffer, and the second display / operation unit 81, 82. For example, when the small face process is selected as the beauty editing process and a predetermined range from the cheek to the chin is designated as the range to be processed, at least one of the distance, time, number of times, etc., that the touch pen 49 is slid Based on this, image processing for correcting the contour is performed so as to reduce the contour from the cheek to the jaw. For example, the processing amount can be increased as the slide distance increases. Here, the processing amount refers to a reduction amount of the contour from the cheek to the chin. Further, along with the reduction of the contour of the jaw, etc., the parts associated therewith are also processed. For example, the size of the mouth is reduced simultaneously with the reduction of the contour of the jaw or the like. That is, the adjustment is performed so that the balance of the face is not lost with the small face processing. As described above, the second control unit 80 is configured to store various image processing programs for performing predetermined cosmetic processing on the detected face and execute the programs as necessary.

また、第2の制御部80は、上述した美容器具を表すアイコンを表示したり、その動作をアニメーションとして、第2の表示・操作部81,82に表示する。例えば、ローラーを編集対象画像の顔の上に表示したり、ローラーが顔の上を転がる様子を表すアニメーションを第2の表示・操作部81,82に表示する。また、美容器具として、ビューラーが選択された場合には、ビューラーの動作を表すアニメーションを表示する。さらに、第2の制御部80は、上述したタッチペン400による入力を促すような表示を落書き領域41L、41Rに表示させる。例えば、タッチペン49によるタッチパネル400上へのタッチや、スライドを促す文字や図形を表示させる。   In addition, the second control unit 80 displays an icon representing the above-described beauty tool or displays the operation as an animation on the second display / operation units 81 and 82. For example, a roller is displayed on the face of the image to be edited, or an animation representing how the roller rolls over the face is displayed on the second display / operation units 81 and 82. Further, when a viewer is selected as the beauty tool, an animation representing the operation of the viewer is displayed. Further, the second control unit 80 causes the graffiti areas 41L and 41R to display a display that prompts input by the touch pen 400 described above. For example, the touch pen 49 is touched on the touch panel 400, or characters or figures that prompt the user to slide are displayed.

なお、美容編集処理に先立つ顔検出処理は、撮影部71により撮影画像が取得された際に第1の制御部70で行うようにすることもできるし、上記のように、撮影処理部7から送られた編集対象画像に対して改めて顔検出処理を行うこともできる。ただし、第1の制御部70が顔検出処理を行う場合は、その結果を示す情報を第2の制御部80に送信しておく必要がある。   Note that the face detection process prior to the beauty editing process can be performed by the first control unit 70 when a photographed image is acquired by the photographing unit 71, or as described above, from the photographing processing unit 7. It is also possible to perform face detection processing on the sent image to be edited again. However, when the first control unit 70 performs the face detection process, information indicating the result needs to be transmitted to the second control unit 80.

また、顔検出処理の際に、顔の向きを検出することもできる。すなわち、顔の向きが正面ではなく、傾いている場合、第2の制御部80は、この顔の上に表示する美容器具のアイコンの向きを、顔の向きに合わせて表示する。例えば、横向きの顔が検出された場合、美容器具であるローラーは、横から見たように表示され、アニメーションも横から見たときのような動作が表示されるようにする。   Also, the face orientation can be detected during the face detection process. That is, when the face is tilted instead of the front, the second control unit 80 displays the orientation of the beauty instrument icon displayed on the face in accordance with the face. For example, when a sideways face is detected, the roller as a beauty tool is displayed as seen from the side, and the animation is also displayed as if viewed from the side.

以上のような編集画像の生成が終了すると、利用者による分割レイアウトの選択指示を受け付けられ、選択された分割レイアウトを示す情報および生成された編集画像は出力部5に送られる。なお、印刷出力部92が別の編集画像を出力中である場合には、その旨が表示されるとともに終了を待って送られる。   When the generation of the edited image as described above is completed, an instruction to select a divided layout by the user is accepted, and information indicating the selected divided layout and the generated edited image are sent to the output unit 5. When the print output unit 92 is outputting another edited image, a message to that effect is displayed and the print output unit 92 is sent after completion.

第2の表示・操作部81、82は、落書きのためのGUI表示手段として機能する編集操作用タッチパネル400に相当し、タッチペンを用いた利用者の操作を受け付ける。第2の通信部83は、編集部4に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The second display / operation units 81 and 82 correspond to the editing operation touch panel 400 functioning as a graffiti GUI display means, and accept user operations using a touch pen. The second communication unit 83 corresponds to a network adapter built in the editing unit 4 and functions as an interface for data transmission / reception via the network 6.

続いて、出力処理部9について説明する。出力処理部9は、第3の制御部90を備えており、この制御部90に、第3の表示・操作部91、印刷出力部92、音声出力部93、非接触通信部94、第3の通信部95、及び無線通信部96が電気的に接続されている。第3の制御部90は、出力部5に内蔵され、CPU、メモリ、フレームバッファ、タイマー、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、出力処理に関する全体の制御を行う。第3の制御部90は、第2の制御部80から送られてきた編集画像を編集画像データとしてメモリに格納する。印刷出力部92は出力部に内蔵されるネットワークプリンタ35に相当し、メモリに格納された編集画像データを(適宜にレイアウトした)写真シール(または写真カード)として印刷する。印刷された写真シール等は、出力部5の正面下方に設けられた取出口33から取り出される。   Next, the output processing unit 9 will be described. The output processing unit 9 includes a third control unit 90. The control unit 90 includes a third display / operation unit 91, a print output unit 92, an audio output unit 93, a non-contact communication unit 94, and a third. The communication unit 95 and the wireless communication unit 96 are electrically connected. The third control unit 90 is built in the output unit 5 and corresponds to a control unit mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device, and the like, and is stored in an internal memory. When the CPU executes a predetermined program, overall control relating to output processing is performed. The third control unit 90 stores the edited image sent from the second control unit 80 in the memory as edited image data. The print output unit 92 corresponds to the network printer 35 built in the output unit, and prints the edited image data stored in the memory as a photo sticker (or photo card) (which is appropriately laid out). The printed photo sticker or the like is taken out from an outlet 33 provided on the lower front side of the output unit 5.

また、第3の制御部90は、第2の制御部80から送られてきた分割レイアウト情報および編集画像に基づいて写真シール等の印刷処理を開始すると同時に、利用者の入力操作を受け付けるための後述する操作画面を第3の表示・操作部91に表示する。この第3の表示・操作部91は出力操作用タッチパネル30に相当し、入力手段として機能する。出力操作用タッチパネル30は、液晶ディスプレイまたはCRT(Cathode Ray Tube)等の表示手段として機能するモニタと、その上面に積層され、入力座標を認識することができる1人用のタッチパネルから構成される。モニタは複数の画面に分割された操作画面を表示することができ、タッチパネルは分割された複数の画面ごとに利用者のタッチペンを用いた入力操作を受け付け、受け付けた入力操作を操作信号として第3の制御部90に入力する。   Further, the third control unit 90 starts printing processing such as a photo sticker based on the divided layout information and the edited image sent from the second control unit 80, and at the same time accepts a user input operation. An operation screen to be described later is displayed on the third display / operation unit 91. The third display / operation unit 91 corresponds to the output operation touch panel 30 and functions as an input unit. The output operation touch panel 30 includes a monitor that functions as a display unit such as a liquid crystal display or a CRT (Cathode Ray Tube), and a touch panel for one person that is stacked on the upper surface and can recognize input coordinates. The monitor can display an operation screen divided into a plurality of screens, and the touch panel accepts an input operation using a user's touch pen for each of the plurality of divided screens, and the received input operation is used as an operation signal as a third signal. To the control unit 90.

第3の通信部95は、出力部5に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The third communication unit 95 corresponds to a network adapter built in the output unit 5 and functions as an interface for data transmission / reception via the network 6.

ここで、第3の制御部90は、落書きを終えてから操作を始めるまでの間、補助記憶装置に予め記憶されているデモ画像(デモンストレーション用の画像)をフレームバッファに書き込むことにより第3の表示・操作部91に表示する。また音声出力部93は、スピーカ32に相当する。音声出力部93は、第3の表示・操作部91に表示される操作画面と連動して入力操作方法を利用者に説明し、また第3の表示・操作部91にデモ画像が表示されているときにデモ画像に応じた楽曲等を流す。なお、入力操作方法の説明や楽曲等は補助記憶装置としてのハードディス装置等に予め格納されている。   Here, the third control unit 90 writes the demo image (demonstration image) stored in advance in the auxiliary storage device in the frame buffer from the end of the graffiti until the operation is started. Displayed on the display / operation unit 91. The audio output unit 93 corresponds to the speaker 32. The audio output unit 93 explains the input operation method to the user in conjunction with the operation screen displayed on the third display / operation unit 91, and the demo image is displayed on the third display / operation unit 91. When playing, play music etc. according to the demo image. The description of the input operation method, music, and the like are stored in advance in a hard disk device as an auxiliary storage device.

その後、第3の制御部90は、第3の表示・操作部91の表示や音声出力部93による音声や効果音等により編集画像の印刷が完了するまで後述するミニゲームを利用者に提供し続ける。このミニゲームの内容も同様にハードディスク装置等に予め格納されている。   Thereafter, the third control unit 90 provides the user with a mini-game to be described later until printing of the edited image is completed by the display of the third display / operation unit 91 or the sound or sound effect by the sound output unit 93. to continue. The contents of this mini game are similarly stored in advance in a hard disk device or the like.

ここで、各制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるDVD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのDVD−ROMが補助記憶装置として制御装置内に内蔵されたDVD−ROM駆動装置に装着され、そのDVD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。また、上記所定プログラムは、DVD−ROM以外の記録媒体(CD−ROM等)や通信回線を介して提供されてもよい。そして、本遊戯用写真作成装置の起動のための操作がなされると、ハードディスク装置にインストールされた所定プログラムは、制御装置内のメモリに転送されてそこに一時的に格納され、制御装置内のCPUによって実行される。これにより、制御装置による上記各部の制御処理が実現される。   Here, the predetermined program executed in each control device is provided by, for example, a DVD-ROM which is a recording medium on which the program is recorded. That is, a DVD-ROM as a recording medium for the predetermined program is attached to a DVD-ROM driving device built in the control device as an auxiliary storage device, and the predetermined program is read from the DVD-ROM as an auxiliary storage device. Installed on the hard disk drive. The predetermined program may be provided via a recording medium (CD-ROM or the like) other than a DVD-ROM or a communication line. Then, when an operation for starting the present photo creating device is performed, the predetermined program installed in the hard disk device is transferred to the memory in the control device and temporarily stored therein, It is executed by the CPU. Thereby, the control process of each part by the control device is realized.

なお、上記第1から第3までの制御部70,80,90は、異なる部位(撮影部3など)に内蔵される異なるコンピュータを含む装置に相当するものとして説明したが、このような構成は一例であって、上記第1から第3までの制御部70,80,90は、2つ以下または4つ以上の装置により実現されてもよい。例えば、2つの制御部を設けておき、一方の制御部で撮影部3と出力部5を制御し、他方の制御部で編集部4を制御することもできる。そして、このような場合には各装置において、それぞれ実現されるべき機能に応じたプログラムが実行される。さらに、各制御部70,80,90を構成する制御装置は、いずれの部位3,4,5に内蔵されていてもよく、例えば、すべての制御装置を編集部4に内蔵していてもよい。また、撮影部3、編集部4、および出力部5は、物理的に3つに分かれているが、これを一つ又は二つのユニットとして構成することもできる。   The first to third control units 70, 80, and 90 have been described as corresponding to apparatuses including different computers built in different parts (such as the imaging unit 3). For example, the first to third control units 70, 80, 90 may be realized by two or less devices or four or more devices. For example, it is possible to provide two control units, one control unit controlling the photographing unit 3 and the output unit 5, and the other control unit controlling the editing unit 4. In such a case, a program corresponding to the function to be realized is executed in each device. Further, the control devices constituting the control units 70, 80, 90 may be built in any of the parts 3, 4, 5. For example, all the control devices may be built in the editing unit 4. . In addition, the photographing unit 3, the editing unit 4, and the output unit 5 are physically divided into three, but these can be configured as one or two units.

<3 遊戯用写真作成装置における処理手順>
上述したように、この遊戯用写真作成装置には、撮影部3、編集部4、及び出力部5が含まれている。撮影部3では撮影処理が行われ、編集部4では後述する落書き編集処理が行われ、出力部5では出力処理が行われる。なお、ある利用者が撮影部3でプレイしている時に他の利用者は編集部4でプレイし、さらに他の利用者は出力部5で編集画像を出力することができるように構成されている。すなわち、この遊戯用写真作成装置は、撮影処理と落書き編集処理と出力処理とを並行して行うことができる。以下に、上述した処理を順に説明する。
<3 Processing procedure in the photo creation device for games>
As described above, the photo creation device for play includes the photographing unit 3, the editing unit 4, and the output unit 5. The photographing unit 3 performs photographing processing, the editing unit 4 performs later-described graffiti editing processing, and the output unit 5 performs output processing. It should be noted that when a certain user is playing on the photographing unit 3, another user can play on the editing unit 4, and yet another user can output an edited image on the output unit 5. Yes. In other words, this game photo creation device can perform shooting processing, graffiti editing processing, and output processing in parallel. Below, the process mentioned above is demonstrated in order.

<3.1 撮影処理>
まず、撮影部3における撮影処理について、図8を参照しつつ説明する。図8は、本実施形態における撮影処理の処理手順を示すフローチャートである。この遊戯用写真作成装置が使用されていない時(プレイが行われていない時)には、撮影操作用タッチパネル20にはデモ画像が表示されている。デモ画像の表示中に利用者がコイン投入口26にコインを投入すると、プレイが開始される(ステップS100)。
<3.1 Shooting process>
First, photographing processing in the photographing unit 3 will be described with reference to FIG. FIG. 8 is a flowchart showing the processing procedure of the photographing process in the present embodiment. When the play photo creation device is not used (when no play is performed), a demonstration image is displayed on the shooting operation touch panel 20. When the user inserts a coin into the coin insertion slot 26 while displaying the demo image, play is started (step S100).

プレイが開始されると、第1の制御部70は、利用者による撮影モードの選択を受け付ける(ステップS110)。ステップS110では、例えば画質(具体的にはコントラストが高いくっきりとした画質、柔らかなふんわりとした画質、または透明感のあるクールな画質のうちのいずれか)、明るさを選択するとともに、自動で撮影するか手動で撮影するかも選択する。そして、自動で撮影する場合には撮影用テーマの選択が行われる。この場合、第1の制御部70は、予め用意された複数の撮影用テーマの中から1つ以上の撮影用テーマを利用者に選択させるための画面を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者の選択操作に基づいて選択情報を取得し、選択された撮影用テーマに基づいて、撮影の際に使用するフレーム、背景画像、及び前景画像の組み合わせを決定する。また手動で撮影する場合は、上記フレーム、背景画像、及び前景画像を利用者が自由に決定する。その後、ステップS120に進み、撮影が行われる。この撮影により、撮影画像データが第1の制御部70のメモリに格納される。   When the play is started, the first control unit 70 accepts selection of a shooting mode by the user (step S110). In step S110, for example, an image quality (specifically, a clear image quality with high contrast, a soft image quality with softness, or a cool image quality with transparency) and brightness are selected, and brightness is automatically selected. Select whether to shoot or manually. When shooting automatically, a shooting theme is selected. In this case, the first control unit 70 displays on the shooting operation touch panel 20 a screen for allowing the user to select one or more shooting themes from a plurality of shooting themes prepared in advance. The selection operation by the person is accepted. Then, the first control unit 70 acquires selection information based on the user's selection operation, and based on the selected shooting theme, a combination of a frame, a background image, and a foreground image that are used during shooting. To decide. When shooting manually, the user freely determines the frame, background image, and foreground image. Then, it progresses to step S120 and imaging | photography is performed. By this shooting, the shot image data is stored in the memory of the first control unit 70.

ステップS130では、利用者によって決定された背景等と、撮影画像に含まれる利用者の像とを合成して編集対象画像が生成され、この編集対象画像が、撮影操作用タッチパネル20に表示される。詳しくは、ステップS130の処理が行われる都度、図5に示した撮影操作用タッチパネル20の編集対象画像表示領域203に編集対象画像が順次追加表示される。その後、ステップS140に進み、第1の制御部70は、予め定められた枚数の撮影が終了したか否かを判定する。判定の結果、当該枚数の撮影が終了していればステップS150に進み、当該枚数の撮影が終了していなければステップS120に戻る。なお、実際には撮影のための制限時間(例えば3分)が設けられる。   In step S <b> 130, an editing target image is generated by combining the background determined by the user and the user image included in the captured image, and the editing target image is displayed on the shooting operation touch panel 20. . Specifically, each time the process of step S130 is performed, the edit target images are sequentially displayed in the edit target image display area 203 of the photographing operation touch panel 20 shown in FIG. Thereafter, the process proceeds to step S140, and the first control unit 70 determines whether or not a predetermined number of images have been taken. As a result of the determination, if the number of images has been shot, the process proceeds to step S150. If the number of images has not been shot, the process returns to step S120. In practice, a time limit for photographing (for example, 3 minutes) is provided.

ステップS150では、複数の編集対象画像の中から実際の編集対象となる画像の(利用者による)選択が行われる。具体的には、第1の制御部70は、編集および印刷に使用する画像を利用者に選択させるために、編集対象画像の一覧を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者によって選択された画像を実際の編集対象画像として第2の制御部80に送る。ステップS150の終了後、ステップS160に進む。ステップS160では、案内画面の表示が行われる。具体的には、第1の制御部70は、利用者を編集部4のいずれか(4aまたは4b)に導くための画面を撮影操作用タッチパネル20に表示する。これにより、撮影処理が終了する。   In step S150, an image to be actually edited (by the user) is selected from a plurality of images to be edited. Specifically, the first control unit 70 displays a list of images to be edited on the shooting operation touch panel 20 in order to allow the user to select an image to be used for editing and printing, and performs a selection operation by the user. Accept. Then, the first control unit 70 sends the image selected by the user to the second control unit 80 as an actual editing target image. After step S150 ends, the process proceeds to step S160. In step S160, a guidance screen is displayed. Specifically, the first control unit 70 displays a screen for guiding the user to any one of the editing units 4 (4 a or 4 b) on the photographing operation touch panel 20. Thereby, the photographing process is completed.

<3.2 編集処理>
次に、編集部における落書き編集処理について、図9を参照しつつ説明する。図9は、本実施形態における落書き編集処理の手順を示すフローチャートである。第2の制御部80が所定のプログラムに基づき図9に示すように動作することで、この落書き編集処理が実現される。
<3.2 Editing process>
Next, the graffiti editing process in the editing unit will be described with reference to FIG. FIG. 9 is a flowchart showing the procedure of graffiti editing processing in the present embodiment. The graffiti editing process is realized by the second control unit 80 operating as shown in FIG. 9 based on a predetermined program.

まず、第2の制御部80は、図8のステップS150の処理で第1の制御部50から送られた編集対象画像を取得する(ステップS210)。続いて、タイマー46が所定の時間(具体的には、落書きを許可する時間)に設定され、カウントダウンが開始される(ステップS220)。   First, the second control unit 80 acquires the image to be edited sent from the first control unit 50 in the process of step S150 of FIG. 8 (step S210). Subsequently, the timer 46 is set to a predetermined time (specifically, a time during which graffiti is permitted), and countdown is started (step S220).

タイマー46のカウントダウン開始後、編集部4を構成するユニット4a,4bのうちのいずれか一方の編集操作用タッチパネル400において、落書き編集操作画面が表示され、利用者による落書き操作が受け付けられる(ステップS230〜S250)。なお、この落書き編集処理時において、編集部4では、撮影画像に基づく編集対象画像に対する編集操作の他に、デコメール画像等の素材画像を作成するための編集操作が受け付けられてもよい。   After the timer 46 starts to count down, the graffiti editing operation screen is displayed on the editing operation touch panel 400 of one of the units 4a and 4b constituting the editing unit 4, and the graffiti operation by the user is accepted (step S230). ~ S250). At the time of this graffiti editing process, the editing unit 4 may accept an editing operation for creating a material image such as a decomail image, in addition to an editing operation on the editing target image based on the photographed image.

上記処理は、具体的には編集操作画面内のボタンやツールなどの1つをタッチペンでタッチすると、その座標値が入力され(ステップS230)、対応する落書き編集処理(ステップS240)が行われる。このとき、後述する美容編集処理も行うことができる。その後、ステップS250においてタイマー46の残り時間が0になる(または利用者が終了させる操作を行う)ことにより落書きが終了したかが判定され、終了していない場合(ステップS250においてNoの場合)にはステップS230に戻り、落書きが終了するまで処理が繰り返される。一方、落書きが終了した場合(ステップS250においてYesの場合)には、処理はステップS260に進む。こうして、編集対象画像に対して落書き処理や後述する美容編集処理が施された編集画像が生成される。   Specifically, when one of buttons, tools, etc. in the editing operation screen is touched with a touch pen, the coordinate value is input (step S230), and the corresponding graffiti editing process (step S240) is performed. At this time, a beauty editing process described later can also be performed. Thereafter, in step S250, the remaining time of the timer 46 becomes 0 (or the user performs an operation to end), and it is determined whether or not the graffiti has ended, and when it has not ended (in the case of No in step S250). Returns to step S230, and the process is repeated until the graffiti ends. On the other hand, when the graffiti is completed (Yes in step S250), the process proceeds to step S260. In this way, an edited image is generated in which the image to be edited is subjected to graffiti processing and beauty editing processing described later.

なお、所定の時間が経過しても(あるいは、落書きの制限時間が所定時間未満になっても)落書き編集処理(ステップS240)が行われない場合には、落書きを促す文字をタッチパネル400に表示することもできる。落書きを促す文字は、落書き編集処理がなされていない編集対象画像に対応する候補画像上あるいは候補画像付近に表示することが好ましい。   If the graffiti editing process (step S240) is not performed even if the predetermined time has elapsed (or the graffiti time limit is less than the predetermined time), a character prompting the graffiti is displayed on the touch panel 400. You can also It is preferable to display the character for encouraging graffiti on or near the candidate image corresponding to the image to be edited that has not been subjected to the graffiti editing process.

文字の表示からさらに所定時間が経過しても(あるいは、落書きの制限が所定の時間未満になっても)落書きが開始されない場合には、タッチパネル400に表示されたボタン群の中から、少ないタッチ数で落書きが可能なツール(例えば、ワンタッチすることにより、複数の機能を用いた落書きを編集対象画像に対して行うことのできるツール)を表示させるためのボタンのみを目立たせることもできる。例えば、該当のボタンのみを目立たせる手法としては、該当のボタンを強調表示したり、光らせたり、該当のボタン上あるいは周辺に所定の文字を表示したりすることが考えられるが、これに限らない。   If graffiti does not start even after a predetermined time has elapsed since the display of the characters (or the graffiti limit is less than the predetermined time), a few touches from the button group displayed on touch panel 400 Only a button for displaying a tool capable of scribbling with a number (for example, a tool that can perform scribble using a plurality of functions on an image to be edited by one touch) can be highlighted. For example, as a method of making only the corresponding button stand out, it is possible to highlight the corresponding button, make it light, or display a predetermined character on or around the corresponding button, but it is not limited to this. .

図9に戻って、編集処理の説明を続ける。ステップS260では、出力される写真の分割パターンの選択が行われる。具体的には、第2の制御部80は、予め用意された複数の分割パターンの中からいずれかの分割パターンを利用者に選択させるための操作画面を編集操作用タッチパネル400に表示し、利用者による選択操作を受け付ける。そして、第2の制御部80は、利用者の選択操作に基づいて、選択情報を取得する。ステップS260の処理が終了した後、ステップS270の処理に進む。   Returning to FIG. 9, the description of the editing process will be continued. In step S260, the division pattern of the output photo is selected. Specifically, the second control unit 80 displays an operation screen on the editing operation touch panel 400 for causing the user to select one of a plurality of division patterns prepared in advance, and uses the operation screen. The selection operation by the person is accepted. And the 2nd control part 80 acquires selection information based on a user's selection operation. After the process of step S260 is completed, the process proceeds to step S270.

ステップS270では、案内画面の表示が行われる。具体的には、第2の制御部80は、利用者を出力部5に導くための画面を編集操作用タッチパネル400に表示する。これにより、落書き編集処理が終了する。落書き編集処理が終了すると、出力部5において、編集部4から送られてきた編集画像に基づいて写真シール等の印刷処理が開始されることなどについては前述した通りである。   In step S270, a guidance screen is displayed. Specifically, the second control unit 80 displays a screen for guiding the user to the output unit 5 on the editing operation touch panel 400. Thereby, the graffiti editing process ends. As described above, when the graffiti editing process is completed, the output unit 5 starts the printing process such as a photo sticker based on the edited image sent from the editing unit 4.

次に、上記ステップS240に含まれる美容編集処理の詳しい内容について図10〜図13を参照して説明する。図10は、美容編集処理を表すフローチャート、図11〜図13は落書き領域に示された編集対象画像に美容編集処理を施す過程を示す図である。ここでは、美容編集処理のうち、小顔処理について説明する。   Next, detailed contents of the beauty editing process included in step S240 will be described with reference to FIGS. FIG. 10 is a flowchart showing the beauty editing process, and FIGS. 11 to 13 are diagrams showing a process of performing the beauty editing process on the edit target image shown in the graffiti area. Here, the small face process in the beauty editing process will be described.

まず、利用者は、編集操作用タッチパネル400のボタン群45L,45Rから、図11に示すように、小顔処理を行うための「ローラー」が示されたアイコンXを、タッチペン49によりタッチして選択する(ステップS310)。これにより、美容編集処理がスタートし、第2の制御部80は、落書き領域41L、41Rに表示された編集対象画像から被写体の顔を検出する(ステップS320)。なお、顔の検出は、美容編集処理を行う前、例えば、撮影部3から編集対象画像が送られてきた後に行っていてもよい。次に、小顔処理を行うべき範囲を指定することを促す表示を落書き領域41L、41Rに表示する(ステップS330)。図11に示す例では、「ローラーを当てる位置をタッチしてね」との表示を行っている。これにより、利用者は、落書き領域41L、41Rに表示された被写体の顔に対し、小顔処理を行うべき範囲、例えば被写体の顔における頬から顎にかけての所定の範囲をタッチペン49でタッチする。そして、タッチペン49によるタッチが検出されると(ステップS340のYes)、第2の制御部80は、図12に示すように、タッチされた位置にローラーのアイコンXを表示する(ステップS350)。タッチペン49によるタッチが検出されない場合には(ステップS340のNo)、上述したタッチペン49によるタッチを促す表示を続ける。また、タッチペン49により、顔以外の位置をタッチした場合にも、上記表示がなされる。   First, as shown in FIG. 11, the user touches an icon X indicating a “roller” for performing small face processing with the touch pen 49 from the button groups 45 </ b> L and 45 </ b> R of the editing operation touch panel 400. Select (step S310). Thereby, the beauty editing process is started, and the second control unit 80 detects the face of the subject from the editing target images displayed in the graffiti areas 41L and 41R (step S320). The face may be detected before the beauty editing process is performed, for example, after the image to be edited is sent from the photographing unit 3. Next, a display prompting the user to designate a range where small face processing is to be performed is displayed in the graffiti areas 41L and 41R (step S330). In the example shown in FIG. 11, “Please touch the position where the roller hits” is displayed. Accordingly, the user touches the face of the subject displayed in the graffiti areas 41L and 41R with the touch pen 49 in a range where small face processing is to be performed, for example, a predetermined range from the cheek to the chin on the face of the subject. When a touch with the touch pen 49 is detected (Yes in step S340), the second control unit 80 displays the roller icon X at the touched position as shown in FIG. 12 (step S350). When the touch with the touch pen 49 is not detected (No in step S340), the display for prompting the touch with the touch pen 49 described above is continued. In addition, the above display is also made when a position other than the face is touched with the touch pen 49.

続いて、表示されたローラーのアイコンXを動かすことを促す表示を落書き領域41L、41Rに表示する(ステップS360)。図12に示す例では、「ローラーをコロコロしてね」との表示を行っている。これは、小顔処理を行うべき範囲、及びその程度を入力させるためである。上記表示に対し、利用者はローラーのアイコンにタッチペン49をタッチし、タッチパネル400上でスライドさせる。そして、タッチペン49のスライドを検出すると(ステップS370のYes)、図13(a)に示すように、ローラーのアイコンが、タッチペン49の動作とともに落書き領域41L、41R上で動き、ローラーが動作するようなアニメーションが表示される(ステップS380)。タッチペン49によるスライドが検出されない場合には(ステップS370のNo)、上述したタッチペン49によるスライドを促す表示を続ける。また、タッチペン49により、顔以外の位置をスライドした場合にも、上記表示がなされる。こうして、タッチペン49がスライドしているときに、第2の制御部80は、このタッチペン49の移動距離に応じて画像処理を行う(ステップS390)。すなわち、図13(b)に示すように、ローラーのアイコンが配置された位置において、被写体の顔の(頬から顎にかけての)輪郭を縮小するように、画像処理を行う。上記のように、例えばタッチペン49を顎の上でスライドさせると、第2の制御部80は、認識した頬から顎にかけての輪郭を縮小するように、画像処理を行うとともに、口の大きさも縮小するように画像処理を行う。このとき、タッチペン49の移動距離が大きければ、輪郭の縮小の度合いが大きくなり、移動距離が小さければあまり縮小されない。但し、移動距離が大きい場合でも、縮小される大きさの上限は予め決められており、際限なく縮小されるわけではない。なお、上記のように、タッチペン49のスライドと同時に画像処理を行い、その結果をリアルタイムで表示させることもできるし、タッチペン49によるスライドが停止した後に、画像処理を行い、その結果を表示することもできる。タッチペン49のスライドと同時に画像処理を行う場合は、例えば移動距離が所定の距離になるごとに顔の大きさを段階的に縮小するようにしてもよいし、単に移動距離が増加するごとに顔の大きさを縮小するようにしてもよい。こうして、タイマーの設定時間に到達したり、あるいは他の美容器具を示すアイコンや落書き用の他のツールをパレットから選択した場合には、美容編集処理が終了するが、それまでの間はステップS330〜S390までの処理を繰り返し行うことができる。なお、美容編集処理の実行中にだけ編集操作用タッチパネル400の所定位置(例えば、パレット42L,42R内)に「元の顔に戻る」ボタン(不図示)を表示し、このボタンがタッチされると、ステップS390の処理でなされた美容編集処理を取り消すようにしてもよい。   Subsequently, a display prompting the user to move the displayed roller icon X is displayed in the graffiti areas 41L and 41R (step S360). In the example shown in FIG. 12, “Please roll the roller” is displayed. This is to input the range and the extent to which the small face processing should be performed. In response to the above display, the user touches the touch pen 49 on the roller icon and slides it on the touch panel 400. When the slide of the touch pen 49 is detected (Yes in step S370), as shown in FIG. 13A, the roller icon moves on the graffiti areas 41L and 41R together with the operation of the touch pen 49 so that the roller operates. A simple animation is displayed (step S380). When the slide with the touch pen 49 is not detected (No in step S370), the display for prompting the slide with the touch pen 49 is continued. In addition, the above display is performed even when the touch pen 49 is used to slide a position other than the face. Thus, when the touch pen 49 is sliding, the second control unit 80 performs image processing according to the movement distance of the touch pen 49 (step S390). That is, as shown in FIG. 13B, image processing is performed so that the contour (from the cheek to the chin) of the face of the subject is reduced at the position where the roller icon is arranged. As described above, for example, when the touch pen 49 is slid on the chin, the second control unit 80 performs image processing so as to reduce the recognized contour from the cheek to the chin, and also reduces the size of the mouth. Image processing is performed as described above. At this time, if the movement distance of the touch pen 49 is large, the degree of reduction of the outline is large, and if the movement distance is small, the reduction is not so much. However, even when the movement distance is large, the upper limit of the size to be reduced is determined in advance and is not infinitely reduced. As described above, image processing can be performed simultaneously with the slide of the touch pen 49, and the result can be displayed in real time, or after the slide with the touch pen 49 stops, image processing is performed and the result can be displayed. You can also. When image processing is performed simultaneously with the sliding of the touch pen 49, for example, the face size may be reduced stepwise every time the moving distance reaches a predetermined distance, or simply as the moving distance increases. You may make it reduce the magnitude | size of. In this way, when the set time of the timer is reached, or when an icon indicating another beauty tool or another tool for graffiti is selected from the palette, the beauty editing process ends, but until that time, step S330 is performed. The process up to S390 can be repeated. Note that a “return to original face” button (not shown) is displayed at a predetermined position (for example, in the palettes 42L and 42R) of the editing operation touch panel 400 only during the beauty editing process, and this button is touched. Then, the beauty editing process performed in the process of step S390 may be canceled.

<4.効果>
以上のように、本実施形態によれば、撮影後の画像であっても、利用者の嗜好に応じて編集対象画像(撮影画像)を直感的に編集することができる。すなわち、利用者がアイコンで表された美容器具を用い、編集対象画像において、この美容器具を利用すべき位置を入力すると、その位置において、美容器具が有する機能に基づく処理を行うように、撮影画像を画像処理することができる。つまり、本実施形態のように、小顔処理のためのローラーを表すアイコンを選択し、タッチペン49で編集対象画像をタッチしてスライドさせると、小顔になるように編集対象画像の顔が画像処理される。このように、本実施形態では、擬似的にローラーなどの美容器具を用い、ローラーの有する機能に基づく処理を行うように画像処理を行うため、画像処理の過程や結果を直感的にイメージしやすく、また、利用者の嗜好を表しやすいため、満足度を向上することができる。ローラー以外に、例えば、ビューラーを選択した場合には、次のように処理される。まず、ビューラーを示すアイコンを選択し、タッチペンで編集対象画像における目をタッチすると、目にビューラーのアイコンが表示される。この状態で、タッチペンをスライドさせると、ビューラーが動作するアニメーションが表示される。その結果、目が大きく見開く、いわゆるパッチリ目にするような画像処理が行われる。
<4. Effect>
As described above, according to the present embodiment, it is possible to intuitively edit an editing target image (captured image) according to the user's preference even for an image after shooting. That is, when a user uses a beauty tool represented by an icon and inputs a position where the beauty tool should be used in an image to be edited, photographing is performed so that processing based on the function of the beauty tool is performed at that position. Images can be processed. That is, as in this embodiment, when an icon representing a roller for small face processing is selected and the image to be edited is touched and slid with the touch pen 49, the face of the image to be edited becomes an image so that the face becomes a small face. It is processed. As described above, in the present embodiment, since a pseudo beauty device such as a roller is used and image processing is performed so as to perform processing based on the function of the roller, it is easy to intuitively image the process and result of the image processing. Moreover, since it is easy to express a user's preference, satisfaction can be improved. In addition to the roller, for example, when a buller is selected, the following processing is performed. First, when an icon indicating a viewer is selected and an eye in the image to be edited is touched with a touch pen, the icon of the viewer is displayed on the eye. When the touch pen is slid in this state, an animation in which the viewer operates is displayed. As a result, image processing is performed so that the eyes wide open, so-called patchy.

なお、本実施形態における小顔処理では、顔の輪郭と同時に口も同時に小さくする処理を含むものであったが、小顔処理はこれに限定されず、どのような小顔処理を用いてもよりことは言うまでもない。   Note that the small face processing in the present embodiment includes processing for simultaneously reducing the mouth of the face as well as the contour of the face, but the small face processing is not limited to this, and any small face processing can be used. Needless to say more.

<5.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。上記実施形態では、美容器具を表すアイコンを選択し、タッチパネルをタッチして編集対象画像上にアイコンが現れた後に、タッチペンをスライドさせて画像処理を行っているが、画像処理に至る過程はこれに限定されるものではなく、種々の態様が可能である。例えば、タッチパネルを1回又は複数回タッチするだけで、画像処理を行ってもよいし、タッチペンによるスライドのみによって画像処理を開始することもできる。あるいは、美容器具を表すアイコンを選択するだけで画像処理が行われてもよく、要するに、アイコンで表される美容器具の機能に基づく処理を行うことを、何らかの方法で入力できればよい。また、画像処理の処理量を決定するためのタッチペン49の動作は、スライド以外でもよく、タップの回数、時間などでもよい。また、予め処理量を規定したアイコン(例えば、大きさの異なる複数のローラーを表示)を表示しておき、いずれかを少なくとも一回選択することで、画像処理の処理量を決めることができる。このとき、アイコンを選択するだけで、画像処理を開始してもよいし、アイコンを選択した後、タッチペン49をタッチパネル400上でスライドさせることによって画像処理を行ってもよい。すなわち、アイコンの選択とスライド動作を併用して画像処理の処理量を決めることもできる。また、タッチペン以外でも、指によって直接タッチパネルをタッチしたり、あるいはマウス、キーボードなどの入力手段を使用することもできる。なお、アイコンの選択で画像処理を開始する場合(タッチペン49でアイコンを直接動かさない場合)は、編集対象画像上に表示されたアイコンを、画像処理の内容に応じて動かすようにしてもよい。
<5. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning. In the above embodiment, an icon representing a beauty tool is selected, the touch panel is touched and the icon appears on the image to be edited, and then the image processing is performed by sliding the touch pen. However, the present invention is not limited to these, and various modes are possible. For example, image processing may be performed by touching the touch panel once or a plurality of times, or image processing can be started only by sliding with a touch pen. Alternatively, image processing may be performed simply by selecting an icon representing a beauty tool. In short, it is only necessary to input a process based on the function of the beauty tool represented by the icon by some method. Further, the operation of the touch pen 49 for determining the processing amount of the image processing may be other than the slide, and may be the number of taps, time, or the like. Further, the processing amount of the image processing can be determined by displaying an icon (for example, displaying a plurality of rollers having different sizes) that defines the processing amount in advance and selecting any one at least once. At this time, image processing may be started simply by selecting an icon, or image processing may be performed by sliding the touch pen 49 on the touch panel 400 after selecting the icon. That is, it is possible to determine the amount of image processing by using both icon selection and sliding operation. In addition to touch pens, the touch panel can be directly touched with a finger, or input means such as a mouse and a keyboard can be used. When image processing is started by selecting an icon (when the icon is not moved directly with the touch pen 49), the icon displayed on the image to be edited may be moved according to the content of the image processing.

上記実施形態では、撮影画像の編集処理として、美容編集処理を挙げたが、これ以外にも種々の処理を行うことができ、所定の機能を有する器具をアイコンで表し、その機能に基づく処理を行うような画像処理を行えるようにすればよい。例えば、「カラーコンタクトレンズ」を表すアイコンを設けて、目の色を変えることができる。また、「魔法の杖」を表すアイコンを設け、このアイコンを用いることで、髪型を変えることもできる。すなわち、現実に存在する器具のみならず、架空の器具であっても、所定の機能を持たすことができれば(例えば、アイコンに機能を記載する)、採用することができる。また、画像処理を行う場所は、顔だけでなく、例えば、全身を撮影できる場合には、全身のいずれの場所も画像処理の対象となる。この場合、例えば、上述した魔法の杖を用いて、脚を長くしたり、細くするなどの画像処理を行うことができる。なお、以上のような画像処理を行った場合の処理量とは、画像処理を行った程度、つまり、当初の画像からの変化の量をいい、例えば、足を長くした場合には、その長さをいう。   In the above-described embodiment, the beauty editing process is exemplified as the editing process of the photographed image. However, various processes other than this can be performed, and an appliance having a predetermined function is represented by an icon, and a process based on the function What is necessary is just to be able to perform the image processing which is performed. For example, an icon representing “color contact lens” can be provided to change the eye color. Also, an icon representing “magic wand” is provided, and the hairstyle can be changed by using this icon. That is, not only an actual device but also an imaginary device can be employed as long as it has a predetermined function (for example, a function is described in an icon). Further, the place where image processing is performed is not limited to the face, but, for example, if the whole body can be photographed, any part of the whole body is the target of image processing. In this case, for example, the above-described magic wand can be used to perform image processing such as making the legs longer or thinner. Note that the processing amount when the above image processing is performed refers to the degree of image processing, that is, the amount of change from the original image. Say it.

また、上記実施形態では、図10のステップS340の処理に示すように、タッチペン49によるタッチを検出した場合に、タッチペン49にタッチされた位置にアイコンを表示するようにした。しかしながら、この処理の代わりに、S310の処理にてアイコンが選択された後、選択されたアイコンを、落書き領域に表示された編集対象画像上に重ねて表示させ、これをタッチペン49で動かすようにすることもできる。表示させる位置としては、図11に示す例の場合、現実的にローラーが使用される位置付近(両頬から顎にかけての所定位置付近)が好ましい。これは、上述した顔検出処理を利用することにより実現可能である。   Moreover, in the said embodiment, as shown in the process of step S340 of FIG. 10, when the touch with the touch pen 49 is detected, an icon is displayed on the position touched by the touch pen 49. However, instead of this processing, after an icon is selected in the processing of S310, the selected icon is displayed on the editing target image displayed in the graffiti area and moved with the touch pen 49. You can also In the case of the example shown in FIG. 11, the position to be displayed is preferably near the position where the roller is actually used (near a predetermined position from both cheeks to the chin). This can be realized by using the face detection process described above.

また、上記実施形態において、編集対象画像に含まれる利用者の像の各身体部位の大きさに基づいてアイコンの大きさを変更できる。例えば、アイコンがローラーの場合は、編集対象画像に含まれる利用者の顔の大きさに応じてローラーの大きさを変更することが好ましい。   Moreover, in the said embodiment, the magnitude | size of an icon can be changed based on the magnitude | size of each body part of the user's image contained in an edit object image. For example, when the icon is a roller, it is preferable to change the size of the roller according to the size of the user's face included in the image to be edited.

3…撮影部
4…編集部
49 タッチペン(入力手段)
400…編集操作用タッチパネル(入力手段、表示手段)
5…出力部
80…第2の制御部(制御手段)
3 ... Shooting unit 4 ... Editing unit 49 Touch pen (input means)
400 ... Touch panel for editing operation (input means, display means)
5 ... Output unit 80 ... Second control unit (control means)

Claims (8)

被写体を撮影して撮影画像を生成する撮影部と、
前記撮影画像に対する編集操作を受け付けて編集画像を生成する編集部と、
前記編集画像を出力する出力部と、
を備え、
前記編集部は、
前記撮影画像、及び所定の機能を有する器具を表す少なくとも一つのアイコンを表示する表示手段と、
前記表示手段に表示された前記撮影画像に対し、前記アイコンで表される前記器具の機能に基づく処理を行うことを受け付ける入力手段と、
前記器具が有する機能に基づく処理を行うように、前記撮影画像に対して画像処理を行い、前記編集画像を生成する制御手段と、
を備えている、写真撮影遊戯装置。
A shooting unit for shooting a subject and generating a shot image;
An editing unit that receives an editing operation on the captured image and generates an edited image;
An output unit for outputting the edited image;
With
The editing unit
Display means for displaying the photographed image and at least one icon representing an instrument having a predetermined function;
Input means for accepting to perform processing based on the function of the appliance represented by the icon on the captured image displayed on the display means;
Control means for performing image processing on the captured image so as to perform processing based on the function of the instrument, and generating the edited image;
A photography game device equipped with.
前記器具が有する機能に基づく処理が実行される際、前記制御手段は、該処理に対応する前記アイコンを、前記表示手段に表示された前記撮影画像上に表示させる、請求項1に記載の写真撮影遊戯装置。   The photograph according to claim 1, wherein when a process based on a function of the instrument is executed, the control unit displays the icon corresponding to the process on the captured image displayed on the display unit. Shooting game device. 前記入力手段は、前記表示手段に表示された前記撮像画像に対して、前記機能に基づく処理を行うための動作を受け付け、
前記制御手段は、前記動作に基づいて、前記アイコンを動作させるアニメーションを、前記表示手段に表示させる、請求項1または2に記載の写真撮影遊戯装置。
The input means accepts an operation for performing processing based on the function for the captured image displayed on the display means,
The photography game device according to claim 1 or 2, wherein the control means causes the display means to display an animation for operating the icon based on the action.
前記制御手段は、前記入力手段が受け付けた動作に基づいて、前記撮影画像に対する画像処理の処理量を決定する、請求項3に記載の写真撮影遊戯装置。   The photography game device according to claim 3, wherein the control means determines a processing amount of image processing for the photographed image based on an operation received by the input means. 前記制御手段は、前記動作が行われた距離、回数、及び時間の少なくとも一つに応じて、前記画像処理の処理量を決定する、請求項4に記載の写真撮影遊戯装置。   The photography game device according to claim 4, wherein the control means determines a processing amount of the image processing according to at least one of a distance, a frequency, and a time at which the operation is performed. 前記制御手段は、
前記撮像画像に基づいて、前記被写体が撮影された向きを認識し、当該向きに適合するように、前記アイコンを表示する向きを調整して前記表示手段に表示させる、請求項2から5までのいずれか1項に記載の写真撮影遊戯装置。
The control means includes
6. The direction in which the subject is photographed is recognized based on the captured image, and the display direction of the icon is adjusted to be displayed on the display unit so as to match the direction. The photography game device according to any one of the preceding claims.
被写体を撮影して撮影画像を生成するステップと、
前記撮影画像に対する編集操作を受け付けて編集画像を生成するステップと、
前記編集画像を出力するステップと、
を備え、
前記編集画像を生成するステップは、
前記撮影画像、及び所定の機能を有する器具を表す少なくとも一つのアイコンを表示するステップと、
表示された前記撮影画像に対し、前記アイコンで表される前記器具の機能に基づく処理を行うことを受け付けるステップと、
前記器具が有する機能に基づく処理を行うように、前記撮影画像に対して画像処理を行い、前記編集画像を生成するステップと、
を備えている、写真撮影遊戯方法。
Shooting a subject to generate a shot image;
Receiving an editing operation on the captured image to generate an edited image;
Outputting the edited image;
With
The step of generating the edited image includes:
Displaying the photographed image and at least one icon representing an instrument having a predetermined function;
Accepting to perform processing based on the function of the appliance represented by the icon for the displayed captured image;
Performing image processing on the captured image so as to perform processing based on the function of the instrument, and generating the edited image;
A photography play method comprising:
被写体を撮影して撮影画像を生成する撮影部と、前記撮影画像に対する編集操作を受け付けて編集画像を生成する編集部と、前記編集画像を出力する出力部と、を備える写真撮影遊戯装置のコンピュータに、
前記撮影画像、及び所定の機能を有する器具を表す少なくとも一つのアイコンを表示するステップと、
表示された前記撮影画像に対し、前記アイコンで表される前記器具の機能に基づく処理を行うことを受け付けるステップと、
前記器具が有する機能に基づく処理を行うように、前記撮影画像に対して画像処理を行い、前記編集画像を生成するステップと、
を実行させる、写真撮影遊戯プログラム。
A computer of a photography game apparatus comprising: a photographing unit that photographs a subject and generates a photographed image; an editing unit that accepts an editing operation on the photographed image and generates an edited image; and an output unit that outputs the edited image. In addition,
Displaying the photographed image and at least one icon representing an instrument having a predetermined function;
Accepting to perform processing based on the function of the appliance represented by the icon for the displayed captured image;
Performing image processing on the captured image so as to perform processing based on the function of the instrument, and generating the edited image;
This is a photography game program.
JP2011171324A 2011-08-04 2011-08-04 Photography game device, photography game method, and photography game program Expired - Fee Related JP5887752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011171324A JP5887752B2 (en) 2011-08-04 2011-08-04 Photography game device, photography game method, and photography game program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011171324A JP5887752B2 (en) 2011-08-04 2011-08-04 Photography game device, photography game method, and photography game program

Publications (2)

Publication Number Publication Date
JP2013038517A true JP2013038517A (en) 2013-02-21
JP5887752B2 JP5887752B2 (en) 2016-03-16

Family

ID=47887727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011171324A Expired - Fee Related JP5887752B2 (en) 2011-08-04 2011-08-04 Photography game device, photography game method, and photography game program

Country Status (1)

Country Link
JP (1) JP5887752B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004751A (en) * 2013-06-19 2015-01-08 辰巳電子工業株式会社 Photography game device, image generation method, and image generation program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07308321A (en) * 1994-05-17 1995-11-28 Hitachi Ltd Apparatus for processing graphic display article and operation simulation apparatus and rotating force generating apparatus to be used therefor
JP2000069404A (en) * 1998-08-25 2000-03-03 Konami Co Ltd Image print creating device
JP2003109111A (en) * 2001-09-14 2003-04-11 Bit Computer Co Ltd Automatic sticker photograph vending machine and its operating method
JP2003244581A (en) * 2001-12-14 2003-08-29 Omron Corp Image printing equipment and method, program and printing medium unit
JP2004228888A (en) * 2003-01-22 2004-08-12 Make Softwear:Kk Automatic photograph vending machine
JP2006350838A (en) * 2005-06-17 2006-12-28 Fujitsu Ltd Information processing apparatus and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07308321A (en) * 1994-05-17 1995-11-28 Hitachi Ltd Apparatus for processing graphic display article and operation simulation apparatus and rotating force generating apparatus to be used therefor
JP2000069404A (en) * 1998-08-25 2000-03-03 Konami Co Ltd Image print creating device
JP2003109111A (en) * 2001-09-14 2003-04-11 Bit Computer Co Ltd Automatic sticker photograph vending machine and its operating method
JP2003244581A (en) * 2001-12-14 2003-08-29 Omron Corp Image printing equipment and method, program and printing medium unit
JP2004228888A (en) * 2003-01-22 2004-08-12 Make Softwear:Kk Automatic photograph vending machine
JP2006350838A (en) * 2005-06-17 2006-12-28 Fujitsu Ltd Information processing apparatus and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004751A (en) * 2013-06-19 2015-01-08 辰巳電子工業株式会社 Photography game device, image generation method, and image generation program

Also Published As

Publication number Publication date
JP5887752B2 (en) 2016-03-16

Similar Documents

Publication Publication Date Title
JP5782873B2 (en) Game shooting device, game shooting method and program
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP5887752B2 (en) Photography game device, photography game method, and photography game program
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP6614386B2 (en) Image processing apparatus, image processing method, and program
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP5790034B2 (en) Automatic photo creation device
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP2014064055A (en) Image editing device, trimming method, and computer program
JP6090369B2 (en) Game shooting device, game shooting method and program
JP2011199769A (en) Automatic photograph creating device
JP6245529B2 (en) Game shooting device, game shooting method and program
JP7074994B2 (en) Photographing game console and image processing method
JP5895394B2 (en) Game shooting device, game shooting method, and game shooting program
JP5790896B2 (en) Game shooting device, game shooting method, and game shooting program
JP6614374B2 (en) Photography game machine, control method and program
JP5967283B2 (en) Photo shooting game machine, its control method and control program
JP5660243B2 (en) Game shooting device, game shooting method and computer program
JP2017173848A (en) Imaging apparatus for game, imaging method for game, and program
JP2016184873A (en) Photo taking game machine and control program
JP5742891B2 (en) Photo sticker creation device
JP5805903B1 (en) Photo sticker creation apparatus and display method
JP2015213336A (en) Imaging apparatus for game, imaging method for game, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160201

R150 Certificate of patent or registration of utility model

Ref document number: 5887752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees