JP6671015B2 - Photo sticker making apparatus and image processing method - Google Patents

Photo sticker making apparatus and image processing method Download PDF

Info

Publication number
JP6671015B2
JP6671015B2 JP2019034589A JP2019034589A JP6671015B2 JP 6671015 B2 JP6671015 B2 JP 6671015B2 JP 2019034589 A JP2019034589 A JP 2019034589A JP 2019034589 A JP2019034589 A JP 2019034589A JP 6671015 B2 JP6671015 B2 JP 6671015B2
Authority
JP
Japan
Prior art keywords
image
captured image
user
captured
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019034589A
Other languages
Japanese (ja)
Other versions
JP2019135835A (en
Inventor
さやか 葭本
さやか 葭本
優美 山田
優美 山田
麻未 筒井
麻未 筒井
侑加 諸岡
侑加 諸岡
香練 新庄
香練 新庄
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2019034589A priority Critical patent/JP6671015B2/en
Publication of JP2019135835A publication Critical patent/JP2019135835A/en
Application granted granted Critical
Publication of JP6671015B2 publication Critical patent/JP6671015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Description

本技術は、写真シール作成装置および画像処理方法に関し、特に、従来にないデザイン性の高い画像を得ることができるようにする写真シール作成装置および画像処理方法に関する。   The present technology relates to a photograph sticker creating apparatus and an image processing method, and more particularly to a photograph sticker creating apparatus and an image processing method that can obtain an image with a high design that has not been achieved in the past.

従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。   2. Description of the Related Art Photo stickers installed in amusement facilities and the like are conventionally known. The photo sticker shoots a user and edits the shot image according to the operation of the user. The photo sticker machine prints the edited photographed image on sticker paper.

写真シール機の中には、撮影画像に写る被写体の輪郭に沿って、文字や図形などの装飾画像を合成するものがある。   2. Description of the Related Art Some photo stickers synthesize decorative images such as characters and figures along contours of a subject appearing in a photographed image.

例えば、特許文献1には、写真シール機が、利用者により選択された背景色に応じた色の装飾画像を、撮影画像に合成することが記載されている。   For example, Patent Literature 1 describes that a photo sticker combines a decorative image of a color corresponding to a background color selected by a user with a captured image.

特開2014−149674号公報JP 2014-149675 A

ところで、従来、被写体の要部である顔が隠れるように他の被写体を重畳することは行われていなかった。   By the way, conventionally, it has not been performed to superimpose another subject so that a face, which is a main part of the subject, is hidden.

本技術は、このような状況に鑑みてなされたものであり、従来にないデザイン性の高い画像を得ることができるようにするものである。   The present technology has been made in view of such a situation, and is intended to obtain an image having a high design quality that has not been achieved in the past.

本技術の写真シール作成装置は、被写体を撮影し、撮影画像を生成する撮影処理部と、前記撮影画像の被写体領域をマスクするマスク画像を生成するマスク生成部と、前記マスク画像を用いて、所定のデザインを有するデザイン画像に前記撮影画像を合成する合成部とを備え、前記撮影処理部は、1回の撮影により、第1の撮影画像および第2の撮影画像を生成し、前記マスク生成部は、前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像を生成し、かつ、前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像を生成し、前記合成部は、前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像を合成し、さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像を合成する。 A photograph sticker creating device of the present technology shoots a subject, a shooting processing unit that generates a shot image, a mask generation unit that generates a mask image that masks a subject area of the shot image, and the mask image, A combining unit for combining the photographed image with a design image having a predetermined design, wherein the photographing processing unit generates a first photographed image and a second photographed image by one photographing, and generates the mask. parts, based on the first captured image, first generates a mask image for masking an object area of the first captured image, and, based on the second captured image, the second Generating a second mask image for masking a subject area of the captured image; the combining unit combining the first captured image with the design image using the first mask image; 1 shot image The second mask image is used to combine the subject area of the first captured image with the design image, such that the subject area of the second captured image overlaps a part or the entirety of the face area. The second captured image is synthesized.

本技術の画像処理方法は、被写体を撮影し、撮影画像を生成する撮影処理部と、前記撮影画像の被写体領域をマスクするマスク画像を生成するマスク生成部と、前記マスク画像を用いて、所定のデザインを有するデザイン画像に前記撮影画像を合成する合成部とを備える写真シール作成装置が、1回の撮影により、第1の撮影画像および第2の撮影画像を生成し、前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像を生成し、前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像を生成し、前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像を合成し、さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像を合成するステップを含む。 An image processing method according to an embodiment of the present technology includes: a photographing processing unit that photographs a subject and generates a photographed image; a mask generating unit that generates a mask image that masks a subject region of the photographed image; A photograph sticker creating apparatus comprising: a design unit having a design image having the design described above; and a combining unit configured to combine the photographed image with the design image having the design described above . based on the image, the generating a first mask image for masking the subject area of the first captured image, based on the second captured image, a masking the subject area of the second captured image 2 The first mask image is generated, the first captured image is synthesized with the design image by using the first mask image, and further, the part or all of the face area of the first captured image is combined with the first captured image. Picture 2 So that the subject area of the image overlap, using the second mask image, including the first of said second answering step to synthesize the captured image of the design image in which the subject area is the synthesis of the captured image .

本技術においては、1回の撮影により、第1の撮影画像および第2の撮影画像が生成され、前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像が生成され、前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像が生成され、前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像が合成され、さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像が合成される。 In the present technology, a first photographed image and a second photographed image are generated by one photographing, and based on the first photographed image, a first masked image of a subject area of the first photographed image is formed. mask image is generated based on the second captured image, the second mask image for masking the subject area of the second captured image is generated by using the first mask image, the design The first captured image is combined with the image, and the second mask image is further combined such that the subject region of the second captured image overlaps part or all of the face region of the first captured image. The second captured image is combined with the design image in which the subject area of the first captured image is combined.

本技術によれば、従来にないデザイン性の高い画像を得ることが可能となる。   According to the embodiments of the present technology, it is possible to obtain an image having a high design quality, which has not existed conventionally.

本技術の一実施の形態に係る写真シール作成装置の外観の構成例を示す斜視図である。1 is a perspective view illustrating a configuration example of an appearance of a photo sticker creating device according to an embodiment of the present technology. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photo sticker preparation apparatus from another angle. 利用者の移動について説明する図である。FIG. 4 is a diagram illustrating movement of a user. 事前選択部の構成例を示す図である。It is a figure showing the example of composition of a prior selection part. 撮影部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a photographing unit. 背景部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a background unit. 編集ユニットの正面の構成例を示す図である。It is a figure showing the example of composition of the front of an edit unit. 編集ユニットの側面の構成例を示す図である。It is a figure showing the example of composition of the side of an editing unit. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram showing the example of composition inside a photograph sticker creation device. 制御部の機能構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration example of a control unit. 事前選択処理部の機能構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a functional configuration example of a preselection processing unit. 撮影処理部の機能構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration example of a photographing processing unit. 編集処理部の機能構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a functional configuration example of an editing processing unit. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining a photo sticker creation game process. 事前選択処理について説明するフローチャートである。It is a flowchart explaining a prior selection process. 撮影処理について説明するフローチャートである。It is a flowchart explaining a photography process. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 編集画面の例を示す図である。It is a figure showing an example of an edit screen. オーラ画像が合成された撮影画像の例を示す図である。It is a figure showing the example of the photography picture where the aura picture was combined. オーラ画像合成処理について説明するフローチャートである。It is a flowchart explaining an aura image synthesis process. 人物領域の決定の仕方について説明する図である。It is a figure explaining how to determine a person field. 人物領域の決定の仕方について説明する図である。It is a figure explaining how to determine a person field. オーラ画像が合成される領域について説明する図である。FIG. 5 is a diagram illustrating an area where an aura image is combined. オーラ画像が合成された撮影画像の例を示す図である。It is a figure showing the example of the photography picture where the aura picture was combined. オーラ画像が合成された撮影画像の例を示す図である。It is a figure showing the example of the photography picture where the aura picture was combined. オーラ画像合成処理について説明するフローチャートである。It is a flowchart explaining an aura image synthesis process. オーラ画像が合成される領域について説明する図である。FIG. 5 is a diagram illustrating an area where an aura image is combined. オーラ画像が合成された撮影画像の例を示す図である。It is a figure showing the example of the photography picture where the aura picture was combined. オーラ画像が合成された撮影画像の例を示す図である。It is a figure showing the example of the photography picture where the aura picture was combined. オーラ画像が合成された撮影画像の例を示す図である。It is a figure showing the example of the photography picture where the aura picture was combined. オーラ画像が合成された撮影画像の例を示す図である。It is a figure showing the example of the photography picture where the aura picture was combined. オーラ画像が合成された撮影画像の例を示す図である。It is a figure showing the example of the photography picture where the aura picture was combined. 携帯おまけ作成画面の例を示す図である。It is a diagram showing an example of a mobile bonus creation screen. 携帯おまけ作成画面の例を示す図である。It is a diagram showing an example of a mobile bonus creation screen. 携帯おまけの作成で施されるデザインについて説明する図である。It is a figure explaining the design given in creation of a mobile bonus. 携帯おまけの作成で施されるデザインについて説明する図である。It is a figure explaining the design given in creation of a mobile bonus. 携帯おまけの作成で施されるデザインについて説明する図である。It is a figure explaining the design given in creation of a mobile bonus. 携帯おまけ作成画面の例を示す図である。It is a diagram showing an example of a mobile bonus creation screen. 携帯おまけの作成で施される加工について説明する図である。It is a figure explaining processing performed in creation of a portable extra. 携帯おまけの作成で施される加工について説明する図である。It is a figure explaining processing performed in creation of a portable extra. 携帯専用画像選択画面の例を示す図である。It is a figure showing an example of a mobile exclusive picture selection screen. 携帯専用撮影のガイダンス画面の例を示す図である。It is a figure showing the example of the guidance screen of photography only for carrying. 携帯専用撮影のライブビュー表示画面の例を示す図である。It is a figure showing the example of the live view display screen of photography only for carrying. 携帯専用撮影の撮影結果確認画面の例を示す図である。It is a figure showing the example of the photography result confirmation screen of photography only for carrying. 携帯専用撮影の撮影結果確認画面の例を示す図である。It is a figure showing the example of the photography result confirmation screen of photography only for carrying. 携帯専用画像のレイヤ構成について説明する図である。FIG. 3 is a diagram illustrating a layer configuration of a mobile-only image. 携帯専用撮影処理について説明するフローチャートである。It is a flowchart explaining a mobile-only shooting process. 携帯専用撮影処理の流れについて説明する図である。It is a figure explaining the flow of photography processing only for carrying. 携帯専用撮影処理の流れについて説明する図である。It is a figure explaining the flow of photography processing only for carrying.

以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present technology is applied will be described in detail with reference to the drawings.

<写真シール作成装置の外観構成>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker making device>
1 and 2 are perspective views showing an example of the configuration of the appearance of the photo sticker creating device 1. FIG.

写真シール作成装置1は、撮影画像や編集済み画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高生や女子大生などの若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、1人の利用者がゲームを楽しむこともできる。   The photo sticker creating device 1 is a game machine that provides a photographed image and an edited image. The photo sticker creation device 1 provides an image to a user by printing the image on a sticker or transmitting the image to a server so that the image can be viewed on the user's mobile terminal. The photo sticker creating device 1 is installed in an amusement facility or a store. Users of the photo sticker creating device 1 are mainly young women such as high school girls and female college students. In the photo sticker creation device 1, a plurality of users, such as two or three, can enjoy the game per set. Of course, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   In the photo sticker creating apparatus 1, a user performs a photographing operation with himself / herself as a subject. The user composes an image selected from photographed images obtained by photographing with an image for composition such as a handwritten character or a stamp image by an editing operation. As a result, the captured image is edited into a colorful image. The user receives the sticker sheet on which the edited image, which is the edited image, is printed, and ends the series of games.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。   As shown in FIG. 1, the photo sticker creating device 1 is basically configured by setting the photographing unit 11 and the editing unit 12 in contact with each other.

撮影ユニット11は、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22とは所定の距離だけ離れて設置される。撮影部21と背景部22との間に形成される空間が、撮影処理が行われる撮影空間となる。   The photographing unit 11 includes a preselection unit 20, a photographing unit 21, and a background unit 22. The preselection unit 20 is installed on a side surface of the imaging unit 21. The space in front of the preselection unit 20 is a preselection space where preselection processing is performed. Further, the photographing unit 21 and the background unit 22 are set apart from each other by a predetermined distance. The space formed between the imaging unit 21 and the background unit 22 is the imaging space where the imaging processing is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。   The pre-selection unit 20 performs, as the pre-selection processing, guidance for introducing a game provided by the photo sticker creating device 1, and performs various settings in the shooting processing performed in the shooting space. The preselection unit 20 is provided with a coin slot into which a user inserts a price, a touch panel monitor used for various operations, and the like. The preselection unit 20 guides a user who is in the preselection space to the imaging space as appropriate according to the availability of the imaging space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41B(図3)により構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置されるものとする。なお、事前選択部20は、側面パネル41Bに設置されるようにしてもよいし、側面パネル41A,41Bの両方に設置されるようにしてもよい。   The photographing unit 21 is a device for photographing a user as a subject. The imaging unit 21 is located in front of the user who has entered the imaging space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the imaging unit 21 facing the imaging space. Assuming that the left side is the left side and the right side is the right side when viewed from the user in the photographing space, the left side of the photographing unit 21 is constituted by the side panel 41A, and the right side is constituted by the side panel 41B (FIG. 3). Be composed. Further, the front of the photographing unit 21 is constituted by a front panel 42. It is assumed that the preselection unit 20 described above is installed on the side panel 41A. The preselection unit 20 may be installed on the side panel 41B, or may be installed on both the side panels 41A and 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52B(図3)から構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。   The background portion 22 includes a back panel 51, a side panel 52A, and a side panel 52B (FIG. 3). The back panel 51 is a plate-shaped member located on the back side of the user facing the front. The side panel 52A is a plate-shaped member attached to the left end of the back panel 51 and having a smaller width than the side panel 41A. The side panel 52B is a plate-shaped member attached to the right end of the back panel 51 and having a smaller width than the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23B(図示せず)によって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’(図示せず)によって連結される。   The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A which is a plate-shaped member. The lower part of the side panel 41A and the lower part of the side panel 52A are connected by a connecting part 23A 'which is a metal member provided on the floor surface, for example. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B (not shown). The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B '(not shown).

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as a doorway of the photographing space. Further, an opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as a doorway of the photographing space.

撮影空間の上方には、撮影部21の正面パネル42、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端は連結部23Aに固定され、その他端は連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。   Above the imaging space, a ceiling surrounded by the front panel 42 of the imaging unit 21, the connection unit 23A, and the connection unit 23B is formed. A ceiling strobe unit 24 is provided on a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that irradiates light toward the inside of the shooting space in accordance with shooting. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to the strobe. Thereby, the ceiling strobe unit 24 also functions as illumination of the shooting space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。   The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 such that one side surface is in contact with the front panel 42 of the photographing unit 21.

図1および図2に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集を行うことができる。   Assuming that the configuration of the editing unit 12 shown in FIGS. 1 and 2 is a configuration on the front side, a configuration used for editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can edit at the same time.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール25を支持する支持部65が設けられる。   The front side of the editing unit 12 includes a surface 61 and a slope 62 formed above the surface 61. The surface 61 is a surface perpendicular to the floor surface and substantially parallel to the side panel 41A of the imaging unit 21. The slope 62 is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work. On the left side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. On the right side of the slope 62, a columnar support portion 63B that supports the other end of the lighting device 64 is provided. A support section 65 for supporting the curtain rail 25 is provided on the upper surface of the support section 63A.

編集ユニット12の上方にはカーテンレール25が取り付けられる。カーテンレール25は、3本のレール25A乃至25Cが組み合わされて構成される。3本のレール25A乃至25Cは、上から見たときの形状がコの字状となるように組み合わされる。平行に設けられるレール25Aとレール25Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール25Aとレール25Bの他端は、レール25Cの両端にそれぞれ接合される。   A curtain rail 25 is attached above the editing unit 12. The curtain rail 25 is configured by combining three rails 25A to 25C. The three rails 25A to 25C are combined so that the shape when viewed from above becomes a U-shape. One ends of the rails 25A and 25B provided in parallel are fixed to the connecting portions 23A and 23B, respectively, and the other ends of the rails 25A and 25B are respectively joined to both ends of the rail 25C.

カーテンレール25には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。   A curtain is attached to the curtain rail 25 so that the space in front of the editing unit 12 and the space in front of the editing unit 12 are not visible from the outside. The space in front of the editing unit 12 and the space behind the back of the editing unit 12 surrounded by the curtain serve as an editing space where the user performs editing work.

また、後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。   As will be described later, on the left side surface of the editing unit 12, a discharge port for discharging the printed seal paper is provided. The space in front of the left side of the editing unit 12 is a print waiting space for the user to wait for the printed seal paper to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成装置1を上から見た平面図である。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described. FIG. 3 is a plan view of the photo sticker creating device 1 as viewed from above.

まず、利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の選択操作を行う。利用者は、例えば、撮影空間で行われる撮影処理のコース選択や、撮影画像の背景選択を事前選択作業として行う。   First, the user inserts money into a coin insertion slot in a preselection space A0 which is a space in front of the preselection unit 20. Next, the user performs various selection operations according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course of a photographing process performed in a photographing space and background selection of a photographed image as preselection work.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。そして利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。   The user who has completed the pre-selection work can take a photographing space A1 formed between the photographing unit 21 and the background unit 22 from the entrance G1 between the side panel 41A and the side panel 52A as indicated by a white arrow # 1. to go into. Then, the user performs a photographing operation using a camera or a touch panel monitor provided in the photographing unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G2から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G1から撮影空間A1を出て編集空間A2−2に移動する。   After completing the photographing operation, the user exits the photographing space A1 from the entrance G2 and moves to the editing space A2-1 as shown by the outline arrow # 2, or moves to the entrance G1 as shown by the outline arrow # 3. Out of the photographing space A1 and move to the editing space A2-2.

編集空間A2−1は、編集ユニット12の背面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の正面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。   The editing space A2-1 is an editing space on the back side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the front side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 the user moves to is guided by a screen display on a touch panel monitor of the photographing unit 21 or the like. For example, a vacant one of the two editing spaces is guided as a destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。   After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the outline arrow # 4. Further, the user who has completed the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as shown by the outline arrow # 5.

印刷待ち空間A3に移動した利用者は、画像の印刷の終了を待つ。印刷が終了すると、利用者は、編集ユニット12の左側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。   The user who has moved to the print waiting space A3 waits for the end of printing the image. When the printing is completed, the user receives the seal paper discharged from the discharge port provided on the left side surface of the editing unit 12, and ends a series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of preselection unit>
FIG. 4 is a diagram illustrating a configuration example of the preselection unit 20.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、撮影処理のコース選択や、撮影画像の背景選択などを行わせる事前選択処理に用いられる画面が表示される。   A touch panel monitor 71 is provided above the preselection unit 20. The touch panel monitor 71 is configured by a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated on the monitor. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting a user's selection operation. The touch panel monitor 71 displays a screen used for a pre-selection process for selecting a course of the shooting process, selecting a background of the shot image, and the like.

タッチパネルモニタ71の下方には、2つのスピーカ72が設けられる。2つのスピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。また、2つのスピーカ72に挟まれるようにして、利用者が硬貨を投入する硬貨投入返却口73が設けられる。   Below the touch panel monitor 71, two speakers 72 are provided. The two speakers 72 output guidance voice, BGM (Back Ground Music), sound effects, and the like for the preselection process. Further, a coin insertion / return port 73 into which a user inserts a coin is provided so as to be sandwiched between the two speakers 72.

<撮影部の構成>
図5は、撮影部21の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Configuration of imaging unit>
FIG. 5 is a diagram illustrating a configuration example of the imaging unit 21. The imaging unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91およびタッチパネルモニタ92から構成される。   At the center of the front panel 42, a camera unit 81 is provided. The camera unit 81 includes a camera 91 and a touch panel monitor 92.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。   The camera 91 is, for example, a single-lens reflex camera, and is mounted inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and shoots a user in the shooting space A1. A moving image (hereinafter, also referred to as a live view image) captured by the camera 91 is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when a photographing instruction is given is stored as a photographed image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。   The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 includes a monitor such as an LCD and a touch panel laminated on the monitor. The touch panel monitor 92 has a function as a live view monitor for displaying a moving image captured by the camera 91, and a function for displaying various GUIs and receiving a user's selection operation. On the touch panel monitor 92, a moving image (live view image) or a still image (captured image) captured by the camera 91 is displayed.

なお、詳細は後述するが、カメラユニット81は、行われる撮影の種類によって、上下方向に可動する構造を有し、その高さが調整可能される。また、カメラ91は、仰角または俯角(以下、チルト角ともいう)が調整可能される。   Although details will be described later, the camera unit 81 has a structure that is movable in the vertical direction depending on the type of shooting to be performed, and the height thereof can be adjusted. The camera 91 can adjust an elevation angle or a depression angle (hereinafter, also referred to as a tilt angle).

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、上方から利用者の顔および上半身に光を照射する。カメラユニット81の利用者から見て左側には、前方左側から利用者に光を照射する左ストロボ83が設置される。カメラユニット81の利用者から見て右側には、前方右側から利用者に光を照射する右ストロボ84が設置される。また、カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボ85が設置される。   Above the camera unit 81, an upper strobe 82 with a curved light-emitting surface facing the user is installed. The upper strobe 82 emits light to the user's face and upper body from above. On the left side as viewed from the user of the camera unit 81, a left strobe light 83 for irradiating the user with light from the front left side is installed. On the right side as viewed from the user of the camera unit 81, a right strobe 84 for irradiating the user with light from the front right side is installed. Below the camera unit 81, a foot strobe 85 for irradiating light to the lower body and feet of the user is provided.

足元ストロボ85の左右両側には空間が設けられる。これらの空間は、利用者が手荷物などを置くための荷物置き場となる。また、図示はしないが、正面パネル42の例えば天井付近にはスピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。   Spaces are provided on both left and right sides of the foot strobe 85. These spaces serve as luggage storage areas for users to store luggage and the like. Although not shown, a speaker is provided on the front panel 42, for example, near the ceiling. The speaker outputs guidance sound, BGM, sound effects, and the like for the photographing process.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background part>
FIG. 6 is a diagram illustrating a configuration example of the background unit 22 on the imaging space A1 side.

背面パネル51の撮影空間A1側(図中、手前側)の面には、背面カーテン121が貼り付けられる。背面カーテン121の色は、例えば緑色とされる。また、図示はしないが、側面パネル52A,52Bそれぞれの撮影空間A1側にも、背面カーテン121と同様の側面カーテンが貼り付けられる。側面カーテンの色は、背面カーテン121の色と同一とする。   A rear curtain 121 is attached to a surface of the rear panel 51 on the photographing space A1 side (the front side in the figure). The color of the back curtain 121 is, for example, green. Although not shown, a side curtain similar to the back curtain 121 is also attached to the imaging space A1 side of each of the side panels 52A and 52B. The color of the side curtain is the same as the color of the back curtain 121.

これらのカーテンはクロマキー用のカーテンとして用いられる。これにより、撮影画像に対してクロマキー処理を施し、利用者が所望する背景画像を、撮影画像の背景部分に合成することができる。なお、これらのカーテンの色は、クロマキー処理を行うことができる色であればよく、青色など、その他の色であってもよい。   These curtains are used as chroma key curtains. Thereby, the chroma key processing is performed on the photographed image, and the background image desired by the user can be synthesized with the background portion of the photographed image. The color of these curtains may be any color that can perform chroma key processing, and may be other colors such as blue.

<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2−2側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 7 is a diagram illustrating a configuration example of the front side (the editing space A2-2 side) of the editing unit 12.

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided substantially at the center of the slope 62. A touch pen 132A is provided on the left side of the monitor 131 with a built-in tablet. A touch pen 132B is provided on the right side of the tablet built-in monitor 131.

タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。   The tablet built-in monitor 131 is configured such that the tablet is provided so as to expose the display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. On the tablet built-in monitor 131, for example, an editing screen used for editing work is displayed. When two users perform editing work at the same time, the touch pen 132A is used by a user on the left side toward the tablet built-in monitor 131, and the touch pen 132B is used by a user on the right side toward the tablet built-in monitor 131. .

図8は、編集ユニット12の左側面の構成例を示す図である。   FIG. 8 is a diagram illustrating a configuration example of the left side surface of the editing unit 12.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウト(以下、シールレイアウトという)でシール紙に印刷され、シール紙排出口161から排出される。   A seal paper outlet 161 is provided below the left side surface of the editing unit 12. A printer is provided inside the editing unit 12. The printer prints an image of a user of the editing space A2-1 or an image of a user of the editing space A2-2 on a sticker sheet in a predetermined layout (hereinafter referred to as a sticker layout). It is discharged from the outlet 161.

<写真シール作成装置の内部構成>
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 9 is a block diagram showing an example of the internal configuration of the photo sticker creating device 1. As shown in FIG. In FIG. 9, the same components as those described above are denoted by the same reference numerals. Duplicate descriptions will be omitted as appropriate.

制御部201は、CPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択部208、撮影部209、編集部210A,210B、および印刷部211の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like. The control unit 201 executes a program stored in a ROM (Read Only Memory) 206 or a storage unit 202, and controls the overall operation of the photo sticker creating device 1. The storage unit 202, the communication unit 203, the drive 204, the ROM 206, and the RAM (Random Access Memory) 207 are connected to the control unit 201. Each component of the preselection unit 208, the imaging unit 209, the editing units 210A and 210B, and the printing unit 211 is also connected to the control unit 201.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 202 stores various setting information and the like supplied from the control unit 201. The information stored in the storage unit 202 is appropriately read by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。   The communication unit 203 is an interface of a network such as the Internet. The communication unit 203 communicates with an external device under the control of the control unit 201. The communication unit 203 transmits, for example, a photographed image or an edited image selected by the user to the server. The image transmitted from the communication unit 203 is allocated and stored in a predetermined storage area in the server, and is displayed or downloaded on a portable terminal accessing the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   In the drive 204, a removable medium 205 formed of an optical disk, a semiconductor memory, or the like is appropriately mounted. The programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored or installed in the storage unit 202.

ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

事前選択部208は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部208は、タッチパネルモニタ71、スピーカ72、および硬貨処理部221から構成される。   The preselection unit 208 implements a preselection process for a user in the preselection space A0. The preselection unit 208 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 221.

タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。   The touch panel monitor 71 displays various selection screens under the control of the control unit 201, and accepts a user operation on the selection screen. An input signal indicating the content of the user's operation is supplied to the control unit 201, and various settings are performed.

硬貨処理部221は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of a coin into the coin return slot 73. When detecting that a predetermined amount of coins, such as 400 yen, has been inserted, the coin processing unit 221 outputs a start signal instructing the start of the game to the control unit 201.

撮影部209は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部209は、照明装置231、カメラ91、タッチパネルモニタ92、およびスピーカ232から構成される。   The imaging unit 209 implements imaging processing for a user who is in the imaging space A1. The imaging unit 209 includes an illumination device 231, a camera 91, a touch panel monitor 92, and a speaker 232.

照明装置231は、撮影空間A1内の各ストロボであり、制御部201から供給される照明制御信号に従って発光する。   The illumination device 231 is each strobe in the photographing space A1 and emits light in accordance with an illumination control signal supplied from the control unit 201.

カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。   The camera 91 performs shooting in accordance with shutter control by the control unit 201 and outputs a shot image (image data) obtained by shooting to the control unit 201.

編集部210Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部210Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ241から構成される。編集部210Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部210Aと同一の構成を有する。なお、以下、編集部210A,210Bを特に区別しない場合には、単に、編集部210という。   The editing unit 210A implements an editing process for a user in the editing space A2-1. The editing unit 210A includes a monitor 131 with a built-in tablet, touch pens 132A and 132B, and a speaker 241. The editing unit 210B implements an editing process for a user in the editing space A2-2, and has the same configuration as the editing unit 210A. In the following, the editing units 210A and 210B are simply referred to as the editing unit 210 unless particularly distinguished.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。   The tablet built-in monitor 131 displays the editing screen according to the control of the control unit 201, and accepts a user operation on the editing screen. An input signal indicating the content of the user operation is supplied to the control unit 201, and the captured image to be edited is edited.

印刷部211は、印刷待ち空間A3にいる利用者に、印刷済みのシール紙を提供する印刷処理を実現する。印刷部211は、プリンタ251を含むように構成される。プリンタ251にはシール紙ユニット252が装着される。   The printing unit 211 implements a print process of providing a printed seal sheet to a user in the print waiting space A3. The printing unit 211 is configured to include the printer 251. The printer 251 has a seal paper unit 252 mounted thereon.

プリンタ251は、制御部201から供給された印刷データに基づいて、編集画像をシール紙ユニット252に収納されているシール紙261に印刷し、シール紙排出口161に排出する。   The printer 251 prints the edited image on the seal paper 261 stored in the seal paper unit 252 based on the print data supplied from the control unit 201, and discharges the edited image to the seal paper outlet 161.

<制御部の構成>
図10は、制御部201の機能構成例を示すブロック図である。図10に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Configuration of control unit>
FIG. 10 is a block diagram illustrating a functional configuration example of the control unit 201. At least a part of the functional units illustrated in FIG. 10 is realized by executing a predetermined program by the CPU in the control unit 201.

制御部201は、事前選択処理部301、撮影処理部302、編集処理部303、および印刷処理部304から構成される。   The control unit 201 includes a preselection processing unit 301, a photographing processing unit 302, an editing processing unit 303, and a print processing unit 304.

事前選択処理部301は、事前選択部208の各部を制御することで、事前選択処理を行う。撮影処理部302は、撮影部209の各部を制御することで、撮影処理を行う。編集処理部303は、編集部210の各部を制御することで、編集処理を行う。印刷処理部304は、印刷部211のプリンタ251を制御することで、印刷処理を行う。   The preselection processing unit 301 performs a preselection process by controlling each unit of the preselection unit 208. The photographing processing unit 302 performs a photographing process by controlling each unit of the photographing unit 209. The editing processing unit 303 performs an editing process by controlling each unit of the editing unit 210. The print processing unit 304 performs a print process by controlling the printer 251 of the print unit 211.

<事前選択処理部の構成例>
図11は、事前選択処理部301の機能構成例を示すブロック図である。
<Configuration example of preselection processing unit>
FIG. 11 is a block diagram illustrating a functional configuration example of the preselection processing unit 301.

事前選択処理部301は、表示制御部311、入力受付部312、およびガイダンス出力制御部313から構成される。   The preselection processing unit 301 includes a display control unit 311, an input reception unit 312, and a guidance output control unit 313.

表示制御部311は、タッチパネルモニタ71の表示を制御する。例えば、表示制御部311は、撮影空間において行われる撮影処理のコース選択のための選択画面や、撮影画像の背景選択のための選択画面をタッチパネルモニタ71に表示させる。   The display control unit 311 controls display on the touch panel monitor 71. For example, the display control unit 311 causes the touch panel monitor 71 to display a selection screen for selecting a course of a shooting process performed in a shooting space or a selection screen for selecting a background of a shot image.

入力受付部312は、タッチパネルモニタ71に対する、利用者の操作入力を受け付ける。具体的には、入力受付部312は、タッチパネルモニタ71に表示された選択画面に対する選択の操作入力を受け付ける。   The input receiving unit 312 receives a user's operation input to the touch panel monitor 71. Specifically, the input receiving unit 312 receives a selection operation input on the selection screen displayed on the touch panel monitor 71.

ガイダンス出力制御部313は、各種の選択操作を説明するガイダンスの出力を制御する。ガイダンス出力制御部313は、各種の選択操作を説明する画面をタッチパネルモニタ71に表示させたり、各種の選択操作を説明する音声をスピーカ72から出力させたりする。   The guidance output control unit 313 controls the output of guidance explaining various selection operations. The guidance output control unit 313 causes the touch panel monitor 71 to display a screen explaining various selection operations, and causes the speaker 72 to output sounds explaining various selection operations.

<撮影処理部の構成例>
図12は、撮影処理部302の機能構成例を示すブロック図である。
<Example of configuration of photographing processing unit>
FIG. 12 is a block diagram illustrating a functional configuration example of the photographing processing unit 302.

撮影処理部302は、表示制御部321、入力受付部322、撮影制御部323、画像処理部324、およびガイダンス出力制御部325から構成される。   The photographing processing unit 302 includes a display control unit 321, an input receiving unit 322, a photographing control unit 323, an image processing unit 324, and a guidance output control unit 325.

表示制御部321は、タッチパネルモニタ92の表示を制御する。例えば、表示制御部321は、タッチパネルモニタ92に、カメラ91に取り込まれたライブビュー画像を表示させたり、撮影結果である撮影画像を表示させたりする。   The display control unit 321 controls display on the touch panel monitor 92. For example, the display control unit 321 causes the touch panel monitor 92 to display a live view image captured by the camera 91 or to display a captured image as a captured result.

入力受付部322は、タッチパネルモニタ92に対する、利用者の操作入力を受け付ける。   The input receiving unit 322 receives a user's operation input to the touch panel monitor 92.

撮影制御部323は、カメラ91を制御することで、利用者を被写体として撮影し、撮影画像を生成する。   The photographing control unit 323 controls the camera 91 to photograph a user as a subject and generate a photographed image.

画像処理部324は、カメラ91に取り込まれたライブビュー画像や撮影画像に所定の画像処理を施す。   The image processing unit 324 performs predetermined image processing on the live view image or the captured image captured by the camera 91.

ガイダンス出力制御部325は、撮影作業の進め方などを説明するガイダンスの出力を制御する。ガイダンス出力制御部325は、撮影作業の進め方などを説明する画面をタッチパネルモニタ92に表示させたり、撮影作業の進め方などを説明する音声をスピーカ232から出力させたりする。   The guidance output control unit 325 controls the output of guidance for explaining how to proceed with the photographing operation. The guidance output control unit 325 causes the touch panel monitor 92 to display a screen that describes how to proceed with the photographing operation, and causes the speaker 232 to output audio that describes how to proceed with the photographing operation.

<編集処理部の構成例>
図13は、編集処理部303の機能構成例を示すブロック図である。
<Configuration example of editing processing unit>
FIG. 13 is a block diagram illustrating a functional configuration example of the editing processing unit 303.

編集処理部303は、表示制御部331、入力受付部332、画像処理部333、編集部334、ガイダンス出力制御部335、および通信制御部336から構成される。   The editing processing unit 303 includes a display control unit 331, an input receiving unit 332, an image processing unit 333, an editing unit 334, a guidance output control unit 335, and a communication control unit 336.

表示制御部331は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部331は、タブレット内蔵モニタ131に、撮影画像に施される画像処理の内容の選択のための選択画面や、利用者による編集作業のための編集画面を表示させる。   The display control unit 331 controls display on the tablet built-in monitor 131. For example, the display control unit 331 causes the tablet built-in monitor 131 to display a selection screen for selecting the content of image processing to be performed on the captured image or an editing screen for editing by the user.

入力受付部332は、タブレット内蔵モニタ131に対する、タッチペン132A,132Bを用いた利用者の操作入力を受け付ける。例えば、入力受付部312は、選択画面に対する画像処理の内容の選択や、編集画面に対する入力を受け付ける。   The input receiving unit 332 receives a user's operation input to the tablet built-in monitor 131 using the touch pens 132A and 132B. For example, the input receiving unit 312 receives selection of the content of the image processing on the selection screen and input on the editing screen.

画像処理部333は、選択画面に対する選択操作に応じて、撮影画像に所定の画像処理を施す。   The image processing unit 333 performs predetermined image processing on the captured image according to a selection operation on the selection screen.

編集部334は、編集画面に対する入力操作に応じて、撮影画像に編集を施す。   The editing unit 334 edits a captured image according to an input operation on the editing screen.

ガイダンス出力制御部335は、編集作業の進め方などを説明するガイダンスの出力を制御する。ガイダンス出力制御部335は、編集作業の進め方などを説明する画面をタブレット内蔵モニタ131に表示させたり、編集作業の進め方などを説明する音声をスピーカ241から出力させたりする。   The guidance output control unit 335 controls output of guidance for explaining how to proceed with editing work and the like. The guidance output control unit 335 displays a screen explaining how to proceed with the editing work on the monitor 131 with a built-in tablet, and causes the speaker 241 to output a sound explaining how to proceed with the editing work.

通信制御部336は、通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。例えば、通信制御部336は、通信部203を制御することで、撮影処理において得られた撮影画像や、編集処理において得られた編集画像を、外部のサーバへ送信する。   The communication control unit 336 controls the communication unit 203 and performs processing related to communication via a network such as the Internet. For example, the communication control unit 336 controls the communication unit 203 to transmit a photographed image obtained in the photographing process and an edited image obtained in the editing process to an external server.

<写真シール作成装置の動作>
ここで、図14のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of the photo sticker creation device>
Here, the operation of the photo sticker creating device 1 that provides the photo sticker creating game will be described with reference to the flowchart of FIG.

ステップS1において、事前選択処理部301は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部221から供給される起動信号に基づいて判定する。事前選択処理部301は、硬貨が投入されたと判定するまで待機する。   In step S <b> 1, the preselection processing unit 301 determines whether a predetermined amount of coins has been inserted based on the activation signal supplied from the coin processing unit 221. The preselection processing unit 301 waits until it is determined that a coin has been inserted.

ステップS1において、硬貨が投入されたと判定された場合、処理はステップS2に進む。ステップS2において、事前選択処理部301は、事前選択部208を制御することで、事前選択処理を行う。具体的には、事前選択処理部301は、撮影空間で行われる撮影処理のコース選択や、撮影画像の背景選択などを利用者に行わせることで、各種の設定を行う。   If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2. In step S2, the preselection processing unit 301 performs a preselection process by controlling the preselection unit 208. Specifically, the pre-selection processing unit 301 performs various settings by allowing the user to select a course of a shooting process performed in a shooting space, select a background of a shot image, and the like.

ステップS3において、撮影処理部302は、撮影部209を制御することで、撮影処理を行う。具体的には、撮影処理部302は、カメラ91に取り込まれた被写体のライブビュー画像をタッチパネルモニタ92に表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を生成する。   In step S3, the imaging processing unit 302 performs an imaging process by controlling the imaging unit 209. Specifically, the photographing processing unit 302 displays a live view image of the subject captured by the camera 91 on the touch panel monitor 92, captures a user in the capturing space A1 as a subject, and generates a captured image.

ステップS4において、編集処理部303は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部210を制御することで、編集処理を行う。具体的には、編集処理部303は、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせることで、編集が施された編集画像を生成する。   In step S4, the editing processing unit 303 controls the editing unit 210 corresponding to the editing space that is the destination of the user who has completed the shooting process, out of the editing space A2-1 and the editing space A2-2. The editing process is performed. More specifically, the editing processing unit 303 generates an edited image by causing the user to perform an editing operation on the captured image obtained by the capturing processing.

ステップS5において、印刷処理部304は、プリンタ251を制御することで、印刷処理を行う(開始する)。具体的には、印刷処理部304は、編集処理により得られた編集画像を、プリンタ251に出力してシール紙に印刷する。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。   In step S5, the print processing unit 304 performs (starts) print processing by controlling the printer 251. Specifically, the print processing unit 304 outputs the edited image obtained by the editing process to the printer 251 and prints it on a sticker sheet. Note that the photographed image obtained by the photographing process may be printed on a sticker sheet.

印刷が終了すると、ステップS6において、プリンタ251は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。   When the printing is completed, in step S6, the printer 251 discharges the seal paper on which the image is printed to the seal paper discharge port 161 and ends the process.

<事前選択処理の詳細>
次に、図15のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS2の事前選択処理の詳細について説明する。
<Details of preselection process>
Next, the details of the pre-selection process of step S2 in the series of processes of the above-described photo sticker creation game will be described with reference to the flowchart of FIG.

事前選択処理が開始されると、ステップS11において、表示制御部311は、人数コース選択画面をタッチパネルモニタ71に表示させる。   When the preselection process is started, in step S11, the display control unit 311 causes the touch panel monitor 71 to display a number course selection screen.

人数コース選択画面は、利用者の人数に応じて行われる撮影の種類を決定する人数コースの選択に用いられる画面である。人数コースには、利用者が2人の場合に適した撮影が行われる2人用コースと、利用者が3人以上、特に4人以上の場合に適した撮影が行われる大人数コースとがある。   The number-of-person course selection screen is a screen used to select a number-of-person course that determines the type of shooting to be performed according to the number of users. The number of people course includes a two-person course where shooting is suitable for two users and a large number course where shooting is suitable for three or more, especially four or more users. is there.

人数コース選択画面が操作されることによって、入力受付部312は、人数コースの選択を受け付ける。いずれかの人数コースの選択が受け付けられると、処理はステップS12に進む。   By operating the number course selection screen, the input receiving unit 312 receives the selection of the number course. When the selection of any one of the number courses is accepted, the process proceeds to step S12.

ステップS12において、表示制御部311は、背景コース選択画面をタッチパネルモニタ71に表示させる。   In step S12, the display control unit 311 causes the touch panel monitor 71 to display a background course selection screen.

背景コース選択画面は、撮影により得られる撮影画像の背景の種類を決定する背景コースの選択に用いられる画面である。背景コースには、「KUROコース」と「IROコース」とがある。「KUROコース」は、背景の色として彩度の低い黒や白を基調とした色を用意することで、撮影画像の仕上がりを洗練された落ち着いた雰囲気にするための背景コースである。「IROコース」は、背景の色として彩度の高い原色を基調とした色を用意することで、撮影画像の仕上がりを華やかな雰囲気にするための背景コースである。   The background course selection screen is a screen used to select a background course that determines the type of background of a captured image obtained by shooting. The background course includes a “KURO course” and an “IRO course”. The "KURO course" is a background course for preparing a finished image with a sophisticated and calm atmosphere by preparing a color based on low saturation black or white as the background color. The “IRO course” is a background course for preparing a captured image with a gorgeous atmosphere by preparing colors based on highly saturated primary colors as background colors.

背景コース選択画面が操作されることによって、入力受付部312は、背景コースの選択を受け付ける。このとき、ステップS11において、人数コースとして2人用コースの選択が受け付けられている場合、処理はステップS13に進む。   By operating the background course selection screen, the input receiving unit 312 receives the selection of the background course. At this time, in step S11, when the selection of the two-person course is accepted as the number course, the process proceeds to step S13.

ステップS13において、表示制御部311は、全身撮影枚数選択画面をタッチパネルモニタ71に表示させる。   In step S13, the display control unit 311 causes the touch panel monitor 71 to display a screen for selecting the number of whole-body shots.

全身撮影枚数選択画面は、全身撮影により得られる撮影画像の枚数(全身撮影が行われる回数)の選択に用いられる画面である。   The whole body photographing number selection screen is a screen used for selecting the number of photographed images obtained by the whole body photographing (the number of times the whole body photographing is performed).

本実施の形態の撮影処理においては、合計6回の撮影が行われる。詳細は後述するが、そのうちの6回目の撮影は、利用者が所有する携帯端末に送信するためだけの携帯送信専用の画像を得るための撮影(以下、適宜、携帯専用撮影という)とされる。一方、1乃至5回目の撮影により得られる撮影画像は、編集処理の対象とされてシール紙に印刷されることはもちろん、携帯端末に送信される対象にもなり得る。   In the photographing process of the present embodiment, a total of six times of photographing are performed. Although the details will be described later, the sixth shooting is an imaging for obtaining an image dedicated to mobile transmission only for transmission to a mobile terminal owned by the user (hereinafter, appropriately referred to as mobile-only imaging). . On the other hand, the captured image obtained by the first to fifth captures is not only the target of the editing process and is printed on the sticker paper but also the target transmitted to the mobile terminal.

全身撮影枚数選択画面においては、その1乃至5回目の撮影のうち、全身撮影が行われる回数が利用者により選択される。1乃至5回目の撮影のうち、全身撮影が行われる回数として4回以下の回数が選択された場合、全身撮影以外の残りの撮影として、アップ撮影が行われる。また、全身撮影が行われる回数として5回が選択された場合、全身撮影のみが行われ、アップ撮影は行われないようになる。   On the whole body photographing number selection screen, the number of times the whole body photographing is performed is selected by the user from the first to fifth photographings. When four or less times are selected as the number of times of performing the whole-body imaging from the first to fifth times, the up imaging is performed as the remaining imaging other than the whole-body imaging. Also, when five times are selected as the number of times the whole-body imaging is performed, only the whole-body imaging is performed and the up-photographing is not performed.

ここで、全身撮影は、利用者の全身を撮影するための撮影とされ、アップ撮影は、主に利用者の顔および上半身を撮影するための撮影とされる。そして、全身撮影には、利用者の全身を利用者の正面から撮影する正面全身撮影と、利用者の全身を利用者の斜め上から撮影する上から全身撮影の2種類がある。すなわち、全身撮影には、異なる撮影アングルで行われる2種類の全身撮影がある。   Here, the whole body photographing is taken for photographing the whole body of the user, and the close-up photographing is mainly taken for photographing the face and upper body of the user. There are two types of whole-body imaging: frontal full-body imaging where the whole body of the user is imaged from the front of the user, and full-body imaging where the whole body of the user is imaged from obliquely above the user. That is, there are two types of whole-body imaging performed at different imaging angles in full-body imaging.

全身撮影枚数選択画面が操作されることによって、入力受付部312は、全身撮影の回数の選択を受け付ける。いずれかの回数の選択が受け付けられると、処理はステップS14に進む。   By operating the whole body imaging number selection screen, the input receiving unit 312 receives selection of the number of times of whole body imaging. When the selection of any number is accepted, the process proceeds to step S14.

ステップS14において、表示制御部311は、全身撮影種類選択画面をタッチパネルモニタ71に表示させる。   In step S14, the display control unit 311 causes the touch panel monitor 71 to display a whole body imaging type selection screen.

全身撮影種類選択画面は、全身撮影枚数選択画面において選択された回数だけ行われる全身撮影の種類の選択に用いられる画面である。全身撮影の種類には、上述した正面全身撮影と上から全身撮影とがある。   The whole body imaging type selection screen is a screen used for selecting the type of the whole body imaging to be performed the number of times selected in the whole body imaging number selection screen. The types of whole-body imaging include the above-described full-body imaging from the front and the whole-body imaging from above.

全身撮影種類選択画面が操作されることによって、入力受付部312は、行われる全身撮影それぞれの種類の選択を受け付ける。行われる全身撮影それぞれの種類の選択が受け付けられると、処理はステップS15に進む。   By operating the whole body imaging type selection screen, the input receiving unit 312 receives selection of each type of whole body imaging to be performed. When the selection of each type of the whole body imaging to be performed is received, the process proceeds to step S15.

一方、ステップS12の後、ステップS11において、人数コースとして大人数コースの選択が受け付けられている場合、ステップS13,S14はスキップされ、処理はステップS15に進む。   On the other hand, after step S12, in step S11, when the selection of the large number course is accepted as the number course, steps S13 and S14 are skipped, and the process proceeds to step S15.

ステップS15において、表示制御部311は、背景選択画面をタッチパネルモニタ71に表示させる。   In step S15, the display control unit 311 causes the touch panel monitor 71 to display a background selection screen.

背景選択画面は、撮影により得られる撮影画像の背景となる背景画像の選択に用いられる画面である。背景選択画面には、ステップS12において選択された背景コースに対応した背景画像が複数枚表示される。利用者は、その複数枚の背景画像の中から、撮影処理において行われる撮影により得られる撮影画像の枚数と同じ数、すなわち5枚の背景画像を選択することができる。   The background selection screen is a screen used for selecting a background image that is a background of a captured image obtained by shooting. On the background selection screen, a plurality of background images corresponding to the background course selected in step S12 are displayed. The user can select, from the plurality of background images, the same number as the number of captured images obtained by the imaging performed in the imaging processing, that is, five background images.

背景選択画面が操作されることによって、入力受付部312は、背景画像の選択を受け付ける。5枚の背景画像の選択が受け付けられると、処理はステップS16に進む。   By operating the background selection screen, the input receiving unit 312 receives selection of a background image. When the selection of the five background images is received, the process proceeds to step S16.

ステップS16において、表示制御部311は、BGM選択画面をタッチパネルモニタ71に表示させる。   In step S16, the display control unit 311 causes the touch panel monitor 71 to display a BGM selection screen.

BGM選択画面は、撮影空間において流れるBGMの選択に用いられる画面である。BGM選択画面には、BGMの候補を表すボタンが設けられ、利用者は、その中から、いずれかのボタンを選択することができる。   The BGM selection screen is a screen used for selecting BGM flowing in the shooting space. The BGM selection screen is provided with buttons representing BGM candidates, and the user can select any one of the buttons.

BGM選択画面が操作されることによって、入力受付部312は、BGMの選択を受け付ける。BGMの選択が受け付けられると、処理はステップS17に進む。   By operating the BGM selection screen, the input receiving unit 312 receives the selection of BGM. When the selection of BGM is accepted, the process proceeds to step S17.

ステップS17において、表示制御部311は、携帯専用画像選択画面をタッチパネルモニタ71に表示させる。   In step S17, the display control unit 311 causes the touch panel monitor 71 to display a mobile-only image selection screen.

携帯専用画像選択画面は、6回目の撮影(携帯専用撮影)により取得される撮影画像に合成するデザイン画像の選択に用いられる画面である。デザイン画像は、複数の背景画像や前景画像が組み合わされて構成される画像である。デザイン画像は、その合成後の撮影画像を、携帯端末での表示に相応しい、綺麗で繊細なデザインを有するものとするための画像である。すなわち、デザイン画像が撮影画像に合成されることで、その撮影画像の仕上がりはデザイン性の高いものとなる。   The mobile-only image selection screen is a screen used to select a design image to be synthesized with a captured image obtained by the sixth shooting (mobile-only shooting). The design image is an image configured by combining a plurality of background images and foreground images. The design image is an image for making the captured image after the synthesis have a beautiful and delicate design suitable for display on a mobile terminal. That is, by combining the design image with the photographed image, the finish of the photographed image has high designability.

携帯専用画像選択画面が操作されることによって、入力受付部312は、デザイン画像の選択を受け付ける。デザイン画像の選択が受け付けられると、処理はステップS18に進む。   By operating the mobile-only image selection screen, the input receiving unit 312 receives a selection of a design image. When the selection of the design image is accepted, the process proceeds to step S18.

ステップS18において、ガイダンス出力制御部313は、事前選択空間A0にいる利用者に対して、撮影空間A1への移動を案内する。撮影空間A1への移動の案内は、タッチパネルモニタ71に案内画面を表示させることによって、または音声をスピーカ72から出力させることによって行われる。   In step S18, the guidance output control unit 313 guides the user in the pre-selected space A0 to move to the shooting space A1. The guidance of the movement to the photographing space A1 is performed by displaying a guidance screen on the touch panel monitor 71 or outputting sound from the speaker 72.

<撮影処理の詳細>
次に、図16のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS3の撮影処理の詳細について説明する。
<Details of shooting processing>
Next, with reference to the flowchart of FIG. 16, the details of the photographing process of step S3 in the series of processes of the above-described photo sticker creation game will be described.

撮影処理が開始されると、ガイダンス出力制御部325が、撮影の仕方を説明する画面をタッチパネルモニタ92に表示させる。その後、ライブビュー画像がタッチパネルモニタ92に表示された状態で撮影のタイミングになったとき、ステップS31において、撮影制御部323は、1回目の撮影を行う。表示制御部321は、撮影によって得られた静止画像である撮影画像をタッチパネルモニタ92に表示させる。利用者は、1回目の撮影結果を確認しながら、次の撮影の準備を行うことができる。   When the photographing process is started, the guidance output control unit 325 causes the touch panel monitor 92 to display a screen explaining how to photograph. Thereafter, when it is time to shoot while the live view image is displayed on the touch panel monitor 92, the shooting control unit 323 performs the first shooting in step S31. The display control unit 321 causes the touch panel monitor 92 to display a photographed image that is a still image obtained by photographing. The user can prepare for the next photographing while checking the result of the first photographing.

その後、2回目以降の撮影が行われる。すなわち、2回目の撮影タイミングになったとき、ステップS32において、撮影制御部323は、2回目の撮影を行う。   Thereafter, the second and subsequent shootings are performed. That is, when the second shooting timing comes, in step S32, the shooting control unit 323 performs the second shooting.

同様にして、ステップS33乃至S35において、撮影制御部323は、それぞれ3乃至5回目の撮影を行う。   Similarly, in steps S33 to S35, the imaging control unit 323 performs third to fifth imaging, respectively.

なお、このようにして5回行われる撮影は、事前選択処理において選択された人数コースによって異なる。   Note that the shooting performed five times in this manner differs depending on the number of courses selected in the preselection process.

具体的には、事前選択処理において、人数コースとして2人用コースが選択されている場合には、5回行われる撮影のうち、利用者に選択された回数、利用者に選択された種類の全身撮影が行われ、全身撮影以外の残りの撮影としてアップ撮影が行われる。   Specifically, in the pre-selection processing, when the two-person course is selected as the number course, the number of times selected by the user and the type of the type selected by the user among the five shootings are performed. Full-body photography is performed, and up-photography is performed as the remaining photography other than full-body photography.

なお、アップ撮影、正面全身撮影、および上から全身撮影のそれぞれにおいて、カメラユニット81の高さ、および、カメラ91のチルト角が、撮影制御部323によって制御される。   Note that the height of the camera unit 81 and the tilt angle of the camera 91 are controlled by the shooting control unit 323 in each of the up shooting, the front whole body shooting, and the whole body shooting from above.

具体的には、正面全身撮影が行われるときのカメラユニット81の高さ(以下、カメラ高さという)およびカメラ91のチルト角(カメラ91のレンズの光軸が水平方向にある状態)をデフォルトの状態とすると、アップ撮影が行われるときには、カメラユニット81がデフォルトの状態より所定距離だけ上方向に移動するようにカメラ高さが調整され、カメラ91がデフォルトの状態より所定角度だけ前傾するようにチルト角が調整される。また、上から全身撮影が行われるときには、カメラユニット81がアップ撮影時と同じ距離だけ上方向に移動するようにカメラ高さが調整され、カメラ91がアップ撮影時よりも前傾するようにチルト角が調整される。   More specifically, the height of the camera unit 81 (hereinafter, referred to as camera height) and the tilt angle of the camera 91 (the state in which the optical axis of the lens of the camera 91 is in the horizontal direction) when performing frontal whole-body imaging are defaulted. When the up shooting is performed, the camera height is adjusted so that the camera unit 81 moves upward by a predetermined distance from the default state, and the camera 91 is tilted forward by a predetermined angle from the default state. The tilt angle is adjusted as described above. Further, when the whole body is photographed from above, the camera height is adjusted so that the camera unit 81 moves upward by the same distance as that in the up photographing, and the camera 91 is tilted so that it tilts forward more than in the up photographing. The corner is adjusted.

また、アップ撮影、正面全身撮影、および上から全身撮影のそれぞれが行われるときには、カメラ高さおよびチルト角が制御されるだけではなく、ガイダンス出力制御部325により出力されるガイダンスにより、利用者の立ち位置も変更される。   In addition, when each of the up shooting, the frontal whole body shooting, and the whole body shooting from the top is performed, not only the camera height and the tilt angle are controlled, but also the guidance output by the guidance output control unit 325, the user's guidance is given. The standing position is also changed.

例えば、撮影空間の床面には、カメラ91から最も近い立ち位置、2番目に近い立ち位置、最も遠い立ち位置の、3つの立ち位置を示すラベルが貼付してある。アップ撮影が行われるときには、利用者に対して、カメラ91から最も近い立ち位置に立つように指示するガイダンスが出力される。上から全身撮影が行われるときには、利用者に対して、カメラ91から2番目に近い立ち位置に立つように指示するガイダンスが出力される。また、正面全身撮影が行われるときには、利用者に対して、カメラ91から最も遠い立ち位置に立つように指示するガイダンスが出力される。   For example, labels indicating three standing positions, that is, a standing position closest to the camera 91, a second standing position, and a farthest standing position, are attached to the floor of the photographing space. When the up-photographing is performed, guidance for instructing the user to stand at the nearest standing position from the camera 91 is output. When the whole body is photographed from above, guidance for instructing the user to stand at the second closest standing position is output from the camera 91. Further, when the front whole body photographing is performed, guidance for instructing the user to stand at the farthest position from the camera 91 is output.

このようにして、ステップS31乃至S35において、5回の撮影が終わった後、ステップS36において、撮影制御部323は、携帯専用撮影を行う。   In this way, after five shootings are completed in steps S31 to S35, in step S36, the shooting control unit 323 performs mobile-only shooting.

携帯専用撮影により得られる撮影画像(携帯専用画像)は、例えば、利用者により選択された、所定の質感や色のレイヤ画像を重畳する加工が施され、縦横比が1:1となるようにトリミングされる。このようにして得られる撮影画像は、主に、SNS(Social Networking Service)やミニブログ、ブログのサービスなどのサイトに投稿するための画像として用いられる。   A captured image (mobile-only image) obtained by mobile-only shooting is subjected to, for example, a process of superimposing a layer image of a predetermined texture and color selected by a user so that the aspect ratio is 1: 1. Trimmed. The captured image obtained in this manner is mainly used as an image to be posted on sites such as a social networking service (SNS), a mini blog, and a blog service.

なお、事前選択処理において、人数コースとして大人数コースが選択されている場合、ステップS36はスキップされる。   It should be noted that, in the pre-selection process, when the large number course is selected as the number course, step S36 is skipped.

ステップS36の後、ステップS37において、ガイダンス出力制御部325は、撮影を終えた利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、タッチパネルモニタ92に案内画面を表示させることによって、または音声をスピーカ232から出力させることによって行われる。   After step S36, in step S37, the guidance output control unit 325 guides the user who has finished shooting to move to the editing space A2-1 or the editing space A2-2. The guidance of the movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a guidance screen on the touch panel monitor 92 or outputting sound from the speaker 232.

<編集処理の詳細>
次に、図17のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS4の編集処理の詳細について説明する。
<Details of editing process>
Next, the details of the editing process in step S4 in the series of processes of the photo sticker creation game described above will be described with reference to the flowchart in FIG.

ステップS51において、表示制御部331は、目・明るさ選択画面をタブレット内蔵モニタ131に表示させる。   In step S51, the display control unit 331 causes the tablet built-in monitor 131 to display an eye / brightness selection screen.

目・明るさ選択画面は、撮影画像における人物(利用者)の目の大きさおよび肌の明るさの選択に用いられる画面である。   The eye / brightness selection screen is a screen used to select the size of eyes and skin brightness of a person (user) in a captured image.

目・明るさ選択画面が操作されることによって、入力受付部332は、目の大きさおよび肌の明るさの選択を受け付ける。画像処理部333は、選択された目の大きさおよび肌の明るさに応じて、撮影画像における利用者の目の大きさおよび肌の明るさを調整する。   By operating the eye / brightness selection screen, the input receiving unit 332 receives the selection of the size of the eyes and the brightness of the skin. The image processing unit 333 adjusts the size of the user's eyes and the brightness of the skin in the captured image according to the selected size of the eyes and the brightness of the skin.

ステップS52において、表示制御部331は、名前入力画面をタブレット内蔵モニタ131に表示させる。   In step S52, the display control section 331 causes the tablet built-in monitor 131 to display a name input screen.

名前入力画面は、利用者による名前の入力に用いられる画面である。   The name input screen is a screen used by the user to input a name.

名前入力画面が操作されることによって、入力受付部332は、利用者それぞれの名前の入力を受け付ける。入力された利用者の名前は、例えば、後述する編集作業に用いられるスタンプ画像の一部として、利用者に提供される。   By operating the name input screen, the input receiving unit 332 receives an input of each user's name. The input user name is provided to the user, for example, as a part of a stamp image used for an editing operation described later.

名前入力画面において名前の入力が終了されると、ガイダンス出力制御部335が、表示制御部331を制御し、編集の仕方を説明する画面をタブレット内蔵モニタ131に表示させる。そして、ステップS53において、表示制御部331は、編集画面をタブレット内蔵モニタ131に表示させる。   When the input of the name on the name input screen is completed, the guidance output control unit 335 controls the display control unit 331 to display a screen explaining how to edit on the monitor 131 with built-in tablet. Then, in step S53, the display control unit 331 causes the tablet built-in monitor 131 to display the editing screen.

ステップS54において、入力受付部332は、編集部210の各部を制御して、利用者による撮影画像に対する編集作業を受け付ける。編集部334は、撮影画像に対する編集を行う。   In step S54, the input receiving unit 332 controls each unit of the editing unit 210 to receive the user's editing work on the captured image. The editing unit 334 edits a captured image.

編集作業が終了すると、ステップS55において、表示制御部331は、タブレット内蔵モニタ131に分割数選択画面を表示させる。入力受付部332は、利用者からの指示を受け付けることで、利用者にシール紙の分割数を選択させる。本実施の形態においては、5回行われた撮影画像それぞれのサイズの組み合わせに応じて、シールレイアウト(シールレイアウト画像)が決定される。   When the editing operation is completed, in step S55, the display control unit 331 causes the tablet built-in monitor 131 to display a division number selection screen. The input receiving unit 332 allows the user to select the number of divisions of the sticker sheet by receiving an instruction from the user. In the present embodiment, a seal layout (seal layout image) is determined according to a combination of the sizes of the captured images performed five times.

シールレイアウトを表す情報は、印刷処理部304に供給される。印刷処理部304は、この情報を用いて、利用者に選択された分割数で分割されたシール紙の各領域に、撮影画像または編集済み画像が配置されたシールレイアウト画像をシール紙に印刷する。   Information indicating the seal layout is supplied to the print processing unit 304. Using this information, the print processing unit 304 prints a sticker layout image on which the photographed image or the edited image is arranged in each area of the sticker sheet divided by the division number selected by the user on the sticker sheet. .

ステップS56において、表示制御部331は、タブレット内蔵モニタ131に携帯送信用画像選択画面を表示させる。入力受付部332は、利用者からの指示を受け付けることで、利用者に、携帯送信用画像として例えば1枚の撮影画像を選択させる。ここで、撮影画像に限らず、携帯送信用画像として編集済み画像が選択されるようにしてもよい。また、携帯送信用画像として選択される画像は、1枚に限らず、2枚以上であってもよい。   In step S56, the display control unit 331 causes the tablet built-in monitor 131 to display the mobile transmission image selection screen. The input receiving unit 332 allows the user to select, for example, one captured image as the mobile transmission image by receiving an instruction from the user. Here, the edited image is not limited to the captured image, and may be selected as the mobile transmission image. Further, the number of images selected as the image for portable transmission is not limited to one, and may be two or more.

ステップS57において、表示制御部331は、タブレット内蔵モニタ131にメールアドレス入力画面を表示させる。入力受付部332は、利用者の所有する携帯端末のメールアドレスの入力を受け付ける。   In step S57, the display control unit 331 causes the tablet built-in monitor 131 to display an email address input screen. The input receiving unit 332 receives an input of a mail address of a mobile terminal owned by the user.

その後、所定の時間が経過したか、または終了ボタンが操作されると、処理はステップS58に進む。ステップS58において、通信制御部336は、通信部203を制御し、インターネットなどのネットワークを介して、利用者により選択された携帯送信用画像を、利用者により入力されたメールアドレスとともに、例えば写真シール作成装置1の製造メーカが管理するサーバに送信する。   Thereafter, when a predetermined time has elapsed or the end button is operated, the process proceeds to step S58. In step S58, the communication control unit 336 controls the communication unit 203 to copy the mobile transmission image selected by the user via the network such as the Internet, together with the mail address input by the user, for example, to a photo sticker. The information is transmitted to a server managed by the manufacturer of the creation device 1.

なお、人数コースとして2人用コースが選択されている場合、携帯専用撮影により得られた携帯専用画像もまた、携帯送信用画像として、上述したサーバに送信される。   When the two-person course is selected as the number-of-persons course, the mobile-only image obtained by the mobile-only shooting is also transmitted to the server as the mobile transmission image.

サーバは、利用者により入力されたメールアドレス宛てに、携帯端末がサーバにアクセスするのに必要なURLが記載されたメールを送信する。そして、利用者が所有する携帯端末が、そのURLに基づいてネットワークを介してサーバにアクセスすることで、サーバに送信された携帯送信用画像が携帯端末に提供される。   The server sends an e-mail to the e-mail address entered by the user, in which a URL necessary for the mobile terminal to access the server is described. Then, the mobile terminal owned by the user accesses the server via the network based on the URL, whereby the mobile transmission image transmitted to the server is provided to the mobile terminal.

さて、ステップS59において、ガイダンス出力制御部335は、編集を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、タブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ241から出力させることによって行われる。   By the way, in step S59, the guidance output control unit 335 guides the user who has finished editing to move to the print waiting space A3. The guidance of the movement to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 131 or by outputting a sound from the speaker 241.

<編集画面の例>
ここで、図18を参照して、図17のステップS53において表示される編集画面の例について説明する。
<Example of edit screen>
Here, an example of the editing screen displayed in step S53 of FIG. 17 will be described with reference to FIG.

図18に示されるように、編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。   As shown in FIG. 18, the editing screen is basically configured by providing main components symmetrically. The left half area is an area used by a user on the left side of the tablet built-in monitor 131. The right half area is an area used by a user on the right side of the tablet built-in monitor 131. With such a configuration of the editing screen, mainly two users can simultaneously perform editing work.

以下、編集画面の左半分の領域について説明する。   Hereinafter, the left half area of the editing screen will be described.

左半分の領域の左上側には、サムネイル画像表示領域411Lが設けられる。サムネイル画像表示領域411Lは、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル画像表示領域411Lに表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択することができる。   A thumbnail image display area 411L is provided on the upper left side of the left half area. The thumbnail image display area 411L is a display area for a thumbnail image representing a captured image. The user can select a captured image to be edited by selecting a thumbnail image displayed in the thumbnail image display area 411L.

左半分の領域の左側中央には、編集領域412Lが設けられる。編集領域412Lは、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン132Aを用いて編集ツールを選択し、編集領域412Lに表示された撮影画像に対する編集作業を行う。   An editing area 412L is provided at the left center of the left half area. The editing area 412L is a display area of a captured image selected as an editing target. The user selects an editing tool using the touch pen 132A, and performs editing work on the captured image displayed in the editing area 412L.

編集領域412Lの右方には、編集パレット表示領域413Lが設けられる。編集パレット表示領域413Lは、スタンプ画像などの各種の編集ツール(合成用画像)の選択に用いられる編集パレットの表示領域である。編集パレットには、複数の合成用画像が表示される。編集パレットに表示される合成用画像はカテゴリ毎に分かれており、それぞれのカテゴリ名が付されたタブが選択されることで、編集パレットに表示される合成用画像が切り替わる。   An editing palette display area 413L is provided to the right of the editing area 412L. The editing palette display area 413L is a display area for an editing palette used for selecting various editing tools (compositing images) such as a stamp image. A plurality of images for combination are displayed on the editing palette. The images for composition displayed on the editing palette are divided for each category, and when the tabs with the respective category names are selected, the images for composition displayed on the editing palette are switched.

利用者は、タッチペン132Aを用いて編集パレットから選択したスタンプ画像などを、編集領域412L上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成(落書き)を行うことができる。   The user superimposes a stamp image or the like selected from the editing palette using the touch pen 132A on a predetermined position on the editing area 412L, thereby performing composition (graffiti) of the composition image on the captured image to be edited. be able to.

編集パレット表示領域413Lの上方には、一発落書きボタン414Lおよび携帯おまけボタン415Lが設けられる。   Above the editing palette display area 413L, a one-shot graffiti button 414L and a mobile bonus button 415L are provided.

一発落書きボタン414L、一発落書きを行うときに操作されるボタンである。一発落書きは、あらかじめ設定された内容の落書きを、1回の操作で行わせる機能である。一発落書きボタン414Lが操作されることにより、あらかじめ決められた複数の合成用画像が一括して撮影画像に合成されるようになる。これにより、落書きに慣れていない利用者でも、落書きを簡単に済ませることができる。   One shot doodle button 414L is a button operated when performing one shot doodle. The one-shot graffiti is a function for performing a graffiti with a preset content by one operation. By operating the one-shot graffiti button 414L, a plurality of predetermined combining images are combined together with the captured image. As a result, even a user who is not used to graffiti can easily finish graffiti.

携帯おまけボタン415Lは、携帯おまけの作成を行うときに操作されるボタンである。携帯おまけは、携帯端末の待ち受け画像や、メールに添付されたり、ブログを含むSNS(Social Networking Service)にアップロードされたりする画像等、携帯端末上で用いられることを前提とした画像である。作成された携帯おまけは、携帯送信用画像としてサーバに送信される。   The mobile bonus button 415L is a button operated when creating a mobile bonus. The mobile bonus is an image supposed to be used on a mobile terminal, such as a standby image of the mobile terminal, an image attached to an email, or an image uploaded to an SNS (Social Networking Service) including a blog. The created mobile bonus is transmitted to the server as a mobile transmission image.

<オーラ画像について>
ところで、編集パレットに表示されるスタンプ画像の1つに、オーラ画像がある。
<About Aura Image>
By the way, an aura image is one of the stamp images displayed on the editing palette.

オーラ画像は、撮影画像に写る被写体(利用者)を装飾する装飾画像である。オーラ画像は、文字、図形、または所定の色が配された画像であり、撮影画像に写る被写体(利用者)の領域に沿った領域に合成される。編集パレットにおいて、スタンプ画像としてオーラ画像が選択されると、撮影画像に写る利用者の輪郭から外側に向かって所定幅の領域に、複数の文字や図形がその輪郭に沿って連続的に合成されたり、所定の色が付される。   The aura image is a decoration image for decorating a subject (user) shown in the captured image. The aura image is an image in which characters, figures, or predetermined colors are arranged, and is synthesized with an area along the area of the subject (user) in the captured image. When an aura image is selected as a stamp image in the editing palette, a plurality of characters and figures are continuously synthesized along the outline in a region of a predetermined width outward from the outline of the user in the photographed image. Or a predetermined color.

ここで、3人以上の利用者が写る撮影画像において、利用者毎にオーラ画像が合成された場合、利用者同士の間にオーラ画像が合成されると、画像の見た目が煩雑になるおそれがある。   Here, when an aura image is synthesized for each user in a captured image in which three or more users appear, if the aura images are synthesized between users, the appearance of the image may be complicated. is there.

そこで、本実施の形態においては、複数の利用者が写る撮影画像において、利用者同士の間にオーラ画像が合成されないようにする。   Therefore, in the present embodiment, an aura image is prevented from being synthesized between users in a captured image in which a plurality of users are captured.

図19は、オーラ画像が合成された撮影画像の例を示している。   FIG. 19 illustrates an example of a captured image in which an aura image is combined.

図19に示される撮影画像431には、2人の利用者U1,U2の全身が写っている。すなわち、撮影画像431は、全身撮影により得られた撮影画像である。また、撮影画像431において、利用者U1,U2全体の領域に沿った上側、右側、および左側の領域には、複数のアルファベットが配されたオーラ画像431aが合成されている。但し、このオーラ画像431aは、利用者U1,U2同士の間の領域には合成されない。   The photographed image 431 shown in FIG. 19 shows the whole bodies of two users U1 and U2. That is, the captured image 431 is a captured image obtained by full-body imaging. In the photographed image 431, an aura image 431a in which a plurality of alphabets are arranged is synthesized in the upper, right, and left regions along the entire region of the users U1 and U2. However, the aura image 431a is not synthesized in an area between the users U1 and U2.

このように、利用者同士の間にオーラ画像が合成されないので、画像の見た目が煩雑にならず、画像の見た目の印象は良いものとなる。   As described above, since the aura images are not synthesized between the users, the appearance of the images does not become complicated, and the impression of the appearance of the images becomes good.

<オーラ画像合成処理の例1>
ここで、図20のフローチャートを参照して、図19に示されるようなオーラ画像の合成処理について説明する。図20のオーラ画像合成処理は、タッチペン132A(132B)を用いて、編集パレットにおいてオーラ画像を示すアイコンが選択され、編集領域412L(412R)上の所定の領域が押下されると開始される。
<Example 1 of aura image synthesis processing>
Here, with reference to the flow chart of FIG. 20, the process of synthesizing an aura image as shown in FIG. 19 will be described. 20 is started when an icon indicating an aura image is selected on the editing palette using the touch pen 132A (132B) and a predetermined area on the editing area 412L (412R) is pressed.

ステップS71において、画像処理部333は、オーラ画像が合成される人物領域を決定する。ここでいう人物領域は、撮影画像に写る複数の利用者全体の領域である。   In step S71, the image processing unit 333 determines a person area to be combined with the aura image. Here, the person area is an area of the entire plurality of users appearing in the captured image.

図21は、図19の撮影画像431における利用者U1,U2の領域と、利用者U1,U2の領域以外の領域とを2値化したマスク画像である。マスク画像432において、白色(白画素)の領域W1,W2は、撮影画像431における利用者U1,U2の領域に対応する。また、マスク画像432において、黒色(黒画素)の領域Bは、撮影画像431における利用者U1,U2の領域以外の領域に対応する。   FIG. 21 is a mask image obtained by binarizing an area of the users U1 and U2 and an area other than the areas of the users U1 and U2 in the captured image 431 of FIG. In the mask image 432, the white (white pixel) areas W1 and W2 correspond to the areas of the users U1 and U2 in the captured image 431. In the mask image 432, a black (black pixel) area B corresponds to an area other than the areas of the users U1 and U2 in the captured image 431.

まず、画像処理部333は、マスク画像432において、横方向に並ぶ画素で、かつ、領域W1,W2と領域Bとの境界にある画素のうち、最も外側にある白画素(以下、輪郭画素という)を探索する。なお、ここでいう横方向は、撮影画像に写る被写体の高さ方向に直交する方向ということもできる。   First, the image processing unit 333 determines, in the mask image 432, the outermost white pixels (hereinafter referred to as outline pixels) among the pixels arranged in the horizontal direction and at the boundary between the regions W1 and W2 and the region B. Explore). Note that the horizontal direction here can also be referred to as a direction orthogonal to the height direction of the subject appearing in the captured image.

具体的には、図21の矢印で示されるように、画像処理部333は、マスク画像432の1画素行毎に、左端の黒画素から領域W1,W2の白画素を探索するとともに、右端の黒画素から領域W1,W2の白画素を探索する。画像処理部333は、この処理を、マスク画像432の最も上の画素行から最も下の画素行まで行う。   Specifically, as indicated by the arrow in FIG. 21, the image processing unit 333 searches for white pixels in the regions W1 and W2 from the leftmost black pixels and the rightmost pixels in each pixel row of the mask image 432. The white pixels in the areas W1 and W2 are searched from the black pixels. The image processing unit 333 performs this processing from the top pixel row to the bottom pixel row of the mask image 432.

そして、画像処理部333は、図22に示されるように、全ての画素行について探索された輪郭画素より内側の画素領域を、白画素の領域W3とする。すなわち、撮影画像431において、マスク画像433の領域W3に対応する領域が、人物領域に決定される。   Then, as illustrated in FIG. 22, the image processing unit 333 sets a pixel region inside the contour pixels searched for all the pixel rows as a white pixel region W3. That is, in the captured image 431, an area corresponding to the area W3 of the mask image 433 is determined as a person area.

なお、マスク画像432において、縦方向(撮影画像に写る被写体の高さ方向)に並ぶ画素で、かつ、領域W1,W2と領域Bとの境界にある画素のうち、最も外側にある白画素を探索することで、輪郭画素が探索されるようにしてもよい。   In the mask image 432, the outermost white pixels among the pixels arranged in the vertical direction (the height direction of the subject shown in the captured image) and at the boundary between the regions W1 and W2 and the region B are referred to. By performing the search, the outline pixel may be searched.

図20のフローチャートに戻り、ステップS72において、画像処理部333は、人物領域を囲む領域(人物領域に沿った領域)にオーラ画像を合成する。   Returning to the flowchart of FIG. 20, in step S72, the image processing unit 333 combines the aura image with an area surrounding the person area (an area along the person area).

人物領域を囲む領域、すなわちオーラ画像が合成される合成領域は、例えば、人物領域を拡大および/または移動することによって設定される。図23に示されるマスク画像434には、人物領域に対応する領域W3を囲む上側、右側、および左側に合成領域Rが設定されている。   The area surrounding the person area, that is, the synthesis area where the aura image is synthesized is set by, for example, enlarging and / or moving the person area. In the mask image 434 shown in FIG. 23, the combination area R is set on the upper side, right side, and left side surrounding the area W3 corresponding to the person area.

まず、領域W3の輪郭画素を、領域W3の中心(重心)点から遠ざかる方向に所定距離だけ移動させた領域を設定する。この領域は、領域W3を上下左右方向に拡大した領域となる。次に、この領域を所定距離だけ上方向に移動させる。この移動後の領域から領域W3を除いた領域が、合成領域Rとなる。そして、画像処理部333は、撮影画像431において合成領域Rに対応する領域に、オーラ画像を合成する。   First, an area is set by moving the contour pixels of the area W3 by a predetermined distance in a direction away from the center (center of gravity) of the area W3. This region is a region obtained by expanding the region W3 in the up, down, left, and right directions. Next, this area is moved upward by a predetermined distance. The area obtained by removing the area W3 from the area after the movement becomes the composite area R. Then, the image processing unit 333 combines the aura image with the region corresponding to the combination region R in the captured image 431.

このようにして、図19に示される撮影画像431が得られる。   Thus, the photographed image 431 shown in FIG. 19 is obtained.

なお、領域W3を移動・拡大させる方向や距離は、上述したものに限られない。例えば、領域W3を移動・拡大させる方向や距離は、事前選択処理において選択された各種のコース毎、撮影画像毎、撮影画像に写る利用者毎で異なる値に決まるようにしてもよい。例えば、後述するように、領域W3を移動・拡大させる方向や距離が、人数コース(利用者の人数)によって決まるようにしてもよい。これにより、オーラ画像が合成される合成領域を多様な形状にすることができる。   Note that the direction and distance for moving and expanding the area W3 are not limited to those described above. For example, the direction and the distance in which the region W3 is moved / enlarged may be determined to be different values for each of the various courses selected in the preselection processing, for each of the captured images, and for each of the users who appear in the captured images. For example, as described later, the direction and the distance in which the area W3 is moved / enlarged may be determined by the number of courses (the number of users). Thereby, the synthesis area in which the aura image is synthesized can be formed into various shapes.

図20のフローチャートに戻り、ステップS73において、表示制御部331は、編集画面の編集領域412L(412R)に、オーラ画像が合成された撮影画像を表示させる。   Returning to the flowchart of FIG. 20, in step S73, the display control unit 331 causes the editing area 412L (412R) of the editing screen to display the captured image in which the aura image is combined.

以上の処理によれば、利用者同士の間にオーラ画像が合成されないので、画像の見た目が煩雑にならず、画像の見た目の印象を良くすることが可能となる。   According to the above processing, since the aura image is not synthesized between the users, the appearance of the image does not become complicated, and the impression of the appearance of the image can be improved.

上述した例では、撮影画像に写る利用者が2人であったが、3人以上であってももちろんよい。   In the above-described example, two users appear in the captured image. However, three or more users may be used.

例えば、図24に示される撮影画像441には、3人の利用者U1,U2,U3の全身が写っている。撮影画像441において、利用者U1,U2,U3全体の領域に沿った上側、右側、および左側の領域には、複数のアルファベットが配されたオーラ画像441aが合成されている。但し、このオーラ画像441aは、利用者U1,U3同士および利用者U2,U3同士の間の領域には合成されない。   For example, the photographed image 441 shown in FIG. 24 shows the whole body of three users U1, U2, and U3. In the photographed image 441, an aura image 441a in which a plurality of alphabets are arranged is combined in upper, right, and left regions along the entire region of the users U1, U2, and U3. However, the aura image 441a is not synthesized in an area between the users U1 and U3 and between the users U2 and U3.

このように、上述した処理によれば、3人以上の利用者が写る撮影画像についても、その見た目が煩雑にならず、その見た目の印象を良くすることができる。   As described above, according to the above-described processing, the appearance of a captured image in which three or more users are captured is not complicated, and the appearance of the image can be improved.

図25は、オーラ画像が合成された撮影画像の他の例を示している。   FIG. 25 illustrates another example of a captured image in which an aura image is combined.

図25に示される撮影画像451には、2人の利用者U1,U2の全身が写っている。すなわち、撮影画像451もまた、全身撮影により得られた撮影画像である。また、撮影画像451において、利用者U1の領域に沿った左側(すなわち、利用者U2が隣接しない側)の領域には、複数のアルファベットが配されたオーラ画像451aが合成されている。さらに、撮影画像451において、利用者U2の領域に沿った右側(すなわち、利用者U1が隣接しない側)の領域には、複数のアルファベットが配されたオーラ画像451bが合成されている。これらのオーラ画像451a,451bは、利用者U1,U2同士の間の領域には合成されない。   The photographed image 451 shown in FIG. 25 shows the whole bodies of two users U1 and U2. That is, the photographed image 451 is also a photographed image obtained by whole-body photographing. Further, in the photographed image 451, an aura image 451a in which a plurality of alphabets are arranged is synthesized in a region on the left side along the region of the user U1 (that is, a side on which the user U2 is not adjacent). Further, in the photographed image 451, an aura image 451b in which a plurality of alphabets are arranged is synthesized in a region on the right side (that is, a side on which the user U1 is not adjacent) along the region of the user U2. These aura images 451a and 451b are not combined in an area between the users U1 and U2.

このように、利用者同士の間にオーラ画像が合成されないので、画像の見た目が煩雑にならず、画像の見た目の印象は良いものとなる。   As described above, since the aura images are not synthesized between the users, the appearance of the images does not become complicated, and the impression of the appearance of the images becomes good.

<オーラ画像合成処理の例2>
ここで、図26のフローチャートを参照して、図25に示されるようなオーラ画像の合成処理について説明する。図26のオーラ画像合成処理もまた、タッチペン132A(132B)を用いて、編集パレットにおいてオーラ画像を示すアイコンが選択され、編集領域412L(412R)上の所定の領域が押下されると開始される。
<Example 2 of aura image synthesis processing>
Here, with reference to the flow chart of FIG. 26, the process of synthesizing an aura image as shown in FIG. 25 will be described. 26 is also started when the icon indicating the aura image is selected on the editing palette using the touch pen 132A (132B) and a predetermined area on the editing area 412L (412R) is pressed. .

ステップS81において、画像処理部333は、編集領域412L(412R)に表示されている撮影画像に対して顔認識を行う。   In step S81, the image processing unit 333 performs face recognition on the captured image displayed in the editing area 412L (412R).

ステップS82において、画像処理部333は、顔認識の結果に基づいて、外側の人物領域を特定する。ここでいう人物領域は、撮影画像に写る複数の利用者それぞれの領域である。すなわち、画像処理部333は、顔認識の結果に基づいて、人物領域のうち、他の利用者が横方向の両側に隣接しない人物領域を特定する。なお、ここでいう横方向は、撮影画像に写る被写体の高さ方向に直交する方向である。   In step S82, the image processing unit 333 specifies an outside person region based on the result of the face recognition. The person area here is an area of each of a plurality of users appearing in a captured image. That is, the image processing unit 333 specifies, based on the result of the face recognition, a person area where other users are not adjacent to both sides in the horizontal direction among the person areas. Here, the horizontal direction is a direction orthogonal to the height direction of the subject shown in the captured image.

例えば、図25の撮影画像451のように、撮影画像に2人の利用者が横に並んで写っている場合、いずれの利用者も他の利用者が横方向の両側に隣接しない。したがって、撮影画像における2人の利用者の領域それぞれが、外側の人物領域となる。   For example, when two users appear side by side in a captured image as in a captured image 451 in FIG. 25, neither user has another user adjacent to both sides in the horizontal direction. Therefore, each of the two user areas in the captured image is an outer person area.

また、撮影画像に3人の利用者が横に並んで写っている場合、中央の利用者は他の利用者が横方向の両側に隣接する一方、両端の利用者は他の利用者が横方向の両側に隣接しない。したがって、この場合、撮影画像における両端2人の利用者の領域それぞれが、外側の人物領域となる。さらに、例えば、3人の利用者のうち、2人が前列に、1人が後列に位置するように並んで写っている場合には、いずれの利用者も他の利用者が横方向の両側に隣接しない。したがって、撮影画像における2人の利用者の領域それぞれが、外側の人物領域となる。   Also, when three users appear side by side in the captured image, the center user is adjacent to other users on both sides in the horizontal direction, while the users at both ends are sideways by other users. Not adjacent to both sides of the direction. Therefore, in this case, the areas of the two users at both ends in the captured image are the outer person areas. Further, for example, if two of the three users are located side by side in the front row and one is located in the back row, then all of the users are located on both sides in the horizontal direction. Not adjacent to Therefore, each of the two user areas in the captured image is an outer person area.

なお、人物領域の特定は、利用者の領域と、利用者の領域以外の領域とを2値化したマスク画像を用いて行われる。   Note that the identification of the person area is performed using a mask image obtained by binarizing the user area and an area other than the user area.

ステップS83において、画像処理部333は、外側の人物領域を囲む領域(外側の人物領域に沿った領域)の一部にオーラ画像を合成する。   In step S83, the image processing unit 333 combines the aura image with a part of the area surrounding the outside person area (the area along the outside person area).

人物領域を囲む領域の一部、すなわちオーラ画像が合成される合成領域は、例えば、人物領域を拡大および/または移動することによって設定される。図27に示されるマスク画像452には、外側の人物領域のうち、左側の人物領域に対応する領域W1の左側(すなわち、利用者U2が隣接しない側)に領域R1が設定され、右側の人物領域に対応する領域W2の右側(すなわち、利用者U1が隣接しない側)に領域R2が設定されている。   A part of the region surrounding the person region, that is, the combination region where the aura image is combined is set by, for example, enlarging and / or moving the person region. In the mask image 452 shown in FIG. 27, of the outer person regions, a region R1 is set to the left of the region W1 corresponding to the left person region (that is, a side to which the user U2 is not adjacent), and the right person is set. An area R2 is set on the right side of the area W2 corresponding to the area (that is, the side on which the user U1 is not adjacent).

まず、領域W1と同一の領域を設定する。次に、この領域を所定距離だけ左方向(隣接する利用者のいない方向)に移動させる。この移動後の領域から領域W1を除いた領域が領域R1となる。同様に、領域W2と同一の領域を設定する。次に、この領域を所定距離だけ右方向(隣接する利用者のいない方向)に移動させる。この移動後の領域から領域W2を除いた領域が、領域R2となる。そして、画像処理部333は、撮影画像431において領域R1,R2に対応する領域に、オーラ画像を合成する。   First, the same area as the area W1 is set. Next, this area is moved to the left by a predetermined distance (a direction in which there is no adjacent user). A region excluding the region W1 from the region after the movement becomes a region R1. Similarly, the same area as the area W2 is set. Next, this region is moved to the right by a predetermined distance (a direction in which there is no adjacent user). An area excluding the area W2 from the area after the movement becomes an area R2. Then, the image processing unit 333 combines the aura image with the region corresponding to the regions R1 and R2 in the captured image 431.

このようにして、図25に示される撮影画像451が得られる。   Thus, a captured image 451 shown in FIG. 25 is obtained.

なお、領域W1,W2を移動させる距離は、上述したものに限られない。さらに、領域W1,W2の移動に加え、領域W1,W2の拡大が行われるようにしてもよい。これにより、オーラ画像が合成される合成領域を多様な形状にすることができる。   Note that the distance by which the regions W1 and W2 are moved is not limited to the above. Furthermore, in addition to the movement of the areas W1 and W2, the areas W1 and W2 may be enlarged. Thereby, the synthesis area in which the aura image is synthesized can be formed into various shapes.

図26のフローチャートに戻り、ステップS84において、表示制御部331は、編集画面の編集領域412L(412R)に、オーラ画像が合成された撮影画像を表示させる。   Returning to the flowchart of FIG. 26, in step S84, the display control unit 331 causes the editing area 412L (412R) of the editing screen to display the captured image in which the aura image is combined.

以上の処理によれば、利用者同士の間にオーラ画像が合成されないので、画像の見た目が煩雑にならず、画像の見た目の印象を良くすることが可能となる。   According to the above processing, since the aura image is not synthesized between the users, the appearance of the image does not become complicated, and the impression of the appearance of the image can be improved.

なお、上述した処理において、複数の利用者のうち、他の利用者が縦方向(撮影画像に写る被写体の高さ方向)の両側に隣接しない利用者の領域に沿った領域に、オーラ画像が合成されるようにしてもよい。   In the above-described processing, the aura image is placed in an area along the user area that is not adjacent to both sides of the plurality of users in the vertical direction (the height direction of the subject in the captured image). They may be combined.

上述した例では、撮影画像に写る利用者が2人であったが、3人以上であってももちろんよい。   In the above-described example, two users appear in the captured image. However, three or more users may be used.

例えば、図28に示される撮影画像461には、3人の利用者U1,U2,U3の全身が写っている。撮影画像461において、左端の利用者U1の左側の領域には、複数のアルファベットが配されたオーラ画像461aが合成されている。また、右端の利用者U2の右側の領域には、複数のアルファベットが配されたオーラ画像461bが合成されている。これらのオーラ画像461a,461bは、利用者U1,U3の間および利用者U2,U3の間には合成されない。   For example, in the captured image 461 shown in FIG. 28, the whole bodies of three users U1, U2, and U3 are shown. In the photographed image 461, an aura image 461a in which a plurality of alphabets are arranged is synthesized in the left area of the leftmost user U1. Further, an aura image 461b in which a plurality of alphabets are arranged is synthesized in the area on the right side of the right end user U2. These aura images 461a and 461b are not synthesized between the users U1 and U3 and between the users U2 and U3.

このように、上述した処理によれば、3人以上の利用者が写る撮影画像についても、その見た目が煩雑にならず、その見た目の印象を良くすることができる。   As described above, according to the above-described processing, the appearance of a captured image in which three or more users are captured is not complicated, and the appearance of the image can be improved.

なお、図25や図29に示される撮影画像は、図20のオーラ画像合成処理の合成領域の設定において、領域W3(図23)を左右方向のみに拡大することによっても得ることができる。   Note that the captured images shown in FIGS. 25 and 29 can also be obtained by enlarging the area W3 (FIG. 23) only in the left-right direction in setting the synthesis area in the aura image synthesis processing in FIG.

図29は、オーラ画像が合成された撮影画像の他の例を示している。   FIG. 29 illustrates another example of a captured image in which an aura image is combined.

図29に示される撮影画像462において、左端の利用者U1の領域に沿った上側、左側、右側の領域には、複数のアルファベットが配されたオーラ画像462aが合成されている。また、利用者U2の領域に沿った上側、左側、右側の領域には、複数のアルファベットが配されたオーラ画像462bが合成されている。これらのオーラ画像462a,462bは、利用者U3の領域に沿った領域には合成されない。   In the photographed image 462 shown in FIG. 29, an aura image 462a in which a plurality of alphabets are arranged is combined in the upper, left, and right regions along the region of the user U1 at the left end. Further, an aura image 462b in which a plurality of alphabets are arranged is combined in the upper, left, and right regions along the region of the user U2. These aura images 462a and 462b are not combined in an area along the area of the user U3.

オーラ画像462a,462bは、図27を参照して説明した合成領域の設定において、領域W1,W2を上下左右方向に拡大した領域を、上方向に移動させることによって得ることができる。   The aura images 462a and 462b can be obtained by moving an area obtained by enlarging the areas W1 and W2 in the vertical and horizontal directions in the setting of the composite area described with reference to FIG. 27 upward.

また、図29のオーラ画像462a,462bを合成する処理と、図24のオーラ画像441aを合成する処理とを合わせて行うことで、図30に示される撮影画像463が得られるようにしてもよい。   In addition, by performing the process of combining the aura images 462a and 462b of FIG. 29 and the process of combining the aura images 441a of FIG. 24 together, the captured image 463 illustrated in FIG. 30 may be obtained. .

図30に示される撮影画像463において、利用者U1,U2,U3全体の領域に沿った上側、左側、右側の領域、利用者U1の領域に沿った右側の領域、および、利用者U2の領域に沿った左側の領域には、複数のアルファベットが配されたオーラ画像463aが合成されている。   In the captured image 463 shown in FIG. 30, the upper, left, and right regions along the entire region of the users U1, U2, and U3, the right region along the region of the user U1, and the region of the user U2 In the left area along, an aura image 463a in which a plurality of alphabets are arranged is synthesized.

なお、上述した例では、オーラ画像は、複数のアルファベットが配されたものとして説明してきた。これに限らず、オーラ画像は、複数の文字として、ひらがなやカタカナ、数字などが配されたものであってもよい。   In the example described above, the aura image has been described as being provided with a plurality of alphabets. However, the present invention is not limited to this, and the aura image may be one in which hiragana, katakana, numerals, and the like are arranged as a plurality of characters.

例えば、オーラ画像は、名前入力画面において入力された利用者の名前を表す文字が配されたものであってもよい。この場合、撮影画像に写る利用者毎に、対応する名前を表す文字が配されたオーラ画像が合成されるようにしてもよい。   For example, the aura image may be one in which characters representing the name of the user input on the name input screen are arranged. In this case, an aura image in which characters representing the corresponding name are arranged may be combined for each user appearing in the captured image.

なお、文字が配されたオーラ画像において、個々の文字が途切れて合成されると、利用者は、その文字を認識することができなくなる。そこで、オーラ画像が合成される合成領域の大きさ(幅)に応じて、オーラ画像に配される文字のサイズが変更されたり、配される文字自体が他の文字に変更されるなどしてもよい。   Note that if individual characters are interrupted and synthesized in the aura image on which the characters are arranged, the user cannot recognize the characters. Therefore, depending on the size (width) of the synthesis area where the aura image is synthesized, the size of the character arranged in the aura image is changed, or the arranged character itself is changed to another character. Is also good.

さらに、オーラ画像として配される文字は、上述した例のように同じ向きで配されるようにしてもよいし、ランダムな向きで配されるようにしてもよい。   Further, the characters arranged as the aura image may be arranged in the same direction as in the above-described example, or may be arranged in a random direction.

また、オーラ画像は、複数の図形や色が配されたものであってもよい。   Further, the aura image may be one in which a plurality of figures and colors are arranged.

図31は、複数の図形が配されたオーラ画像が合成された撮影画像の例を示している。   FIG. 31 illustrates an example of a captured image in which an aura image in which a plurality of figures are arranged is synthesized.

図31に示される撮影画像471において、利用者U1,U2全体の領域に沿った上側、右側、および左側の領域には、複数のハートが配されたオーラ画像471aが合成されている。   In the photographed image 471 shown in FIG. 31, an aura image 471a in which a plurality of hearts are arranged is combined in the upper, right, and left regions along the entire region of the users U1, U2.

なお、オーラ画像は、複数の図形として、ハート以外の他の図形が配されたものであってももちろんよい。さらに、オーラ画像は、複数の図形として、編集パレットに表示される所定のスタンプ画像が配されたものであってもよい。   The aura image may, of course, be one in which a figure other than a heart is arranged as a plurality of figures. Further, the aura image may be one in which a predetermined stamp image displayed on the editing palette is arranged as a plurality of figures.

図32は、色が配されたオーラ画像が合成された撮影画像の例を示している。   FIG. 32 illustrates an example of a captured image in which aura images with colors are combined.

図32に示される撮影画像472において、利用者U1の領域に沿った左側の領域には、所定の色が配されたオーラ画像472aが合成されている。さらに、撮影画像472において、利用者U2の領域に沿った右側の領域には、所定の色が配されたオーラ画像472bが合成されている。   In the photographed image 472 shown in FIG. 32, an aura image 472a having a predetermined color is synthesized in the left area along the area of the user U1. Further, in the photographed image 472, an aura image 472b in which a predetermined color is arranged is synthesized in the right region along the region of the user U2.

なお、オーラ画像472a,472bに配される色はどのような色であってもよい。例えば、オーラ画像472a,472bに配される色を黒やグレーにすることで、オーラ画像472a,472bは、利用者U1,U2の影を模した画像となる。また、オーラ画像472a,472bに配される色にグラデーションが施されるようにしてもよい。さらに、オーラ画像472a,472bに配される色は複数の色であってもよい。   It should be noted that the colors arranged in the aura images 472a and 472b may be any colors. For example, by changing the colors allocated to the aura images 472a and 472b to black and gray, the aura images 472a and 472b are images imitating the shadows of the users U1 and U2. Further, gradation may be applied to the colors arranged in the aura images 472a and 472b. Further, the colors arranged in the aura images 472a and 472b may be a plurality of colors.

また、オーラ画像が合成される合成領域が、利用者の人数に応じて設定されるようにしてもよい。   Further, the combination area where the aura image is combined may be set according to the number of users.

例えば、撮影画像431(図19)のように、利用者が2人の場合には、利用者の頭から足を囲む領域を合成領域とする。利用者が3人の場合には、例えば利用者の頭から腰を囲む領域を合成領域とする。また、利用者が4人以上の場合には、例えば利用者の頭から肩を囲む領域を合成領域とする。   For example, when the number of users is two as in the captured image 431 (FIG. 19), an area surrounding the user's head and feet is used as the composite area. When there are three users, for example, an area surrounding the user's head and waist is set as a composite area. When there are four or more users, for example, an area surrounding the user's head and shoulders is set as a composite area.

撮影画像に写る利用者が多いほど、撮影画像における利用者以外の領域、言い換えると、合成領域になり得る領域が小さくなる。そこで、撮影画像に写る利用者が多いほど、合成領域を小さくすることで、オーラ画像が合成された撮影画像の見た目が煩雑になることを避けることができる。   As the number of users appearing in the captured image increases, the area of the captured image other than the user, in other words, the area that can be a composite area becomes smaller. Thus, by reducing the combination area as the number of users appearing in the captured image increases, the appearance of the captured image combined with the aura image can be prevented from becoming complicated.

また、単に、撮影画像における人物領域以外の領域の大きさに応じて、オーラ画像が合成される合成領域が設定されるようにしてもよい。例えば、人物領域以外の領域の大きさが小さいほど、小さい合成領域が設定されるようにすることで、オーラ画像が合成された撮影画像の見た目が煩雑になることを避けることができる。   Alternatively, a combination area where an aura image is combined may be simply set according to the size of an area other than the person area in the captured image. For example, by setting a smaller combined area as the size of the area other than the person area is smaller, it is possible to avoid a complicated appearance of the captured image in which the aura image is combined.

また、以上においては、全身撮影により得られた撮影画像にオーラ画像が合成される例について説明してきた。そこで、上から全身撮影により得られた撮影画像と、正面全身撮影により得られた撮影画像とで、オーラ画像が合成される合成領域が異なるようにしてもよい。   In the above, an example in which an aura image is combined with a captured image obtained by full-body imaging has been described. Therefore, a combined area where the aura image is combined may be different between a captured image obtained by full-body imaging from above and a captured image obtained by frontal full-body imaging.

さらに、全身撮影により得られた撮影画像に限らず、アップ撮影により得られた撮影画像にオーラ画像が合成されるようにしてもよい。この場合、全身撮影により得られた撮影画像と、アップ撮影により得られた撮影画像とで、設定される合成領域が異なるようにしてもよい。   Furthermore, an aura image may be combined with a captured image obtained by up-shooting, without being limited to a captured image obtained by full-body imaging. In this case, the set composite area may be different between a captured image obtained by full-body imaging and a captured image obtained by close-up imaging.

さらにまた、撮影画像において、利用者により選択された領域が、オーラ画像が合成される合成領域に設定されるようにしてもよい。   Furthermore, in the captured image, the area selected by the user may be set as a synthesis area where the aura image is synthesized.

上述した例で図示されたオーラ画像は、利用者の足元の領域には合成されないものとした。しかしながら、オーラ画像が、利用者の足元の領域にも、すなわち、利用者の領域に沿った領域全部に合成されるようにすることもできる。   The aura image illustrated in the above-described example is not combined with the area at the foot of the user. However, the aura image may be combined with the area under the user's feet, that is, with the entire area along the user's area.

また、図26のオーラ画像合成処理のように、撮影画像に対して顔認識を行う場合には、顔認識の結果に基づいて、撮影画像において外側に写る利用者の顔を囲む領域のみに、オーラ画像が合成されるようにしてもよい。この場合、撮影画像における顔領域の画素の輝度値を上げたり下げたりしてもよい。   Also, when face recognition is performed on a captured image as in the aura image synthesis processing in FIG. 26, based on the result of face recognition, only the region surrounding the user's face that appears outside in the captured image is An aura image may be synthesized. In this case, the brightness value of the pixel in the face area in the captured image may be increased or decreased.

なお、以上においては、編集作業の中で、編集パレットにおいてオーラ画像を示すアイコンが選択されることで、オーラ画像の合成処理が開始されるものした。これに限らず、事前選択作業や撮影作業の中で、オーラ画像を選択させるようにしてもよい。この場合、撮影処理において表示されるライブビュー画像や撮影結果としての撮影画像に、オーラ画像が合成されるようにしてもよい。さらにこの場合、合成されたオーラ画像を、編集処理において変更可能とするようにしてもよい。   In the above description, during the editing operation, an aura image combining process is started by selecting an icon indicating an aura image on the editing palette. The present invention is not limited to this, and an aura image may be selected during a pre-selection operation or a photographing operation. In this case, an aura image may be combined with a live view image displayed in the shooting process or a shot image as a shooting result. Further, in this case, the synthesized aura image may be changed in the editing process.

さらには、利用者の直接的な操作によらず、撮影画像にオーラ画像が合成されるようにしてもよい。例えば、事前選択処理において選択された背景画像のデザインに応じたオーラ画像が、撮影画像に合成されるようにしてもよい。   Furthermore, the aura image may be combined with the captured image without depending on the direct operation of the user. For example, an aura image according to the design of the background image selected in the preselection process may be combined with the captured image.

<携帯おまけの作成について>
ところで、編集画面(図18)において、携帯おまけボタン415L(415R)が操作されると、携帯おまけの作成を行うための携帯おまけ作成画面が表示される。
<About making a mobile phone bonus>
By the way, when the mobile bonus button 415L (415R) is operated on the editing screen (FIG. 18), a mobile bonus creation screen for creating a mobile bonus is displayed.

まず、編集画面において、携帯おまけボタン415Lが操作されると、携帯おまけ作成画面として、作成コース選択画面が表示される。   First, when the mobile phone bonus button 415L is operated on the editing screen, a creation course selection screen is displayed as a mobile phone bonus creation screen.

図33は、作成コース選択画面の例を示す図である。   FIG. 33 is a diagram illustrating an example of a creation course selection screen.

図33に示される作成コース選択画面には、携帯おまけの作成コースとして「正方形コース」を選択させるためのボタン511と、「通常コース」を選択させるためのボタン512が設けられる。「正方形コース」は、撮影画像の形状を正方形に加工した上に、所定のデザインを施すためのコースである。正方形に加工された画像は、上述した携帯専用画像と同様、SNSの利用者自身のプロフィールを掲載するページなどに用いられる。また、「通常コース」は、撮影画像に、所定の画像処理を施すためのコースである。   The creation course selection screen shown in FIG. 33 is provided with a button 511 for selecting a “square course” as a creation course of the mobile bonus and a button 512 for selecting a “normal course”. The “square course” is a course for applying a predetermined design after processing the shape of a captured image into a square. The image processed into a square is used, for example, on a page for posting the profile of the user of the SNS, similarly to the above-mentioned image for exclusive use of carrying. The “normal course” is a course for performing predetermined image processing on a captured image.

また、ボタン513は、携帯おまけの作成を終了させるためのボタンである。ボタン513が操作されると、作成コース選択画面は閉じられ、編集画面(図18)が再び表示される。   The button 513 is a button for ending the creation of the mobile bonus. When the button 513 is operated, the creation course selection screen is closed, and the editing screen (FIG. 18) is displayed again.

作成コース選択画面において、利用者によりボタン511が操作されると、携帯おまけ作成画面として、デザイン選択画面が表示される。   When the user operates the button 511 on the creation course selection screen, a design selection screen is displayed as a mobile bonus creation screen.

図34は、デザイン選択画面の例を示す図である。   FIG. 34 is a diagram illustrating an example of the design selection screen.

図34に示されるデザイン選択画面には、9枚のデザイン画像521−1乃至521−9が表示される。デザイン画像521−1乃至521−9は、それぞれ異なるデザインが施された画像である。なお、デザイン画像521−1乃至521−9は、上述した携帯専用画像選択画面で選択されるデザイン画像とは異なる画像処理が施されることで得られた画像である。   On the design selection screen shown in FIG. 34, nine design images 521-1 to 521-9 are displayed. The design images 521-1 to 521-9 are images to which different designs are applied. Note that the design images 521-1 to 521-9 are images obtained by performing image processing different from the design image selected on the above-described portable image selection screen.

ボタン522は、選択されたデザイン画像に施されているデザインを、撮影画像に施すデザインに決定するためのボタンである。ボタン523は、携帯おまけ作成画面の表示を1つ前の表示(作成コース選択画面)に戻すためのボタンである。また、ボタン524は、携帯おまけの作成を終了させるためのボタンである。ボタン524が操作されると、デザイン選択画面は閉じられ、編集画面(図18)が再び表示される。   The button 522 is a button for determining the design applied to the selected design image as the design applied to the captured image. The button 523 is a button for returning the display of the mobile phone bonus creation screen to the immediately preceding display (creation course selection screen). The button 524 is a button for ending the creation of the mobile bonus. When the button 524 is operated, the design selection screen is closed, and the editing screen (FIG. 18) is displayed again.

ここで、デザイン画像が選択されることによって施されるデザイン(画像処理)について例示する。ここでは、撮影画像の所定の領域が所定の形状で切り取られた画像を移動または回転させて、元の撮影画像に合成する画像処理の例について説明する。なお、これらの画像処理は、後述する正方形への加工の後に、撮影画像に対して施される。   Here, a design (image processing) performed by selecting a design image will be exemplified. Here, an example of image processing in which an image obtained by cutting out a predetermined region of a captured image in a predetermined shape is moved or rotated and combined with the original captured image will be described. Note that these image processings are performed on a captured image after processing into a square described later.

(デザイン例1)
図35は、デザイン選択画面において、デザイン画像521−3が選択されることによって施されるデザインについて説明する図である。
(Design example 1)
FIG. 35 is a diagram illustrating a design performed by selecting a design image 521-3 on the design selection screen.

まず、撮影画像551の一部(下側三分の一程度)が、斜めに切り取られる。これにより、台形状の切り取り画像552が得られる。   First, a part (about the lower third) of the photographed image 551 is cut off obliquely. As a result, a trapezoidal cutout image 552 is obtained.

次に、切り取り画像552が、撮影画像551に合成される。このとき、切り取り画像552は、撮影画像551に対して左方向にずれるようにして、撮影画像551に合成される。ここで、切り取り画像552に対して、元の撮影画像551の色と異なる色にする処理が施されるようにしてもよい。さらに、例えば、切り取り画像552の人物領域に沿った領域に、上述したオーラ画像が合成されるようにしてもよい。   Next, the cut image 552 is combined with the photographed image 551. At this time, the cut image 552 is combined with the photographed image 551 so as to be shifted leftward with respect to the photographed image 551. Here, the cut image 552 may be subjected to a process of making the color different from the color of the original captured image 551. Further, for example, the aura image described above may be combined with a region along the person region of the cutout image 552.

このようにして、デザイン画像553が得られる。   Thus, the design image 553 is obtained.

(デザイン例2)
図36は、デザイン選択画面において、デザイン画像521−6が選択されることによって施されるデザインについて説明する図である。
(Design example 2)
FIG. 36 is a diagram illustrating a design performed by selecting a design image 521-6 on the design selection screen.

まず、撮影画像561の一部(矩形の破線部分)が切り取られる。これにより、矩形状の切り取り画像562−1,562−2が得られる。   First, a part (rectangular broken line part) of the captured image 561 is cut out. Thereby, rectangular cutout images 562-1 and 562-2 are obtained.

次に、切り取り画像562−1,562−2が、撮影画像561に合成される。このとき、切り取り画像562−1は撮影画像561に対して左方向に、切り取り画像562−2は撮影画像561に対して右方向にずれるようにして、撮影画像561に合成される。   Next, the cut images 562-1 and 562-2 are combined with the captured image 561. At this time, the cut image 562-1 and the cut image 562-2 are combined with the shot image 561 such that the cut image 562-1 is shifted leftward with respect to the shot image 561 and the cut image 562-2 is shifted rightward with respect to the shot image 561.

このようにして、デザイン画像563が得られる。   Thus, the design image 563 is obtained.

(デザイン例3)
図37は、デザイン選択画面において、デザイン画像521−6が選択されることによって施されるデザインについて説明する図である。
(Design example 3)
FIG. 37 is a diagram illustrating a design performed when a design image 521-6 is selected on the design selection screen.

まず、撮影画像571の一部(正方形の破線部分)が切り取られる。これにより、正方形状の切り取り画像572が得られる。なお、切り取り画像572は、縦横比の異なる矩形であってもよい。   First, a part of the captured image 571 (square broken line part) is cut out. Thereby, a square cutout image 572 is obtained. Note that the cutout image 572 may be a rectangle having a different aspect ratio.

次に、切り取り画像572が、撮影画像571に合成される。このとき、切り取り画像572は撮影画像571に対して左回りに回転して、撮影画像571に合成される。なお、撮影画像571にはぼかし処理が施される。   Next, the cut image 572 is combined with the photographed image 571. At this time, the cut image 572 rotates counterclockwise with respect to the captured image 571, and is combined with the captured image 571. Note that the captured image 571 is subjected to a blurring process.

このようにして、デザイン画像573が得られる。   Thus, a design image 573 is obtained.

以上のように、撮影画像の所定の領域が所定の形状で切り取られた画像を移動または回転させて、元の撮影画像に合成することで、従来にないデザイン性の高い画像が得られる。なお、所定の形状で切り取られた切り取り画像に対してのみ、上述したオーラ画像が合成されるようにしてもよい。   As described above, by moving or rotating an image in which a predetermined region of a captured image is cut out in a predetermined shape and combining it with the original captured image, an image with a high design quality that has not been obtained in the past can be obtained. Note that the aura image described above may be combined only with a clipped image clipped in a predetermined shape.

さて、図34のデザイン選択画面において、利用者によりボタン522が操作されると、携帯おまけ作成画面として、画像切り取り画面が表示される。   Now, when the user operates the button 522 on the design selection screen of FIG. 34, an image cutout screen is displayed as a mobile bonus creation screen.

図38は、画像切り取り画面の例を示す図である。   FIG. 38 is a diagram illustrating an example of the image cutout screen.

画像切り取り画面の左上側には、サムネイル画像表示領域581が設けられる。サムネイル画像表示領域581は、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル画像表示領域581に表示されているサムネイル画像を選択することによって、携帯おまけとする撮影画像を選択することができる。   A thumbnail image display area 581 is provided on the upper left side of the image cutout screen. The thumbnail image display area 581 is a display area for a thumbnail image representing a captured image. By selecting a thumbnail image displayed in the thumbnail image display area 581, the user can select a captured image to be used as an extra for carrying.

画像切り取り画面の右上側には、デザイン画像表示部582が設けられる。デザイン画像表示部582には、デザイン選択画面において利用者により選択されたデザイン画像が表示される。   A design image display unit 582 is provided on the upper right side of the image cutout screen. The design image display section 582 displays the design image selected by the user on the design selection screen.

画像切り取り画面のほぼ中央には、選択画像表示領域583が設けられる。選択画像表示領域583には、サムネイル画像表示領域581に表示されているサムネイル画像において、利用者により選択されたサムネイル画像に対応する撮影画像が表示される。   A selected image display area 583 is provided substantially at the center of the image cutout screen. In the selected image display area 583, a captured image corresponding to the thumbnail image selected by the user among the thumbnail images displayed in the thumbnail image display area 581 is displayed.

なお、撮影画像の形状は縦長の矩形であるが、選択画像表示領域583の形状は正方形である。すなわち、選択画像表示領域583に表示される撮影画像は、その形状を正方形とする加工が施されている。   Although the shape of the captured image is a vertically long rectangle, the shape of the selected image display area 583 is a square. That is, the captured image displayed in the selected image display area 583 has been processed to have a square shape.

選択画像表示領域583の左方には、選択ボタン584,585が設けられる。選択ボタン584,585は、撮影画像の形状を正方形とする加工の方法を選択するためのボタンである。   Selection buttons 584 and 585 are provided on the left side of the selected image display area 583. The selection buttons 584 and 585 are buttons for selecting a processing method for making the shape of the captured image square.

選択ボタン584が選択されると、撮影画像の横の長さに合わせてその形状が正方形となるように、撮影画像が加工される。   When the selection button 584 is selected, the captured image is processed so that the shape becomes a square according to the horizontal length of the captured image.

具体的には、図39に示されるように、撮影画像591に対して、その横の長さと同じ間隔を有する2本の切り取り線H1,H2を設定する。切り取り線H1,H2で挟まれる領域を切り出すことで、正方形の形状を有する撮影画像592が得られる。   Specifically, as shown in FIG. 39, two cut lines H1 and H2 having the same interval as the horizontal length are set for the captured image 591. By cutting out a region sandwiched between the cutoff lines H1 and H2, a captured image 592 having a square shape is obtained.

一方、選択ボタン585が選択されると、撮影画像の縦の長さに合わせてその形状が正方形となるように、撮影画像が加工される。   On the other hand, when the selection button 585 is selected, the captured image is processed so that the shape becomes a square in accordance with the vertical length of the captured image.

具体的には、図40に示されるように、撮影画像591の横の長さが、その縦の長さと同じとなるような画像V1,V2を、撮影画像591の左右に合成する。これにより、正方形の形状を有する撮影画像593が得られる。画像V1,V2には、所定の図柄や色が施されるようにしてもよい。   More specifically, as shown in FIG. 40, images V1 and V2 in which the horizontal length of the captured image 591 is the same as the vertical length are synthesized on the left and right of the captured image 591. As a result, a captured image 593 having a square shape is obtained. A predetermined pattern or color may be applied to the images V1 and V2.

ここで、撮影画像592の大きさと、撮影画像593の大きさとは互いに異なるが、選択画像表示領域583に表示される際に、それらの大きさは調整されるものとする。   Here, the size of the captured image 592 and the size of the captured image 593 are different from each other, but when displayed in the selected image display area 583, their sizes are adjusted.

従来、携帯おまけの作成において、撮影画像の形状を正方形にするには、利用者の操作により、正方形のトリミング枠を選択したり設定する必要があった。一方、この例では、選択ボタン584,585を選択するだけで、撮影画像の形状を正方形にすることができる。すなわち、従来と比較して、より簡単な操作で、撮影画像の形状を正方形にすることができる。   Conventionally, in making a mobile bonus, in order to make a captured image into a square shape, it was necessary to select or set a square trimming frame by a user operation. On the other hand, in this example, the shape of the captured image can be made square by simply selecting the selection buttons 584 and 585. That is, the shape of the captured image can be made square with simpler operation than in the related art.

なお、選択画像表示領域583に表示された正方形形状の撮影画像は、利用者の操作に応じて、選択画像表示領域583に対して相対的に移動および拡大/縮小可能される。   The square-shaped captured image displayed in the selected image display area 583 can be moved and enlarged / reduced relative to the selected image display area 583 in accordance with a user operation.

さて、図38の説明に戻り、ボタン586は、選択画像表示領域583に表示されている状態の撮影画像を携帯おまけの編集対象に決定するためのボタンである。また、ボタン587は、携帯おまけの作成を終了させるためのボタンである。ボタン587が操作されると、画像切り取り画面は閉じられ、編集画面(図18)が再び表示される。   Now, returning to the description of FIG. 38, the button 586 is a button for determining the captured image displayed in the selected image display area 583 as an editing target of the mobile phone bonus. A button 587 is a button for ending the creation of the mobile bonus. When the button 587 is operated, the image cropping screen is closed, and the editing screen (FIG. 18) is displayed again.

画像切り取り画面において、利用者によりボタン586が操作されると、携帯おまけ作成画面として、携帯おまけ編集画面が表示される。図示はしないが、携帯おまけ編集画面には、正方形の撮影画像と、携帯おまけ専用の編集パレットとが表示される。   When the user operates the button 586 on the image cutout screen, a mobile phone bonus editing screen is displayed as a mobile phone bonus creation screen. Although not shown, a square photographed image and an editing palette dedicated to the mobile bonus are displayed on the mobile bonus editing screen.

携帯おまけ編集画面に表示される撮影画像には、デザイン選択画面において選択されたデザイン画像に対応するデザイン(画像処理)が施されているものとする。   It is assumed that the captured image displayed on the mobile phone bonus editing screen has been subjected to a design (image processing) corresponding to the design image selected on the design selection screen.

(切り取り画像の変形例)
ここで、撮影画像から切り取られる切り取り画像の形状は、複数の形状(矩形、円形等)から利用者により選択された形状としてもよいし、タッチペンによりなぞられた形状としてもよい。
(Modified example of cut image)
Here, the shape of the cut image cut from the captured image may be a shape selected by the user from a plurality of shapes (rectangular, circular, etc.), or may be a shape traced by a touch pen.

また、撮影画像から切り取られる領域(切り取り画像)の数が、利用者に選択されるようにしてもよい。なお、デザイン画像より先に、切り取られる領域の数を選択させる場合には、選択された数だけ切り取られる領域が設定されているデザイン画像のみが、利用者に選択可能とされるようにしてもよい。   Further, the number of regions (cut images) cut out from the captured image may be selected by the user. In the case where the number of areas to be cut out is selected prior to the design image, the user may select only the design image in which the selected number of areas to be cut out is set. Good.

さらに、携帯おまけ編集画面に表示される撮影画像において、切り取り画像の移動の移動量や移動方向、回転の回転量や回転方向が、利用者により指定されるようにしてもよい。これにより、1つのデザイン画像から、見た目の印象の異なる画像を生成することができる。   Further, in the captured image displayed on the mobile bonus editing screen, the user may specify the moving amount and moving direction of the cut image, the rotating amount and the rotating direction of the rotation of the cut image. As a result, it is possible to generate images having different visual impressions from one design image.

以下においては、利用者の操作による、切り取り画像の移動および回転の詳細な例について説明する。   In the following, a detailed example of the movement and rotation of the cut image by the operation of the user will be described.

(移動について)
例えば、携帯おまけ編集画面において、切り取り画像が合成された撮影画像とともに、手の形をしたアイコンを表示させる。タッチペンによりそのアイコンを操作することで、切り取り画像を移動させるようにする。
(About movement)
For example, a hand-shaped icon is displayed on the mobile phone bonus editing screen together with the captured image in which the cut image is synthesized. By operating the icon with a touch pen, the cut image is moved.

携帯おまけ編集画面の所定の領域に、上下左右の4方向を示す十字キーを設け、その十字キーに対する操作によって、切り取り画像を移動させるようにしてもよい。   A cross key indicating up, down, left, and right directions may be provided in a predetermined area of the mobile bonus editing screen, and the cut image may be moved by operating the cross key.

また、切り取り画像が矩形の場合、携帯おまけ編集画面において撮影画像上に表示されている切り取り画像の上下左右の四辺それぞれの近傍に、矢印ボタンを設けるようにしてもよい。それぞれの矢印ボタンが選択されると、切り取り画像が上下左右方向へ移動される。   When the cutout image is rectangular, arrow buttons may be provided near the four sides of the cutout image displayed on the captured image on the mobile bonus editing screen. When each arrow button is selected, the cut image is moved in the up, down, left, and right directions.

さらに、携帯おまけ編集画面の所定の領域に、切り取り画像を移動させるための移動ボタンを設けるようにしてもよい。例えば、1回目に移動ボタンが操作されると、切り取り画像が上方向へ移動され、2回目に移動ボタンが操作されると、切り取り画像が下方向へ移動される。また、3回目に移動ボタンが操作されると、切り取り画像が右方向へ移動され、4回目に移動ボタンが操作されると、切り取り画像が左方向へ移動される。   Further, a move button for moving the cut image may be provided in a predetermined area of the mobile bonus editing screen. For example, when the move button is operated for the first time, the cut image is moved upward, and when the move button is operated for the second time, the cut image is moved downward. When the move button is operated for the third time, the cut image is moved rightward, and when the move button is operated for the fourth time, the cut image is moved leftward.

また、携帯おまけ編集画面の所定の領域に、x方向(横方向)およびy方向(縦方向)への移動量を入力させるテキストボックスを設けるようにしてもよい。テキストボックスに入力される値は、ピクセル単位であってもよいし、撮影画像の表示領域に目盛を表示させるようにした場合には、その目盛の数値であってもよい。   Further, a text box for inputting the amount of movement in the x direction (horizontal direction) and the y direction (vertical direction) may be provided in a predetermined area of the mobile bonus editing screen. The value input to the text box may be a pixel unit or, if a scale is displayed in the display area of the captured image, may be a numerical value of the scale.

さらに、携帯おまけ編集画面の所定の領域に、ランダムボタンを設けるようにしてもよい。ランダムボタンが操作されると、無作為的に、切り取り画像が移動量および/または移動方向を変えて移動される。   Further, a random button may be provided in a predetermined area of the mobile bonus editing screen. When the random button is operated, the cut image is moved at random by changing the moving amount and / or the moving direction.

(回転について)
例えば、タブレット内蔵モニタ131上でのタッチペンの軌跡によって、切り取り画像が回転されるようにする。例えば、携帯おまけ編集画面上で、タッチペンが右回りで円弧を描くように移動されると、切り取り画像が時計回りに回転されるようにする。また、携帯おまけ編集画面上で、タッチペンが左回りで円弧を描くように移動されると、切り取り画像が反時計回りに回転されるようにする。
(About rotation)
For example, the cut image is rotated according to the locus of the touch pen on the monitor 131 with a built-in tablet. For example, when the touch pen is moved in a clockwise direction on the portable bonus editing screen so as to draw an arc, the cut image is rotated clockwise. When the touch pen is moved in a counterclockwise direction on the mobile phone bonus editing screen, the cut image is rotated counterclockwise.

また、携帯おまけ編集画面の所定の領域に、回転角度を入力させるテキストボックスを設けるようにしてもよい。テキストボックスに入力される値(角度)は、0°乃至359°とする。   Further, a text box for inputting a rotation angle may be provided in a predetermined area of the mobile phone bonus editing screen. The value (angle) input to the text box is 0 ° to 359 °.

なお、テキストボックスに入力される角度を、−90°乃至90°としてもよい。この場合、例えばテキストボックスの近傍に、切り取り画像を上下反転させるための上下反転ボタンを設けるようにする。これにより、回転角度として0°乃至359°をカバーすることができる。   Note that the angle input to the text box may be from −90 ° to 90 °. In this case, for example, an upside down button for upside down the cut image is provided near the text box. Thereby, a rotation angle of 0 ° to 359 ° can be covered.

また、テキストボックスに入力される角度を、0°乃至90°としてもよい。この場合、例えばテキストボックスの近傍に、上述した上下反転ボタンに加え、切り取り画像を左右反転させるための左右反転ボタンを設けるようにする。これにより、回転角度として0°乃至359°をカバーすることができる。   Further, the angle input to the text box may be 0 ° to 90 °. In this case, for example, in addition to the above-mentioned upside down button, a left / right inversion button for left / right inversion of the cut image is provided near the text box. Thereby, a rotation angle of 0 ° to 359 ° can be covered.

なお、具体的な回転角度を入力するテキストボックスを設けず、単に、上下反転ボタンおよび左右反転ボタンのみを設けるようにしてもよい。   Note that a text box for inputting a specific rotation angle may not be provided, and only a vertical inversion button and a horizontal inversion button may be provided.

さらに、携帯おまけ編集画面上に、回転ボタンを設けるようにしてもよい。回転ボタンが選択されると、切り取り画像が所定角度ずつ回転されるようにする。   Further, a rotation button may be provided on the mobile phone bonus editing screen. When the rotation button is selected, the cut image is rotated by a predetermined angle.

また、撮影画像に合成されている切り取り画像上に、回転の中心点を表示させるようにしてもよい。さらに、切り取り画像上で、利用者の操作(タッチペンまたは指)により選択された位置が、回転の中心点に変更されるようにしてもよい。なお、この場合、デフォルトの状態では、切り取り画像の中心に、回転の中心点が表示されるようにする。   Further, the center point of the rotation may be displayed on the cut image synthesized with the captured image. Further, a position selected by a user operation (touch pen or finger) on the cut image may be changed to a center point of rotation. In this case, in the default state, the center point of rotation is displayed at the center of the cut image.

なお、回転により、撮影画像から切り取り画像の一部がはみ出してしまうような場合には、「はみ出してるよ」等のメッセージを、携帯おまけ編集画面上に表示させるようにしてもよい。   If a part of the cut image protrudes from the photographed image due to the rotation, a message such as “It protrudes” may be displayed on the mobile bonus editing screen.

(拡大/縮小について)
以上においては、利用者の操作による、切り取り画像の移動および回転の例について説明してきた。さらに、利用者の操作により、切り取り画像の拡大/縮小が行われるようにしてもよい。
(About enlargement / reduction)
In the above, the example of the movement and rotation of the cut image by the operation of the user has been described. Furthermore, the cut-out image may be enlarged / reduced by a user operation.

例えば、携帯おまけ編集画面上に、切り取り画像の大きさを調整するためのスライダーを設けるようにする。スライダーが操作されることで、切り取り画像が拡大/縮小される。   For example, a slider for adjusting the size of the cut image is provided on the mobile bonus editing screen. The cut image is enlarged / reduced by operating the slider.

スライダーに代えて、携帯おまけ編集画面の所定の領域に、サイズの異なる複数の矩形が表示された領域を設けるようにしてもよい。複数の矩形のうちのいずれかが選択されると、その矩形のサイズに応じて、切り取り画像が拡大/縮小されるようにする。   Instead of the slider, a region where a plurality of rectangles having different sizes are displayed may be provided in a predetermined region of the mobile bonus editing screen. When any one of the rectangles is selected, the cutout image is enlarged / reduced according to the size of the rectangle.

また、スライダーに代えて、倍率(例えば0%乃至200%等)を入力させるテキストボックスを設けるようにしてもよい。   Further, a text box for inputting a magnification (for example, 0% to 200%) may be provided instead of the slider.

さらに、タッチペンとタブレット内蔵モニタ131(撮影画像の表示領域)との接触時間の長さに応じて、切り取り画像の拡大/縮小の拡大率(縮小率)が調整されるようしてもよい。   Furthermore, the enlargement / reduction ratio (reduction ratio) of the enlargement / reduction of the cut-out image may be adjusted according to the length of contact time between the touch pen and the tablet built-in monitor 131 (the display region of the captured image).

また、タブレット内蔵モニタ131上でのタッチペンの軌跡によって、切り取り画像が拡大/縮小されるようにしてもよい。例えば、タブレット内蔵モニタ131上で、タッチペンが左下から右上に移動されると、切り取り画像が拡大され、タッチペンが右上から左下に移動されると、切り取り画像が縮小されるようにする。   Further, the cut image may be enlarged / reduced by the locus of the touch pen on the monitor 131 with a built-in tablet. For example, when the touch pen is moved from the lower left to the upper right on the tablet built-in monitor 131, the cut image is enlarged, and when the touch pen is moved from the upper right to the lower left, the cut image is reduced.

なお、上述したタブレット内蔵モニタ131に対する操作に、タッチペンに代えて指を用いるようにしてもよい。この場合、ピンチインやピンチアウト等の操作によって、切り取り画像が拡大/縮小されるようにしてもよい。   Note that a finger may be used in place of the touch pen for the operation on the tablet built-in monitor 131 described above. In this case, the cut image may be enlarged / reduced by an operation such as pinch-in or pinch-out.

上述した例では、拡大/縮小の中心は、切り取り画像の中心であるものとするが、切り取り画像上で、利用者の操作(タッチペンまたは指)により選択された位置を中心に、拡大/縮小されるようにしてもよい。この場合、利用者は、自身が興味のある領域を中心に拡大/縮小することができる。   In the above-described example, the center of the enlargement / reduction is assumed to be the center of the cutout image. You may make it. In this case, the user can enlarge / reduce the area of interest.

また、切り取り画像が拡大/縮小される際に、撮影画像の表示領域に固定のグリッドが表示されるようにしてもよい。これにより、利用者は、撮影画像の表示領域に表示されているグリッドのマス目の大きさにより、切り取り画像の拡大の度合いを把握することができる。   Further, when the cut image is enlarged / reduced, a fixed grid may be displayed in the display area of the captured image. Thus, the user can grasp the degree of enlargement of the cut image based on the size of the grid displayed on the display area of the captured image.

(鏡映について)
さらにまた、利用者の操作により、切り取り画像の鏡映が行われるようにしてもよい。
(About mirror)
Furthermore, the cut-out image may be mirrored by a user's operation.

例えば、携帯おまけ編集画面上に、切り取り画像を鏡映反転するためのボタンを設けるようにする。このボタンが操作されることで、切り取り画像が上下または左右に鏡映反転される。   For example, a button for mirroring and inverting the cut image is provided on the mobile phone bonus editing screen. By operating this button, the cut image is mirror-inverted vertically or horizontally.

なお、デザイン画像によっては、前景画像が合成されるものもある。この場合、上述で説明した、利用者の操作による切り取り画像の移動、回転、拡大/縮小、および鏡映は、その前景画像を避けるように行われるものとする。   Note that some design images are combined with a foreground image. In this case, the movement, rotation, enlargement / reduction, and mirroring of the cut image by the user's operation described above are performed so as to avoid the foreground image.

また、利用者の人数に応じて、切り取り画像の移動、回転、拡大/縮小、および鏡映の操作が制限されるようにしてもよい。例えば、利用者の人数が多いと、撮影画像において利用者の顔の占める割合も大きくなる。そこで、利用者の人数が多い場合には、切り取り画像の移動、回転、拡大/縮小、および鏡映の操作が制限されるようにする。これにより、撮影画像において利用者の顔が確実に写るようになる。   In addition, the operations of moving, rotating, enlarging / reducing, and mirroring the cut image may be limited according to the number of users. For example, if the number of users is large, the proportion of the user's face in the captured image also increases. Therefore, when the number of users is large, the operations of moving, rotating, enlarging / reducing, and mirroring the cut image are restricted. This ensures that the user's face is captured in the captured image.

さらに、切り取り画像に対して、上述したオーラ画像が合成されるようにし、その切り取り画像の移動、回転、拡大/縮小、および鏡映が、利用者の操作により行われるようにしてもよい。   Further, the above-described aura image may be combined with the cut image, and the movement, rotation, enlargement / reduction, and mirroring of the cut image may be performed by a user operation.

以上においては、1枚の撮影画像から、1枚の携帯おまけが作成される例について説明してきた。しかしながら、1枚の撮影画像から、2枚以上の携帯おまけが作成されるようにしてもよい。   In the above, an example has been described in which one mobile bonus is created from one captured image. However, two or more mobile bonuses may be created from one captured image.

例えば、利用者により選択されたデザイン画像に基づいて、切り取り画像の移動の向き(例えば縦/横など)が異なる2枚の携帯おまけが作成されるようにする。また、利用者により選択されたデザイン画像に基づいて、前景画像として合成される図柄や文字などが異なる2枚の携帯おまけが作成されるようにしてもよい。そして、作成された2枚の携帯おまけのうち、利用者に選択された方を、最終的に利用者の携帯端末に送信されるようにする。これにより、利用者は、より所望の画像を携帯おまけとして手に入れることができる。   For example, based on the design image selected by the user, two mobile bonuses having different movement directions (for example, vertical / horizontal) of the cut image are created. Further, based on the design image selected by the user, two mobile bonuses having different designs, characters, and the like to be combined as the foreground image may be created. Then, of the two mobile bonuses created, the one selected by the user is finally transmitted to the mobile terminal of the user. This allows the user to obtain a more desired image as a mobile bonus.

また、1枚の撮影画像について選択されたデザイン画像のデザイン(画像処理)が、他の撮影画像に反映されるようにしてもよい。これにより、利用者は、1回の操作で、複数の撮影画像に対して所望のデザインを施すことができる。   Further, the design (image processing) of the design image selected for one captured image may be reflected on another captured image. This allows the user to apply a desired design to a plurality of captured images with a single operation.

本実施の形態においては、利用者の携帯端末に、上述した携帯おまけの他、携帯専用画像が送信される。   In the present embodiment, a mobile-specific image is transmitted to the user's mobile terminal in addition to the mobile bonus described above.

そこで、以下においては、携帯専用画像について説明する。   Therefore, the following describes the mobile-only image.

<携帯専用画像について>
図41は、事前選択処理(図15のステップS17)において表示される携帯専用画像選択画面の例を示す図である。
<About mobile-only images>
FIG. 41 is a diagram showing an example of a mobile-only image selection screen displayed in the pre-selection process (step S17 in FIG. 15).

携帯専用画像選択画面の上方には、「撮りたいデザインを選んでね」のメッセージが表示される。そのメッセージの下方には、8枚のデザイン画像611乃至618が表示される。上述したように、デザイン画像611乃至618は、6回目の撮影(携帯専用撮影)により取得される撮影画像に合成されることで、その撮影画像の仕上がりをデザイン性の高いものにする。   A message "Please select a design you want to take" is displayed above the mobile-specific image selection screen. Below the message, eight design images 611 to 618 are displayed. As described above, the design images 611 to 618 are combined with the photographed image acquired by the sixth photographing (cellular photographing), so that the finish of the photographed image has high designability.

図41の例では、デザイン画像611乃至618には、モデルを被写体として撮影されたモデル画像が合成されている。   In the example of FIG. 41, the design images 611 to 618 are combined with a model image captured using the model as a subject.

また、携帯専用撮影においては、適宜ピン撮が行われる。ここで、ピン撮とは、利用者が2人の場合、2人の利用者を被写体とした1回の撮影により、同時に1人ずつの画像を得る撮影方法をいう。   In mobile-only shooting, pin shooting is performed as appropriate. Here, the pin shooting refers to a shooting method in which, when there are two users, an image of one user is simultaneously obtained by one shooting with two users as subjects.

例えば、デザイン画像615には、ピン撮により得られた、1人の利用者が写るピン撮画像が合成されるようになされている。   For example, the design image 615 is combined with a pin image obtained by pin shooting and showing a single user.

図42は、デザイン画像615が選択された場合に、携帯専用撮影の際、タッチパネル92に表示されるガイダンス画面の例を示す図である。   FIG. 42 is a diagram illustrating an example of a guidance screen displayed on the touch panel 92 during shooting for exclusive use of the mobile phone when the design image 615 is selected.

ガイダンス画面の中央には、携帯専用画像選択画面において選択されたデザイン画像615が表示される。デザイン画像615の下方には、デザイン画像615のデザインで携帯専用撮影が行われる旨のメッセージと、利用者に立ち位置を指示するメッセージが表示される。   At the center of the guidance screen, a design image 615 selected on the mobile-only image selection screen is displayed. Below the design image 615, a message indicating that the mobile phone-specific shooting is to be performed using the design of the design image 615 and a message instructing the user to stand are displayed.

ガイダンス画面の表示が終わると、ピン撮用のライブビュー表示画面が表示される。   When the guidance screen is displayed, a live view display screen for pin shooting is displayed.

図43は、ライブビュー表示画面の例を示す図である。   FIG. 43 is a diagram illustrating an example of the live view display screen.

ライブビュー表示画面の画像表示領域631,632には、2人の利用者U11,U12それぞれが映るライブビュー画像がリアルタイムで表示される。   In the image display areas 631 and 632 of the live view display screen, live view images showing the two users U11 and U12 are displayed in real time.

利用者U11,U12は、直前までガイダンス画面に表示されていたデザイン画像のモデルと同様のポーズをとりながら、全身が画像表示領域631,632に収まるように、体の位置を調整する。   The users U11 and U12 adjust the positions of their bodies so that the whole body fits in the image display areas 631 and 632 while taking the same pose as the model of the design image displayed on the guidance screen until immediately before.

なお、2人用コースであっても、顔認識の結果などにより、利用者が1人であると判定される場合には、ライブビュー表示画面には、1つの画像表示領域のみが表示されるようにしてもよい。   In the case of a two-person course, if it is determined that there is only one user based on the result of face recognition or the like, only one image display area is displayed on the live view display screen. You may do so.

さらに、顔認識の結果などにより、ライブビュー表示画面に表示される画像表示領域の大きさが変更されるようにしてもよい。具体的には、顔認識の結果、顔の大きさが所定の大きさより大きいと判定された場合には、画像表示領域全体の大きさを大きくしたり、画像表示領域の顔に対応する部分の大きさを大きくする。   Further, the size of the image display area displayed on the live view display screen may be changed according to the result of face recognition or the like. Specifically, as a result of the face recognition, when it is determined that the size of the face is larger than the predetermined size, the size of the entire image display area is increased, or the size of the portion corresponding to the face in the image display area is increased. Increase the size.

なお、画像表示領域において顔の位置が定まれば、身体全体の位置もほぼ定まる。そこで、全身撮影が行われる場合であっても、ライブビュー表示画面には、顔の付近のみが表示される画像表示領域が設けられるようにしてもよい。   When the position of the face is determined in the image display area, the position of the entire body is substantially determined. Therefore, even when the whole body is photographed, the live view display screen may be provided with an image display area in which only the vicinity of the face is displayed.

また、携帯専用撮影でアップ撮影が行われる場合、顔認識を行うことで、顔の部分のみの撮影画像が得られるようなアップ撮影が行われるようにしてもよい。このとき、顔および上半身が写る撮影画像が同時に得られるようにしてもよい。この場合、得られた2枚の撮影画像のうち、携帯専用撮影に用いられる撮影画像を利用者に選択させるようにする。   Further, in the case where the close-up shooting is performed in the mobile-only shooting, the close-up shooting may be performed by performing face recognition to obtain a shot image of only the face portion. At this time, a captured image in which the face and the upper body are captured may be obtained at the same time. In this case, the user is caused to select a photographed image used for carrying-only photographing from the obtained two photographed images.

このようなライブビュー画像が所定の時間表示された後、撮影前のカウントダウンが開始される。そして、撮影のタイミングになったとき、撮影の撮影結果がタッチパネルモニタ92に表示される。   After such a live view image is displayed for a predetermined time, a countdown before photographing is started. Then, when it is time to take a photograph, the photographing result of the photographing is displayed on the touch panel monitor 92.

図44は、利用者U11の撮影結果確認画面の例を示す図である。   FIG. 44 is a diagram illustrating an example of a shooting result confirmation screen of the user U11.

撮影結果確認画面には、デザイン画像615に、ピン撮によって得られた利用者U11の撮影画像が合成された合成画像641が表示される。利用者U11の撮影結果確認画面が所定時間表示された後、利用者U12の撮影結果がタッチパネルモニタ92に表示される。   On the photographing result confirmation screen, a combined image 641 in which the photographed image of the user U11 obtained by pin photographing is combined with the design image 615 is displayed. After the photographing result confirmation screen of the user U11 is displayed for a predetermined time, the photographing result of the user U12 is displayed on the touch panel monitor 92.

図45は、利用者U2の撮影結果確認画面の例を示す図である。   FIG. 45 is a diagram illustrating an example of a photographing result confirmation screen of the user U2.

撮影結果確認画面には、デザイン画像615に、ピン撮によって得られた利用者U12の撮影画像が合成された合成画像642が表示される。   On the photographing result confirmation screen, a combined image 642 in which a photographed image of the user U12 obtained by pin photographing is combined with the design image 615 is displayed.

このように、2人の利用者の撮影結果を1枚ずつ表示させることで、それぞれの撮影結果を大きく表示させることができる。これにより、利用者は、撮影結果の細部まで確認することが可能となる。   In this way, by displaying the photographing results of two users one by one, each photographing result can be displayed large. As a result, the user can check the details of the photographing result.

なお、例えばタッチパネルモニタ92の大きさが十分であれば、2人の利用者の撮影結果を同時に表示させるようにしてもよい。   Note that, for example, if the size of the touch panel monitor 92 is sufficient, the photographing results of two users may be displayed simultaneously.

ここで、図46を参照して、デザイン画像615が選択された場合に得られる携帯専用画像(合成画像)のレイヤ構成について説明する。   Here, with reference to FIG. 46, a layer configuration of a portable-only image (composite image) obtained when the design image 615 is selected will be described.

図46に示されるように、携帯専用画像は、背景レイヤ651、被写体レイヤ652,653から構成される。背景レイヤ651は、背景画像に相当するレイヤである。被写体レイヤ652,653は、いずれも撮影画像に相当するレイヤである。具体的には、被写体レイヤ653は、被写体の全身が写る撮影画像に相当するレイヤである。一方、被写体レイヤ652は、被写体の顔および上半身が写る撮影画像に相当するレイヤである。被写体レイヤ652の撮影画像には、ぼかし処理が施されている。   As shown in FIG. 46, the mobile-only image includes a background layer 651, subject layers 652, and 653. The background layer 651 is a layer corresponding to a background image. Each of the subject layers 652 and 653 is a layer corresponding to a captured image. Specifically, the subject layer 653 is a layer corresponding to a captured image in which the whole body of the subject is captured. On the other hand, the subject layer 652 is a layer corresponding to a captured image in which the face and upper body of the subject are captured. The captured image of the subject layer 652 has been subjected to a blurring process.

さらに、被写体レイヤ652には、被写体レイヤ653の被写体領域に対応する2つの被写体画像が、被写体レイヤ653の被写体領域の位置から左にずれて合成されている。これらの被写体画像は、被写体レイヤ653に基づいて生成される人物マスク画像を左にずらして、被写体レイヤ653を被写体レイヤ652に合成することを、2回繰り返すことでで得られる。このとき、合成される被写体レイヤ653の被写体領域には、フィルタ加工や色相を変える等、所定の画像処理が施されるようにしてもよい。なお、人物マスク画像をずらす向きは、上下左右いずれであってもよいし、上下左右のうちの2つ以上の方向であってもよい。   Further, in the subject layer 652, two subject images corresponding to the subject area of the subject layer 653 are synthesized shifted leftward from the position of the subject area of the subject layer 653. These subject images are obtained by repeating twice, shifting the person mask image generated based on the subject layer 653 to the left and combining the subject layer 653 with the subject layer 652. At this time, the subject area of the subject layer 653 to be synthesized may be subjected to predetermined image processing such as filtering or changing the hue. The direction in which the person mask image is shifted may be up, down, left, or right, or may be two or more of the up, down, left, and right directions.

これにより、全身が写る被写体をプリズムを通して見たような画像が得られる。   As a result, an image can be obtained as if the subject in which the whole body was captured was viewed through the prism.

なお、人物マスク画像をずらして合成される画像を、黒やグレー等の色画像にすることで、被写体レイヤ653の被写体に影ができたような画像を得ることもできる。   Note that an image in which a shadow is formed on the subject of the subject layer 653 can be obtained by changing the image synthesized by shifting the person mask image to a color image such as black or gray.

(携帯専用撮影処理の詳細について)
次に、図47のフローチャートを参照して、図46の携帯専用画像を得るための携帯専用撮影処理の詳細について説明する。
(Details of the mobile-only shooting process)
Next, with reference to the flowchart in FIG. 47, the details of the mobile-specific photographing process for obtaining the mobile-specific image in FIG. 46 will be described.

ステップS91において、撮影処理部302は、被写体(利用者)を撮影し、2枚の撮影画像を生成する。ここでは、ピン撮により、利用者1人につき2枚の撮影画像が生成される。したがって、利用者が2人の場合には、4枚の撮影画像が生成される。   In step S91, the photographing processing unit 302 photographs a subject (user) and generates two photographed images. Here, two shot images are generated for each user by pin shooting. Therefore, when there are two users, four captured images are generated.

例えば、図48に示されるように、2枚の撮影画像として、被写体の全身が写る撮影画像661と、被写体の顔および上半身が写る撮影画像662とが生成される。撮影画像661および撮影画像662は、1回の撮影により得られた画像が、それぞれ異なるトリミング範囲でトリミングされることで生成される。   For example, as shown in FIG. 48, as two captured images, a captured image 661 depicting the whole body of the subject and a captured image 662 depicting the face and upper body of the subject are generated. The shot image 661 and the shot image 662 are generated by trimming images obtained by one shooting in different trimming ranges.

ステップS92において、画像処理部324は、1枚目の撮影画像に基づいて、人物マスクを生成する。例えば、撮影画像662に写る被写体の顔および上半身をマスクする人物マスク画像が生成される。   In step S92, the image processing unit 324 generates a person mask based on the first captured image. For example, a person mask image that masks the face and upper body of the subject shown in the captured image 662 is generated.

ステップS93において、画像処理部324は、生成された人物マスクを用いて、背景画像に1枚目の撮影画像を合成する。例えば、図48に示されるように、背景画像663に、上述したマスク画像を用いて撮影画像662が合成される。これにより、背景画像663に撮影画像662に写る被写体の顔および上半身の部分のみが合成された合成画像664が得られる。   In step S93, the image processing unit 324 combines the first captured image with the background image using the generated person mask. For example, as shown in FIG. 48, a captured image 662 is combined with a background image 663 using the above-described mask image. As a result, a combined image 664 in which only the face and upper body of the subject shown in the captured image 662 are combined with the background image 663 is obtained.

なお、撮影画像622は、背景画像663に合成される際に、拡大処理とぼかし処理が施されるようにする。   Note that, when the captured image 622 is combined with the background image 663, enlargement processing and blur processing are performed.

ステップS94において、画像処理部324は、2枚目の撮影画像に基づいて、人物マスクを生成する。例えば、撮影画像661に写る被写体の全身をマスクする人物マスク画像が生成される。   In step S94, the image processing unit 324 generates a person mask based on the second captured image. For example, a person mask image that masks the whole body of the subject shown in the captured image 661 is generated.

ステップS95において、画像処理部324は、生成された人物マスクを用いて、合成画像に2枚目の撮影画像を合成する。例えば、図49に示されるように、合成画像664に、上述したマスク画像を用いて撮影画像661が合成される。これにより、合成画像664に、撮影画像661に写る被写体の全身の部分のみが合成された合成画像665が得られる。   In step S95, the image processing unit 324 combines the second captured image with the combined image using the generated person mask. For example, as shown in FIG. 49, a captured image 661 is combined with the combined image 664 using the above-described mask image. As a result, a combined image 665 in which only the whole body of the subject shown in the captured image 661 is combined with the combined image 664 is obtained.

このとき、合成画像664に合成された撮影画像662の被写体領域の要部(具体的には顔)の一部に、撮影画像661の被写体領域が重なるように、合成画像664に撮影画像661が合成される。   At this time, the captured image 661 is added to the composite image 664 such that the subject area of the captured image 661 overlaps a part of the main part (specifically, the face) of the subject area of the captured image 662 combined with the composite image 664. Synthesized.

そして、ステップS96において、表示制御部321は、合成画像665を撮影結果としてタッチパネルモニタ92に表示させる。   Then, in step S96, the display control unit 321 causes the touch panel monitor 92 to display the composite image 665 as a photographing result.

従来は、被写体の要部である顔が隠れるように他の被写体を重畳することは行われていなかった。一方、以上の処理によれば、1枚の撮影画像に写る被写体により、他の1枚の撮影画像に写る顔の部分が隠れるようになる。これにより、従来にない、デザイン性の高い画像が得られるようになる。   Conventionally, it has not been performed to superimpose another subject so that a face, which is a main part of the subject, is hidden. On the other hand, according to the above-described processing, the face portion appearing in another photographed image is hidden by the subject appearing in one photographed image. This makes it possible to obtain an image with a high design quality, which has not been achieved in the past.

以下においては、携帯専用画像の変形例について説明する。   Hereinafter, a modified example of the mobile-only image will be described.

(変形例)
上述した説明では、撮影画像661,662が、1回の撮影により得られた画像とした。これとは逆に、撮影画像661,662が、個別の撮影(例えば2回の撮影それぞれ)により得られた画像であってもよい。
(Modification)
In the above description, the shot images 661 and 662 are images obtained by one shooting. Conversely, the shot images 661 and 662 may be images obtained by individual shooting (for example, two shootings).

これにより、被写体である利用者は、それぞれの撮影の際に異なる表情やポーズをとることができる。結果として、それぞれの被写体部分が合成される合成画像665を、面白味のある画像とすることができる。なお、この場合、撮影画像661,662それぞれのトリミング範囲は同じであってもよいし、異なっていてもよい。   This allows the user as the subject to take different facial expressions and poses at the time of each shooting. As a result, the combined image 665 in which the respective subject portions are combined can be an interesting image. In this case, the trimming ranges of the captured images 661 and 662 may be the same or different.

また、上述した説明では、1回の撮影により得られた撮影画像661,662のトリミング範囲は異なるものとしたが、同じであってもよい。この場合、撮影画像661,662それぞれの被写体領域の重なり具合を調整するようにする。これにより、それぞれの被写体部分が合成される合成画像665を、面白味のある画像とすることができる。   In the above description, the trimming ranges of the shot images 661 and 662 obtained by one shooting are different, but may be the same. In this case, the degree of overlap between the subject areas of the captured images 661 and 662 is adjusted. Thereby, the combined image 665 in which the respective subject portions are combined can be an interesting image.

さらに、撮影画像661,662として、携帯専用撮影より前に行われる、1乃至5回目の撮影により得られた撮影画像が用いられるようにしてもよい。この場合、撮影画像661,662は、同一回の撮影により得られた撮影画像であってもよいし、異なる回の撮影により得られた撮影画像であってもよい。   Further, the shot images 661 and 662 may be shot images obtained by the first to fifth shootings performed before the mobile-only shooting. In this case, the shot images 661 and 662 may be shot images obtained by the same shooting, or shot images obtained by different shooting.

さらにまた、撮影画像661,662として用いられる撮影画像を、利用者に選択させるようにしてもよい。この場合、例えば、アップ撮影により得られた撮影画像であるか、全身撮影により得られた撮影画像であるかに応じて、選択の可否が切り替わるようにしてもよい。さらに、どちらの撮影画像を上層または下層のレイヤに合成するかを、利用者に選択させるようにしてもよい。   Furthermore, the user may be allowed to select a captured image to be used as the captured images 661 and 662. In this case, for example, the selection may or may not be switched depending on whether the image is a captured image obtained by up-photography or a captured image obtained by full-body imaging. Further, the user may be allowed to select which captured image is to be combined with the upper layer or the lower layer.

また、携帯専用撮影処理において、顔認識の結果に基づいて被写体の顔のパーツに所定の画像処理を施すような場合、顔認識が成功しない撮影画像は、撮影画像661,662として用いられないようにすることもできる。   In addition, in the case of carrying out a predetermined image processing on a part of the face of the subject based on the result of the face recognition in the portable photographing process, a photographed image for which face recognition is not successful is not used as the photographed images 661 and 662. You can also

もちろん、本例に用いられる撮影画像は、2枚に限らず、3枚以上であってもよい。この場合、選択されたデザイン画像によって、用いられる撮影画像が選択されてもよいし、選択されたデザイン画像によって、撮影処理における撮影回数自体が変更されてもよい。   Of course, the number of captured images used in this example is not limited to two, and may be three or more. In this case, a photographed image to be used may be selected according to the selected design image, or the number of times of photographing in the photographing process may be changed according to the selected design image.

また、撮影画像661,662のトリミング範囲を、利用者に選択させるようにしてもよい。この場合、複数のトリミング範囲を利用者に提示し、そのいずれか選択させるようにしてもよい。例えば、アップ撮影が行われた場合には、顔認識の結果により、最適なトリミング範囲を利用者に提示し、選択させるようにしてもよい。また、全身撮影が行われた場合には、人物領域の検出結果により、最適なトリミング範囲を利用者に提示し、選択させるようにしてもよい。   Further, the user may be allowed to select a trimming range of the captured images 661 and 662. In this case, a plurality of trimming ranges may be presented to the user and any one of them may be selected. For example, when the close-up photographing is performed, an optimal trimming range may be presented to the user based on the result of the face recognition and may be selected. Further, when the whole-body imaging is performed, an optimal trimming range may be presented to the user based on the detection result of the person region, and may be selected.

さらに、撮影画像661,662のトリミング範囲を決定する座標を、利用者に入力させるようにしてもよい。   Further, the user may input coordinates for determining the trimming range of the captured images 661 and 662.

また、トリミング範囲は、カメラ91の撮影範囲の中で設定される。そして、カメラ91の撮影範囲は、カメラ91の焦点距離によって決定される。そこで、カメラ91の焦点距離を選択させることで、トリミング範囲が変更されるようにしてもよい。   The trimming range is set within the shooting range of the camera 91. The shooting range of the camera 91 is determined by the focal length of the camera 91. Therefore, the trimming range may be changed by selecting the focal length of the camera 91.

上述した例では、アップ撮影により得られた撮影画像と、全身撮影により得られた撮影画像とでは、それぞれ縦横比が異なるものとした。そこで、それぞれの撮影画像が合成画像に用いられる場合、それぞれのトリミング範囲の縦横比を固定とし、トリミングされる領域のみが変更されるようにしてもよい。   In the example described above, the shot image obtained by the up shooting and the shot image obtained by the whole body shooting have different aspect ratios. Therefore, when each captured image is used for a composite image, the aspect ratio of each trimming range may be fixed, and only the area to be trimmed may be changed.

なお、アップ撮影により得られた撮影画像と、全身撮影により得られた撮影とで、トリミング範囲を同じとしてもよいし、異なるようにしてもよい。   Note that the trimming range may be the same or different between the captured image obtained by the up shooting and the shooting obtained by the whole body shooting.

また、合成画像665において、撮影画像661の被写体領域が合成される位置や、撮影画像662の被写体領域が合成される位置が、利用者の操作により指定されるようにしてもよい。また、撮影画像661,662それぞれの被写体領域に対して、先述した携帯おまけにおける切り取り画像と同様に、利用者の操作による移動、回転、拡大/縮小、および鏡映が行われるようにしてもよい。さらに、撮影画像661,662それぞれの被写体領域に対して、上述したオーラ画像が合成されるようにし、その撮影画像661,662それぞれの被写体領域の移動、回転、拡大/縮小、および鏡映が、利用者の操作により行われるようにしてもよい。   Further, in the composite image 665, the position where the subject area of the captured image 661 is combined or the position where the subject area of the captured image 662 is combined may be designated by a user operation. Further, the movement, rotation, enlargement / reduction, and mirroring by the user's operation may be performed on the subject area of each of the captured images 661 and 662 in the same manner as in the above-described cutout image in the portable bonus. . Further, the above-described aura image is combined with the subject area of each of the captured images 661 and 662, and the movement, rotation, enlargement / reduction, and reflection of the subject area of each of the captured images 661 and 662 are performed. You may make it perform by operation of a user.

なお、合成画像665において、撮影画像661,662の被写体領域が合成される位置は、例えば、撮影画像661の被写体の要部(具体的には顔)の一部または全部が隠れるなど、所定の範囲で指定されるものとする。   Note that, in the composite image 665, the position where the subject areas of the captured images 661 and 662 are combined is, for example, a predetermined position such that a part or the whole of a main part (specifically, a face) of the subject of the captured image 661 is hidden. It shall be specified by a range.

上述した例では、下層のレイヤに合成される撮影画像(撮影画像662)に対してぼかし処理が施されるものとした。これに限らず、下層のレイヤに合成される撮影画像に対して、モノトーン調にしたりセピア調にする画像処理が施されるようにしてもよい。なお、これらの画像処理は、下層のレイヤに合成される撮影画像に限らず、上層のレイヤに合成される撮影画像に施されるようにしてもよい。   In the example described above, the blurring process is performed on the captured image (the captured image 662) to be combined with the lower layer. However, the present invention is not limited to this, and it is also possible to perform image processing for obtaining a monotone tone or a sepia tone on a captured image to be synthesized with the lower layer. Note that these image processes are not limited to a captured image combined with a lower layer, and may be performed on a captured image combined with an upper layer.

また、上述の画像処理が施される領域(例えば、顔の領域のみなど)が指定されるようにしてもよい。さらに、1枚の撮影画像に対して、上述の画像処理が組み合わされて施されるようにしてもよい。もちろん、施される画像処理は、利用者により選択されるようにしてもよい。   Further, an area where the above-described image processing is performed (for example, only a face area) may be designated. Further, the above-described image processing may be performed in combination on one captured image. Of course, the image processing to be performed may be selected by the user.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the series of processes described above are executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図9に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 9, this recording medium is distributed separately from the main body of the apparatus to distribute the program to an administrator of the photo sticker creating apparatus 1. It comprises a removable medium 205 including a flexible disk, an optical disk (including a CD-ROM and a DVD), a magneto-optical disk, or a semiconductor memory. In addition to these, the recording medium includes a ROM 206 in which a program to be delivered to an administrator is recorded in a state where the recording medium is incorporated in the apparatus main body in advance, a hard disk included in the storage unit 202, and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the steps of describing a program recorded on a recording medium may be performed in chronological order according to the described order, or may be performed in parallel or even if not necessarily performed in chronological order. This also includes processes executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。   In the above, the print medium is not limited to sticker paper or photographic paper. For example, the image may be printed on paper or film of a predetermined size, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a seal layout image on which one or a plurality of photographed images are arranged may be printed on these print media.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   Embodiments of the present technology are not limited to the above-described embodiments, and various changes can be made without departing from the gist of the present technology.

1 写真シール作成装置
201 制御部
301 事前選択処理部
302 撮影処理部
303 編集処理部
304 印刷処理部
321 表示制御部
323 撮影制御部
324 画像処理部
331 表示制御部
333 画像処理部
Reference Signs List 1 photo sticker creating device 201 control unit 301 preselection processing unit 302 imaging processing unit 303 editing processing unit 304 print processing unit 321 display control unit 323 imaging control unit 324 image processing unit 331 display control unit 333 image processing unit

Claims (7)

被写体を撮影し、撮影画像を生成する撮影処理部と、
前記撮影画像の被写体領域をマスクするマスク画像を生成するマスク生成部と、
前記マスク画像を用いて、所定のデザインを有するデザイン画像に前記撮影画像を合成する合成部と
を備え、
前記撮影処理部は、1回の撮影により、第1の撮影画像および第2の撮影画像を生成し、
前記マスク生成部は、前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像を生成し、かつ、前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像を生成し、
前記合成部は、前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像を合成し、さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像を合成する
写真シール作成装置。
A shooting processing unit that shoots a subject and generates a shot image;
A mask generation unit that generates a mask image that masks a subject area of the captured image,
A synthesizing unit that synthesizes the photographed image with a design image having a predetermined design using the mask image,
The photographing processing unit generates a first photographed image and a second photographed image by one photographing,
The mask generating unit, based on the first captured image, to generate a first mask image for masking the subject area of the first captured image, and, based on the second captured image, wherein Generating a second mask image that masks the subject area of the second captured image;
The synthesizing unit synthesizes the first captured image with the design image using the first mask image, and further includes the second mask on a part or all of the face area of the first captured image. Photo sticker creating device that combines the second captured image with the design image in which the subject region of the first captured image is combined using the second mask image so that the subject region of the captured image overlaps. .
前記撮影処理部は、前記被写体の写る範囲が互いに異なる前記第1の撮影画像および前記第2の撮影画像を生成する
請求項に記載の写真シール作成装置。
The photograph sticker creation device according to claim 1 , wherein the photographing processing unit generates the first photographed image and the second photographed image in which the subject is captured in different ranges.
前記撮影処理部は、前記被写体の顔および上半身が写る前記撮影画像であるアップ画像、および、前記被写体の全身が写る前記撮影画像である全身画像を生成する
請求項に記載の写真シール作成装置。
3. The photograph sticker creating device according to claim 2 , wherein the photographing processing unit generates an up image as the photographed image in which the face and the upper body of the subject are photographed and a whole body image as the photographed image in which the whole body of the subject is photographed. 4. .
前記合成部は、前記第1の撮影画像にぼかし処理を施した上で、前記デザイン画像に前記第1の撮影画像を合成する
請求項1乃至のいずれかに記載の写真シール作成装置。
The combining unit, after applying the blurring process on the first captured image, photo sticker generating apparatus according to any of claims 1 to 3 for synthesizing the first captured image to the design image.
前記撮影処理部は、複数の前記被写体を1回撮影し、前記被写体毎に、前記被写体の写る範囲が互いに異なる前記第1の撮影画像および前記第2の撮影画像を生成する
請求項1に記載の写真シール作成装置。
The photographing processing unit photographs the plurality of subjects once, and generates, for each of the subjects, the first photographed image and the second photographed image in which ranges in which the subjects are photographed are different from each other. Photo sticker making equipment.
前記撮影処理部は、前記被写体毎に、前記被写体の顔および上半身が写る前記撮影画像であるアップ画像、および、前記被写体の全身が写る前記撮影画像である全身画像を生成する
請求項に記載の写真シール作成装置。
The imaging processing unit, for each of the object, up image is the captured image in which the face and upper body of the subject objects appear, and, according to claim 5 to generate a systemic image is the captured image systemic said object objects appear Photo sticker making equipment.
被写体を撮影し、撮影画像を生成する撮影処理部と、
前記撮影画像の被写体領域をマスクするマスク画像を生成するマスク生成部と、
前記マスク画像を用いて、所定のデザインを有するデザイン画像に前記撮影画像を合成する合成部とを備える写真シール作成装置が、
1回の撮影により、第1の撮影画像および第2の撮影画像を生成し、
前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像を生成し、
前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像を生成し、
前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像を合成し、
さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像を合成する
ステップを含む画像処理方法。
A shooting processing unit that shoots a subject and generates a shot image;
A mask generation unit that generates a mask image that masks a subject area of the captured image,
Using the mask image, a photo sticker creating device including a synthesizing unit that synthesizes the photographed image with a design image having a predetermined design,
A first shooting image and a second shooting image are generated by one shooting,
Based on the first captured image, to generate a first mask image for masking the subject area of the first captured image,
Based on the second captured image, to generate a second mask image for masking the subject area of the second captured image,
Using the first mask image, synthesizing the first captured image with the design image,
Further, the subject area of the first captured image is used by using the second mask image so that the subject area of the second captured image overlaps part or all of the face area of the first captured image. Synthesizing the second captured image with the design image in which the image is synthesized.
JP2019034589A 2019-02-27 2019-02-27 Photo sticker making apparatus and image processing method Active JP6671015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019034589A JP6671015B2 (en) 2019-02-27 2019-02-27 Photo sticker making apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019034589A JP6671015B2 (en) 2019-02-27 2019-02-27 Photo sticker making apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015055344A Division JP2016177015A (en) 2015-03-18 2015-03-18 Photo seal creation device and image processing method

Publications (2)

Publication Number Publication Date
JP2019135835A JP2019135835A (en) 2019-08-15
JP6671015B2 true JP6671015B2 (en) 2020-03-25

Family

ID=67624217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019034589A Active JP6671015B2 (en) 2019-02-27 2019-02-27 Photo sticker making apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6671015B2 (en)

Also Published As

Publication number Publication date
JP2019135835A (en) 2019-08-15

Similar Documents

Publication Publication Date Title
JP4316001B1 (en) Photography game machine, photography game method and photography game program
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP6115774B2 (en) Image editing apparatus, image editing method, and program
JP4316002B1 (en) Photography game machine, photography game method and photography game program
US9549084B2 (en) Photo decoration device
JP6575085B2 (en) Photo sticker creation apparatus and image generation method
JP5569502B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2016177015A (en) Photo seal creation device and image processing method
JP6503927B2 (en) Image shooting apparatus and image shooting method
JP5673883B1 (en) Photo sticker making apparatus and photo sticker making method
JP2018023069A (en) Game player for creating photograph and display method
JP6792154B2 (en) Photographing game console and image processing method
JP5621875B1 (en) Imaging apparatus and method, and program
JP2010068507A (en) Photo game machine, photo game method and photo game program
JP6671015B2 (en) Photo sticker making apparatus and image processing method
JP7074994B2 (en) Photographing game console and image processing method
JP5790683B2 (en) Photo sticker creating apparatus, processing method of photo sticker creating apparatus, and program
JP2016213780A (en) Photograph sticker creation device and image display method
JP6548021B2 (en) Photo sticker creation device and display method
JP6124087B2 (en) Image editing apparatus and image editing method
JP6687839B2 (en) Photo creation game machine and display method
JP6664062B2 (en) Photo sticker making device and photographing method
JP6659942B2 (en) Photo sticker making device and display method
JP6489396B2 (en) Photo sticker creation apparatus, display method, and program
JP6545080B2 (en) Image processing apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200212

R150 Certificate of patent or registration of utility model

Ref document number: 6671015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250