JP2021044734A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2021044734A
JP2021044734A JP2019166287A JP2019166287A JP2021044734A JP 2021044734 A JP2021044734 A JP 2021044734A JP 2019166287 A JP2019166287 A JP 2019166287A JP 2019166287 A JP2019166287 A JP 2019166287A JP 2021044734 A JP2021044734 A JP 2021044734A
Authority
JP
Japan
Prior art keywords
image
shooting
user
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019166287A
Other languages
Japanese (ja)
Inventor
勝也 藤原
Katsuya Fujiwara
勝也 藤原
裕 大畠
Yutaka Ohata
裕 大畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2019166287A priority Critical patent/JP2021044734A/en
Publication of JP2021044734A publication Critical patent/JP2021044734A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

To make it possible to efficiently proceed with photographing while confirming a captured result image reflecting selection contents of image processing.SOLUTION: An image processing device of one aspect of the present technique has a user as a subject photographed a plurality of times, displays a selection screen of contents of image processing to be applied to a captured result image in which a face image is placed reflecting the user's face generated based on an image obtained by photographing at the first time after the photographing at the first time, and displays a captured result image to which image processing of the contents selected by the user using the selection screen is applied whenever photographing at the second time or later is performed. The present technique is applicable to a photograph creation game machine that provides a series of games for printing captured images on sticker paper.SELECTED DRAWING: Figure 16

Description

本技術は、特に、画像処理の選択内容が反映された撮影結果の画像を確認しつつ、効率的に撮影を進めることができるようにした画像処理装置、画像処理方法、およびプログラムに関する。 The present technology particularly relates to an image processing apparatus, an image processing method, and a program that enable efficient shooting while confirming an image of a shooting result that reflects the selection contents of image processing.

従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。 Conventionally, a photo sticker making device is known. The photo sticker creating device photographs a user, causes the user to edit the photographed image, and prints the edited image on a sticker paper to provide the photographed image. The photo sticker making device is installed in amusement facilities and the like.

写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。 The flow of one game provided by the photo sticker creation device is usually that after shooting a user in the shooting space as a subject, the user is moved to the editing space and the image is displayed according to the operation performed in the editing space. It will be edited and the edited image will be printed on the sticker paper.

特許文献1には、編集などに実際に用いられることになる画像の撮影前にサンプル撮影を行い、サンプル撮影によって得られたサンプル画像を利用者に提示して、写りに関する画像処理の内容を選択させる写真シール作成装置が開示されている。 In Patent Document 1, a sample photograph is taken before the image that is actually used for editing or the like is photographed, the sample image obtained by the sample photograph is presented to the user, and the content of image processing related to the image is selected. A photographic sticker making device is disclosed.

特開2014−096643号公報Japanese Unexamined Patent Publication No. 2014-096643

特許文献1に開示されている技術においては、サンプル撮影によって得られたサンプル画像は、編集などに用いられる画像ではないし、シール紙に印刷される画像でもない。すなわち、サンプル画像は、写りに関する画像処理の内容の選択のために撮影される画像となる。 In the technique disclosed in Patent Document 1, the sample image obtained by sample photographing is neither an image used for editing or the like, nor an image printed on a sticker paper. That is, the sample image is an image taken for selecting the content of image processing related to the image.

本技術はこのような状況に鑑みてなされたものであり、画像処理の選択内容が反映された撮影結果の画像を確認しつつ、効率的に撮影を進めることができるようにするものである。 This technology was made in view of such a situation, and makes it possible to efficiently proceed with shooting while checking the image of the shooting result in which the selection contents of the image processing are reflected.

本技術の一側面の画像処理装置は、利用者を被写体として複数回の撮影を行わせる撮影制御部と、1回目の撮影後、1回目の撮影によって得られた画像に基づいて生成された前記利用者の顔が写る顔画像が配置された、撮影結果の画像に施す画像処理の内容の選択画面を表示させる表示制御部とを備え、前記表示制御部は、2回目以降の撮影が行われる毎に、前記選択画面を用いて前記利用者により選択された内容の画像処理が施された前記撮影結果の画像を表示させる。 The image processing device of one aspect of the present technology is a shooting control unit that causes the user to shoot a plurality of times as a subject, and the image generated based on the image obtained by the first shooting after the first shooting. It is provided with a display control unit for displaying a selection screen of the content of image processing to be applied to the image of the shooting result in which a face image showing the user's face is arranged, and the display control unit performs the second and subsequent shootings. Each time, the image of the shooting result to which the image processing of the content selected by the user is performed is displayed using the selection screen.

本技術の一側面においては、利用者を被写体として複数回の撮影が行われ、1回目の撮影後、1回目の撮影によって得られた画像に基づいて生成された前記利用者の顔が写る顔画像が配置された、撮影結果の画像に施す画像処理の内容の選択画面が表示され、2回目以降の撮影が行われる毎に、選択画面を用いて利用者により選択された内容の画像処理が施された撮影結果の画像が表示される。 In one aspect of the present technology, a user is taken as a subject a plurality of times, and after the first shooting, a face showing the user's face generated based on the image obtained by the first shooting. A screen for selecting the content of the image processing to be applied to the image of the shooting result on which the image is arranged is displayed, and each time the second and subsequent shootings are performed, the image processing of the content selected by the user using the selection screen is performed. The image of the shooting result is displayed.

本技術によれば、利用者は、画像処理の選択内容が反映された撮影結果の画像を確認しつつ、効率的に撮影を進めることができる。 According to the present technology, the user can efficiently proceed with shooting while checking the image of the shooting result in which the selection contents of the image processing are reflected.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the appearance of the photograph sticker making apparatus of this technology. 写真シール作成装置の外観を他の角度からみた斜視図である。It is a perspective view which looked at the appearance of the photographic sticker making apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining the movement of a user. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of the preselection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of the photographing part. 背景部の構成例を示す図である。It is a figure which shows the structural example of the background part. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the configuration example of the front of an editing unit. 編集ユニット側面パネルの構成例を示す図である。It is a figure which shows the configuration example of the side panel of an editing unit. 写真シール作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the photographic sticker making apparatus. 写真シール作成装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the photograph sticker making apparatus. 図10の撮影処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the photographing processing part of FIG. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining the photo sticker making game process. 図12のステップS2において行われる撮影処理について説明するフローチャートである。It is a flowchart explaining the shooting process performed in step S2 of FIG. 図12のステップS2において行われる撮影処理について説明する、図13に続くフローチャートである。It is a flowchart following FIG. 13 which explains the shooting process performed in step S2 of FIG. ライブビュー画面の表示例を示す図である。It is a figure which shows the display example of a live view screen. 1人目用のリップ処理選択画面の例を示す図である。It is a figure which shows the example of the lip processing selection screen for the first person. 1人目用のリップ処理選択画面の例を示す図である。It is a figure which shows the example of the lip processing selection screen for the first person. 2人目用のリップ処理選択画面の例を示す図である。It is a figure which shows the example of the lip processing selection screen for the second person. ライブビュー画面の表示例を示す図である。It is a figure which shows the display example of a live view screen. 撮影結果確認画面の表示例を示す図である。It is a figure which shows the display example of the shooting result confirmation screen. 撮影画像の用途の例を示す図である。It is a figure which shows the example of use of the photographed image. リップ処理が施された撮影画像の例を示す図である。It is a figure which shows the example of the photographed image which performed the lip process. 編集画面の表示例を示す図である。It is a figure which shows the display example of an edit screen.

<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker making device>
1 and 2 are perspective views showing a configuration example of the appearance of the photo sticker making device 1.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。 The photo sticker creating device 1 is a game machine that provides a photographed image and an edited image. The photo sticker creating device 1 provides an image to a user by printing the image on a sticker paper or making the image viewable on the user's mobile terminal. The photo sticker creating device 1 is installed in an amusement facility such as a game center or a store.

写真シール作成装置1の利用者は、主に女子高校生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。 The users of the photo sticker making device 1 are mainly high school girls and young women. In the photo sticker creating device 1, a plurality of users, such as two or three people, can enjoy the game per group. Of course, in the photo sticker creating device 1, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating device 1, the user takes a picture by himself / herself as a subject. By editing, the user synthesizes a composite image such as handwritten characters or a stamp image with an image selected from the captured images obtained by shooting. As a result, the captured image is edited into a colorful image. The user receives a sticker paper on which the edited image, which is an edited image, is printed, and ends the series of games.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。 As shown in FIG. 1, the photo sticker creating device 1 is basically configured by being installed in a state where the photographing unit 11 and the editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離した状態で設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 has a box-shaped housing having a size large enough for a person to enter, and is composed of a preselection unit 20, a photographing unit 21, and a background unit 22. The preselection unit 20 is installed on the side surface of the photographing unit 21. The space in front of the preselection unit 20 becomes a preselection space in which the preselection process is performed. Further, the photographing unit 21 and the background unit 22 are installed in a state of being separated by a predetermined distance. The space formed between the photographing unit 21 and the background unit 22 becomes a photographing space in which the photographing process is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。 As the preselection process, the preselection unit 20 provides guidance for introducing the game provided by the photo sticker creation device 1, and makes various settings in the shooting process performed in the shooting space. The preselection unit 20 is provided with a coin slot for the user to insert a price, a touch panel monitor used for various operations, and the like. The preselection unit 20 appropriately guides the user in the preselection space to the shooting space according to the availability of the shooting space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。 The photographing unit 21 is a device for photographing a user as a subject. The shooting unit 21 is located in front of the user who has entered the shooting space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。 Assuming that the left side surface is the left side surface and the right side surface is the right side surface when viewed from the user facing the front in the shooting space, the left side surface of the photographing unit 21 is composed of the side panel 41A and the right side surface is composed of the side panel 41B. Will be done. Further, the front surface of the photographing unit 21 is composed of the front panel 42. The above-mentioned preselection unit 20 is installed on the side panel 41A. The preselection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aと略同じ幅の板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bと略同じ幅の板状の部材である。 The background portion 22 is composed of a back panel 51, a side panel 52A, and a side panel 52B. The back panel 51 is a plate-shaped member located on the back side of the user facing the front. The side panel 52A is attached to the left end of the back panel 51 and is a plate-shaped member having substantially the same width as the side panel 41A. The side panel 52B is attached to the right end of the back panel 51 and is a plate-shaped member having substantially the same width as the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、例えば金属製の部材である連結部23A’によって連結される。 The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A which is a plate-shaped member. The lower portions of the side panel 41A and the side panel 52A are connected by, for example, a connecting portion 23A'which is a metal member.

側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower part of the side panel 41B and the side panel 52B is connected by the connecting portion 23B'.

撮影空間の床には、例えば樹脂製の床シート27が敷かれる。床シート27は、デザイン性の高いピンク色一色に色付けされている。 For example, a resin floor sheet 27 is laid on the floor of the shooting space. The floor sheet 27 is colored in a pink color with high design.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 The opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance / exit of the photographing space. Further, an opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance / exit of the photographing space.

側面パネル41A、連結部23A、および側面パネル52Aによって形成される出入り口には、連結部23Aの天面から垂下するようにして、図示せぬ出入り口カーテンが取り付けられる。同様に、側面パネル41B、連結部23B、および側面パネル52Bによって形成される出入り口にも、連結部23Bの天面から垂下するようにして、図示せぬ出入り口カーテンが取り付けられる。 An entrance / exit curtain (not shown) is attached to the entrance / exit formed by the side panel 41A, the connecting portion 23A, and the side panel 52A so as to hang down from the top surface of the connecting portion 23A. Similarly, an entrance / exit curtain (not shown) is attached to the entrance / exit formed by the side panel 41B, the connecting portion 23B, and the side panel 52B so as to hang down from the top surface of the connecting portion 23B.

撮影空間の上方には、例えば樹脂製の天井シート24が設けられる。天井シート24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。 For example, a resin ceiling sheet 24 is provided above the shooting space. One end of the ceiling sheet 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 so that one side surface is in contact with the front panel 42 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 Assuming that the configuration of the editing unit 12 shown in FIG. 1 is the configuration on the front side, the configuration used in the editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can perform editing work at the same time.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直な面であり、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。 The front side of the editing unit 12 is composed of a surface 61 and a slope 62 formed above the surface 61. The surface 61 is a surface perpendicular to the floor surface and substantially parallel to the side panel 41A of the photographing unit 21. A monitor with a built-in tablet and a touch pen are provided on the slope 62 as a configuration used for editing work. On the left side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. On the right side of the slope 62, a columnar support portion 63B that supports the other end of the lighting device 64 is provided.

編集ユニット12の左側面(撮影部21の正面パネル42とは反対側の側面)には、板状の部材である編集ユニット側面パネル65が設けられる。編集ユニット側面パネル65は、例えば10cm程度の厚さをもった板状に形成されている。 An editing unit side panel 65, which is a plate-shaped member, is provided on the left side surface of the editing unit 12 (the side surface of the photographing unit 21 opposite to the front panel 42). The editing unit side panel 65 is formed in a plate shape having a thickness of, for example, about 10 cm.

編集ユニット側面パネル65の、図1に示される編集ユニット12の正面側の側面(縁面)は、側面パネル41Aおよび側面パネル52Aと、ほぼ同一平面をなす。また、編集ユニット側面パネル65の、図2に示される編集ユニット12の背面側の側面(縁面)は、側面パネル41Bおよび側面パネル52Bと、ほぼ同一平面をなす。さらに、編集ユニット側面パネル65の上面(天面)は、撮影空間の天井を構成する天井シート24と、ほぼ同一平面をなす。 The front side surface (edge surface) of the editing unit 12 shown in FIG. 1 of the editing unit side panel 65 forms substantially the same plane as the side panel 41A and the side panel 52A. Further, the side surface (edge surface) of the editing unit side panel 65 on the back surface side of the editing unit 12 shown in FIG. 2 is substantially flush with the side panel 41B and the side panel 52B. Further, the upper surface (top surface) of the side panel 65 of the editing unit is substantially flush with the ceiling sheet 24 constituting the ceiling of the photographing space.

このような構造により、写真シール作成装置1は、全体として直方体形状の筐体を有するように構成される。 With such a structure, the photo sticker making device 1 is configured to have a rectangular parallelepiped housing as a whole.

編集ユニット12の上方にはカーテンフレーム26A,26Bが取り付けられる。平行に設けられるカーテンフレーム26Aとカーテンフレーム26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定される。カーテンフレーム26Aとカーテンフレーム26Bの他端は、編集ユニット側面パネル65の両側面の上端にそれぞれ接合される。 Curtain frames 26A and 26B are attached above the editing unit 12. One ends of the curtain frame 26A and the curtain frame 26B provided in parallel are fixed to the connecting portion 23A and the connecting portion 23B, respectively. The other ends of the curtain frame 26A and the curtain frame 26B are joined to the upper ends of both side surfaces of the editing unit side panel 65, respectively.

カーテンフレーム26A,26Bには、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないように、図示せぬカーテンが取り付けられる。カーテン、撮影部21の正面パネル42、および編集ユニット側面パネル65により囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。 A curtain (not shown) is attached to the curtain frames 26A and 26B so that the space in front of the front and the space in front of the back of the editing unit 12 cannot be seen from the outside. The space in front of the front and the space behind the back of the editing unit 12 surrounded by the curtain, the front panel 42 of the photographing unit 21, and the editing unit side panel 65 serve as an editing space for the user to perform editing work.

後述するように、編集ユニット側面パネル65には、印刷済みのシール紙を利用者に提供するシール取り出し口が設けられる。編集ユニット側面パネル65の前方の空間が、印刷済みのシール紙が提供されるのを利用者が待つ印刷待ち空間となる。 As will be described later, the side panel 65 of the editing unit is provided with a sticker take-out port for providing a printed sticker paper to the user. The space in front of the side panel 65 of the editing unit becomes a printing waiting space in which the user waits for the printed sticker paper to be provided.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the movement of the user accompanying it will be described.

図3は、写真シール作成装置1を上から見た平面図である。 FIG. 3 is a plan view of the photo sticker creating device 1 as viewed from above.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 The user inserts the price into the coin slot in the preselection space A0, which is the space in front of the preselection unit 20. Next, the user makes various settings according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course related to shooting performed in the shooting space as a preselection operation.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 As shown by the white arrow # 1, the user who has completed the preselection work has a shooting space A1 formed between the shooting unit 21 and the background portion 22 from the entrance / exit G1 between the side panel 41A and the side panel 52A. to go into. The user performs shooting work by using a camera or a touch panel monitor provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。 The user who has completed the shooting work either exits the shooting space A1 from the entrance / exit G1 and moves to the editing space A2-1 as indicated by the white arrow # 2, or moves to the editing space A2-1 as indicated by the white arrow # 3. Exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。 The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the vacant one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts the editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the white arrow # 4. Further, the user who has completed the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 5.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット側面パネル65に設けられたシール取り出し口に排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for the print to finish. When the printing is completed, the user receives the sticker paper discharged to the sticker take-out port provided on the side panel 65 of the editing unit, and finishes a series of photo sticker making games.

次に、各装置の構成について説明する。 Next, the configuration of each device will be described.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Structure of preselection unit>
FIG. 4 is a diagram showing a configuration example of the preselection unit 20.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。 A touch panel monitor 71 is provided on the upper side of the preselection unit 20. The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated on the monitor. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting a user's selection operation. The touch panel monitor 71 displays a screen used for selecting the number of users.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs guidance voice for preselection processing, BGM (Back Ground Music), sound effect, and the like. A coin insertion / return port 73 for inserting coins by the user is provided adjacent to the speaker 72.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Structure of shooting section>
FIG. 5 is a diagram showing a configuration example of the front surface of the photographing unit 21. The photographing unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の略中央には、箱状のカメラユニット81が設けられる。カメラユニット81の正面には、カメラ91とタッチパネルモニタ92が設けられる。 A box-shaped camera unit 81 is provided at substantially the center of the front panel 42. A camera 91 and a touch panel monitor 92 are provided on the front surface of the camera unit 81.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。 The camera 91 is, for example, a single-lens reflex camera, and is mounted inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1.

カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 The moving image captured by the camera 91 (hereinafter, also referred to as a live view image) is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when shooting is instructed is saved as a shot image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。 The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated on the monitor. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91, and a function that displays various GUIs and accepts a user's selection operation.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボユニット82が設置される。上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。上ストロボユニット82の発光面の内側には、常時点灯する電球と、撮影タイミングで発光するストロボ発光管が配置されている。 Above the camera unit 81, an upper strobe unit 82 with a curved light emitting surface facing the user is installed. The upper strobe unit 82 irradiates the user's face and upper body with light from above the front of the user. Inside the light emitting surface of the upper strobe unit 82, a light bulb that is constantly lit and a strobe light emitting tube that emits light at the shooting timing are arranged.

カメラユニット81と上ストロボユニット82との間には、下側に弧を描く半月状の発光面を有するカメラ上ストロボ83が設けられる。カメラ上ストロボ83は、正面パネル42に埋め込まれるようにして設けられる。 Between the camera unit 81 and the upper strobe unit 82, a camera upper strobe 83 having a crescent-shaped light emitting surface that draws an arc on the lower side is provided. The on-camera strobe 83 is provided so as to be embedded in the front panel 42.

カメラユニット81の下方には、利用者の下半身および足元に光を照射する下箱ストロボユニット84が設けられる。下箱ストロボユニット84の発光面は、側面パネル41Aと側面パネル41Bとの間に隙間なく形成される。下箱ストロボユニット84の発光面の内側にも、常時点灯する電球と、撮影タイミングで発光するストロボ発光管が配置されている。 Below the camera unit 81, a lower box strobe unit 84 that irradiates the lower body and feet of the user with light is provided. The light emitting surface of the lower box strobe unit 84 is formed without a gap between the side panel 41A and the side panel 41B. Inside the light emitting surface of the lower box strobe unit 84, a light bulb that always lights up and a strobe light emitting tube that emits light at the shooting timing are arranged.

なお、正面パネル42の例えば天井付近にスピーカが設けられる。スピーカから、撮影処理の案内音声、BGM、効果音などが出力される。スピーカが、正面パネル42ではなく、後述する背景部22に設けられるようにしてもよい。 A speaker is provided on the front panel 42, for example, near the ceiling. Guidance voice, BGM, sound effects, etc. of the shooting process are output from the speaker. The speaker may be provided not on the front panel 42 but on the background portion 22 described later.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background part>
FIG. 6 is a diagram showing a configuration example of the background portion 22 on the shooting space A1 side.

第1の背面パネルとして構成される背面パネル51の撮影空間側には、背面パネル51との間に所定の間隙を形成し、その下端が撮影空間A1の床面から所定の高さより上に設けられる背面パネル101が、第2の背面パネルとして配置されている。背面パネル101は、背面パネル51と側面パネル52A,52Bとの間に閉空間を形成するようにして設けられる。 On the shooting space side of the back panel 51 configured as the first back panel, a predetermined gap is formed between the back panel 51 and the back panel 51, and the lower end thereof is provided above the floor surface of the shooting space A1 above a predetermined height. The back panel 101 is arranged as a second back panel. The back panel 101 is provided so as to form a closed space between the back panel 51 and the side panels 52A and 52B.

以下、適宜、背面パネル51を外側背面パネル51といい、背面パネル101を内側背面パネル101という。 Hereinafter, the back panel 51 is referred to as an outer back panel 51, and the back panel 101 is referred to as an inner back panel 101 as appropriate.

内側背面パネル101には、その一部として、撮影部21による撮影により得られる撮影画像の背景となる(背景として写る)背景領域部111が形成されている。 As a part of the inner back panel 101, a background region portion 111 that serves as a background (photographed as a background) of a captured image obtained by photographing by the photographing unit 21 is formed.

背景領域部111は、乳白色の平面アクリル板(乳白アクリル板)で構成される。外側背面パネル51と内側背面パネル101との間に形成された間隙(背景領域部111の裏側)には、撮影タイミングに合わせて発光するストロボ発光部が設けられる。 The background region portion 111 is composed of a milky white flat acrylic plate (milky white acrylic plate). A strobe light emitting portion that emits light in accordance with the shooting timing is provided in the gap (the back side of the background region portion 111) formed between the outer back panel 51 and the inner back panel 101.

これにより、背景領域部111は、撮影タイミングで、その領域全体がぼんやりと白く明るく発光するようになる。 As a result, the background region portion 111 emits vaguely white and bright light at the shooting timing.

内側背面パネル101において、背景領域部111の左右両側には、スピーカ112−1,112−2が設けられる。スピーカ112−1,112−2は、撮影処理の案内音声、BGM、効果音などを撮影空間に向かって出力する。 In the inner back panel 101, speakers 112-1 and 112-2 are provided on the left and right sides of the background area 111. Speakers 112-1 and 112-2 output guidance voices, BGM, sound effects, etc. of the shooting process toward the shooting space.

<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Structure of editing unit>
FIG. 7 is a diagram showing a configuration example of the front side (editing space A2-1 side) of the editing unit 12.

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。 A tablet built-in monitor 131 is provided at substantially the center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131. A touch pen 132B is provided on the right side of the tablet built-in monitor 131.

タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 The tablet built-in monitor 131 is configured by stacking a tablet and a display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. When two users edit at the same time, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. ..

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。 The operation using the touch pen 132A and the operation using the touch pen 132B are distinguished. As appropriate, only the operation using the touch pen 132A is possible for the display on the left side of the tablet built-in monitor 131, and only the operation using the touch pen 132B is possible for the display on the right side. Hereinafter, when it is not necessary to distinguish between the touch pen 132A and the touch pen 132B as appropriate, they are collectively referred to as the touch pen 132.

図8は、編集ユニット12の左側面に設けられる編集ユニット側面パネル65の構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of the editing unit side panel 65 provided on the left side surface of the editing unit 12.

編集ユニット側面パネル65は、その正面側(印刷待ち空間側)の面を構成する板状部材として、パネル151、メンテナンス用扉152、パネル153,154を有している。 The editing unit side panel 65 has a panel 151, a maintenance door 152, and panels 153 and 154 as plate-shaped members forming a surface on the front side (printing waiting space side) thereof.

パネル151は、編集ユニット側面パネル65の略上半分を構成する板状の部材である。パネル151の下には、メンテナンス用扉152が設けられ、メンテナンス用扉152の左右にパネル153,154がそれぞれ設けられる。 The panel 151 is a plate-shaped member that constitutes substantially the upper half of the side panel 65 of the editing unit. A maintenance door 152 is provided under the panel 151, and panels 153 and 154 are provided on the left and right sides of the maintenance door 152, respectively.

メンテナンス用扉152の中央付近には、最終的な出力物としてのシール紙を利用者に提供するシール取り出し口161が設けられる。編集ユニット12の内部に設けられるプリンタにより、編集空間A2−1で編集を行った利用者が写る画像、または、編集空間A2−2で編集を行った利用者が写る画像が所定のレイアウトでシール紙に印刷される。印刷済みのシール紙はシール取り出し口161に排出される。 Near the center of the maintenance door 152, a sticker take-out port 161 for providing the user with a sticker paper as a final output is provided. The printer provided inside the editing unit 12 seals the image of the user who edited in the editing space A2-1 or the image of the user who edited in the editing space A2-2 with a predetermined layout. Printed on paper. The printed sticker paper is discharged to the sticker outlet 161.

シール取り出し口161の上方には、例えば、シール紙の排出タイミングで発光する発光部162が設けられる。シール取り出し口161の下方には、スピーカ163が設けられる。スピーカ163は、印刷待ち空間にいる利用者に対する案内音声、BGM、効果音などの音を出力する。 Above the sticker take-out port 161, for example, a light emitting unit 162 that emits light at the timing of ejecting the sticker paper is provided. A speaker 163 is provided below the seal take-out port 161. The speaker 163 outputs sounds such as guidance voices, BGM, and sound effects for users in the print waiting space.

<写真シール作成装置の内部構成>
図9は、写真シール作成装置1の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker making device>
FIG. 9 is a block diagram showing a configuration example of the photo sticker creating device 1. In FIG. 9, the same components as those described above are designated by the same reference numerals. Duplicate explanations will be omitted as appropriate.

図9に示されるように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。
PC部301は、例えば編集ユニット12の筐体内部に収納される。
As shown in FIG. 9, in the photo sticker creating device 1, the preselection unit 302, the photographing unit 304, the editing units 305A and 305B, and the printing unit 306 are external input / output interfaces to the PC (Personal Computer) unit 301. It is configured by being connected via 303.
The PC unit 301 is housed inside the housing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。 The CPU (Central Processing Unit) 311, ROM (Read Only Memory) 312, and RAM (Random Access Memory) 313 that make up the PC unit 301 are connected to each other by the bus 314.

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。 The CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creating device 1. The ROM 312 stores programs and data executed by the CPU 311. The RAM 312 temporarily stores data and programs processed by the CPU 311.

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。 An input / output interface 315 is further connected to the bus 314. A storage unit 316, a communication unit 317, and a drive 318 are connected to the input / output interface 315.

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。 The storage unit 316 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 316 stores various setting information and the like supplied from the CPU 311. The information stored in the storage unit 316 is appropriately read out by the CPU 311.

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカーが管理する画像管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。 The communication unit 317 is an interface of a network such as the Internet. The communication unit 317 communicates with an external device according to the control of the CPU 311. The communication unit 317 transmits the image selected by the user to, for example, an image management server managed by the manufacturer of the photo sticker creation device 1. The image transmitted from the communication unit 317 is allocated and stored in a predetermined storage area, and is displayed on the mobile terminal that has accessed the image management server or downloaded to the mobile terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。 A removable media 319 made of an optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 318. The programs and data read from the removable media 319 by the drive 318 are supplied to the CPU 311 and stored or installed in the storage unit 316.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。 An external input / output interface 303 is connected to the input / output interface 315. The control of each unit by the PC unit 301 is performed via the external input / output interface 303.

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を行う。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。 The preselection unit 302 performs a preselection process for the user in the preselection space A0. The preselection unit 302 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 321.

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens according to the control by the PC unit 301, and accepts the user's operation on the selection screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and various settings are made.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。 The coin processing unit 321 detects the insertion of coins into the coin insertion / return port 73. When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the PC unit 301.

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を行う。撮影部304は、前方照明装置331、背面照明装置332、カメラ91、タッチパネルモニタ92、およびスピーカ112から構成される。 The shooting unit 304 performs shooting processing for the user in the shooting space A1. The photographing unit 304 includes a front lighting device 331, a rear lighting device 332, a camera 91, a touch panel monitor 92, and a speaker 112.

前方照明装置331は、撮影空間A1内の各ストロボユニットのうちの撮影部21に設けられるストロボユニットである。背面照明装置332は、撮影空間A1内の各ストロボユニットのうちの背景部22に設けられるストロボユニットである。前方照明装置331と背面照明装置332は、PC部301から供給される照明制御信号に従って発光する。 The front lighting device 331 is a strobe unit provided in the photographing unit 21 of each strobe unit in the photographing space A1. The rear lighting device 332 is a strobe unit provided in the background portion 22 of each strobe unit in the photographing space A1. The front lighting device 331 and the rear lighting device 332 emit light according to the lighting control signal supplied from the PC unit 301.

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)をPC部301に出力する。 The camera 91 shoots according to the shutter control by the PC unit 301, and outputs the captured image (image data) obtained by the shooting to the PC unit 301.

編集部305Aは、編集空間A2−1にいる利用者を対象とした編集処理を行う。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2−2にいる利用者を対象とした編集処理を行い、編集部305Aと同一の構成を有する。なお、以下、編集部305A,305Bを特に区別しない場合には、単に、編集部305という。 The editorial unit 305A performs editing processing for the user in the editing space A2-1. The editorial unit 305A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. The editorial unit 305B performs editing processing for the user in the editing space A2-2, and has the same configuration as the editorial unit 305A. Hereinafter, when the editorial units 305A and 305B are not particularly distinguished, they are simply referred to as the editorial unit 305.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays the edit screen according to the control by the PC unit 301, and accepts the user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image to be edited is edited.

印刷部306は、プリンタ351、シール紙ユニット352、スピーカ163、および照明装置353から構成される。シール紙ユニット352はプリンタ351に装着される。 The printing unit 306 includes a printer 351, a sticker paper unit 352, a speaker 163, and a lighting device 353. The sticker paper unit 352 is attached to the printer 351.

プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によってカットして、シール取り出し口161に排出する。 The printer 351 drives the built-in head 361 and prints an image on the roll-shaped sticker paper 363 stored in the sticker paper unit 352 based on the print data supplied from the PC unit 301. Further, the printer 351 cuts the sticker paper 363 on which the image is printed by the cutter 362 and discharges it to the sticker take-out port 161.

照明装置353は、発光部162を発光させるための照明器具であり、蛍光管やLED照明により構成される。照明装置353は、PC部301から供給される照明制御信号に従って発光する。 The lighting device 353 is a lighting device for causing the light emitting unit 162 to emit light, and is composed of a fluorescent tube and LED lighting. The lighting device 353 emits light according to a lighting control signal supplied from the PC unit 301.

<写真シール作成装置の機能構成例>
図10は、写真シール作成装置1の機能構成例を示すブロック図である。図10に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 10 is a block diagram showing a functional configuration example of the photo sticker creating device 1. At least a part of the functional units shown in FIG. 10 is realized by executing a predetermined program by the CPU 311.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。 In the photo sticker creating device 1, a preselection processing unit 401, a photographing processing unit 402, an editing processing unit 403, and a printing processing unit 404 are realized.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を行う。事前選択処理により、撮影に関するコースの選択が行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。 The preselection processing unit 401 performs the preselection processing by controlling each unit of the preselection unit 302. The pre-selection process selects the course for shooting. Information representing the content selected by the user is supplied to the photographing processing unit 402.

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。 The shooting processing unit 402 performs shooting processing by controlling each unit of the shooting unit 304. The shooting processing unit 402 outputs the data of the shot image obtained by performing the shooting process to the editing processing unit 403. Data of a plurality of captured images obtained by performing imaging a plurality of times is supplied from the photographing processing unit 402 to the editing processing unit 403.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に対して編集を施すための画像処理などが含まれる。 The editing processing unit 403 performs editing processing by controlling each unit of the editing unit 305. The editing process includes image processing for editing the captured image.

編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。 After finishing editing of the captured image, the editing processing unit 403 generates print data by arranging the edited image in a predetermined layout and outputs the print data to the print processing unit 404.

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。 The print processing unit 404 outputs print data to the printer 351 and prints the edited image.

図11は、撮影処理部402の構成例を示すブロック図である。 FIG. 11 is a block diagram showing a configuration example of the photographing processing unit 402.

撮影処理部402は、撮影制御部411、画像処理部412、表示制御部413、および画像記憶部414から構成される。 The shooting processing unit 402 includes a shooting control unit 411, an image processing unit 412, a display control unit 413, and an image storage unit 414.

撮影制御部411は、カメラ91を制御することによって動画像の撮影を行い、撮影を行うことによって得られた動画像を表示制御部413に出力する。撮影制御部411から出力された動画像はライブビュー画像の生成に用いられる。 The shooting control unit 411 shoots a moving image by controlling the camera 91, and outputs the moving image obtained by shooting to the display control unit 413. The moving image output from the shooting control unit 411 is used to generate a live view image.

また、撮影制御部411は、カウントダウンに合わせて静止画像の撮影を行い、撮影を行うことによって得られた静止画像を画像処理部412に出力する。撮影制御部411から出力された静止画像は撮影画像の生成に用いられる。 Further, the shooting control unit 411 shoots a still image in accordance with the countdown, and outputs the still image obtained by the shooting to the image processing unit 412. The still image output from the shooting control unit 411 is used to generate the shooting image.

画像処理部412は、撮影制御部411から供給された静止画像から矩形領域をトリミングにより切り出すことによって、所定の画角の撮影画像を生成する。画像処理部412により生成された撮影画像は、画像記憶部414に供給され、記憶される。 The image processing unit 412 generates a photographed image having a predetermined angle of view by cutting out a rectangular area from the still image supplied from the photographing control unit 411 by trimming. The captured image generated by the image processing unit 412 is supplied to and stored in the image storage unit 414.

後述するように、撮影画像に対しては、唇を強調するための画像処理であるリップ処理が施される。リップ処理が施された撮影画像は、表示制御部413に供給され、利用者に提示されるとともに、画像記憶部414に供給され、編集用の画像として記憶される。 As will be described later, the photographed image is subjected to lip processing, which is an image processing for emphasizing the lips. The photographed image subjected to the lip processing is supplied to the display control unit 413, presented to the user, and supplied to the image storage unit 414, and is stored as an image for editing.

このように、写真シール作成装置1における編集は、リップ処理が施された撮影画像を対象として行われる。 As described above, the editing in the photo sticker creating device 1 is performed on the photographed image to which the lip processing has been performed.

表示制御部413は、ライブビュー画面などの、タッチパネルモニタ92の各種の画面の表示を制御する。例えば、表示制御部413は、撮影制御部411から供給された動画像の各フレームから矩形領域をトリミングにより切り出し、切り出した画像からなる動画像を生成する。表示制御部413により生成された動画像は、ライブビュー画面に表示するライブビュー画像として用いられる。 The display control unit 413 controls the display of various screens of the touch panel monitor 92, such as the live view screen. For example, the display control unit 413 cuts out a rectangular region from each frame of the moving image supplied from the shooting control unit 411 by trimming, and generates a moving image composed of the cut out images. The moving image generated by the display control unit 413 is used as a live view image to be displayed on the live view screen.

画像記憶部414は、画像処理部412により生成された撮影画像を記憶する。撮影処理が終了した場合、画像記憶部414に記憶された撮影画像は編集処理部403に供給される。 The image storage unit 414 stores the captured image generated by the image processing unit 412. When the shooting process is completed, the shot image stored in the image storage unit 414 is supplied to the editing processing unit 403.

<写真シール作成装置の動作>
ここで、図12のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker making device>
Here, the operation of the photo sticker creation device 1 that provides the photo sticker creation game will be described with reference to the flowchart of FIG.

写真シール作成装置1の利用者の各グループに対しては、図12に示す一連の処理からなる写真作成ゲームが提供される。あるグループの利用者に続けて他のグループの利用者が写真シール作成装置1の利用を開始した場合、写真シール作成装置1の利用を先に始めた利用者の写真シール作成ゲームと、後から始めた利用者の写真シール作成ゲームとが適宜並行して行われる。適宜、写真シール作成ゲームを単にゲームともいう。 For each group of users of the photo sticker making device 1, a photo making game including a series of processes shown in FIG. 12 is provided. When a user of a certain group and a user of another group start using the photo sticker making device 1, the photo sticker making game of the user who started using the photo sticker making device 1 first and later The user's photo sticker creation game that started is played in parallel as appropriate. As appropriate, the photo sticker creation game is also simply referred to as a game.

図12の処理は、例えば、所定の金額分の硬貨が投入されたときに開始される。 The process of FIG. 12 is started, for example, when a predetermined amount of coins are inserted.

ステップS1において、事前選択処理部401は、事前選択部302を制御することで事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影コースの選択などが行われる。いずれの選択も、タッチパネルモニタ71に表示される選択画面を用いて行われる。 In step S1, the preselection processing unit 401 performs the preselection processing by controlling the preselection unit 302. By the pre-selection process, for example, the number of users is selected, the shooting course is selected, and the like. Both selections are made using the selection screen displayed on the touch panel monitor 71.

ステップS2において、撮影処理部402は、撮影部304を制御することで撮影処理を行う。撮影処理においては、撮影空間A1にいる利用者を被写体として静止画像の撮影が複数回行われる。 In step S2, the photographing processing unit 402 performs the photographing process by controlling the photographing unit 304. In the shooting process, a still image is shot a plurality of times with the user in the shooting space A1 as the subject.

ここで、図13および図14のフローチャートを参照して、図12のステップS2において行われる撮影処理について説明する。 Here, the photographing process performed in step S2 of FIG. 12 will be described with reference to the flowcharts of FIGS. 13 and 14.

撮影処理が開始されたとき、撮影制御部411により、ライブビュー画像用の動画像の撮影が開始される。撮影制御部411により撮影された動画像は、ライブビュー画像用の動画像として表示制御部413に供給される。 When the shooting process is started, the shooting control unit 411 starts shooting a moving image for a live view image. The moving image captured by the photographing control unit 411 is supplied to the display control unit 413 as a moving image for the live view image.

ステップS11において、表示制御部413は、カメラ91により取り込まれた動画像に基づいてライブビュー画像を生成し、ライブビュー画面をタッチパネルモニタ92に表示させる。 In step S11, the display control unit 413 generates a live view image based on the moving image captured by the camera 91, and displays the live view screen on the touch panel monitor 92.

図15は、タッチパネルモニタ92に表示されるライブビュー画面の表示例を示す図である。 FIG. 15 is a diagram showing a display example of a live view screen displayed on the touch panel monitor 92.

図15に示すように、ライブビュー画面の中央には、略正方形状の画像表示領域501が形成される。ライブビュー画面の画像表示領域501にはライブビュー画像が表示される。図15の例においては、利用者H1と利用者H2の2人の利用者が映るライブビュー画像が表示されている。このようなライブビュー画像を見て、利用者は立ち位置やポーズの確認などを行う。 As shown in FIG. 15, a substantially square image display area 501 is formed in the center of the live view screen. A live view image is displayed in the image display area 501 of the live view screen. In the example of FIG. 15, a live view image showing two users, user H1 and user H2, is displayed. By looking at such a live view image, the user confirms the standing position and the pose.

1回目の撮影前、ライブビュー画像の右側には、1回目の撮影が行われることを表す「1/10」の数字が表示される。この例においては、最大10回の撮影が行われるものとされている。 Before the first shooting, the number "1/10" indicating that the first shooting is performed is displayed on the right side of the live view image. In this example, it is assumed that a maximum of 10 shootings are performed.

ライブビュー画面の表示が開始されてから所定の時間が経過した場合、図13のステップS12において、撮影制御部411は1回目の撮影を行う。1回目の撮影によって得られた静止画像は、画像処理部412に供給される。画像処理部412は、撮影制御部411から供給された静止画像に基づいて1枚目の撮影画像を生成する。画像処理部412により生成された1枚目の撮影画像は表示制御部413に供給される。 When a predetermined time has elapsed since the display of the live view screen was started, the imaging control unit 411 performs the first imaging in step S12 of FIG. The still image obtained by the first shooting is supplied to the image processing unit 412. The image processing unit 412 generates the first captured image based on the still image supplied from the imaging control unit 411. The first captured image generated by the image processing unit 412 is supplied to the display control unit 413.

ステップS13において、表示制御部413は、1枚目の撮影画像に基づいて、1人目用のリップ処理選択画面をタッチパネルモニタ92に表示させる。 In step S13, the display control unit 413 causes the touch panel monitor 92 to display the lip processing selection screen for the first person based on the first captured image.

リップ処理選択画面は、撮影画像に写る利用者の唇部分に施すリップ処理の内容の選択に用いられる画面である。例えば、唇の色を変える処理がリップ処理として行われる場合、唇の色の選択がリップ処理選択画面を用いて行われる。 The lip processing selection screen is a screen used for selecting the content of the lip processing to be applied to the user's lip portion reflected in the captured image. For example, when the process of changing the color of the lips is performed as the lip process, the color of the lips is selected using the lip process selection screen.

図16は、1人目用のリップ処理選択画面の表示例を示す図である。 FIG. 16 is a diagram showing a display example of a lip processing selection screen for the first person.

図16に示すように、リップ処理選択画面の中央上方には縦長長方形状の顔画像領域511が形成される。顔画像領域511は、顔認識を行うことによって切り出された、利用者の顔が大きく写る顔画像の表示領域である。 As shown in FIG. 16, a vertically long rectangular face image area 511 is formed in the upper center of the lip processing selection screen. The face image area 511 is a display area of a face image in which the user's face is greatly reflected, which is cut out by performing face recognition.

図16の例においては、1人目の利用者である利用者H1の顔画像が表示されている。図1に示す利用者H1の顔画像は、ステップS12において撮影された1枚目の撮影画像からトリミングにより切り出された画像である。 In the example of FIG. 16, the face image of the user H1 who is the first user is displayed. The face image of the user H1 shown in FIG. 1 is an image cut out by trimming from the first captured image captured in step S12.

図16に色を付して示すように、顔画像領域511に表示されている利用者H1の唇は、リップ処理が施されることによって強調表示されている。リップ処理選択画面の表示開始直後、利用者H1の唇は例えばデフォルトの色に変更されている。事前選択処理において選択されたコースなどに応じて、デフォルトの色として異なる色が設定されるようにしてもよい。 As shown in color in FIG. 16, the lips of the user H1 displayed in the face image area 511 are highlighted by being subjected to the lip treatment. Immediately after the display of the lip processing selection screen is started, the lips of the user H1 are changed to, for example, the default color. A different color may be set as the default color according to the course selected in the preselection process.

なお、ここでいう唇の色は、色相、彩度、明度の組み合わせだけでなく、質感、透明感、輝度などを表す複数種類のパラメータの組み合わせによって規定される。 The color of the lips referred to here is defined not only by a combination of hue, saturation, and lightness, but also by a combination of a plurality of types of parameters representing texture, transparency, brightness, and the like.

リップ処理による唇の色の変更は、例えば、マスク画像を用いて唇領域を抽出し、唇領域を構成する画素の画素値を変更するようにして行われる。所定の色の唇画像を利用者の唇領域に合成することによって唇の色の変更が行われるようにしてもよい。 The lip color is changed by the lip treatment, for example, by extracting the lip region using a mask image and changing the pixel value of the pixels constituting the lip region. The lip color may be changed by synthesizing a lip image of a predetermined color with the user's lip area.

リップ処理選択画面の下方には選択領域512が形成される。選択領域512には、唇の色の選択に用いられる選択ボタン521−1乃至521−5が表示される。選択ボタン521−1乃至521−5は、それぞれ、口紅を表す画像として表示されている。 A selection area 512 is formed below the lip processing selection screen. In the selection area 512, selection buttons 521-1 to 521-5 used for selecting the color of the lips are displayed. The selection buttons 521-1 to 521-5 are displayed as images representing lipsticks, respectively.

図16の例においては、タブ512Aが選択され、マットのカテゴリの色が選択されている。図16の選択ボタン521−1乃至521−5は、マットのカテゴリの色の選択に用いられるボタンである。利用者は、選択ボタン521−1乃至521−5を押下して好みの色を選択する。 In the example of FIG. 16, tab 512A is selected and the matte category color is selected. The selection buttons 521-1 to 521-5 in FIG. 16 are buttons used for selecting a color in the matte category. The user presses the selection buttons 521-1 to 521-5 to select a favorite color.

タブ512Bが選択された場合、図17に示すように、グロスのカテゴリの色が選択される。図17の選択領域512には、グロスのカテゴリの色の選択に用いられるボタンである選択ボタン522−1乃至522−5が表示されている。このように、利用者は、タブ512A、タブ512Bを押下することにより、色のカテゴリを切り替えることができる。 When tab 512B is selected, the color of the gloss category is selected, as shown in FIG. In the selection area 512 of FIG. 17, selection buttons 522-1 to 522-5, which are buttons used for selecting a color in the gloss category, are displayed. In this way, the user can switch the color category by pressing the tabs 512A and 512B.

事前選択処理において選択されたコースなどに応じて、唇の色の選択肢として異なる色が選択領域512に表示されるようにしてもよい。また、唇の色の選択に用いられる選択ボタンとともに、リップグロス(艶や透明感)などの、唇に対する所定の画像処理のオン/オフを選択するときに押下されるボタンが選択領域512に表示されるようにしてもよい。 Depending on the course selected in the pre-selection process, different colors may be displayed in the selection area 512 as lip color options. In addition to the selection buttons used to select the color of the lips, the buttons pressed when selecting on / off of predetermined image processing for the lips, such as lip gloss (gloss and transparency), are displayed in the selection area 512. It may be done.

選択ボタン521−1乃至521−5などを用いることによって所定の色が選択された場合、顔画像領域511に表示されている利用者H1の唇の色が切り替えられる。 When a predetermined color is selected by using the selection buttons 521-1 to 521-5, the color of the lips of the user H1 displayed in the face image area 511 is switched.

顔画像領域511の右側には、リップの色を決定するときに押下されるOKボタン513が表示される。OKボタン513の下にはマイリップボタン514が表示される。 On the right side of the face image area 511, an OK button 513 pressed when determining the lip color is displayed. My lip button 514 is displayed below the OK button 513.

マイリップボタン514は、利用者自身の唇をベースにして、唇を綺麗に見せるための処理を施すときに押下されるボタンである。マイリップボタン514が押下された場合、例えば、オリジナルの唇の彩度などのパラメータを変化させたり、ぼかしたりする処理が唇領域に対して施される。マイリップボタン514が押下された場合に行われる処理は、選択領域512に表示されているボタンが押下された場合に行われるリップ処理とは異なる処理である。 The My Lip Button 514 is a button that is pressed when a process for making the lips look beautiful is performed based on the user's own lips. When the My Lip Button 514 is pressed, for example, a process of changing or blurring parameters such as the saturation of the original lip is applied to the lip region. The process performed when the My Lip button 514 is pressed is different from the process performed when the button displayed in the selection area 512 is pressed.

リップ処理選択画面が表示されている場合、1人目の利用者である利用者H1は、タッチパネルモニタ92のボタンを指で直接押下し、自分の顔を見ながら好みの唇の色を選択することになる。 When the lip processing selection screen is displayed, the user H1 who is the first user directly presses the button of the touch panel monitor 92 with a finger and selects a favorite lip color while looking at his / her face. become.

好みの唇の色が利用者H1により選択され、OKボタン513が押下された場合、図13のステップS14において、表示制御部413は、1枚目の撮影画像に基づいて、2人目用のリップ処理選択画面をタッチパネルモニタ92に表示させる。 When the favorite lip color is selected by the user H1 and the OK button 513 is pressed, in step S14 of FIG. 13, the display control unit 413 determines the lip for the second person based on the first captured image. The process selection screen is displayed on the touch panel monitor 92.

図18は、2人目用のリップ処理選択画面の表示例を示す図である。 FIG. 18 is a diagram showing a display example of a lip processing selection screen for a second person.

図18の例においては、2人目の利用者である利用者H2の顔画像が顔画像領域511に表示されている。図18に示す利用者H2の顔画像は、ステップS12において撮影された1枚目の撮影画像からトリミングにより切り出された画像である。 In the example of FIG. 18, the face image of the second user, the user H2, is displayed in the face image area 511. The face image of the user H2 shown in FIG. 18 is an image cut out by trimming from the first captured image captured in step S12.

2人目用のリップ処理選択画面は、顔画像が異なる点を除いて、1人目用のリップ処理選択画面と同様の画面である。2人目の利用者である利用者H2は、利用者H1に代わってタッチパネルモニタ92の前に立ち、タッチパネルモニタ92のボタンを指で直接押下して、自分の顔を見ながら好みの唇の色を選択することになる。 The lip processing selection screen for the second person is the same screen as the lip processing selection screen for the first person, except that the face image is different. The second user, the user H2, stands in front of the touch panel monitor 92 on behalf of the user H1, presses the button of the touch panel monitor 92 directly with a finger, and looks at his / her face while looking at his / her favorite lip color. Will be selected.

このように、撮影処理においては、リップ処理選択画面の表示が、撮影結果として得られた1枚目の撮影画像を用いて行われる。1回目の撮影によって得られた撮影画像に基づいて生成された顔画像が配置されているため、利用者は、実際に編集の対象となり、シール紙に印刷される画像を見ながら、唇の色を選択することができる。 As described above, in the shooting process, the lip processing selection screen is displayed using the first shot image obtained as the shooting result. Since the face image generated based on the captured image obtained by the first shooting is arranged, the user is actually the target of editing, and the color of the lips while looking at the image printed on the sticker paper. Can be selected.

また、2人の利用者は、それぞれ自分の好みの色を選択することができる。 In addition, the two users can each select their own favorite color.

好みの唇の色が利用者H2により選択され、OKボタン513が押下された場合、図13のステップS15において、画像処理部412は、2人の利用者による選択結果に基づいて、1枚目の撮影画像に対してリップ処理を施す。 When the favorite lip color is selected by the user H2 and the OK button 513 is pressed, in step S15 of FIG. 13, the image processing unit 412 is the first image based on the selection results by the two users. Lip processing is applied to the captured image of.

1枚目の撮影画像に写る1人目の利用者H1の唇部分に対しては、唇の色を利用者H1により選択された色に変更するための処理が施される。また、2人目の利用者H2の唇部分に対しては、唇の色を利用者H2により選択された色に変更するための処理が施される。 The lip portion of the first user H1 shown in the first captured image is subjected to a process for changing the color of the lips to the color selected by the user H1. Further, the lip portion of the second user H2 is subjected to a process for changing the color of the lips to the color selected by the user H2.

リップ処理が施された1枚目の撮影画像は、画像記憶部414に供給され、記憶される。1枚目の撮影画像が画像記憶部414に記憶された後、2回目以降の撮影が続けられる。 The first photographed image that has undergone lip processing is supplied to and stored in the image storage unit 414. After the first captured image is stored in the image storage unit 414, the second and subsequent captures are continued.

ステップS16において、表示制御部413は、ライブビュー画面をタッチパネルモニタ92に表示させる。 In step S16, the display control unit 413 displays the live view screen on the touch panel monitor 92.

図19は、2回目の撮影前に表示されるライブビュー画面の表示例を示す図である。 FIG. 19 is a diagram showing a display example of a live view screen displayed before the second shooting.

ライブビュー画面の画像表示領域501には、カメラ91により取り込まれた動画像に基づいて生成されたライブビュー画像が表示される。図19に示すように、ライブビュー画面には、リップ処理が施されていない画像がライブビュー画像として表示される。 In the image display area 501 of the live view screen, a live view image generated based on the moving image captured by the camera 91 is displayed. As shown in FIG. 19, an image that has not been lip-processed is displayed as a live view image on the live view screen.

選択結果に応じたリップ処理が施されたライブビュー画像が表示されるようにしてもよい。なお、2回目の撮影前、ライブビュー画像の右側には、2回目の撮影が行われることを表す「2/10」の数字が表示される。 A live view image that has been lip-processed according to the selection result may be displayed. Before the second shooting, the number "2/10" indicating that the second shooting is performed is displayed on the right side of the live view image.

ライブビュー画面の表示が開始されてから所定の時間が経過した場合、図13のステップS17において、撮影制御部411は2回目の撮影を行う。2回目の撮影によって得られた静止画像は、画像処理部412に供給される。 When a predetermined time has elapsed since the display of the live view screen was started, in step S17 of FIG. 13, the photographing control unit 411 performs the second photographing. The still image obtained by the second shooting is supplied to the image processing unit 412.

ステップS18において、画像処理部412は、撮影制御部411から供給された静止画像に基づいて2枚目の撮影画像を生成し、リップ処理を施す。 In step S18, the image processing unit 412 generates a second photographed image based on the still image supplied from the photographing control unit 411, and performs lip processing.

2枚目の撮影画像に写る利用者H1と利用者H2のそれぞれの唇部分に対しては、唇の色を、それぞれの利用者により選択された色に変更するための処理が施される。画像処理部412によりリップ処理が施された2枚目の撮影画像は、画像記憶部414に供給され、記憶されるとともに、表示制御部413に供給される。 Each of the lips of the user H1 and the user H2 shown in the second photographed image is subjected to a process for changing the color of the lips to a color selected by each user. The second captured image that has been lip-processed by the image processing unit 412 is supplied to the image storage unit 414, stored, and supplied to the display control unit 413.

ステップS19において、表示制御部413は、撮影結果確認画面をタッチパネルモニタ92に表示させ、2枚目の撮影画像を利用者に提示する。撮影結果確認画面には、リップ処理後の2枚目の撮影画像が表示される。 In step S19, the display control unit 413 displays the shooting result confirmation screen on the touch panel monitor 92 and presents the second shot image to the user. On the shooting result confirmation screen, the second shot image after the lip processing is displayed.

図20は、撮影結果確認画面の表示例を示す図である。 FIG. 20 is a diagram showing a display example of a shooting result confirmation screen.

図20に示すように、撮影結果確認画面の画像表示領域501には、リップ処理後の2枚目の撮影画像が表示される。左側に写る利用者H1の唇は、リップ処理選択画面から利用者H1自身により選択された色で表示され、右側に写る利用者H2の唇は、リップ処理選択画面から利用者H2自身により選択された色で表示される。 As shown in FIG. 20, in the image display area 501 of the shooting result confirmation screen, the second shot image after the lip processing is displayed. The lips of the user H1 shown on the left side are displayed in the color selected by the user H1 himself from the lip processing selection screen, and the lips of the user H2 shown on the right side are selected by the user H2 himself from the lip processing selection screen. It is displayed in the same color.

このように、利用者は、リップ処理が施された撮影画像を、2枚目の撮影結果として確認することができる。 In this way, the user can confirm the photographed image to which the lip processing has been performed as the result of the second image.

撮影結果確認画面が所定の時間だけ表示された後、3回目以降の撮影が続けられる。 After the shooting result confirmation screen is displayed for a predetermined time, the third and subsequent shootings are continued.

図14のステップS20において、表示制御部413は、ライブビュー画面をタッチパネルモニタ92に表示させる。 In step S20 of FIG. 14, the display control unit 413 displays the live view screen on the touch panel monitor 92.

ステップS21において、撮影制御部411は3回目以降の撮影を行う。3回目以降の撮影によって得られた静止画像は、画像処理部412に供給される。 In step S21, the imaging control unit 411 performs the third and subsequent imaging. The still image obtained by the third and subsequent shootings is supplied to the image processing unit 412.

ステップS22において、画像処理部412は、撮影制御部411から供給された静止画像に基づいて3枚目以降の撮影画像を生成し、リップ処理を施す。 In step S22, the image processing unit 412 generates the third and subsequent captured images based on the still images supplied from the imaging control unit 411, and performs lip processing.

3枚目以降の撮影画像に写る利用者H1と利用者H2のそれぞれの唇部分に対しては、唇の色を、それぞれの利用者により選択された色に変更するための処理が施される。画像処理部412によりリップ処理が施された3枚目の撮影画像は、画像記憶部414に供給され、記憶されるとともに、表示制御部413に供給される。 Each of the lips of the user H1 and the user H2 shown in the third and subsequent captured images is subjected to a process for changing the color of the lips to the color selected by each user. .. The third captured image that has been lip-processed by the image processing unit 412 is supplied to the image storage unit 414, stored, and supplied to the display control unit 413.

ステップS23において、表示制御部413は、撮影結果確認画面をタッチパネルモニタ92に表示させ、撮影結果を利用者に提示する。撮影結果確認画面には、リップ処理後の3枚目以降の撮影画像が表示される。 In step S23, the display control unit 413 displays the shooting result confirmation screen on the touch panel monitor 92 and presents the shooting result to the user. On the shooting result confirmation screen, the third and subsequent shot images after the lip processing are displayed.

ステップS24において、撮影制御部411は、撮影回数が所定の回数に達したか否かを判定する。ここでは、所定の回数として例えば6回が設定される。 In step S24, the shooting control unit 411 determines whether or not the number of shootings has reached a predetermined number of times. Here, for example, 6 times is set as a predetermined number of times.

撮影回数が6回目に達していない、すなわち、6回目の撮影が終了していないとステップS24において判定された場合、ステップS20に戻り、撮影が続けられる。 If it is determined in step S24 that the number of times of photographing has not reached the sixth time, that is, the sixth shooting has not been completed, the process returns to step S20 and the shooting is continued.

3回目乃至6回目の撮影は、例えば2回目の撮影と同様にして行われる。すなわち、3回目乃至6回目の撮影によって得られた3枚目乃至6枚目の撮影画像に対しては、撮影が行われる毎にリップ処理が施され、撮影結果の提示が行われる。それぞれの撮影の間には、リップ処理が施されていないライブビュー画像が表示される。 The third to sixth shootings are performed in the same manner as, for example, the second shooting. That is, the third to sixth shot images obtained by the third to sixth shootings are subjected to lip processing every time the shooting is performed, and the shooting results are presented. Between each shot, a live view image without lip processing is displayed.

例えば6回目の撮影が終了したことから、撮影回数が所定の回数に達したとステップS24において判定された場合、撮影制御部411は、残りの4回の撮影を連続して行う。7回目乃至10回目の撮影は、撮影結果の提示なしに続けて行われる。それぞれの撮影によって得られた撮影画像は、画像処理部412においてリップ処理が施された後、画像記憶部414に供給され、記憶される。 For example, when it is determined in step S24 that the number of times of shooting has reached a predetermined number because the sixth shooting is completed, the shooting control unit 411 continuously performs the remaining four shootings. The 7th to 10th shootings are continuously performed without presenting the shooting results. The captured image obtained by each photographing is subjected to lip processing in the image processing unit 412, and then supplied to the image storage unit 414 and stored.

なお、ここでは、所定の回数として6回が設定されており、撮影結果の提示を含む撮影が6回行われるものとされているが、最後の撮影である10回目の撮影より前の任意の回数の撮影が行われたタイミングで、撮影結果の提示を含む撮影が終了されるようにしてもよい。 Here, 6 times is set as a predetermined number of times, and it is assumed that the shooting including the presentation of the shooting result is performed 6 times, but any shooting before the 10th shooting, which is the last shooting, is performed. The shooting including the presentation of the shooting result may be completed at the timing when the number of shootings is performed.

ステップS26において、表示制御部413は、編集空間A2への移動を案内する。編集空間A2への移動の案内は、案内画面をタッチパネルモニタ92に表示させるなどして行われる。その後、図12のステップS2に戻り、それ以降の処理が行われる。 In step S26, the display control unit 413 guides the movement to the editing space A2. Guidance for moving to the editing space A2 is performed by displaying a guidance screen on the touch panel monitor 92 or the like. After that, the process returns to step S2 in FIG. 12 and the subsequent processing is performed.

図21は、撮影画像の用途の例を示す図である。 FIG. 21 is a diagram showing an example of use of a photographed image.

図21に示す撮影画像P1乃至P4は、1回目乃至4回目の撮影によって得られた撮影画像である。 The photographed images P1 to P4 shown in FIG. 21 are photographed images obtained by the first to fourth times of photography.

図21の左端に示すように、撮影画像P1は、リップ処理選択画面の表示に用いられる。また、撮影画像P1を用いて表示されたリップ処理選択画面の選択結果が、矢印の先に示すように撮影画像P2乃至P4に対して反映され、それぞれ、撮影が行われる毎に、撮影結果として提示される。リップ処理選択画面の選択結果が反映された撮影結果の提示は、6回目の撮影によって得られた撮影画像P6まで繰り返される。 As shown at the left end of FIG. 21, the captured image P1 is used to display the lip processing selection screen. Further, the selection result of the lip processing selection screen displayed using the photographed image P1 is reflected on the photographed images P2 to P4 as shown at the tip of the arrow, and each time the photographed image is taken, the photographed result is displayed. Presented. The presentation of the shooting result reflecting the selection result of the lip processing selection screen is repeated up to the shot image P6 obtained by the sixth shooting.

撮影結果としての提示は行われないものの、リップ処理選択画面の選択結果は、撮影画像P1とともに、7回目乃至10回目の撮影によって得られた撮影画像P7乃至P10に対しても反映される。 Although it is not presented as a shooting result, the selection result of the lip processing selection screen is reflected not only in the shot image P1 but also in the shot images P7 to P10 obtained by the seventh to tenth shooting.

以上の処理により、図22に示すように、リップ処理が施された撮影画像P1乃至P10が生成される。撮影画像P1乃至P10のそれぞれに写る1人目の利用者H1の唇部分に対しては、利用者H1による選択結果に応じて同じ処理が施されている。また、2人目の利用者H2の唇部分に対しては、利用者H2による選択結果に応じて同じ処理が施されている。 By the above processing, as shown in FIG. 22, photographed images P1 to P10 subjected to lip processing are generated. The lip portion of the first user H1 shown in each of the captured images P1 to P10 is subjected to the same processing according to the selection result by the user H1. Further, the lip portion of the second user H2 is subjected to the same treatment according to the selection result by the user H2.

このようにそれぞれの利用者による選択結果に応じたリップ処理が施された撮影画像P1乃至P10が、編集の対象として用いられる。 The captured images P1 to P10 that have been subjected to lip processing according to the selection result by each user in this way are used as the editing target.

以上のように、利用者は、リップ処理が施され、好みの色に強調された唇が写る撮影画像を見ながら、撮影作業を進めることができる。また、利用者は、自分の唇が好みの色で写る撮影画像を作成することができる。 As described above, the user can proceed with the shooting work while viewing the shot image in which the lips are subjected to the lip processing and the lips are emphasized in the desired color. In addition, the user can create a photographed image in which his or her lips appear in a favorite color.

図12の説明に戻り、ステップS3において、編集処理部403は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで編集処理を行う。 Returning to the description of FIG. 12, in step S3, the editing processing unit 403 corresponds to the editing space of the editing space A2-1 and the editing space A2-2, which is the destination of the user who has completed the shooting process. Editing is performed by controlling the editorial unit 305.

例えば、編集処理部403は、タブレット内蔵モニタ131にキープ選択画面を表示させ、10枚の撮影画像の中から、所定の枚数の好みの撮影画像をキープ画像として選択させる。撮影画像の編集は、キープ画像として選択された撮影画像を対象として行われる。 For example, the editing processing unit 403 displays a keep selection screen on the tablet built-in monitor 131, and causes a predetermined number of favorite shot images to be selected as keep images from the ten shot images. Editing of the captured image is performed on the captured image selected as the keep image.

キープ画像とする撮影画像が選択された後、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影画像に対して利用者に編集作業を行わせる。編集画面には、編集対象の撮影画像とともに、撮影画像に合成する合成用画像を選択するときに操作されるボタンなどが表示される。 After the captured image to be the keep image is selected, the editing processing unit 403 displays the editing screen on the tablet built-in monitor 131, and causes the user to edit the captured image. On the edit screen, along with the captured image to be edited, buttons and the like that are operated when selecting a composite image to be combined with the captured image are displayed.

図23は、編集画面の表示例を示す図である。 FIG. 23 is a diagram showing a display example of the edit screen.

図23に示すように、編集画面には、編集領域550L,550Rが左右に並べて形成される。編集領域550L,550Rは、それぞれ同一の構成を有している。重複する説明については適宜省略する。なお、編集画面上の各領域を囲む一点鎖線と破線は、画面に実際に表示されるものではない As shown in FIG. 23, the editing areas 550L and 550R are formed side by side on the editing screen. The editing areas 550L and 550R each have the same configuration. Duplicate explanations will be omitted as appropriate. The alternate long and short dash line surrounding each area on the edit screen is not actually displayed on the screen.

編集領域550Lは、左の利用者により用いられる領域であり、編集領域550Rは、右の利用者により用いられる領域である。編集領域550L,550Rのそれぞれにおいては、編集のための操作が2人の利用者毎に個別に受け付けられる。 The editing area 550L is an area used by the left user, and the editing area 550R is an area used by the right user. In each of the editing areas 550L and 550R, operations for editing are individually accepted for each of the two users.

編集領域550Lには、サムネイル表示領域551L、編集対象画像表示領域552L、ぼかし調整バー553L、および反転ボタン554Lが設けられる。同様に、編集領域550Rには、サムネイル表示領域551R、編集対象画像表示領域552R、ぼかし調整バー553R、および反転ボタン554Rが設けられる。 The editing area 550L is provided with a thumbnail display area 551L, an editing target image display area 552L, a blur adjustment bar 553L, and an inversion button 554L. Similarly, the editing area 550R is provided with a thumbnail display area 551R, an image to be edited display area 552R, a blur adjustment bar 553R, and a reverse button 554R.

以下、サムネイル表示領域551L,551R、編集対象画像表示領域552L,552R、ぼかし調整バー553L,553R、および反転ボタン554L,554Rをそれぞれ区別する必要がない場合、単に、サムネイル表示領域551、編集対象画像表示領域552、ぼかし調整バー553、および反転ボタン554という。 Hereinafter, when it is not necessary to distinguish the thumbnail display areas 551L and 551R, the edit target image display areas 552L and 552R, the blur adjustment bars 553L and 553R, and the reverse buttons 554L and 554R, the thumbnail display area 551 and the edit target image are simply used. It is called a display area 552, a blur adjustment bar 553, and an inversion button 554.

編集領域550L,550Rに形成されているサムネイル表示領域551は、キープ画像として選択された撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル表示領域551に表示されているサムネイル画像を選択することによって、編集の対象とする撮影画像を選択する。 The thumbnail display area 551 formed in the editing areas 550L and 550R is a display area for a thumbnail image representing a captured image selected as a keep image. The user selects the captured image to be edited by selecting the thumbnail image displayed in the thumbnail display area 551.

編集領域550Lのサムネイル表示領域551Lには、キープ選択画面を用いて左の利用者によりキープ画像として選択された4枚の撮影画像を表すサムネイル画像が表示される。同様に、編集領域550Rのサムネイル表示領域551Rには、キープ選択画面を用いて右の利用者によりキープ画像として選択された4枚の撮影画像を表すサムネイル画像が表示される。 In the thumbnail display area 551L of the editing area 550L, thumbnail images representing four captured images selected as keep images by the user on the left using the keep selection screen are displayed. Similarly, in the thumbnail display area 551R of the editing area 550R, thumbnail images representing four captured images selected as keep images by the right user using the keep selection screen are displayed.

このように、左の利用者と右の利用者は、それぞれ、自分がキープ画像として選択した撮影画像に対して編集を行うことができる。 In this way, the left user and the right user can edit the captured image selected by themselves as the keep image, respectively.

図23の例においては、左の利用者により、サムネイル表示領域551Lに並ぶ4枚のサムネイル画像のうちの左端のサムネイル画像が選択されている。サムネイル表示領域551Lの下に形成された編集対象画像表示領域552Lには、左端のサムネイル画像により表される撮影画像が拡大して表示される。 In the example of FIG. 23, the leftmost thumbnail image is selected from the four thumbnail images arranged in the thumbnail display area 551L by the user on the left. In the edit target image display area 552L formed below the thumbnail display area 551L, the captured image represented by the leftmost thumbnail image is enlarged and displayed.

編集対象画像表示領域552Lに表示されている撮影画像には、リップ処理が施されている。左の利用者は、タッチペン132Aを用いて編集ツールを選択し、編集対象画像表示領域552Lに表示された撮影画像の編集を行うことができる。 The captured image displayed in the edit target image display area 552L is subjected to lip processing. The user on the left can select an editing tool using the touch pen 132A and edit the captured image displayed in the editing target image display area 552L.

また、右の利用者により、サムネイル表示領域551Rに並ぶ4枚のサムネイル画像のうちの左端のサムネイル画像が選択されている。サムネイル表示領域551Rの下に形成された編集対象画像表示領域552Rには、左端のサムネイル画像により表される撮影画像が拡大して表示される。 Further, the user on the right has selected the leftmost thumbnail image among the four thumbnail images arranged in the thumbnail display area 551R. In the edit target image display area 552R formed below the thumbnail display area 551R, the captured image represented by the leftmost thumbnail image is enlarged and displayed.

編集対象画像表示領域552Rに表示されている撮影画像にも、リップ処理が施されている。右の利用者は、タッチペン132Bを用いて編集ツールを選択し、編集対象画像表示領域552Rに表示された撮影画像の編集を行うことができる。 The captured image displayed in the edit target image display area 552R is also subjected to lip processing. The user on the right can select an editing tool using the touch pen 132B and edit the captured image displayed in the editing target image display area 552R.

また、編集領域550Lの左方には、メッセージスタンプ選択部561L、リップカラー選択部562L、およびスタンプ選択部563Lが設けられる。 Further, on the left side of the editing area 550L, a message stamp selection unit 561L, a lip color selection unit 562L, and a stamp selection unit 563L are provided.

メッセージスタンプ選択部561Lは、写真シール作成装置1の機種名、設置されている地域にちなんだ名称、日付などを表す文字列を含むスタンプ画像(メッセージスタンプ)を選択するための領域である。メッセージスタンプ選択部561Lにおいては、メッセージスタンプを構成する文字列の色を変更できる他、手書き文字を合成するためのペンツールを選択することもできる。 The message stamp selection unit 561L is an area for selecting a stamp image (message stamp) including a character string representing a model name of the photo sticker creation device 1, a name associated with the area where the photo sticker is installed, a date, and the like. In the message stamp selection unit 561L, the color of the character string constituting the message stamp can be changed, and a pen tool for synthesizing handwritten characters can also be selected.

リップカラー選択部562Lは、撮影画像に写る人物(利用者)の唇部分の色を選択するための領域である。リップカラー選択部562Lの表示を用いて所定の色が選択された場合、編集処理部403は、撮影画像に写る利用者の唇部分の色を、選択された色に変更する。 The lip color selection unit 562L is an area for selecting the color of the lip portion of a person (user) appearing in a captured image. When a predetermined color is selected using the display of the lip color selection unit 562L, the editing processing unit 403 changes the color of the user's lip portion reflected in the captured image to the selected color.

すなわち、リップカラー選択部562Lの表示を用いることにより、撮影時のリップ処理によって変更された唇の色をさらに編集時にも変更することができることになる。 That is, by using the display of the lip color selection unit 562L, the lip color changed by the lip processing at the time of shooting can be further changed at the time of editing.

撮影処理においては全ての撮影画像の唇の色が同じ色に変更されるが、編集画面に用意されるリップカラー選択の機能を利用することにより、唇の色を1枚ずつ変更することが可能とされる。 In the shooting process, the lip color of all the shot images is changed to the same color, but by using the lip color selection function provided on the edit screen, it is possible to change the lip color one by one. It is said that.

スタンプ選択部563Lは、スタンプ画像を選択するための領域である。スタンプ選択部563Lにおいては、利用者に指定された位置に合成されるスタンプ画像の他、顔の認識結果に基づいた位置に合成されるスタンプ画像を選択することができる。 The stamp selection unit 563L is an area for selecting a stamp image. In the stamp selection unit 563L, in addition to the stamp image synthesized at the position designated by the user, the stamp image synthesized at the position based on the face recognition result can be selected.

同様に、編集領域550Rの左方には、メッセージスタンプ選択部561R、リップカラー選択部562R、およびスタンプ選択部563Rが設けられる。これらは、処理の対象が、編集領域550Rに表示されている撮影画像となる以外は、上述したメッセージスタンプ選択部561L、リップカラー選択部562L、およびスタンプ選択部563Lと同様の操作に用いられる。 Similarly, a message stamp selection unit 561R, a lip color selection unit 562R, and a stamp selection unit 563R are provided on the left side of the editing area 550R. These are used in the same operations as the message stamp selection unit 561L, the lip color selection unit 562L, and the stamp selection unit 563L described above, except that the processing target is the captured image displayed in the editing area 550R.

編集画面の中央上部には、編集作業を終了するときに押下される終了ボタン564が設けられる。 An end button 564 that is pressed when the editing work is completed is provided at the upper center of the editing screen.

図12の説明に戻り、ステップS4において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力してシール紙363に印刷させる。 Returning to the description of FIG. 12, in step S4, the print processing unit 404 performs the print process by controlling the printer 351. The print processing unit 404 outputs the print data generated by the editing processing unit 403 to the printer 351 and prints it on the sticker paper 363.

印刷が終了した場合、ステップS5において、プリンタ351は、カッター362で切り離したシール紙363をシール取り出し口161に排出する。 When printing is completed, in step S5, the printer 351 ejects the sticker paper 363 separated by the cutter 362 to the sticker take-out port 161.

以上の一連の処理により、写真シール作成装置1は、1回目の撮影によって得られた撮影画像に基づいて、リップ処理の内容を利用者に選択させることができる。 Through the above series of processing, the photo sticker creating device 1 can allow the user to select the content of the lip processing based on the photographed image obtained by the first photographing.

リップ処理の内容の選択のために利用者に提示される顔画像は、1回目の撮影によって得られた撮影画像の一部であり、キープ選択での選択後には、編集の対象として用いられ、結果として、シール紙に印刷される。すなわち、リップ処理選択画面に表示される顔画像の元になる撮影画像は、写りに関する画像処理の内容の選択のためだけに撮影された画像ではない。 The face image presented to the user for selecting the content of the lip processing is a part of the captured image obtained by the first shooting, and is used as an editing target after the selection in the keep selection. As a result, it is printed on the sticker paper. That is, the captured image that is the source of the face image displayed on the lip processing selection screen is not an image captured only for selecting the content of the image processing related to the image.

したがって、上述した一連の処理によれば、写りに関する画像処理の内容の選択のためだけに用いられるいわば捨て画像の撮影が行われないため、そのような撮影が行われる場合と比べて、効率的に撮影を進めることが可能となる。 Therefore, according to the series of processes described above, the so-called discarded image used only for selecting the content of the image processing related to the image is not taken, so that it is more efficient than the case where such a picture is taken. It will be possible to proceed with shooting.

また、利用者は、2回目以降の撮影結果として、リップ処理の選択内容が反映された撮影画像を、撮影が行われる毎に確認することができる。利用者は、メイクが施された自分の顔を見て楽しみながら撮影を行うことができるとともに、キープ画像の選択においてどの画像を選択するかをあらかじめ考えておくことができる。 In addition, the user can confirm the captured image reflecting the selected content of the lip processing as the result of the second and subsequent shootings each time the shooting is performed. The user can take a picture while having fun looking at his / her face with make-up, and can think in advance which image to select in the selection of the keep image.

さらに、利用者は、編集画面に用意されるリップカラー選択の機能を利用することにより、唇の色を1枚ずつ変更することができる。 Further, the user can change the lip color one by one by using the lip color selection function provided on the editing screen.

2回目以降の所定回数の撮影を行った後、再度、リップ処理の内容を選択することができるようにしてもよい。 After taking a predetermined number of times from the second time onward, the content of the lip processing may be selected again.

上述したように最大10回の撮影が行われる場合、例えば6回目の撮影が終わった後に、再度、リップ処理選択画面が表示され、唇の色を利用者に選択させる。リップ処理選択画面には6回目の撮影によって得られた6枚目の撮影画像に基づいて生成された顔画像が表示され、唇の色の選択に用いられる。唇の色が選択された場合、その選択内容が6枚目以降の撮影画像に反映される。 When the shooting is performed up to 10 times as described above, for example, after the sixth shooting is completed, the lip processing selection screen is displayed again, and the user is allowed to select the color of the lips. A face image generated based on the sixth captured image obtained by the sixth imaging is displayed on the lip processing selection screen, and is used for selecting the lip color. When the lip color is selected, the selected content is reflected in the sixth and subsequent captured images.

リップ処理の内容を再度選択することができることを表すアイコンが、撮影結果の画像とともに撮影結果確認画面に表示されるようにしてもよい。リップ処理の内容を再度選択することが利用者により選択された場合、撮影結果確認画面に代えて、リップ処理選択画面が表示される。このようなアイコンがライブビュー画面に表示されるようにしてもよい。 An icon indicating that the content of the lip processing can be selected again may be displayed on the shooting result confirmation screen together with the image of the shooting result. When the user selects to select the content of the lip processing again, the lip processing selection screen is displayed instead of the shooting result confirmation screen. Such an icon may be displayed on the live view screen.

<変形例>
・メイク処理の変形例
1回目の撮影によって得られた撮影画像に基づいて利用者に選択させる内容が、リップ処理の内容としての唇の色であるものとしたが、唇の色以外のメイク処理の内容を選択させるようにしてもよい。
<Modification example>
-Example of modification of makeup processing It was assumed that the content to be selected by the user based on the captured image obtained by the first shooting was the lip color as the content of the lip processing, but the makeup processing other than the lip color You may be asked to select the contents of.

例えば、眉毛の色、マスカラの色、チークの色、涙袋の強調度合いなどの、人の顔に対して行われる各種のメイクを模したメイク処理の内容の選択が1回目の撮影によって得られた撮影画像に基づいて行われるようにしてもよい。メイク処理として、アイシャドウの色、アイラインの色、目の色、ハイライトの度合い、シェーディングの度合いを調整する処理が施されるようにしてもよい。 For example, the first shot gives a selection of the content of the makeup process that imitates various makeups performed on the human face, such as eyebrow color, mascara color, cheek color, and tear bag emphasis. It may be performed based on the captured image. As the make-up process, a process of adjusting the eye shadow color, the eye line color, the eye color, the degree of highlighting, and the degree of shading may be performed.

小顔処理の程度の選択、目の強調度合いの選択、肌の色の選択、目の形の選択、肌の質感の選択などの、撮影画像における利用者の写りに関する各種の画像処理の内容の選択が1回目の撮影によって得られた撮影画像に基づいて行われるようにしてもよい。 The contents of various image processing related to the user's appearance in the captured image, such as selection of the degree of small face processing, selection of the degree of emphasis of the eyes, selection of skin color, selection of eye shape, selection of skin texture, etc. The selection may be made based on the captured image obtained by the first capture.

・表示の変形例
リップ処理選択画面に表示される顔画像と2回目以降の撮影が行われる毎に撮影結果として表示される撮影画像がそれぞれ異なるサイズで表示されるようにしてもよい。例えば、顔画像の方が、撮影結果の撮影画像よりも多い画素数の画像として、または、面積が大きい画像として表示される。
-Example of display modification The face image displayed on the lip processing selection screen and the captured image displayed as the shooting result each time the second and subsequent shootings are performed may be displayed in different sizes. For example, the face image is displayed as an image having a larger number of pixels than the captured image as a capture result, or as an image having a larger area.

これにより、利用者は、唇の色をよく確認しながら、リップ処理の内容を選択することができる。 As a result, the user can select the content of the lip treatment while carefully checking the color of the lips.

・その他
以上においては、一緒にゲームを行う利用者の人数が2人である場合について説明したが、3人以上であってもよい。利用者の人数が3人以上である場合においても、顔画像を1人ずつ提示して、リップ処理の内容の選択が行われる。
-Others In the above, the case where the number of users playing the game together is two has been described, but the number may be three or more. Even when the number of users is three or more, the face image is presented one by one and the content of the lip processing is selected.

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。 The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed on a computer embedded in dedicated hardware, a general-purpose personal computer, or the like.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図9に示されるリムーバブルメディア319に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM312や記憶部316に、あらかじめインストールしておくことができる。 The program to be installed is provided by being recorded on the removable media 319 shown in FIG. 9 including an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.) and a semiconductor memory. It may also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting. The program can be pre-installed in the ROM 312 or the storage unit 316.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 The effects described herein are merely exemplary and not limited, and may have other effects.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.

例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology can have a cloud computing configuration in which one function is shared and jointly processed by a plurality of devices via a network.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, each step described in the above-mentioned flowchart can be executed by one device or can be shared and executed by a plurality of devices.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.

1 写真シール作成装置, 401 事前選択処理部, 402 撮影処理部, 403 編集処理部, 404 印刷処理部, 411 撮影制御部, 412 画像処理部, 413 表示制御部, 414 画像記憶部 1 Photo sticker creation device, 401 Preselection processing unit, 402 Imaging processing unit, 403 Editing processing unit, 404 Printing processing unit, 411 Imaging control unit, 412 Image processing unit, 413 Display control unit, 414 Image storage unit

Claims (11)

利用者を被写体として複数回の撮影を行わせる撮影制御部と、
1回目の撮影後、1回目の撮影によって得られた画像に基づいて生成された前記利用者の顔が写る顔画像が配置された、撮影結果の画像に施す画像処理の内容の選択画面を表示させる表示制御部と
を備え、
前記表示制御部は、2回目以降の撮影が行われる毎に、前記選択画面を用いて前記利用者により選択された内容の画像処理が施された前記撮影結果の画像を表示させる
画像処理装置。
A shooting control unit that allows the user to shoot multiple times as a subject,
After the first shooting, a screen for selecting the content of image processing to be applied to the image of the shooting result is displayed, in which the face image of the user's face generated based on the image obtained by the first shooting is arranged. Equipped with a display control unit
The display control unit is an image processing device that displays an image of the shooting result that has been subjected to image processing of the content selected by the user using the selection screen each time the second and subsequent shootings are performed.
前記表示制御部は、2回目以降のそれぞれの撮影によって得られた画像に対して、同じ前記画像処理が施された前記撮影結果の画像を表示させる
請求項1に記載の画像処理装置。
The image processing device according to claim 1, wherein the display control unit displays an image of the shooting result subjected to the same image processing on the images obtained by each of the second and subsequent shootings.
前記表示制御部は、
1回目の撮影によって得られた複数の前記利用者が写る画像全体のうち、1人の前記利用者の前記顔画像が配置された前記選択画面を表示させ、
前記画像処理の内容の選択が終わった後、他の1人の前記利用者の前記顔画像が配置された前記選択画面を表示させる
請求項1または2に記載の画像処理装置。
The display control unit
Of the entire image of the plurality of users obtained by the first shooting, the selection screen on which the face image of one user is arranged is displayed.
The image processing apparatus according to claim 1 or 2, wherein after the selection of the content of the image processing is completed, the selection screen on which the face image of the other user is arranged is displayed.
前記表示制御部は、
前記画像処理として前記利用者の顔に施すメイクの内容の選択画面を表示させ、
前記利用者の顔にメイクが施された前記撮影結果の画像を表示させる
請求項1乃至3のいずれかに記載の画像処理装置。
The display control unit
As the image processing, a screen for selecting the content of makeup to be applied to the user's face is displayed.
The image processing apparatus according to any one of claims 1 to 3, wherein an image of the shooting result in which makeup is applied to the user's face is displayed.
前記表示制御部は、前記画像処理が施されていない動画像を、ライブビュー画像としてそれぞれの撮影の間に表示させる
請求項1乃至4のいずれかに記載の画像処理装置。
The image processing device according to any one of claims 1 to 4, wherein the display control unit displays a moving image that has not been subjected to image processing as a live view image during each shooting.
前記表示制御部は、前記画像処理が施された動画像を、ライブビュー画像としてそれぞれの撮影の間に表示させる
請求項1乃至4のいずれかに記載の画像処理装置。
The image processing device according to any one of claims 1 to 4, wherein the display control unit displays a moving image subjected to the image processing as a live view image during each shooting.
前記画像処理が施された画像に対して、前記利用者による操作に応じた編集を施す編集処理部をさらに備え、
前記編集においては、撮影時に行われた前記画像処理の内容を変更することが可能とされる
請求項1乃至6のいずれかに記載の画像処理装置。
An editing processing unit that edits the image processed by the user according to the operation by the user is further provided.
The image processing apparatus according to any one of claims 1 to 6, wherein the content of the image processing performed at the time of shooting can be changed in the editing.
前記編集処理部は、1回目の撮影によって得られた画像を含む複数枚の画像に対してそれぞれ編集を施す
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the editing processing unit edits a plurality of images including the image obtained by the first shooting.
前記表示制御部は、前記撮影結果の画像の表示を、最後の撮影より前の所定の回数の撮影が行われるまで行う
請求項1乃至8のいずれかに記載の画像処理装置。
The image processing device according to any one of claims 1 to 8, wherein the display control unit displays an image of the shooting result until a predetermined number of times of shooting is performed before the last shooting.
画像処理装置が、
利用者を被写体として複数回の撮影を行わせ、
1回目の撮影後、1回目の撮影によって得られた画像に基づいて生成された前記利用者の顔が写る顔画像が配置された、撮影結果の画像に施す画像処理の内容の選択画面を表示させ、
2回目以降の撮影が行われる毎に、前記選択画面を用いて前記利用者により選択された内容の画像処理が施された前記撮影結果の画像を表示させる
画像処理方法。
The image processing device
Have the user take multiple shots as a subject
After the first shooting, a screen for selecting the content of image processing to be applied to the image of the shooting result is displayed, in which the face image of the user's face generated based on the image obtained by the first shooting is arranged. Let me
An image processing method for displaying an image of the shooting result that has been subjected to image processing of the content selected by the user using the selection screen each time the second and subsequent shootings are performed.
コンピュータに、
利用者を被写体として複数回の撮影を行わせ、
1回目の撮影後、1回目の撮影によって得られた画像に基づいて生成された前記利用者の顔が写る顔画像が配置された、撮影結果の画像に施す画像処理の内容の選択画面を表示させ、
2回目以降の撮影が行われる毎に、前記選択画面を用いて前記利用者により選択された内容の画像処理が施された前記撮影結果の画像を表示させる
処理を実行させるためのプログラム。
On the computer
Have the user take multiple shots as a subject
After the first shooting, a screen for selecting the content of image processing to be applied to the image of the shooting result is displayed, in which the face image of the user's face generated based on the image obtained by the first shooting is arranged. Let me
A program for executing a process of displaying an image of the shooting result, which has been subjected to image processing of the content selected by the user using the selection screen, each time the second and subsequent shootings are performed.
JP2019166287A 2019-09-12 2019-09-12 Image processing device, image processing method, and program Pending JP2021044734A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019166287A JP2021044734A (en) 2019-09-12 2019-09-12 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019166287A JP2021044734A (en) 2019-09-12 2019-09-12 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021044734A true JP2021044734A (en) 2021-03-18

Family

ID=74862588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019166287A Pending JP2021044734A (en) 2019-09-12 2019-09-12 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021044734A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7223086B1 (en) 2021-09-01 2023-02-15 株式会社セガ Amusement imaging device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032536A (en) * 2001-07-18 2003-01-31 Konica Corp Imaging apparatus and method for acquiring image
JP2016197222A (en) * 2015-04-03 2016-11-24 フリュー株式会社 Photograph sticker creating apparatus and display method
JP2018031860A (en) * 2016-08-23 2018-03-01 フリュー株式会社 Photograph creating game machine, and information processing method
JP6521136B1 (en) * 2018-04-17 2019-05-29 フリュー株式会社 Photo creation game machine, control method, and program
JP2019097174A (en) * 2018-12-28 2019-06-20 フリュー株式会社 Image processing device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032536A (en) * 2001-07-18 2003-01-31 Konica Corp Imaging apparatus and method for acquiring image
JP2016197222A (en) * 2015-04-03 2016-11-24 フリュー株式会社 Photograph sticker creating apparatus and display method
JP2018031860A (en) * 2016-08-23 2018-03-01 フリュー株式会社 Photograph creating game machine, and information processing method
JP6521136B1 (en) * 2018-04-17 2019-05-29 フリュー株式会社 Photo creation game machine, control method, and program
JP2019097174A (en) * 2018-12-28 2019-06-20 フリュー株式会社 Image processing device and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7223086B1 (en) 2021-09-01 2023-02-15 株式会社セガ Amusement imaging device
JP2023035467A (en) * 2021-09-01 2023-03-13 株式会社セガ Game image capturing apparatus

Similar Documents

Publication Publication Date Title
JP6418444B2 (en) Photo sticker creating apparatus and image providing method
JP6810336B2 (en) Photo creation game console and display method
JP6765054B2 (en) Photo creation game console and display method
JP7152687B2 (en) Display control device, display control method, program
JP2021044734A (en) Image processing device, image processing method, and program
JP5668885B1 (en) Photo sticker making apparatus and photo sticker making method
JP2019186875A (en) Photo creation game machine, control method, and program
JP5790812B2 (en) Photo sticker making apparatus and photo sticker making method
JP7132492B2 (en) Image processing device, display control method, and program
JP2018195881A (en) Photo seal creation device, photo seal manufacturing method, and photo seal manufacturing processing program
JP5682803B1 (en) Photo sticker making apparatus and photo sticker making method
JP5742922B1 (en) Image processing apparatus and method, and program
JP2021182104A (en) Photograph creation game machine, editing method and program
JP6867587B2 (en) Photographing game consoles, information processing methods, and programs
JP6388178B2 (en) Image processing apparatus and method, and program
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP6146374B2 (en) Image processing apparatus and method, and program
JP7406065B2 (en) Photography equipment, photography method, and program
JP7280474B2 (en) Photo-making game machine, control method, and program
JP7473778B2 (en) IMAGING APPARATUS, DISPLAY CONTROL METHOD, AND PROGRAM
JP7364866B2 (en) Image processing device, editing device
JP7319535B2 (en) Photo-making game machine, control method, and program
JP7319534B2 (en) camera
JP6933799B2 (en) Photographing game console and shooting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240213