JP2018022126A - Photograph creation game machine and imaging method - Google Patents

Photograph creation game machine and imaging method Download PDF

Info

Publication number
JP2018022126A
JP2018022126A JP2017006443A JP2017006443A JP2018022126A JP 2018022126 A JP2018022126 A JP 2018022126A JP 2017006443 A JP2017006443 A JP 2017006443A JP 2017006443 A JP2017006443 A JP 2017006443A JP 2018022126 A JP2018022126 A JP 2018022126A
Authority
JP
Japan
Prior art keywords
image
face
user
shooting
live view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017006443A
Other languages
Japanese (ja)
Other versions
JP6880394B2 (en
Inventor
優美 山田
Yumi Yamada
優美 山田
侑加 諸岡
Yuka Morooka
侑加 諸岡
舞 西川
Mai Nishikawa
舞 西川
中嶋俊介
Shunsuke Nakajima
俊介 中嶋
雅典 住永
Masanori Suminaga
雅典 住永
里香 笹野
Rika Sasano
里香 笹野
瞳 高松
Hitomi Takamatsu
瞳 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Publication of JP2018022126A publication Critical patent/JP2018022126A/en
Application granted granted Critical
Publication of JP6880394B2 publication Critical patent/JP6880394B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image having a satisfaction level high for a user.SOLUTION: An imaging controlling unit images one or more users as subjects. A display control unit displays a live view image having the user before an imaging timing. In the live view image, a recognition unit determines by face recognition whether at least one of the face of the user and a part of the face is detected. For example, a guide corresponding to the recognition result by the recognition unit is output to the live view image. This technology can be applied to a photograph seal creation device.SELECTED DRAWING: Figure 19

Description

本技術は、写真作成ゲーム機および撮影方法に関し、特に、利用者にとって満足度の高い画像を提供することができるようにする写真作成ゲーム機および撮影方法に関する。   The present technology relates to a photo creation game machine and a shooting method, and more particularly, to a photo creation game machine and a shooting method capable of providing an image with a high degree of satisfaction for a user.

従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。   Conventionally, a photo sticker installed in an amusement facility or the like is known. The photo sticker machine photographs a user and edits the photographed image according to the user's operation. The photo sticker prints the edited photographed image on sticker paper.

近年、写真シール機においては、撮影画像に対して適切な画像処理を施すために、撮影画像に対する顔認識が行われている。例えば、特許文献1には、編集対象となる撮影画像を選択する画面において、撮影画像とともに、認識結果を表示する写真シール作成装置が記載されている。   In recent years, in photo stickers, face recognition is performed on captured images in order to perform appropriate image processing on the captured images. For example, Patent Document 1 describes a photo sticker creation apparatus that displays a recognition result together with a photographed image on a screen for selecting a photographed image to be edited.

これにより、利用者に、認識に失敗した画像を選択させないように促すことができ、認識に失敗し適切に画像処理が施されなかった画像が出力されてしまうことを抑制することができる。   Accordingly, it is possible to prompt the user not to select an image that has failed to be recognized, and it is possible to suppress the output of an image that has failed to be recognized and has not been appropriately subjected to image processing.

また、特許文献1には、ライブビュー画面において、認識された顔に設定される対象枠と、理想的な位置に設定される目標枠とが一致したときに、ベストポジションであることを示すベスポジ枠が表示されることが記載されている。   Patent Document 1 discloses that a best position is shown when the target frame set on the recognized face matches the target frame set at an ideal position on the live view screen. It is described that a frame is displayed.

ライブビュー画面にベスポジ枠が表示されることで、利用者は、撮影空間内において自分が最適な位置にいることを簡単に認識することができる。   By displaying the vest-positive frame on the live view screen, the user can easily recognize that he / she is at the optimum position in the shooting space.

さらに、特許文献2には、ライブビュー画像において認識された顔の位置に応じて、被写体同士の顔を近づけるように誘導することが記載されている。   Further, Patent Document 2 describes guiding the faces of subjects close to each other according to the position of the face recognized in the live view image.

特開2012−74778号公報JP 2012-74778 A 特許第5304751号公報Japanese Patent No. 5304751

ライブビュー画像に対して顔認識が行われ、その認識に成功すれば、より確実に撮影画像に対して適切な画像処理を施すことができるようになる。しかしながら、ライブビュー画面にベスポジ枠が表示されたり、被写体同士の顔を近づけるように誘導されるだけでは、利用者は、自分が最適な位置にいることを簡単に把握することはできても、顔の認識に成功しているか否かを把握することはできなかった。   If face recognition is performed on the live view image and the recognition is successful, appropriate image processing can be more reliably performed on the captured image. However, even if the user can easily grasp that he / she is in the optimal position simply by displaying the Vespoy frame on the live view screen or being guided to bring the faces of the subjects closer together, It was not possible to grasp whether or not face recognition was successful.

その結果、顔の認識に失敗した場合には、適切に画像処理が施されなかった画像が出力され、利用者にとって満足度の低い画像が提供されてしまうおそれがある。   As a result, when face recognition fails, an image that has not been appropriately subjected to image processing is output, and an image that is less satisfactory for the user may be provided.

本技術は、このような状況に鑑みてなされたものであり、利用者にとってより満足度の高い画像を提供することができるようにするものである。   The present technology has been made in view of such a situation, and makes it possible to provide an image with higher satisfaction for a user.

本技術の第1の側面の写真作成ゲーム機は、1以上の利用者を被写体として撮影する撮影制御部と、撮影タイミングより前に、前記利用者が映るライブビュー画像を表示する表示制御部と、前記ライブビュー画像において、顔認識により前記利用者の顔および顔パーツの少なくともいずれかが検出されたか否かを判定する認識部と、前記認識部による認識結果に応じた案内を出力する出力部とを備える。   A photo creating game machine according to a first aspect of the present technology includes a shooting control unit that shoots one or more users as subjects, a display control unit that displays a live view image of the users before shooting timing, A recognition unit that determines whether or not at least one of the user's face and face parts is detected by face recognition in the live view image, and an output unit that outputs guidance according to a recognition result by the recognition unit With.

本技術の第1の側面の撮影方法は、1以上の利用者を被写体として撮影し、撮影タイミングより前に、前記利用者が映るライブビュー画像を表示し、前記ライブビュー画像において、顔認識により前記利用者の顔および顔パーツの少なくともいずれかが検出されたか否かを判定し、前記認識部による認識結果に応じた案内を出力するステップを含む。   The imaging method according to the first aspect of the present technology shoots one or more users as subjects, displays a live view image showing the user before the shooting timing, and performs face recognition in the live view image. Determining whether or not at least one of the user's face and facial parts is detected, and outputting a guidance according to a recognition result by the recognition unit.

本技術の第1の側面においては、1以上の利用者が被写体として撮影され、撮影タイミングより前に、前記利用者が映るライブビュー画像が表示され、前記ライブビュー画像において、顔認識により前記利用者の顔および顔パーツの少なくともいずれかが検出されたか否かが判定され、前記認識部による認識結果に応じた案内が出力される。   In the first aspect of the present technology, one or more users are photographed as subjects, a live view image showing the users is displayed before the photographing timing, and the use is performed by face recognition in the live view image. It is determined whether or not at least one of the person's face and facial parts has been detected, and guidance according to the recognition result by the recognition unit is output.

本技術の第2の側面の写真作成ゲーム機は、1以上の利用者を被写体として撮影する撮影制御部と、撮影タイミングより前に、前記利用者が映るライブビュー画像を表示する表示制御部と、前記ライブビュー画像に映る前記利用者の顔のサイズが所定サイズより小さいか否かを判定する顔サイズ判定部と、前記ライブビュー画像に映る複数の前記利用者の顔同士が所定距離より離れているか否かを判定する距離判定部と、前記顔のサイズが前記所定サイズより小さいと判定された場合、前記利用者に対する第1のガイダンスを出力し、前記顔同士が前記所定距離より離れていると判定された場合、前記利用者に対する第2のガイダンスを出力する出力部とを備える。   A photo creating game machine according to a second aspect of the present technology includes a shooting control unit that shoots one or more users as subjects, and a display control unit that displays a live view image of the users before shooting timing. A face size determining unit that determines whether or not a size of the user's face reflected in the live view image is smaller than a predetermined size, and a plurality of the user's faces reflected in the live view image are separated from each other by a predetermined distance. A distance determination unit that determines whether or not the face is smaller than the predetermined size, the first guidance for the user is output, and the faces are separated from the predetermined distance. An output unit that outputs a second guidance for the user.

本技術の第2の側面の撮影方法は、1以上の利用者を被写体として撮影し、撮影タイミングより前に、前記利用者が映るライブビュー画像を表示し、前記ライブビュー画像に映る前記利用者の顔のサイズが所定サイズより小さいか否かを判定し、前記ライブビュー画像に映る複数の前記利用者の顔同士が所定距離より離れているか否かを判定し、前記顔のサイズが前記所定サイズより小さいと判定された場合、前記利用者に対する第1のガイダンスを出力し、前記顔同士が前記所定距離より離れていると判定された場合、前記利用者に対する第2のガイダンスを出力するステップを含む。   The imaging method according to the second aspect of the present technology captures one or more users as subjects, displays a live view image of the user before the imaging timing, and displays the live view image on the user. It is determined whether or not the size of the face of the user is smaller than a predetermined size, and it is determined whether or not the faces of the plurality of users shown in the live view image are separated from each other by a predetermined distance. A step of outputting a first guidance for the user if determined to be smaller than the size, and a step of outputting a second guidance for the user if it is determined that the faces are separated from the predetermined distance; including.

本技術の第2の側面においては、1以上の利用者が被写体として撮影され、撮影タイミングより前に、前記利用者が映るライブビュー画像が表示され、前記ライブビュー画像に映る前記利用者の顔のサイズが所定サイズより小さいか否かが判定され、前記ライブビュー画像に映る複数の前記利用者の顔同士が所定距離より離れているか否かが判定され、前記顔のサイズが前記所定サイズより小さいと判定された場合、前記利用者に対する第1のガイダンスが出力され、前記顔同士が前記所定距離より離れていると判定された場合、前記利用者に対する第2のガイダンスが出力される。   In the second aspect of the present technology, one or more users are photographed as subjects, a live view image showing the user is displayed before the photographing timing, and the user's face shown in the live view image is displayed. It is determined whether or not the size of the user is smaller than a predetermined size, it is determined whether or not the faces of the plurality of users shown in the live view image are separated from each other by a predetermined distance, and the size of the face is larger than the predetermined size When it is determined that the distance is smaller, the first guidance for the user is output, and when it is determined that the faces are separated from the predetermined distance, the second guidance for the user is output.

本技術によれば、利用者にとってより満足度の高い画像を提供することが可能となる。   According to the present technology, it is possible to provide an image with higher satisfaction for the user.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photo sticker production apparatus of this technique. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影部の構成例を示す斜視図である。It is a perspective view which shows the structural example of an imaging | photography part. 撮影部の構成例を示す正面図である。It is a front view which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集ユニットの構成例を示す図である。It is a figure which shows the structural example of an edit unit. 編集ユニットの右側面の構成例を示す図である。It is a figure which shows the structural example of the right side surface of an edit unit. シール紙の例を示す図である。It is a figure which shows the example of a sticker paper. 編集画像のレイヤ構造の例を示す図である。It is a figure which shows the example of the layer structure of an edit image. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 図10の制御部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the control part of FIG. 図11の撮影処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging | photography process part of FIG. 図11の編集処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the edit process part of FIG. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining a photograph sticker creation game process. 撮影処理について説明するフローチャートである。It is a flowchart explaining an imaging | photography process. レタッチ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of retouch imaging | photography. レタッチ撮影時の撮影結果確認画面の例を示す図である。It is a figure which shows the example of the imaging | photography result confirmation screen at the time of retouch imaging | photography. ライブビュー画像表示処理について説明するフローチャートである。It is a flowchart explaining a live view image display process. アップ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of up imaging | photography. アップ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of up imaging | photography. アップ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of up imaging | photography. 撮影結果確認画面の例を示す図である。It is a figure which shows the example of an imaging | photography result confirmation screen. 全身撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of whole body imaging | photography. 撮り直し対象選択画面の例を示す図である。It is a figure which shows the example of the re-photographing object selection screen. 撮り直し後選択画面の例を示す図である。It is a figure which shows the example of the selection screen after a reshoot. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 盛れ感選択画面の例を示す図である。It is a figure which shows the example of a feeling of fullness selection screen. フェイスカラー選択画面の例を示す図である。It is a figure which shows the example of a face color selection screen. メイク感選択画面の例を示す図である。It is a figure which shows the example of a makeup feeling selection screen. 涙袋選択画面の例を示す図である。It is a figure which shows the example of a tear bag selection screen. 盛れ感選択画面の例を示す図である。It is a figure which shows the example of a feeling of fullness selection screen. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 図11の撮影処理部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the imaging | photography process part of FIG. アップ撮影または上から全身撮影時のライブビュー画像表示処理について説明するフローチャートである。It is a flowchart explaining the live view image display process at the time of up imaging | photography or whole body imaging | photography from the top. 顔のサイズの判定について説明する図である。It is a figure explaining determination of the size of a face. 利用者がカメラに近づくように促すガイダンスの例を示す図である。It is a figure which shows the example of the guidance which prompts a user to approach a camera. 顔同士の距離の判定について説明する図である。It is a figure explaining determination of the distance between faces. 利用者同士が互いに近づくように促すガイダンスの例を示す図である。It is a figure which shows the example of the guidance which prompts a user to mutually approach. OKガイダンスの例を示す図である。It is a figure which shows the example of OK guidance. 正面全身撮影時のライブビュー画像表示処理について説明するフローチャートである。It is a flowchart explaining the live view image display process at the time of front whole body imaging | photography. 大人数用コースでのアップ撮影または上から全身撮影時のライブビュー画像表示処理について説明するフローチャートである。It is a flowchart explaining the live view image display process at the time of up photography in a course for large numbers of people or whole body photography from above. 3人の顔同士の距離の判定について説明する図である。It is a figure explaining determination of the distance of three people's faces. 顔の位置の判定について説明する図である。It is a figure explaining determination of the position of a face.

<写真シール作成装置の外観構成>
図1は、写真シール作成装置1の外観の構成例を示す斜視図である。
<External structure of photo sticker creation device>
FIG. 1 is a perspective view showing a configuration example of the appearance of the photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影画像や編集済みの画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、利用者の携帯端末上で画像を閲覧可能にするためにその画像をサーバに送信したりすることで、利用者に画像を提供する。   The photo sticker creating apparatus 1 is a game machine that provides a photographed image or an edited image. The photo sticker creating apparatus 1 provides an image to the user by printing the image on a sticker sheet or transmitting the image to a server so that the image can be viewed on the user's mobile terminal. .

写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高校生や女子大学生などの若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、1人の利用者がゲームを楽しむこともできる。   The photo sticker creating apparatus 1 is installed in an amusement facility or store. The users of the photo sticker creating apparatus 1 are mainly young women such as high school girls and female university students. In the photo sticker creating apparatus 1, a plurality of users such as two or three people can mainly enjoy the game per group. Of course, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業を行うことによって、撮影によって得られた撮影画像に対して、背景画像や前景画像(手書きの文字やスタンプ画像など)である合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   In the photo sticker creating apparatus 1, the user performs photographing work with himself / herself as a subject. The user performs an editing operation to synthesize a synthesis image that is a background image or a foreground image (such as a handwritten character or a stamp image) with a photographed image obtained by photographing. As a result, the captured image is edited into a rich image. The user receives a sticker sheet on which an edited image that is an edited image is printed, and ends a series of games.

写真シール作成装置1は、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有する。   The photo sticker creating apparatus 1 is configured by being installed in a state where the photographing unit 11 and the editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected. The photographing unit 11 has a box-shaped housing having a size that allows a person to enter inside.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は離して設置される。撮影部21と背景部22の間に設けられる空間が、利用者が撮影作業を行う撮影空間となる。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The imaging unit 21 and the background unit 22 are installed separately. A space provided between the imaging unit 21 and the background unit 22 is an imaging space in which a user performs an imaging operation.

撮影部21は、利用者を被写体として撮影する装置である。撮影空間に臨む撮影部21の正面にはカメラなどが設けられる。撮影部21の、編集ユニット12と接する面には正面パネル41が設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル42Aにより構成され、左側面が側面パネル42B(図2)により構成される。   The photographing unit 21 is a device that photographs a user as a subject. A camera or the like is provided in front of the photographing unit 21 facing the photographing space. A front panel 41 is provided on the surface of the imaging unit 21 that contacts the editing unit 12. When the right side when viewed from the user in the imaging space is the right side and the left side is the left side, the right side of the imaging unit 21 is constituted by the side panel 42A, and the left side is constituted by the side panel 42B (FIG. 2). Composed.

背景部22は、それぞれ板状の部材である背面パネル51、側面パネル52A、および側面パネル52B(図2)から構成される。背面パネル51は、正面を向いている利用者の背面側に位置する。側面パネル52Aは、背面パネル51の右端に取り付けられ、側面パネル52Bは、背面パネル51の左端に取り付けられる。   The background portion 22 includes a back panel 51, a side panel 52A, and a side panel 52B (FIG. 2), which are plate-like members. The back panel 51 is located on the back side of the user facing the front. The side panel 52A is attached to the right end of the back panel 51, and the side panel 52B is attached to the left end of the back panel 51.

側面パネル42Aと側面パネル52Aは、所定の間隔をあけてほぼ同一平面に設けられる。側面パネル42Aと側面パネル52Aの上部は、板状の部材である連結部31Aによって連結される。また、側面パネル42Aと側面パネル52Aの下部は、床面に設けられた例えば金属製の部材である連結部34によって連結される。   The side panel 42A and the side panel 52A are provided on substantially the same plane with a predetermined interval. The upper portions of the side panel 42A and the side panel 52A are connected by a connecting portion 31A that is a plate-like member. Further, the lower portions of the side panel 42A and the side panel 52A are connected by a connecting portion 34 that is a metal member provided on the floor surface.

側面パネル42Bと側面パネル52Bも同様にほぼ同一平面に設けられる。側面パネル42Bと側面パネル52Bの上部は連結部31Bによって連結される。側面パネル42Bと側面パネル52Bの下部は、床面に設けられた金属製の部材である連結部(図示せず)によって連結される。   Similarly, the side panel 42B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 42B and the side panel 52B are connected by a connecting portion 31B. The lower portions of the side panel 42B and the side panel 52B are connected by a connecting portion (not shown) that is a metal member provided on the floor surface.

側面パネル42A、連結部31A、および側面パネル52Aに囲まれることによって形成される開口が、撮影空間の出入り口となる。また、側面パネル42B、連結部31B、および側面パネル52Bに囲まれることによって形成される開口も、撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 42A, the connecting portion 31A, and the side panel 52A serves as an entrance / exit of the imaging space. An opening formed by being surrounded by the side panel 42B, the connecting portion 31B, and the side panel 52B also serves as an entrance / exit of the imaging space.

撮影空間の上方には、撮影部21の正面パネル41、連結部31A、連結部31B、および背景部22の背面パネル51に囲まれる開口が形成される。その開口の一部を覆うように天井照明ユニット32が設けられる。天井照明ユニット32の一端は連結部31Aに固定され、他端は連結部31Bに固定される。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 31A, the connecting part 31B, and the back panel 51 of the background part 22 is formed above the photographing space. A ceiling lighting unit 32 is provided so as to cover a part of the opening. One end of the ceiling lighting unit 32 is fixed to the connecting portion 31A, and the other end is fixed to the connecting portion 31B.

天井照明ユニット32の内部には蛍光灯が設けられる。天井照明ユニット32は、撮影空間の照明として機能するとともに、撮影を行っている利用者に対してストロボ光を照射する。   A fluorescent lamp is provided inside the ceiling lighting unit 32. The ceiling lighting unit 32 functions as illumination of the shooting space and irradiates the user who is shooting with strobe light.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル41に接するようにして、撮影ユニット11に連結している。   The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 such that one side surface is in contact with the front panel 41 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集を行うことができる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front side configuration, a configuration used for editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can edit simultaneously.

編集ユニット12の正面側は、床面に対して垂直な面である面12Aと、面12Aの上方に形成された斜面12Bから構成される。斜面12Bには、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。   The front side of the editing unit 12 includes a surface 12A that is a surface perpendicular to the floor surface, and a slope 12B formed above the surface 12A. The slope 12B is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work.

斜面12Bの上方右側には、照明装置73の一端を支持する柱状の支持部71A(図6)が設けられる。斜面12Bの左側には、照明装置73の他端を支持する柱状の支持部71Bが設けられる。支持部71Aの右側には板状のパネル72が設けられる。パネル72の上面にはカーテンレール75を支持する支持部74が設けられる。   A columnar support 71A (FIG. 6) that supports one end of the lighting device 73 is provided on the upper right side of the slope 12B. A columnar support 71B that supports the other end of the lighting device 73 is provided on the left side of the inclined surface 12B. A plate-like panel 72 is provided on the right side of the support portion 71A. A support portion 74 that supports the curtain rail 75 is provided on the upper surface of the panel 72.

編集ユニット12の上方にはカーテンレール75が取り付けられる。カーテンレール75は、3本のレール75A乃至75Cが組み合わされて構成される。3本のレール75A乃至75Cは、上から見たときの形状がコの字状となるように組み合わされる。平行に設けられるレール75Aとレール75Bの一端は、連結部31Aと連結部31Bにそれぞれ固定され、レール75Aとレール75Bの他端は、レール75Cの両端にそれぞれ接合される。   A curtain rail 75 is attached above the editing unit 12. The curtain rail 75 is configured by combining three rails 75A to 75C. The three rails 75A to 75C are combined so that the shape when viewed from above becomes a U-shape. One end of the rail 75A and the rail 75B provided in parallel is fixed to the connecting portion 31A and the connecting portion 31B, respectively, and the other end of the rail 75A and the rail 75B is joined to both ends of the rail 75C.

カーテンレール75には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。   A curtain is attached to the curtain rail 75 so that the space in front of the editing unit 12 and the space in front of the back are not visible from the outside. A space in front of the editing unit 12 surrounded by the curtain and a space in the rear rear of the editing unit 12 are editing spaces in which the user performs editing operations.

後述するように、編集ユニット12の右側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の右側面前方の空間が、印刷が終了するのを利用者が待つ印刷待ち空間となる。   As will be described later, the right side surface of the editing unit 12 is provided with a discharge port through which printed sticker paper is discharged. The space in front of the right side surface of the editing unit 12 is a print waiting space where the user waits for the printing to end.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.

図2は、写真シール作成装置1を上から見た平面図である。   FIG. 2 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

まず、利用者は、白抜き矢印#1で示されるように出入り口G1から、または白抜き矢印#2で示されるように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入る。出入り口G1は側面パネル42Aと側面パネル52Aの間の開口であり、出入り口G2は側面パネル42Bと側面パネル52Bの間の開口である。利用者は、撮影空間A1において、撮影部21に設けられたカメラやタッチパネルモニタなどを利用して撮影作業を行う。   First, the user takes a photographing space formed between the photographing part 21 and the background part 22 from the entrance / exit G1 as indicated by the white arrow # 1 or from the entrance / exit G2 as indicated by the white arrow # 2. Enter A1. The doorway G1 is an opening between the side panel 42A and the side panel 52A, and the doorway G2 is an opening between the side panel 42B and the side panel 52B. The user performs a shooting operation using a camera or a touch panel monitor provided in the shooting unit 21 in the shooting space A1.

撮影作業を終えた利用者は、白抜き矢印#3で示されるように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、白抜き矢印#4で示されるように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。   The user who has finished the shooting work exits the shooting space A1 from the doorway G1 as indicated by the white arrow # 3 and moves to the editing space A2-1, or the doorway G2 as indicated by the white arrow # 4. Exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。   The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the free one of the two editing spaces is guided as the destination.

編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と編集空間A2−2の利用者は同時に編集作業を行うことができる。   The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#5で示されるように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#6で示されるように編集空間A2−2から印刷待ち空間A3に移動する。印刷待ち空間A3に移動した利用者は、印刷が終了するのを待つ。   After the editing operation is finished, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a white arrow # 5. Further, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 6. The user who has moved to the print waiting space A3 waits for the printing to end.

印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。   When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side of the editing unit 12 and finishes a series of photo sticker creation games.

次に、各部の構成について説明する。   Next, the configuration of each unit will be described.

<撮影部の構成>
図3は、撮影部21の構成例を示す斜視図であり、図4は、撮影部21の構成例を示す正面図である。
<Configuration of the shooting unit>
FIG. 3 is a perspective view illustrating a configuration example of the imaging unit 21, and FIG. 4 is a front view illustrating a configuration example of the imaging unit 21.

撮影部21の外枠は、複数のキャスターが取り付けられたベース部43に、正面パネル41、側面パネル42A、および側面パネル42Bが立設して構成される。   The outer frame of the imaging unit 21 is configured by standing a front panel 41, a side panel 42A, and a side panel 42B on a base unit 43 to which a plurality of casters are attached.

正面パネル41の略中央には、略箱形状の撮影・表示ユニット101が設けられる。撮影・表示ユニット101の正面側には、上から順に、前下がりの斜面101A、垂直に対して僅かに前傾した斜面101B、および、斜面101Aより急な斜面101Cが形成される。   A substantially box-shaped photographing / display unit 101 is provided in the approximate center of the front panel 41. On the front side of the photographing / display unit 101, a slope 101A that is forwardly lowered, a slope 101B that is slightly inclined forward with respect to the vertical, and a slope 101C that is steeper than the slope 101A are formed in order from the top.

斜面101Bの略中央には円形の開口部が形成され、開口部には、撮影空間A1にいる利用者を撮影するカメラ111のレンズが設けられる。撮影・表示ユニット101の内部には、例えば一眼レフカメラであるカメラ111がチルト可能に取り付けられている。   A circular opening is formed in the approximate center of the inclined surface 101B, and a lens of the camera 111 that photographs a user in the photographing space A1 is provided in the opening. A camera 111, which is a single-lens reflex camera, for example, is attached to the inside of the photographing / display unit 101 so as to be tiltable.

斜面101Cにはタッチパネルモニタ112が設けられる。タッチパネルモニタ112は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。   A touch panel monitor 112 is provided on the slope 101C. The touch panel monitor 112 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon.

タッチパネルモニタ112は、カメラ111により取り込まれた動画像(以下、ライブビュー画像ともいう)を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)を表示して利用者の操作を受け付ける機能とを備える。タッチパネルモニタ112には、カメラ111により取り込まれたライブビュー画像や撮影画像が表示される。撮影画像は、所定のタイミングでカメラ111により取り込まれた静止画像である。   The touch panel monitor 112 displays a moving image (hereinafter also referred to as a live view image) captured by the camera 111, and displays various GUIs (Graphical User Interfaces) for user operations. It has a function to accept. On the touch panel monitor 112, live view images and captured images captured by the camera 111 are displayed. The captured image is a still image captured by the camera 111 at a predetermined timing.

後に詳述するように、利用者は、自身の全身が写る画像である全身画像と、顔部分を中心として、自身の略胸から上の範囲が大きく写る画像であるアップ画像を撮影することができる。   As will be described in detail later, the user can shoot a full-body image that is an image of the entire body of the user and an up image that is an image in which the range above the approximate chest is large with the face portion at the center. it can.

正面パネル41には、撮影・表示ユニット101を挟んで対称に発光部102Lと発光部102Rが形成される。発光部102Lと発光部102Rは、例えば正面パネル41に形成された細幅の溝に、透光性を有するカバーが嵌め込まれることによって構成される。正面パネル41に形成された細幅の溝にはLEDなどの発光体が設けられる。   On the front panel 41, a light emitting portion 102L and a light emitting portion 102R are formed symmetrically with the photographing / display unit 101 in between. The light emitting unit 102L and the light emitting unit 102R are configured, for example, by fitting a light-transmitting cover into a narrow groove formed in the front panel 41. A light emitting body such as an LED is provided in the narrow groove formed in the front panel 41.

図4に示すように、撮影・表示ユニット101の左側の発光部102Lは、細幅の直線状部102L−1乃至102L−3から構成される。直線状部102L−2は、その長さを撮影・表示ユニット101の縦方向の長さと略同じ長さにするように垂直方向に形成される。直線状部102L−1は、直線状部102L−2の上端から右斜め上方に向けて形成され、直線状部102L−3は、直線状部102L−1の下端から右斜め下方に向けて形成される。   As shown in FIG. 4, the left light emitting unit 102L of the photographing / display unit 101 includes narrow linear portions 102L-1 to 102L-3. The linear portion 102L-2 is formed in the vertical direction so that its length is substantially the same as the length in the vertical direction of the photographing / display unit 101. The linear portion 102L-1 is formed obliquely upward and to the right from the upper end of the linear portion 102L-2, and the linear portion 102L-3 is formed obliquely and downward to the right from the lower end of the linear portion 102L-1. Is done.

一方、撮影・表示ユニット101の右側の発光部102Rは、細幅の直線状部102R−1乃至102R−3から構成される。直線状部102R−2は、その長さを撮影・表示ユニット101の縦方向の長さと略同じ長さにするように垂直方向に形成される。直線状部102R−1は、直線状部102R−2の上端から左斜め上方に向けて形成され、直線状部102R−3は、直線状部102R−2の下端から左斜め下方に向けて形成される。   On the other hand, the light emitting unit 102R on the right side of the photographing / display unit 101 includes narrow linear portions 102R-1 to 102R-3. The linear portion 102R-2 is formed in the vertical direction so that its length is substantially the same as the length in the vertical direction of the photographing / display unit 101. The linear portion 102R-1 is formed from the upper end of the linear portion 102R-2 toward the upper left diagonal direction, and the linear portion 102R-3 is formed from the lower end of the linear portion 102R-2 toward the lower left diagonal direction. Is done.

図4に示されるように、発光部102Lと発光部102Rを合わせた形状は略六角形になる。発光部102Lと発光部102Rが発光することにより、撮影空間A1の印象としてシャープな印象を演出することができる。   As shown in FIG. 4, the combined shape of the light emitting part 102L and the light emitting part 102R is a substantially hexagonal shape. By emitting light from the light emitting unit 102L and the light emitting unit 102R, it is possible to produce a sharp impression as an impression of the shooting space A1.

撮影・表示ユニット101の上方には、曲面のカバーを利用者に向けた上ストロボユニット103が設置される。上ストロボユニット103は、所定の取り付け部材を用いて、正面パネル41などに固定される。上ストロボユニット103は、正面上方から、利用者の顔付近にストロボ光を照射する。   Above the photographing / display unit 101, an upper strobe unit 103 with a curved cover facing the user is installed. The upper strobe unit 103 is fixed to the front panel 41 or the like using a predetermined mounting member. The upper strobe unit 103 irradiates strobe light near the user's face from the front upper side.

撮影・表示ユニット101の下方には、カメラ111による撮影に合わせて利用者の下半身にストロボ光を照射する足元ストロボユニット104が設けられる。足元ストロボユニット104の正面は垂直面を形成する板状部材121により構成され、上面は緩やかな斜面を形成する板状部材122により構成される。板状部材121と板状部材122は、乳白色のアクリル板などの透光性を有する板状部材である。   Below the photographing / display unit 101, a foot strobe unit 104 that irradiates the lower body of the user with strobe light in accordance with photographing by the camera 111 is provided. The front surface of the foot strobe unit 104 is constituted by a plate-like member 121 that forms a vertical surface, and the upper surface is constituted by a plate-like member 122 that forms a gentle slope. The plate-like member 121 and the plate-like member 122 are plate-like members having translucency such as milky white acrylic plates.

足元ストロボユニット104の板状部材121の左右には、垂直面を構成する板状部材123Lと板状部材123Rがそれぞれ設けられる。板状部材123Rには、利用者が硬貨を投入する硬貨投入口が設けられる。   On the left and right of the plate-like member 121 of the foot strobe unit 104, a plate-like member 123L and a plate-like member 123R that constitute a vertical surface are provided. The plate-like member 123R is provided with a coin insertion slot through which a user inserts coins.

足元ストロボユニット104の板状部材122の左右には、板状部材122と同様の緩やかな斜面を形成する板状部材124Lと板状部材124Rがそれぞれ設けられる。板状部材124Lと板状部材124Rにより形成される斜面は、利用者が手荷物を置くためなどに用いられる。   On the left and right sides of the plate-like member 122 of the foot strobe unit 104, a plate-like member 124L and a plate-like member 124R that form a gentle slope similar to the plate-like member 122 are provided. The slope formed by the plate-like member 124L and the plate-like member 124R is used for a user to put baggage.

図示はしないが、正面パネル41の例えば天井付近にはスピーカが設けられる。そのスピーカは、撮影作業に関する案内音声、BGM、効果音などを出力する。   Although not illustrated, a speaker is provided near the ceiling of the front panel 41, for example. The speaker outputs guidance voice, BGM, sound effects, etc. regarding the shooting work.

<背景部の構成>
図5は、背景部22の撮影空間A1側の構成例を示す図である。
<Configuration of background part>
FIG. 5 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の上方中央には背面上ストロボ131が設けられる。また、背面パネル51の上方右側(図中、左側)には背面右ストロボ132が設けられ、背面パネル51の上方左側(図中、右側)には背面左ストロボ133が設けられる。   A rear upper strobe 131 is provided at the upper center of the rear panel 51. A rear right strobe 132 is provided on the upper right side (left side in the figure) of the rear panel 51, and a rear left strobe 133 is provided on the upper left side (right side in the figure) of the rear panel 51.

背面上ストロボ131は、後方上側から利用者にストロボ光を照射する。背面右ストロボ132は、後方右側から利用者にストロボ光を照射する。背面左ストロボ133は、後方左側から利用者にストロボ光を照射する。   The rear upper strobe 131 irradiates the user with strobe light from the upper rear side. The rear right strobe 132 irradiates the user with strobe light from the rear right side. The rear left strobe 133 irradiates the user with strobe light from the rear left side.

背面パネル51の撮影空間A1側(図中、手前側)の面は例えば緑色の面となる。また、図示はしないが、側面パネル52A,52Bそれぞれの撮影空間A1側の面も例えば緑色の面である。   The surface on the imaging space A1 side (the front side in the drawing) of the back panel 51 is, for example, a green surface. Although not shown, the surfaces on the photographing space A1 side of the side panels 52A and 52B are also green surfaces, for example.

これらの面の緑色は、クロマキ処理によって利用者の領域を抽出するための色である。これにより、撮影画像に対してクロマキ処理を施し、利用者が所望する背景画像を、撮影画像の背景部分に合成することができる。なお、これらの面の色は、クロマキ処理を行うことができる色であればよく、青色などの他の色であってもよい。   The green color of these surfaces is a color for extracting the user's area by chroma processing. Thereby, chroma processing is performed on the captured image, and a background image desired by the user can be combined with the background portion of the captured image. In addition, the color of these surfaces should just be a color which can perform a chroma process, and other colors, such as blue, may be sufficient as it.

<編集ユニットの構成>
図6は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 6 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面12Bのほぼ中央には、タブレット内蔵モニタ141が設けられる。タブレット内蔵モニタ141の左右にはタッチペン142Aとタッチペン142Bが設けられる。   A tablet built-in monitor 141 is provided substantially at the center of the slope 12B. A touch pen 142A and a touch pen 142B are provided on the left and right of the tablet built-in monitor 141.

タブレット内蔵モニタ141は、タッチペン142A,142Bを用いた操作入力を受け付ける。タブレット内蔵モニタ141には、編集作業に用いられる編集画面などが表示される。例えば、タッチペン142Aはタブレット内蔵モニタ141に向かって左側に立つ利用者により用いられ、タッチペン142Bはタブレット内蔵モニタ141に向かって右側に立つ利用者により用いられる。以下、適宜、タッチペン142Aとタッチペン142Bを区別する必要がない場合、タッチペン142という。   The tablet built-in monitor 141 accepts an operation input using the touch pens 142A and 142B. The tablet built-in monitor 141 displays an editing screen used for editing work. For example, the touch pen 142A is used by a user standing on the left side toward the tablet built-in monitor 141, and the touch pen 142B is used by a user standing on the right side toward the tablet built-in monitor 141. Hereinafter, when it is not necessary to distinguish between the touch pen 142A and the touch pen 142B as appropriate, it is referred to as a touch pen 142.

図7は、編集ユニット12の右側面の構成例を示す図である。   FIG. 7 is a diagram illustrating a configuration example of the right side surface of the editing unit 12.

編集ユニット12の右側面の下部にはシール紙排出口151が設けられる。編集ユニット12の内部にはプリンタが設けられる。そのプリンタにより、編集空間A2−1の利用者が編集を行った画像、または、編集空間A2−2の利用者が編集を行った画像が所定のレイアウトでシール紙に印刷され、シール紙排出口151から排出される。   A seal paper discharge port 151 is provided at the lower part of the right side surface of the editing unit 12. A printer is provided inside the editing unit 12. An image edited by the user of the editing space A2-1 or an image edited by the user of the editing space A2-2 is printed on the sticker paper with a predetermined layout by the printer, and the sticker paper discharge port 151 is discharged.

<シール紙の例>
図8は、以上のような外観構成を有する写真シール作成装置1により作成されるシール紙の例を示す図である。
<Example of sticker paper>
FIG. 8 is a diagram showing an example of a sticker sheet created by the photographic sticker creator 1 having the above-described external configuration.

図8に示す横長のシール紙には、5枚の編集画像である編集画像161−1乃至161−5が横に並べて印刷されている。   On the horizontally long sticker sheet shown in FIG. 8, five edited images 161-1 to 161-5 are printed side by side.

編集画像161−1乃至161−5のうち、編集画像161−1乃至161−3は、アップ画像に対して編集が施されることによって生成された画像であり、編集画像161−4と編集画像161−5は、全身画像に対して編集が施されることによって生成された画像である。   Of the edited images 161-1 to 161-5, the edited images 161-1 to 161-3 are images generated by editing the up image, and the edited image 161-4 and the edited image 161-5 is an image generated by editing the whole body image.

アップ画像と全身画像は縦横比が異なる。例えば、アップ画像の横方向の長さと縦方向の長さの比は1:1.2であり、全身画像の横方向の長さと縦方向の長さの比は3:4である。図8の例においては、アップ画像と全身画像が、横方向の長さを同じ長さとして印刷されている。なお、実際には、利用者の背景には、所定の色や柄の画像である背景画像が、前景には、手書きの文字やスタンプ画像などの前景画像が、それぞれ合成用画像として合成される。   The up image and the whole body image have different aspect ratios. For example, the ratio between the horizontal length and the vertical length of the up image is 1: 1.2, and the ratio between the horizontal length and the vertical length of the whole-body image is 3: 4. In the example of FIG. 8, the up image and the whole body image are printed with the same length in the horizontal direction. In practice, a background image, which is an image of a predetermined color or pattern, is synthesized on the background of the user, and a foreground image such as a handwritten character or a stamp image is synthesized on the foreground, respectively. .

シール紙の縁の余白には、機種名(LOVERY)と撮影日の他に、メールアドレス、IDなどが印刷される。余白領域に印刷されたメールアドレスとIDは、写真シール作成装置1からサーバに送信された画像を携帯電話機などの携帯端末で閲覧するときに利用される。   In addition to the model name (LOVERY) and shooting date, an e-mail address, ID, etc. are printed in the margin of the sticker paper. The mail address and ID printed in the blank area are used when viewing an image transmitted from the photo sticker creating apparatus 1 to the server on a portable terminal such as a cellular phone.

図9は、編集画像のレイヤ構造の例を示す図である。   FIG. 9 is a diagram illustrating an example of a layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、撮影画像P12、前景画像P13の各レイヤの画像から構成される。   The leftmost edited image P1 is an image generated by editing. The edited image P1 is composed of images of each layer of a background image P11, a captured image P12, and a foreground image P13.

図9の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、撮影画像P12の中央下方の位置にペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、撮影画像P12の左上の位置にスタンプツールを用いて利用者によって入力されたスタンプ画像である。   In the example of FIG. 9, the background image P <b> 11 is an image of a wall pattern on which bricks are stacked. The foreground image P13 is an image including a handwritten character image of “Love my friend” and a heart-shaped image. The handwritten character image of “Love my friend” is a pen image input by the user using a pen tool at a position below the center of the captured image P12. The heart-shaped image is a stamp image input by the user using a stamp tool at the upper left position of the captured image P12.

このように、編集画像P1は、クロマキ処理によって抽出した撮影画像P12の被写体の領域を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。   In this way, the edited image P1 is generated by superimposing the subject area of the photographed image P12 extracted by the chroma process on the background image P11 and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject.

<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The overlapping description will be omitted as appropriate.

制御部201は、CPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208の各構成、編集部209A,209Bの各構成、およびプリンタ241も接続される。   The control unit 201 is configured by a CPU (Central Processing Unit) or the like. The control unit 201 executes a program stored in a ROM (Read Only Memory) 206 or a storage unit 202 and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. Also connected to the control unit 201 are each configuration of the photographing unit 208, each configuration of the editing units 209A and 209B, and a printer 241.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 202 stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者により選択された撮影画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。   The communication unit 203 is a network interface such as the Internet. The communication unit 203 communicates with an external device according to control by the control unit 201. For example, the communication unit 203 transmits the captured image selected by the user to the server. The image transmitted from the communication unit 203 is allocated and stored in a predetermined storage area in the server, and is displayed or downloaded on a mobile terminal that has accessed the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. The programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部208は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部208は、硬貨処理部221、照明装置222、カメラ111、タッチパネルモニタ112、およびスピーカ223から構成される。   The photographing unit 208 realizes photographing processing for a user in the photographing space A1. The imaging unit 208 includes a coin processing unit 221, an illumination device 222, a camera 111, a touch panel monitor 112, and a speaker 223.

硬貨処理部221は、硬貨投入口への硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion slot. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal instructing the start of the game to the control unit 201.

照明装置222は、上ストロボユニット103、足元ストロボユニット104などの、撮影空間A1内に設けられる各照明装置である。照明装置222のそれぞれは、制御部201から供給される照明制御信号に従って発光する。   The illumination device 222 is each illumination device provided in the imaging space A1, such as the upper strobe unit 103 and the foot strobe unit 104. Each of the illumination devices 222 emits light according to an illumination control signal supplied from the control unit 201.

カメラ111は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像のデータを制御部201に出力する。   The camera 111 shoots according to the shutter control by the control unit 201, and outputs captured image data obtained by the shooting to the control unit 201.

編集部209Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部209Aは、タブレット内蔵モニタ141、タッチペン142A,142B、およびスピーカ231から構成される。編集部209Bは、編集部209Aと同一の構成を有し、編集空間A2−2にいる利用者を対象とした編集処理を実現する。   The editing unit 209A realizes editing processing for a user in the editing space A2-1. The editing unit 209A includes a tablet built-in monitor 141, touch pens 142A and 142B, and a speaker 231. The editing unit 209B has the same configuration as the editing unit 209A, and realizes editing processing for a user in the editing space A2-2.

タブレット内蔵モニタ141は、制御部201による制御に従って各種の画面を表示し、表示した画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給される。   The tablet built-in monitor 141 displays various screens under the control of the control unit 201 and accepts user operations on the displayed screens. An input signal representing the content of the user's operation is supplied to the control unit 201.

プリンタ241は、制御部201から供給された印刷データに基づいて、シール紙ユニット242に収納されているシール紙に編集画像を印刷する。プリンタ241は、編集画像を所定のレイアウトで印刷したシール紙をシール紙排出口151に排出する。   The printer 241 prints the edited image on the sticker paper stored in the sticker paper unit 242 based on the print data supplied from the control unit 201. The printer 241 discharges the sticker paper on which the edited image is printed with a predetermined layout to the sticker paper discharge port 151.

<制御部の構成>
図11は、制御部201の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Configuration of control unit>
FIG. 11 is a block diagram illustrating a functional configuration example of the control unit 201. At least a part of the functional units shown in FIG. 11 is realized by a predetermined program being executed by the CPU in the control unit 201.

制御部201は、撮影処理部301、編集処理部302、および印刷処理部303から構成される。   The control unit 201 includes an imaging processing unit 301, an editing processing unit 302, and a print processing unit 303.

撮影処理部301は、撮影部208の各部を制御して撮影処理を行う。編集処理部302は、編集部209A,209Bの各部を制御して編集処理を行う。印刷処理部303は、プリンタ241を制御して編集画像をシール紙に印刷する。   The imaging processing unit 301 controls each part of the imaging unit 208 to perform imaging processing. The editing processing unit 302 performs editing processing by controlling each of the editing units 209A and 209B. The print processing unit 303 controls the printer 241 to print the edited image on a sticker sheet.

<撮影処理部の構成例>
図12は、撮影処理部301の構成例を示すブロック図である。
<Configuration example of imaging processing unit>
FIG. 12 is a block diagram illustrating a configuration example of the imaging processing unit 301.

撮影処理部301は、表示制御部311、音声出力制御部312、撮影制御部313、および認識部314から構成される。   The imaging processing unit 301 includes a display control unit 311, an audio output control unit 312, an imaging control unit 313, and a recognition unit 314.

表示制御部311は、タッチパネルモニタ112の表示を制御する。例えば、表示制御部311は、タッチパネルモニタ112に、カメラ111に取り込まれたライブビュー画像を表示させたり、撮影結果である撮影画像を表示させたりする。   The display control unit 311 controls display on the touch panel monitor 112. For example, the display control unit 311 causes the touch panel monitor 112 to display a live view image captured by the camera 111 or to display a captured image that is a captured result.

音声出力制御部312は、スピーカ223からの音声の出力を制御する。例えば、音声出力制御部312は、撮影作業の進め方などを説明する音声をスピーカ223から出力させる。   The audio output control unit 312 controls the output of audio from the speaker 223. For example, the audio output control unit 312 causes the speaker 223 to output audio that explains how to proceed with the shooting operation.

撮影制御部313は、カメラ111を制御することで、利用者を被写体として撮影し、ライブビュー画像や撮影画像を生成する。   The imaging control unit 313 controls the camera 111 to image a user as a subject and generate a live view image and a captured image.

認識部314は、ライブビュー画像において、顔認識により、利用者の顔および顔パーツ(例えば目や口などの顔の器官)の少なくともいずれかが検出されたか否かを判定する。   The recognition unit 314 determines whether or not at least one of the user's face and face parts (for example, facial organs such as eyes and mouth) is detected in the live view image by face recognition.

<編集処理部の構成例>
図13は、編集処理部302の構成例を示すブロック図である。
<Configuration example of edit processing unit>
FIG. 13 is a block diagram illustrating a configuration example of the editing processing unit 302.

編集処理部302は、表示制御部321、編集制御部322、認証部323、および画像処理部324から構成される。   The edit processing unit 302 includes a display control unit 321, an edit control unit 322, an authentication unit 323, and an image processing unit 324.

表示制御部321は、タブレット内蔵モニタ141の表示を制御する。例えば、表示制御部321は、タブレット内蔵モニタ141に、撮影画像に施される画像処理の内容を選択するための選択画面や、撮影画像を対象とした編集作業のための編集画面を表示させる。   The display control unit 321 controls display on the tablet built-in monitor 141. For example, the display control unit 321 causes the tablet built-in monitor 141 to display a selection screen for selecting the content of image processing performed on the captured image and an editing screen for editing work on the captured image.

編集制御部322は、編集画面に対する利用者の操作に応じて、撮影画像に編集を施す。具体的には、編集制御部322は、編集画面において利用者により選択された合成用画像を、撮影画像の所定の位置に合成する。   The editing control unit 322 edits the captured image in accordance with a user operation on the editing screen. Specifically, the editing control unit 322 synthesizes the synthesis image selected by the user on the editing screen at a predetermined position of the captured image.

認証部323は、撮影処理部301が行うレタッチ撮影により得られるレタッチ用画像に基づいて、撮影画像に写る利用者の顔を認証する。レタッチ撮影の詳細は後述する。   The authentication unit 323 authenticates the user's face that appears in the photographed image based on the retouch image obtained by the retouch photographing performed by the photographing processing unit 301. Details of the retouch shooting will be described later.

画像処理部324は、タブレット内蔵モニタ141に表示される、撮影画像に施される画像処理の度合いを選択するための選択画面に対する選択操作に基づいて、選択された度合いの画像処理を撮影画像に施す。   The image processing unit 324 performs image processing of the selected degree on the captured image based on a selection operation for a selection screen displayed on the tablet built-in monitor 141 for selecting the degree of image processing performed on the captured image. Apply.

<写真シール作成装置の動作>
ここで、図14のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図14の処理は、所定の金額分の硬貨が硬貨投入口に投入されたときに開始される。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 14, operation | movement of the photo sticker production apparatus 1 which provides a photo sticker production game is demonstrated. The process of FIG. 14 is started when a predetermined amount of coins is inserted into the coin slot.

ステップS1において、撮影処理部301は、撮影処理を行う。撮影処理においては、アップ撮影および全身撮影が行われる。   In step S1, the imaging processing unit 301 performs imaging processing. In the photographing process, up photographing and whole body photographing are performed.

アップ撮影は、顔を中心として、利用者のほぼ胸から上の範囲(上半身)が写る画像であるアップ画像を得るための撮影である。全身撮影は、利用者の全身が写る画像である全身画像を得るための撮影である。本実施形態では、全身撮影によって、斜め上から見た利用者の全身が写る画像が得られるものとするが、正面から見た利用者の全身が写る画像が得られるようにしてもよい。   The up-shooting is a shooting for obtaining an up-image that is an image in which the upper range (upper body) of the user is seen from the chest around the face. Whole body photography is photography for obtaining a whole body image that is an image of the whole body of a user. In this embodiment, it is assumed that an image showing the whole body of the user viewed obliquely from above is obtained by whole body photography, but an image showing the whole body of the user viewed from the front may be obtained.

ステップS2において、編集処理部302は、編集処理を行う。編集処理においては、撮影画像の編集が行われる。   In step S2, the editing processing unit 302 performs editing processing. In the editing process, the captured image is edited.

ステップS3において、印刷処理部303は、プリンタ241を制御することで印刷処理を実行し、編集処理によって得られた編集画像をシール紙に印刷する。なお、撮影処理により得られた撮影画像に対して編集が施されていない場合、撮影画像がそのままシール紙に印刷される。   In step S3, the print processing unit 303 executes print processing by controlling the printer 241, and prints the edited image obtained by the edit processing on sticker paper. Note that, when editing is not performed on the captured image obtained by the capturing process, the captured image is printed as it is on the sticker sheet.

ステップS4において、プリンタ241は、編集画像が印刷されたシール紙をシール紙排出口151に排出し、処理を終了させる。   In step S4, the printer 241 discharges the sticker sheet on which the edited image is printed to the sticker paper discharge port 151, and ends the process.

<撮影処理>
次に、図15のフローチャートを参照して、図14のステップS1において行われる撮影処理について説明する。
<Shooting process>
Next, the photographing process performed in step S1 of FIG. 14 will be described with reference to the flowchart of FIG.

撮影処理が開始されると、ステップS31において、表示制御部311は、コース選択画面をタッチパネルモニタ112に表示させる。   When the photographing process is started, the display control unit 311 displays a course selection screen on the touch panel monitor 112 in step S31.

コース選択画面は、利用者の人数に応じて行われる撮影の種類を決定する人数コースの選択に用いられる画面である。人数コースには、利用者が2人の場合に適した撮影が行われる2人用コースと、利用者が3人以上、特に4人以上の場合に適した撮影が行われる大人数用コースとがある。2人用コースが選択された場合と、大人数用コースが選択された場合とでは、得られる撮影画像の撮影範囲(画角)とサイズが異なる。大人数用コースにおいて得られる撮影画像は、2人用コースにおいて得られる撮影画像より大きくなる。   The course selection screen is a screen used for selection of a course for the number of people to determine the type of shooting performed according to the number of users. The number of people course includes a course for two people where shooting is suitable for two users, and a course for a large number of people where shooting is suitable for three or more users, particularly when there are four or more users. There is. When the two-person course is selected and when the large-number course is selected, the shooting range (angle of view) and size of the obtained shot image are different. The photographed image obtained in the course for large numbers of people is larger than the photographed image obtained in the course for two persons.

以下においては、主に、2人用コースが選択された場合の処理について説明する。   In the following, the processing when the two-person course is selected will be mainly described.

人数コース選択画面において、いずれかの人数コースが選択されると、レタッチ撮影の仕方を説明する画面がタッチパネルモニタ112に表示されるなどしてガイダンスが出力される。その後、ステップS32において、撮影制御部313は、利用者の顔を認証するためのレタッチ撮影を行う。   When any number of people course is selected on the number of people course selection screen, a screen explaining how to perform retouch shooting is displayed on the touch panel monitor 112, and guidance is output. Thereafter, in step S32, the imaging control unit 313 performs retouch imaging for authenticating the user's face.

レタッチ撮影は、人物、具体的には利用者の顔を認証するために行われる撮影である。レタッチ撮影により得られた認証用の画像(以下、レタッチ用画像という)は、編集処理において編集対象とされたり、印刷処理においてシール紙に印刷されることはなく、顔の認証のためだけに利用される。   Retouch photography is photography performed in order to authenticate a person, specifically, a user's face. Authentication images (hereinafter referred to as retouching images) obtained by retouch photography are not subject to editing in the editing process or printed on sticker paper in the printing process, and are used only for face authentication. Is done.

このような目的から、レタッチ撮影のガイダンスでは、利用者に対して、正面を向いて撮影することを促す画面の表示や音声の出力が行われる。   For this purpose, in the guidance for retouch shooting, a screen is displayed to prompt the user to take a picture while facing the front, and voice is output.

ガイダンスが終了すると、撮影制御部313によって、カメラ111による動画像の撮影が開始され、撮影によって得られた動画像がライブビュー表示画面に表示される。   When the guidance ends, the shooting control unit 313 starts shooting a moving image by the camera 111, and the moving image obtained by shooting is displayed on the live view display screen.

図16は、レタッチ撮影のライブビュー表示画面の例を示す図である。   FIG. 16 is a diagram illustrating an example of a live view display screen for retouch photography.

ライブビュー表示画面の上部には、「最初にひとりひとりの顔を登録するよ!枠の中に入って前を向いて撮影してね!」のメッセージが表示され、その下に設けられた画像表示領域411,412には、2人の利用者それぞれが映る動画像がリアルタイムで表示される。また、画像表示領域411,412の下には、「登録した画像はシールに印刷されないよ!」のメッセージが表示される。   At the top of the Live View display screen, the message “Register each face first! Shoot inside the frame and look forward!” Is displayed, and the image display provided below In the areas 411 and 412, moving images showing two users are displayed in real time. Also, a message “Registered image will not be printed on the sticker!” Is displayed below the image display areas 411 and 412.

カメラ111により撮影された動画像のうち、所定の範囲が切り出されて、画像表示領域411,412の表示に用いられる。2人の利用者は、画像表示領域411,412の表示を確認しながら、それぞれの顔が画像表示領域411,412に収まるように、顔の位置を調整する。これにより、レタッチ用画像による顔認証の精度を確保することができる。   A predetermined range is cut out from the moving image photographed by the camera 111 and used to display the image display areas 411 and 412. The two users adjust the positions of the faces so that the respective faces fit in the image display areas 411 and 412 while confirming the display of the image display areas 411 and 412. Thereby, the accuracy of face authentication by the image for retouching can be ensured.

このようなライブビュー画像が所定の時間表示された後、撮影前のカウントダウンが開始され、撮影のタイミングになったとき、撮影制御部313は、レタッチ用画像としての静止画像を取得する撮影を行い、レタッチ撮影の撮影結果をタッチパネルモニタ112に表示させる。   After such a live view image is displayed for a predetermined time, a countdown before shooting starts and when shooting timing comes, the shooting control unit 313 performs shooting to acquire a still image as a retouching image. The photographing result of the retouch photographing is displayed on the touch panel monitor 112.

図17は、レタッチ撮影の撮影結果確認画面の例を示す図である。   FIG. 17 is a diagram illustrating an example of a shooting result confirmation screen of retouch shooting.

図17に示される撮影結果確認画面の画像表示領域411,412には、レタッチ撮影によって得られた静止画像(レタッチ用画像)として、2人の利用者それぞれの顔の顔画像が表示される。画像表示領域411,412の下には「登録完了!」のメッセージが表示される。2人の利用者それぞれの顔画像は、記憶部202に記憶され、5回の撮影により得られる撮影画像に写る利用者の顔の認証に用いられる。   In the image display areas 411 and 412 of the shooting result confirmation screen illustrated in FIG. 17, face images of the faces of the two users are displayed as still images (retouch images) obtained by retouch shooting. A message “Registration complete!” Is displayed below the image display areas 411 and 412. The face images of each of the two users are stored in the storage unit 202, and are used for authentication of the user's face shown in the photographed image obtained by five photographings.

以上のようにして、レタッチ撮影が行われる。   Retouch shooting is performed as described above.

なお、人数コースとして大人数用コースが選択された場合、レタッチ撮影のライブビュー表示画面および撮影結果確認画面には、2人の利用者がそれぞれ映る画像表示領域411,412に代えて、複数の利用者が一緒に映る画像表示領域が1つのみ設けられるものとする。   When a course for a large number of people is selected as the number of people course, the live view display screen and the shooting result confirmation screen for retouch shooting are replaced with a plurality of image display areas 411 and 412 in which two users are respectively shown. It is assumed that only one image display area where the user is shown together is provided.

レタッチ撮影が終了すると、撮影の仕方を説明する画面がタッチパネルモニタ112に表示されるなどしてガイダンスが出力される。その後、ライブビュー表示画面がタッチパネルモニタ112に表示される。   When the retouch shooting is completed, a guidance explaining the shooting method is displayed on the touch panel monitor 112, and the guidance is output. Thereafter, a live view display screen is displayed on the touch panel monitor 112.

その状態で撮影タイミングになったとき、ステップS33において、撮影制御部313は、1回目の撮影を行う。撮影によって得られた撮影画像は、撮影結果としてタッチパネルモニタ112に表示される。利用者は、1回目の撮影結果を確認しながら、次の撮影の準備を行うことができる。   When it is time to shoot in this state, in step S33, the shooting control unit 313 performs the first shooting. A photographed image obtained by photographing is displayed on the touch panel monitor 112 as a photographing result. The user can prepare for the next shooting while confirming the first shooting result.

そして、2回目以降の撮影が行われる。すなわち、2回目の撮影タイミングになったとき、ステップS34において、撮影制御部313は、2回目の撮影を行う。   Then, the second and subsequent shootings are performed. That is, when the second shooting timing is reached, in step S34, the shooting control unit 313 performs the second shooting.

同様にして、ステップS35乃至S37において、撮影制御部313は、それぞれ3乃至5回目の撮影を行う。   Similarly, in steps S35 to S37, the imaging control unit 313 performs the third to fifth imaging, respectively.

なお、1乃至5回目の撮影のうち、1乃至3回目の撮影として、アップ撮影が行われ、4,5回目の撮影として、全身撮影が行われる。   Of the first to fifth shootings, up shooting is performed as the first to third shootings, and whole body shooting is performed as the fourth and fifth shootings.

アップ撮影および全身撮影のそれぞれにおいては、カメラ111のチルト角が、撮影制御部313によって制御される。   In each of up-shooting and whole-body shooting, the tilt angle of the camera 111 is controlled by the shooting control unit 313.

具体的には、全身撮影が行われるときのカメラ111のチルト角(カメラ111のレンズの光軸が水平方向にある状態)をデフォルトの状態とすると、アップ撮影が行われるときには、カメラ111がデフォルトの状態より所定角度だけ前傾するようにチルト角が調整される。なお、チルト角の調整といったハードウェア構成の制御ではなく、ソフトウェア(画像処理)によって、チルト角を調整して撮影したような画像が生成されるようにしてもよい。   Specifically, assuming that the tilt angle of the camera 111 when the whole body shooting is performed (the state where the optical axis of the lens of the camera 111 is in the horizontal direction) is the default state, the camera 111 is the default when the up shooting is performed. The tilt angle is adjusted so as to tilt forward by a predetermined angle from the above state. Note that, instead of controlling the hardware configuration such as adjusting the tilt angle, an image obtained by adjusting the tilt angle by software (image processing) may be generated.

また、アップ撮影および全身撮影のそれぞれが行われるときには、チルト角が制御されるだけではなく、音声出力制御部312により出力されるガイダンスにより、利用者の立ち位置も変更される。   In addition, when each of up-shooting and whole-body shooting is performed, not only the tilt angle is controlled, but also the standing position of the user is changed by the guidance output by the audio output control unit 312.

例えば、撮影空間の床面には、カメラ111から最も近い立ち位置と、最も遠い立ち位置の、2つの立ち位置を示すラベルが貼付してある。アップ撮影が行われるときには、利用者に対して、カメラ111から最も近い立ち位置に立つように指示するガイダンスが出力される。また、全身撮影が行われるときには、利用者に対して、カメラ111から最も遠い立ち位置に立つように指示するガイダンスが出力される。   For example, a label indicating two standing positions, a standing position closest to the camera 111 and a standing position farthest from the camera 111, is attached to the floor surface of the imaging space. When up-shooting is performed, guidance for instructing the user to stand at the closest position from the camera 111 is output. In addition, when whole body imaging is performed, guidance for instructing the user to stand at a position farthest from the camera 111 is output.

このようにして、ステップS33乃至S37において、5回の撮影が終わった後、ステップS38において、表示制御部311は、撮り直し対象選択画面をタッチパネルモニタ112に表示させる。   In this way, after the five shootings are completed in steps S33 to S37, the display control unit 311 causes the touch panel monitor 112 to display a re-shooting target selection screen in step S38.

撮り直し対象選択画面は、5枚の撮影画像の中から、撮り直しの対象とする撮影画像である撮り直し対象画像の選択に用いられる画面である。撮り直し対象選択画面には、5枚の撮影画像が表示され、そのいずれかが選択されることで、撮り直し対象画像が選択・決定される。また、撮り直し対象選択画面には、撮り直しを行わないことを選択するためのボタンも表示され、そのボタンが選択されることで、撮り直しは行われないようになる。   The re-shooting target selection screen is a screen used to select a re-shooting target image that is a photographic image to be re-taken from among five shot images. On the re-shooting target selection screen, five shot images are displayed, and any one of them is selected, and the re-shooting target image is selected and determined. In addition, a button for selecting not to perform re-shooting is also displayed on the re-shooting target selection screen. By selecting the button, re-shooting is not performed.

ステップS39においては、5枚の撮影画像、および、撮り直しを行わないことを選択するためのボタンのいずれが選択されたかに応じて、撮り直しを行うか否かが判定される。   In step S39, it is determined whether or not to perform re-taking according to which of the five captured images and a button for selecting not to perform re-taking is selected.

撮り直し対象選択画面において、5枚の撮影画像のいずれかが選択された場合、撮り直しを行うと判定され、処理はステップS40に進む。   If any of the five captured images is selected on the re-shooting target selection screen, it is determined that re-shooting is performed, and the process proceeds to step S40.

ステップS40において、撮影制御部313は、撮影(撮り直し)を行う。   In step S40, the imaging control unit 313 performs imaging (re-imaging).

撮り直しが行われた後、ステップS41において、表示制御部311は、撮り直し後選択画面をタッチパネルモニタ112に表示させる。   After the re-taking is performed, in step S41, the display control unit 311 displays the selection screen after the re-taking on the touch panel monitor 112.

撮り直し後選択画面は、撮り直し対象選択画面において選択された撮り直し対象画像、および、撮り直しにより得られた撮影画像のいずれか一方の選択に用いられる画面である。撮り直し後選択画面には、撮り直し対象選択画面において選択された撮り直し対象画像、および、撮り直しにより得られた撮影画像が表示され、そのいずれかが選択されることで、最終的に編集や印刷の対象となる画像が選択・決定される。   The selection screen after reshooting is a screen used for selecting either the reshooting target image selected on the reshooting target selection screen or the captured image obtained by reshooting. The re-shooting selection screen displays the re-shooting target image selected on the re-shooting target selection screen and the shot image obtained by the re-shooting, and one of them is selected for final editing. Or an image to be printed is selected and determined.

撮り直し後選択画面において、撮り直し対象選択画面において選択された撮り直し対象画像、および、撮り直しにより得られた撮影画像のいずれかが選択されると、処理はステップS42に進む。   When either the recapture target image selected on the recapture target selection screen or the captured image obtained by the recapture is selected on the post-recap selection screen, the process proceeds to step S42.

一方、撮り直し対象選択画面において、撮り直しを行わないことを選択するためのボタンが選択された場合、撮り直しを行わないと判定され、ステップS40,S41はスキップされ、処理はステップS42に進む。   On the other hand, if a button for selecting not to retake is selected on the retake target selection screen, it is determined that retake is not performed, steps S40 and S41 are skipped, and the process proceeds to step S42. .

ステップS42において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部209のタッチパネルモニタ92に案内画面を表示させることによって、または音声をスピーカ232から出力させることによって行われる。   In step S42, the imaging processing unit 301 guides the user in the imaging space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for moving to the editing space A2-1 or the editing space A2-2 is performed by displaying a guidance screen on the touch panel monitor 92 of the photographing unit 209 or by outputting sound from the speaker 232.

以上のようにして、撮影処理が行われる。   The photographing process is performed as described above.

ところで、上述した撮影処理における1乃至5回目の撮影(以下、通常撮影という)それぞれの撮影タイミングより前に表示されるライブビュー表示画面には、ライブビュー画像における顔および顔パーツの認識に成功させるための案内表示が行われる。   By the way, on the live view display screen displayed before each shooting timing of the first to fifth shootings (hereinafter referred to as normal shooting) in the shooting process described above, the face and face parts in the live view image are successfully recognized. The guidance display for this is performed.

<ライブビュー画像表示処理>
ここで、図18を参照して、通常撮影の際に実行されるライブビュー画像表示処理について説明する。
<Live view image display processing>
Here, with reference to FIG. 18, a live view image display process executed at the time of normal photographing will be described.

顔および顔パーツの認識に成功することで得られる撮影画像には、より確実に適切な画像処理が施されるようになる。ここで、全身画像においては、アップ画像に比べて画像全体に対する顔の大きさが小さくなるため、全身画像の顔部分に画像処理が施されたとしても、利用者がその仕上がりを確認するのは容易ではない。   The captured image obtained by successfully recognizing the face and the facial parts is more appropriately subjected to appropriate image processing. Here, in the whole body image, the size of the face with respect to the entire image is smaller than the up image, so even if image processing is performed on the face portion of the whole body image, the user confirms the finish. It's not easy.

しかしながら、近年、利用者は、写真シール機で撮影された画像を携帯電話機などの携帯端末で利用している。中には、携帯端末において、全身画像の顔部分をトリミングして利用する利用者もいる。このようなことから、アップ画像だけでなく、全身画像の顔部分に対しても適切な画像処理が施されるようにする必要がある。   However, in recent years, users have used images taken with a photo sticker on a mobile terminal such as a mobile phone. Some users trim and use the face portion of the whole body image on the mobile terminal. For this reason, it is necessary to perform appropriate image processing not only on the up image but also on the face portion of the whole body image.

そこで、図18の処理は、アップ撮影および全身撮影のいずれが行われる際にも実行されるものとする。なお、図18の処理は、レタッチ撮影が行われる際には実行されない。   Therefore, it is assumed that the processing in FIG. 18 is executed when either up-shooting or whole-body shooting is performed. Note that the processing in FIG. 18 is not executed when retouch shooting is performed.

ステップS51において、撮影制御部313は、カメラ111を制御することで、カメラ111から、利用者が映る動画像であるライブビュー画像を取り込む。このとき、表示制御部311は、タッチパネルモニタ112に、ライブビュー画像を表示するためのライブビュー表示画面を表示させる。   In step S <b> 51, the shooting control unit 313 controls the camera 111 to capture a live view image that is a moving image showing the user from the camera 111. At this time, the display control unit 311 causes the touch panel monitor 112 to display a live view display screen for displaying a live view image.

ステップS52において、表示制御部311は、タッチパネルモニタ112に表示されているライブビュー表示画面上の所定の領域に、カメラ111から取り込まれたライブビュー画像を表示する。   In step S52, the display control unit 311 displays the live view image captured from the camera 111 in a predetermined area on the live view display screen displayed on the touch panel monitor 112.

ステップS53において、認識部314は、カメラ111から取り込まれたライブビュー画像において、顔認識により、利用者の顔および目が検出されたか否かを判定する。   In step S <b> 53, the recognizing unit 314 determines whether or not the user's face and eyes are detected by face recognition in the live view image captured from the camera 111.

ここで、認識部314による顔認識の処理の詳細について説明する。   Here, details of face recognition processing by the recognition unit 314 will be described.

具体的には、認識部314は、ライブビュー画像における目領域の輪郭点を抽出し、抽出された輪郭点で囲まれる領域の形状を判別することで顔認識を行い、顔および目が検出されたか否かを判定する。抽出される輪郭点の数や位置は任意とされる。この場合、例えば目を閉じている利用者についての認識は失敗し、目は検出されなかったと判定される。これにより、後述するような、目領域に対する画像処理が、閉じている目に施されることで不自然になることを防ぐことができる。なお、ライブビュー画像においては、目領域の輪郭点に加え、顔領域の輪郭点がさらに抽出されるようにしてもよいし、顔領域の輪郭点のみが抽出されるようにしてもよい。   Specifically, the recognition unit 314 performs face recognition by extracting the contour point of the eye region in the live view image and determining the shape of the region surrounded by the extracted contour point, and the face and eyes are detected. It is determined whether or not. The number and position of the extracted contour points are arbitrary. In this case, for example, it is determined that the recognition of the user who closed the eyes failed and the eyes were not detected. Accordingly, it is possible to prevent the image processing for the eye region, which will be described later, from being unnatural due to being applied to the closed eyes. In the live view image, in addition to the contour point of the eye region, the contour point of the face region may be further extracted, or only the contour point of the face region may be extracted.

また、認識部314は、ライブビュー画像において抽出された輪郭点で囲まれる領域の色情報を取得することで顔認識を行い、顔および目が検出されたか否かを判定することもできる。例えば、顔領域の輪郭点が抽出されるようにし、抽出された顔領域の輪郭点で囲まれる領域の色情報から、その領域の色が肌色ではないと判定された場合、顔認識は失敗し、顔は検出されなかったと判定される。また、目領域の輪郭点で囲まれる領域の色情報から、その領域の色に白色と黒色以外の色が含まれていると判定された場合、顔認識は失敗し、目は検出されなかったと判定される。   The recognition unit 314 can also perform face recognition by acquiring color information of an area surrounded by contour points extracted from the live view image, and determine whether a face and eyes are detected. For example, if the contour point of the face area is extracted, and the color information of the area surrounded by the extracted contour point of the face area is determined that the color of the area is not a skin color, the face recognition fails. It is determined that no face has been detected. In addition, when it is determined from the color information of the area surrounded by the outline point of the eye area that the color of the area includes colors other than white and black, the face recognition fails and the eyes are not detected. Determined.

なお、本実施の形態においては、後述するように、ライブビュー画像において顔認識に成功することで得られた撮影画像について、顔領域および目領域に対する画像処理が施されるものとする。ただし、撮影画像において、顔領域に対する画像処理のみが施される場合や、目領域に対する画像処理のみが施される場合には、ライブビュー画像においては、顔のみが検出されたり、目のみが検出されるようにする。   In the present embodiment, as will be described later, it is assumed that image processing for the face area and the eye area is performed on a captured image obtained by successful face recognition in the live view image. However, when only image processing is performed on the face area in the captured image, or only image processing is performed on the eye area, only the face is detected or only the eyes are detected in the live view image. To be.

さらに、認識部314は、顔の傾きに基づいて、顔認識に成功したか否かを決定するようにしてもよい。撮影画像において、上下方向または左右方向に所定角度以上傾いている顔に対して画像処理が施された場合であっても、利用者はそのことに気づかない可能性が高い。そこで、例えば、顔が上下方向または左右方向に所定角度以上傾いていると判定された場合、顔認識は失敗と判定される。これにより、撮影画像に対して不要な画像処理が施されることを避けることができる。   Furthermore, the recognition unit 314 may determine whether or not the face recognition is successful based on the face inclination. Even when image processing is performed on a face that is tilted by a predetermined angle or more in the up-down direction or the left-right direction in the captured image, there is a high possibility that the user will not notice it. Therefore, for example, when it is determined that the face is inclined at a predetermined angle or more in the vertical direction or the horizontal direction, the face recognition is determined to have failed. Thereby, unnecessary image processing can be avoided from being performed on the captured image.

さて、図18のフローチャートの説明に戻り、ステップS54において、表示制御部311は、ライブビュー表示画面において、認識部314による認識結果(利用者の顔や目が検出されたか否か)に応じた案内表示を行う。   Returning to the description of the flowchart of FIG. 18, in step S54, the display control unit 311 responds to the recognition result (whether the user's face or eyes are detected) on the live view display screen. Display guidance.

ステップS55において、表示制御部311は、撮影タイミングになったか否かを判定する。撮影タイミングになっていないと判定された場合、処理はステップS51に戻り、ライブビュー画像の表示および認識結果に応じた案内表示が繰り返される。   In step S55, the display control unit 311 determines whether or not the shooting timing has come. If it is determined that it is not the shooting timing, the process returns to step S51, and the display of the live view image and the guidance display according to the recognition result are repeated.

そして、撮影タイミングになったと判定された場合、ライブビュー画像表示処理は終了し、撮影制御部313による撮影が行われる。   When it is determined that the shooting timing has come, the live view image display process ends, and shooting by the shooting control unit 313 is performed.

図19は、アップ撮影時のライブビュー表示画面の例を示す図である。   FIG. 19 is a diagram illustrating an example of a live view display screen during up-shooting.

ライブビュー表示画面の略中央には画像表示領域431が設けられる。画像表示領域431には、カメラ111により取り込まれた動画像であるライブビュー画像が表示される。また、画像表示領域431の下方には、「カメラ目線でポーズ!」のメッセージが表示される。   An image display area 431 is provided in the approximate center of the live view display screen. In the image display area 431, a live view image that is a moving image captured by the camera 111 is displayed. Further, a message “Pause from the camera!” Is displayed below the image display area 431.

ライブビュー表示画面の下側には、5つのサムネイル画像表示領域432乃至436が横方向に並んで表示される。サムネイル画像表示領域432乃至436それぞれには、5回の通常撮影に対応する5枚のモデル画像がそれぞれ表示される。サムネイル画像表示領域432乃至436に表示される5枚のモデル画像のうち、サムネイル画像表示領域432乃至434に表示される3枚のモデル画像はアップ画像とされ、サムネイル画像表示領域435,436に表示される2枚のモデル画像は全身画像とされる。   On the lower side of the live view display screen, five thumbnail image display areas 432 to 436 are displayed side by side in the horizontal direction. In the thumbnail image display areas 432 to 436, five model images corresponding to five normal shootings are respectively displayed. Of the five model images displayed in the thumbnail image display areas 432 to 436, the three model images displayed in the thumbnail image display areas 432 to 434 are the up images and are displayed in the thumbnail image display areas 435 and 436. The two model images to be processed are the whole body images.

また、サムネイル画像表示領域432乃至436のうち、これから行われる撮影に対応するモデル画像が表示されているサムネイル画像表示領域は、選択枠で強調表示される。図19の例では、1回目の撮影の際に利用者が見本とするモデル画像が表示されているサムネイル画像表示領域432が選択枠で強調表示されている。   Also, among the thumbnail image display areas 432 to 436, the thumbnail image display area in which the model image corresponding to the shooting to be performed is displayed is highlighted with a selection frame. In the example of FIG. 19, a thumbnail image display area 432 in which a model image that the user uses as a sample at the first shooting is displayed is highlighted in a selection frame.

ここで、上述したように、画像表示領域431に表示されているライブビュー画像においては、認識部314によって、顔認識が行われる。   Here, as described above, face recognition is performed by the recognition unit 314 in the live view image displayed in the image display area 431.

ライブビュー表示画面においては、認識部314による認識に成功するように利用者を促す案内表示がなされる。具体的には、図19に示されるように、画像表示領域431に表示されているライブビュー画像において、認識部314による認識に成功している利用者の顔の部分には、案内表示としての枠F11,F12が表示される。すなわち、図19の例では、ライブビュー画像に映る2人の利用者それぞれの顔認識に成功している。これにより、ライブビュー画像に映る利用者は、顔の認識に成功していることを把握することができ、立ち位置や顔の向きを維持しようとするようになる。なお、図19の例では、ライブビュー画像に映る利用者の顔の認識に失敗している場合には、枠は表示されない。   On the live view display screen, guidance display for prompting the user to succeed in recognition by the recognition unit 314 is performed. Specifically, as shown in FIG. 19, in the live view image displayed in the image display area 431, the portion of the user's face that has been successfully recognized by the recognition unit 314 is displayed as a guidance display. Frames F11 and F12 are displayed. That is, in the example of FIG. 19, the face recognition of each of the two users shown in the live view image has succeeded. As a result, the user reflected in the live view image can grasp that the face is successfully recognized, and tries to maintain the standing position and the face orientation. In the example of FIG. 19, the frame is not displayed when recognition of the user's face shown in the live view image has failed.

また、認識部314による認識に失敗している利用者の顔について、案内表示がなされるようにしてもよい。例えば、図20の例では、画像表示領域431に表示されているライブビュー画像に映る2人の利用者のうち、左側の利用者の顔については、その認識に成功し、右側の利用者の顔については、その認識に失敗している。   Further, guidance display may be performed for the face of the user who has failed to be recognized by the recognition unit 314. For example, in the example of FIG. 20, among the two users displayed in the live view image displayed in the image display area 431, the left user's face has been successfully recognized and the right user's face has been recognized. The face has failed to recognize.

この場合、ライブビュー画像に映る右側の利用者の顔の近傍に、認識部314による認識に失敗している旨のメッセージを含む吹き出し画像B11が表示される。これにより、ライブビュー画像に映る利用者は、顔の認識に失敗していることを把握することができ、顔の認識に成功するように立ち位置や顔の向きを変えようとするようになる。   In this case, a balloon image B11 including a message indicating that recognition by the recognition unit 314 has failed is displayed near the right user's face shown in the live view image. As a result, the user reflected in the live view image can grasp that the face recognition has failed and try to change the standing position and the face direction so that the face recognition succeeds. .

なお、図21に示されるように、顔の認識に成功している左側の利用者の顔の近傍に、認識部314による認識に成功している旨のメッセージを含む吹き出し画像B21が表示されるようにしてもよい。   As shown in FIG. 21, a balloon image B21 including a message indicating that the recognition by the recognition unit 314 is successful is displayed near the face of the left user who has successfully recognized the face. You may do it.

図22は、撮影結果確認画面の例を示す図である。   FIG. 22 is a diagram illustrating an example of a shooting result confirmation screen.

図22に示される撮影結果確認画面の画像表示領域431には、撮影によって得られた撮影画像として、2人の利用者が写る静止画像が表示される。画像表示領域431の下には「こんな風にとれたよ」のメッセージが表示される。   In the image display area 431 of the shooting result confirmation screen shown in FIG. 22, a still image showing two users is displayed as a shot image obtained by shooting. Under the image display area 431, a message “I got it like this” is displayed.

以上のようにして、通常撮影が行われる。   Normal shooting is performed as described above.

以上の処理によれば、ライブビュー表示画面において、利用者は、顔の認識に成功しているか否かを把握することはできるようになるので、顔の認識に失敗することを避けることができ、自分の好きなポーズや立ち位置などについての自由度を確保しながら、顔の認識に成功するように、顔の向きや位置を調整することができる。結果として、適切に画像処理が施された画像が出力されるようになり、利用者にとってより満足度の高い画像を提供することが可能となる。   According to the above processing, on the live view display screen, the user can grasp whether or not the face recognition is successful, so that the face recognition failure can be avoided. The orientation and position of the face can be adjusted so as to succeed in recognizing the face while ensuring the degree of freedom of the favorite pose and standing position. As a result, an image that has been appropriately subjected to image processing is output, and it is possible to provide an image that is more satisfactory for the user.

また、利用者がとるポーズによって顔や目に手がかかるなどして、顔や目が検出されなかった場合には、顔の認識に失敗していることを、利用者に知らせることもできる。   In addition, when the face or eyes are not detected because the face or eyes are touched by the pose taken by the user, the user can be informed that the face recognition has failed.

以上においては、通常撮影としてアップ撮影が行われる際のライブビュー表示画面の例について説明したが、全身撮影が行われる際にも、上述したライブビュー画像表示処理は実行される。   In the above, an example of the live view display screen when up-shooting is performed as normal shooting has been described. However, the above-described live view image display processing is executed also when whole-body shooting is performed.

図23は、全身撮影時のライブビュー表示画面の例を示す図である。   FIG. 23 is a diagram illustrating an example of a live view display screen during whole body imaging.

図23の例では、画像表示領域431に、2人の利用者の全身が映るライブビュー画像が表示される。また、図23の例では、画像表示領域431に表示されているライブビュー画像において、認識部314による認識に成功している利用者の顔の部分には、案内表示としての枠F31,F32が表示される。   In the example of FIG. 23, a live view image in which the whole bodies of two users are reflected is displayed in the image display area 431. In the example of FIG. 23, in the live view image displayed in the image display area 431, frames F31 and F32 as guidance displays are provided on the face portion of the user who has been successfully recognized by the recognition unit 314. Is displayed.

なお、図23の例においても、図20の例と同様に、認識部314による認識に失敗している利用者の顔について、認識部314による認識に失敗している旨のメッセージを含む吹き出し画像が表示されるようにしてもよいし、図21の例と同様に、認識部314による認識に成功している利用者の顔について、認識部314による成功に失敗している旨のメッセージを含む吹き出し画像が表示されるようにしてもよい。   In the example of FIG. 23, as in the example of FIG. 20, a balloon image including a message indicating that the recognition by the recognition unit 314 has failed with respect to the face of the user that has failed recognition by the recognition unit 314. May be displayed, and, similar to the example of FIG. 21, for a user's face that has been successfully recognized by the recognition unit 314, a message that the recognition unit 314 has failed to succeed is included. A balloon image may be displayed.

以上においては、ライブビュー画像に対して、認識部314による認識に成功するように促す案内表示がなされるものとした。しかしながら、認識に失敗したまま撮影が行われてしまった場合には、撮り直し対象選択画面に表示されるその撮影画像に、認識に失敗した旨の表示がなされるようにしてもよい。   In the above, it is assumed that the guidance display prompting the recognition by the recognition unit 314 to be successful is performed on the live view image. However, when shooting has been performed with the recognition failed, a display indicating that the recognition has failed may be displayed on the captured image displayed on the re-shooting target selection screen.

図24は、撮り直し対象選択画面の例を示す図である。   FIG. 24 is a diagram illustrating an example of a reshooting target selection screen.

撮り直し対象選択画面の上方には、「撮りなおしたい画像を1枚まで選んでね!」のメッセージが表示され、その下に、撮り直しの対象として選択可能な5枚の撮影画像451乃至455と、撮り直しを行わないときに操作されるボタン456とが表示される。また、撮り直し対象選択画面の右下隅には、選択した撮り直し対象画像を決定するときに操作されるボタン457が表示される。   At the top of the re-shooting object selection screen, a message “Please select up to one image you want to retake!” Is displayed, and below that, five shot images 451 to 455 that can be selected as re-shooting targets. And a button 456 operated when re-taking is not performed. In addition, a button 457 that is operated when determining the selected recapture target image is displayed in the lower right corner of the recapture target selection screen.

撮り直し対象選択画面において、利用者により、撮影画像451乃至455のいずれかが選択され、ボタン457が操作されると、選択された撮影画像が、撮り直し対象画像として決定される。一方、利用者により、ボタン456が操作されると、撮り直しを行わないことが決定される。   When the user selects any of the captured images 451 to 455 and operates the button 457 on the recapture target selection screen, the selected captured image is determined as the recapture target image. On the other hand, when the user operates the button 456, it is determined not to perform re-shooting.

また、撮り直し対象選択画面においては、撮影画像451乃至455のうち、顔の認識に失敗したまま撮影が行われて得られた撮影画像には、認識に失敗した旨の表示がなされている。図24の例では、撮影画像451上に、認識部314による認識に失敗した旨のメッセージを含む吹き出し画像B41が表示されている。   Also, on the re-shooting target selection screen, among the photographed images 451 to 455, the photographed image obtained by photographing while failing to recognize the face is displayed indicating that the recognition has failed. In the example of FIG. 24, a balloon image B41 including a message indicating that the recognition by the recognition unit 314 has failed is displayed on the captured image 451.

これにより、利用者は、認識に失敗したまま撮影が行われて得られた撮影画像を迅速に見つけて、撮り直し対象画像として選択することができる。   Accordingly, the user can quickly find a captured image obtained by performing the shooting with the recognition failure, and select the captured image as a recapture target image.

図25は、撮り直し後選択画面の例を示す図である。   FIG. 25 is a diagram illustrating an example of a selection screen after reshooting.

図25に示すように、撮り直し後選択画面の上方には、「どちらの画像にする?」のメッセージが表示され、その下に、撮り直し対象画像として選択された撮影画像471と、撮り直し撮影で取得された撮影画像472とが左右に並んで表示される。また、撮り直し後選択画面の右下隅には、撮影画像の選択を決定するときに操作されるボタン473が表示される。   As shown in FIG. 25, a message “Which image do you want to display?” Is displayed above the selection screen after re-shooting, and a photographed image 471 selected as a re-shooting target image and a re-shooting screen. A captured image 472 acquired by photographing is displayed side by side. In addition, a button 473 operated when determining the selection of the photographed image is displayed in the lower right corner of the selection screen after re-taking.

撮り直し後選択画面において、利用者により、撮影画像471,472のうちのいずれか一方が選択され、ボタン473が操作されると、選択された撮影画像が、最終的に編集や印刷の対象となる画像として決定される。   When the user selects one of the photographed images 471 and 472 and operates the button 473 on the selection screen after re-taking, the selected photographed image is finally selected for editing or printing. Is determined as an image.

また、撮り直し後選択画面においては、撮影画像471には、認識に失敗した旨の表示がなされている。図25の例では、撮影画像471上に、認識部314による認識に失敗した旨のメッセージを含む吹き出し画像B51が表示されている。   In addition, on the selection screen after re-shooting, the captured image 471 displays a display indicating that the recognition has failed. In the example of FIG. 25, a balloon image B51 including a message indicating that the recognition by the recognition unit 314 has failed is displayed on the captured image 471.

これにより、利用者は、認識に失敗したまま撮影が行われて得られた撮影画像を、最終的に編集や印刷の対象となる画像として選択しないようにすることができる。   Thus, the user can prevent the photographed image obtained by photographing with the recognition failure from being finally selected as an image to be edited or printed.

<大人数用コースの例>
以上においては、人数コースとして2人用コースが選択された場合のライブビュー画像表示処理について説明してきたが、大人数用コースが選択された場合にも、ライブビュー画像における顔の認識が行われる。
<Example of course for large groups>
In the above, the live view image display processing when the two-person course is selected as the number-of-persons course has been described, but face recognition in the live view image is also performed when the large-number course is selected. .

なお、大人数用コースが選択された場合、ライブビュー画像における顔の認識は、所定数を上限として行われる。例えば、大人数用コースが選択された場合、ライブビュー画像における顔の認識は12人分まで行われ、認識に成功した顔の部分に案内表示としての枠が表示される。したがって、ライブビュー画像に例えば13人の利用者が映る場合、いずれか1人の利用者については顔の認識は行われない。   In addition, when the course for a large number of people is selected, the face recognition in the live view image is performed with a predetermined number as an upper limit. For example, when the course for a large number of people is selected, the face recognition in the live view image is performed for up to 12 people, and a frame as a guidance display is displayed on the face portion that has been successfully recognized. Therefore, for example, when 13 users are shown in the live view image, face recognition is not performed for any one of the users.

ここで、12人の利用者全員について、顔の認識に成功した場合、ライブビュー画像には12個の枠が表示されることになるが、この場合、ライブビュー画像の表示が煩雑になり、利用者が撮影作業を行いづらくなってしまう。   Here, for all 12 users, when face recognition is successful, 12 frames are displayed in the live view image. In this case, the display of the live view image becomes complicated, It becomes difficult for the user to perform the shooting work.

そこで、この場合には、認識に成功した顔の部分には何も表示されず、認識に失敗した顔の部分に枠が表示されるようにしてもよい。   Therefore, in this case, nothing may be displayed on the face portion that has been successfully recognized, and a frame may be displayed on the face portion that has failed to be recognized.

例えば、抽出された輪郭点で囲まれる領域の形状と、輪郭点で囲まれる領域の色情報とに基づいて、顔の認識が行われるものとする。このとき、輪郭点で囲まれる領域が肌色であると判定されても、輪郭点で囲まれる領域の形状が顔でないと判定された場合には、顔の認識は失敗と判定され、その顔の部分(輪郭点で囲まれる領域)に枠が表示される。逆に、輪郭点で囲まれる領域の形状が顔であると判定されても、輪郭点で囲まれる領域が肌色でないと判定された場合には、顔の認識は失敗と判定され、その顔の部分(輪郭点で囲まれる領域)に枠が表示されるようにしてもよい。   For example, it is assumed that the face is recognized based on the shape of the region surrounded by the extracted contour points and the color information of the region surrounded by the contour points. At this time, even if it is determined that the region surrounded by the contour point is skin color, if it is determined that the shape of the region surrounded by the contour point is not a face, the face recognition is determined to be unsuccessful, and the face A frame is displayed in a portion (region surrounded by contour points). On the other hand, even if it is determined that the shape of the region surrounded by the contour points is a face, if it is determined that the region surrounded by the contour points is not skin-colored, the face recognition is determined to have failed, and the face A frame may be displayed in a portion (region surrounded by contour points).

これにより、ライブビュー画像の表示が煩雑になることを避け、利用者は撮影作業を行いやすくなる。   Thereby, the display of the live view image is prevented from being complicated, and the user can easily perform the photographing operation.

以上においては、ライブビュー画像における顔の認識は、所定数を上限として行われるものとしたが、ライブビュー画像における全ての顔について認識が行われるようにしてもよい。   In the above description, face recognition in the live view image is performed up to a predetermined number, but recognition may be performed for all faces in the live view image.

また、ライブビュー画像において認識に成功した顔の部分への枠の表示は、所定数を下限として行われるようにしてもよい。ライブビュー画像に映る顔の数が1つや2つの場合、利用者のとるポーズや立ち位置の自由度は高く、ライブビュー画像に案内表示がなされなくとも、顔の認識に成功しやすい。そこで、例えば、ライブビュー画像において認識に成功した顔の数が3つ以上の場合に、認識に成功した顔の部分に枠が表示されるようにする。   Further, the display of the frame on the face portion that has been successfully recognized in the live view image may be performed with a predetermined number as a lower limit. When the number of faces shown in the live view image is one or two, the user has a high degree of freedom in the pose and standing position, and the face can be easily recognized even if no guidance display is made on the live view image. Therefore, for example, when the number of faces successfully recognized in the live view image is three or more, a frame is displayed on the face part that has been successfully recognized.

さらに、ライブビュー画像における顔の認識が、所定数を上限として行われるようにした上で、ライブビュー画像において認識に成功した顔の部分への枠の表示が、所定数を下限として行われるようにしてもよい。   Furthermore, the face recognition in the live view image is performed with the predetermined number as the upper limit, and the frame display on the face portion that has been successfully recognized in the live view image is performed with the predetermined number as the lower limit. It may be.

さらにまた、ライブビュー画像において認識に成功した顔の数がある数を超えた場合には、認識に失敗した顔の部分に枠が表示され、ライブビュー画像において認識に成功した顔の数がある数を下回った場合には、認識に成功した顔の部分に枠が表示されるようにしてもよい。これにより、ライブビュー画像の表示が煩雑になることを避ける。   Furthermore, when the number of faces successfully recognized in the live view image exceeds a certain number, a frame is displayed on the face portion that failed to be recognized, and there are the number of faces successfully recognized in the live view image. If the number is less than the number, a frame may be displayed on the face portion that has been successfully recognized. This avoids complicated display of the live view image.

以上においては、人数コースとして、2人用コースと大人数用コースとが設けられるものとしたが、例えば4人用コースが設けられるようにしてもよい。   In the above description, the two-person course and the large-number course are provided as the number-of-persons course. However, for example, a four-person course may be provided.

人数コースとして、4人用コースが選択された場合であっても、4人の利用者全ての顔の認識に成功すると、ライブビュー画像には4個の枠が表示されることになり、ライブビュー画像の表示が煩雑になる。そこで、この場合においても、認識に失敗した顔の部分に枠が表示されるようにすることで、ライブビュー画像の表示が煩雑になることを避ける。   Even if the four-person course is selected as the number of people course, if all four users' faces are successfully recognized, four frames will be displayed in the live view image. The display of the view image becomes complicated. Therefore, even in this case, it is possible to prevent the display of the live view image from becoming complicated by displaying a frame on the face portion that has failed to be recognized.

さらに、5回の通常撮影のうち、例えば、4回目までの撮影時のライブビュー画像において認識に成功した顔の数が4つで、5回目の撮影時のライブビュー画像において認識に成功している顔の数が3つである場合、5回目の撮影時のライブビュー画像において、1つの顔の認識に失敗していると推定される。そこで、5回目の撮影時のライブビュー画像において、認識に失敗していると推定される顔の部分に枠が表示されるようにする。   Furthermore, among the five normal shootings, for example, the number of faces successfully recognized in the live view image at the time of the fourth shooting is four, and the recognition was successful in the live view image at the time of the fifth shooting. When the number of faces is three, it is estimated that the recognition of one face has failed in the live view image at the time of the fifth shooting. Therefore, a frame is displayed on the face portion estimated to have failed to be recognized in the live view image at the time of the fifth shooting.

<認識に成功するように促す案内の例>
以上においては、ライブビュー画像の表示時に、顔の認識に成功するように促す案内として、枠が表示されるものとしたが、音声が出力されるようにしてもよい。具体的には、音声出力制御部312が、顔の認識に成功するように促す音声をスピーカ223から出力させるようにする。
<Example of guidance prompting successful recognition>
In the above description, the frame is displayed as the guidance for prompting the face recognition to be successful when the live view image is displayed. However, sound may be output. Specifically, the audio output control unit 312 causes the speaker 223 to output a sound that prompts the face recognition to be successful.

また、顔の認識に成功するように促す案内として、撮影空間内の照明(各ストロボユニットによるストロボ発光や定常光)の色味や発光量が変化するようにしてもよいし、顔の認識に失敗していると判定される場合には、カメラ111のシャッタ制御により撮影が行われないようにしてもよい。   In addition, as guidance for prompting the face recognition to be successful, the color and light emission amount of the illumination (strobe light emission and steady light by each strobe unit) in the shooting space may be changed. If it is determined that the image has failed, shooting may not be performed by shutter control of the camera 111.

さらに、ライブビュー画像において認識に成功した顔の数に応じて、撮影タイミングで得られる原画像から撮影画像を得るためのトリミング枠のサイズや、カメラ111のレンズの焦点距離が変更されるようにしてもよい。   Furthermore, the size of the trimming frame for obtaining a photographed image from the original image obtained at the photographing timing and the focal length of the lens of the camera 111 are changed according to the number of faces successfully recognized in the live view image. May be.

例えば、ライブビュー画像において2つの顔の認識に成功した場合のトリミング枠のサイズより、ライブビュー画像において3つの顔の認識に成功した場合のトリミング枠のサイズが大きくなるようにする。また、ライブビュー画像において2つの顔の認識に成功した場合の焦点距離より、ライブビュー画像において3つの顔の認識に成功した場合の焦点距離が短くなるようにする。   For example, the size of the trimming frame when the three faces are successfully recognized in the live view image is made larger than the size of the trimming frame when the two faces are successfully recognized in the live view image. Further, the focal length when the three faces are successfully recognized in the live view image is made shorter than the focal length when the two faces are successfully recognized in the live view image.

これにより、顔の数(利用者の数)が多いほど、撮影画像に写る範囲が広くなり、撮影画像全体の見た目が窮屈な印象になることを避けることができ、人物と背景のバランスのよい構図を実現することができる。   As a result, the larger the number of faces (number of users), the wider the range that appears in the captured image, so that the overall appearance of the captured image can be avoided, and the balance between the person and the background is good. Composition can be realized.

<編集処理>
次に、図26のフローチャートを参照して、図14のステップS2において行われる編集処理について説明する。以下、基本的には、人数コースとして2人用コースが選択された場合の例について説明する。
<Edit processing>
Next, the editing process performed in step S2 of FIG. 14 will be described with reference to the flowchart of FIG. Hereinafter, an example in which a two-person course is selected as the number-of-persons course will be basically described.

編集処理が開始されると、ステップS71において、表示制御部321は、タブレット内蔵モニタ141に盛れ感選択画面を表示させる。盛れ感選択画面は、顔の大きさや形状(輪郭)、目の大きさなどを変えることで顔の見た目の印象が誇張された(良く見える)様子を表す「盛れ感」の選択に用いられる画面である。   When the editing process is started, in step S71, the display control unit 321 causes the tablet built-in monitor 141 to display a feeling of feeling selection screen. The sensation of sensation selection screen is used to select the sensation of sensation that expresses the appearance of the face exaggerated (looks better) by changing the face size, shape (outline), eye size, etc. It is.

図27は、盛れ感選択画面の例を示す図である。   FIG. 27 is a diagram illustrating an example of a feeling of fullness selection screen.

盛れ感選択画面においては、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ盛れ感を同時に選択することができる。   The main structure is symmetrically provided on the sense of sensation selection screen. With such a screen configuration, two users can simultaneously select a feeling of excitement.

図27の盛れ感選択画面において、左右それぞれの領域の上側には、画像表示部511L,511Rが設けられる。画像表示部511L,511Rには、レタッチ撮影により得られたレタッチ用画像(顔画像)がそれぞれ表示される。   27, image display units 511L and 511R are provided above the left and right areas. Retouch images (face images) obtained by retouch photography are displayed on the image display portions 511L and 511R, respectively.

画像表示部511L,511Rそれぞれの下方には、選択部512L,512Rが表示される。選択部512L,512Rそれぞれの中央には、撮影処理により得られた5枚のアップ画像それぞれに写る利用者の顔の盛れ感を選択するためのボタン521−1乃至521−3が設けられる。   Selection units 512L and 512R are displayed below the image display units 511L and 511R, respectively. In the center of each of the selection units 512L and 512R, buttons 521-1 to 521-3 for selecting the feeling of the user's face appearing in each of the five up images obtained by the photographing process are provided.

ボタン521−1乃至521−3それぞれは、盛れ感を与える画像処理の度合いに対応する。ボタン521−1は、盛れ感として「ナチュラル」を選択するためのボタンであり、ボタン521−2は、盛れ感として「おすすめ」を選択するためのボタンであり、ボタン521−3は、盛れ感として「げき盛れ」を選択するためのボタンである。   Each of the buttons 521-1 to 521-3 corresponds to the degree of image processing that gives a feeling of swell. The button 521-1 is a button for selecting “natural” as a feeling of flourishing, the button 521-2 is a button for selecting “recommended” as a feeling of flourishing, and the button 521-3 is a feeling of flourishing Is a button for selecting “Gekimori”.

ボタン521−1乃至521−3のいずれかが選択されると、画像処理部324は、画像表示部511L,511Rに表示されている顔画像に対して、選択されたボタンに対応する盛れ感を与える画像処理を施す。利用者は、画像表示部511L,511Rに表示されている顔画像の変化を確認することで、所望の盛れ感を選択することができる。   When any of the buttons 521-1 to 521-3 is selected, the image processing unit 324 gives a feeling of climax corresponding to the selected button to the face images displayed on the image display units 511 </ b> L and 511 </ b> R. Apply image processing. The user can select a desired feeling of prosperity by confirming changes in the face images displayed on the image display units 511L and 511R.

ボタン521−1乃至521−3の下方には、OKボタン522が設けられる。   An OK button 522 is provided below the buttons 521-1 to 521-3.

ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下されることで、撮影画像それぞれに写る利用者の顔領域全体に対する、盛れ感を与える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の顔領域全体に対して、決定された度合いの画像処理が施される。   When the OK button 522 is pressed in a state where any of the buttons 521-1 to 521-3 is selected, the degree of image processing that gives a sense of vigor to the entire face area of the user shown in each captured image. The determined degree of image processing is performed on the entire face area of the user determined and captured in each captured image.

また、ボタン521−1の左方には、盛れ感OFFボタン523が設けられる。ボタン521−1乃至521−3のいずれかが選択された状態で、盛れ感OFFボタン523が押下されることで、選択されているボタンに対応して、画像表示部511L,511Rに表示されている顔画像に対して施されている度合いの画像処理がキャンセルされる。   Further, a feeling of overflow OFF button 523 is provided on the left side of the button 521-1. When any of the buttons 521-1 to 521-3 is selected, when the sensation OFF button 523 is pressed, it is displayed on the image display units 511 </ b> L and 511 </ b> R corresponding to the selected button. The image processing to the extent that it is applied to the face image is canceled.

なお、盛れ感選択画面の中心よりやや上の位置には、両矢印の形状の入れ替えボタン513が設けられる。撮影空間においてカメラ111に向かう2人の利用者の左右の位置と、編集空間においてタブレット内蔵モニタ141に向かう2人の利用者の左右の位置とが異なる場合がある。この場合、利用者のいずれかが、入れ替えボタン513を操作することで、利用者それぞれが、立ち位置を変えることなく、自分の顔についての画像処理の度合いを選択することができる。   Note that an exchange button 513 in the shape of a double-headed arrow is provided at a position slightly above the center of the sensation selection screen. There are cases where the left and right positions of the two users heading to the camera 111 in the shooting space and the left and right positions of the two users heading to the tablet built-in monitor 141 in the editing space are different. In this case, one of the users can select the degree of image processing on his / her face without changing the standing position by operating the replacement button 513.

盛れ感選択画面において、OKボタン522が押下されるか、または、盛れ感選択画面が表示されてから開始されたカウントダウンが終了する(カウントが0になる)と、処理はステップS72に進む。   When the OK button 522 is pressed on the selection feeling screen or the countdown started after the feeling selection screen is displayed ends (the count becomes 0), the process proceeds to step S72.

ステップS72において、表示制御部321は、タブレット内蔵モニタ141にフェイスカラー選択画面を表示させる。フェイスカラー選択画面は、撮影画像に写る利用者のフェイスカラー(肌の明るさ)の選択に用いられる画面である。   In step S72, the display control unit 321 displays a face color selection screen on the tablet built-in monitor 141. The face color selection screen is a screen used to select a user's face color (skin brightness) in a captured image.

図28は、フェイスカラー選択画面の例を示す図である。   FIG. 28 is a diagram illustrating an example of a face color selection screen.

フェイスカラー選択画面は、基本的には、図27の盛れ感選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれフェイスカラーを同時に選択することができる。   The face color selection screen basically has the same configuration as the liveliness selection screen of FIG. 27, and the main configuration is provided symmetrically. With such a screen configuration, two users can simultaneously select face colors.

図28のフェイスカラー選択画面において、左右それぞれの領域の上側には、図27の盛れ感選択画面と同様、画像表示部511L,511Rが設けられる。   In the face color selection screen of FIG. 28, image display portions 511L and 511R are provided above the left and right areas, as in the liveliness selection screen of FIG.

画像表示部511L,511Rそれぞれの下方には、選択部531L,531Rが表示される。選択部531L,531Rそれぞれの中央には、撮影処理により得られた5枚の撮影画像それぞれに写る利用者のフェイスカラーを選択するためのボタン541−1乃至541−3が設けられる。   Selection units 531L and 531R are displayed below the image display units 511L and 511R, respectively. In the center of each of the selection units 531L and 531R, buttons 541-1 to 541-3 are provided for selecting the user's face color in each of the five photographed images obtained by the photographing process.

ボタン541−1乃至541−3それぞれは、フェイスカラーを変える画像処理の度合いに対応する。ボタン541−1は、フェイスカラーとして「普通肌」を選択するためのボタンであり、ボタン541−2は、フェイスカラーとして「美白肌」を選択するためのボタンであり、ボタン541−3は、フェイスカラーとして「超美白肌」を選択するためのボタンである。   Each of the buttons 541-1 to 541-3 corresponds to the degree of image processing for changing the face color. The button 541-1 is a button for selecting “normal skin” as the face color, the button 541-2 is a button for selecting “whitening skin” as the face color, and the button 541-3 is This is a button for selecting “super whitening skin” as the face color.

ボタン541−1乃至541−3のいずれかが選択されると、画像処理部324は、画像表示部511L,511Rに表示されている顔画像に対して、選択されたボタンに対応するフェイスカラーに変える画像処理を施す。利用者は、画像表示部511L,511Rに表示されている顔画像の変化を確認することで、所望のフェイスカラーを選択することができる。   When any of the buttons 541-1 to 541-3 is selected, the image processing unit 324 changes the face color displayed on the image display units 511L and 511R to the face color corresponding to the selected button. Change image processing. The user can select a desired face color by confirming changes in the face images displayed on the image display units 511L and 511R.

ボタン541−1乃至541−3の下方には、OKボタン542が設けられる。   An OK button 542 is provided below the buttons 541-1 to 541-3.

ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下されることで、撮影画像それぞれに写る利用者の顔領域全体に対する、フェイスカラーを変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の顔領域に対して、決定された度合いの画像処理が施される。   When the OK button 542 is pressed in a state where any of the buttons 541-1 to 541-3 is selected, the degree of image processing for changing the face color with respect to the entire face area of the user shown in each captured image. The determined degree of image processing is performed on the face area of the user that is determined and appears in each captured image.

フェイスカラー選択画面において、OKボタン542が押下されるか、または、フェイスカラー選択画面が表示されてから開始されたカウントダウンが終了する(カウントが0になる)と、処理はステップS73に進む。   When the OK button 542 is pressed on the face color selection screen or the countdown started after the face color selection screen is displayed ends (count becomes 0), the process proceeds to step S73.

ステップS73において、表示制御部321は、タブレット内蔵モニタ141にメイク感選択画面を表示させる。メイク感選択画面は、撮影画像に写る利用者のメイク感の選択に用いられる画面である。メイク感は、メイクを施しているように見せるための顔パーツに対する画像処理の度合いを示し、この例では、メイク感として、目の濃さと、チークおよびリップの色が選択される。   In step S <b> 73, the display control unit 321 displays a makeup feeling selection screen on the tablet built-in monitor 141. The makeup feeling selection screen is a screen used to select a makeup feeling of the user that appears in the photographed image. The feeling of makeup indicates the degree of image processing performed on a facial part to make it appear to be applying makeup. In this example, the darkness of eyes and the colors of cheeks and lips are selected as the feeling of makeup.

図29は、メイク感選択画面の例を示す図である。   FIG. 29 is a diagram illustrating an example of a makeup feeling selection screen.

メイク感選択画面もまた、基本的には、図27の盛れ感選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれメイク感を同時に選択することができる。   The makeup feeling selection screen also basically has the same configuration as that of the lively feeling selection screen of FIG. 27, and the main configuration is provided symmetrically. With such a screen configuration, two users can simultaneously select a makeup feeling.

図29のメイク感選択画面において、左右それぞれの領域の上側には、図27の盛れ感選択画面と同様、画像表示部511L,511Rが設けられる。   In the makeup feeling selection screen of FIG. 29, image display portions 511L and 511R are provided above the left and right regions, as in the case of the feeling of height selection screen of FIG.

画像表示部511L,511Rそれぞれの下方には、選択部551L,551Rが表示される。選択部551L,551Rそれぞれの中央には、撮影処理により得られた5枚の撮影画像それぞれに写る利用者のメイク感を選択するためのボタン561−1乃至561−3が設けられる。   Selection units 551L and 551R are displayed below the image display units 511L and 511R, respectively. In the center of each of the selection units 551L and 551R, buttons 561-1 to 561-3 are provided for selecting the user's makeup feeling in each of the five photographed images obtained by the photographing process.

ボタン561−1乃至561−3それぞれは、メイク感を変える画像処理の度合いに対応する。ボタン561−1は、メイク感として「ナチュラル」を選択するためのボタンであり、ボタン561−2は、メイク感として「おすすめ」を選択するためのボタンであり、ボタン561−3は、メイク感として「しっかり」を選択するためのボタンである。   Each of the buttons 561-1 to 561-3 corresponds to the degree of image processing that changes the makeup feeling. The button 561-1 is a button for selecting “natural” as a makeup feeling, the button 561-2 is a button for selecting “recommended” as a makeup feeling, and the button 561-3 is a makeup feeling. It is a button for selecting "firm" as.

ボタン561−1乃至561−3のいずれかが選択されると、画像処理部324は、画像表示部511L,511Rに表示されている顔画像に対して、選択されたボタンに対応するメイク感に変える画像処理を施す。利用者は、画像表示部511L,511Rに表示されている顔画像の変化を確認することで、所望のメイク感を選択することができる。   When any of the buttons 561-1 to 561-3 is selected, the image processing unit 324 gives a makeup feeling corresponding to the selected button to the face images displayed on the image display units 511L and 511R. Change image processing. The user can select a desired makeup feeling by confirming changes in the face images displayed on the image display units 511L and 511R.

ボタン561−1乃至561−3の下方には、OKボタン562が設けられる。   An OK button 562 is provided below the buttons 561-1 to 561-3.

ボタン561−1乃至561−3のいずれかが選択された状態で、OKボタン562が押下されることで、撮影画像それぞれに写る利用者の顔領域、目領域、および口領域に対する、メイク感を変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の顔領域、目領域、および口領域に対して、決定された度合いの画像処理が施される。   By pressing the OK button 562 in a state where any of the buttons 561-1 to 561-3 is selected, a makeup feeling is applied to the face area, the eye area, and the mouth area of the user shown in each captured image. The degree of image processing to be changed is determined, and the determined degree of image processing is applied to the user's face area, eye area, and mouth area that appear in each captured image.

メイク感選択画面において、OKボタン562が押下されるか、または、メイク感選択画面が表示されてから開始されたカウントダウンが終了する(カウントが0になる)と、処理はステップS74に進む。   When the OK button 562 is pressed on the makeup feeling selection screen or the countdown started after the makeup feeling selection screen is displayed ends (count becomes 0), the process proceeds to step S74.

ステップS74において、表示制御部321は、タブレット内蔵モニタ141に涙袋選択画面を表示させる。涙袋選択画面は、撮影画像に写る利用者の涙袋メイク(下まぶたに添ったふくらみ部分に対するメイクの濃さ)の選択に用いられる画面である。   In step S74, the display control unit 321 causes the tablet built-in monitor 141 to display a tear bag selection screen. The tear bag selection screen is a screen used to select the user's tear bag makeup (the darkness of the makeup for the bulge portion along the lower eyelid) reflected in the photographed image.

図30は、涙袋選択画面の例を示す図である。   FIG. 30 is a diagram illustrating an example of a tear bag selection screen.

涙袋選択画面もまた、基本的には、図27の盛れ感選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ涙袋メイクを同時に選択することができる。   The tear bag selection screen also basically has the same configuration as that of the lively feeling selection screen of FIG. 27, and the main configuration is provided symmetrically. With such a screen configuration, two users can simultaneously select tear bag makeup.

図30の涙袋選択画面において、左右それぞれの領域の上側には、図27の盛れ感選択画面と同様、画像表示部511L,511Rが設けられる。   In the tear bag selection screen of FIG. 30, image display portions 511 </ b> L and 511 </ b> R are provided above the left and right regions, as in the lively feeling selection screen of FIG. 27.

画像表示部511L,511Rそれぞれの下方には、選択部571L,571Rが表示される。選択部571L,571Rそれぞれの中央には、撮影処理により得られた5枚の撮影画像それぞれに写る利用者の涙袋メイクを選択するためのボタン581−1,581−2が設けられる。   Selection units 571L and 571R are displayed below the image display units 511L and 511R, respectively. In the center of each of the selection units 571L and 571R, buttons 581-1 and 581-2 are provided for selecting the user's tear bag makeup that is shown in each of the five photographed images obtained by the photographing process.

ボタン581−1,581−2それぞれは、涙袋メイクを変える画像処理の度合いに対応する。ボタン581−1は、涙袋メイクとして「ナチュラル」を選択するためのボタンであり、ボタン581−2は、涙袋メイクとして「しっかり」を選択するためのボタンである。   Each of the buttons 581-1 and 581-2 corresponds to the degree of image processing for changing the tear bag makeup. The button 581-1 is a button for selecting “natural” as a tear bag makeup, and the button 581-2 is a button for selecting “solid” as a tear bag makeup.

ボタン581−1,581−2のいずれかが選択されると、画像処理部324は、画像表示部511L,511Rに表示されている顔画像に対して、選択されたボタンに対応する涙袋メイクに変える画像処理を施す。利用者は、画像表示部511L,511Rに表示されている顔画像の変化を確認することで、所望の涙袋メイクを選択することができる。   When one of the buttons 581-1 and 581-2 is selected, the image processing unit 324 makes the tear bag makeup corresponding to the selected button on the face image displayed on the image display units 511L and 511R. Apply image processing to change to. The user can select a desired tear bag makeup by confirming changes in the face images displayed on the image display units 511L and 511R.

ボタン581−1,581−2の下方には、OKボタン582が設けられる。   An OK button 582 is provided below the buttons 581-1 and 581-2.

ボタン581−1,581−2のいずれかが選択された状態で、OKボタン582が押下されることで、撮影画像それぞれに写る利用者の目領域に対する、涙袋メイクを変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の目領域に対して、決定された度合いの画像処理が施される。   When the OK button 582 is pressed in a state where any of the buttons 581-1 and 581-2 is selected, the degree of image processing for changing the tear bag makeup on the user's eye area shown in each photographed image is increased. The determined degree of image processing is performed on the eye area of the user that is determined and appears in each captured image.

涙袋選択画面において、OKボタン582が押下されるか、または、涙袋選択画面が表示されてから開始されたカウントダウンが終了する(カウントが0になる)と、処理はステップS75に進む。   When the OK button 582 is pressed on the tear bag selection screen or the countdown started after the tear bag selection screen is displayed ends (count becomes 0), the process proceeds to step S75.

以上のように、盛れ感選択画面、フェイスカラー選択画面、メイク感選択画面、および涙袋選択画面は、撮影画像に写る利用者自身の顔を、自分のなりたい顔に仕上げるためのレタッチ機能を提供するレタッチ画面として表示される。   As described above, the feeling of sensation selection screen, face color selection screen, makeup sensation selection screen, and tear bag selection screen provide a retouch function to finish the user's own face in the captured image to the face he wants to be. Displayed as a retouch screen.

それぞれのレタッチ画面において、利用者の顔(レタッチ用画像)毎に選択された度合いの画像処理は、上述したように、画像処理部324によって、撮影画像に写る利用者の顔毎に施される。具体的には、認証部323が、記憶部202に記憶されているレタッチ用画像に基づいて、撮影画像に写る利用者の顔をそれぞれ認証する。そして、画像処理部324は、レタッチ用画像に対応して選択された度合いの画像処理を、認証の結果に基づいて、撮影画像においてそのレタッチ用画像(顔画像)に最も一致すると判定された顔領域に施す。   In each retouch screen, the image processing of the degree selected for each user face (retouch image) is performed by the image processing unit 324 for each user face shown in the photographed image as described above. . Specifically, the authentication unit 323 authenticates the user's face that appears in the captured image based on the retouching image stored in the storage unit 202. Then, the image processing unit 324 performs the image processing of the degree selected corresponding to the retouching image, based on the authentication result, the face determined to most closely match the retouching image (face image). Apply to the area.

また、画像処理部324は、認識部314による認識に成功した利用者の顔に対して、レタッチ画面において選択された度合いの画像処理を施す。したがって、ライブビュー画像において、2人の利用者のうちのいずれか一方の顔の識別に失敗した場合、対応する撮影により得られた撮影画像において識別に失敗した方の利用者の顔領域には、選択された度合いにかかわらず画像処理は施されない。   The image processing unit 324 performs image processing of the degree selected on the retouch screen on the face of the user who has been successfully recognized by the recognition unit 314. Therefore, in the live view image, when the identification of either one of the two users fails, the face area of the user who has failed to identify in the captured image obtained by the corresponding imaging is displayed. Regardless of the degree of selection, no image processing is performed.

なお、人数コースとして大人数用コースが選択された場合には、図31に示されるようなレタッチ画面が表示される。   When a course for a large number of people is selected as the number of people course, a retouch screen as shown in FIG. 31 is displayed.

図31は、大人数用コースが選択された場合のレタッチ画面の一例としての盛れ感選択画面の例を示す図である。   FIG. 31 is a diagram showing an example of a feeling of selection selection screen as an example of a retouch screen when a course for a large number of people is selected.

図31の盛れ感選択画面の上側には、画像表示部591が設けられる。画像表示部591には、レタッチ撮影により得られたレタッチ用画像が表示される。ここでのレタッチ用画像は、複数の利用者が一緒に写る画像であり、図31の例では、2人の利用者が写る画像とされるが、実際には3人以上の利用者が写る画像とされる。   An image display unit 591 is provided on the upper side of the sense of feeling selection screen in FIG. The image display unit 591 displays a retouch image obtained by retouch shooting. The retouching image here is an image in which a plurality of users are photographed together. In the example of FIG. 31, it is an image in which two users are photographed, but in reality, three or more users are photographed. It is an image.

画像表示部591の下方には、選択部592が表示される。選択部592の中央には、撮影処理により得られた5枚の撮影画像それぞれに写る利用者の顔の盛れ感を選択するためのボタン521−1乃至521−3、OKボタン522、および盛れ感OFFボタン523が設けられる。   A selection unit 592 is displayed below the image display unit 591. In the center of the selection unit 592, buttons 521-1 to 521-3 for selecting the feeling of the user's face appearing in each of the five photographed images obtained by the photographing process, the OK button 522, and the feeling of feeling rich. An OFF button 523 is provided.

ボタン521−1乃至521−3のいずれかが選択されると、画像処理部324は、画像表示部591に表示されているレタッチ用画像に写る利用者の顔に対して、選択されたボタンに対応する盛れ感を与える画像処理を施す。利用者は、画像表示部591に表示されているレタッチ用画像に写る利用者の顔の変化を確認することで、所望の盛れ感を選択することができる。   When any one of the buttons 521-1 to 521-3 is selected, the image processing unit 324 changes the selected button to the user's face shown in the retouching image displayed on the image display unit 591. Image processing that gives a corresponding feeling of prosperity is performed. The user can select a desired feeling of swelling by checking the change of the user's face that appears in the retouching image displayed on the image display unit 591.

ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下されることで、撮影画像それぞれに写る利用者全ての顔領域全体に対する、盛れ感を与える画像処理の度合いが決定され、撮影画像それぞれに写る利用者全ての顔領域全体に対して、決定された度合いの画像処理が施される。   Degree of image processing that gives a sense of vigor to the entire face area of all users in each captured image when the OK button 522 is pressed with any of the buttons 521-1 to 521-3 selected Is determined, and the determined degree of image processing is performed on the entire face area of all users in each captured image.

すなわち、人数コースとして大人数用コースが選択された場合、それぞれのレタッチ画面において選択された度合いの画像処理が、画像処理部324によって、撮影画像に写る利用者全ての顔に一括して施される。   That is, when a course for a large number of people is selected as the number of people course, the image processing of the degree selected on each retouch screen is performed on the faces of all the users in the captured image by the image processing unit 324 in a lump. The

なお、この場合においても、画像処理部324は、認識部314による認識に成功した利用者の顔に対して、レタッチ画面において選択された度合いの画像処理を施す。したがって、ライブビュー画像において、複数の利用者のうちのいずれかの顔の識別に失敗した場合、対応する撮影により得られた撮影画像において識別に失敗した利用者の顔領域には、選択された度合いにかかわらず画像処理は施されない。   Even in this case, the image processing unit 324 performs image processing of the degree selected on the retouch screen on the face of the user who has been successfully recognized by the recognition unit 314. Therefore, in the live view image, when identification of any face among a plurality of users fails, the face area of the user who has failed identification in the captured image obtained by the corresponding imaging is selected. Image processing is not performed regardless of the degree.

さて、図26のフローチャートに戻り、上述したそれぞれのレタッチ画面の表示が終了すると、処理はステップS75に進む。   Now, returning to the flowchart of FIG. 26, when the display of each of the above-described retouch screens ends, the process proceeds to step S75.

ステップS75において、表示制御部321は、タブレット内蔵モニタ141に名前入力画面を表示させる。   In step S75, the display control unit 321 displays a name input screen on the tablet built-in monitor 141.

名前入力画面は、利用者による名前の入力に用いられる画面である。名前入力画面には、名前の入力に用いることが可能なひらがなを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。   The name input screen is a screen used for inputting a name by the user. On the name input screen, a button for selecting hiragana that can be used for inputting a name and a text box for displaying a character string corresponding to the selected button are displayed.

名前入力画面において、名前の入力が終了すると、処理はステップS76に進む。   When the input of the name is completed on the name input screen, the process proceeds to step S76.

ステップS76において、表示制御部321は、タブレット内蔵モニタ141に編集画面を表示させる。   In step S76, the display control unit 321 causes the tablet built-in monitor 141 to display an editing screen.

編集画面は、編集対象となる撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)が表示される。   The editing screen is a screen used for editing a captured image to be edited. On the editing screen, a captured image to be edited and various editing tools (compositing images) such as a stamp image and a pen image used for editing are displayed.

利用者は、タッチペン132A,132Bを用いて、スタンプ画像やペン画像などを編集対象となる撮影画像上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成が行われる。   The user uses the touch pens 132A and 132B to superimpose a stamp image, a pen image, or the like at a predetermined position on the photographic image to be edited, thereby synthesizing the synthesis image with the photographic image to be edited. Is called.

すなわち、ステップS77において、編集制御部322は、利用者の操作に応じて、編集対象となる撮影画像に編集を施す。   That is, in step S77, the editing control unit 322 edits the captured image to be edited in accordance with a user operation.

編集作業が終了すると、ステップS78において、表示制御部321は、タブレット内蔵モニタ141に分割数選択画面を表示させる。   When the editing operation is completed, in step S78, the display control unit 321 displays a division number selection screen on the tablet built-in monitor 141.

分割数選択画面は、最終的に出力されるシール紙の分割数やシールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚の写真シールに配置される編集画像(撮影画像)の枚数や位置、大きさを決定するレイアウト(配置パターン)である。ここで、利用者により選択されたシールレイアウトに従って編集画像が配置されてなる画像、すなわち、シール紙に印刷されて最終的に出力される画像をレイアウト画像という。   The division number selection screen is a screen used to select the number of divisions of sticker paper to be finally output and the sticker layout. The sticker layout is a layout (placement pattern) that determines the number, position, and size of edited images (photographed images) placed on one photo sticker. Here, an image in which an edited image is arranged according to a sticker layout selected by the user, that is, an image printed on sticker paper and finally output is called a layout image.

したがって、分割数選択画面には、例えば5枚の撮影画像それぞれにレタッチ機能により画像処理が施され、さらに編集が施された編集画像が、異なるシールレイアウトで配置されたレイアウト画像が複数表示される。   Accordingly, on the division number selection screen, for example, each of five photographed images is subjected to image processing by the retouch function, and a plurality of layout images in which edited images are arranged in different seal layouts are displayed. .

分割数選択画面において、レイアウト画像のいずれかが選択されると、処理はステップS79に進む。   When one of the layout images is selected on the division number selection screen, the process proceeds to step S79.

ステップS79において、表示制御部321は、タブレット内蔵モニタ141に携帯送信用画像選択画面を表示させる。   In step S79, the display control unit 321 displays the portable transmission image selection screen on the tablet built-in monitor 141.

携帯送信用画像選択画面は、利用者の所有する携帯端末に送信するための携帯送信用画像の選択に用いられる画面である。携帯送信用画像選択画面には、5枚の撮影画像に加え、そのうちのいずれかに所定の編集が施された、携帯送信専用の携帯専用画像が表示される。   The mobile transmission image selection screen is a screen used for selecting a mobile transmission image to be transmitted to a mobile terminal owned by the user. On the mobile transmission image selection screen, in addition to the five photographed images, a mobile-only image dedicated to mobile transmission, which has been subjected to predetermined editing, is displayed.

携帯送信用画像選択画面において、画像のいずれかが選択されると、処理はステップS80に進む。   When any of the images is selected on the portable transmission image selection screen, the process proceeds to step S80.

ステップS80において、表示制御部321は、タブレット内蔵モニタ141にアドレス入力画面を表示させる。   In step S80, the display control unit 321 displays an address input screen on the tablet built-in monitor 141.

アドレス入力画面は、利用者の所有する携帯端末のメールアドレスの入力に用いられる画面である。アドレス入力画面には、メールアドレスに用いることが可能なアルファベットや記号、携帯電話機のキャリアを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。   The address input screen is a screen used for inputting a mail address of a mobile terminal owned by the user. On the address input screen, a text box for displaying alphabets and symbols that can be used for the mail address, a button for selecting a carrier of the mobile phone, and a character string corresponding to the selected button is displayed.

アドレス入力画面において、メールアドレスの入力が終了すると、処理はステップS81に進む。   When the input of the e-mail address is completed on the address input screen, the process proceeds to step S81.

ステップS81において、編集処理部302は、通信部203を制御することで、インターネットなどのネットワークを介して、利用者により選択された携帯送信用画像を、利用者により入力されたメールアドレスとともに、サーバに送信する。サーバは、例えば写真シール作成装置1の製造メーカにより管理される。   In step S <b> 81, the editing processing unit 302 controls the communication unit 203 so that the portable transmission image selected by the user via the network such as the Internet is sent to the server along with the mail address input by the user. Send to. The server is managed by, for example, the manufacturer of the photo sticker creating apparatus 1.

サーバは、利用者により入力されたメールアドレス宛てに、携帯端末がサーバにアクセスするのに必要なURL(Uniform Resource Locator)が記載されたメールを送信する。そして、そのURLに基づいて、利用者が所有する携帯端末が、ネットワークを介してサーバにアクセスすることで、サーバに送信された携帯送信用画像が携帯端末に提供される。   The server transmits a mail describing a URL (Uniform Resource Locator) necessary for the mobile terminal to access the server to the mail address input by the user. Then, based on the URL, the mobile terminal owned by the user accesses the server via the network, so that the mobile transmission image transmitted to the server is provided to the mobile terminal.

そして、ステップS82において、編集処理部302は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、編集部209のタブレット内蔵モニタ141に案内画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。   In step S82, the editing processing unit 302 guides the user who has finished the editing work to move to the print waiting space A3. Guidance on the movement to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 141 of the editing unit 209 or by outputting sound from the speaker 231.

以上のようにして、編集処理が行われる。   The editing process is performed as described above.

以上の処理によれば、ライブビュー画像における顔の認識に成功した撮影画像に対して、レタッチ画面において選択された度合いの画像処理が施されるようになる。したがって、より確実に撮影画像に対して適切な画像処理が施されるので、利用者にとってより満足度の高い画像を提供することが可能となる。   According to the above processing, the image processing of the degree selected on the retouch screen is performed on the captured image in which the face has been successfully recognized in the live view image. Therefore, since appropriate image processing is performed on the captured image more reliably, it is possible to provide an image with higher satisfaction for the user.

なお、上述した処理において、全ての撮影時のライブビュー画像において、顔の認識に失敗した場合には、全てのレタッチ画面の表示がスキップされるようにしてもよい。   Note that, in the above-described processing, when face recognition fails in all live view images at the time of shooting, display of all retouch screens may be skipped.

また、レタッチ画面において、レタッチ用画像に加えて、撮影画像も表示するようにした場合、顔の認識に成功したライブビュー画像に対応する撮影画像のみ表示されるようにし、顔の認識に失敗したライブビュー画像に対応する撮影画像は表示されないようにしてもよい。すなわち、全ての撮影時のライブビュー画像において、顔の認識に成功した場合、レタッチ画面には、全ての撮影画像が表示されるようになる。   In addition, when a retouched image is displayed in addition to a retouching image on the retouch screen, only the captured image corresponding to the live view image that has been successfully recognized is displayed, and face recognition has failed. The captured image corresponding to the live view image may not be displayed. That is, in the live view images at the time of shooting, when the face recognition is successful, all the shot images are displayed on the retouch screen.

<編集画面の構成>
ここで、上述した編集処理のステップS76において表示される編集画面の構成について説明する。
<Configuration of edit screen>
Here, the configuration of the editing screen displayed in step S76 of the editing process described above will be described.

図32は、タブレット内蔵モニタ141に表示される編集画面の例を示す図である。   FIG. 32 is a diagram illustrating an example of an editing screen displayed on the tablet built-in monitor 141.

編集画面は、基本的に、縦長四角形の領域である背景選択領域610の左右に領域が形成されることによって構成される。背景選択領域610の上には、編集作業に割り当てられた制限時間の残り時間などが表示される。   The editing screen is basically configured by forming areas on the left and right sides of the background selection area 610 that is a vertically long rectangular area. On the background selection area 610, the remaining time of the time limit assigned to the editing work is displayed.

背景選択領域610は、背景画像の選択に用いられるボタンなどの表示領域である。背景選択領域610は、編集画面が表示されている間、常時表示される。利用者は、編集画面を用いて編集を行っている間、背景画像の選択をいつでも行うことができる。すなわち、利用者は、編集作業において背景画像を選択することができるので、編集対象となる撮影画像に写る自身の表情やポーズなどに最適な背景画像を見つけ出すことができる。   The background selection area 610 is a display area such as a button used for selecting a background image. The background selection area 610 is always displayed while the editing screen is displayed. The user can select a background image at any time while editing using the editing screen. That is, since the user can select a background image in the editing operation, the user can find an optimal background image for his / her facial expression or pose in the captured image to be edited.

背景選択領域610の左側の領域(以下、単に左側の領域という)は、タブレット内蔵モニタ141に向かって左側にいる利用者により用いられる領域である。背景選択領域610の右側の領域(以下、単に右側の領域という)は、タブレット内蔵モニタ141に向かって右側にいる利用者により用いられる領域である。   The area on the left side of the background selection area 610 (hereinafter simply referred to as the left area) is an area used by the user on the left side of the tablet built-in monitor 141. The area on the right side of the background selection area 610 (hereinafter simply referred to as the right area) is an area used by the user on the right side of the tablet built-in monitor 141.

すなわち、背景選択領域610の表示に対しては、タッチペン142A、タッチペン142Bのいずれのタッチペンを用いた操作も受け付けられるが、左側の領域の表示に対しては、タッチペン142Aを用いた操作のみが受け付けられ、右側の領域の表示に対しては、タッチペン142Bを用いた操作のみが受け付けられる。   That is, for the display of the background selection area 610, an operation using either the touch pen 142A or the touch pen 142B is accepted, but for the display of the left area, only an operation using the touch pen 142A is accepted. For the display of the right area, only an operation using the touch pen 142B is accepted.

タブレット内蔵モニタ141に向かって左側にいる利用者がタッチペン142Aを用いて背景選択領域610のボタンを押下し、背景画像を選択した場合、その操作は、左側の領域の表示を用いて行っている編集に反映される。   When the user on the left side facing the tablet built-in monitor 141 presses the button in the background selection area 610 using the touch pen 142A and selects a background image, the operation is performed using the display in the left area. Reflected in editing.

一方、右側にいる利用者がタッチペン142Bを用いて背景選択領域610のボタンを押下し、背景画像を選択した場合、その操作は、右側の領域の表示を用いて行っている編集に反映される。   On the other hand, when the user on the right side presses the button in the background selection area 610 using the touch pen 142B and selects a background image, the operation is reflected in the editing performed using the display in the right area. .

左側の領域と右側の領域には、主な構成が左右対称に設けられる。なお、図32の各領域を囲む破線は画面に実際に表示されるものではない。   The main structure is provided symmetrically in the left area and the right area. Note that the broken lines surrounding each area in FIG. 32 are not actually displayed on the screen.

左側の領域の中央上方のサムネイル表示領域611Lは、撮影画像を表すサムネイル画像の表示領域である。サムネイル画像は、例えば撮影画像をそれぞれ縮小することによって生成される。利用者(タブレット内蔵モニタ141に向かって左側にいる利用者)は、サムネイル表示領域611Lに表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。   A thumbnail display area 611L at the upper center of the left area is a display area for thumbnail images representing captured images. The thumbnail image is generated, for example, by reducing each captured image. A user (a user on the left side of the tablet built-in monitor 141) selects a captured image to be edited by selecting a thumbnail image displayed in the thumbnail display area 611L.

図32の例においては、5枚の撮影画像を表すサムネイル画像P21乃至P25がサムネイル表示領域611Lに並んで表示されている。また、左端のサムネイル画像P21が選択されることによって、1枚目の撮影画像が編集対象とされている。   In the example of FIG. 32, thumbnail images P21 to P25 representing five photographed images are displayed side by side in the thumbnail display area 611L. Further, by selecting the leftmost thumbnail image P21, the first photographed image is to be edited.

なお、サムネイル画像P21乃至P23はアップ画像のサムネイル画像であり、サムネイル画像P24,P25は全身画像のサムネイル画像である。   The thumbnail images P21 to P23 are thumbnail images of up images, and the thumbnail images P24 and P25 are thumbnail images of whole body images.

左側の領域の略中央に大きく形成された編集領域612Lは、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン142Aを用いて編集ツールを選択し、編集領域612Lに表示された撮影画像の編集を行うことができる。   An editing area 612L formed large in the approximate center of the left area is a display area for a captured image selected as an editing target. The user can edit the captured image displayed in the editing area 612L by selecting an editing tool using the touch pen 142A.

編集領域612Lの左側には、編集の見本を表示するときに操作されるボタン613Lと、上述した携帯専用画像を作成するときに操作されるボタン614Lが表示される。   On the left side of the editing area 612L, a button 613L that is operated when displaying a sample for editing and a button 614L that is operated when creating the above-described portable-only image are displayed.

編集領域612Lの下には、横長長方形の領域である編集パレット615Lが表示される。編集パレット615Lは、ペンツール、スタンプツールなどの各種の編集ツール(コンテンツ)の選択に用いられるボタンなどが表示される領域である。   Below the editing area 612L, an editing palette 615L that is a horizontally long rectangular area is displayed. The edit palette 615L is an area in which buttons used for selecting various editing tools (contents) such as a pen tool and a stamp tool are displayed.

編集パレット615Lの上には、編集ツールのカテゴリの選択に用いられる6種類のタブが表示される。編集パレット615Lの右には、編集ツールの種類の選択に用いられる6種類のタブが表示される。利用者は、編集パレット615Lに表示させる編集ツールの種類とカテゴリを、これらのタブを用いて切り替えることができる。   On the editing palette 615L, six types of tabs used for selecting the category of the editing tool are displayed. On the right side of the editing palette 615L, six types of tabs used for selecting the type of editing tool are displayed. The user can switch the types and categories of editing tools displayed on the editing palette 615L using these tabs.

編集領域612Lの右側には修正ツール選択領域616Lが形成される。修正ツール選択領域616Lは、消しゴムツールの選択に用いられるボタン、1つ前または1つ後の作業に戻るときに操作される「進む」、「戻る」ボタン、既に入力済みの編集を全てキャンセルし、編集前の状態に戻すときに操作される「最初から」ボタンなどが縦に並べて表示される領域である。消しゴムツールは、入力した編集を消すときに用いられるツールである。修正ツール選択領域616Lには「1set戻る」ボタンも表示される。「1set戻る」ボタンを押すことにより、所定の時間の間に入力された編集をまとめて取り消すことができる。   A correction tool selection area 616L is formed on the right side of the editing area 612L. The correction tool selection area 616L cancels all of the buttons used for selecting the eraser tool, the “forward” and “return” buttons operated when returning to the previous, next, or subsequent work, and the already input edits. This is an area in which “from the start” button, etc., which are operated when returning to the state before editing, are displayed side by side. The eraser tool is a tool used when erasing input editing. In the correction tool selection area 616L, a “return 1 set” button is also displayed. By pressing the “return 1 set” button, edits input during a predetermined time can be canceled together.

修正ツール選択領域616Lの上には、編集処理を終了するときに操作される終了ボタン617Lが表示される。   On the correction tool selection area 616L, an end button 617L that is operated when the editing process is ended is displayed.

タブレット内蔵モニタ141に向かって右側にいる利用者が使う右側の領域には、上述した左側の領域の構成と同じ構成が、位置を対称にして配置される。図32の例においては、サムネイル表示領域611Rからサムネイル画像P22を選択することによって、2枚目の撮影画像が編集対象とされている。   In the right side area used by the user on the right side facing the tablet built-in monitor 141, the same configuration as that of the left side area described above is arranged symmetrically. In the example of FIG. 32, by selecting the thumbnail image P22 from the thumbnail display area 611R, the second photographed image is to be edited.

ところで、編集画面においても、ライブビュー画像における顔の認識結果に応じた表示がなされる。   By the way, also on the editing screen, display according to the face recognition result in the live view image is performed.

具体的には、図32の編集画面の左側の領域において選択されているサムネイル画像P21について、対応するライブビュー画像において、認識部314による認識に失敗した旨のメッセージを含む吹き出し画像B61が表示されている。   Specifically, for the thumbnail image P21 selected in the left area of the editing screen in FIG. 32, a balloon image B61 including a message indicating that recognition by the recognition unit 314 has failed is displayed in the corresponding live view image. ing.

このようなサムネイル画像、すなわち、顔の認識に失敗したライブビュー画像に対応する撮影画像が、編集対象として選択されている場合、図32の編集画面の左側の領域に示されるように、編集パレット615Lには、認識に失敗して検出されなかった顔または顔パーツを隠すことが可能なスタンプツールが表示されるようになる。例えば、図32の例では、編集パレット615Lの左下隅に、顔領域を隠すことが可能なハート型のスタンプ画像や、目領域を隠すことが可能なサングラスを模したスタンプ画像が表示される。   When such a thumbnail image, that is, a captured image corresponding to a live view image for which face recognition has failed, is selected as an editing target, as shown in the left area of the editing screen in FIG. In 615L, a stamp tool capable of hiding a face or a face part that has not been detected due to recognition failure is displayed. For example, in the example of FIG. 32, a heart-shaped stamp image capable of hiding the face area and a stamp image imitating sunglasses capable of hiding the eye area are displayed in the lower left corner of the editing palette 615L.

一方、顔の認識に成功したライブビュー画像に対応する撮影画像が、編集対象として選択されている場合、図32の編集画面の右側の領域に示されるように、編集パレット615Rには、検出された顔や顔パーツの位置に応じて合成されるスタンプツールが表示されるようになる。例えば、図32の例では、編集パレット615Rに、利用者の選択操作のみで、撮影画像に写る人物の頭や目、鼻、口などの各位置に自動的に合成される、眼鏡を模したスタンプ画像や、動物の耳、鼻、口を模したスタンプ画像が表示される。   On the other hand, when a captured image corresponding to a live view image that has been successfully recognized as a face is selected as an editing target, it is detected in the editing palette 615R as shown in the right area of the editing screen in FIG. A stamp tool that is combined according to the position of the face or face part is displayed. For example, in the example of FIG. 32, the editing palette 615R imitates glasses that are automatically combined with each position such as the head, eyes, nose, and mouth of a person shown in the photographed image only by the user's selection operation. A stamp image and a stamp image simulating an animal's ear, nose, and mouth are displayed.

<変形例>
以下においては、上述した実施形態の変形例について説明する。
<Modification>
Below, the modification of embodiment mentioned above is demonstrated.

(撮影処理に関する変形例)
全身撮影が行われる際、ライブビュー画像において、利用者の全身が認識されるようにしてもよい。例えば、距離画像センサによって取得される距離画像から人物マスク画像を生成することで、利用者の全身が認識されるものとする。
(Variation related to shooting process)
When whole body imaging is performed, the user's whole body may be recognized in the live view image. For example, it is assumed that a user's whole body is recognized by generating a person mask image from a distance image acquired by a distance image sensor.

全身撮影により得られる全身画像に対して、被写体の脚を細く長くみせるための画像処理(脚長処理)が施される場合、左右の脚が交差していたり、膝が曲がっていたりすると、脚長処理が適切に施されないおそれがある。   When image processing (leg length processing) is performed on a whole body image obtained by whole body photography to make the subject's legs slender and long, leg length processing occurs when the left and right legs cross or the knee is bent. May not be applied properly.

そこで、全身撮影が行われる際、ライブビュー画像において、利用者の全身が認識されるようにし、左右の脚が交差していることや、膝が曲がっていることが検知されたときに、左右の脚をまっすぐ伸ばすよう案内する表示や音声出力がなされるようにする。これにより、脚長処理が適切に施された全身画像を提供することができる。   Therefore, when whole body photography is performed, the whole body of the user is recognized in the live view image, and when it is detected that the left and right legs are crossed or the knee is bent, Display and audio output to guide the legs to straighten out. Thereby, the whole body image to which leg length processing was performed appropriately can be provided.

また、ライブビュー画像において検知された顔について笑顔度を測定し、笑顔度が所定の値を超えたときに、その顔の部分に、案内表示としての枠が表示されるようにしてもよい。   Further, the smile level of the face detected in the live view image may be measured, and when the smile level exceeds a predetermined value, a frame as a guidance display may be displayed on the face portion.

例えば、撮影に関するコースとして、上述した写真シール作成ゲームが提供されるプリコースと、証明写真の撮影が行われる証明写真コースとを有する写真シール機において、証明写真コースが選択された場合には、笑顔で写ることは好ましくない。そこで、ライブビュー画像において検知された顔について笑顔度を測定し、笑顔度が所定の値を下回ったときに、その顔の部分に、案内表示としての枠が表示されるようにしてもよい。   For example, in a photo sticker having a pre-course where the above-mentioned photo sticker creation game is provided and an ID photo course where ID photo shooting is performed as a course related to shooting, when the ID photo course is selected, It is not desirable to photograph with a smile. Therefore, the smile level may be measured for the face detected in the live view image, and when the smile level falls below a predetermined value, a frame as a guidance display may be displayed on the face portion.

さらに、撮影に関するコースとして、男女ペアの利用者に向けたカップルコースを設けるようにしてもよい。カップルコースが選択された場合、ライブビュー画像において、利用者同士の距離に基づいて密着度合いを数値化し、その値をライブビュー画像に表示するとともに、その値が所定値を下回った場合には、利用者同士がより近づくよう促す案内表示がなされるようにしてもよい。   Furthermore, a couple course for users of male and female pairs may be provided as a course related to photographing. When a couple course is selected, in the live view image, the degree of adhesion is digitized based on the distance between the users, and the value is displayed on the live view image, and when the value falls below a predetermined value, A guidance display that prompts the users to approach each other may be displayed.

また、ライブビュー画像において、顔の大きさを検知するようにし、顔の大きさが所定の大きさを超える場合には、案内表示として、カメラ111から遠ざかるよう立ち位置の変更を促す表示がなされるようにしてもよい。逆に、顔の大きさが所定の大きさを下回る場合には、案内表示として、カメラ111に近づくよう立ち位置の変更を促す表示がなされるようにしてもよい。   Further, in the live view image, the size of the face is detected, and when the size of the face exceeds a predetermined size, a display prompting the user to change the standing position to move away from the camera 111 is displayed as a guidance display. You may make it do. Conversely, when the face size is smaller than a predetermined size, a display prompting the user to change the standing position so as to approach the camera 111 may be displayed as the guidance display.

なお、上述した撮影処理において、レタッチ撮影および5回の通常撮影に加えて、携帯端末に送信するためだけの画像として、例えば動画像を生成する撮影が行われるようにしてもよい。ここで、動画像を生成する撮影が行われている間においても、顔の認識に成功するように利用者を促す案内表示が行われるようにすることができる。   In the above-described shooting process, in addition to the retouch shooting and the five normal shootings, for example, shooting for generating a moving image may be performed as an image only to be transmitted to the mobile terminal. Here, even during shooting for generating a moving image, guidance display for prompting the user to succeed in face recognition can be performed.

また、以上においては、図18のライブビュー画像表示処理は、アップ撮影および全身撮影のいずれが行われる際にも実行されるものとしたが、画像処理が施された後の仕上がりを確認するのが容易なアップ画像が得られるアップ撮影が行われる際のみに実行されるようにしてもよい。   In the above description, the live view image display process of FIG. 18 is executed when either the up-shooting or the whole-body shooting is performed, but the finish after the image processing is performed is confirmed. However, it may be executed only when up-shooting is performed to obtain an easy-up image.

(編集処理に関する変形例)
図32の編集画面においては、5回の撮影により得られた5枚の撮影画像が全て編集対象として選択できるものとしたが、編集処理の冒頭に、5枚の撮影画像の中から編集対象とする撮影画像を選択させるための選択画面が表示されるようにしてもよい。
(Modifications related to editing processing)
In the editing screen of FIG. 32, it is assumed that all five shot images obtained by five shots can be selected as edit targets. However, at the beginning of the editing process, the edit target is selected from the five shot images. A selection screen for selecting a captured image to be displayed may be displayed.

この場合、ライブビュー画像において顔の認識に失敗して行われた撮影により得られた撮影画像のみが、その選択画面に表示されるようにしてもよい。これにより、より確実に撮影画像に対して適切な画像処理を施すことができるようになる。   In this case, only a photographed image obtained by photographing performed with face recognition failure in the live view image may be displayed on the selection screen. As a result, it is possible to more appropriately perform appropriate image processing on the captured image.

また、ライブビュー画像において顔の認識に失敗して行われた撮影により得られた撮影画像については、選択画面において選択させることなく、編集対象から除外されるようにしてもよい。   In addition, a photographed image obtained by photographing performed when face recognition has failed in a live view image may be excluded from editing targets without being selected on the selection screen.

この場合、編集対象となる撮影画像の枚数が少なくなるので、利用者が編集作業にかかる時間をもてあます可能性がある。そこで、除外された撮影画像に代えて顔の認識に成功して行われた撮影により得られた撮影画像のコピーが、編集対象として提供されるようにしてもよい。   In this case, since the number of captured images to be edited is reduced, there is a possibility that the user may have time for editing work. Therefore, instead of the excluded photographed image, a copy of the photographed image obtained by photographing that has been successfully performed for face recognition may be provided as an editing target.

さらに、1枚の撮影画像において、利用者の一方がライブビュー画像における顔認識(目検出)に成功し、利用者の他方がライブビュー画像における顔認識(目検出)に失敗している場合には、それぞれの利用者で、レタッチ画面において選択可能な画像処理の内容や、画像処理の度合いを異ならせるようにしてもよい。   Furthermore, when one of the users succeeds in face recognition (eye detection) in the live view image and one of the users fails in face recognition (eye detection) in the live view image in one photographed image. The image processing content that can be selected on the retouch screen and the degree of image processing may be different for each user.

例えば、レタッチ画面において、顔認識に成功している利用者については、目の大きさや形状を変える画像処理の度合いを選択させ、顔認識に失敗している利用者については、キャッチライトの色や大きさを変える画像処理の度合いを選択させるようにする。なお、顔認識(目検出)に失敗している利用者については、目の輪郭点の抽出に失敗しているものの、瞳に写るキャッチライトの輪郭点の抽出には成功していることを前提とする。   For example, on the retouch screen, for users who have succeeded in face recognition, the user selects the degree of image processing to change the size and shape of the eyes, and for users who have failed face recognition, The degree of image processing for changing the size is selected. For users who have failed face recognition (eye detection), it is assumed that the extraction of the contour point of the catchlight in the pupil has succeeded, although the extraction of the eye contour point has failed. And

(印刷処理に関する変形例)
ライブビュー画像において顔の認識に失敗して行われた撮影により得られた撮影画像は、印刷対象から除外されるようにしてもよい。
(Modifications related to printing)
A photographed image obtained by photographing performed with face recognition failure in the live view image may be excluded from the print target.

また、ライブビュー画像において顔の認識に失敗して行われた撮影により得られた撮影画像を印刷対象に含める場合であっても、レイアウト画像において、最も小さいサイズの画像として配置されるようにしたり、利用者の目につきにくい位置に配置されるようにする。ここで、利用者の目につきにくい位置とは、例えば、レイアウト画像全体の右下隅などとされる。   In addition, even in the case where a captured image obtained by shooting that was performed when face recognition failed in the live view image is included in the print target, the layout image may be arranged as the smallest size image. It is arranged so that it is difficult for the user to see. Here, the position that is not easily noticeable by the user is, for example, the lower right corner of the entire layout image.

レイアウト画像における画像の配置を決定するシールレイアウトの中には、利用者に選択された1枚の編集画像(撮影画像)を、他の画像より大きいサイズで配置させるものがある。この場合、ライブビュー画像において顔の認識に失敗して行われた撮影により得られた撮影画像は、その選択対象から除外されるようにしてもよい。   Among seal layouts that determine the layout of images in a layout image, there is a layout in which one edited image (photographed image) selected by the user is arranged in a size larger than other images. In this case, a photographed image obtained by photographing performed with face recognition failure in the live view image may be excluded from the selection target.

(携帯送信用画像に関する変形例)
ライブビュー画像において顔の認識に失敗して行われた撮影により得られた撮影画像は、携帯送信用画像の選択対象から除外されるようにしてもよい。
(Modifications related to images for mobile transmission)
A photographed image obtained by photographing performed when face recognition has failed in the live view image may be excluded from the selection targets of the images for mobile transmission.

また、ライブビュー画像において顔の認識に失敗して行われた撮影により得られた撮影画像を携帯送信用画像の選択対象に含める場合には、その画像を、携帯端末において拡大表示できないようにしたり、ぼかしやフィルタ加工などの画像処理が施されるようにする。これにより、検出されなかった顔や目の部分を、利用者にはっきりと確認させないようにすることができる。   In addition, when a captured image obtained by shooting performed with face recognition failure in the live view image is included in the selection target of the image for mobile transmission, the image cannot be displayed in an enlarged manner on the mobile terminal. Image processing such as blurring and filtering is performed. As a result, it is possible to prevent the user from clearly confirming the face and eyes that were not detected.

<他の実施の形態>
上述したように、ライブビュー画像において、顔のサイズが所定サイズを下回る場合には、案内表示として、カメラ111に近づくよう立ち位置の変更を促す表示がなされるようにしてもよいものとした。これにより、利用者の顔が大きくしっかりと写る撮影画像が得られる。
<Other embodiments>
As described above, when the size of the face is smaller than the predetermined size in the live view image, a display that prompts the user to change the standing position so as to approach the camera 111 may be displayed as the guidance display. As a result, a photographed image can be obtained in which the user's face is large and firm.

一方で、写真シール作成装置1の主な利用者である2人組の利用者が撮影作業を行う際、利用者同士の顔が離れていると、被写体のバランスの悪い撮影画像が得られてしまう。   On the other hand, when a pair of users who are the main users of the photo sticker creating apparatus 1 perform a shooting operation, if the faces of the users are separated from each other, a captured image with a poor object balance can be obtained. .

そこで、以下においては、利用者の顔が大きくしっかりと写り、かつ、被写体のバランスのよい撮影画像を得るための構成について説明する。   Therefore, in the following, a configuration for obtaining a photographed image in which the user's face is large and firm and the subject has a good balance will be described.

<撮影処理部の他の構成例>
図33は、撮影処理部301の他の構成例を示すブロック図である。
<Another configuration example of the imaging processing unit>
FIG. 33 is a block diagram illustrating another configuration example of the imaging processing unit 301.

図33の撮影処理部301は、表示制御部311、音声出力制御部312、撮影制御部313、認識部314、顔サイズ判定部711、および距離判定部712から構成される。   33 includes a display control unit 311, a sound output control unit 312, a shooting control unit 313, a recognition unit 314, a face size determination unit 711, and a distance determination unit 712.

図33の撮影制御部301において、図12の撮影制御部301と同様の機能を有する構成には、同一の符号を付すものとし、その説明は省略する。   In the imaging control unit 301 of FIG. 33, the same reference numerals are given to the components having the same functions as those of the imaging control unit 301 of FIG. 12, and description thereof is omitted.

顔サイズ判定部711は、ライブビュー画像に映る利用者の顔のサイズが所定サイズより小さいか否かを判定する。   The face size determination unit 711 determines whether the size of the user's face shown in the live view image is smaller than a predetermined size.

距離判定部712は、ライブビュー画像に映る複数の利用者の顔同士が所定距離より離れているか否かを判定する。   The distance determination unit 712 determines whether or not the faces of a plurality of users shown in the live view image are separated from each other by a predetermined distance.

<ライブビュー画像表示処理>
本実施の形態においては、撮影処理において、アップ撮影、上から全身撮影、および正面全身撮影の3種類の撮影が行われるものとする。上から全身撮影は、斜め上から見た利用者の全身が写る画像を得るための撮影であり、正面全身撮影は、正面から見た利用者の全身が写る画像を得るための撮影である。アップ撮影、上から全身撮影、および正面全身撮影はそれぞれ、カメラ111の撮影範囲とカメラアングル(カメラの俯角)が異なる。なお、それぞれの撮影において、実際にカメラアングルを変更する以外にも、撮影画像を、画像処理により、見かけ上(擬似的に)カメラの俯角をつけた画像に変換するようにしてもよい。
<Live view image display processing>
In the present embodiment, three types of shooting are performed in the shooting process: up shooting, whole body shooting from the top, and front whole body shooting. Whole body photography from the top is photography for obtaining an image showing the whole body of the user viewed obliquely from above, and front whole body photography is photography for obtaining an image showing the whole body of the user viewed from the front. The shooting range and camera angle (camera depression angle) of the camera 111 are different for the up-shooting, the whole body shooting from the top, and the frontal whole body shooting, respectively. In each shooting, in addition to actually changing the camera angle, the shot image may be converted into an image with an apparent (pseudo) camera depression angle by image processing.

また、複数回行われる撮影として、上述した3種類のうちのいずれの撮影が行われるかは、利用者により選択される撮影に関するコースの1つである撮影コースによって決定される。具体的には、撮影コースには、「アップのみ」コース、「アップ+上から全身」コース、「アップ+正面全身」コースの3コースが用意される。撮影コースとして「アップのみ」コースが選択されると、5回行われる通常撮影全てが、アップ撮影となる。撮影コースとして「アップ+上から全身」コースが選択されると、5回行われる通常撮影のうち、1乃至3回目の撮影がアップ撮影となり、4,5回目の撮影が上から全身撮影となる。また、撮影コースとして「アップ+正面全身」コースが選択されると、5回行われる通常撮影のうち、1乃至3回目の撮影がアップ撮影となり、4,5回目の撮影が正面全身撮影となる。   Also, which of the three types of shooting described above is performed as a plurality of shootings is determined by a shooting course that is one of the shooting-related courses selected by the user. Specifically, three courses of “up only” course, “up + whole body from above” course, and “up + front whole body” course are prepared as the shooting course. When the “up only” course is selected as the shooting course, all the normal shooting performed five times is the up shooting. When the “up + whole body from above” course is selected as the shooting course, the first to third shootings are up shooting and the fourth and fifth shootings are the whole shooting from the top among the normal shootings performed five times. . In addition, when the “up + front whole body” course is selected as the photographing course, the first to third photographings are up photographing and the fourth and fifth photographings are front whole body photographing among the normal photographing performed five times. .

ここでは、まず、図34のフローチャートを参照して、アップ撮影または上から全身撮影が行われる際のライブビュー画像表示処理について説明する。なお、ここでは、人数コースとして2人用コースが選択されていることを前提とする。   Here, first, live view image display processing when up-shooting or whole-body shooting is performed from above will be described with reference to the flowchart of FIG. Here, it is assumed that a course for two people is selected as the number of people course.

図34の処理は、1回の撮影が行われる毎に実行され、撮影毎に決められたポーズを利用者にとらせるためのナレーションが終了すると開始される。   The process of FIG. 34 is executed every time one image is taken, and is started when the narration for causing the user to take a pose determined for each image is completed.

ここで、図34のステップS111乃至S113における処理は、図18のステップS51乃至S53における処理と基本的に同様であるので、その説明は省略する。   Here, the processing in steps S111 to S113 in FIG. 34 is basically the same as the processing in steps S51 to S53 in FIG.

なお、ステップS112において表示されるライブビュー画像は、クロマキ処理によって抽出した、動画像を構成する各フレームにおける被写体領域の画像を、所定の背景画像に重ねることによって生成される。   Note that the live view image displayed in step S112 is generated by superimposing a subject area image in each frame constituting a moving image extracted by chroma processing on a predetermined background image.

また、ステップS113においては、このようにして生成されたライブビュー画像に対して、上述した顔認識の処理が実行される。   In step S113, the above-described face recognition process is performed on the live view image generated in this way.

そして、ステップS114において、顔サイズ判定部711は、認識部314による認識結果に基づいて、ライブビュー画像に映る利用者の顔のサイズが所定サイズより小さいか否かを判定する。具体的には、顔サイズ判定部711は、ライブビュー画像において認識された顔のうち、最も小さい顔のサイズが所定サイズより小さいか否かを判定する。   In step S114, the face size determination unit 711 determines whether the size of the user's face shown in the live view image is smaller than a predetermined size based on the recognition result by the recognition unit 314. Specifically, the face size determination unit 711 determines whether or not the smallest face size among the faces recognized in the live view image is smaller than a predetermined size.

例えば、図35に示されるように、ライブビュー画像721において2人の利用者の顔U1,U2が認識されたとする。まず、顔サイズ判定部711は、顔U1,U2それぞれについて、顔認識により検出された左右の目の中心同士の距離d1,d2を求める。次に、顔サイズ判定部711は、求めた距離d1,d2のうちの短い方(図35の例では距離d1)について、その距離が規定された距離(規定値)より短いか否かを判定することで、最も小さい顔(図35の例では顔U1)のサイズが所定サイズより小さいか否かを判定する。   For example, as shown in FIG. 35, it is assumed that the faces U1 and U2 of two users are recognized in the live view image 721. First, the face size determination unit 711 obtains distances d1 and d2 between the centers of the left and right eyes detected by face recognition for each of the faces U1 and U2. Next, the face size determination unit 711 determines whether the shorter one of the obtained distances d1 and d2 (distance d1 in the example of FIG. 35) is shorter than the specified distance (specified value). Thus, it is determined whether or not the size of the smallest face (face U1 in the example of FIG. 35) is smaller than a predetermined size.

なお、アップ撮影が行われる場合と、上から全身撮影が行われる場合とでは、上述の規定値は異なるものする。具体的には、上から全身撮影により得られた全身画像(上から全身画像)においては、アップ画像に比べて画像全体に対する顔の大きさが小さくなるため、上から全身撮影が行われる場合の規定値は、アップ撮影が行われる場合の規定値より小さい値をとる。   It should be noted that the above-mentioned specified value differs between when up-shooting is performed and when whole-body shooting is performed from above. Specifically, in the whole body image obtained from whole body imaging from above (the whole body image from above), the size of the face relative to the entire image is smaller than the up image, so the whole body imaging is performed from above. The specified value is smaller than the specified value when up-shooting is performed.

また、顔認識により検出された左右の目の中心同士の距離に基づいて、顔のサイズが所定サイズより小さいか否かを判定する以外にも、例えば、検出された左右の目の中心それぞれと鼻との距離や、口の左右の口角同士の距離、顔の輪郭点のうちの所定の2点同士の距離など、顔パーツや顔の所定の点同士の距離に基づいて、顔のサイズが所定サイズより小さいか否かを判定するようにしてもよい。また、検出された左右の目の面積の大きさや、顔の肌色部分の面積の大きさに基づいて、顔のサイズが所定サイズより小さいか否かを判定するようにしてもよい。   In addition to determining whether the size of the face is smaller than a predetermined size based on the distance between the centers of the left and right eyes detected by face recognition, for example, The size of the face is determined based on the distance between the face parts and the predetermined points on the face, such as the distance to the nose, the distance between the left and right mouth corners of the mouth, and the distance between two predetermined face contour points. You may make it determine whether it is smaller than predetermined size. Further, it may be determined whether or not the face size is smaller than a predetermined size based on the detected size of the left and right eyes and the size of the area of the skin color portion of the face.

さらに、顔サイズ判定部711は、認識部314により認識された顔の数にかかわらず、顔のサイズが所定サイズより小さいか否かを判定することもできる。具体的には、認識された顔の数が1つの場合には、単にその顔のサイズが所定サイズより小さいか否かが判定され、認識された顔の数が3つ以上の場合には、それらのうちの最も小さい顔のサイズが所定サイズより小さいか否かが判定されるようにする。   Further, the face size determination unit 711 can determine whether the face size is smaller than a predetermined size regardless of the number of faces recognized by the recognition unit 314. Specifically, when the number of recognized faces is one, it is determined whether or not the size of the face is smaller than a predetermined size. When the number of recognized faces is three or more, It is determined whether or not the size of the smallest face among them is smaller than a predetermined size.

なお、顔認識によって検出される顔の数に上限を設けるようにしてもよい。これにより、顔の誤検出の割合を低くすることができる。また逆に、顔認識によって検出される顔の数に下限を設けるようにしてもよい。   An upper limit may be set for the number of faces detected by face recognition. As a result, the ratio of erroneous face detection can be reduced. Conversely, a lower limit may be provided for the number of faces detected by face recognition.

また、以上においては、検出された顔のうちの最も小さい顔のサイズが所定サイズより小さいか否かが判定されるものとしたが、検出された顔のサイズの平均値(検出された左右の目の中心同士の距離の平均値)が所定サイズより小さいか否かが判定されるようにしてもよい。さらに、検出された顔のうちの最も大きい顔と最も小さい顔のサイズの差が所定値より大きいか否かによって、検出された顔のうちの最も小さい顔のサイズが所定サイズより小さいか否かが判定されるようにしてもよい。   In the above description, it is determined whether or not the size of the smallest face among the detected faces is smaller than a predetermined size, but the average value of the detected face sizes (the detected left and right It may be determined whether the average value of the distance between the centers of the eyes is smaller than a predetermined size. Further, whether or not the size of the smallest face among the detected faces is smaller than the predetermined size is determined depending on whether or not the difference between the size of the largest face and the smallest face among the detected faces is larger than a predetermined value. May be determined.

さて、ステップS114において、顔のサイズが所定サイズより小さいと判定されると、処理はステップS115に進む。   If it is determined in step S114 that the face size is smaller than the predetermined size, the process proceeds to step S115.

ステップS115において、顔サイズ判定部711は、複数回行われるアップ撮影または上から全身撮影において、顔のサイズが所定サイズより小さいと初めて判定されたか否かを判定する。   In step S115, the face size determination unit 711 determines whether or not it is determined for the first time that the face size is smaller than a predetermined size in the up-shooting or the whole-body shooting from above.

具体的には、撮影コースとして「アップのみ」コースが選択されている場合、1乃至5回目のアップ撮影において、顔のサイズが所定サイズより小さいと初めて判定されたか否かが判定される。また、撮影コースとして「アップ+上から全身」コースが選択されている場合、1乃至3回目のアップ撮影において、顔のサイズが所定サイズより小さいと初めて判定されたか否かが判定され、4,5回目の上から全身撮影において、顔のサイズが所定サイズより小さいと初めて判定されたか否かが判定される。さらに、撮影コースとして「アップ+正面全身」コースが選択されている場合、1乃至3回目のアップ撮影において、顔のサイズが所定サイズより小さいと初めて判定されたか否かが判定される。   Specifically, when the “up only” course is selected as the shooting course, it is determined whether or not it is determined for the first time that the face size is smaller than a predetermined size in the first to fifth up shooting. Further, when the “up + whole body from above” course is selected as the shooting course, it is determined whether or not it is determined for the first time that the face size is smaller than a predetermined size in the first to third up shots. In the whole body photographing from the fifth time, it is determined whether or not it is determined for the first time that the face size is smaller than the predetermined size. Further, when the “up + front whole body” course is selected as the shooting course, it is determined whether or not it is determined for the first time that the face size is smaller than the predetermined size in the first to third up-shooting.

ステップS115において、顔のサイズが所定サイズより小さいと初めて判定されたと判定された場合、処理はステップS116に進む。   If it is determined in step S115 that the face size is determined to be smaller than the predetermined size for the first time, the process proceeds to step S116.

ステップS116において、表示制御部311および音声出力制御部312は、利用者にカメラ111に近づくように促すガイダンスを出力する。   In step S <b> 116, the display control unit 311 and the audio output control unit 312 output guidance that prompts the user to approach the camera 111.

例えば、図36に示されるライブビュー表示画面において、画像表示領域431に表示されているライブビュー画像の下側に、利用者にカメラ111に近づくように促すモデル画像M71と吹き出し画像B71とが重畳表示される。吹き出し画像B71には、利用者にカメラ111に近づくように促すメッセージ「もっとカメラに近づいて〜」が表示されている。また、スピーカ223からは、モデル画像M71および吹き出し画像B71が表示されるのと同時に、吹き出し画像B71に表示されているメッセージの音声が出力される。   For example, in the live view display screen shown in FIG. 36, a model image M71 and a balloon image B71 that urge the user to approach the camera 111 are superimposed below the live view image displayed in the image display area 431. Is displayed. In the balloon image B71, a message “More closer to the camera” is displayed to prompt the user to approach the camera 111. In addition, the speaker 223 displays the model image M71 and the balloon image B71, and simultaneously outputs the voice of the message displayed in the balloon image B71.

このようなガイダンスにより、利用者は、カメラ111に近づくようにその立ち位置を変えて撮影に臨むことができる。   With such guidance, the user can change the standing position to approach the camera 111 and start shooting.

なお、カメラ111に近づくように促すガイダンスは、特定の利用者に向けたものではないものの、例えば2人の利用者のうちの1人がカメラ111から離れた位置に立っている場合、上述したガイダンスにより、その利用者をカメラ111に近づけさせることはできる。   Note that the guidance prompting the user to approach the camera 111 is not directed to a specific user, but for example, when one of the two users is standing away from the camera 111, the above-described guidance is given. The user can be brought closer to the camera 111 by the guidance.

一方、ステップS115において、顔のサイズが所定サイズより小さいと初めて判定されたと判定されなかった場合、すなわち、複数回行われるアップ撮影または上から全身撮影において、既に一度、カメラ111に近づくように促すガイダンスが出力されている場合には、再度、そのガイダンスは出力されることなく処理は終了する。   On the other hand, if it is not determined in step S115 that the face size is determined to be smaller than the predetermined size for the first time, that is, in up-shooting performed several times or whole body shooting from above, the camera 111 is already urged to approach once. If the guidance is output, the process ends without outputting the guidance again.

すなわち、撮影コースとして「アップのみ」コースが選択されている場合、そのゲーム内に行われる5回のアップ撮影において、一度、カメラ111に近づくように促すガイダンスが出力されていれば、それ以降のアップ撮影において、顔のサイズが所定サイズより小さいと判定された場合であっても、そのガイダンスは出力されない。   In other words, when the “up only” course is selected as the shooting course, guidance for prompting the user to approach the camera 111 is output once in five up shots performed in the game. Even when it is determined that the face size is smaller than the predetermined size in the up-shooting, the guidance is not output.

また、撮影コースとして「アップ+上から全身」コースが選択されている場合、そのゲーム内に行われる3回のアップ撮影において、一度、カメラ111に近づくように促すガイダンスが出力されていれば、それ以降のアップ撮影において、顔のサイズが所定サイズより小さいと判定された場合であっても、そのガイダンスは出力されない。同様に、そのゲーム内に行われる2回の上から全身撮影において、一度、カメラ111に近づくように促すガイダンスが出力されていれば、それ以降の上から全身撮影において、顔のサイズが所定サイズより小さいと判定された場合であっても、そのガイダンスは出力されない。   In addition, when the “up + whole body from the top” course is selected as the shooting course, if guidance for urging to approach the camera 111 is output once in the three up shots performed in the game, In subsequent up-shooting, even when it is determined that the face size is smaller than the predetermined size, the guidance is not output. Similarly, if the guidance that prompts the user to approach the camera 111 is output once in the whole body shooting from the top twice in the game, the face size is set to the predetermined size in the whole body shooting from the top after that. Even if it is determined to be smaller, the guidance is not output.

したがって、撮影コースとして「アップ+上から全身」コースが選択されている場合には、最大2回、このガイダンスが出力されることになる。なお、「アップ+上から全身」コースにおいて、3回のアップ撮影および2回の上から全身撮影を通して、一度、カメラ111に近づくように促すガイダンスが出力されていれば、それ以降の撮影において、そのガイダンスは出力されないようにしてもよい。これにより、ガイダンスが繰り返し出力されることによる利用者の不快感を抑えることができる。   Therefore, when the “up + up to whole body” course is selected as the shooting course, this guidance is output at most twice. In addition, in the “up + whole body from top” course, if guidance for urging to approach the camera 111 is output once through three up photographing and two whole body photographing, The guidance may not be output. Thereby, a user's discomfort by repeatedly outputting guidance can be suppressed.

さらに、撮影コースとして「アップ+正面全身」コースが選択されている場合、そのゲーム内に行われる3回のアップ撮影において、一度、カメラ111に近づくように促すガイダンスが出力されていれば、それ以降のアップ撮影において、顔のサイズが所定サイズより小さいと判定された場合であっても、そのガイダンスは出力されない。   Furthermore, when the “up + front whole body” course is selected as the shooting course, if guidance for prompting the user to approach the camera 111 is output once in three up shots performed in the game, In subsequent up-shooting, even when it is determined that the face size is smaller than the predetermined size, the guidance is not output.

このように、複数回行われるアップ撮影や上から全身撮影において、一度、カメラ111に近づくように促すガイダンスが出力されていれば、通常、利用者は、カメラ111に近づき適切な立ち位置へ移動するので、それ以降の撮影においては、ガイダンスが出力されなくとも、利用者は適切な立ち位置で撮影に臨むことができる。   As described above, in the case of up-shooting performed multiple times or whole-body shooting from above, once the guidance that prompts the user to approach the camera 111 is output, the user usually moves closer to the camera 111 and moves to an appropriate standing position. Therefore, in the subsequent shooting, even if guidance is not output, the user can start shooting at an appropriate standing position.

さて、ステップS114において、顔のサイズが所定サイズより小さくないと判定されると、処理はステップS117に進む。   If it is determined in step S114 that the face size is not smaller than the predetermined size, the process proceeds to step S117.

ステップS117において、距離判定部712は、認識部314による認識結果に基づいて、ライブビュー画像に映る利用者の顔同士が所定距離より離れているか否かを判定する。具体的には、距離判定部712は、ライブビュー画像において認識された顔の所定の点同士の距離に基づいて、顔同士が所定距離より離れているか否かを判定する。   In step S117, the distance determination unit 712 determines whether or not the user's faces shown in the live view image are separated from each other based on the recognition result by the recognition unit 314. Specifically, the distance determination unit 712 determines whether or not the faces are separated from the predetermined distance based on the distance between predetermined points of the faces recognized in the live view image.

例えば、図37に示されるように、ライブビュー画像721において2人の利用者の顔U1,U2が認識されたとする。まず、距離判定部712は、顔U1,U2それぞれについて、顔認識により検出された鼻の位置を顔の中心点P1,P2とする。次に、距離判定部712は、顔U1,U2それぞれ顔の中心点P1,P2同士の距離d3が規定値より長いか否かを判定することで、顔同士が所定距離より離れているか否かを判定する。   For example, as shown in FIG. 37, it is assumed that faces U1 and U2 of two users are recognized in the live view image 721. First, for each of the faces U1 and U2, the distance determination unit 712 sets the nose positions detected by face recognition as the face center points P1 and P2. Next, the distance determination unit 712 determines whether the distances d3 between the center points P1 and P2 of the faces U1 and U2 are longer than a predetermined value, thereby determining whether or not the faces are separated from each other by a predetermined distance. Determine.

ここでは、アップ撮影が行われる場合と、上から全身撮影が行われる場合とで、上述の規定値は同じであるものとするが、異なる値であってもよい。   Here, the above-mentioned specified value is assumed to be the same for the case where the up-shooting is performed and the case where the whole-body shooting is performed from above, but may be different values.

なお、図37の例では、検出された鼻の位置を顔の中心点とするものとしたが、例えば、検出された左右の目の中点を顔の中心点とするようにしてもよい。また、顔の中心点同士の距離が規定値より長いか否かを判定するようにしたが、それぞれの顔のサイズを数値化し、その平均値で顔の中心点同士の距離を割った値(顔の中心点同士の距離をそれぞれの顔の平均サイズで正規化した値)が規定値より長いか否かを判定するようにしてもよい。さらに、顔の中心点同士以外の任意の点同士の距離に基づいて、顔同士が所定距離より離れているかを判定するようにしてもよい。   In the example of FIG. 37, the detected nose position is set as the center point of the face. For example, the detected midpoint of the left and right eyes may be set as the center point of the face. In addition, it is determined whether the distance between the center points of the faces is longer than the specified value, but the size of each face is digitized, and a value obtained by dividing the distance between the center points of the face by the average value ( It may be determined whether the distance between the face center points is normalized by the average size of each face) is longer than a specified value. Furthermore, it may be determined whether the faces are separated from each other based on the distance between arbitrary points other than the center points of the faces.

さて、ステップS117において、顔同士が所定距離より離れていると判定されると、処理はステップS118に進む。   If it is determined in step S117 that the faces are separated from each other by a predetermined distance, the process proceeds to step S118.

ステップS118において、距離判定部712は、複数回行われるアップ撮影または上から全身撮影において、顔同士の距離が所定距離より離れていると初めて判定されたか否かを判定する。   In step S118, the distance determination unit 712 determines whether or not it is determined for the first time that the distance between faces is more than a predetermined distance in up-shooting or multiple-body shooting from above.

具体的には、撮影コースとして「アップのみ」コースが選択されている場合、1乃至5回目のアップ撮影において、顔同士の距離が所定距離より離れていると初めて判定されたか否かが判定される。また、撮影コースとして「アップ+上から全身」コースが選択されている場合、1乃至3回目のアップ撮影において、顔同士の距離が所定距離より離れていると初めて判定されたか否かが判定され、4,5回目の上から全身撮影において、顔同士の距離が所定距離より離れていると初めて判定されたか否かが判定される。さらに、撮影コースとして「アップ+正面全身」コースが選択されている場合、1乃至3回目のアップ撮影において、顔同士の距離が所定距離より離れていると初めて判定されたか否かが判定される。   Specifically, when the “up only” course is selected as the shooting course, it is determined whether or not it is determined for the first time that the distance between faces is more than a predetermined distance in the first to fifth up shots. The In addition, when the “up + whole body from above” course is selected as the shooting course, it is determined whether or not it is determined for the first time that the distance between faces is more than a predetermined distance in the first to third up-shooting. In the whole body photographing from the fourth and fifth times, it is determined whether or not it is determined for the first time that the distance between the faces is more than a predetermined distance. Further, when the “up + front whole body” course is selected as the shooting course, it is determined whether or not it is determined for the first time that the distance between the faces is more than a predetermined distance in the first to third up shooting. .

ステップS118において、顔同士の距離が所定距離より離れていると初めて判定されたと判定された場合、処理はステップS119に進む。   If it is determined in step S118 that it is first determined that the distance between the faces is greater than the predetermined distance, the process proceeds to step S119.

ステップS119において、表示制御部311および音声出力制御部312は、利用者に、互いに近づくように促すガイダンスを出力する。   In step S119, the display control unit 311 and the audio output control unit 312 output guidance that prompts the user to approach each other.

例えば、図38に示されるライブビュー表示画面において、画像表示領域431に表示されているライブビュー画像の下側に、利用者に互いに近づくように促すモデル画像M72と吹き出し画像B72とが重畳表示される。吹き出し画像B72には、利用者に互いに近づくように促すメッセージ「もっともっとくっついて〜」が表示されている。また、スピーカ223からは、モデル画像M72および吹き出し画像B72が表示されるのと同時に、吹き出し画像B72に表示されているメッセージの音声が出力される。   For example, on the live view display screen shown in FIG. 38, a model image M72 and a balloon image B72 that prompt the user to approach each other are superimposed and displayed below the live view image displayed in the image display area 431. The In the balloon image B72, a message “More sticking to” that prompts the users to approach each other is displayed. In addition, the speaker 223 displays the model image M72 and the balloon image B72, and simultaneously outputs the voice of the message displayed in the balloon image B72.

このようなガイダンスにより、利用者は、互いに近づくようにその立ち位置を変えて撮影に臨むことができる。   With such guidance, the user can change the standing position so as to approach each other and start shooting.

一方、ステップS117において、顔同士が所定距離より離れていると初めて判定されたと判定されなかった場合、すなわち、複数回行われるアップ撮影または上から全身撮影において、既に一度、互いに近づくように促すガイダンスが出力されている場合には、再度、そのガイダンスは出力されることなく処理は終了する。   On the other hand, if it is not determined in step S117 that the faces are determined to be separated from each other for the first time, that is, guidance that prompts them to approach each other once in up-shooting or multiple-body shooting from above. Is output, the process ends without outputting the guidance again.

すなわち、撮影コースとして「アップのみ」コースが選択されている場合、そのゲーム内に行われる5回のアップ撮影において、一度、互いに近づくように促すガイダンスが出力されていれば、それ以降のアップ撮影において、顔同士が所定距離より離れていると判定された場合であっても、そのガイダンスは出力されない。   In other words, when the “up only” course is selected as the shooting course, if the guidance that prompts them to approach each other is output once in the five up shots performed in the game, the subsequent up shooting is performed. Even if it is determined that the faces are separated from each other by a predetermined distance, the guidance is not output.

また、撮影コースとして「アップ+上から全身」コースが選択されている場合、そのゲーム内に行われる3回のアップ撮影において、一度、互いに近づくように促すガイダンスが出力されていれば、それ以降のアップ撮影において、顔同士が所定距離より離れていると判定された場合であっても、そのガイダンスは出力されない。同様に、そのゲーム内に行われる2回の上から全身撮影において、一度、互いに近づくように促すガイダンスが出力されていれば、それ以降の上から全身撮影において、顔同士が所定距離より離れていると判定された場合であっても、そのガイダンスは出力されない。   In addition, when the “up + whole body from the top” course is selected as the shooting course, if guidance for prompting them to approach each other once is output in the three up shots performed in the game, the subsequent steps Even when it is determined that the faces are separated from each other by a predetermined distance in the up shooting, the guidance is not output. Similarly, if guidance for urging them to approach each other once is output in the whole body shooting from the top twice in the game, the faces are separated from each other by a predetermined distance in the whole body shooting from then on. Even if it is determined that it is, the guidance is not output.

したがって、撮影コースとして「アップ+上から全身」コースが選択されている場合には、最大2回、このガイダンスが出力されることになる。なお、「アップ+上から全身」コースにおいて、3回のアップ撮影および2回の上から全身撮影を通して、一度、互いに近づくように促すガイダンスが出力されていれば、それ以降の撮影において、そのガイダンスは出力されないようにしてもよい。これにより、ガイダンスが繰り返し出力されることによる利用者の不快感を抑えることができる。   Therefore, when the “up + up to whole body” course is selected as the shooting course, this guidance is output at most twice. Note that in the “up + whole body from top” course, if guidance that prompts them to approach each other once is output through three up shots and two full body shots, the guidance will be used in subsequent shots. May not be output. Thereby, a user's discomfort by repeatedly outputting guidance can be suppressed.

さらに、撮影コースとして「アップ+正面全身」コースが選択されている場合、そのゲーム内に行われる3回のアップ撮影において、一度、互いに近づくように促すガイダンスが出力されていれば、それ以降のアップ撮影において、顔同士が所定距離より離れていると判定された場合であっても、そのガイダンスは出力されない。   Furthermore, when the “up + frontal whole body” course is selected as the shooting course, in the three up shots performed in the game, once guidance for prompting them to approach each other is output, Even when it is determined that the faces are separated from each other by a predetermined distance in the up-shooting, the guidance is not output.

このように、複数回行われるアップ撮影や上から全身撮影において、一度、互いに近づくように促すガイダンスが出力されていれば、通常、利用者は、互いに近づき適切な立ち位置へ移動するので、それ以降の撮影においては、ガイダンスが出力されなくとも、利用者は適切な立ち位置で撮影に臨むことができる。   In this way, in up-shooting performed multiple times or whole-body shooting from above, once the guidance that prompts them to approach each other is output, the user usually approaches each other and moves to an appropriate standing position. In the subsequent shooting, even if guidance is not output, the user can start shooting at an appropriate standing position.

なお、ステップS117の判定処理にあたり、顔認識により認識された顔の数が2より少ない場合、すなわち、認識された顔の数が1または0の場合、ステップS117乃至S119はスキップされ、処理は終了するものとする。   In the determination process of step S117, when the number of faces recognized by face recognition is less than 2, that is, when the number of recognized faces is 1 or 0, steps S117 to S119 are skipped, and the process ends. It shall be.

さて、ステップS117において、顔同士が所定距離より離れていないと判定されると、処理はステップS120に進む。   If it is determined in step S117 that the faces are not separated from each other by a predetermined distance, the process proceeds to step S120.

ステップS120においては、複数回行われるアップ撮影または上から全身撮影において、顔のサイズが所定サイズより小さくなく、かつ、顔同士の距離が所定距離より離れていないと、初めて判定されたか否かが判定される。   In step S120, whether or not it is determined for the first time that the size of the face is not smaller than the predetermined size and the distance between the faces is not more than the predetermined distance in up-shooting or multiple-body shooting from above is performed. Determined.

具体的には、撮影コースとして「アップのみ」コースが選択されている場合、1乃至5回目のアップ撮影において、顔のサイズが所定サイズより小さくなく、かつ、顔同士の距離が所定距離より離れていないと、初めて判定されたか否かが判定される。また、撮影コースとして「アップ+上から全身」コースが選択されている場合、1乃至3回目のアップ撮影において、顔のサイズが所定サイズより小さくなく、かつ、顔同士の距離が所定距離より離れていないと、初めて判定されたか否かが判定され、4,5回目の上から全身撮影において、顔のサイズが所定サイズより小さくなく、かつ、顔同士の距離が所定距離より離れていないと、初めて判定されたか否かが判定される。さらに、撮影コースとして「アップ+正面全身」コースが選択されている場合、1乃至3回目のアップ撮影において、顔のサイズが所定サイズより小さくなく、かつ、顔同士の距離が所定距離より離れていないと、初めて判定されたか否かが判定される。   Specifically, when the “up only” course is selected as the shooting course, the face size is not smaller than the predetermined size and the distance between the faces is larger than the predetermined distance in the first to fifth up shooting. If not, it is determined whether it is determined for the first time. In addition, when the “up + whole body from above” course is selected as the shooting course, the face size is not smaller than the predetermined size and the distance between the faces is larger than the predetermined distance in the first to third up-shooting. If not, it is determined whether or not it is determined for the first time, and in the whole body photography from the fourth and fifth times, the size of the face is not smaller than the predetermined size, and the distance between the faces is not separated from the predetermined distance, It is determined whether it is determined for the first time. Furthermore, when the “up + front whole body” course is selected as the shooting course, the face size is not smaller than the predetermined size and the distance between the faces is more than the predetermined distance in the first to third up shooting. If not, it is determined whether it is determined for the first time.

ステップS120において、複数回行われるアップ撮影または上から全身撮影において、顔のサイズが所定サイズより小さくなく、かつ、顔同士の距離が所定距離より離れていないと、初めて判定されたと判定された場合、処理はステップS121に進む。   In step S120, when it is determined for the first time that the face size is not smaller than the predetermined size and the distance between the faces is not more than the predetermined distance in up-shooting or multiple-body shooting from above The process proceeds to step S121.

ステップS121において、表示制御部311および音声出力制御部312は、カメラ111との距離と利用者同士の距離とが適切である、すなわち、カメラ111との距離が近く、かつ、利用者同士の距離が近いことを示すOKガイダンスを出力する。   In step S121, the display control unit 311 and the audio output control unit 312 are appropriate for the distance to the camera 111 and the distance between users, that is, the distance to the camera 111 is close and the distance between users. OK guidance indicating that is close.

例えば、図39に示されるライブビュー表示画面において、画像表示領域431に表示されているライブビュー画像の下側に、カメラ111との距離と利用者同士の距離とが適切であることを示すモデル画像M73と吹き出し画像B73とが重畳表示される。吹き出し画像B73には、カメラ111との距離と利用者同士の距離とが適切であることを示すメッセージ「OK!!いい感じ」が表示されている。また、スピーカ223からは、モデル画像M73および吹き出し画像B73が表示されるのと同時に、吹き出し画像B73に表示されているメッセージの音声が出力される。   For example, in the live view display screen shown in FIG. 39, a model indicating that the distance to the camera 111 and the distance between users are appropriate below the live view image displayed in the image display area 431. The image M73 and the balloon image B73 are displayed in a superimposed manner. In the balloon image B73, a message “OK !! Good feeling” indicating that the distance from the camera 111 and the distance between the users is appropriate is displayed. In addition, the speaker 223 displays the model image M73 and the balloon image B73, and simultaneously outputs the voice of the message displayed in the balloon image B73.

このようなガイダンスにより、利用者は、その立ち位置を変えることなく撮影に臨むことができる。   With such guidance, the user can start shooting without changing the standing position.

一方、ステップS120において、顔のサイズが所定サイズより小さくなく、かつ、顔同士の距離が所定距離より離れていないと、初めて判定されたと判定されなかった場合、すなわち、複数回行われるアップ撮影または上から全身撮影において、既に一度、OKガイダンスが出力されている場合には、再度、そのガイダンスは出力されることなく処理は終了する。   On the other hand, if it is not determined in step S120 that the face size is not smaller than the predetermined size and the distance between the faces is not greater than the predetermined distance, it is not determined for the first time, that is, up-shooting that is performed a plurality of times or In the case of whole body imaging from above, if the OK guidance has already been output once, the process ends without outputting the guidance again.

以上の処理によれば、利用者の顔が小さい場合には、カメラ111に近づくように促すガイダンスが出力されるので、利用者は、カメラ111により近づくことができる。また、利用者同士の顔が離れている場合には、互いに近づくように促すガイダンスが出力されるので、利用者は互いに近づくことができる。結果として、利用者の顔が大きくしっかりと写り、かつ、被写体のバランスのよい撮影画像を提供することが可能となる。   According to the above processing, when the user's face is small, guidance for prompting the user to approach the camera 111 is output, so that the user can approach the camera 111. In addition, when the faces of users are separated from each other, guidance that prompts them to approach each other is output, so that the users can approach each other. As a result, it is possible to provide a photographed image in which the user's face is large and firmly captured and the subject is well balanced.

なお、撮影画像においては、利用者の顔が小さいだけでも、被写体領域と背景領域とのバランスが悪くなり、その完成度が低下するおそれがある。そこで、上述した処理によれば、利用者同士の顔が離れているか否かにかかわらず、まず利用者の顔が小さいか否かが判定される(すなわち、利用者の顔のサイズが優先して判定される)ので、確実に利用者をカメラ111により近づけさせることができ、撮影画像の完成度の低下を避けることができる。   In the captured image, even if the user's face is small, the balance between the subject area and the background area is deteriorated, and the degree of completion may be reduced. Therefore, according to the above-described processing, it is first determined whether or not the user's face is small regardless of whether or not the faces of the users are separated (that is, the size of the user's face has priority). Therefore, the user can be surely brought closer to the camera 111, and a reduction in the completeness of the captured image can be avoided.

また、撮影画像においては、利用者同士が離れていると、その一部が撮影範囲から見切れてしまい、その完成度が低下するおそれがある。そこで、上述した処理とは逆に、利用者の顔が小さいか否かにかかわらず、まず利用者同士の顔が離れているか否かが判定される(すなわち、利用者同士の距離が優先して判定される)ようにしてもよい。これにより、確実に利用者同士を近づけさせることができ、撮影画像の完成度の低下を避けることができる。   In addition, in the captured image, if the users are separated from each other, a part of the captured image may be overlooked from the imaging range, and the degree of completion may be reduced. Therefore, contrary to the processing described above, it is first determined whether or not the faces of the users are separated regardless of whether or not the faces of the users are small (that is, the distance between the users has priority). May be determined). As a result, the users can be brought close to each other reliably, and a reduction in the degree of completion of the captured image can be avoided.

以上においては、2人用コースにおいて、アップ撮影または上から全身撮影が行われる際のライブビュー画像表示処理について説明した。   In the above, live view image display processing when up-shooting or whole-body shooting from above is performed in the two-person course has been described.

次に、図40のフローチャートを参照して、正面全身撮影が行われる際のライブビュー画像表示処理について説明する。ここでも、人数コースとして2人用コースが選択されていることを前提とする。   Next, a live view image display process when front whole body imaging is performed will be described with reference to a flowchart of FIG. Here again, it is assumed that a course for two people is selected as the number of people course.

図40の処理もまた、1回の撮影が行われる毎に実行され、撮影毎に決められたポーズを利用者にとらせるためのナレーションが終了すると開始される。   The processing of FIG. 40 is also executed each time one shooting is performed, and is started when the narration for causing the user to take a pose determined for each shooting is completed.

ここで、図40のステップS131乃至S133における処理は、図34のステップS111乃至S113における処理に同様であるので、その説明は省略する。   Here, the processing in steps S131 to S133 in FIG. 40 is the same as the processing in steps S111 to S113 in FIG. 34, and a description thereof will be omitted.

また、図40のステップS134乃至S138における処理は、図34のステップS117乃至S121における処理と同様であるので、その説明も省略する。   Also, the processing in steps S134 to S138 in FIG. 40 is the same as the processing in steps S117 to S121 in FIG.

なお、ステップS135においては、撮影コースとして「アップ+正面全身」コースが選択されている場合、4,5回目の正面全身撮影において、顔同士の距離が所定距離より離れていると初めて判定されたか否かが判定される。   In step S135, when the “up + frontal whole body” course is selected as the photographing course, is it determined for the first time that the distance between the faces is more than a predetermined distance in the fourth and fifth frontal whole body photographing? It is determined whether or not.

正面全身撮影においては、利用者の立ち位置をカメラ111から離れた位置とすることが好ましい。そこで、正面全身撮影が行われる際のライブビュー画像表示処理においては、アップ撮影や上から全身撮影が行われる際のライブビュー画像表示処理(図34)のように、顔のサイズについての判定(カメラ111との距離の判定)は行われず、顔同士の距離についての判定のみが行われるようにする。   In frontal whole body photography, it is preferable to set the user's standing position away from the camera 111. Therefore, in the live view image display process when the front whole body imaging is performed, the determination of the face size is performed as in the live view image display process (FIG. 34) when the whole body imaging is performed from the up shooting or the top ( The determination of the distance to the camera 111 is not performed, and only the determination of the distance between the faces is performed.

また、複数回行われる正面全身撮影においても、一度、互いに近づくように促すガイダンスが出力されていれば、通常、利用者は、互いに近づき適切な立ち位置へ移動するので、それ以降の撮影においては、ガイダンスが出力されなくとも、利用者は適切な立ち位置で撮影に臨むことができる。   Also, even in front whole body photography that is performed multiple times, once the guidance that prompts them to approach each other is output, the user usually moves closer to each other and moves to an appropriate standing position. Even if guidance is not output, the user can start shooting at an appropriate standing position.

なお、上から全身撮影においても、利用者の立ち位置をカメラ111から離れた位置とするような場合には、上から全身撮影が行われる際のライブビュー画像表示処理として、図40の処理が適用されるようにしてもよい。   In the case of whole body photography from above, if the user's standing position is away from the camera 111, the process of FIG. 40 is performed as live view image display processing when whole body photography is performed from above. It may be applied.

以上においては、人数コースとして2人用コースが選択された場合のライブビュー画像表示処理について説明したが、以下においては、大人数用コースが選択された場合のライブビュー画像表示処理について説明する。   In the above, the live view image display processing when the two-person course is selected as the number of people course has been described, but in the following, the live view image display processing when the large-number course is selected will be described.

図41は、大人数用コースにおいて、アップ撮影または上から全身撮影が行われる際のライブビュー画像表示処理について説明するフローチャートである。   FIG. 41 is a flowchart for describing live view image display processing when up-shooting or whole-body shooting is performed from above in a course for a large number of people.

図41の処理もまた、1回の撮影が行われる毎に実行され、撮影毎に決められたポーズを利用者にとらせるためのナレーションが終了すると開始される。   The process of FIG. 41 is also executed each time one shooting is performed, and is started when the narration for causing the user to take a pose determined for each shooting is completed.

なお、図41のステップS151乃至S153における処理は、図34のステップS111乃至S113における処理に同様であるので、その説明は省略する。   Note that the processing in steps S151 through S153 in FIG. 41 is the same as the processing in steps S111 through S113 in FIG.

また、図41のステップS154乃至S158における処理は、図34のステップS114乃至S116,S120,S121における処理と同様であるので、その説明も省略する。   Also, the processing in steps S154 to S158 in FIG. 41 is the same as the processing in steps S114 to S116, S120, and S121 in FIG.

大人数用コースにおいては、利用者の人数を特定することが容易ではなく、2人用コースと比較すると、利用者の顔同士が重なってしまうおそれがある。そこで、大人数用コースでアップ撮影や上から全身撮影が行われる際のライブビュー画像表示処理においては、2人用コースでアップ撮影や上から全身撮影が行われる際のライブビュー画像表示処理(図34)のように、顔同士の距離についての判定は行われず、顔のサイズ(カメラ111との距離)についての判定のみが行われるようにする。   In the course for a large number of people, it is not easy to specify the number of users, and there is a possibility that the faces of the users overlap each other as compared with the course for two people. Therefore, in live view image display processing when up-shooting is performed in a course for a large number of people or whole body shooting from above, live view image display processing is performed when up-shooting is performed in a course for two people or whole body shooting is performed from above ( As shown in FIG. 34), the determination of the distance between the faces is not performed, but only the determination of the face size (distance from the camera 111) is performed.

なお、大人数用コースで正面全身撮影が行われる際のライブビュー画像表示処理においては、顔同士の距離についての判定も、顔のサイズ(カメラ111との距離)についての判定も行われないものとする。   Note that in the live view image display processing when front whole body photography is performed in a course for a large number of people, neither the determination of the distance between faces nor the determination of the face size (distance from the camera 111) is performed. And

<撮り直しへの適用>
上述で説明した撮り直しにおいては、撮り直し対象選択画面において選択された撮影画像に対応する種類の撮影(アップ撮影・上から全身撮影・正面全身撮影)が行われる。
<Application to re-shooting>
In the re-shooting described above, the type of shooting corresponding to the shot image selected on the re-shooting target selection screen (up shooting / overall body shooting / frontal whole body shooting) is performed.

ここで、撮り直しが行われる際のライブビュー画像表示処理においても、上述した一連の処理が適用されるようにしてもよい。   Here, the above-described series of processing may be applied also in the live view image display processing when re-taking is performed.

例えば、撮影コースとして「アップのみ」コースが選択され、1乃至5回目のアップ撮影において一度もガイダンスが出力されていない状態で、撮り直しとしてアップ撮影が行われる際に、顔のサイズが所定サイズより小さいと判定されたり、顔同士の距離が所定距離より離れていると判定された場合には、対応するガイダンスが出力される。   For example, when the “up only” course is selected as the shooting course and no guidance is output in the first to fifth up shots, the up shot is performed again and the face size is set to a predetermined size. If it is determined that the distance is smaller or the distance between the faces is determined to be greater than the predetermined distance, the corresponding guidance is output.

また、撮影コースとして「アップのみ」コースが選択され、1乃至5回目のアップ撮影において一度、ガイダンスが出力されている状態では、撮り直しとしてアップ撮影が行われる際に、顔のサイズが所定サイズより小さいと判定されたり、顔同士の距離が所定距離より離れていると判定された場合であっても、対応するガイダンスは出力されない。   In addition, in the state where the “up only” course is selected as the shooting course and the guidance is output once in the first to fifth up shots, the face size is set to a predetermined size when the up shot is performed again. Even if it is determined that the distance is smaller or the distance between the faces is determined to be greater than the predetermined distance, the corresponding guidance is not output.

<変形例>
以下、本実施の形態における変形例について説明する。
<Modification>
Hereinafter, modifications of the present embodiment will be described.

(顔のサイズおよび顔同士の距離の判定について)
以上においては、顔のサイズの判定や、顔同士の距離の判定は、認識部314による認識結果に基づいて行われるものとしたが、例えば、クロマキ処理によって抽出した被写体領域をマスクするマスク画像を生成し、そのマスク画像に基づいて、顔のサイズや顔同士の距離が判定されるようにしてもよい。また、距離画像センサを用いて、カメラ111との距離を示す距離値を画素値とする距離画像を生成することで、顔のサイズや顔同士の距離が判定されるようにしてもよい。
(About judgment of face size and distance between faces)
In the above description, the determination of the size of the face and the determination of the distance between the faces are performed based on the recognition result by the recognition unit 314. For example, a mask image that masks the subject area extracted by the chroma process is used. The size of the face and the distance between the faces may be determined based on the generated mask image. Alternatively, a distance image having a distance value indicating a distance from the camera 111 as a pixel value using a distance image sensor may be generated to determine the face size and the distance between faces.

(大人数用コースでの判定について)
大人数用コースでは、ライブビュー画像において検出された顔の所定数を上限として、顔のサイズについての判定が行われるようにしてもよい。なお、上限を超えた数の顔のサイズについての判定は行われないものとする。
(About judgment in a course for a large number of people)
In the course for a large number of people, the size of the face may be determined with an upper limit of a predetermined number of faces detected in the live view image. It is assumed that no determination is made regarding the size of the face exceeding the upper limit.

例えば、ライブビュー画像において検出された顔の4つを上限として、顔のサイズについての判定が行われるようにする。   For example, the determination of the face size is performed with the upper limit of four faces detected in the live view image.

この場合、検出された4人の顔のサイズの平均を基準サイズとして、それぞれの顔のサイズが基準サイズと所定サイズより離れているか否かに応じて、カメラ111に近づくように促すガイダンスが出力されるようにしてもよいし、検出された4人の顔のサイズの最大サイズと最小サイズとが所定サイズより離れているか否かに応じて、カメラ111に近づくように促すガイダンスが出力されるようにしてもよい。   In this case, the average of the detected face sizes of the four people is used as a reference size, and a guidance that prompts the user to approach the camera 111 is output depending on whether the size of each face is separated from the reference size or a predetermined size. Depending on whether or not the maximum size and the minimum size of the detected face sizes of the four people are separated from the predetermined size, guidance for urging to approach the camera 111 is output. You may do it.

なお、大人数用コースでは、ライブビュー画像に映る顔の数が多くなるため、サイズが小さい(カメラ111と離れている)と判定された顔の部分にのみ、所定の枠が表示されるようにしてもよい。   In the course for a large number of people, the number of faces shown in the live view image increases, so that a predetermined frame is displayed only on the face portion determined to be small (separated from the camera 111). It may be.

また、上述した上限を設けずに、ライブビュー画像において検出された顔全てについて、顔のサイズについての判定が行われるようにしてもよい。これにより、得られる撮影画像に写る顔が1人だけ極端に小さくなる、といったようなことを避けることができる。   Further, without setting the above-described upper limit, the face size may be determined for all the faces detected in the live view image. Thereby, it is possible to avoid such a situation that only one person becomes extremely small in the captured image obtained.

さらに、上述した例とは逆に、ライブビュー画像において検出された顔の所定数を下限として、顔のサイズについての判定が行われるようにしてもよい。   Further, in contrast to the above-described example, the face size may be determined with a predetermined number of faces detected in the live view image as a lower limit.

例えば、ライブビュー画像において検出された顔の3つを下限として、顔のサイズについての判定が行われるようにする。   For example, the size of the face is determined with the lower limit of three detected faces in the live view image.

この場合、ライブビュー画像において検出された顔が2つ以下の場合には、顔のサイズについての判定が行われないが、利用者の人数が少なければ、撮影範囲内での立ち位置の自由度が高くなるため、ガイダンスが出力されなくとも、利用者は、ライブビュー画像を確認しながら移動することができる。   In this case, when the number of detected faces in the live view image is two or less, the size of the face is not determined. However, if the number of users is small, the degree of freedom of standing position within the shooting range Therefore, even if the guidance is not output, the user can move while confirming the live view image.

なお、ライブビュー画像において検出された顔の数について、上述した上限と下限の両方を設けるようにしてもよい。   Note that both the upper limit and the lower limit described above may be provided for the number of faces detected in the live view image.

また、大人数用コースでは、主に、ライブビュー画像において3つ以上の顔が検出されるので、顔同士の距離の判定は、それぞれの顔の中心点同士の距離の平均値に基づいて行われるものとする。   In the course for a large number of people, since three or more faces are mainly detected in the live view image, the distance between the faces is determined based on the average value of the distances between the center points of the faces. Shall be.

例えば、図42に示されるように、ライブビュー画像731において3人の利用者の顔U11,U12,U13が認識されたとする。まず、顔U11,U12,U13それぞれについて、顔認識により検出された鼻の位置が顔の中心点P11,P12,P13とされる。次に、顔U11,U12の中心点P11,P12同士の距離d12、顔U12,U13の中心点P12,P13同士の距離d23、顔U13,U11の中心点P13,P11同士の距離d31の平均値が算出される。そして、その平均値が規定値より長いか否かを判定することで、顔同士が所定距離より離れているか否かが判定される。   For example, as shown in FIG. 42, it is assumed that the faces U11, U12, and U13 of three users are recognized in the live view image 731. First, for each of the faces U11, U12, and U13, the position of the nose detected by face recognition is set as the face center points P11, P12, and P13. Next, the average value of the distance d12 between the center points P11 and P12 of the faces U11 and U12, the distance d23 between the center points P12 and P13 of the faces U12 and U13, and the distance d31 between the center points P13 and P11 of the faces U13 and U11. Is calculated. Then, by determining whether the average value is longer than the specified value, it is determined whether the faces are separated from each other by a predetermined distance.

(撮影前のカウントダウンについて)
通常撮影として行われる撮影において、OKガイダンスが出力された場合には、その撮影についての撮影前のカウントダウンを早めるようにしてもよい。
(About countdown before shooting)
When OK guidance is output in shooting performed as normal shooting, the countdown before shooting for that shooting may be accelerated.

例えば、カメラ111に近づくように促すガイダンスや、互いに近づくように促すガイダンスが出力された場合、その後のカウントダウンは、立ち位置を移動させるために、「3」・「2」・「1」・「0」のように、「3」から開始されるものとする。   For example, when guidance for urging the camera 111 to approach or guidance for urging the camera 111 to approach each other is output, the subsequent countdown uses “3”, “2”, “1”, “ It is assumed that it starts from “3”, such as “0”.

一方、OKガイダンスが出力された場合、その後のカウントダウンは、立ち位置を移動させる必要がないので、「1」・「0」のように、「1」から開始されるものとする。   On the other hand, when the OK guidance is output, the subsequent countdown does not need to move the standing position, and is assumed to start from “1” such as “1” and “0”.

これにより、撮影に要する時間を短縮することができ、ひいてはゲームの回転率を高めることができる。   Thereby, the time required for shooting can be shortened, and as a result, the turnover rate of the game can be increased.

(ガイダンスの出力条件について)
正面全身撮影が行われる際のライブビュー画像表示処理においては、顔のサイズについての判定は行われず、顔同士の距離についての判定のみが行われるものとしたが、アップ撮影や上から全身撮影が行われる際のライブビュー画像表示処理(図34)のように、顔のサイズについての判定が行われ、かつ、顔同士の距離についての判定が行われるようにしてもよい。
(About guidance output conditions)
In the live view image display process when frontal full body photography is performed, the determination of the face size is not performed, but only the determination of the distance between the faces is performed. As in the live view image display process (FIG. 34) when it is performed, the face size may be determined and the distance between the faces may be determined.

これにより、撮影空間A1が撮影範囲の奥行き方向に広い場合であっても、利用者の立ち位置が、カメラ111から離れ過ぎないようにすることができる。   Thus, even when the shooting space A1 is wide in the depth direction of the shooting range, the user's standing position can be prevented from being too far from the camera 111.

また、以上においては、撮影コースとして「アップ+上から全身」コースが選択されている場合には、最大2回、ガイダンスが出力されるものとしたが、例えば、撮影コースによらず、全ての撮影の際にガイダンスが出力されるようにしてもよい。これにより、より確実に完成度の高い撮影画像を提供することが可能となる。   Also, in the above, when the “up + whole body from above” course is selected as the shooting course, the guidance is output twice at the maximum. Guidance may be output during shooting. This makes it possible to provide a captured image with a high degree of completeness more reliably.

なお、ガイダンスが繰り返し出力されることによる利用者の不快感を抑えるために、ガイダンスが出力される回数に上限を設けるようにしてもよい。   It should be noted that an upper limit may be set for the number of times the guidance is output in order to suppress the user's discomfort due to the repeated output of the guidance.

(その他の判定について)
以上においては、顔のサイズについての判定と、顔同士の距離についての判定が行われるものとしたが、顔の笑顔度合いの判定や、撮影範囲における顔の位置の判定などが行われるようにしてもよい。
(About other judgments)
In the above, the determination on the size of the face and the determination on the distance between the faces are performed. However, the determination of the smile level of the face, the determination of the position of the face in the shooting range, and the like are performed. Also good.

例えば、撮影範囲における顔の位置が行われる場合、まず、図43に示されるように、ライブビュー画像741における2人の利用者の顔U21,U22の中心点P21,P22が特定される。次に、顔U21,U22の中心点P21,P22が、ライブビュー画像741の中心点を基準とした矩形領域741A内に存在するか否かが判定される。顔の中心点のいずれか1つでも矩形領域741A内に存在しないと判定された場合には、利用者に撮影範囲の中心に近づくように促すガイダンスが出力される。   For example, when the position of the face in the shooting range is performed, first, as shown in FIG. 43, the center points P21 and P22 of the faces U21 and U22 of the two users in the live view image 741 are specified. Next, it is determined whether or not the center points P21 and P22 of the faces U21 and U22 are present in the rectangular area 741A with the center point of the live view image 741 as a reference. If it is determined that any one of the center points of the face does not exist in the rectangular area 741A, guidance for prompting the user to approach the center of the shooting range is output.

図43の例では、顔U21の中心点P21が矩形領域741A内に存在しておらず、ライブビュー画像741の下側に、利用者に撮影範囲の中心に近づくように促すモデル画像M81と吹き出し画像B81とが重畳表示されている。吹き出し画像B81には、利用者に撮影範囲の中心に近づくように促すメッセージ「もっと真ん中に寄って〜」が表示されている。また、スピーカ223からは、モデル画像M81および吹き出し画像B81が表示されるのと同時に、吹き出し画像B81に表示されているメッセージの音声が出力されるようにする。   In the example of FIG. 43, the center point P21 of the face U21 does not exist in the rectangular area 741A, and a model image M81 and a balloon that prompts the user to approach the center of the shooting range below the live view image 741. The image B81 is superimposed and displayed. In the balloon image B81, a message “Take me closer to the middle” to prompt the user to approach the center of the shooting range is displayed. In addition, the speaker 223 displays the voice of the message displayed in the balloon image B81 at the same time as the model image M81 and the balloon image B81 are displayed.

これにより、撮影画像において利用者の顔が見切れてしまうのを防ぐことができる。   Thereby, it is possible to prevent the user's face from being completely cut out in the captured image.

なお、図43の例において、顔の中心点が矩形領域741A内に存在しない場合には、撮影タイミングで得られる原画像から撮影画像を得るためのトリミング枠のサイズを大きくするようにしてもよい。   In the example of FIG. 43, when the center point of the face does not exist in the rectangular area 741A, the size of the trimming frame for obtaining the photographed image from the original image obtained at the photographing timing may be increased. .

(ガイダンスの出力対象について)
以上においては、通常撮影として行われる撮影を対象にガイダンスが出力されるものとしたが、通常撮影以外の撮影を対象にガイダンスが出力されるようにしてもよい。
(Guidance output target)
In the above description, the guidance is output for shooting performed as normal shooting, but the guidance may be output for shooting other than normal shooting.

(1)撮り直し
上述で説明した撮り直しが行われる際にのみ、ガイダンスが出力されるライブビュー画像表示処理が実行されるようにしてもよい。通常、利用者は、より完成度の高い撮影画像を求めて撮り直しを行うことを選択する。そこで、その撮り直しが行われる際に、上述したライブビュー画像表示処理が実行されることで、確実に完成度の高い撮影画像を提供することができるようにする。なお、通常撮影が行われる際にはガイダンスが出力されないようにすることで、撮影作業にかかる時間を短縮することもできる。
(1) Reshooting The live view image display process in which guidance is output may be executed only when the reshooting described above is performed. Usually, the user chooses to re-take a photographed image with a higher degree of completion. Therefore, when the re-shooting is performed, the above-described live view image display process is executed, so that a shot image with a high degree of completeness can be reliably provided. Note that it is possible to shorten the time required for the photographing work by preventing the guidance from being output when the normal photographing is performed.

(2)レタッチ撮影
レタッチ撮影が行われる際にのみ、ガイダンスが出力されるライブビュー画像表示処理が実行されるようにしてもよい。レタッチ撮影により得られるレタッチ用画像は、顔の認証に用いられる他、利用者に選択させる画像処理のサンプルとなる画像である。そこで、そのレタッチ撮影が行われる際に、上述したライブビュー画像表示処理が実行されることで、より完成度の高いサンプルを提示することができるようにする。
(2) Retouch shooting Live view image display processing in which guidance is output may be executed only when retouch shooting is performed. The retouching image obtained by the retouch shooting is an image used as a sample of image processing to be selected by the user in addition to being used for face authentication. Therefore, when the retouch shooting is performed, the above-described live view image display processing is executed so that a sample with a higher degree of perfection can be presented.

(3)特別撮影
撮影処理において、通常撮影が行われた後に、特別撮影を行うようにした写真シール機がある。
(3) Special shooting There is a photo sticker that performs special shooting after normal shooting is performed in the shooting process.

特別撮影には、例えば、利用者が所有する携帯端末に送信するためだけの携帯専用画像を得るための携帯専用撮影や、通常撮影により得られた撮影画像が合成されたコラージュ画像を得るためのコラージュ撮影などが含まれる。携帯専用撮影としては、SNS(Social Networking Service)にアップロードするための静止画像の撮影が行われたり、所定時間の動画像の撮影や、静止画像がパラパラ漫画のように連続して表示されるようにするための複数回の撮影が行われるようにしてもよい。特別撮影によれば、特別感のある画像が利用者に提供されるようになる。   Special shooting includes, for example, mobile-only shooting for obtaining a portable-only image that can be transmitted only to a mobile terminal owned by the user, and a collage image obtained by synthesizing shot images obtained by normal shooting. Includes collage photography. As mobile-only shooting, still images are shot for uploading to SNS (Social Networking Service), moving images are shot for a predetermined time, and still images are displayed continuously like flip-flops. A plurality of times of shooting may be performed. According to the special shooting, a special image is provided to the user.

ここで、このような特別撮影が行われる際にのみ、ガイダンスが出力されるライブビュー画像表示処理が実行されるようにしてもよい。これにより、特別感のある画像の完成度を高めることができる。   Here, live view image display processing in which guidance is output may be executed only when such special shooting is performed. Thereby, the completeness of an image with special feeling can be raised.

(4)その他
以上においては、ライブビュー画像に対してガイダンスが出力されるものとしたが、撮影後に撮影結果として表示される静止画像(プレビュー画像)に対してガイダンスが出力されるようにしてもよい。具体的には、撮影後に表示されるプレビュー画像に、「次はもう少し前に寄ってね〜」のメッセージが重畳表示されたり、音声出力されるようにする。これにより、利用者は、それ以降に行われる撮影の際に、カメラ111との距離や利用者同士の距離を意識的に修正することができる。
(4) Others In the above, guidance is output for a live view image. However, guidance may be output for a still image (preview image) displayed as a shooting result after shooting. Good. Specifically, the message “Next, please come a little ahead” is superimposed on the preview image displayed after shooting, or the sound is output. Thereby, the user can consciously correct the distance to the camera 111 and the distance between users at the time of subsequent photographing.

(編集処理時の実施例)
編集処理においては、利用者の選択操作に応じて、各種の画像処理が、編集対象となる撮影画像(編集対象画像)に施される。このとき、利用者の選択操作に応じたガイダンスが出力されるようにしてもよい。
(Example when editing)
In the editing process, various types of image processing are performed on a captured image (an image to be edited) to be edited in accordance with a user's selection operation. At this time, guidance according to the user's selection operation may be output.

例えば、編集画面において、編集対象画像に適用される加工の種類と、編集対象画像に施されるぼかし処理のぼかし具合が選択できるものとする。   For example, on the editing screen, it is assumed that the type of processing applied to the image to be edited and the degree of blurring of the blurring process applied to the image to be edited can be selected.

加工は、その種類毎に、撮影画像全体のコントラスト、カラーバランス、トーンカーブ、彩度、透明度、テクスチャ、シャープネスなどの各パラメータを補正する複数の画像処理の組み合わせが決められており、選択された加工の種類に対応する画像処理が、撮影画像に施される。   For each type of processing, a combination of multiple image processing that corrects each parameter such as contrast, color balance, tone curve, saturation, transparency, texture, and sharpness of the entire captured image is determined and selected. Image processing corresponding to the type of processing is performed on the captured image.

ぼかし処理は、シャープネスを低くする処理であり、そのぼかし具合は、ぼかしの強度によって決定される。ぼかしの強度を高くすればシャープネスは低くなり、ぼかしの強度を低くすればシャープネスは高くなる。   The blurring process is a process of reducing sharpness, and the degree of blurring is determined by the intensity of blurring. Increasing the blur intensity decreases the sharpness, and decreasing the blur intensity increases the sharpness.

ここで、利用者に、加工の種類を選択させる際、および、ぼかし処理のぼかし具合を選択させる際に、それらの選択を促すガイダンスが出力されるようにする。   Here, when the user selects the type of processing and selects the degree of blurring of the blurring process, guidance for prompting the selection is output.

例えば、加工の種類を選択させる際には、加工の種類の選択を促す「加工の種類を選択してね」などのメッセージが、編集対象画像に重畳表示されたり、音声出力されるようにする。   For example, when selecting the type of processing, a message such as “Please select the type of processing” prompting selection of the type of processing is superimposed on the image to be edited or is output as audio. .

また、ぼかし処理のぼかし具合を選択させる際には、ぼかし処理のぼかし具合の選択を促す「ぼかし具合を選択してね」などのメッセージが、編集対象画像に重畳表示されたり、音声出力されるようにする。   In addition, when selecting the degree of blurring for the blurring process, a message such as “Please select the degree of blurring” prompting the selection of the degree of blurring for the blurring process is superimposed on the image to be edited or output as audio. Like that.

このように、利用者の選択操作毎に、対応するガイダンスが出力されるようにする。   In this way, the corresponding guidance is output for each user selection operation.

さらに、編集対象画像として選択された撮影画像が得られた撮影の種類毎に、ガイダンスが出力されるようにしてもよい。   Further, guidance may be output for each type of shooting from which a shot image selected as an image to be edited is obtained.

例えば、撮影コースとして「アップ+上から全身」コースが選択され、3枚のアップ画像と2枚の上から全身画像が得られたとする。編集対象画像として初めてアップ画像が選択された場合には、上述したガイダンスが出力されるようにし、それ以降、編集対象画像としてアップ画像が選択された場合には、そのガイダンスは出力されないようにする。また、編集対象画像として初めて上から全身画像が選択された場合には、上述したガイダンスが出力されるようにし、それ以降、編集対象画像として上から全身画像が選択された場合には、そのガイダンスは出力されないようにする。
For example, it is assumed that the course “up + whole body from above” is selected as the photographing course, and three up images and whole body images are obtained from the top two. When the up image is selected for the first time as the image to be edited, the above-described guidance is output. When the up image is selected as the image to be edited thereafter, the guidance is not output. . Further, when the whole body image is selected from the top as the editing target image for the first time, the above-described guidance is output. After that, when the whole body image is selected from the top as the editing target image, the guidance is output. Is not output.

上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。   In the above-described embodiment, the photo sticker creating apparatus 1 is configured to print the obtained photographed image or edited image on the sticker paper and to send it to the server by sending it to the server. . However, the present invention is not limited to this, and it is also possible to adopt a configuration in which a photographed image or an edited image is only provided to a user's mobile terminal by being transmitted to a server without being printed on sticker paper. On the contrary, it is possible to adopt a configuration in which the photographed image or the edited image is only printed on the sticker paper without being transmitted to the server.

すなわち、本技術は、撮影画像や編集画像がシール紙に印刷された写真シールを作成する写真シール作成装置に限らず、単に、撮影画像や編集画像を作成するゲームを提供する写真作成ゲーム機に適用することができる。   That is, the present technology is not limited to a photo sticker creating apparatus that creates a photo sticker in which a photographed image or an edited image is printed on a sticker paper, but simply a photo creating game machine that provides a game for creating a photographed image or an edited image. Can be applied.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図10に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 10, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the apparatus main body, and is a magnetic disk (flexible disk) on which the program is recorded. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk, or removable media 205 made of semiconductor memory, etc., but also delivered to the administrator in a pre-installed state in the main unit The ROM 206 in which the program is recorded and the hard disk included in the storage unit 202 are configured.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、カード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。   In the above, the print medium is not limited to sticker paper or photographic paper. For example, the print medium is printed on a predetermined size of paper or film, poster paper, a card, or a fabric such as a T-shirt. Also good.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

1 写真シール作成装置
301 撮影処理部
302 編集処理部
311 表示制御部
312 音声出力制御部
313 撮影制御部
314 認識部
321 表示制御部
322 編集制御部
323 認証部
324 画像処理部
711 顔サイズ判定部
712 距離判定部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 301 Image pick-up processing part 302 Edit processing part 311 Display control part 312 Audio | voice output control part 313 Image pick-up control part 314 Recognition part 321 Display control part 322 Edit control part 323 Authentication part 324 Image processing part 711 Face size determination part 712 Distance judgment part

Claims (24)

1以上の利用者を被写体として撮影する撮影制御部と、
撮影タイミングより前に、前記利用者が映るライブビュー画像を表示する表示制御部と、
前記ライブビュー画像において、顔認識により、前記利用者の顔および顔パーツの少なくともいずれかが検出されたか否かを判定する認識部と、
前記認識部による認識結果に応じた案内を出力する出力部と
を備える写真作成ゲーム機。
A shooting control unit for shooting one or more users as subjects;
A display control unit that displays a live view image of the user before the shooting timing;
A recognition unit that determines whether at least one of the user's face and face parts is detected by face recognition in the live view image;
A photo creation game machine comprising: an output unit that outputs guidance according to a recognition result by the recognition unit.
前記出力部は、前記認識部による認識結果に応じて、前記認識部による認識に成功するように前記利用者を促す案内を出力する
請求項1に記載の写真作成ゲーム機。
The photo creation game machine according to claim 1, wherein the output unit outputs a guidance that prompts the user to succeed in recognition by the recognition unit according to a recognition result by the recognition unit.
前記出力部は、モニタとして構成され、
前記表示制御部は、前記モニタに表示される画面に、前記ライブビュー画像の表示とともに、前記案内に関する表示を行う
請求項2に記載の写真作成ゲーム機。
The output unit is configured as a monitor,
The photo creation game machine according to claim 2, wherein the display control unit displays the guidance on the screen displayed on the monitor together with the display of the live view image.
前記表示制御部は、前記認識部による認識に成功している前記利用者の顔について、前記案内に関する表示を行う
請求項3に記載の写真作成ゲーム機。
The photo creation game machine according to claim 3, wherein the display control unit displays the guidance regarding the user's face that has been successfully recognized by the recognition unit.
前記表示制御部は、前記認識部による認識に失敗している前記利用者の顔について、前記案内に関する表示を行う
請求項3に記載の写真作成ゲーム機。
The photo creation game machine according to claim 3, wherein the display control unit displays the guidance regarding the face of the user that has failed to be recognized by the recognition unit.
前記出力部は、スピーカとして構成され、
前記スピーカは、前記案内に関する音声を出力する
請求項2に記載の写真作成ゲーム機。
The output unit is configured as a speaker,
The photo creation game machine according to claim 2, wherein the speaker outputs a sound related to the guidance.
前記撮影制御部は、複数回の撮影のうちの1回の撮影を、前記利用者の顔を認証するための認証用撮影として行い、
前記認識部は、前記認証用撮影以外の通常撮影の際に表示される前記ライブビュー画像において、前記顔および前記顔パーツの少なくともいずれかを認識し、
前記出力部は、前記認識部による認識結果に応じた案内を出力する
請求項1乃至6のいずれかに記載の写真作成ゲーム機。
The photographing control unit performs one photographing out of a plurality of photographings as authentication photographing for authenticating the user's face,
The recognizing unit recognizes at least one of the face and the face part in the live view image displayed during normal shooting other than the authentication shooting,
The photo creation game machine according to claim 1, wherein the output unit outputs guidance according to a recognition result by the recognition unit.
前記通常撮影により得られた撮影画像に写る前記利用者の顔それぞれに対する画像処理の度合いの選択を、前記認証用撮影の結果に基づいて、前記利用者の顔毎に受け付ける選択画面を表示する選択画面表示制御部と、
前記選択画面において前記利用者の顔毎に選択された度合いの前記画像処理を、前記撮影画像に写る前記利用者の顔毎に施す画像処理部とをさらに備え、
前記選択画面は、前記認識部による認識に成功した前記利用者の顔に対する前記画像処理の度合いの選択を受け付ける
請求項7に記載の写真作成ゲーム機。
Selection to display a selection screen that accepts selection of the degree of image processing for each of the user's faces that appear in the captured image obtained by the normal shooting based on the result of the authentication shooting A screen display control unit;
An image processing unit that performs the image processing of the degree selected for each face of the user on the selection screen for each face of the user reflected in the captured image;
The photo creation game machine according to claim 7, wherein the selection screen receives selection of the degree of the image processing for the face of the user who has been successfully recognized by the recognition unit.
前記選択画面には、前記認証用撮影により得られた前記利用者毎の認証用画像が表示され、
前記画像処理部は、前記選択画面において前記利用者の顔毎に選択された度合いの前記画像処理を、対応する前記利用者の前記認証用画像に施す
請求項8に記載の写真作成ゲーム機。
On the selection screen, an authentication image for each user obtained by the authentication shooting is displayed,
The photo creation game machine according to claim 8, wherein the image processing unit performs the image processing of the degree selected for each face of the user on the selection screen on the authentication image of the corresponding user.
前記画像処理部は、前記選択画面において前記利用者の顔毎に選択された度合いの前記画像処理を、前記撮影画像に写る、前記認識部による認識に成功した前記利用者の顔に施す
請求項8または9に記載の写真作成ゲーム機。
The image processing unit performs the image processing of the degree selected for each face of the user on the selection screen on the face of the user that has been successfully recognized by the recognition unit and appears in the captured image. The photo creation game machine according to 8 or 9.
前記選択画面は、前記利用者が所定の人数以上の場合、前記認識部による認識に成功した前記利用者の顔全てに対する前記画像処理の度合いの選択を一括して受け付ける
請求項8に記載の写真作成ゲーム機。
The photograph according to claim 8, wherein when the number of users is equal to or greater than a predetermined number, the selection screen collectively receives selection of the degree of image processing for all of the user's faces successfully recognized by the recognition unit. Create game machine.
1以上の利用者を被写体として撮影し、
撮影タイミングより前に、前記利用者が映るライブビュー画像を表示し、
前記ライブビュー画像において、顔認識により、前記利用者の顔および顔パーツの少なくともいずれかが検出されたか否かを判定し、
前記認識部による認識結果に応じた案内を出力する
ステップを含む撮影方法。
Shoot one or more users as subjects,
Before the shooting timing, display a live view image of the user,
In the live view image, it is determined whether or not at least one of the user's face and face parts is detected by face recognition;
An imaging method including a step of outputting guidance according to a recognition result by the recognition unit.
1以上の利用者を被写体として撮影する撮影制御部と、
撮影タイミングより前に、前記利用者が映るライブビュー画像を表示する表示制御部と、
前記ライブビュー画像に映る前記利用者の顔のサイズが所定サイズより小さいか否かを判定する顔サイズ判定部と、
前記ライブビュー画像に映る複数の前記利用者の顔同士が所定距離より離れているか否かを判定する距離判定部と、
前記顔のサイズが前記所定サイズより小さいと判定された場合、前記利用者に対する第1のガイダンスを出力し、前記顔同士が前記所定距離より離れていると判定された場合、前記利用者に対する第2のガイダンスを出力する出力部と
を備える写真作成ゲーム機。
A shooting control unit for shooting one or more users as subjects;
A display control unit that displays a live view image of the user before the shooting timing;
A face size determination unit that determines whether or not a size of the user's face reflected in the live view image is smaller than a predetermined size;
A distance determination unit that determines whether or not the plurality of user faces reflected in the live view image are separated from each other by a predetermined distance;
When it is determined that the size of the face is smaller than the predetermined size, the first guidance for the user is output, and when it is determined that the faces are separated from the predetermined distance, the first for the user is output. A photo creation game machine comprising: an output unit that outputs the guidance of 2;
前記ライブビュー画像において、顔認識により前記利用者の顔が検出されたか否かを判定する認識部をさらに備え、
前記顔サイズ判定部は、前記認識部の認識結果に基づいて、前記利用者の顔のサイズが所定サイズより小さいか否かを判定し、
前記距離判定部は、前記認識部の認識結果に基づいて、複数の前記利用者の顔同士が所定距離より離れているか否かを判定する
請求項13に記載の写真作成ゲーム機。
The live view image further comprises a recognition unit that determines whether or not the user's face is detected by face recognition,
The face size determination unit determines whether the size of the user's face is smaller than a predetermined size based on the recognition result of the recognition unit;
The photo creation game machine according to claim 13, wherein the distance determination unit determines whether or not the plurality of user faces are separated from each other by a predetermined distance based on a recognition result of the recognition unit.
前記第1のガイダンスは、前記利用者にカメラに近づくように促すガイダンスであり、
前記第2のガイダンスは、前記利用者同士に互いに近づくように促すガイダンスである
請求項13または14に記載の写真作成ゲーム機。
The first guidance is guidance that prompts the user to approach the camera,
The photo creation game machine according to claim 13 or 14, wherein the second guidance is guidance that prompts the users to approach each other.
前記顔サイズ判定部は、複数の前記利用者の顔同士が所定距離より離れているか否かにかかわらず、前記利用者の顔のサイズが所定サイズより小さいか否かを判定する
請求項13乃至15のいずれかに記載の写真作成ゲーム機。
The face size determination unit determines whether or not a size of the user's face is smaller than a predetermined size regardless of whether or not a plurality of the user's faces are separated from each other by a predetermined distance. 15. The photo creation game machine according to any one of 15.
前記距離判定部は、複数のうちの少なくともいずれかの前記顔のサイズが前記所定サイズより小さくないと判定された場合、前記顔同士が前記所定距離より離れているか否かを判定する
請求項16に記載の写真作成ゲーム機。
The distance determination unit determines whether or not the faces are separated from the predetermined distance when it is determined that the size of at least one of the faces is not smaller than the predetermined size. The photo creation game machine described in 1.
前記顔サイズ判定部は、検出された顔パーツの所定の点同士の間の距離に基づいて、前記顔のサイズが前記所定サイズより小さいか否かを判定する
請求項13乃至17のいずれかに記載の写真作成ゲーム機。
The face size determination unit determines whether the face size is smaller than the predetermined size based on a distance between predetermined points of the detected face part. The described photo creation game machine.
前記距離判定部は、検出された複数の前記顔の所定の点同士の間の距離に基づいて、前記顔同士が前記所定距離より離れているか否かを判定する
請求項13乃至17のいずれかに記載の写真作成ゲーム機。
The distance determination unit determines whether or not the faces are separated from the predetermined distance based on a distance between predetermined points of the plurality of detected faces. The photo creation game machine described in 1.
前記出力部は、複数回の撮影において、前記顔のサイズが前記所定サイズより小さいと初めて判定された場合にのみ、前記第1のガイダンスを出力する
請求項13乃至19のいずれかに記載の写真作成ゲーム機。
The photograph according to any one of claims 13 to 19, wherein the output unit outputs the first guidance only when it is determined for the first time that the size of the face is smaller than the predetermined size in a plurality of shootings. Create game machine.
前記出力部は、複数回の撮影において、前記顔同士が前記所定距離より離れていると初めて判定された場合にのみ、前記第2のガイダンスを出力する
請求項13乃至19のいずれかに記載の写真作成ゲーム機。
The output unit outputs the second guidance only when it is determined for the first time that the faces are separated from the predetermined distance in a plurality of shootings. Photo creation game machine.
前記顔サイズ判定部は、所定の撮影範囲またはカメラアングルで撮影される場合にのみ、前記顔のサイズが前記所定サイズより小さいか否かを判定する
請求項13乃至21のいずれかに記載の写真作成ゲーム機。
The photograph according to any one of claims 13 to 21, wherein the face size determination unit determines whether or not the size of the face is smaller than the predetermined size only when the face is photographed within a predetermined photographing range or camera angle. Create game machine.
前記距離判定部は、所定人数の前記利用者が撮影される場合にのみ、前記顔同士が前記所定距離より離れているか否かを判定する
請求項13乃至21のいずれかに記載の写真作成ゲーム機。
The photo creation game according to claim 13, wherein the distance determination unit determines whether or not the faces are separated from the predetermined distance only when a predetermined number of users are photographed. Machine.
1以上の利用者を被写体として撮影し、
撮影タイミングより前に、前記利用者が映るライブビュー画像を表示し、
前記ライブビュー画像に映る前記利用者の顔のサイズが所定サイズより小さいか否かを判定し、
前記ライブビュー画像に映る複数の前記利用者の顔同士が所定距離より離れているか否かを判定し、
前記顔のサイズが前記所定サイズより小さいと判定された場合、前記利用者に対する第1のガイダンスを出力し、
前記顔同士が前記所定距離より離れていると判定された場合、前記利用者に対する第2のガイダンスを出力する
ステップを含む撮影方法。
Shoot one or more users as subjects,
Before the shooting timing, display a live view image of the user,
Determining whether the size of the user's face reflected in the live view image is smaller than a predetermined size;
Determining whether or not the faces of the plurality of users shown in the live view image are separated from each other by a predetermined distance;
If it is determined that the face size is smaller than the predetermined size, a first guidance for the user is output;
When it is determined that the faces are separated from each other by the predetermined distance, an imaging method including a step of outputting a second guidance for the user.
JP2017006443A 2016-07-22 2017-01-18 Photographing game console and shooting method Active JP6880394B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016144377 2016-07-22
JP2016144377 2016-07-22

Publications (2)

Publication Number Publication Date
JP2018022126A true JP2018022126A (en) 2018-02-08
JP6880394B2 JP6880394B2 (en) 2021-06-02

Family

ID=61165583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017006443A Active JP6880394B2 (en) 2016-07-22 2017-01-18 Photographing game console and shooting method

Country Status (1)

Country Link
JP (1) JP6880394B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109395376A (en) * 2018-11-06 2019-03-01 网易(杭州)网络有限公司 Exchange method, device and system based on game live streaming
JP2019197112A (en) * 2018-05-08 2019-11-14 株式会社セガゲームス Game image photographing system
KR20220022396A (en) * 2020-08-18 2022-02-25 (주)이스트소프트 Apparatus for providing information on a product worn by users, and a method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034243A (en) * 2010-07-30 2012-02-16 Namco Bandai Games Inc Imaging apparatus, program, information storage medium and imaging method
JP2012039410A (en) * 2010-08-06 2012-02-23 Furyu Kk Image creating apparatus, method, and program
JP2012074778A (en) * 2010-09-27 2012-04-12 Furyu Kk Photograph seal generation device, photograph seal generation method, and program
JP2013243648A (en) * 2012-04-25 2013-12-05 Furyu Kk Photograph seal machine, and processing method and program for photograph seal machine
JP2015163924A (en) * 2014-02-28 2015-09-10 フリュー株式会社 Photographic seal creation device and photographic seal creation method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034243A (en) * 2010-07-30 2012-02-16 Namco Bandai Games Inc Imaging apparatus, program, information storage medium and imaging method
JP2012039410A (en) * 2010-08-06 2012-02-23 Furyu Kk Image creating apparatus, method, and program
JP2012074778A (en) * 2010-09-27 2012-04-12 Furyu Kk Photograph seal generation device, photograph seal generation method, and program
JP2013243648A (en) * 2012-04-25 2013-12-05 Furyu Kk Photograph seal machine, and processing method and program for photograph seal machine
JP2015163924A (en) * 2014-02-28 2015-09-10 フリュー株式会社 Photographic seal creation device and photographic seal creation method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197112A (en) * 2018-05-08 2019-11-14 株式会社セガゲームス Game image photographing system
JP7131060B2 (en) 2018-05-08 2022-09-06 株式会社セガ Play image shooting system
CN109395376A (en) * 2018-11-06 2019-03-01 网易(杭州)网络有限公司 Exchange method, device and system based on game live streaming
CN109395376B (en) * 2018-11-06 2022-03-22 网易(杭州)网络有限公司 Interaction method, device and system based on live game
KR20220022396A (en) * 2020-08-18 2022-02-25 (주)이스트소프트 Apparatus for providing information on a product worn by users, and a method therefor
KR102480468B1 (en) * 2020-08-18 2022-12-22 (주)이스트소프트 Apparatus for providing information on a product worn by users, and a method therefor

Also Published As

Publication number Publication date
JP6880394B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP5472365B2 (en) Photo sticker creation apparatus, image processing method, and program
JP6880394B2 (en) Photographing game console and shooting method
JP6829380B2 (en) Photo sticker making device and image processing method
JP6810336B2 (en) Photo creation game console and display method
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP5904192B2 (en) Photo sticker creation apparatus, image processing method, and program
JP6864212B2 (en) Photographing game console and shooting method
JP7074994B2 (en) Photographing game console and image processing method
JP2018107515A (en) Photograph formation game machine and image processing method
JP5483136B1 (en) Imaging apparatus and display control method
JP6853475B2 (en) Photo creation game console and display method
JP2017212568A (en) Photograph making game machine and image generation method
JP2017116872A (en) Image provision device and image provision method
JP2015216624A (en) Photograph sticker creating device and photograph sticker creating method
JP6183721B2 (en) Photography game machine and control program
JP2015164276A (en) Photo sticker creation device and photo sticker creation method
JP5962643B2 (en) Imaging apparatus and display control method
JP2018201183A (en) Photograph making game machine, display method, and program
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6443028B2 (en) Image generation apparatus, image generation method, and print medium
JP6041024B1 (en) Photo sticker creation apparatus and display method
JP7032642B2 (en) Photo-creating game consoles, editing methods, and programs
JP6455550B2 (en) Photo sticker creation apparatus and display control method
JP2017139715A (en) Photo sticker creation device and photographing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6880394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250