JP2019197112A - Game image photographing system - Google Patents

Game image photographing system Download PDF

Info

Publication number
JP2019197112A
JP2019197112A JP2018090060A JP2018090060A JP2019197112A JP 2019197112 A JP2019197112 A JP 2019197112A JP 2018090060 A JP2018090060 A JP 2018090060A JP 2018090060 A JP2018090060 A JP 2018090060A JP 2019197112 A JP2019197112 A JP 2019197112A
Authority
JP
Japan
Prior art keywords
user
unit
image
face
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018090060A
Other languages
Japanese (ja)
Other versions
JP7131060B2 (en
Inventor
沙也佳 大島
Sayaka Oshima
沙也佳 大島
正樹 川端
Masaki Kawabata
正樹 川端
祥子 庄井
Shoko Shoi
祥子 庄井
野村 晋平
Shinpei Nomura
晋平 野村
裕樹 花房
Hiroki Hanafusa
裕樹 花房
沙羅 宮中
Sara Miyanaka
沙羅 宮中
晶洋 森
Akihiro Mori
晶洋 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Games Co Ltd filed Critical Sega Games Co Ltd
Priority to JP2018090060A priority Critical patent/JP7131060B2/en
Publication of JP2019197112A publication Critical patent/JP2019197112A/en
Priority to JP2022130178A priority patent/JP7380778B2/en
Application granted granted Critical
Publication of JP7131060B2 publication Critical patent/JP7131060B2/en
Priority to JP2023187404A priority patent/JP2024014882A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

To obtain a photographic image high in user satisfaction in a game image photographing system.SOLUTION: The game image photographing system comprises: a photographing unit for photographing a user as a subject; a live view image generating unit for generating a live view image of the subject using the photographing unit; an editing unit for editing the photographic image; an image output unit for outputting the edited photographic image; a composition checking unit for determining adequateness of a composition in the live view image and if the adequateness is determined low, specifying a user ID to specify a name corresponding to the specified ID; and a message output unit for outputting a message including the name specified by the composition checking unit.SELECTED DRAWING: Figure 12

Description

本発明は、遊戯画像の撮影および編集、に関する。   The present invention relates to shooting and editing of game images.

プリクラ(登録商標)とよばれる遊戯画像撮影装置は、女子高生を中心として根強い人気を誇る。ユーザは、自らを撮影し、俗に「盛り」と呼ばれる事前修正が施された撮影画像にペンによる書き込みなどの編集を行う。   A game image capturing device called Purikura (registered trademark) boasts a strong popularity mainly among high school girls. The user takes a picture of himself and edits the photographed image, which is commonly referred to as “pick”, with a pen or the like.

特開2004‐32213号公報JP 2004-32213 A

遊戯画像撮影装置の楽しみは、撮影ポーズの工夫や撮影画像に対する編集によりオリジナル性を発揮できるところにある。本発明者らは、撮影や編集に先立って取得される原撮影画像の構図を適正化させることによって、遊戯画像の撮影・編集における利便性と遊戯性をいっそう高めることができると想到した。   The pleasure of the game image photographing device is that the originality can be exhibited by devising the photographing pose and editing the photographed image. The present inventors have conceived that the convenience and playability in shooting / editing of a play image can be further improved by optimizing the composition of the original shot image acquired prior to shooting and editing.

また、複数ユーザの写り具合が均質であれば撮影や編集が生かされること、更にユーザが好む写り具合はユニークであることにも着目した。   In addition, we focused on the fact that shooting and editing can be utilized if the image quality of multiple users is uniform, and that the image quality preferred by the user is unique.

本発明は、本発明者らによる上記着眼点に基づいて完成された発明であり、その主たる目的は、遊戯画像撮影装置において構図を適正化させるメッセージをユーザの印象に残るように伝え、撮影や編集の機能を生かす方法を提案することにある。   The present invention is an invention that has been completed based on the above viewpoints by the present inventors, and its main purpose is to convey a message for optimizing the composition in the game image photographing device so as to remain in the impression of the user, The idea is to propose a method that takes advantage of editing functions.

本発明のある態様における遊戯画像撮影システムは、ユーザを被写体として撮影する撮影部と、撮影部を用いて被写体のライブビュー画像を生成するライブビュー画像生成部と、撮影時に被写体のライブビュー画像を表示させる画像表示部と、撮影画像を編集する編集部と、編集された撮影画像を出力する画像出力部と、ライブビュー画像における構図の適正度を判定し、適正度が低いと判定した場合に、ユーザのIDを特定し、特定されたIDに対応する呼称を特定する構図確認部と、構図確認部によって特定された呼称を含むメッセージを出力するメッセージ出力部と、を備える。   A game image photographing system according to an aspect of the present invention includes a photographing unit that photographs a user as a subject, a live view image generating unit that creates a live view image of the subject using the photographing unit, and a live view image of the subject at the time of photographing. When the image display unit to be displayed, the editing unit for editing the captured image, the image output unit for outputting the edited captured image, and the appropriateness of the composition in the live view image are determined, and when the appropriateness is determined to be low A composition confirmation unit that identifies a user ID and identifies a name corresponding to the identified ID, and a message output unit that outputs a message including the name identified by the composition confirmation unit.

本発明の別の態様における遊戯画像撮影システムは、ユーザを被写体とするライブビュー画像における構図の適正度を判定する構図確認部と、適正度が低いと判定された場合に、ユーザの呼称を含むメッセージを出力する出力部と、を備える。   A game image shooting system according to another aspect of the present invention includes a composition confirmation unit that determines the appropriateness of a composition in a live view image with the user as a subject, and a user's name when it is determined that the appropriateness is low. An output unit for outputting a message.

本発明の別の態様における遊戯画像撮影システムは、ユーザを被写体として撮影する撮影部と、撮影部を用いて被写体のライブビュー画像を生成するライブビュー画像生成部と、撮影画像を編集する編集部と、編集された撮影画像を出力する画像出力部と、ライブビュー画像に含まれる複数の顔領域に基づいて各被写体の特性を特定し、被写体間に特性の差があるか否かを判定する差判定部と、差があると判定した場合に、ユーザの特性に応じて撮影条件を設定する撮影条件設定部と、を備える。   A game image shooting system according to another aspect of the present invention includes a shooting unit for shooting a user as a subject, a live view image generation unit for generating a live view image of the subject using the shooting unit, and an editing unit for editing the shot image. And an image output unit that outputs the edited captured image, and identifies characteristics of each subject based on a plurality of face regions included in the live view image, and determines whether there is a difference in characteristics between the subjects. A difference determination unit; and a shooting condition setting unit that sets shooting conditions according to the characteristics of the user when it is determined that there is a difference.

本発明の別の態様における遊戯画像撮影システムは、ユーザを被写体として撮影する撮影部と、撮影部を用いて被写体のライブビュー画像を生成するライブビュー画像生成部と、撮影画像を編集する編集部と、編集された撮影画像を出力する画像出力部と、ライブビュー画像に含まれる複数の顔領域に対応するユーザのIDを特定し、特定したIDに対応するユーザの好みを特定する好み特定部と、特定された好みに応じて撮影条件を設定する撮影条件設定部と、を備える。   A game image shooting system according to another aspect of the present invention includes a shooting unit for shooting a user as a subject, a live view image generation unit for generating a live view image of the subject using the shooting unit, and an editing unit for editing the shot image. And an image output unit that outputs the edited captured image, and a preference identification unit that identifies user IDs corresponding to a plurality of face regions included in the live view image and identifies user preferences corresponding to the identified IDs And a shooting condition setting unit that sets shooting conditions according to the specified preference.

本発明によれば、遊戯画像撮影装置において、構図や撮影条件を適正化させやすくなる。   According to the present invention, it is easy to optimize composition and shooting conditions in a game image shooting device.

遊戯画像撮影システムの全体構成図である。1 is an overall configuration diagram of a game image capturing system. 遊戯画像撮影装置の外観斜視図である。It is an external appearance perspective view of a game image photographing device. 撮影ブースの外観斜視図である。It is an external appearance perspective view of a photography booth. 遊戯画像撮影装置におけるプレイの流れを示すフローチャートである。It is a flowchart which shows the flow of the play in a game image imaging device. 遊戯画像撮影装置を上から見た平面図である。It is the top view which looked at the game image photographing device from the top. 遊戯画像撮影装置の機能ブロック図である。It is a functional block diagram of a game image photographing device. サーバの機能ブロック図である。It is a functional block diagram of a server. ユーザ情報のデータ構造図である。It is a data structure figure of user information. フィードバック情報のデータ構造図である。It is a data structure figure of feedback information. S12(図4)の撮影処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the imaging | photography process of S12 (FIG. 4). S26(図10)構図確認処理の詳細を示すフローチャートである。S26 (FIG. 10) is a flowchart showing details of composition confirmation processing. 図11の構図確認処理の続きのフローチャートである。12 is a flowchart subsequent to the composition confirmation process of FIG. 11. ライブビュー画像の第1例である。It is a 1st example of a live view image. S62(図12)ユーザ判別処理の詳細を示すフローチャートである。S62 (FIG. 12) is a flowchart showing details of the user determination process. ライブビュー画像の第2例である。It is a 2nd example of a live view image. ライブビュー画像の第3例である。It is a 3rd example of a live view image. ライブビュー画像の第4例である。It is a 4th example of a live view image. 図12の構図確認処理の続きのフローチャートである。13 is a flowchart subsequent to the composition confirmation process of FIG. 12. ライブビュー画像の第5例である。It is a 5th example of a live view image. ライブビュー画像の第6例である。It is a 6th example of a live view image. ライブビュー画像の第7例である。It is a 7th example of a live view image. S26(図10)構図確認処理の詳細を示すフローチャートである。S26 (FIG. 10) is a flowchart showing details of composition confirmation processing. S28(図10)撮影条件設定処理の詳細を示すフローチャートである。S28 (FIG. 10) is a flowchart showing details of the photographing condition setting process.

本実施形態における遊戯画像撮影装置は、撮影ブースと編集ブースを備える。ユーザは撮影ブースにて自らを撮影する。以下、撮影ブースにおいて被写体(ユーザ)を撮影した画像のことを「撮影画像」とよぶ。ユーザは、撮影ブースにおいて肌の美白化、髪のつや出しなど任意の画像修正を撮影画像に施すことができる(以下、このような画像修正を「事前修正」とよぶ)。本実施形態における遊戯画像撮影装置は、撮影ブースにおいて静止画像だけでなく動画像も撮影する。撮影画像のうち、動画像として取得されるものを「撮影動画像」、静止画像として取得されるものを「撮影静止画像」とよぶ。   The game image shooting apparatus according to the present embodiment includes a shooting booth and an editing booth. The user photographs himself / herself at the photographing booth. Hereinafter, an image obtained by photographing a subject (user) in the photographing booth is referred to as a “photographed image”. The user can perform arbitrary image corrections such as skin whitening and hair glossing on the shot image at the shooting booth (hereinafter, such image correction is referred to as “preliminary correction”). The game image capturing apparatus according to the present embodiment captures not only a still image but also a moving image at a shooting booth. Of the captured images, those acquired as moving images are called “capturing moving images”, and those acquired as still images are called “capturing still images”.

事前修正を施された撮影画像は、編集ブースに送られる。ユーザは、編集ブースにおいて、スタンプ画像の貼付やスタイラスペンによる落書きなど任意の装飾を撮影画像に施すことができる(以下、このような画像の装飾を「装飾加工」または「編集」とよぶ)。編集ブースにおいて編集対象となっている撮影画像のことを「対象画像」とよぶ。また、対象画像のうち、撮影動画像を編集対象としたものを「対象動画像」、撮影静止画像を編集対象としたものを「対象静止画像」とよぶ。   The pre-corrected captured image is sent to the editing booth. At the editing booth, the user can apply arbitrary decorations such as sticking a stamp image or graffiti with a stylus pen to the photographed image (hereinafter, such image decoration is called “decoration processing” or “editing”). A photographed image that is to be edited in the editing booth is called a “target image”. Further, among target images, a target moving image that is a target moving image is referred to as a “target moving image”, and a target target image that is a target still image is referred to as a “target still image”.

遊戯画像撮影装置は、対象静止画像をシール台紙(外部媒体)に印刷する。また、遊戯画像撮影装置は、対象動画像および対象静止画像をサーバ(外部媒体)にアップロードする。ユーザは、スマートフォンなどのユーザ端末からサーバにアクセスすることにより、装飾加工後の対象画像(対象動画像と対象静止画像)をダウンロードすることもできる。以上のように、本実施形態における遊戯画像撮影装置は、撮影機能、編集機能(装飾加工機能)、印刷機能および通信機能を備える。
以下においては、被写体の各種情報に基づく撮影・編集時の設定変更を中心として説明する。
The game image capturing apparatus prints the target still image on a sticker mount (external medium). The game image capturing device uploads the target moving image and the target still image to a server (external medium). The user can also download the target image (target moving image and target still image) after decoration processing by accessing the server from a user terminal such as a smartphone. As described above, the game image shooting apparatus according to the present embodiment includes a shooting function, an editing function (decoration processing function), a printing function, and a communication function.
In the following, description will be made centering on change of settings at the time of photographing / editing based on various information of the subject.

図1は、遊戯画像撮影システム200の全体構成図である。
遊戯画像撮影システム200においては、遊戯画像撮影装置100はインターネット204を介してサーバ202およびユーザ端末206と接続される。遊戯画像撮影装置100においてユーザは自らを撮影する。遊戯画像撮影装置100は、被写体(ユーザ)を含む撮影画像を取得し、必要に応じて事前修正を撮影画像に施し、ユーザによる装飾加工を受け付ける。ユーザは、あらかじめ付与されたユーザIDにより識別される。ユーザは、ユーザIDが登録されたユーザカードを利用して遊戯画像撮影装置100のプレイ予約をする。
FIG. 1 is an overall configuration diagram of a game image capturing system 200.
In the game image shooting system 200, the game image shooting device 100 is connected to a server 202 and a user terminal 206 via the Internet 204. The user shoots himself / herself in the game image capturing apparatus 100. The game image capturing apparatus 100 acquires a captured image including a subject (user), performs pre-correction on the captured image as necessary, and accepts decoration processing by the user. The user is identified by a user ID assigned in advance. The user makes a play reservation for the game image capturing apparatus 100 using the user card in which the user ID is registered.

装飾加工後の対象画像はユーザIDとともに遊戯画像撮影装置100からサーバ202にアップロードされる。サーバ202は、ユーザID、撮影日時および対象画像(対象動画像と対象静止画像)を対応づけて保存する。ユーザは、ユーザIDおよびパスワード等の認証情報を介してサーバ202にアクセスすることにより、サーバ202から対象画像をダウンロードする。   The target image after decoration processing is uploaded to the server 202 from the game image capturing apparatus 100 together with the user ID. The server 202 stores the user ID, the shooting date and time, and the target image (target moving image and target still image) in association with each other. The user downloads the target image from the server 202 by accessing the server 202 via authentication information such as a user ID and a password.

サーバ202は、ユーザに関連する各種情報(以下、「ユーザ情報」とよぶ)を管理する。本実施形態における遊戯画像撮影装置100は、ライブビュー画像に基づいて被写体への指示や撮影条件の設定変更を自動的に行うが詳細は後述する。   The server 202 manages various types of information related to users (hereinafter referred to as “user information”). The game image capturing apparatus 100 according to the present embodiment automatically performs an instruction to a subject and a setting change of shooting conditions based on a live view image, which will be described in detail later.

図2は、遊戯画像撮影装置100の外観斜視図である。
遊戯画像撮影装置100は、受付装置102、撮影ブース104、編集ブース106および印刷装置110を備える。ユーザは、受付装置102において遊戯画像撮影装置100の使用を予約する。ユーザは、受付装置102においてユーザIDを入力するとともに、現金または電子マネーにてプレイ料金を支払う。受付装置102は、ユーザに予約番号を発行する。受付装置102は、受付モニタ108において待機人数および呼び出し対象となる予約番号を表示させる。ユーザは、自分の予約番号が受付モニタ108に表示されると、撮影ブース104に入室する。
FIG. 2 is an external perspective view of the game image capturing apparatus 100.
The game image photographing device 100 includes a reception device 102, a photographing booth 104, an editing booth 106, and a printing device 110. The user reserves the use of the game image capturing device 100 in the reception device 102. The user inputs a user ID at the receiving apparatus 102 and pays a play fee with cash or electronic money. The accepting device 102 issues a reservation number to the user. The reception device 102 displays the number of waiting persons and the reservation number to be called on the reception monitor 108. When the user's reservation number is displayed on the reception monitor 108, the user enters the photographing booth 104.

撮影ブース104においてユーザは写真撮影を行う。撮影終了後、ユーザは編集ブース106に移動する。編集ブース106には、編集装置126が設置される。編集装置126は、編集モニタ120を備える。編集モニタ120には対象画像(装飾加工の対象となる撮影画像)が表示される。本実施形態における編集モニタ120は、静電容量式タッチパネルにより形成される。1つの編集モニタ120に対して、2つのスタイラスペン122a、122bが用意される。ユーザはスタイラスペン122および指を使って対象画像に装飾加工を施す。編集終了後、印刷装置110は対象静止画像をシール台紙に印刷する。また、編集装置126は、対象画像をサーバ202にアップロードする。   In the shooting booth 104, the user takes a picture. After shooting, the user moves to the editing booth 106. An editing device 126 is installed in the editing booth 106. The editing device 126 includes an editing monitor 120. The editing monitor 120 displays a target image (a photographed image to be decorated). The edit monitor 120 in this embodiment is formed by a capacitive touch panel. Two stylus pens 122a and 122b are prepared for one editing monitor 120. The user applies decoration processing to the target image using the stylus pen 122 and a finger. After the editing is completed, the printing apparatus 110 prints the target still image on the sticker mount. The editing device 126 uploads the target image to the server 202.

図3は、撮影ブース104の外観斜視図である。
撮影ブース104は、カーテン124により外部から遮蔽される。撮影ブース104には、撮影装置128が設置される。撮影装置128は、被写体となるユーザを3方向から照らす3つのライト116、撮影静止画像および撮影動画像を取得するためのカメラ118、第1撮影モニタ112、第2撮影モニタ114、左側ストロボ119aおよび右側ストロボ119bを備える。
FIG. 3 is an external perspective view of the imaging booth 104. FIG.
The photography booth 104 is shielded from the outside by a curtain 124. A photographing device 128 is installed in the photographing booth 104. The photographing device 128 includes three lights 116 that illuminate a user who is a subject from three directions, a camera 118 for obtaining a photographed still image and a photographed moving image, a first photographing monitor 112, a second photographing monitor 114, a left strobe 119a, and A right strobe 119b is provided.

第1撮影モニタ112は、ライブビュー画像及びユーザの撮影画像(撮影動画像と撮影静止画像)を表示させる。第2撮影モニタ114は、被写体となるユーザ以外の人物、たとえば、モデルの撮影画像(以下、「サンプル画像」とよぶ)を表示させる。ユーザは、第2撮影モニタ114に表示されるサンプル画像を参考にしながら、カメラ118の前で任意の撮影ポーズをとる。第2撮影モニタ114には、撮影方法に関する各種説明も表示される。左側ストロボ119aおよび右側ストロボ119bは、撮影静止画像の撮影と同時に発光する。上述したように、撮影ブース104においては、撮影動画像および撮影静止画像を取得できる。
本実施形態においては、第2撮影モニタ114はサンプル画像により、撮影ポーズも指示する(詳細は、省略する)。
The first photographing monitor 112 displays a live view image and a user's photographed image (a photographed moving image and a photographed still image). The second photographing monitor 114 displays a person other than the user who is the subject, for example, a photographed image of a model (hereinafter referred to as “sample image”). The user takes an arbitrary shooting pose in front of the camera 118 while referring to the sample image displayed on the second shooting monitor 114. Various descriptions regarding the photographing method are also displayed on the second photographing monitor 114. The left strobe 119a and the right strobe 119b emit light simultaneously with the shooting of the shot still image. As described above, in the shooting booth 104, a shooting moving image and a shooting still image can be acquired.
In the present embodiment, the second photographing monitor 114 also instructs a photographing pose using a sample image (details are omitted).

図4は、遊戯画像撮影装置100におけるプレイの流れを示すフローチャートである。図5は、遊戯画像撮影装置100を上から見た平面図である。
ユーザは、受付装置102において使用予約を行うと、受付装置102は受付処理を実行する(S10)。受け付け後、ユーザは撮影ブース104に入室する。撮影装置128は、ユーザの撮影画像を取得する(S12)。撮影ブース104においては、ユーザは所定数の撮影画像を取得できる。撮影動画像と撮影静止画像は同時に取得され(後述)、撮影動画像と撮影静止画像のペアを1セットの撮影画像とカウントする。本実施形態においては、最大6セットの撮影画像(撮影動画像と撮影静止画像のセット)が取得される。撮影に際し、ユーザは撮影装置128が提供する複数の事前修正メニューから事前修正の方法を選択できる。また、ユーザは撮影画像の背景色等も撮影装置128において選択できる。撮影装置128は、撮影画像を取得するごとに事前修正を実行する。なお、事前修正メニューは、受付装置102においてプレイ前に選択できてもよい。撮影処理(S12)の詳細は図10に関連して後述する。
FIG. 4 is a flowchart showing the flow of play in the game image capturing apparatus 100. FIG. 5 is a plan view of the game image capturing apparatus 100 as viewed from above.
When the user makes a use reservation in the reception device 102, the reception device 102 executes reception processing (S10). After acceptance, the user enters the photography booth 104. The imaging device 128 acquires a user's captured image (S12). In the photographing booth 104, the user can acquire a predetermined number of photographed images. A captured moving image and a captured still image are simultaneously acquired (described later), and a pair of the captured moving image and the captured still image is counted as one set of captured images. In the present embodiment, up to six sets of captured images (a set of captured moving images and captured still images) are acquired. When photographing, the user can select a pre-correction method from a plurality of pre-correction menus provided by the photographing device 128. Further, the user can select the background color of the photographed image on the photographing device 128. The imaging device 128 performs pre-correction every time a captured image is acquired. Note that the pre-correction menu may be selected by the reception apparatus 102 before playing. Details of the photographing process (S12) will be described later with reference to FIG.

撮影後、第1撮影モニタ112には、2つの編集ブース106のいずれかを指示する指示情報が表示される。ユーザは、2つの編集ブース106a、106bのうち、第1撮影モニタ112により指定された編集ブース106に移動する。撮影装置128からは、編集装置126に撮影画像が転送される。ユーザは、編集装置126において転送された撮影画像(対象画像)に装飾加工を施す(S14)。   After shooting, the first shooting monitor 112 displays instruction information for instructing one of the two editing booths 106. The user moves to the editing booth 106 designated by the first photographing monitor 112 out of the two editing booths 106a and 106b. The photographed image is transferred from the photographing device 128 to the editing device 126. The user performs decoration processing on the captured image (target image) transferred by the editing device 126 (S14).

編集後、編集装置126は対象画像を印刷装置110に送り、印刷装置110は対象画像をシール台紙に印刷する(S16)。また、編集装置126は、インターネット204を介して対象画像をサーバ202にアップロードする(S18)。ユーザは、ユーザIDをアクセスキーとしてサーバ202にアクセスすることにより、対象画像をサーバ202からユーザ端末206にダウンロードできる。   After editing, the editing device 126 sends the target image to the printing device 110, and the printing device 110 prints the target image on the sticker mount (S16). The editing device 126 uploads the target image to the server 202 via the Internet 204 (S18). The user can download the target image from the server 202 to the user terminal 206 by accessing the server 202 using the user ID as an access key.

一般的には、撮影作業よりも編集作業に時間がかかる。本実施形態における遊戯画像撮影装置100においては、1つの撮影ブース104に対して2つの編集ブース106a、106b(編集装置126a、126b)を設けることにより、顧客回転率を高めている。   In general, editing work takes longer than shooting work. In the game image photographing apparatus 100 according to the present embodiment, the customer turnover rate is increased by providing two editing booths 106 a and 106 b (editing apparatuses 126 a and 126 b) for one photographing booth 104.

図6は、遊戯画像撮影装置100の機能ブロック図である。
遊戯画像撮影装置100の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。
上述したように、遊戯画像撮影装置100は、撮影装置128、受付装置102、編集装置126および印刷装置110の集合体として構成される。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。図7に示すサーバ202も同様である。
FIG. 6 is a functional block diagram of the game image capturing apparatus 100.
Each component of the game image capturing apparatus 100 includes an arithmetic unit such as a CPU (Central Processing Unit) and various coprocessors, a storage device such as a memory and a storage, hardware including a wired or wireless communication line connecting them, and a storage It is realized by software stored in the apparatus and supplying processing instructions to the arithmetic unit. The computer program may be constituted by a device driver, an operating system, various application programs located in an upper layer thereof, and a library that provides a common function to these programs.
As described above, the game image photographing device 100 is configured as an assembly of the photographing device 128, the receiving device 102, the editing device 126, and the printing device 110. Each block described below is not a hardware unit configuration but a functional unit block. The same applies to the server 202 shown in FIG.

遊戯画像撮影装置100は、ユーザインタフェース処理部130、データ処理部132、通信部134およびデータ格納部136を含む。
ユーザインタフェース処理部130は、受付モニタ108、編集モニタ120等を介したユーザインタフェース処理を担当する。通信部134は、インターネット204を介してサーバ202との通信処理を担当する。通信部134は、近距離無線通信によりユーザ端末206とダイレクトに通信してもよい。たとえば、通信部134からユーザ端末206に対象画像を直接送信してもよい。データ格納部136は各種データを格納する。データ処理部132は、通信部134により取得されたデータおよびデータ格納部136に格納されているデータに基づいて各種処理を実行する。データ処理部132は、ユーザインタフェース処理部130、通信部134およびデータ格納部136のインタフェースとしても機能する。
The game image capturing apparatus 100 includes a user interface processing unit 130, a data processing unit 132, a communication unit 134, and a data storage unit 136.
The user interface processing unit 130 is in charge of user interface processing via the reception monitor 108, the editing monitor 120, and the like. The communication unit 134 is responsible for communication processing with the server 202 via the Internet 204. The communication unit 134 may communicate directly with the user terminal 206 by short-range wireless communication. For example, the target image may be directly transmitted from the communication unit 134 to the user terminal 206. The data storage unit 136 stores various data. The data processing unit 132 executes various processes based on the data acquired by the communication unit 134 and the data stored in the data storage unit 136. The data processing unit 132 also functions as an interface for the user interface processing unit 130, the communication unit 134, and the data storage unit 136.

ユーザインタフェース処理部130は、ユーザによる操作入力を受け付ける入力部140と、ユーザへの情報提示を行う出力部142と、撮影画像を取得する撮影部138(カメラ118)を含む。入力部140は、受付装置102、撮影装置128、編集装置126等に設置されるタッチパネルに対するユーザの操作入力を検出する。入力部140は、スタイラスペン122による操作入力も検出する。出力部142は、受付装置102、撮影装置128、編集装置126等における画像表示のほか、音声出力、印刷出力など各種の出力処理を実行する。   The user interface processing unit 130 includes an input unit 140 that receives an operation input by a user, an output unit 142 that presents information to the user, and a shooting unit 138 (camera 118) that acquires a shot image. The input unit 140 detects a user operation input on a touch panel installed in the reception device 102, the imaging device 128, the editing device 126, and the like. The input unit 140 also detects an operation input by the stylus pen 122. The output unit 142 executes various output processes such as audio output and print output, in addition to image display in the reception device 102, the imaging device 128, the editing device 126, and the like.

入力部140は、ID取得部158を含む。ID取得部158は、ユーザカードから、ユーザIDを取得する。   The input unit 140 includes an ID acquisition unit 158. The ID acquisition unit 158 acquires a user ID from the user card.

出力部142は、画像出力部170、撮影指示部160と説明部162を含む。撮影指示部160は、被写体となるユーザに対して撮影方法、たとえば、立ち位置、姿勢や表情等について指示する(詳細後述)。説明部162は、受付・撮影・編集・印刷に際し、テキスト画像および音声により、ユーザに対して遊戯画像撮影装置100の使用方法の説明を行う。   The output unit 142 includes an image output unit 170, a shooting instruction unit 160, and a description unit 162. The shooting instruction unit 160 instructs the user who is the subject about the shooting method, for example, the standing position, posture, facial expression, and the like (details will be described later). The explanation unit 162 explains to the user how to use the game image photographing device 100 by text image and sound when receiving, photographing, editing, and printing.

データ処理部132は、撮影制御部144、編集処理部146(編集部)、受付管理部148、印刷処理部150および画像認識部152を含む。
撮影制御部144は、撮影ブース104における撮影処理を制御する。撮影制御部144は、撮影ブース104においてユーザに撮影タイミングを通知する。撮影タイミングを時刻t1とすると、撮影制御部144は時刻t1よりも1.5秒前から0.1秒前まで動画像(以下、「前半動画像」とよぶ)を記録し、時刻t1において撮影静止画像を取得し、時刻t1の0.1秒後から1.5秒後まで動画像(以下、「後半動画像」とよぶ)を再び記録する。撮影制御部144は、前半動画像と後半動画像をつなげることにより撮影動画像を生成する。撮影制御部144は、撮影部138に撮影の開始指示および停止指示を送信することにより、撮影部138を制御する。また、撮影制御部144は、撮影静止画の取得時においては、図示しないストロボを発光させる。撮影動画像は、撮影静止画の取得期間、いいかえれば、ストロボ発光時の動画が含まれないため、ストロボ発光が映り込むことがない。
The data processing unit 132 includes an imaging control unit 144, an editing processing unit 146 (editing unit), a reception management unit 148, a print processing unit 150, and an image recognition unit 152.
The shooting control unit 144 controls shooting processing in the shooting booth 104. The shooting control unit 144 notifies the user of shooting timing at the shooting booth 104. When the shooting timing is time t1, the shooting control unit 144 records a moving image (hereinafter referred to as “first half moving image”) from 1.5 seconds to 0.1 seconds before time t1, and the shooting is performed at time t1. A still image is acquired, and a moving image (hereinafter referred to as “second-half moving image”) is recorded again from 0.1 seconds to 1.5 seconds after time t1. The shooting control unit 144 generates a shooting moving image by connecting the first half moving image and the second half moving image. The photographing control unit 144 controls the photographing unit 138 by transmitting a photographing start instruction and a stop instruction to the photographing unit 138. In addition, the shooting control unit 144 causes a strobe (not shown) to emit light when acquiring a shot still image. The captured moving image does not include the flash emission because it does not include the moving image when the flash is fired.

また、撮影制御部144は、構図確認部154、差判定部156、撮影条件設定部157、事前修正部159および好み特定部164を含む。構図確認部154は、ライブビュー画像における構図を検証する。差判定部156は、被写体の特性に関する差を判定する。撮影条件設定部157は、ストロボ光量などの撮影条件を設定する。事前修正部159は、事前修正を実行する。好み特定部164は、被写体であるユーザの好みを特定する。   In addition, the imaging control unit 144 includes a composition confirmation unit 154, a difference determination unit 156, an imaging condition setting unit 157, a prior correction unit 159, and a preference identification unit 164. The composition confirmation unit 154 verifies the composition in the live view image. The difference determination unit 156 determines a difference regarding the characteristics of the subject. The shooting condition setting unit 157 sets shooting conditions such as the amount of strobe light. The pre-correction unit 159 performs pre-correction. The preference specifying unit 164 specifies the preference of the user who is the subject.

画像出力部170は、撮影画像を対象画像として編集モニタ120(静電容量式のタッチパネル)に表示させる。編集処理部146は、ユーザからの操作入力にしたがって対象画像を装飾加工する。受付管理部148は、受付装置102においてユーザによるプレイ料金の支払いと予約順序を管理する。受付管理部148は、撮影ブース104において撮影作業が終了するごとに、予約中のユーザを撮影ブース104に案内する。印刷処理部150は、印刷装置110における対象画像の印刷を制御する。たとえば、画像認識部152は、撮影画像等からオブジェクトやユーザの顔画像を認識する。画像認識部152は、撮影制御部144に含まれてもよい。   The image output unit 170 displays the captured image as a target image on the editing monitor 120 (capacitive touch panel). The edit processing unit 146 decorates the target image in accordance with an operation input from the user. The reception management unit 148 manages the payment of the play fee by the user and the reservation order in the reception device 102. The reception management unit 148 guides the reserved user to the imaging booth 104 every time the imaging booth 104 finishes the imaging operation. The print processing unit 150 controls printing of the target image in the printing apparatus 110. For example, the image recognition unit 152 recognizes an object or a user's face image from a captured image or the like. The image recognition unit 152 may be included in the shooting control unit 144.

通信部134は、ユーザ情報取得部166、ユーザID送信部168および画像送信部188を含む。ユーザID送信部168は、ID取得部158が取得したユーザIDをサーバ202に送信する。ユーザ情報取得部166は、ユーザIDに対応するユーザ情報をサーバ202から受信する。画像送信部188は、装飾加工後の対象画像をサーバ202にアップロードする。   The communication unit 134 includes a user information acquisition unit 166, a user ID transmission unit 168, and an image transmission unit 188. The user ID transmission unit 168 transmits the user ID acquired by the ID acquisition unit 158 to the server 202. The user information acquisition unit 166 receives user information corresponding to the user ID from the server 202. The image transmission unit 188 uploads the target image after decoration processing to the server 202.

図7は、サーバ202の機能ブロック図である。
サーバ202は、通信部210、データ処理部212およびデータ格納部214を含む。通信部210は、インターネット204を介して遊戯画像撮影装置100、ユーザ端末206との通信処理を担当する。データ格納部214はユーザ情報等の各種データを格納する。データ処理部212は、通信部210により取得されたデータおよびデータ格納部214に格納されているデータに基づいて各種処理を実行する。データ処理部212は、通信部210およびデータ格納部214のインタフェースとしても機能する。
FIG. 7 is a functional block diagram of the server 202.
The server 202 includes a communication unit 210, a data processing unit 212, and a data storage unit 214. The communication unit 210 is in charge of communication processing with the game image capturing device 100 and the user terminal 206 via the Internet 204. The data storage unit 214 stores various data such as user information. The data processing unit 212 executes various processes based on the data acquired by the communication unit 210 and the data stored in the data storage unit 214. The data processing unit 212 also functions as an interface between the communication unit 210 and the data storage unit 214.

通信部210は、ユーザID取得部216、ユーザ情報送信部218および画像受信部296を含む。ユーザID取得部216は、遊戯画像撮影装置100からユーザIDを受信する。ユーザ情報送信部218は、ユーザID取得部216が受信したユーザIDに対応するユーザ情報を遊戯画像撮影装置100に送信する。画像受信部296は、遊戯画像撮影装置100から装飾加工後の対象画像を受信する。   The communication unit 210 includes a user ID acquisition unit 216, a user information transmission unit 218, and an image reception unit 296. The user ID acquisition unit 216 receives a user ID from the game image capturing apparatus 100. The user information transmission unit 218 transmits user information corresponding to the user ID received by the user ID acquisition unit 216 to the game image capturing apparatus 100. The image receiving unit 296 receives the target image after decoration processing from the game image capturing apparatus 100.

データ処理部212は、重要画像選択部220、撮影条件登録部222、ユーザ情報管理部224および画像認識部292を含む。重要画像選択部220は、複数の撮影画像のうち、後述の方法によりユーザの満足度が高いと考えられる撮影画像である「重要画像」を選択する。撮影条件登録部222は、重要画像に基づいて好適な撮影条件を登録する。ユーザ情報管理部224は、データ格納部214に格納されるユーザ情報を管理する。画像認識部292は、ユーザ登録時の顔画像から特徴データを生成し、ユーザ情報に設定する。また、画像認識部292は、撮影画像等からオブジェクトやユーザの顔画像を認識することもできる。   The data processing unit 212 includes an important image selection unit 220, a shooting condition registration unit 222, a user information management unit 224, and an image recognition unit 292. The important image selection unit 220 selects an “important image” that is a photographed image that is considered to have high user satisfaction among a plurality of photographed images by a method described later. The shooting condition registration unit 222 registers suitable shooting conditions based on the important image. The user information management unit 224 manages user information stored in the data storage unit 214. The image recognition unit 292 generates feature data from the face image at the time of user registration and sets it as user information. The image recognition unit 292 can also recognize an object or a user's face image from a captured image or the like.

図8は、ユーザ情報230のデータ構造図である。
ユーザ情報230は、サーバ202のデータ格納部214に格納される。ユーザ情報230は、ユーザの属性、好みなどを定義する情報である。ユーザは、遊戯画像撮影システム200に会員登録したときにユーザIDが発行される。ユーザ情報230は、ユーザの年齢等を含む基本情報、顔情報、好みの撮影条件、好みの仕上がりを含む。ユーザは、ユーザ端末206からユーザIDを指定してサーバ202にログインすることにより、ユーザ情報を任意に編集できる。図8はユーザ情報230の一部を示す。
FIG. 8 is a data structure diagram of the user information 230.
The user information 230 is stored in the data storage unit 214 of the server 202. The user information 230 is information that defines user attributes, preferences, and the like. When a user registers as a member in the game image capturing system 200, a user ID is issued. The user information 230 includes basic information including the age of the user, face information, preferred shooting conditions, and desired finish. The user can arbitrarily edit the user information by specifying the user ID from the user terminal 206 and logging in to the server 202. FIG. 8 shows a part of the user information 230.

図8によると、ユーザID=P01のユーザ(以下、「ユーザ(P01)」のように表記する)は、17歳の女性であり、ニックネームは「あーちゃん」である。また、ユーザID=P02のユーザ(以下、「ユーザ(P02)」のように表記する)は、17歳の女性であり、ニックネームは「サッチー」である。   According to FIG. 8, the user with user ID = P01 (hereinafter referred to as “user (P01)”) is a 17-year-old woman, and the nickname is “A-chan”. Further, the user with the user ID = P02 (hereinafter referred to as “user (P02)”) is a 17-year-old woman, and the nickname is “Satchie”.

顔情報には、特徴データ、大きさ係数、肌特性が登録される。特徴データは、ユーザの顔の特徴を示し、顔識別に用いられる。大きさ係数は、標準の顔の大きさに対するユーザの顔の大きさの比率である。標準の目の間隔に対するユーザの目の間隔の比率である間隔係数を登録するようにしてもよい。例えば、子供のように顔が小さいユーザの場合に、大きさ係数と間隔係数は、1よりも小さい値となる。肌特性は、色白、普通、色黒などを示す。顔情報は、例えばユーザ登録の際に取得したユーザの顔画像に基づいて生成される。サーバ202の画像受信部296が受信した顔画像を用いて、サーバ202の画像認識部292が顔情報を生成する。あるいは、遊戯画像撮影装置100の撮影部138が撮影した顔画像を用いて、遊戯画像撮影装置100の画像認識部152が顔情報を生成し、遊戯画像撮影装置100の通信部134が顔情報をサーバ202へ送信するようにしてもよい。   Feature data, a size coefficient, and skin characteristics are registered in the face information. The feature data indicates the features of the user's face and is used for face identification. The size coefficient is a ratio of the size of the user's face to the standard size of the face. An interval coefficient that is a ratio of the user's eye interval to the standard eye interval may be registered. For example, in the case of a user with a small face such as a child, the size coefficient and the interval coefficient are values smaller than 1. Skin characteristics indicate fair white, normal, dark black and the like. The face information is generated based on the user's face image acquired at the time of user registration, for example. Using the face image received by the image reception unit 296 of the server 202, the image recognition unit 292 of the server 202 generates face information. Alternatively, using the face image taken by the shooting unit 138 of the game image shooting device 100, the image recognition unit 152 of the game image shooting device 100 generates face information, and the communication unit 134 of the game image shooting device 100 uses the face information. You may make it transmit to the server 202. FIG.

好みの撮影条件は、例えば好みのストロボ光量である。好みの撮影条件は、事前修正の種類やパラメータであってもよい。好みの仕上がりは、例えば肌の印象である。肌の印象は、美白、標準、ナチュラル等である。サーバ202が、ユーザ履歴をフィードバックして、自動的に好みの撮影条件および好みの仕上がりを設定するようにしてもよい。   The preferred shooting condition is, for example, a preferred strobe light amount. The preferred shooting condition may be a type or parameter of prior correction. The favorite finish is, for example, the impression of skin. Skin impressions include whitening, standard, and natural. The server 202 may feed back the user history and automatically set the preferred shooting conditions and the desired finish.

ユーザ情報230には、このほかにもさまざまな情報が含まれてもよい。たとえば、基本情報として、ユーザの名前(本名)、生年月日、出身地、学校、会社、職業等が含まれてもよい。また、基本情報として、音楽情報(好きなアーティスト、好きな曲など)、パレット情報(ペンの太さ、ペンの色など)、ユーザの嗜好情報(好きな食べ物、好きな言葉、好きな有名人、好きなキャラクタ、好きなゲームなど)が含まれてもよい。   The user information 230 may include various other information. For example, the basic information may include the user's name (real name), date of birth, birthplace, school, company, occupation, and the like. Basic information includes music information (like artists, favorite songs, etc.), palette information (pen thickness, pen color, etc.), user preference information (favorite food, favorite words, favorite celebrities, Favorite characters, favorite games, etc.).

このほかにも、ユーザ情報230には編集履歴が含まれてもよい。編集履歴には、たとえば、ユーザが設定したペンの線種や色彩、各種スタンプの利用履歴が含まれる。編集処理部146は、ユーザの編集作業の結果を編集履歴として記録し、編集終了後にサーバ202に編集履歴をユーザIDとともに送信する。ユーザ情報管理部224は、編集履歴を取得してユーザ情報230を適宜更新してもよい。   In addition, the user information 230 may include an editing history. The editing history includes, for example, pen line types and colors set by the user, and usage history of various stamps. The editing processing unit 146 records the result of the user's editing work as an editing history, and transmits the editing history together with the user ID to the server 202 after the editing is completed. The user information management unit 224 may acquire the editing history and update the user information 230 as appropriate.

ユーザ情報230には、使用履歴が含まれてもよい。使用履歴は、ユーザがどの遊戯画像撮影装置100をどのくらい利用しているかを示す情報である。   The user information 230 may include a usage history. The usage history is information indicating how much the game image capturing device 100 is used by the user.

図9は、フィードバック情報290のデータ構造図である。
フィードバック情報290は、サーバ202のデータ格納部214に格納される。フィードバック情報290は、ユーザがどのような撮影条件で撮影したときの撮影画像に満足する傾向があるかを示す統計情報である。重要画像選択部220は、撮影画像からユーザが満足している撮影画像である「重要画像」を選択する。本実施形態においては、ユーザは、複数の撮影画像に対して、「満足」「普通」「不満」のいずれかを入力する。重要画像選択部220は、「満足」と設定された撮影画像を重要画像と判断する。
FIG. 9 is a data structure diagram of the feedback information 290.
The feedback information 290 is stored in the data storage unit 214 of the server 202. The feedback information 290 is statistical information indicating what kind of shooting conditions the user tends to be satisfied with the shot image. The important image selection unit 220 selects an “important image” that is a photographed image satisfied by the user from the photographed images. In the present embodiment, the user inputs “satisfied”, “normal”, or “dissatisfied” with respect to a plurality of captured images. The important image selection unit 220 determines that the captured image set as “satisfied” is an important image.

撮影条件登録部222は、撮影画像ごとの撮影条件を記録する。図9によれば、ユーザ(P01)は比較的前方に立って撮影したときの撮影画像のうち60%については「満足」、30%については「普通」、10%については「不満」と回答している。したがって、ユーザ(P01)の満足度は、撮影時の立ち位置が前である場合に満足しやすい傾向がある。   The shooting condition registration unit 222 records shooting conditions for each shot image. According to FIG. 9, the user (P01) replied that “60%” was “satisfactory”, 30% “normal”, and 10% “dissatisfied” among the captured images when standing relatively forward. is doing. Therefore, the satisfaction level of the user (P01) tends to be satisfied when the standing position at the time of shooting is in front.

ユーザ(P01)は、顔を傾けたときの撮影画像については70%について満足しており、不満は2%しかない。したがって、ユーザ(P01)は、小首をかしげたときの撮影画像に満足しやすい傾向がある。同様に、ユーザ(P01)は微笑したときの撮影画像についても満足度が高い。これらの傾向を、図10の構図確認処理(S26)、撮影条件設定処理(S28)に反映させるようにしてもよい。詳しくは、後述する。   The user (P01) is satisfied with 70% of the photographed image when the face is tilted, and the dissatisfaction is only 2%. Therefore, the user (P01) tends to be satisfied with the photographed image when the small neck is raised. Similarly, the user (P01) is highly satisfied with the photographed image when smiling. These tendencies may be reflected in the composition confirmation process (S26) and the photographing condition setting process (S28) in FIG. Details will be described later.

図10は、S12(図4)の撮影処理の詳細を示すフローチャートである。
まず、撮影制御部144は、撮影部138および画像出力部170を用いるライブビューを起動する(S20)。ライブビューが行われている間、カメラ118から継続的に得られる映像が即時第1撮影モニタ112に表示される。ライブビューによって、第1撮影モニタ112に表示される画像をライブビュー画像又はスルー画像という。
FIG. 10 is a flowchart showing details of the photographing process in S12 (FIG. 4).
First, the imaging control unit 144 activates a live view using the imaging unit 138 and the image output unit 170 (S20). While live view is being performed, video continuously obtained from the camera 118 is immediately displayed on the first photographing monitor 112. An image displayed on the first photographing monitor 112 by the live view is referred to as a live view image or a through image.

説明部162は、撮影時において所定の説明情報を第2撮影モニタ114に表示させるとともに、説明のために用意された音声を再生する(S22)。   The explanation unit 162 displays predetermined explanation information on the second photographing monitor 114 at the time of photographing, and reproduces sound prepared for explanation (S22).

その後、撮影制御部144は、カウントダウンを開始するタイミングを待つ(S24)。たとえば、撮影制御部144は、ユーザがカウントダウンの開始ボタンにタッチするまで待つ。撮影制御部144は、所定の時間が経過した時点で、カウントダウンを開始するタイミングに至ったと判断してもよい。   Thereafter, the imaging control unit 144 waits for the timing to start the countdown (S24). For example, the imaging control unit 144 waits until the user touches the countdown start button. The imaging control unit 144 may determine that the timing for starting the countdown has been reached when a predetermined time has elapsed.

カウントダウンを開始するタイミングに至ると、構図確認部154は、ライブビュー画像における構図を確認する(S26)。   When the timing to start the countdown is reached, the composition confirmation unit 154 confirms the composition in the live view image (S26).

図11は、S26(図10)構図確認処理の詳細を示すフローチャートである。
構図確認部154は、最新のライブビュー画像を取得し、画像認識部152にライブビュー画像に含まれる顔領域を検出させる(S42)。
FIG. 11 is a flowchart showing details of the composition confirmation processing in S26 (FIG. 10).
The composition confirmation unit 154 acquires the latest live view image, and causes the image recognition unit 152 to detect a face area included in the live view image (S42).

構図確認部154は、検出された顔領域の数が受付装置102において入力したユーザIDの数と一致するか否かを判定する(S44)。顔領域の数がユーザIDの数より少ないときは、いずれかのユーザの顔が写っていないことになる。このようなときに、遊戯画像撮影装置100は、写っていないユーザがカメラ118に向くように促す。   The composition confirmation unit 154 determines whether or not the number of detected face regions matches the number of user IDs input in the receiving apparatus 102 (S44). When the number of face areas is smaller than the number of user IDs, any user's face is not shown. In such a case, the game image capturing apparatus 100 prompts a user who is not captured to face the camera 118.

そのため、遊戯画像撮影装置100は、顔識別によって顔が写っているユーザを判別し、残余のユーザを絞り込む。具体的には、構図確認部154は、画像認識部152によって検出された顔領域を1つ選択して(S46)、画像認識部152に当該顔領域を予約済みの各ユーザと照合させる(S48)。この処理で、画像認識部152は、当該顔領域から抽出される特徴データが、受付装置102において入力した各ユーザIDに対応するユーザ情報230に含まれる特徴データと合致するか否かを判定する。特徴データが同一または近似するときには、画像認識部152は照合が成功したと判定する。つまり、顔領域が当該特徴データに係るユーザに該当すると判定し、当該ユーザのIDが特定される。   Therefore, the game image capturing apparatus 100 discriminates users who have faces by face identification and narrows down the remaining users. Specifically, the composition confirmation unit 154 selects one face area detected by the image recognition unit 152 (S46), and causes the image recognition unit 152 to collate the face area with each reserved user (S48). ). In this process, the image recognition unit 152 determines whether or not the feature data extracted from the face area matches the feature data included in the user information 230 corresponding to each user ID input in the receiving apparatus 102. . When the feature data are the same or approximate, the image recognition unit 152 determines that the collation has succeeded. That is, it is determined that the face area corresponds to the user related to the feature data, and the ID of the user is specified.

構図確認部154は、検出されているすべての顔領域について各ユーザとの照合を終えた段階で(S50)、予約済みの各ユーザのIDのうち、照合が成功したときのユーザIDのいずれにも該当しなかったユーザIDをライブビュー画像に写っていなかったユーザとして特定し、ユーザIDに対応するニックネームを特定する(S52)。   The composition confirmation unit 154 finishes collation with each user for all detected face areas (S50), and among the reserved user IDs, any of the user IDs when collation is successful Is identified as a user who has not been captured in the live view image, and a nickname corresponding to the user ID is identified (S52).

たとえば、ユーザ(P01)とユーザ(P02)のIDが受付装置102に入力され、ライブビュー画像に1つしか顔領域が含まれない場合には、顔領域についてユーザ(P01)とユーザ(P02)を候補とする顔識別が行われる。その結果、当該顔領域がユーザ(P02)に該当するという識別結果が得られた場合、写っていないのは、ユーザ(P01)であると限定される。そして、構図確認部154は、ユーザ情報230を参照しユーザ(P01)のニックネーム「あーちゃん」を検索する。   For example, when the IDs of the user (P01) and the user (P02) are input to the receiving apparatus 102 and the live view image includes only one face area, the user (P01) and the user (P02) are included in the face area. Is identified as a candidate. As a result, when the identification result that the face area corresponds to the user (P02) is obtained, it is limited that the user (P01) is not shown. Then, the composition confirmation unit 154 refers to the user information 230 and searches for the nickname “A-chan” of the user (P01).

撮影指示部160は、検索されたニックネームを含む指示メッセージを音声出力する(S54)。上述の例では、「あーちゃん、カメラに写るようにしてください。」という音声が発せられる。   The imaging instruction unit 160 outputs an instruction message including the searched nickname by voice (S54). In the above example, the voice “Ah-chan, please take a picture with the camera” is emitted.

その後、構図確認部154は、ユーザがカメラ118に向くために十分な時間の経過を待つ(S56)。そして、処理はS40に戻り、再び最新のライブビュー画像が取得される。   Thereafter, the composition confirmation unit 154 waits for a sufficient amount of time for the user to face the camera 118 (S56). Then, the process returns to S40, and the latest live view image is acquired again.

S44において顔領域の数がユーザIDの数と一致すると判定したとき、予約したユーザの顔がすべて写っているとみなす。この場合、処理は図12に移る。   When it is determined in S44 that the number of face areas matches the number of user IDs, it is considered that all of the reserved user's faces are shown. In this case, the process proceeds to FIG.

図12は、図11の構図確認処理の続きのフローチャートである。
S58以降の処理では、ライブビュー画像に含まれる各顔領域について、順次構図の適正度を判定する。そのため、構図確認部154は、判定の対象となる顔領域を1つ選択する(S58)。選択する順番は、任意である。
FIG. 12 is a flowchart subsequent to the composition confirmation process of FIG.
In the processing after S58, the appropriateness of the composition is sequentially determined for each face area included in the live view image. Therefore, the composition confirmation unit 154 selects one face area to be determined (S58). The order of selection is arbitrary.

まず、構図確認部154は、判定対象の顔領域に基づいてユーザの立ち位置が遠すぎるか否かを判定する(S60)。たとえば、判定対象の顔領域の大きさが、顔領域の大きさに関する適正範囲の下限値より小さい場合には、構図確認部154は、ユーザの立ち位置が遠すぎると判定する。あるいは、判定対象の顔領域に含まれる目の間隔が、目の間隔に関する適正範囲の下限値より短い場合に、ユーザの立ち位置が遠すぎると判定してもよい。   First, the composition confirmation unit 154 determines whether the user's standing position is too far based on the face area to be determined (S60). For example, when the size of the face area to be determined is smaller than the lower limit value of the appropriate range related to the size of the face area, the composition confirmation unit 154 determines that the user's standing position is too far. Alternatively, it may be determined that the user's standing position is too far when the interval between the eyes included in the face area to be determined is shorter than the lower limit value of the appropriate range related to the interval between the eyes.

図13は、ライブビュー画像の第1例である。
このライブビュー画像における左側の被写体がユーザ(P01)であり、右側の被写体がユーザ(P02)である。なお、第2例以降についても、左右の被写体とユーザの対応関係は、第1例の場合と同様である。左側の顔領域301aが、顔領域の大きさに関する適正範囲の下限値より小さいために、顔領域301aについてユーザの立ち位置が遠すぎると判定される。あるいは、左側の顔領域301aに含まれる目の間隔303aが、目の間隔に関する適正範囲の下限値より短いために、顔領域301aについてユーザの立ち位置が遠すぎると判定してもよい。
FIG. 13 is a first example of a live view image.
The left subject in the live view image is the user (P01), and the right subject is the user (P02). In the second and subsequent examples, the correspondence between the left and right subjects and the user is the same as in the first example. Since the left face area 301a is smaller than the lower limit of the appropriate range related to the size of the face area, it is determined that the user's standing position is too far for the face area 301a. Alternatively, since the eye interval 303a included in the left face region 301a is shorter than the lower limit value of the appropriate range related to the eye interval, it may be determined that the user's standing position is too far for the face region 301a.

一方、右側の顔領域301bの大きさは、顔領域の大きさに関する適正範囲の下限値以上であるために、顔領域301bについてユーザの立ち位置が遠すぎないと判定される。あるいは、右側の顔領域301bに含まれる目の間隔303bが、目の間隔に関する適正範囲の下限値以上であるために、顔領域301bについてユーザの立ち位置が遠すぎないと判定してもよい。   On the other hand, since the size of the right face area 301b is equal to or greater than the lower limit of the appropriate range related to the size of the face area, it is determined that the user's standing position is not too far for the face area 301b. Alternatively, since the distance 303b between the eyes included in the right face area 301b is equal to or larger than the lower limit value of the appropriate range related to the eye distance, it may be determined that the user's standing position is not too far for the face area 301b.

ユーザの立ち位置が遠すぎると判定したとき(S60のY)、構図確認部154は、判定対象の顔領域に相当するユーザを判別する(S62)。このように、ある顔領域について適正度が低いと判定した時点でユーザを判別すれば、予めすべての顔領域についてユーザを判別しておく方法に比べて、判別処理の回数が抑制される。後述するように、ユーザ判別において顔識別処理を行うのであれば、顔識別処理に伴う負荷が軽減される。   When it is determined that the user's standing position is too far (Y in S60), the composition confirmation unit 154 determines a user corresponding to the face area to be determined (S62). As described above, if the user is determined when it is determined that the degree of appropriateness is low for a certain face area, the number of times of the determination process is suppressed as compared with the method of determining the user for all the face areas in advance. As will be described later, if face identification processing is performed in user discrimination, the load associated with face identification processing is reduced.

図14は、S62(図12)ユーザ判別処理の詳細を示すフローチャートである。
画像認識部152は、判定対象の顔領域を各ユーザと照合する(S74)。つまり、図11のS48の場合と同様に顔識別を試みる。前述の通り、顔領域から抽出される特徴データが、受付時に入力されたユーザIDに対応する特徴データと一致または近似する場合に、照合が成功したことになる。
FIG. 14 is a flowchart showing details of the user determination processing in S62 (FIG. 12).
The image recognition unit 152 collates the face area to be determined with each user (S74). That is, face identification is attempted in the same manner as in S48 of FIG. As described above, when the feature data extracted from the face area matches or approximates the feature data corresponding to the user ID input at the time of reception, the verification is successful.

画像認識部152は、判定対象の顔領域がいずれかのユーザとの照合において成功したか否かを判定する(S76)。いずれかのユーザとの照合が成功したときには(S76のY)、判定対象の顔領域に対応するユーザIDが特定し、当該ユーザIDに対応するニックネームを特定する。図13に示したライブビュー画像の第1例では、遠すぎると判定された左側の顔領域301aについて、ユーザ(P01)のニックネーム「あーちゃん」が特定される。   The image recognition unit 152 determines whether or not the face area to be determined has been successfully verified with any user (S76). When collation with any user is successful (Y in S76), the user ID corresponding to the face area to be determined is specified, and the nickname corresponding to the user ID is specified. In the first example of the live view image shown in FIG. 13, the nickname “A-chan” of the user (P01) is specified for the left face area 301a determined to be too far.

ただし、たとえば、遠すぎると判定された顔領域が陰になっていて不鮮明である場合には、顔識別が失敗することも考えられる。このようにいずれのユーザとの照合においても失敗したときは(S76のN)、直接的にユーザを特定できないので、遠すぎないと判定された顔領域のユーザを特定することによって、遠すぎると判定された顔領域のユーザを絞り込む。   However, for example, when the face area determined to be too far is shaded and unclear, face identification may fail. Thus, when collation with any user fails (N in S76), since the user cannot be identified directly, if the user is determined to be too far by identifying the user in the face area determined not to be too far. Narrow down the users of the determined face area.

そのため、画像認識部152は、遠すぎると判定された顔領域以外のすべての顔領域について、各ユーザと照合する(S78)。これらの顔領域について照合が成功すれば、目的以外のユーザIDが特定される。つまり、受付時に入力されたユーザIDのうち、この顔識別で特定されなかったユーザIDが、遠すぎると判定された顔領域に相当する(S80)。ユーザ判別処理を終えると、処理は図12のS64へ戻る。   Therefore, the image recognition unit 152 collates with each user for all face areas other than the face area determined to be too far (S78). If collation succeeds for these face areas, a user ID other than the intended one is specified. That is, among the user IDs input at the time of reception, the user ID that is not specified by the face identification corresponds to the face area determined to be too far (S80). When the user discrimination process is finished, the process returns to S64 of FIG.

撮影指示部160は、特定されたニックネームを含む指示メッセージを音声出力する(S64)。立ち位置が遠すぎると判定されたときは、ユーザのニックネームに続けてユーザが前へ移動するように促すフレーズが読み上げられる。たとえば、「あーちゃん、前に出てください。」という音声が発せられる。   The imaging instruction unit 160 outputs an instruction message including the identified nickname by voice (S64). If it is determined that the standing position is too far, the user's nickname is followed by a phrase that prompts the user to move forward. For example, the voice “Ah-chan, please go ahead” is emitted.

その後、構図確認部154は、ユーザが前進するために十分な時間の経過を待つ(S66)。そして、処理は図11のS40に戻る。   Thereafter, the composition confirmation unit 154 waits for a sufficient time for the user to move forward (S66). Then, the process returns to S40 of FIG.

図12のS60においてユーザの立ち位置が遠すぎないと判定した場合には、次に構図確認部154は、判定対象の顔領域に基づいてユーザの立ち位置が近すぎるか否かを判定する(S68)。たとえば、判定対象の顔領域が、顔領域の大きさに関する適正範囲の上限値より大きい場合には、構図確認部154は、ユーザの立ち位置が近すぎると判定する。あるいは、判定対象の顔領域に含まれる目の間隔が、目の間隔に関する適正範囲の上限値より長い場合に、ユーザの立ち位置が近すぎると判定してもよい。   When it is determined in S60 of FIG. 12 that the user's standing position is not too far, the composition confirmation unit 154 determines whether or not the user's standing position is too close based on the face area to be determined ( S68). For example, when the determination target face area is larger than the upper limit value of the appropriate range related to the size of the face area, the composition confirmation unit 154 determines that the user's standing position is too close. Alternatively, it may be determined that the user's standing position is too close when the interval between the eyes included in the face area to be determined is longer than the upper limit value of the appropriate range related to the interval between the eyes.

図15は、ライブビュー画像の第2例である。
この例で、左側の顔領域301cが、顔領域の大きさに関する適正範囲の上限値より大きいために、顔領域301cについてユーザの立ち位置が近すぎると判定される。あるいは、左側の顔領域301cに含まれる目の間隔303cが、目の間隔に関する適正範囲の上限値より長いために、顔領域301cについてユーザの立ち位置が近すぎると判定してもよい。
FIG. 15 is a second example of a live view image.
In this example, since the left face area 301c is larger than the upper limit value of the appropriate range regarding the size of the face area, it is determined that the user's standing position is too close to the face area 301c. Alternatively, it may be determined that the user's standing position is too close to the face region 301c because the eye interval 303c included in the left face region 301c is longer than the upper limit value of the appropriate range related to the eye interval.

一方、右側の顔領域301dの大きさは、顔領域の大きさに関する適正範囲の上限値以下であるために、顔領域301dについてユーザの立ち位置は近すぎないと判定される。あるいは、右側の顔領域301dに含まれる目の間隔303dが、目の間隔に関する適正範囲の上限値以下であるために、顔領域301dについてユーザの立ち位置は近すぎないと判定してもよい。   On the other hand, since the size of the right face area 301d is equal to or less than the upper limit value of the appropriate range related to the size of the face area, it is determined that the user's standing position is not too close to the face area 301d. Alternatively, it may be determined that the user's standing position is not too close to the face area 301d because the eye distance 303d included in the right face area 301d is less than or equal to the upper limit of the appropriate range related to the eye distance.

ユーザの立ち位置が近すぎると判定したとき(S68のY)、構図確認部154は、前述のとおり、判定対象の顔領域に相当するユーザを判別する(S62)。   When it is determined that the user's standing position is too close (Y in S68), the composition confirmation unit 154 determines the user corresponding to the face area to be determined as described above (S62).

立ち位置が近すぎるケースで、撮影指示部160は、ニックネームを含む指示メッセージの音声出力において(S64)、ニックネームに続けてユーザが後ろへ移動するように促すフレーズの音声を出力する。たとえば、「あーちゃん、後ろにさがってください。」という音声が発せられる。   In the case where the standing position is too close, in the voice output of the instruction message including the nickname (S64), the shooting instruction unit 160 outputs the voice of the phrase prompting the user to move backward following the nickname. For example, the voice “Ah-chan, please look back” is emitted.

その後、構図確認部154は、ユーザが後退するために十分な時間の経過を待つ(S66)。そして、処理は図11のS40に戻る。   Thereafter, the composition confirmation unit 154 waits for a sufficient amount of time for the user to retreat (S66). Then, the process returns to S40 of FIG.

図12のS68においてユーザの立ち位置が近すぎないと判定した場合には、次に構図確認部154は、判定対象の顔領域に基づいてユーザの立ち位置が端に寄りすぎているか否かを判定する(S70)。たとえば、判定対象の顔領域がライブビュー画像の左端あるいは右端に接している場合に、ユーザの立ち位置が端に寄りすぎていると判定する。   If it is determined in S68 of FIG. 12 that the user's standing position is not too close, then the composition confirmation unit 154 determines whether or not the user's standing position is too close to the end based on the face area to be determined. Determine (S70). For example, when the determination target face area is in contact with the left end or the right end of the live view image, it is determined that the user's standing position is too close to the end.

図16は、ライブビュー画像の第3例である。
この例で、左側の顔領域301eがライブビュー画像の左端に接しているので、顔領域301eについてユーザの立ち位置が端に寄りすぎていると判定される。一方、右側の顔領域301fは、ライブビュー画像の左端と右端のいずれにも接していないので、顔領域301eについてユーザの立ち位置が端に寄りすぎていないと判定される。
FIG. 16 is a third example of a live view image.
In this example, since the left face area 301e is in contact with the left end of the live view image, it is determined that the user's standing position is too close to the end of the face area 301e. On the other hand, since the right face area 301f is not in contact with either the left end or the right end of the live view image, it is determined that the user's standing position is not too close to the end of the face area 301e.

ユーザの立ち位置が端に寄りすぎていると判定したとき(S70のY)、構図確認部154は、前述のとおり、判定対象の顔領域に相当するユーザを判別する(S62)。   When it is determined that the user's standing position is too close to the end (Y in S70), the composition confirmation unit 154 determines a user corresponding to the face area to be determined as described above (S62).

立ち位置が端に寄りすぎているケースで、撮影指示部160は、ニックネームを含む指示メッセージ音声の出力において(S64)、ニックネームに続けてユーザが内側へ移動するように促すフレーズの音声を出力する。たとえば、「あーちゃん、真ん中に寄ってください。」という音声が発せられる。   In the case where the standing position is too close to the end, in the output of the instruction message sound including the nickname (S64), the shooting instruction unit 160 outputs the sound of the phrase prompting the user to move inward following the nickname. . For example, the voice “Ah, please go to the middle.”

その後、構図確認部154は、ユーザが内側に寄るために十分な時間の経過を待つ(S66)。そして、処理は図11のS40に戻る。   Thereafter, the composition confirmation unit 154 waits for sufficient time for the user to move inward (S66). Then, the process returns to S40 of FIG.

図12のS70においてユーザの立ち位置が端に寄りすぎていないと判定した場合には、次に構図確認部154は、判定対象の顔領域に基づいてユーザの顔が隠れすぎているか否かを判定する(S72)。たとえば、判定対象の顔領域に両目と口のいずれかが含まれない場合に、ユーザの顔が隠れすぎていると判定する。   If it is determined in S70 of FIG. 12 that the user's standing position is not too close to the end, then the composition confirmation unit 154 determines whether or not the user's face is too hidden based on the face area to be determined. Determine (S72). For example, if either of the eyes or the mouth is not included in the determination target face area, it is determined that the user's face is too hidden.

図17は、ライブビュー画像の第4例である。
この例で、左側の顔領域301gに口が含まれないので、顔領域301eについてユーザの顔が隠れすぎていると判定される。一方、右側の顔領域301hには、両目と口が含まれるので、顔領域301hについてユーザの顔が隠れすぎていないと判定される。
FIG. 17 is a fourth example of a live view image.
In this example, since the mouth is not included in the left face area 301g, it is determined that the user's face is too hidden in the face area 301e. On the other hand, since the right face area 301h includes both eyes and mouth, it is determined that the user's face is not hidden too much in the face area 301h.

ユーザの顔が隠れすぎていると判定したとき(S72のY)、構図確認部154は、前述のとおり、判定対象の顔領域に相当するユーザを判別する(S62)。   When it is determined that the user's face is too hidden (Y in S72), as described above, the composition confirmation unit 154 determines the user corresponding to the face area to be determined (S62).

ユーザの顔が隠れすぎているケースで、撮影指示部160は、ニックネームを含む指示メッセージの音声出力において(S64)、ニックネームに続けてユーザが顔を隠さないように促すフレーズの音声を出力する。たとえば、「あーちゃん、顔を隠さないでください。」という音声が発せられる。   In the case where the user's face is too hidden, the shooting instruction unit 160 outputs a voice of a phrase that prompts the user not to hide the face following the nickname in the voice output of the instruction message including the nickname (S64). For example, the voice “Ah, please do not hide your face” is emitted.

その後、構図確認部154は、ユーザが顔を妨げているものをよけるために十分な時間の経過を待つ(S66)。そして、処理は図11のS40に戻る。   After that, the composition confirmation unit 154 waits for a sufficient amount of time to avoid the user's obstruction (S66). Then, the process returns to S40 of FIG.

図12のS72においてユーザの顔が隠れすぎていないと判定した場合に、処理は図18に移る。   If it is determined in S72 of FIG. 12 that the user's face is not too hidden, the process proceeds to FIG.

図18は、図12の構図確認処理の続きのフローチャートである。次に構図確認部154は、判定対象の顔領域に基づいてユーザの顔が正面を向いているか否かを判定する(S82)。たとえば、判定対象の顔領域に含まれる目の間隔が比較的短い場合に、ユーザの顔は横を向き、正面を向いていないと判定する。また、各目と口の間隔が比較的短い場合に、ユーザの顔が下方を向きあるいは上方を向き、正面を向いていないと判定してもよい。   FIG. 18 is a flowchart subsequent to the composition confirmation process of FIG. Next, the composition confirmation unit 154 determines whether or not the user's face is facing the front based on the face area to be determined (S82). For example, when the interval between the eyes included in the face area to be determined is relatively short, it is determined that the user's face is facing sideways and not facing the front. Further, when the distance between each eye and the mouth is relatively short, it may be determined that the user's face is directed downward or upward and is not facing the front.

図19は、ライブビュー画像の第5例である。
この例で、左側の顔領域301iについて、目の間隔303iが比較的短いのでユーザの顔が正面を向いていないと判定される。一方、右側の顔領域303jについて、目の間隔303jは短くないのでユーザの顔が正面を向いていると判定される。
FIG. 19 is a fifth example of a live view image.
In this example, it is determined that the user's face is not facing the front because the eye interval 303i is relatively short for the left face area 301i. On the other hand, regarding the right face area 303j, the eye interval 303j is not short, so it is determined that the user's face is facing the front.

ユーザの顔が正面を向いていないと判定したとき(S82のN)、構図確認部154は、前述のとおり、判定対象の顔領域に相当するユーザを判別する(S62)。   When it is determined that the user's face is not facing the front (N in S82), the composition confirmation unit 154 determines the user corresponding to the face area to be determined as described above (S62).

ユーザの顔が正面を向いていないケースで、撮影指示部160は、ニックネームを含む指示メッセージの音声出力において(S64)、ニックネームに続けてユーザの顔が正面を向くように促すフレーズの音声を出力する。たとえば、「あーちゃん、顔を正面に向けてください。」という音声が発せられる。   In the case where the user's face is not facing the front, the shooting instruction unit 160 outputs the voice of the phrase prompting the user's face to face the front after the nickname in the voice output of the instruction message including the nickname (S64). To do. For example, the voice “Ah-chan, please turn your face to the front.”

その後、構図確認部154は、顔の向きを変えるために十分な時間の経過を待つ(S66)。そして、処理は図11のS40に戻る。   Thereafter, the composition confirmation unit 154 waits for a sufficient amount of time to change the orientation of the face (S66). Then, the process returns to S40 of FIG.

図18のS82においてユーザの顔が正面を向いていると判定した場合には、次に構図確認部154は、判定対象の顔領域に基づいてユーザが顔を傾けすぎているか否かを判定する(S84)。たとえば、判定対象の顔領域に含まれる両目を結ぶ線が縦方向に近い場合に、ユーザが顔を傾けすぎていると判定する。   If it is determined in S82 of FIG. 18 that the user's face is facing the front, then the composition confirmation unit 154 determines whether the user is tilting the face too much based on the face area to be determined. (S84). For example, when the line connecting both eyes included in the face area to be determined is close to the vertical direction, it is determined that the user is tilting the face too much.

図20は、ライブビュー画像の第6例である。
この例で、左側の顔領域301kについて、両目を結ぶ線が縦方向に近いのでユーザが顔を傾けすぎていると判定される。一方、右側の顔領域301jについて、両目を結ぶ線が横方向に近いのでユーザが顔を傾けすぎていないと判定される。
FIG. 20 is a sixth example of a live view image.
In this example, for the left face area 301k, the line connecting both eyes is close to the vertical direction, so it is determined that the user is tilting the face too much. On the other hand, for the right face area 301j, the line connecting both eyes is close to the horizontal direction, so it is determined that the user is not tilting the face too much.

ユーザが顔を傾けすぎていると判定したとき(S84のN)、構図確認部154は、前述のとおり、判定対象の顔領域に相当するユーザを判別する(S62)。   When it is determined that the user is tilting the face too much (N in S84), the composition confirmation unit 154 determines the user corresponding to the face area to be determined as described above (S62).

ユーザが顔を傾けすぎているケースで、撮影指示部160は、ニックネームを含む指示メッセージの音声出力において(S64)、ニックネームに続けてユーザの顔が傾けすぎないように促すフレーズの音声を出力する。たとえば、「あーちゃん、あまり顔を傾けないでください。」という音声が発せられる。   In the case where the user is tilting too much, the shooting instruction unit 160 outputs a voice of a phrase that prompts the user's face not to tilt too much following the nickname in the voice output of the instruction message including the nickname (S64). . For example, the voice “Ah-chan, please do n’t lean too much.”

その後、構図確認部154は、ユーザが顔をおこすために十分な時間の経過を待つ(S66)。そして、処理は図11のS40に戻る。   After that, the composition confirmation unit 154 waits for a sufficient time for the user to make a face (S66). Then, the process returns to S40 of FIG.

図18のS82においてユーザが顔を傾けすぎていないと判定した場合には、次に構図確認部154は、判定対象の顔領域に含まれる瞼の中における瞳の位置に基づいてユーザの視線がカメラ118に向いているか否かを判定する(S86)。たとえば、両目ともに瞳が瞼内の中央に近ければ、ユーザの視線がカメラ118に向いていると判定する。   If it is determined in S82 in FIG. 18 that the user does not tilt the face too much, the composition confirmation unit 154 next determines the user's line of sight based on the position of the pupil in the eyelid included in the face area to be determined. It is determined whether or not the camera 118 is facing (S86). For example, if the eyes of both eyes are close to the center of the eyelid, it is determined that the user's line of sight is facing the camera 118.

図21は、ライブビュー画像の第7例である。
この例で、左側の顔領域301mの両目ともに瞳が瞼内の右側に寄っているので、ユーザの視線がカメラ118に向いていないと判定される。一方、右側の顔領域301nの両目ともに瞳が瞼内の中央に近いので、ユーザの視線がカメラ118に向いていると判定される。
FIG. 21 is a seventh example of a live view image.
In this example, since both eyes of the left face area 301m are close to the right side of the eyelid, it is determined that the user's line of sight is not facing the camera 118. On the other hand, since both eyes of the right face area 301n have pupils close to the center of the eyelid, it is determined that the user's line of sight is facing the camera 118.

ユーザの視線がカメラ118に向いていないと判定したとき(S86のN)、構図確認部154は、前述のとおり、判定対象の顔領域に相当するユーザを判別する(S62)。   When it is determined that the user's line of sight is not facing the camera 118 (N in S86), the composition confirmation unit 154 determines the user corresponding to the face area to be determined as described above (S62).

ユーザの視線がカメラ118に向いていないケースで、撮影指示部160は、ニックネームを含む指示メッセージの音声出力において(S64)、ニックネームに続けてユーザが視線をカメラ118に向けるように促すフレーズの音声を出力する。たとえば、「あーちゃん、カメラを見てください。」という音声が発せられる。   In the case where the user's line of sight is not facing the camera 118, the shooting instruction unit 160, in the sound output of the instruction message including the nickname (S64), the voice of the phrase prompting the user to point the line of sight toward the camera 118 following the nickname Is output. For example, the voice “Ah-chan, look at the camera” is emitted.

その後、構図確認部154は、視線を変えるために十分な時間の経過を待つ(S66)。そして、処理は図11のS40に戻る。   Thereafter, the composition confirmation unit 154 waits for a sufficient time to change the line of sight (S66). Then, the process returns to S40 of FIG.

図18のS82においてユーザの視線がカメラ118に向いていると判定した場合には、次に構図確認部154は、判定対象の顔領域に基づいてユーザが笑っているか否かを判定する(S88)。たとえば、顔領域に含まれる両目と口の形状が、笑顔における両目と口の標準形状に近似している場合に、ユーザが笑っていると判定する。あるいは、画像認識部152における表情判定機能を用いてもよい。   When it is determined in S82 of FIG. 18 that the user's line of sight is facing the camera 118, the composition confirmation unit 154 next determines whether or not the user is laughing based on the face area to be determined (S88). ). For example, if the shape of both eyes and mouth included in the face area approximates the standard shape of both eyes and mouth in a smile, it is determined that the user is laughing. Alternatively, the facial expression determination function in the image recognition unit 152 may be used.

ユーザが笑っていないと判定したとき(S88のN)、構図確認部154は、前述のとおり、判定対象の顔領域に相当するユーザを判別する(S62)。   When it is determined that the user is not laughing (N in S88), the composition confirmation unit 154 determines the user corresponding to the face area to be determined as described above (S62).

ユーザが笑っていないケースで、撮影指示部160は、ニックネームを含む指示メッセージの音声出力において(S64)、ニックネームに続けてユーザが笑うように促すフレーズの音声を出力する。たとえば、「あーちゃん、笑ってください。」という音声が発せられる。   In the case where the user is not laughing, the shooting instruction unit 160 outputs a voice of a phrase prompting the user to laugh after the nickname in the voice output of the instruction message including the nickname (S64). For example, the voice “Ah, please laugh.”

その後、構図確認部154は、表情を変えるために十分な時間の経過を待つ(S66)。そして、処理は図11のS40に戻る。   Thereafter, the composition confirmation unit 154 waits for a sufficient time to change the facial expression (S66). Then, the process returns to S40 of FIG.

図18のS82においてユーザが笑っていると判定した場合には、判定対象の顔領域について構図の適正度が低くないので、次の顔領域の判定に移る。つまり、まだ検証していない顔領域が残っているときには(S90)、端子Dを介して図12のS58に戻って、上述して処理を繰り返す。一方、すべての顔領域について検証を終えた場合には、構図確認処理を終えると、処理は図10のS28へ戻る。   If it is determined in S82 in FIG. 18 that the user is laughing, the compositional degree of the face area to be determined is not low, and the process proceeds to determination of the next face area. That is, when a face area that has not yet been verified remains (S90), the process returns to S58 in FIG. On the other hand, when the verification has been completed for all the face regions, the processing returns to S28 in FIG. 10 when the composition confirmation processing is completed.

上述した例では、立ち位置の適正範囲として、各ユーザにおいて共通の基準を用いることを想定した。ただし、子供であれば顔が小さく、また顔の大きさには個人差がある。目の間隔についても同様に、年齢や顔立ちによって異なる。この点を考慮すれば、ユーザ固有の基準によって立ち位置や顔の向きの適否を判定するようにしてもよい。   In the above-described example, it is assumed that a common reference is used for each user as an appropriate range of the standing position. However, if you are a child, your face will be small, and the size of your face will vary from person to person. Similarly, the interval between eyes varies depending on the age and the appearance. In consideration of this point, the suitability of the standing position and the face orientation may be determined based on a user-specific standard.

図22に示すように、立ち位置や顔の向きに関する判定を行う前にユーザ判別処理を行ってユーザIDを特定し(S92)、ユーザIDに対応するユーザ情報230の顔情報に含まれる大きさ係数を用いて基準を修正するようにしてもよい。S60において、構図確認部154は、顔領域の大きさに関する適正範囲の上限値に大きさ係数を乗ずれば、ユーザに適した上限基準が得られる。また、目の間隔に関する適正範囲の上限値に大きさ係数を乗じて、ユーザに適した上限基準が得られるようにしてもよい。同様に、S68において、構図確認部154は、顔領域の大きさに関する適正範囲の下限値に間隔係数を乗ずれば、ユーザに適した下限基準が得られる。また、目の間隔に関する適正範囲の下限値に間隔係数を乗じて、ユーザに適した下限基準が得られるようにしてもよい。このようにすれば、誤った判定を減らすことができる。   As shown in FIG. 22, the user identification process is performed before the determination regarding the standing position and the face orientation is performed to identify the user ID (S92), and the size included in the face information of the user information 230 corresponding to the user ID. You may make it correct a reference | standard using a coefficient. In S60, the composition confirmation unit 154 can obtain an upper limit criterion suitable for the user by multiplying the upper limit value of the appropriate range related to the size of the face region by the size coefficient. Alternatively, the upper limit value suitable for the user may be obtained by multiplying the upper limit value of the appropriate range related to the eye interval by a size factor. Similarly, in S68, the composition confirmation unit 154 can obtain a lower limit criterion suitable for the user by multiplying the lower limit value of the appropriate range related to the size of the face area by the interval coefficient. Alternatively, the lower limit value suitable for the user may be obtained by multiplying the lower limit value of the appropriate range related to the eye interval by an interval coefficient. In this way, erroneous determinations can be reduced.

図23は、S28(図10)撮影条件設定処理の詳細を示すフローチャートである。
本実施の形態では、たとえば男女のペアが被写体である場合に、女性側のストロボの光量を男性側のストロボの光量よりも多くする。これは、女性が望むストロボの光量の平均値が、男性が望むストロボの光量の平均値よりも多いためである。
FIG. 23 is a flowchart showing details of S28 (FIG. 10) photographing condition setting processing.
In the present embodiment, for example, when a pair of men and women is a subject, the light amount of the strobe on the female side is made larger than the light amount of the strobe on the male side. This is because the average value of the amount of strobe light desired by women is larger than the average value of the amount of strobe light desired by men.

ここでは、被写体であるユーザが二人であることを前提とする。三人以上の場合に、たとえば右端のユーザと左端のユーザに着目してこれから述べる処理を行ってもよい。   Here, it is assumed that there are two users as subjects. In the case of three or more people, for example, the processing described below may be performed by paying attention to the right end user and the left end user.

撮影条件設定部157は、ライブビュー画像に含まれる各顔領域の性別を判定する(S94)。撮影条件設定部157は、画像認識部152における性別判定機能を用いるようにしてもよい。   The shooting condition setting unit 157 determines the gender of each face area included in the live view image (S94). The shooting condition setting unit 157 may use the gender determination function in the image recognition unit 152.

そして、撮影条件設定部157は、右側ユーザが女性であって、かつ左側ユーザが男性であるか否かを判定する(S95)。この条件を満たすと判定したとき(S95のY)、撮影条件設定部157は、右側ストロボ119bの光量を多く、左側ストロボ119aの光量を少なく設定する(S96)。そして、撮影条件設定処理を終えて、処理は図10のS30へ戻る。   Then, the shooting condition setting unit 157 determines whether the right user is female and the left user is male (S95). When it is determined that this condition is satisfied (Y in S95), the photographing condition setting unit 157 sets the light amount of the right strobe 119b to be large and the light amount of the left strobe 119a to be small (S96). Then, after completing the shooting condition setting process, the process returns to S30 of FIG.

S95において上記条件を満たさないと判定すると、撮影条件設定部157は、右側が男性であって、かつ左側が女性であるか否かを判定する(S97)。この条件を満たすと判定したとき(S97のY)、撮影条件設定部157は、右側ストロボ119bの光量を少なく、左側ストロボ119aの光量を多く設定する(S98)。そして、撮影条件設定処理を終えて、処理は図10のS30へ戻る。   If it is determined in S95 that the above condition is not satisfied, the imaging condition setting unit 157 determines whether the right side is male and the left side is female (S97). When it is determined that this condition is satisfied (Y in S97), the photographing condition setting unit 157 sets the light amount of the right strobe 119b to be small and sets the light amount of the left strobe 119a to be large (S98). Then, after completing the shooting condition setting process, the process returns to S30 of FIG.

S97において上記条件を満たさないと判定すると、撮影条件設定部157は、右側ストロボの光量と左側ストロボの光量を均等に設定する(S99)。そして、撮影条件設定処理を終えて、処理は図10のS30へ戻る。   If it is determined in S97 that the above condition is not satisfied, the photographing condition setting unit 157 sets the right and left strobe light amounts equally (S99). Then, after completing the shooting condition setting process, the process returns to S30 of FIG.

上述した例では、ユーザの性別に応じてストロボの光量を設定したが、ユーザの年齢に応じてストロボの光量を設定してもよい。この場合には、撮影条件設定部157は、ライブビュー画像に含まれる各顔領域に基づいてユーザの年齢を推定する。撮影条件設定部1572は、画像認識部152における年齢推定機能を用いるようにしてもよい。   In the example described above, the light amount of the strobe is set according to the sex of the user, but the light amount of the strobe may be set according to the age of the user. In this case, the shooting condition setting unit 157 estimates the age of the user based on each face area included in the live view image. The shooting condition setting unit 1572 may use the age estimation function in the image recognition unit 152.

そして、撮影条件設定部157は、左側ユーザの推定年齢から右側ユーザの推定年齢を引いた差が正の基準値を超える場合に、右側ストロボ119bの光量を少なく、左側ストロボ119aの光量を多く設定する。また、右側ユーザの推定年齢から左側ユーザの推定年齢を引いた差が正の基準値を超える場合に、右側ストロボ119bの光量を多く、左側ストロボ119aの光量を少なく設定する。上記両条件のいずれも満たさない場合には、撮影条件設定部157は、右側ストロボの光量と左側ストロボの光量を均等に設定する。   Then, when the difference obtained by subtracting the estimated age of the right user from the estimated age of the left user exceeds a positive reference value, the imaging condition setting unit 157 sets a small amount of light on the right strobe 119b and a large amount of light on the left strobe 119a. To do. Further, when the difference obtained by subtracting the estimated age of the left user from the estimated age of the right user exceeds a positive reference value, the light amount of the right strobe 119b is set to be large and the light amount of the left strobe 119a is set to be small. If neither of the above two conditions is satisfied, the photographing condition setting unit 157 sets the right light amount and the left light amount equally.

また、ユーザの肌特性に応じてストロボの光量を設定してもよい。この場合には、撮影条件設定部157は、ライブビュー画像に含まれる各顔領域に基づいてユーザの肌特性を判定する。たとえば、顔領域の明度が低い場合に色黒であると判定し、顔領域の明度が高い場合に色白であると判定する。撮影条件設定部157は、画像認識部152における肌特性判定機能を用いるようにしてもよい。   Moreover, you may set the light quantity of strobe according to a user's skin characteristic. In this case, the imaging condition setting unit 157 determines the user's skin characteristics based on each face area included in the live view image. For example, when the brightness of the face area is low, it is determined to be black, and when the brightness of the face area is high, it is determined to be white. The shooting condition setting unit 157 may use the skin characteristic determination function in the image recognition unit 152.

そして、撮影条件設定部157は、右側ユーザが色白であって、かつ左側ユーザが色黒である場合に、右側ストロボ119bの光量を少なく、左側ストロボ119aの光量を多く設定する。また、右側ユーザが色黒であって、かつ左側ユーザが色白である場合に、右側ストロボ119bの光量を多く、左側ストロボ119aの光量を少なく設定する。上記両条件のいずれも満たさない場合には、撮影条件設定部157は、右側ストロボの光量と左側ストロボの光量を均等に設定する。このようにすれば、肌の色が均質になりやすい。   Then, when the right user is fair and the left user is black, the shooting condition setting unit 157 sets the light amount of the right strobe 119b to be small and the light amount of the left strobe 119a to be large. Further, when the right user is black and the left user is white, the right light 119b is set to have a large light amount and the left flash 119a is set to a small light amount. If neither of the above two conditions is satisfied, the photographing condition setting unit 157 sets the right light amount and the left light amount equally. In this way, the skin color tends to be uniform.

また、ユーザの立ち位置の前後関係に応じてストロボの光量を設定してもよい。この場合には、撮影条件設定部157は、顔の大きさ又は目の間隔によって、ユーザの前後関係を判定する。撮影条件設定部157は、画像認識部152における距離判定機能を用いるようにしてもよい。   Further, the light amount of the strobe may be set according to the front-rear relationship of the user's standing position. In this case, the imaging condition setting unit 157 determines the user's context based on the face size or the eye spacing. The shooting condition setting unit 157 may use the distance determination function in the image recognition unit 152.

そして、撮影条件設定部157は、右側ユーザが左側ユーザより前に位置する場合に、右側ストロボ119bの光量を少なく、左側ストロボ119aの光量を多く設定する。また、左側ユーザが右側ユーザより前に位置する場合に、右側ストロボ119bの光量を少なく、左側ストロボ119aの光量を多く設定する。そして、右側ユーザと左側ユーザが横に並んでいる場合には、撮影条件設定部157は、右側ストロボの光量と左側ストロボの光量を均等に設定する。このようにすれば、明度が均質になりやすい。   Then, when the right user is positioned before the left user, the shooting condition setting unit 157 sets the light amount of the right strobe 119b to be small and sets the light amount of the left strobe 119a to be large. Further, when the left user is positioned before the right user, the light amount of the right strobe 119b is set small and the light amount of the left strobe 119a is set large. When the right user and the left user are side by side, the shooting condition setting unit 157 sets the right strobe light amount and the left strobe light amount equally. In this way, the brightness tends to be uniform.

さらに、ユーザの好みに応じてストロボの光量を設定してもよい。撮影条件設定部157は、各顔領域のユーザIDが不明である場合には、画像認識部152の顔識別によって各顔領域のユーザIDを特定する。そして、ユーザIDに対応するユーザ情報230に含まれる好みの撮影条件を特定する。撮影条件設定部157は、各ユーザの好みに合わせて撮影条件を設定する。たとえば、左側ユーザが多いストロボ光量を好み、かつ左側ユーザが少ないストロボ光量を好む場合には、左側ストロボ119aの光量を多く設定し、右側ストロボ119bの光量を少なく設定する。逆に、左側ユーザが少ないストロボ光量を好み、かつ左側ユーザが多いストロボ光量を好む場合には、左側ストロボ119aの光量を少なく設定し、右側ストロボ119bの光量を多く設定する。   Furthermore, the light quantity of the strobe may be set according to the user's preference. When the user ID of each face area is unknown, the shooting condition setting unit 157 specifies the user ID of each face area by the face identification of the image recognition unit 152. Then, a preferred shooting condition included in the user information 230 corresponding to the user ID is specified. The shooting condition setting unit 157 sets shooting conditions according to each user's preference. For example, when the left user prefers a large amount of strobe light and the left user prefers a small amount of strobe light, the left strobe 119a is set to a large amount and the right strobe 119b is set to a small amount. Conversely, when the left user prefers a small amount of strobe light and the left user prefers a large amount of strobe light, the left strobe 119a is set to a small amount and the right strobe 119b is set to a large amount.

あるいは、ユーザIDに対応するユーザ情報230に含まれる好みの仕上がりに応じて撮影条件を特定してもよい。たとえば、左側ユーザが美白の肌印象を好み、右側ユーザがナチュラルの肌印象を好む場合には、左側ストロボ119aの光量を多く設定し、右側ストロボ119bの光量を少なく設定する。逆に、左側ユーザがナチュラルの肌印象を好み、右側ユーザが美白の肌印象を好む場合には、左側ストロボ119aの光量を少なく設定し、右側ストロボ119bの光量を多く設定する。このようにすれば、両者が満足する撮影画像が得られる。   Alternatively, the shooting conditions may be specified according to a desired finish included in the user information 230 corresponding to the user ID. For example, when the left user prefers a whitened skin impression and the right user prefers a natural skin impression, the left strobe 119a is set to have a large amount of light and the right strobe 119b is set to have a small amount of light. Conversely, if the left user prefers a natural skin impression and the right user prefers a whitened skin impression, the light amount of the left strobe 119a is set low and the light amount of the right strobe 119b is set large. In this way, a captured image satisfying both can be obtained.

図10に示した撮影条件設定処理(S28)を終えると、撮影指示部160は、カウントダウンを開始する(S30)。そして、撮影制御部144は、撮影部138を制御して前半動画像を生成した後に、カウントがゼロになるタイミングで撮影部138による撮影静止画像の生成を行う(S32)。そのあと、撮影制御部144は、さらに撮影部138を制御して後半動画像を生成する。   When the shooting condition setting process (S28) shown in FIG. 10 is completed, the shooting instruction unit 160 starts a countdown (S30). Then, after the shooting control unit 144 controls the shooting unit 138 to generate the first half moving image, the shooting unit 138 generates a shot still image at a timing when the count becomes zero (S32). Thereafter, the shooting control unit 144 further controls the shooting unit 138 to generate the second half moving image.

後半動画像の生成を終えると、撮影制御部144は、撮影静止画像に事前修正を施す(S34)。ユーザは、受付装置102において事前修正の種類やパラメータを設定してもよいし、撮影画像の生成後に事前修正の種類やパラメータを指示してもよい。事前修正は、肌の色味調整、目の大きさの調整、まつ毛のボリュームの調整、撮影画像の背景に関する。撮影終了条件が成立したときには(S36のY)、ライブビューを停止して(S38)、撮影処理は終了する。撮影終了条件が成立していなければ(S36のN)、処理はS24に戻り、再度、撮影が行われる。撮影処理を終えると、処理は図4のS14へ戻る。   When the generation of the second half moving image is completed, the shooting control unit 144 performs pre-correction on the shot still image (S34). The user may set the type and parameter of pre-correction in the accepting device 102, or may instruct the type and parameter of pre-correction after generating the captured image. The pre-correction relates to skin color adjustment, eye size adjustment, eyelash volume adjustment, and background of a captured image. When the shooting end condition is satisfied (Y in S36), the live view is stopped (S38), and the shooting process ends. If the photographing end condition is not satisfied (N in S36), the process returns to S24, and photographing is performed again. When the photographing process is finished, the process returns to S14 of FIG.

編集処理(S14)において、編集処理部146は、編集入力インタフェースを初期設定する。編集処理部146は、マイパレット情報に基づいて編集入力インタフェースを設定してもよい。その後、編集処理部146は、ユーザからの撮影静止画像に対する各種編集入力を受け付け、撮影静止画像に装飾加工を施す。編集完了後、編集処理部146(編集装置126)は印刷処理部150(印刷装置110)に装飾加工が施された撮影静止画像を送信し、印刷処理部150は印刷準備を開始する。   In the editing process (S14), the editing processing unit 146 initializes an editing input interface. The edit processing unit 146 may set an edit input interface based on my palette information. Thereafter, the editing processing unit 146 receives various editing inputs for the photographed still image from the user, and performs decoration processing on the photographed still image. After the editing is completed, the editing processing unit 146 (editing device 126) transmits the captured still image that has been subjected to the decoration processing to the printing processing unit 150 (printing device 110), and the printing processing unit 150 starts preparation for printing.

編集処理(S14)が終了すると、印刷準備が完了次第、印刷処理部150は、装飾加工が施された撮影静止画像をシール台紙に印刷する(S16)。また、編集装置は、撮影画像や履歴に加えるデータなどをサーバ202へアップロードする(S18)。   When the editing process (S14) ends, as soon as the print preparation is completed, the print processing unit 150 prints the photographed still image on which the decoration process has been performed on the sticker mount (S16). Further, the editing apparatus uploads the captured image, data to be added to the history, and the like to the server 202 (S18).

以上、実施形態に基づいて遊戯画像撮影装置100および遊戯画像撮影システム200を説明した。
本実施形態における遊戯画像撮影装置100によれば、ライブビュー画像における構図の適正度が低い場合にユーザの呼称を発するので、メッセージを印象的に伝えることができる。ユーザがメッセージの内容を聞き入れやすく、ユーザは正しい写り方を学習しやすい。
The game image capturing apparatus 100 and the game image capturing system 200 have been described above based on the embodiment.
According to the game image capturing device 100 in the present embodiment, the user's name is issued when the appropriateness of the composition in the live view image is low, so that the message can be conveyed in an impressive manner. It is easy for the user to listen to the content of the message, and the user can easily learn how to capture the correct image.

このようにして、ユーザにメッセージの内容を聞き入れてもらえれば、撮影の失敗を減らせる。その結果、ユーザは、与えられる撮影機会(撮影回数や撮影時間)を無駄せず撮影を楽しむことができる。また、短い時間で撮影を終えられるようになるので、顧客回転率が高まり、収益に貢献できる面もある。   In this way, if the user listens to the content of the message, shooting failures can be reduced. As a result, the user can enjoy photographing without wasting a given photographing opportunity (number of photographing times or photographing time). In addition, since shooting can be completed in a short time, the customer turnover rate can be increased, contributing to profits.

また、被写体であるユーザを名指ししてメッセージを伝えるので、いずれのユーザへのメッセージであるかを把握させやすい。したがって、他方のユーザが勘違いすることを防ぎやすい。   In addition, since the user who is the subject is named and the message is transmitted, it is easy to grasp which user the message is directed to. Therefore, it is easy to prevent the other user from misunderstanding.

また、顔識別処理によってユーザを特定するので、自然な雰囲気で呼び掛けができる。   Further, since the user is specified by the face identification process, it is possible to call in a natural atmosphere.

また、顔識別処理において受付済みのユーザを候補として照合を行うので、多数の候補の中から個人を特定する形態に比べて照合回数が少なくなる。また、受付済みのユーザが解であることが自明であるので、顔識別処理において特徴データの近似度が高い方を選択するようにしてもよい。近似度が基準を超えなければ照合が成功しないという一般的な顔識別処理の方法に比べて処理を単純化でき、識別の精度も高められるという面もある。   In addition, since collation is performed by using a user who has been accepted in the face identification process as a candidate, the number of collations is reduced as compared with a mode in which an individual is identified from a large number of candidates. Further, since it is obvious that the accepted user is the solution, the face with the higher degree of approximation of the feature data may be selected in the face identification process. Compared with a general face recognition processing method in which matching is not successful unless the degree of approximation exceeds a reference, the processing can be simplified and the accuracy of identification can be improved.

また、いずれかの被写体に支障があると判断できた段階で、その被写体について顔識別を行うので、顔識別処理の機会を少なくし、処理負荷を軽減することができる。   In addition, since it is possible to determine the face of any subject when it is determined that there is a problem, the opportunity for face identification processing can be reduced, and the processing load can be reduced.

被写体のいずれかに支障がある場合に限ってそのユーザに注意すれば足りるので、このようにしても機能的に問題はない。一方、適正度の判定に先立ってすべての被写体について顔識別処理を行う方法では、注意が不要であるユーザについても顔識別処理を行うことになるので無駄である。顔識別処理の負荷は適正度の判定に係る処理負荷よりも大きいので、効率的に顔識別処理を行うようにすることは、処理負荷の軽減に大きく寄与する。   Since it is sufficient to pay attention to the user only when there is a problem with one of the subjects, there is no functional problem in this way. On the other hand, the method of performing face identification processing for all subjects prior to determination of appropriateness is useless because face identification processing is performed for a user who does not need attention. Since the load of the face identification process is larger than the processing load related to the determination of the appropriateness level, efficiently performing the face identification process greatly contributes to the reduction of the processing load.

また、顔位置が適正範囲を外れている場合に、顔位置を修正させることができる。顔の大きさが適正であり、顔の一部が欠落していなければ、たとえば事前修正の結果が期待通りになりやすい。   Further, when the face position is out of the appropriate range, the face position can be corrected. If the size of the face is appropriate and a part of the face is not missing, for example, the result of prior correction tends to be as expected.

また、顔の写り方が適正態様でない場合に、顔の写り方を修正させることができる。顔の向きや傾きが適正であれば、たとえば事前修正の結果が期待通りになりやすい。   Further, when the way the face is reflected is not in an appropriate mode, the way the face is reflected can be corrected. If the orientation and inclination of the face are appropriate, for example, the result of prior correction tends to be as expected.

また、表情が好ましくない場合に、表情を修正させることができる。したがって、好印象の撮影画像が得られるとともに、たとえば事前修正の結果が期待通りになりやすい。   In addition, when the facial expression is not preferable, the facial expression can be corrected. Therefore, a captured image with a good impression can be obtained, and for example, the result of prior correction tends to be as expected.

また、顔領域を検出できない場合や顔識別ができない場合でも、個人を特定できる工夫をした。しがって、たとえば極端なポーズをとるユーザにも正しく呼びかけができる。   In addition, a device has been devised that can identify an individual even when a face region cannot be detected or when a face cannot be identified. Therefore, for example, a user who takes an extreme pose can be properly called.

また、ユーザ固有の基準を用いれば、ユーザの個体差に応じて構図の適正度を判定できる。   Further, if a user-specific criterion is used, the appropriateness of composition can be determined according to individual differences among users.

また、ユーザの特性や好みに応じて撮影条件を設定するので、質感を統一したり、ユーザの個性を強調させることができる。   In addition, since shooting conditions are set according to the user's characteristics and preferences, it is possible to unify the texture and emphasize the individuality of the user.

以上に示したように、撮影の失敗を減らせば、ユーザの満足度が高まり、さらに利用機会が増えると期待できる。   As described above, if shooting failures are reduced, it can be expected that the degree of user satisfaction will increase and the usage opportunities will increase.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。   In addition, this invention is not limited to the said embodiment and modification, A component can be deform | transformed and embodied in the range which does not deviate from a summary. Various inventions may be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments and modifications. Moreover, you may delete some components from all the components shown by the said embodiment and modification.

遊戯画像撮影装置100とサーバ202、ユーザ端末206により、特に、遊戯画像撮影装置100とサーバ202により遊戯画像撮影システム200が構成されるとして説明したが、遊戯画像撮影装置100の機能の一部はサーバ202により実現されてもよいし、サーバ202の機能の一部が遊戯画像撮影装置100に割り当てられてもよい。また、遊戯画像撮影装置100やサーバ202以外の第3の装置が、これらの装置の機能の一部を担ってもよい。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力や遊戯画像撮影システム200に求められる仕様等に鑑みて決定されればよい。   Although it has been described that the game image photographing apparatus 100, the server 202, and the user terminal 206 constitute the game image photographing system 200, particularly, the game image photographing apparatus 100 and the server 202, some of the functions of the game image photographing apparatus 100 are as follows. It may be realized by the server 202, or a part of the function of the server 202 may be assigned to the game image capturing apparatus 100. Further, a third device other than the game image capturing device 100 and the server 202 may take part of the functions of these devices. How to allocate a plurality of functions necessary for realizing the present invention to one or a plurality of hardware depends on the processing capability of each hardware, specifications required for the game image capturing system 200, and the like. It may be determined in view of the above.

たとえば、遊戯画像撮影装置100のみにより、遊戯画像撮影システム200の機能が実現されてもよい。この場合、遊戯画像撮影装置100のデータ格納部136がユーザ情報230等を格納し、重要画像選択部220、撮影条件登録部222、ユーザ情報管理部224、画像認識部292の各機能は遊戯画像撮影装置100に実装されるとしてもよい。また、構図確認処理等をサーバ202により実行してもよい。サーバ202が、好み特定部164、差判定部156等の各機能を実装してもよい。   For example, the function of the game image shooting system 200 may be realized only by the game image shooting device 100. In this case, the data storage unit 136 of the game image photographing device 100 stores the user information 230 and the like, and the functions of the important image selection unit 220, the photographing condition registration unit 222, the user information management unit 224, and the image recognition unit 292 are game images. It may be mounted on the photographing apparatus 100. Further, composition confirmation processing or the like may be executed by the server 202. The server 202 may implement functions such as the preference specifying unit 164 and the difference determination unit 156.

[変形例]
本実施形態においては、ユーザがユーザIDを入力することを前提として説明した。変形例として、ユーザIDとユーザの顔画像を対応づけておき、受付装置102においてユーザの顔画像を撮影することによりユーザを特定してもよい。顔画像以外にも指紋等の生体情報をユーザIDの代わりに使用してもよい。このような制御方法によれば、ユーザカードを忘れたユーザであっても、事前に会員登録をしていれば会員としてのサービスを受けることができる。
[Modification]
This embodiment has been described on the assumption that the user inputs a user ID. As a modification, the user ID may be associated with the user's face image, and the user may be identified by capturing the user's face image in the receiving apparatus 102. Other than the face image, biometric information such as a fingerprint may be used instead of the user ID. According to such a control method, even a user who forgets a user card can receive a service as a member if the member is registered in advance.

100 遊戯画像撮影装置、102 受付装置、104 撮影ブース、106 編集ブース、108 受付モニタ、110 印刷装置、112 第1撮影モニタ、114 第2撮影モニタ、116 ライト、118 カメラ、119a 左側ストロボ、119b 右側ストロボ、120 編集モニタ、122 スタイラスペン、124 カーテン、126 編集装置、128 撮影装置、130 ユーザインタフェース処理部、132 データ処理部、134 通信部、136 データ格納部、138 撮影部、140 入力部、142 出力部、144 撮影制御部、146 編集処理部、148 受付管理部、150 印刷処理部、152 画像認識部、154 構図確認部、156 差判定部、157 撮影条件設定部、158 ID取得部、159 事前修正部、160 撮影指示部、162 説明部、164 好み判定部、166 ユーザ情報取得部、168 ユーザID送信部、170 画像出力部、188 画像送信部、200 遊戯画像撮影システム、202 サーバ、204 インターネット、206 ユーザ端末、210 通信部、212 データ処理部、214 データ格納部、216 ユーザID取得部、218 ユーザ情報送信部、220 重要画像選択部、222 撮影条件登録部、224 ユーザ情報管理部、230 ユーザ情報、290 フィードバック情報、292 画像認識部、296 画像受信部、301a 顔領域、301b 顔領域、301c 顔領域、301d 顔領域、301e 顔領域、301f 顔領域、301g 顔領域、301h 顔領域、301i 顔領域、301j 顔領域、301k 顔領域、301l 顔領域、301m 顔領域、301n 顔領域、303a 目の間隔、303b 目の間隔、303c 目の間隔、303d 目の間隔、303i 目の間隔、303j 目の間隔   DESCRIPTION OF SYMBOLS 100 Game image shooting device, 102 Reception device, 104 Shooting booth, 106 Editing booth, 108 Reception monitor, 110 Printing device, 112 First shooting monitor, 114 Second shooting monitor, 116 Light, 118 Camera, 119a Left strobe, 119b Right Strobe, 120 editing monitor, 122 stylus pen, 124 curtain, 126 editing device, 128 photographing device, 130 user interface processing unit, 132 data processing unit, 134 communication unit, 136 data storage unit, 138 photographing unit, 140 input unit, 142 Output unit, 144 shooting control unit, 146 editing processing unit, 148 reception management unit, 150 print processing unit, 152 image recognition unit, 154 composition confirmation unit, 156 difference determination unit, 157 shooting condition setting unit, 158 ID acquisition unit, 159 Advance repair 160, shooting instruction section, 162 explanation section, 164 preference determination section, 166 user information acquisition section, 168 user ID transmission section, 170 image output section, 188 image transmission section, 200 game image shooting system, 202 server, 204 Internet, 206 User terminal, 210 Communication unit, 212 Data processing unit, 214 Data storage unit, 216 User ID acquisition unit, 218 User information transmission unit, 220 Important image selection unit, 222 Shooting condition registration unit, 224 User information management unit, 230 User Information, 290 feedback information, 292 image recognition unit, 296 image receiving unit, 301a face area, 301b face area, 301c face area, 301d face area, 301e face area, 301f face area, 301g face area, 301h face area, 301i face Region, 301j Face area, 301k face area, 301l face area, 301m face area, 301n face area, 303a eye spacing, 303b eye spacing, 303c eye spacing, 303d eye spacing, 303i eye spacing, 303j eye spacing

Claims (16)

ユーザを被写体として撮影する撮影部と、
前記撮影部を用いて前記被写体のライブビュー画像を生成するライブビュー画像生成部と、
撮影画像を編集する編集部と、
前記編集された撮影画像を出力する画像出力部と、
前記ライブビュー画像における構図の適正度を判定し、当該適正度が低いと判定した場合に、前記ユーザのIDを特定し、当該特定されたIDに対応する呼称を特定する構図確認部と、
前記構図確認部によって特定された呼称を含むメッセージを出力するメッセージ出力部と、を備えることを特徴とする遊戯画像撮影システム。
A shooting unit for shooting a user as a subject;
A live view image generation unit that generates a live view image of the subject using the photographing unit;
An editing section for editing the shot image;
An image output unit for outputting the edited photographed image;
A composition confirmation unit that determines the appropriateness of the composition in the live view image, specifies the user ID when determining that the appropriateness is low, and specifies the name corresponding to the specified ID;
A game image photographing system comprising: a message output unit that outputs a message including a name specified by the composition confirmation unit.
前記構図確認部は、前記ライブビュー画像に複数の顔領域が含まれる場合に、当該顔領域毎に前記適正度を判定し、前記適正度が低いと判定された顔領域に対応するIDを特定し、当該特定されたIDに対応する呼称を特定することを特徴とする請求項1に記載の遊戯画像撮影システム。   When the live view image includes a plurality of face areas, the composition confirmation unit determines the appropriateness for each face area, and identifies an ID corresponding to the face area determined to have a low appropriateness The game image capturing system according to claim 1, wherein a designation corresponding to the identified ID is identified. 前記構図確認部は、顔領域を画像認識によって識別する顔識別処理によって前記顔領域に対応する前記IDを特定することを特徴とする請求項2に記載の遊戯画像撮影システム。   The game image capturing system according to claim 2, wherein the composition confirmation unit identifies the ID corresponding to the face area by face identification processing for identifying the face area by image recognition. 撮影前に、被写体となる複数のユーザそれぞれのIDを複数取得する取得部、を更に備え、
前記構図確認部は、前記顔識別処理において、前記取得された複数IDの各々に対応する特徴データを参照することを特徴とする請求項3に記載の遊戯画像撮影システム。
An acquisition unit that acquires a plurality of IDs of a plurality of users as subjects before photographing;
The game image capturing system according to claim 3, wherein the composition confirmation unit refers to feature data corresponding to each of the acquired plurality of IDs in the face identification process.
前記構図確認部は、前記複数の顔領域のうちいずれかの顔領域について適正度が低いと判定した後に、前記顔識別処理を行うことを特徴とする請求項3又は4に記載の遊戯画像撮影システム。   5. The game image shooting according to claim 3, wherein the composition confirmation unit performs the face identification processing after determining that the degree of appropriateness is low for any one of the plurality of face regions. system. 前記構図確認部は、前記顔領域毎に顔位置が適正範囲を外れているか否かを判定し、
前記メッセージ出力部は、前記顔位置が前記適正範囲を外れているために前記適正度が低いと判定された顔領域のユーザを、前記顔位置が前記適正範囲に収まるように導く前記メッセージを出力することを特徴とする請求項2から5のいずれかに記載の遊戯画像撮影システム。
The composition confirmation unit determines whether a face position is outside an appropriate range for each face region,
The message output unit outputs the message that guides a user in a face area that is determined to have low appropriateness because the face position is out of the appropriate range so that the face position is within the appropriate range. The game image shooting system according to claim 2, wherein the game image shooting system is a game image shooting system.
前記構図確認部は、前記顔領域毎に顔の写り方が適正態様であるか否かを判定し、
前記メッセージ出力部は、前記顔の写り方が前記適正態様でないために前記適正度が低いと判定された顔領域のユーザに、前記顔の写り方を前記適正態様にするように促す前記メッセージを出力することを特徴とする請求項2から6のいずれかに記載の遊戯画像撮影システム。
The composition confirmation unit determines whether or not the appearance of the face is an appropriate mode for each face area,
The message output unit prompts the user of a face area that is determined to have a low degree of appropriateness because the way of capturing the face is not the appropriate mode to prompt the user to change the way of capturing the face to the proper mode. The game image photographing system according to claim 2, wherein the game image photographing system outputs the game image.
前記構図確認部は、前記顔領域毎に好ましい表情であるか否かを判定し、
前記メッセージ出力部は、前記好ましい表情でないために前記適正度が低いと判定された顔領域のユーザに、前記好ましい表情をするように促す前記メッセージを出力することを特徴とする請求項2から7のいずれかに記載の遊戯画像撮影システム。
The composition confirmation unit determines whether or not the facial expression is a preferable expression for each face region,
The said message output part outputs the said message which urges the user of the face area | region determined that the said appropriateness is low because it is not the said preferable expression to make the said preferable expression. The game image shooting system according to any one of the above.
前記構図確認部は、前記適正度が低いと判定された前記顔領域から前記顔識別処理によって前記IDを特定できない場合に、前記取得された複数のIDのうち、前記適正度が低くないと判定された顔領域のいずれにも対応付けられないIDをメッセージ通知の対象となるユーザのIDとして特定することを特徴とする請求項4に記載の遊戯画像撮影システム。   The composition confirmation unit determines that the appropriateness is not low among the plurality of acquired IDs when the ID cannot be specified by the face identification process from the face area determined to have a low appropriateness. The game image capturing system according to claim 4, wherein an ID that is not associated with any of the face areas specified is specified as an ID of a user who is a target of message notification. 前記構図確認部は、前記ライブビュー画像に含まれる前記顔領域の数が、前記取得された複数のIDの数に満たない場合に、前記取得された複数のIDのうち、前記顔領域のいずれにも対応付けられないIDをメッセージ通知の対象となるユーザのIDとして特定することを特徴とする請求項4に記載の遊戯画像撮影システム。   When the number of the face regions included in the live view image is less than the number of the plurality of acquired IDs, the composition confirmation unit determines which one of the face regions among the plurality of acquired IDs. The game image capturing system according to claim 4, wherein an ID that is not associated with the ID is specified as an ID of a user who is a target of message notification. 前記構図確認部は、前記複数の顔領域の各々についてユーザを特定し、当該特定したユーザの個別基準によって前記適正度を判定することを特徴とする請求項2から10のいずれかに記載の遊戯画像撮影システム。   The game according to any one of claims 2 to 10, wherein the composition confirmation unit identifies a user for each of the plurality of face regions, and determines the appropriateness based on the individual criteria of the identified user. Image shooting system. ユーザを被写体とするライブビュー画像における構図の適正度を判定する構図確認部と、
前記適正度が低いと判定された場合に、前記ユーザの呼称を含むメッセージを出力する出力部と、を備えることを特徴とする遊戯画像撮影システム。
A composition confirmation unit that determines the appropriateness of the composition in the live view image with the user as a subject;
And an output unit that outputs a message including the name of the user when it is determined that the degree of appropriateness is low.
ユーザを被写体として撮影する撮影部と、
前記撮影部を用いて前記被写体のライブビュー画像を生成するライブビュー画像生成部と、
撮影画像を編集する編集部と、
前記編集された撮影画像を出力する画像出力部と、
前記ライブビュー画像に含まれる複数の顔領域に基づいて各被写体の特性を特定し、当該被写体間に当該特性の差があるか否かを判定する差判定部と、
前記差があると判定した場合に、前記ユーザの特性に応じて撮影条件を設定する撮影条件設定部と、を備えることを特徴とする遊戯画像撮影システム。
A shooting unit for shooting a user as a subject;
A live view image generation unit that generates a live view image of the subject using the photographing unit;
An editing section for editing the shot image;
An image output unit for outputting the edited photographed image;
A difference determination unit that identifies characteristics of each subject based on a plurality of face regions included in the live view image and determines whether there is a difference in the characteristics between the subjects;
A game image shooting system comprising: a shooting condition setting unit that sets shooting conditions according to the characteristics of the user when it is determined that there is a difference.
前記被写体の特性は、前記ユーザの性別、年齢又は肌特性であることを特徴とする請求項13に記載の遊戯画像撮影システム。   The game image capturing system according to claim 13, wherein the characteristic of the subject is a gender, age, or skin characteristic of the user. ユーザを被写体として撮影する撮影部と、
前記撮影部を用いて前記被写体のライブビュー画像を生成するライブビュー画像生成部と、
撮影画像を編集する編集部と、
前記編集された撮影画像を出力する画像出力部と、
前記ライブビュー画像に含まれる複数の顔領域に対応する前記ユーザのIDを特定し、当該特定したIDに対応する前記ユーザの好みを特定する好み特定部と、
前記特定された好みに応じて撮影条件を設定する撮影条件設定部と、を備えることを特徴とする遊戯画像撮影システム。
A shooting unit for shooting a user as a subject;
A live view image generation unit that generates a live view image of the subject using the photographing unit;
An editing section for editing the shot image;
An image output unit for outputting the edited photographed image;
A user identification corresponding to a plurality of face areas included in the live view image, a preference identification unit that identifies the user's preference corresponding to the identified ID;
A game image shooting system comprising: a shooting condition setting unit that sets shooting conditions according to the specified preference.
前記ライブビュー画像生成部で生成された前記ライブビュー画像を表示するライブビュー画像表示部を、更に備えたことを特徴とする請求項1から15のいずれかに記載の遊戯画像撮影システム。   The game image photographing system according to claim 1, further comprising a live view image display unit that displays the live view image generated by the live view image generation unit.
JP2018090060A 2018-05-08 2018-05-08 Play image shooting system Active JP7131060B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018090060A JP7131060B2 (en) 2018-05-08 2018-05-08 Play image shooting system
JP2022130178A JP7380778B2 (en) 2018-05-08 2022-08-17 Game image shooting system
JP2023187404A JP2024014882A (en) 2018-05-08 2023-11-01 Game image shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018090060A JP7131060B2 (en) 2018-05-08 2018-05-08 Play image shooting system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022130178A Division JP7380778B2 (en) 2018-05-08 2022-08-17 Game image shooting system

Publications (2)

Publication Number Publication Date
JP2019197112A true JP2019197112A (en) 2019-11-14
JP7131060B2 JP7131060B2 (en) 2022-09-06

Family

ID=68537951

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018090060A Active JP7131060B2 (en) 2018-05-08 2018-05-08 Play image shooting system
JP2022130178A Active JP7380778B2 (en) 2018-05-08 2022-08-17 Game image shooting system
JP2023187404A Pending JP2024014882A (en) 2018-05-08 2023-11-01 Game image shooting system

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022130178A Active JP7380778B2 (en) 2018-05-08 2022-08-17 Game image shooting system
JP2023187404A Pending JP2024014882A (en) 2018-05-08 2023-11-01 Game image shooting system

Country Status (1)

Country Link
JP (3) JP7131060B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005003852A (en) * 2003-06-11 2005-01-06 Nikon Corp Automatic photographing device
JP2005079698A (en) * 2003-08-28 2005-03-24 Mitsumi Electric Co Ltd Channel selection apparatus
JP2005079898A (en) * 2003-08-29 2005-03-24 Omron Corp Device and method for generating photograph seal
JP2009009404A (en) * 2007-06-28 2009-01-15 Olympus Corp Image processing device, image processing method and image processing program
JP2010081304A (en) * 2008-09-26 2010-04-08 Casio Computer Co Ltd Photographing apparatus, photographing guidance method and program
JP2017017409A (en) * 2015-06-29 2017-01-19 フリュー株式会社 Imaging apparatus and imaging method
JP2018022126A (en) * 2016-07-22 2018-02-08 フリュー株式会社 Photograph creation game machine and imaging method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4316869B2 (en) 2002-12-25 2009-08-19 富士フイルム株式会社 camera
KR20100099559A (en) * 2009-03-03 2010-09-13 삼성전자주식회사 Photographing method and photographing apparatus capable of recognizing persons
JP5623174B2 (en) 2010-07-30 2014-11-12 株式会社バンダイナムコゲームス Imaging apparatus, network system, program, information storage medium, and imaging apparatus control method
JP6354246B2 (en) 2014-03-26 2018-07-11 株式会社ニコン IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP5888453B1 (en) 2015-03-05 2016-03-22 フリュー株式会社 Photo sticker making apparatus and photo sticker making method
JP6700840B2 (en) 2016-02-18 2020-05-27 キヤノン株式会社 Image processing device, imaging device, control method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005003852A (en) * 2003-06-11 2005-01-06 Nikon Corp Automatic photographing device
JP2005079698A (en) * 2003-08-28 2005-03-24 Mitsumi Electric Co Ltd Channel selection apparatus
JP2005079898A (en) * 2003-08-29 2005-03-24 Omron Corp Device and method for generating photograph seal
JP2009009404A (en) * 2007-06-28 2009-01-15 Olympus Corp Image processing device, image processing method and image processing program
JP2010081304A (en) * 2008-09-26 2010-04-08 Casio Computer Co Ltd Photographing apparatus, photographing guidance method and program
JP2017017409A (en) * 2015-06-29 2017-01-19 フリュー株式会社 Imaging apparatus and imaging method
JP2018022126A (en) * 2016-07-22 2018-02-08 フリュー株式会社 Photograph creation game machine and imaging method

Also Published As

Publication number Publication date
JP2024014882A (en) 2024-02-01
JP7380778B2 (en) 2023-11-15
JP7131060B2 (en) 2022-09-06
JP2022164722A (en) 2022-10-27

Similar Documents

Publication Publication Date Title
JP6607281B2 (en) Photo sticker creation apparatus, display method, and program
US9519950B2 (en) Image generating apparatus and image generating method
WO2022037111A1 (en) Image processing method and apparatus, interactive display apparatus, and electronic device
CN107683446A (en) Method and eye tracks equipment at least one user of automatic identification eye tracks equipment
JP4403497B2 (en) Photo sticker vending machine, photo sticker creation method, and program
JP2013243648A (en) Photograph seal machine, and processing method and program for photograph seal machine
CN105095917B (en) Image processing method, device and terminal
JP2015179221A (en) Picture-taking editing device, server, control program and recording medium
JP6205599B2 (en) Image composition apparatus, image composition method, and computer program
JP2019159647A (en) Program, network system, and image determination method
JP6880394B2 (en) Photographing game console and shooting method
JP2020188507A (en) Game image capturing system and image processing system
JP2002324126A (en) Providing system for make-up advise information
JP7380778B2 (en) Game image shooting system
JP2017135608A (en) Imaging apparatus for amusement and image processing method
JP6413270B2 (en) Management device and management device control method, photo sticker creation device, terminal device, control program, and recording medium
JP7073803B2 (en) Game image shooting system
JP7185130B2 (en) Management server, mobile terminal, management server control method, mobile terminal control method, control program, and recording medium
JP5799381B1 (en) Photography game machine and its control program
KR102570735B1 (en) Apparatus and method for suggesting an augmented reality avatar pose based on artificial intelligence reflecting the structure of the surrounding environment and user preferences
JP6311383B2 (en) PHOTOGRAPHIC EDITING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE CONTROL PROGRAM
JP6369073B2 (en) Management server, photo sticker creation apparatus, image management system, image management method, image transmission method, program, and recording medium
JP6349824B2 (en) Image management system, management server, image evaluation method, control program, and recording medium
JP6569767B2 (en) Management server
JP2015055838A (en) Photographic seal put-out device and control method for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7131060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150