JP6939927B2 - Amusement imaging equipment and programs - Google Patents

Amusement imaging equipment and programs Download PDF

Info

Publication number
JP6939927B2
JP6939927B2 JP2020027101A JP2020027101A JP6939927B2 JP 6939927 B2 JP6939927 B2 JP 6939927B2 JP 2020027101 A JP2020027101 A JP 2020027101A JP 2020027101 A JP2020027101 A JP 2020027101A JP 6939927 B2 JP6939927 B2 JP 6939927B2
Authority
JP
Japan
Prior art keywords
image
face
user
stamp
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020027101A
Other languages
Japanese (ja)
Other versions
JP2021132320A (en
Inventor
祐介 木口
祐介 木口
沙羅 宮中
沙羅 宮中
晶洋 森
晶洋 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2020027101A priority Critical patent/JP6939927B2/en
Publication of JP2021132320A publication Critical patent/JP2021132320A/en
Application granted granted Critical
Publication of JP6939927B2 publication Critical patent/JP6939927B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、遊戯画像を加工する技術に関する。 The present invention relates to a technique for processing a game image.

プリクラ(登録商標)とよばれる遊戯画像撮影装置は、女子高校生を中心として根強い人気を誇る。ユーザは、自らを撮影し、編集用のディスプレイにて撮影画像にさまざまな装飾を施す。装飾後の画像はシール台紙に印刷される(特許文献1,2参照)。 The game image shooting device called Purikura (registered trademark) is very popular among high school girls. The user photographs himself and decorates the captured image with various decorations on the display for editing. The decorated image is printed on the sticker mount (see Patent Documents 1 and 2).

特開2004−32213号公報Japanese Unexamined Patent Publication No. 2004-32213 特開2016−184287号公報Japanese Unexamined Patent Publication No. 2016-184287 特開2019−115029号公報JP-A-2019-115029

特許文献3には、ユーザの静止画と動画を同時に撮影して、動画を再生できる遊戯画像撮影装置が開示されている。また、一般的に撮影された静止画に装飾を行なえるようにして、付加的な楽しみが増すようにしている。 Patent Document 3 discloses a game image capturing device capable of simultaneously capturing a still image and a moving image of a user and reproducing the moving image. In addition, it is possible to decorate the still images that are generally taken to increase the additional enjoyment.

撮影された動画についても装飾を行えば楽しみが増すと考えられるが、動画の装飾のための編集操作は、プリクラのユーザにとっては難易度が高いと敬遠されると考えられる。 It is thought that decorating the shot video will increase the enjoyment, but it is considered that the editing operation for decorating the video is avoided because it is difficult for the user of the photo booth.

本発明は、上記課題認識に基づいて完成された発明であり、その主たる目的は、簡単な操作で撮影動画の装飾を楽しめるようにすることである。 The present invention is an invention completed based on the above-mentioned problem recognition, and a main object thereof is to make it possible to enjoy decoration of a photographed moving image with a simple operation.

本発明のある態様における遊戯画像撮影装置は、ユーザの静止画を撮影するとともに、静止画の撮影前と撮影後のうちの少なくとも一方のユーザの動画を撮影する撮影部と、撮影静止画に対して付加画像を貼り付ける指示を受け付ける受付部と、付加画像を貼り付ける指示に従って、撮影静止画における付加画像の貼り付け位置を特定する特定部と、撮影動画に含まれる複数のフレーム画像に対して、貼り付け位置を基準として付加画像を貼り付ける動画加工部とを有することを特徴とする。 The game image capturing device according to an aspect of the present invention captures a still image of a user, and also captures a moving image of at least one of the user before and after shooting the still image, and a shooting still image. For the reception unit that accepts the instruction to paste the additional image, the specific unit that specifies the pasting position of the additional image in the captured still image according to the instruction to paste the additional image, and the multiple frame images included in the captured video. It is characterized by having a moving image processing unit for pasting an additional image based on the pasting position.

本発明によれば、簡単な操作で撮影動画の装飾を楽しむことができる。 According to the present invention, it is possible to enjoy the decoration of a photographed moving image with a simple operation.

画像編集システムの全体構成図である。It is an overall block diagram of an image editing system. 遊戯画像撮影装置の覆いを取り除いた外観斜視図である。It is an external perspective view which removed the cover of a game image taking apparatus. 撮影ブースの天井部を取り除いた外観斜視図である。It is the external perspective view which removed the ceiling part of a shooting booth. 遊戯画像撮影装置におけるプレイの流れを示すフローチャートである。It is a flowchart which shows the flow of play in a game image shooting apparatus. 遊戯画像撮影装置の平面図である。It is a top view of the game image taking apparatus. 1枚の静止画像の撮影とその前後で行われる動画像の撮影のタイムチャートであるIt is a time chart of shooting one still image and shooting a moving image before and after that. 編集画面の画面図である。It is a screen view of an edit screen. 図8(A)は、変化スタンプボタン308に相当する雲図形の変化スタンプ画像を示す図である。図8(B)は、変化スタンプボタン310に相当するハート図形の変化スタンプ画像を示す図である。図8(C)は、変化スタンプボタン312に相当するクラッカーのイラストの変化スタンプ画像を示す図である。FIG. 8A is a diagram showing a change stamp image of a cloud figure corresponding to the change stamp button 308. FIG. 8B is a diagram showing a change stamp image of a heart figure corresponding to the change stamp button 310. FIG. 8C is a diagram showing a change stamp image of an illustration of a cracker corresponding to the change stamp button 312. 対象静止画像に対する顔スタンプの貼り付け例を示す図である。It is a figure which shows the example of pasting the face stamp on the target still image. 撮影動画像の先頭フレームの例を示す図である。ここでは、先頭フレームの例をIt is a figure which shows the example of the head frame of a photographed moving image. Here is an example of the first frame 撮影動画像の先頭フレームに対する顔スタンプの貼り付け例を示す図である。It is a figure which shows the example of pasting the face stamp with respect to the head frame of a photographed moving image. 一次顔情報の構造図である。It is a structural diagram of primary face information. 一次顔スタンプ情報の構造図である。It is a structural diagram of the primary face stamp information. 二次顔情報の構造図である。It is a structural diagram of secondary face information. 二次顔スタンプ情報の構造図である。It is a structural diagram of the secondary face stamp information. 変化スタンプ情報の構造図である。It is a structural diagram of change stamp information. 遊戯画像撮影装置の機能ブロック図である。It is a functional block diagram of a game image taking apparatus. 編集処理過程を示すフローチャートである。It is a flowchart which shows the editing process process. 編集処理過程を示すフローチャートである。It is a flowchart which shows the editing process process. 一次顔情報の生成処理過程を示すフローチャートである。It is a flowchart which shows the generation process of primary face information. 一次調整パラメータの特定処理過程を示すフローチャートである。It is a flowchart which shows the specific processing process of the primary adjustment parameter. 一次顔スタンプ情報の生成処理過程を示すフローチャートである。It is a flowchart which shows the generation process of primary face stamp information. 撮影動画像の表示処理過程を示すフローチャートである。It is a flowchart which shows the display processing process of a photographed moving image. 二次顔スタンプ情報の生成処理過程を示すフローチャートである。It is a flowchart which shows the generation process of secondary face stamp information. 二次顔スタンプ情報の生成処理過程を示すフローチャートである。It is a flowchart which shows the generation process of secondary face stamp information. 変化スタンプ画像の特定処理過程を示すフローチャートである。It is a flowchart which shows the specific processing process of the change stamp image. 変形例1における対象静止画像に対する変化スタンプの貼り付け例を示す図である。It is a figure which shows the example of pasting the change stamp with respect to the target still image in modification 1. FIG. 変形例1における撮影動画像の先頭フレームに対する変化スタンプの貼り付け例を示す図である。It is a figure which shows the example of pasting the change stamp with respect to the head frame of the photographed moving image in modification 1. FIG. 変形例2における編集画面の画面図である。It is a screen view of the edit screen in the modification 2. 変形例2における撮影動画像のフレームに対するパーティクルの貼り付け例を示す図である。It is a figure which shows the example of pasting the particle with respect to the frame of the photographed moving image in the modification 2.

本実施形態における遊戯画像撮影装置は、撮影ブースと編集ブースを備える。ユーザは撮影ブースにて自らを撮影する。以下、撮影ブースにおいて被写体(ユーザ)を撮影した画像のことを「撮影画像」とよぶ。遊戯画像撮影装置は、撮影ブースにおいて肌の美白化、髪のつや出しなどの画像修正を撮影画像に施す(以下、このような画像修正を「事前修正」とよぶ)。本実施形態における遊戯画像撮影装置は、撮影ブースにおいて静止画像だけでなく動画像も撮影する。撮影画像のうち、動画像として取得されるものを「撮影動画像」、静止画像として取得されるものを「撮影静止画像」とよぶ。 The game image shooting device in the present embodiment includes a shooting booth and an editing booth. The user shoots himself at the shooting booth. Hereinafter, the image of the subject (user) taken at the shooting booth is referred to as a "shooting image". The game image shooting device applies image correction such as skin whitening and hair gloss to the shot image at the shooting booth (hereinafter, such image correction is referred to as "pre-correction"). The game image capturing device according to the present embodiment captures not only still images but also moving images at the photographing booth. Among the photographed images, those acquired as moving images are called "photographed moving images", and those acquired as still images are called "photographed still images".

事前修正を施された撮影画像は、編集ブースに送られる。ユーザは、編集ブースにおいて、スタンプ画像の貼付やスタイラスペンによる落書きなど任意の装飾や目の大きさや肌の白さなどの画像修正を撮影画像に施すことができる(以下、このような画像の装飾を「装飾加工」または「編集」とよぶ)。編集ブースにおいて編集対象となっている撮影画像のことを「対象画像」とよぶ。また、対象画像のうち、撮影動画像を編集対象としたものを「対象動画像」、撮影静止画像を編集対象としたものを「対象静止画像」とよぶ。 The pre-corrected captured image will be sent to the editing booth. At the editing booth, the user can make arbitrary decorations such as pasting stamp images and scribbling with a stylus pen, and image corrections such as eye size and whiteness of the skin (hereinafter, such image decorations). Is called "decorative processing" or "editing"). The captured image that is being edited at the editing booth is called the "target image". Further, among the target images, the one in which the shooting moving image is the editing target is called the "target moving image", and the one in which the shooting still image is the editing target is called the "target still image".

遊戯画像撮影装置は、対象静止画像をシール台紙(外部媒体)に印刷する。また、遊戯画像撮影装置は、対象動画像および対象静止画像をサーバ(外部媒体)にアップロードする。ユーザは、スマートフォンなどのユーザ端末からサーバにアクセスすることにより、装飾加工後の対象画像(対象動画像と対象静止画像)をダウンロードすることもできる。以上のように、本実施形態における遊戯画像撮影装置は、撮影機能、編集機能(装飾加工機能)、印刷機能および通信機能を備える。
以下においては、被写体の各種情報に基づく撮影・編集時の設定変更を中心として説明する。
The game image capturing device prints the target still image on a sticker mount (external medium). In addition, the game image capturing device uploads the target moving image and the target still image to the server (external medium). The user can also download the target image (target moving image and target still image) after the decoration processing by accessing the server from a user terminal such as a smartphone. As described above, the game image capturing apparatus according to the present embodiment includes a photographing function, an editing function (decorative processing function), a printing function, and a communication function.
In the following, the setting changes at the time of shooting / editing based on various information of the subject will be mainly described.

図1は、遊戯画像撮影システム200の全体構成図である。
遊戯画像撮影システム200においては、遊戯画像撮影装置100はインターネット204を介してサーバ202およびユーザ端末206と接続される。遊戯画像撮影装置100においてユーザは自らを撮影する。遊戯画像撮影装置100は、被写体(ユーザ)を含む撮影画像を取得し、必要に応じて事前修正を撮影画像に施し、ユーザによる装飾加工を受け付ける。ユーザは、あらかじめ付与されたユーザIDにより識別される。ユーザは、ユーザIDが登録されたユーザカードを利用して遊戯画像撮影装置100のプレイ予約をする。
FIG. 1 is an overall configuration diagram of the game image capturing system 200.
In the game image capturing system 200, the game image capturing device 100 is connected to the server 202 and the user terminal 206 via the Internet 204. In the game image capturing device 100, the user photographs himself / herself. The game image capturing device 100 acquires a captured image including a subject (user), applies pre-correction to the captured image as necessary, and accepts decoration processing by the user. The user is identified by a user ID given in advance. The user makes a play reservation for the game image capturing device 100 by using the user card in which the user ID is registered.

装飾加工後の対象画像はユーザIDとともに遊戯画像撮影装置100からサーバ202にアップロードされる。サーバ202は、ユーザID、撮影日時および対象画像(対象動画像と対象静止画像)を対応づけて保存する。ユーザは、ユーザIDおよびパスワード等の認証情報を介してサーバ202にアクセスすることにより、サーバ202から対象画像をダウンロードする。 The target image after the decoration process is uploaded from the game image capturing device 100 to the server 202 together with the user ID. The server 202 stores the user ID, the shooting date and time, and the target image (target moving image and target still image) in association with each other. The user downloads the target image from the server 202 by accessing the server 202 via the authentication information such as the user ID and the password.

サーバ202は、ユーザに関連する各種情報(以下、「ユーザ情報」とよぶ)を管理する。本実施形態における遊戯画像撮影装置100は、ライブビュー画像に基づいて被写体への指示や撮影条件の設定変更を自動的に行う。 The server 202 manages various information related to the user (hereinafter, referred to as "user information"). The game image capturing device 100 in the present embodiment automatically gives instructions to the subject and changes the setting of the shooting conditions based on the live view image.

図2は、遊戯画像撮影装置100の外観斜視図である。
遊戯画像撮影装置100は、受付装置102、撮影ブース104、編集ブース106および印刷装置110を備える。ユーザは、受付装置102において遊戯画像撮影装置100の使用を予約する。ユーザは、受付装置102においてユーザIDを入力するとともに、現金または電子マネーにてプレイ料金を支払う。受付装置102は、ユーザに予約番号を発行する。受付装置102は、受付モニタ108において待機人数および呼び出し対象となる予約番号を表示させる。ユーザは、自分の予約番号が受付モニタ108に表示されると、撮影ブース104に入室する。あるいは、撮影ブース104が使用されているときには次のユーザを待機させて、撮影ブース104が空いてから次のユーザを受け入れるようにしてもよい。
FIG. 2 is an external perspective view of the game image capturing device 100.
The game image capturing device 100 includes a reception device 102, a photographing booth 104, an editing booth 106, and a printing device 110. The user reserves the use of the game image capturing device 100 at the reception device 102. The user inputs the user ID in the reception device 102 and pays the play fee in cash or electronic money. The reception device 102 issues a reservation number to the user. The reception device 102 displays the number of people on standby and the reservation number to be called on the reception monitor 108. When the user's reservation number is displayed on the reception monitor 108, the user enters the shooting booth 104. Alternatively, when the shooting booth 104 is in use, the next user may be kept on standby, and the next user may be accepted after the shooting booth 104 is vacant.

撮影ブース104においてユーザは写真撮影を行う。撮影終了後、ユーザは編集ブース106に移動する。編集ブース106には、編集装置126が設置される。編集装置126は、編集モニタ120を備える。編集モニタ120には対象画像(装飾加工の対象となる撮影画像)が表示される。本実施形態における編集モニタ120は、静電容量式タッチパネルにより形成される。1つの編集モニタ120に対して、2つのスタイラスペン122a、122bが用意される。ユーザはスタイラスペン122および指を使って対象画像に装飾加工を施す。編集終了後、印刷装置110は対象静止画像をシール台紙に印刷する。また、編集装置126は、対象画像をサーバ202にアップロードする。 At the shooting booth 104, the user takes a picture. After the shooting is completed, the user moves to the editing booth 106. An editing device 126 is installed in the editing booth 106. The editing device 126 includes an editing monitor 120. The target image (photographed image to be decorated) is displayed on the editing monitor 120. The editing monitor 120 in this embodiment is formed by a capacitive touch panel. Two stylus pens 122a and 122b are prepared for one editing monitor 120. The user uses the stylus pen 122 and a finger to decorate the target image. After the editing is completed, the printing device 110 prints the target still image on the sticker mount. Further, the editing device 126 uploads the target image to the server 202.

図3は、撮影ブース104の外観斜視図である。
撮影ブース104は、カーテン124により外部から遮蔽される。撮影ブース104には、撮影装置128が設置される。撮影装置128は、被写体となるユーザを3方向から照らす3つのライト116、撮影静止画像および撮影動画像を取得するためのカメラ118、第1撮影モニタ112、第2撮影モニタ114、左側ストロボ119aおよび右側ストロボ119bを備える。
FIG. 3 is an external perspective view of the photographing booth 104.
The shooting booth 104 is shielded from the outside by the curtain 124. A photographing device 128 is installed in the photographing booth 104. The photographing device 128 includes three lights 116 that illuminate the user as a subject from three directions, a camera 118 for acquiring a photographed still image and a photographed moving image, a first photographing monitor 112, a second photographing monitor 114, a left strobe 119a, and the like. It is equipped with a right strobe 119b.

第1撮影モニタ112は、ライブビュー画像及びユーザの撮影画像(撮影動画像と撮影静止画像)を表示させる。第2撮影モニタ114は、被写体となるユーザ以外の人物、たとえば、モデルの撮影画像(以下、「サンプル画像」とよぶ)を表示させる。ユーザは、第2撮影モニタ114に表示されるサンプル画像を参考にしながら、カメラ118の前で任意の撮影ポーズをとる。第2撮影モニタ114には、撮影方法に関する各種説明も表示される。左側ストロボ119aおよび右側ストロボ119bは、撮影静止画像の撮影と同時に発光する。上述したように、撮影ブース104においては、撮影動画像および撮影静止画像を取得できる。
本実施形態においては、第2撮影モニタ114はサンプル画像により、撮影ポーズも指示する。
The first shooting monitor 112 displays a live view image and a shot image (shooting moving image and shooting still image) of the user. The second shooting monitor 114 displays a shot image (hereinafter, referred to as “sample image”) of a person other than the user who is the subject, for example, a model. The user takes an arbitrary shooting pose in front of the camera 118 while referring to the sample image displayed on the second shooting monitor 114. Various explanations regarding the shooting method are also displayed on the second shooting monitor 114. The left strobe 119a and the right strobe 119b emit light at the same time as the captured still image is captured. As described above, in the shooting booth 104, the shooting moving image and the shooting still image can be acquired.
In the present embodiment, the second shooting monitor 114 also instructs the shooting pose by the sample image.

図4は、遊戯画像撮影装置100におけるプレイの流れを示すフローチャートである。図5は、遊戯画像撮影装置100を上から見た平面図である。
ユーザは、受付装置102において使用予約を行うと、受付装置102は受付処理を実行する(S10)。受け付け後、ユーザは撮影ブース104に入室する。撮影装置128は、ユーザを撮影し、ユーザの撮影画像を取得する(S12)。撮影装置128は、所定回の静止画撮影を行う。この例では、静止画撮影とともに、動画の撮影も行われる。撮影動画と撮影静止画は、セットで扱われる。このセットを、撮影画像セットという。この例では、最大6個の撮影画像セットが生成される。撮影に際し、ユーザは、撮影装置128が提供する複数の事前修正メニューから事前修正の方法を選択できる。また、ユーザは、撮影装置128において撮影画像の背景色等も選択できる。撮影装置128は、撮影画像を取得するごとに事前修正を実行する。なお、事前修正メニューは、受付装置102においてプレイ前に選択できてもよい。また、編集ブース106において、撮影画像の背景色等の選択を受け付けてもよい。撮影処理については、図6に関連して詳述する。
FIG. 4 is a flowchart showing the flow of play in the game image capturing device 100. FIG. 5 is a plan view of the game image capturing device 100 as viewed from above.
When the user makes a reservation for use in the reception device 102, the reception device 102 executes the reception process (S10). After acceptance, the user enters the shooting booth 104. The photographing device 128 photographs the user and acquires the photographed image of the user (S12). The photographing device 128 takes a still image a predetermined number of times. In this example, a moving image is taken as well as a still image is taken. The shot video and the shot still image are treated as a set. This set is called a photographed image set. In this example, up to 6 captured image sets are generated. At the time of shooting, the user can select a pre-correction method from a plurality of pre-correction menus provided by the photographing device 128. The user can also select the background color of the captured image on the photographing device 128. The photographing device 128 executes pre-correction every time a photographed image is acquired. The pre-correction menu may be selected on the reception device 102 before play. Further, the editing booth 106 may accept selection of a background color or the like of the captured image. The photographing process will be described in detail in relation to FIG.

撮影後、第1撮影モニタ112には、2つの編集ブース106のいずれかを指示する指示情報が表示される。ユーザは、2つの編集ブース106a、106bのうち、第1撮影モニタ112により指定された編集ブース106に移動する。撮影装置128からは、編集装置126に撮影画像が転送される。ユーザは、編集装置126において転送された撮影画像(対象画像)に装飾加工を施す(S14)。 After shooting, the first shooting monitor 112 displays instruction information instructing one of the two editing booths 106. The user moves to the editing booth 106 designated by the first shooting monitor 112 among the two editing booths 106a and 106b. The captured image is transferred from the photographing device 128 to the editing device 126. The user performs decorative processing on the captured image (target image) transferred by the editing device 126 (S14).

編集後、編集装置126は対象画像を印刷装置110に送り、印刷装置110は対象画像をシール台紙に印刷する(S16)。また、編集装置126は、インターネット204を介して対象画像をサーバ202にアップロードする(S18)。ユーザは、ユーザIDをアクセスキーとしてサーバ202にアクセスすることにより、対象画像をサーバ202からユーザ端末206にダウンロードできる。 After editing, the editing device 126 sends the target image to the printing device 110, and the printing device 110 prints the target image on the sticker mount (S16). Further, the editing device 126 uploads the target image to the server 202 via the Internet 204 (S18). The user can download the target image from the server 202 to the user terminal 206 by accessing the server 202 using the user ID as an access key.

一般的には、撮影作業よりも編集作業に時間がかかる。本実施形態における遊戯画像撮影装置100においては、1つの撮影ブース104に対して2つの編集ブース106a、106b(編集装置126a、126b)を設けることにより、顧客回転率を高めている。 Generally, it takes more time to edit than to shoot. In the game image photographing apparatus 100 of the present embodiment, the customer turnover rate is increased by providing two editing booths 106a and 106b (editing devices 126a and 126b) for one photographing booth 104.

ここで、撮影処理(S12)について詳述する。撮影処理(S12)では、静止画像とともに、動画像を撮影する。 Here, the photographing process (S12) will be described in detail. In the photographing process (S12), a moving image is photographed together with the still image.

図6は、1枚の静止画像の撮影とその前後で行われる動画像の撮影のタイムチャートである。
撮影処理(S12)では、撮影する静止画像の枚数分だけこの流れを繰り返す。タイムチャートの横軸に書かれる数字は、撮影開始時を0としてどのくらいの時間が経過したかを秒単位で示す。
FIG. 6 is a time chart of shooting one still image and shooting a moving image before and after the shooting.
In the shooting process (S12), this flow is repeated for the number of still images to be shot. The number written on the horizontal axis of the time chart indicates how much time has passed in seconds, assuming that the start of shooting is 0.

ユーザが撮影装置100の撮影開始ボタンを押下すると、撮影が開始される。撮影が開始されると、静止画像を撮影する旨のポーズ説明画像とサンプル静止画像が第2撮影モニタ114に表示される。ポーズ説明画像とは、「2人でハートを作ってみよう」のようなテキスト情報により指示する画像である。 When the user presses the shooting start button of the shooting device 100, shooting is started. When the shooting is started, the pose explanation image and the sample still image for shooting the still image are displayed on the second shooting monitor 114. The pose explanation image is an image instructed by text information such as "Let's make a heart with two people".

撮影開始から5秒後に、静止画像撮影のカウントダウンが始まる。このカウントダウンは、ユーザに静止画像の撮影のタイミングを知らせるためのものである。カウントは3秒前から始まり、カウントが0になるタイミングで静止画像が撮影される。それに先立って、静止画像の撮影より1.5秒前に動画像の録画が開始される。静止画像撮影カウントダウン中に動画像の録画を開始することで、ユーザが静止画像のポーズをとるまでの動きや様子をさりげなく撮影できる。 Five seconds after the start of shooting, the countdown for still image shooting starts. This countdown is for notifying the user of the timing of taking a still image. The count starts 3 seconds before, and a still image is taken when the count reaches 0. Prior to that, the recording of the moving image is started 1.5 seconds before the still image is taken. By starting recording of a moving image during the still image shooting countdown, it is possible to casually shoot the movement and appearance until the user poses for the still image.

動画像の録画は、静止画像の撮影前に一旦停止する。動画像の録画を止めてから静止画像の撮影が行われる。静止画像の撮影後には、動画像の録画が再開される。この例では、静止画像の撮影の0.5秒後に静止画像の撮影が再開され、1秒間動画の撮影が継続する。 Recording of moving images is temporarily stopped before shooting of still images. After stopping the recording of the moving image, the still image is taken. After the still image is taken, the video recording is resumed. In this example, the still image shooting is resumed 0.5 seconds after the still image shooting, and the moving image shooting continues for 1 second.

静止画像の撮影時に動画像の録画を止める理由は、ストロボ119のフラッシュによって動画像に真っ白なフレームが混じらないようにするためである。また、動画像録画の再開まで0.5秒間待機する理由は、残存する反射光による影響を排除するためである。 The reason for stopping the recording of the moving image when the still image is taken is to prevent the moving image from being mixed with a pure white frame by the flash of the strobe 119. Further, the reason for waiting for 0.5 seconds until the video recording is restarted is to eliminate the influence of the remaining reflected light.

動画像の撮影が終了すると、撮影静止画像と撮影動画像を事前修正する。事前修正された撮影静止画像と撮影動画像は、第1撮影モニタ112に表示される。この例では、撮影開始時から11秒後に撮影静止画像が表示され、同じく14.5秒後に撮影動画像が表示される。そして、撮影開始から18.5秒後には撮影画像の表示が終わり、次の静止画像の撮影へ移行する。なお、第1撮影モニタ112には、撮影開始時から全ての静止画像の撮影が終了するまで、ライブビュー画像が表示される。 When the shooting of the moving image is completed, the shooting still image and the shooting moving image are corrected in advance. The pre-corrected shooting still image and shooting moving image are displayed on the first shooting monitor 112. In this example, the shooting still image is displayed 11 seconds after the start of shooting, and the shooting moving image is also displayed 14.5 seconds later. Then, 18.5 seconds after the start of shooting, the display of the captured image ends, and the process proceeds to the next capture of the still image. The live view image is displayed on the first shooting monitor 112 from the start of shooting until the shooting of all the still images is completed.

本実施形態では、編集処理(S14)において対象静止画像に対する編集指示を受け付ける。また、編集処理(S14)中に対象動画像を再生することができ、再生される対象動画像の各フレームには指示された編集内容が反映される。以下では、対象静止画像に対するスタンプの貼り付け操作を受け付けて、対象動画像の各フレームにもスタンプを貼り付ける例を説明する。 In the present embodiment, the editing process (S14) receives an editing instruction for the target still image. Further, the target moving image can be reproduced during the editing process (S14), and the instructed editing content is reflected in each frame of the reproduced target moving image. In the following, an example of accepting the stamp pasting operation on the target still image and pasting the stamp on each frame of the target moving image will be described.

図7は、編集画面の画面図である。
図7は、左側ユーザが操作するための編集画面を示している。右側には、右側ユーザが操作するための編集画面が表示されている。右側ユーザが操作するための編集画面については省略するが、この図と同じレイアウトであって同様にユーザ操作を受け付け、対象静止画像を表示する。以下、対象静止画像の左側にユーザXが写り、右側にユーザYが写っており、図7に示した左側の編集画面にはユーザXが向かい、図示しない右側の編集画面にはユーザYが向かっているものとする。
FIG. 7 is a screen view of the edit screen.
FIG. 7 shows an edit screen for the left user to operate. On the right side, an edit screen for the right user to operate is displayed. The edit screen for the right user to operate is omitted, but the same layout as this figure accepts the user operation and displays the target still image. Hereinafter, user X is shown on the left side of the target still image, user Y is shown on the right side, user X is facing the left editing screen shown in FIG. 7, and user Y is facing the right editing screen (not shown). It is assumed that

この例では、撮影静止画像を5つ取得したものとする。画像タブ300a〜300e(以下、まとめて言うときや特に区別しないときには「画像タブ300」と総称する)は、事前修正された撮影静止画像に対応している。ユーザがいずれかの画像タブ300にタッチすると、タッチされた画像タブ300に対応する撮影静止画像が、画像表示領域302に対象静止画像として表示される。 In this example, it is assumed that five captured still images are acquired. The image tabs 300a to 300e (hereinafter, collectively referred to as "image tabs 300" when collectively referred to or not particularly distinguished) correspond to pre-corrected captured still images. When the user touches any of the image tabs 300, the captured still image corresponding to the touched image tab 300 is displayed as the target still image in the image display area 302.

スタンプパレット304は、ユーザが対象静止画像に貼り付けたいと思うスタンプを選択するために用いられる。顔スタンプボタン306aと顔スタンプボタン306bは、顔に貼り付けるタイプのスタンプに対応する。以下、このタイプのスタンプを「顔スタンプ」という。顔スタンプボタン306aは、「狸の鼻とひげ」のスタンプを表している。顔スタンプボタン306bは、「狸の耳」のスタンプを表している。顔スタンプボタン306aで「狸の鼻とひげ」のスタンプ画像を対象静止画像の顔に貼り付けると、対象動画像を再生したときの顔にも同じ「狸の鼻とひげ」のスタンプが表示される。同様に、顔スタンプボタン306bで「狸の耳」のスタンプを対象静止画像の顔に貼り付けると、対象動画像を再生したときの顔にも同じ「狸の耳」のスタンプ画像が表示される。そして、顔スタンプは、対象動画像に含まれるユーザの顔に追従する。 The stamp palette 304 is used to select a stamp that the user wants to paste on the target still image. The face stamp button 306a and the face stamp button 306b correspond to a type of stamp to be attached to the face. Hereinafter, this type of stamp is referred to as a "face stamp". The face stamp button 306a represents a stamp of "raccoon dog nose and beard". The face stamp button 306b represents a stamp of "raccoon dog ears". When the stamp image of "Tsumugi nose and whiskers" is pasted on the face of the target still image with the face stamp button 306a, the same "Tsumugi nose and whiskers" stamp is displayed on the face when the target moving image is played back. NS. Similarly, when the stamp of "Tsumugi ears" is pasted on the face of the target still image with the face stamp button 306b, the same "Tsumugi ears" stamp image is displayed on the face when the target moving image is played back. .. Then, the face stamp follows the user's face included in the target moving image.

変化スタンプボタン308、変化スタンプボタン310および変化スタンプボタン312は、対象静止画像の任意の場所に配置されるとともに、対象動画像の再生においてその場所で表示態様が変化するタイプのスタンプに対応する。以下、このタイプのスタンプを「変化スタンプ」という。変化スタンプボタン308、変化スタンプボタン310および変化スタンプボタン312に対応するスタンプ画像の表示態様については、図8に関連して、後述する。 The change stamp button 308, the change stamp button 310, and the change stamp button 312 are arranged at an arbitrary place on the target still image, and correspond to a type of stamp whose display mode changes at that place in the reproduction of the target moving image. Hereinafter, this type of stamp is referred to as a "change stamp". The display mode of the stamp image corresponding to the change stamp button 308, the change stamp button 310, and the change stamp button 312 will be described later in relation to FIG.

ユーザが動画スタートボタン320をタッチすると、対象静止画像に対応する約3秒間の対象動画像が再生表示される。対象静止画像に配置したスタンプは、対象動画像にも付加される。シークバー322は、対象動画像のうち再生箇所を示す。 When the user touches the moving image start button 320, the target moving image for about 3 seconds corresponding to the target still image is reproduced and displayed. The stamp placed on the target still image is also added to the target moving image. The seek bar 322 indicates a reproduced portion of the target moving image.

対象静止画像に含まれるユーザの顔は、顔認識処理によって抽出される。顔認識処理では、顔の特徴データを求め、個人の識別を行うこともできる。抽出された顔には、個人を識別するための顔IDが割り当てられる。 The user's face included in the target still image is extracted by the face recognition process. In the face recognition process, it is also possible to obtain facial feature data and identify an individual. A face ID for identifying an individual is assigned to the extracted face.

対象動画像における顔スタンプは、顔に追従する。つまり、顔スタンプの位置、傾きや大きさは顔との相対的関係によって定まる。たとえば、対象静止画像において「狸の鼻とひげ」のスタンプが、顔の中央に寄せて配置されれば、対象動画像でも「狸の鼻とひげ」のスタンプが、顔の中央に寄せて貼り付けられる。反対に、「狸の鼻とひげ」のスタンプ画像が、口の方に寄せて配置されれば、対象動画像でも「狸の鼻とひげ」のスタンプ画像が、口の方に寄せて貼り付けられる。 The face stamp in the target moving image follows the face. That is, the position, inclination and size of the face stamp are determined by the relative relationship with the face. For example, if the stamp of "raccoon nose and beard" is placed close to the center of the face in the target still image, the stamp of "raccoon nose and beard" is placed close to the center of the face in the target moving image. Attached. On the contrary, if the stamp image of "Tsumugi nose and whiskers" is placed closer to the mouth, the stamp image of "Tsumugi nose and whiskers" will be pasted closer to the mouth even in the target moving image. Be done.

処理としては、対象静止画像における顔との相対関係を特定するために、対象静止画像に含まれる顔に関する情報(以下、「一次顔情報」という)を生成する。この例では、ユーザXの一次顔情報と、ユーザYの一次顔情報とが生成される。なお、対象静止画像において特定されるパラメータについては、「基礎となる」という意味で「一次」と表現する。この図では、ユーザXの一次顔傾き角、一次顔サイズおよび一次顔中心位置を示している。 In the process, in order to specify the relative relationship with the face in the target still image, information about the face included in the target still image (hereinafter, referred to as “primary face information”) is generated. In this example, the primary face information of the user X and the primary face information of the user Y are generated. The parameters specified in the target still image are expressed as "primary" in the sense of "basic". In this figure, the primary face tilt angle, the primary face size, and the primary face center position of the user X are shown.

一次顔傾き角は、対象静止画像におけるユーザの顔の傾きを示す。この例では、両目の中点と口の中心点とを結ぶ中心線が、対象静止画像の縦方向となす角度を求めて、一次顔傾き角とする。ユーザの目と口の位置は、顔認識処理によって特定される。一次顔サイズは、対象静止画像におけるユーザの顔の大きさである。この例では、目の間隔によって一次顔サイズを示すものとする。他に頭部の横幅、頭部の縦長あるいは顔領域の面積を一次顔サイズとしてもよい。一次顔中心位置は、対象静止画像における顔の中心の位置である。この例では、両目の中点と口の中心点を結ぶ線分を所定の比率で分割する点を一次顔中心位置とする。この例では、両目の中点と一次顔中心位置の間隔と、口の中心点と一次顔中心位置の間隔との比率が、1対3である。一次顔情報の構成については、図12に関連して後述する。 The primary face tilt angle indicates the tilt of the user's face in the target still image. In this example, the angle formed by the center line connecting the midpoints of both eyes and the center point of the mouth with the vertical direction of the target still image is obtained and used as the primary face tilt angle. The positions of the user's eyes and mouth are specified by the face recognition process. The primary face size is the size of the user's face in the target still image. In this example, it is assumed that the primary face size is indicated by the distance between the eyes. In addition, the width of the head, the length of the head, or the area of the face area may be used as the primary face size. The primary face center position is the position of the center of the face in the target still image. In this example, the point where the line segment connecting the midpoint of both eyes and the center point of the mouth is divided by a predetermined ratio is set as the primary face center position. In this example, the ratio of the distance between the midpoint of both eyes and the center position of the primary face and the distance between the center point of the mouth and the center position of the primary face is 1: 3. The structure of the primary face information will be described later in relation to FIG.

図8(A)〜図8(C)は、変化スタンプ画像の例を示す図である。いずれも、連続するスタンプ画像のうちの一部を抜粋して示している。 8 (A) to 8 (C) are diagrams showing an example of a change stamp image. In each case, a part of the continuous stamp images is excerpted and shown.

図8(A)は、変化スタンプボタン308に対応する雲図形の変化スタンプ画像を示している。
対象静止画像に貼り付けられた雲図形は変化しないが、対象動画像に自動的に貼り付けられる雲図形は、図示するように膨らんだり、縮んだりの変化を繰り返す。ただし、雲図形の位置は、移動しない。処理としては、倍率を段階的に増しながら、拡大された雲図形を順次対象動画像のフレームに重ねる。最大の倍率に達した後、倍率を段階的に減らして、同様に雲図形を順次フレームに重ねる。拡大率が1になった後も、倍率を段階的に減らして、縮小された雲図形を順次フレームに重ねる。最小の倍率に達した後、倍率を段階的に増しながら、同様に雲図形を順次フレームに重ねる。この処理を繰り返すことによって、膨張と収縮を反復させる。元のスタンプ画像に対する拡大と縮小を繰り返すことによって、表示されるスタンプ画像を変化させる。このような処理を行う変化スタンプ画像を、「拡縮タイプ」という。拡縮タイプの変化スタンプ画像は、雲図形に限らず、他の図形であってもよい。拡縮タイプでは、予め定められている倍率の列が動画パターンに相当する。
FIG. 8A shows a change stamp image of a cloud figure corresponding to the change stamp button 308.
The cloud figure pasted on the target still image does not change, but the cloud figure automatically pasted on the target moving image repeatedly expands and contracts as shown in the figure. However, the position of the cloud figure does not move. As a process, the enlarged cloud figure is sequentially superimposed on the frame of the target moving image while increasing the magnification step by step. After reaching the maximum magnification, the magnification is gradually reduced, and the cloud figures are similarly superimposed on the frame in sequence. Even after the enlargement ratio becomes 1, the magnification is gradually reduced and the reduced cloud figures are sequentially superimposed on the frame. After reaching the minimum magnification, the cloud figures are similarly superimposed on the frame while increasing the magnification step by step. By repeating this process, expansion and contraction are repeated. The displayed stamp image is changed by repeatedly enlarging and reducing the original stamp image. A change stamp image that performs such processing is called a "scale type". The scaling type change stamp image is not limited to the cloud figure, and may be another figure. In the scaling type, a predetermined magnification column corresponds to a moving image pattern.

図8(B)は、変化スタンプボタン310に対応するハート図形の変化スタンプ画像を示している。
対象静止画像に貼り付けられたハート図形は変化しないが、対象動画像に自動的に貼り付けられるハート図形は、図示するように右に傾いたり、左に傾いたりの変化を繰り返す。ただし、ハート図形の位置は、移動しない。処理としては、傾き角を段階的に増しながら、正の角度に傾けられたハート図形を順次対象動画像のフレームに重ねる。この例では、時計回りを正の向きとする。最大の傾き角に達した後、傾き角を段階的に減らして、同様にハート図形を順次フレームに重ねる。傾き角が0になった後も、傾き角を段階的に減らして、負の角度に傾けられたハート図形を順次フレームに重ねる。最小の傾き角に達した後、傾き角を段階的に増しながら、同様にハート図形を順次フレームに重ねる。この処理を繰り返すことによって、左右への揺れを反復させる。このような処理を行う変化スタンプ画像を、「回転タイプ」という。回転タイプの変化スタンプ画像は、ハート図形に限らず、他の図形であってもよい。回転タイプでは、予め定められている傾き角の列が動画パターンに相当する。
FIG. 8B shows a change stamp image of the heart shape corresponding to the change stamp button 310.
The heart figure pasted on the target still image does not change, but the heart figure automatically pasted on the target moving image repeatedly tilts to the right and to the left as shown in the figure. However, the position of the heart figure does not move. As a process, the heart figures tilted at a positive angle are sequentially superimposed on the frame of the target moving image while the tilt angle is gradually increased. In this example, clockwise is the positive orientation. After reaching the maximum tilt angle, the tilt angle is gradually reduced, and the heart figures are sequentially superimposed on the frame in the same manner. Even after the tilt angle becomes 0, the tilt angle is gradually reduced, and the heart figures tilted at a negative angle are sequentially superimposed on the frame. After reaching the minimum tilt angle, the heart figures are sequentially superimposed on the frame while gradually increasing the tilt angle. By repeating this process, the shaking from side to side is repeated. A change stamp image that performs such processing is called a "rotation type". The rotation type change stamp image is not limited to the heart figure, and may be another figure. In the rotation type, a predetermined sequence of tilt angles corresponds to a moving image pattern.

拡縮タイプと回転タイプでは、1つのスタンプ画像を画像処理によって変化させて表示する。これに対して、以下で述べるアニメーションタイプでは、あらかじめ複数のスタンプ画像を用意しておき、それらをアニメーションのコマ画像として順次表示することによって、スタンプ画像を変化させる。 In the scaling type and the rotation type, one stamp image is changed and displayed by image processing. On the other hand, in the animation type described below, a plurality of stamp images are prepared in advance, and the stamp images are changed by sequentially displaying them as animation frame images.

図8(C)は、変化スタンプボタン312に対応するクラッカーの変化スタンプ画像を示している。
対象静止画像に貼り付けられたクラッカーのイラストは変化しないが、対象動画像に自動的に貼り付けられるクラッカーは、図示するようにアニメーションにより変化する。この例では、紐が引かれたクラッカーがはじけて、紙テープと紙ふぶきが飛び散る様子を表現する。ただし、クラッカーのイラストの位置は、移動しない。アニメーションの処理は、既存の方法でよい。つまり、複数のコマ画像を、順次対象動画像のフレームに重ねる。アニメーションタイプでは、予め設けられている複数のスタンプ画像が動画パターンに相当する。変化スタンプボタン312に表示する画像として、複数のスタンプ画像のうちの一つを用いてもよい。
FIG. 8C shows a change stamp image of the cracker corresponding to the change stamp button 312.
The illustration of the cracker pasted on the target still image does not change, but the cracker automatically pasted on the target moving image changes by animation as shown. In this example, a cracker with a string pops off, and paper tape and confetti are scattered. However, the position of the cracker illustration does not move. The animation can be processed by the existing method. That is, a plurality of frame images are sequentially superimposed on the frame of the target moving image. In the animation type, a plurality of stamp images provided in advance correspond to a moving image pattern. As the image to be displayed on the change stamp button 312, one of a plurality of stamp images may be used.

図9は、対象静止画像に対する顔スタンプの貼り付け例を示す図である。
この例では、ユーザXが、変化スタンプボタン308を選択してから画像表示領域302の背景領域にタッチし、雲図形の変化スタンプを貼り付けたものとする。さらに、ユーザXは、顔スタンプボタン306aを選択してから画像表示領域302のユーザX自身の顔にタッチして、「狸の鼻とひげ」の顔スタンプを貼り付けたものとする。
FIG. 9 is a diagram showing an example of attaching a face stamp to the target still image.
In this example, it is assumed that the user X selects the change stamp button 308, then touches the background area of the image display area 302, and pastes the change stamp of the cloud figure. Further, it is assumed that the user X selects the face stamp button 306a and then touches the face of the user X in the image display area 302 to attach the face stamp of "raccoon dog nose and beard".

変化スタンプの貼り付けと、顔スタンプの貼り付けのいずれにおいても、スライド操作によって、貼り付け位置を調整できる。具体的には、連続するタッチ位置のうち最後のタッチ位置、つまりリリース位置がスタンプ位置となる。そして、スタンプ位置にスタンプ基準点を重ねるように、スタンプ画像が貼り付けられる。 In both the change stamp pasting and the face stamp pasting, the pasting position can be adjusted by the slide operation. Specifically, the last touch position among the continuous touch positions, that is, the release position is the stamp position. Then, the stamp image is pasted so as to overlap the stamp reference point at the stamp position.

この例では、ユーザXがスタイラスペン122をスライド操作して顔スタンプ画像を移動させて、顔の鼻頭のところでスタイラスペン122をタッチパネル222から離している。したがって、鼻頭のところが、スタンプ位置となる。以下、対象静止画像における顔スタンプの位置を、「一次顔スタンプ位置」という。 In this example, the user X slides the stylus pen 122 to move the face stamp image, and separates the stylus pen 122 from the touch panel 222 at the nose tip of the face. Therefore, the tip of the nose is the stamp position. Hereinafter, the position of the face stamp in the target still image is referred to as "primary face stamp position".

一次顔スタンプ位置に、顔スタンプの基準点が重なるように顔スタンプが配置される。以下、顔スタンプの基準点を「顔スタンプ基準点」という。「狸の鼻とひげ」の顔スタンプでは、鼻の中心点が顔スタンプ基準点となる。また、顔スタンプ画像において顔スタンプ基準点を通る垂直線を、「顔スタンプ中心線」という。 The face stamp is placed at the position of the primary face stamp so that the reference point of the face stamp overlaps. Hereinafter, the reference point of the face stamp is referred to as a "face stamp reference point". In the face stamp of "raccoon dog nose and beard", the center point of the nose is the face stamp reference point. Further, in the face stamp image, the vertical line passing through the face stamp reference point is referred to as a "face stamp center line".

顔スタンプ画像の角度は、写っているユーザの顔の傾きに合わせて補正される。具体的には、顔スタンプ画像を一次顔傾き角だけ回転させる。対象静止画像に配置される顔スタンプの傾き角を、「一次顔スタンプ傾き角」という。一次顔スタンプ傾き角は、配置された顔スタンプの中心線が対象静止画像の縦方向となす角度である。一次顔スタンプ傾き角は、一次顔傾き角と一致する。この例では、ユーザXが右側に顔を傾けているので、それに合わせて「狸の鼻とひげ」のスタンプ画像も時計回りに回転する。 The angle of the face stamp image is corrected according to the inclination of the user's face in the image. Specifically, the face stamp image is rotated by the primary face tilt angle. The tilt angle of the face stamp placed on the target still image is called the "primary face stamp tilt angle". The tilt angle of the primary face stamp is an angle formed by the center line of the arranged face stamp in the vertical direction of the target still image. The tilt angle of the primary face stamp coincides with the tilt angle of the primary face. In this example, since the user X is tilting his face to the right, the stamp image of "raccoon dog nose and beard" is rotated clockwise accordingly.

顔スタンプ画像の大きさも、写っているユーザの顔の大きさに合わせて補正される。つまり、ユーザがカメラに近づき、顔が大きく写っている場合には、顔スタンプ画像を自動的に大きくする。反対にユーザがカメラから遠のき、顔が小さく写っている場合には、顔スタンプ画像を自動的に小さくする。顔スタンプ画像は、基準となる顔サイズに適した大きさで用意されているので、対象静止画像に含まれるユーザの顔サイズが、基準の顔サイズと同じであれば、顔スタンプ画像を元の大きさのまま用いる。これに対してユーザの顔サイズが基準の顔サイズと異なる場合には、その比率に応じて顔スタンプ画像が拡大あるいは縮小される。このときの倍率を、「一次顔スタンプ倍率」という。一次顔スタンプ倍率は、ユーザの顔サイズを基準の顔サイズで割った値である。この例では、写っているユーザXの顔サイズが、基準の顔サイズと同じであるので、顔スタンプ画像の倍率は1であり、拡大も縮小も行われない。 The size of the face stamp image is also corrected according to the size of the user's face in the image. That is, when the user approaches the camera and the face appears large, the face stamp image is automatically enlarged. On the contrary, when the user is far from the camera and the face is small, the face stamp image is automatically reduced. The face stamp image is prepared in a size suitable for the standard face size, so if the user's face size included in the target still image is the same as the standard face size, the face stamp image is used as the original. Use the size as it is. On the other hand, when the user's face size is different from the standard face size, the face stamp image is enlarged or reduced according to the ratio. The magnification at this time is called "primary face stamp magnification". The primary face stamp magnification is a value obtained by dividing the user's face size by the reference face size. In this example, since the face size of the user X in the image is the same as the reference face size, the magnification of the face stamp image is 1, and neither enlargement nor reduction is performed.

また、対象静止画像に顔スタンプを貼り付けた段階で、顔のどこに顔スタンプを貼り付けられたかも判断する。この例では、顔内のベクトルによってユーザ顔と顔スタンプの相対的な位置関係を特定する。具体的には、一次顔中心位置から一次顔スタンプ位置に向かう一次相対ベクトルを求める。この例では、ユーザXの顔の中心を基準として、ユーザXの鼻頭の位置が特定されることになる。なお、一次相対ベクトルの方向は、必ずしも顔の中心線の方向と一致するとは限らない。たとえば、頬に国旗のスタンプを貼り付ける場合には、一次相対ベクトルは、国旗が貼り付けられた方を向く。このように、一次相対ベクトルで相対的な位置を特定することによって、顔内の任意の場所に顔スタンプを付着させることができる。この一次相対ベクトルは、対象動画像に重ねる顔スタンプ画像の位置を算出するために用いられる。 In addition, when the face stamp is attached to the target still image, it is also determined where on the face the face stamp is attached. In this example, the relative positional relationship between the user face and the face stamp is specified by the vector in the face. Specifically, the first-order relative vector from the center position of the primary face to the stamp position of the primary face is obtained. In this example, the position of the nose tip of the user X is specified with reference to the center of the face of the user X. The direction of the first-order relative vector does not always coincide with the direction of the center line of the face. For example, when a national flag stamp is attached to the cheek, the linear relative vector faces the direction to which the national flag is attached. In this way, by specifying the relative position with the first-order relative vector, the face stamp can be attached to any place in the face. This first-order relative vector is used to calculate the position of the face stamp image superimposed on the target moving image.

一次顔スタンプ位置、一次顔スタンプ傾き角、一次顔スタンプ倍率および一次相対ベクトルは、一次顔スタンプ情報に含められる。一次顔スタンプ情報の構成については、図13に関連して後述する。 The primary face stamp position, the primary face stamp tilt angle, the primary face stamp magnification and the primary relative vector are included in the primary face stamp information. The structure of the primary face stamp information will be described later in relation to FIG.

雲図形の変化スタンプの位置は、変化スタンプ情報に含められる。以下、変化スタンプの位置を「変化スタンプ位置」という。変化スタンプ情報の構成については、図16に関連して後述する。続いて、撮影動画像が再生される場合について説明する。 The position of the change stamp of the cloud figure is included in the change stamp information. Hereinafter, the position of the change stamp is referred to as "change stamp position". The structure of the change stamp information will be described later in relation to FIG. Next, a case where the captured moving image is reproduced will be described.

図10は、撮影動画像の先頭フレームの例を示す図である。
ここでは、先頭フレームの例を示すが、2つ目以降のフレームについても同様に処理される。撮影動画像のフレームに含まれるユーザの顔は、顔認識処理によって抽出される。また、顔認識処理で得られる顔の特徴データによって、対応する顔IDが特定される。したがって、対象静止画像に含まれる顔と、撮影動画像のフレームに含まれる顔の対応付けが可能である。ユーザの目と口の位置も、顔認識処理によって特定される。
FIG. 10 is a diagram showing an example of a first frame of a captured moving image.
Here, an example of the first frame is shown, but the second and subsequent frames are processed in the same manner. The user's face included in the frame of the captured moving image is extracted by the face recognition process. In addition, the corresponding face ID is specified by the face feature data obtained by the face recognition process. Therefore, it is possible to associate the face included in the target still image with the face included in the frame of the captured moving image. The positions of the user's eyes and mouth are also specified by the face recognition process.

対象動画像のフレームにおける顔との相対関係を特定するために、対象動画像のフレームに含まれる顔に関する情報(以下、「二次顔情報」という)が生成される。この例では、ユーザXの二次顔情報と、ユーザYの二次顔情報とが生成される。なお、対象動画像のフレームにおいて特定されるパラメータについては、「反映される」という意味で「二次」と表現する。 In order to specify the relative relationship with the face in the frame of the target moving image, information about the face included in the frame of the target moving image (hereinafter, referred to as “secondary face information”) is generated. In this example, the secondary face information of the user X and the secondary face information of the user Y are generated. The parameter specified in the frame of the target moving image is expressed as "secondary" in the sense of "reflected".

二次顔傾き角は、対象動画像のフレームにおけるユーザの顔の傾きを示す。二次顔サイズは、対象動画像のフレームにおけるユーザの顔の大きさである。二次顔中心位置は、対象動画像のフレームにおける顔の中心の位置である。二次顔傾き角、二次顔サイズおよび二次顔中心位置の求め方は、一次顔傾き角、一次顔サイズおよび一次顔中心位置の場合と同様である。 The secondary face tilt angle indicates the tilt of the user's face in the frame of the target moving image. The secondary face size is the size of the user's face in the frame of the target moving image. The secondary face center position is the position of the center of the face in the frame of the target moving image. The method of obtaining the secondary face tilt angle, the secondary face size, and the secondary face center position is the same as in the case of the primary face tilt angle, the primary face size, and the primary face center position.

ユーザXを例に二次顔情報と一次顔情報を比較する。ユーザXは、対象動画像の撮影開始時において、カメラに接近していた。そのあと、後ずさりして、標準的な位置まで下がっている。そのため、二次顔サイズは、一次顔サイズよりも大きい。具体的には、対象動画像のフレームにおける目の間隔は、対象静止画像における目の間隔よりも長い。また、二次顔中心位置は、一次顔中心位置より画像中の下方で検出される。対象動画像の撮影開始時におけるユーザXの顔は、対象静止画像の撮影時点とは反対に傾いている。したがって、一次顔傾き角が正の角度であるのに対して、二次顔傾き角は負の角度となる。二次顔情報の構成については、図14に関連して後述する。 The secondary face information and the primary face information are compared using the user X as an example. User X was approaching the camera at the start of shooting the target moving image. After that, it goes back to the standard position. Therefore, the secondary face size is larger than the primary face size. Specifically, the eye spacing in the frame of the target moving image is longer than the eye spacing in the target still image. Further, the secondary face center position is detected below the primary face center position in the image. The face of the user X at the start of shooting the target moving image is tilted opposite to the time when the target still image is shot. Therefore, the primary face tilt angle is a positive angle, while the secondary face tilt angle is a negative angle. The structure of the secondary face information will be described later in relation to FIG.

図11は、撮影動画像の先頭フレームに対する顔スタンプの貼り付け例を示す図である。
撮影動画像のフレームに対して、自動的に顔スタンプが貼り付けられる。この例では、ユーザXの鼻頭のところを基準として、「狸の鼻とひげ」のスタンプ画像が配置される。スタンプ画像の大きさと傾きも、撮影動画像のフレームにおける顔に合わせる。つまり、スタンプ画像は自動的に大きくなり、左側に傾いた状態で描画される。2つ目以降のフレームも同様に処理するので、「狸の鼻とひげ」のスタンプと顔との位置関係がくずれず、ユーザXが狸の仮装をしたかのように動画が再生される。
FIG. 11 is a diagram showing an example of attaching a face stamp to the first frame of a captured moving image.
A face stamp is automatically attached to the frame of the shooting moving image. In this example, the stamp image of "raccoon dog nose and whiskers" is arranged with reference to the nose tip of user X. The size and tilt of the stamp image are also matched to the face in the frame of the captured moving image. That is, the stamp image is automatically enlarged and drawn in a state of being tilted to the left. Since the second and subsequent frames are processed in the same manner, the positional relationship between the "raccoon dog nose and beard" stamp and the face is not broken, and the moving image is played as if the user X dressed as a raccoon dog.

ここで、顔スタンプの自動的な貼り付けの処理について詳述する。撮影動画像のフレームにおける顔スタンプの位置を「二次顔スタンプ位置」という。二次顔スタンプ位置は、二次顔中心位置の座標に二次相対ベクトルを加えることによって求められる。二次相対ベクトルは、同一人の一次相対ベクトル(図9参照)を修正することによって得られる。具体的には、ベクトルの向きと大きさを修正する。 Here, the process of automatically pasting the face stamp will be described in detail. The position of the face stamp in the frame of the captured moving image is called the "secondary face stamp position". The secondary face stamp position is obtained by adding a quadratic relative vector to the coordinates of the secondary face center position. The quadratic relative vector is obtained by modifying the same person's linear relative vector (see FIG. 9). Specifically, the direction and size of the vector are corrected.

ベクトルの向きの修正に関しては、二次顔傾き角(図10参照)から一次顔傾き角(図7参照)を引いた差分の角度だけ一次相対ベクトル(図9参照)を回転させる。この例でユーザXの二次顔傾き角(図10参照)は負の角度であり、同じく一次顔傾き角(図7参照)は正の角度であるので、差分の角度は負となる。これにより、一次相対ベクトル(図9参照)を反時計回りに回転させることになり、二次相対ベクトル(図11参照)の向きが定まる。 Regarding the correction of the direction of the vector, the primary relative vector (see FIG. 9) is rotated by the angle of the difference obtained by subtracting the primary face tilt angle (see FIG. 7) from the secondary face tilt angle (see FIG. 10). In this example, the secondary face tilt angle (see FIG. 10) of the user X is a negative angle, and the primary face tilt angle (see FIG. 7) is also a positive angle, so that the difference angle is negative. As a result, the first-order relative vector (see FIG. 9) is rotated counterclockwise, and the direction of the second-order relative vector (see FIG. 11) is determined.

ベクトルの大きさの修正に関しては、顔サイズの変化を基準とする。ベクトルの大きさは顔サイズと比例するので、一次相対ベクトルに顔サイズ比率(=二次顔サイズ/一次顔サイズ)を掛けることによって、二次相対ベクトルの大きさが定まる。この例でユーザXの二次顔サイズ(図10参照)は、一次顔サイズ(図7参照)のおよそ1.5倍なので、二次相対ベクトル(図11参照)の大きさは、一次相対ベクトル(図9参照)のおよそ1.5倍となる。このようにして、対象静止画像における顔中の任意の箇所に対応する撮影動画像のフレームの箇所を、二次顔中心位置(図10参照)と二次相対ベクトル(図11参照)によって特定できる。 Regarding the correction of the size of the vector, the change in face size is used as a reference. Since the size of the vector is proportional to the face size, the size of the secondary relative vector is determined by multiplying the primary relative vector by the face size ratio (= secondary face size / primary face size). In this example, the secondary face size of user X (see FIG. 10) is approximately 1.5 times the primary face size (see FIG. 7), so the size of the secondary relative vector (see FIG. 11) is the primary relative vector. It is about 1.5 times that of (see FIG. 9). In this way, the frame portion of the captured moving image corresponding to an arbitrary portion in the face in the target still image can be specified by the secondary face center position (see FIG. 10) and the secondary relative vector (see FIG. 11). ..

撮影動画像のフレームにおける顔スタンプ画像の倍率を「二次顔スタンプ倍率」という。二次顔スタンプ倍率は、撮影動画像のフレームにおける顔サイズを基準の顔サイズで割った値として求められる。この例でユーザXの二次顔スタンプ倍率は、およそ1.5倍であり、元の顔スタンプ画像をおよそ1.5倍に拡大して用いる。 The magnification of the face stamp image in the frame of the shooting moving image is called "secondary face stamp magnification". The secondary face stamp magnification is obtained as a value obtained by dividing the face size in the frame of the captured moving image by the reference face size. In this example, the secondary face stamp magnification of user X is about 1.5 times, and the original face stamp image is enlarged to about 1.5 times and used.

このように、拡大された顔スタンプ画像を、二次顔傾き角だけ回転し、顔スタンプ基準点を二次顔スタンプ位置に合わせるように配置することによって、図11に示したように「狸の鼻とひげ」のスタンプ画像が表示される。 By rotating the enlarged face stamp image by the secondary face tilt angle and arranging the enlarged face stamp image so as to align the face stamp reference point with the secondary face stamp position, as shown in FIG. A stamp image of "nose and whiskers" is displayed.

上述した二次顔スタンプ位置、二次顔スタンプ傾き角、二次顔スタンプ倍率および二次相対ベクトルは、二次顔スタンプ情報に含められる。二次顔スタンプ情報の構成については、図15に関連して後述する。 The above-mentioned secondary face stamp position, secondary face stamp tilt angle, secondary face stamp magnification, and secondary relative vector are included in the secondary face stamp information. The structure of the secondary face stamp information will be described later in relation to FIG.

また、雲図形の変化スタンプ画像は、フレーム毎に所定の倍率で拡大あるいは縮小され、所定の変化スタンプ位置に表示される。この例では示していないが、回転タイプの場合には、たとえばハート図形の変化スタンプ画像が、フレーム毎に所定の傾き角で回転され、所定の変化スタンプ位置に表示される。アニメーションタイプの場合には、たとえば複数用意されているクラッカーの変化スタンプ画像を、フレームの順番に従って表示する。 Further, the change stamp image of the cloud figure is enlarged or reduced at a predetermined magnification for each frame and displayed at a predetermined change stamp position. Although not shown in this example, in the case of the rotation type, for example, the change stamp image of the heart figure is rotated at a predetermined tilt angle for each frame and displayed at a predetermined change stamp position. In the case of the animation type, for example, a plurality of prepared cracker change stamp images are displayed in the order of frames.

図12は、一次顔情報の構造図である。
図7の対象静止画像の左側に写っているユーザXの顔と、右側に写っているユーザYの顔とに関する一次顔情報を示している。一番目のレコードはユーザXの顔に関し、二番目のレコードはユーザYの顔に関する。顔IDの「F1」はユーザXの顔を識別し、顔IDの「F2」はユーザYの顔を識別する。それぞれのレコードには、ユーザXとユーザYの一次顔中心位置、一次顔傾き角および一次顔サイズが設定される。
FIG. 12 is a structural diagram of primary face information.
The primary face information regarding the face of the user X shown on the left side of the target still image of FIG. 7 and the face of the user Y shown on the right side is shown. The first record relates to the face of user X and the second record relates to the face of user Y. The face ID "F1" identifies the face of user X, and the face ID "F2" identifies the face of user Y. For each record, the primary face center position, the primary face tilt angle, and the primary face size of the user X and the user Y are set.

図13は、一次顔スタンプ情報の構造図である。
図9の「狸の鼻とひげ」の顔スタンプに関する一次顔スタンプ情報を示している。顔IDの「F1」は、顔スタンプが貼り付けられた顔を特定する。顔スタンプIDの「S101」は、貼り付けられた顔スタンプを特定する。一次顔スタンプ位置、一次顔スタンプ傾き角、一次顔スタンプ倍率および一次相対ベクトルは、図9に関連して上述したとおりである。複数の顔スタンプが貼り付けられた場合には、各顔スタンプに対応するレコードが設けられる。たとえば、ユーザYの顔に「狸の耳」のスタンプ画像を貼り付けた場合には、顔IDが「F2」であり、顔スタンプIDが「狸の耳」を識別する「S102」であるレコードが追加される。
FIG. 13 is a structural diagram of the primary face stamp information.
The primary face stamp information about the face stamp of "raccoon dog nose and beard" of FIG. 9 is shown. The face ID "F1" identifies the face to which the face stamp is affixed. The face stamp ID "S101" identifies the pasted face stamp. The primary face stamp position, the primary face stamp tilt angle, the primary face stamp magnification, and the primary relative vector are as described above in relation to FIG. When a plurality of face stamps are pasted, a record corresponding to each face stamp is provided. For example, when a stamp image of "raccoon ears" is pasted on the face of user Y, a record whose face ID is "F2" and whose face stamp ID is "S102" that identifies "raccoon ears". Is added.

一次顔スタンプ傾き角と一次顔スタンプ倍率は、スライド中の顔スタンプを描画するためにも用いられる。これらの一次顔スタンプ傾き角と一次顔スタンプ倍率を、「一次調整パラメータ」という。 The primary face stamp tilt angle and primary face stamp magnification are also used to draw the face stamp on the slide. These primary face stamp tilt angles and primary face stamp magnifications are called "primary adjustment parameters".

図14は、二次顔情報の構造図である。
図10の対象動画像の左下方に写っているユーザXの顔と、右側に写っているユーザYの顔とに関する二次顔情報を示している。一番目のレコードはユーザXの顔に関し、二番目のレコードはユーザYの顔に関する。顔IDの「F1」はユーザXの顔を識別し、顔IDの「F2」はユーザYの顔を識別する。それぞれのレコードには、ユーザXとユーザYの二次顔中心位置、二次顔傾き角および二次顔サイズが設定される。なお、二次顔情報はフレームごとに生成される。
FIG. 14 is a structural diagram of secondary face information.
Secondary face information regarding the face of user X shown in the lower left of the target moving image of FIG. 10 and the face of user Y shown in the right side is shown. The first record relates to the face of user X and the second record relates to the face of user Y. The face ID "F1" identifies the face of user X, and the face ID "F2" identifies the face of user Y. For each record, the secondary face center position, the secondary face tilt angle, and the secondary face size of the user X and the user Y are set. The secondary face information is generated for each frame.

図15は、二次顔スタンプ情報の構造図である。
図11の「狸の鼻とひげ」の顔スタンプに関する二次顔スタンプ情報を示している。顔IDの「F1」は、顔スタンプを貼り付ける顔を特定する。顔スタンプIDの「S101」は、貼り付ける顔スタンプを特定する。二次顔スタンプ位置、二次顔スタンプ傾き角、二次顔スタンプ倍率および二次相対ベクトルは、図11に関連して上述したとおりである。複数の顔スタンプが貼り付けられた場合には、各顔スタンプに対応するレコードが設けられる。たとえば、ユーザYの顔に「狸の耳」のスタンプ画像を貼り付けた場合には、顔IDが「F2」であり、顔スタンプIDが「狸の耳」を識別する「S102」であるレコードが追加される。
FIG. 15 is a structural diagram of secondary face stamp information.
The secondary face stamp information regarding the face stamp of "raccoon dog nose and beard" of FIG. 11 is shown. The face ID "F1" specifies the face to which the face stamp is attached. The face stamp ID "S101" specifies the face stamp to be attached. The secondary face stamp position, the secondary face stamp tilt angle, the secondary face stamp magnification, and the secondary relative vector are as described above in relation to FIG. When a plurality of face stamps are pasted, a record corresponding to each face stamp is provided. For example, when a stamp image of "raccoon ears" is pasted on the face of user Y, a record whose face ID is "F2" and whose face stamp ID is "S102" that identifies "raccoon ears". Is added.

図16は、変化スタンプ情報の構造図である。
図9と図11の雲図形の変化スタンプに関する変化スタンプ情報を示している。変化スタンプIDの「S201」は、貼り付けられた雲図形の変化スタンプを特定する。変化スタンプ位置は、図9に関連して上述したとおりである。
FIG. 16 is a structural diagram of change stamp information.
The change stamp information regarding the change stamp of the cloud figure of FIGS. 9 and 11 is shown. The change stamp ID "S201" specifies the change stamp of the pasted cloud figure. The change stamp position is as described above in connection with FIG.

図17は、遊戯画像撮影装置の機能ブロック図である。
遊戯画像撮影装置100の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。
上述したように、遊戯画像撮影装置100は、撮影装置128、受付装置102、編集装置126および印刷装置110の集合体として構成される。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
FIG. 17 is a functional block diagram of the game image capturing device.
Each component of the game image capturing device 100 includes a CPU (Central Processing Unit), a computing unit such as various coprocessors, a storage device such as a memory and a storage device, hardware including a wired or wireless communication line connecting them, and storage. It is realized by software that is stored in the device and supplies processing instructions to the arithmetic unit. A computer program may be composed of a device driver, an operating system, various application programs located on the upper layers thereof, and a library that provides common functions to these programs.
As described above, the game image capturing device 100 is configured as an aggregate of the photographing device 128, the receiving device 102, the editing device 126, and the printing device 110. Each block described below shows a block for each function, not a configuration for each hardware.

遊戯画像撮影装置100は、ユーザインタフェース処理部130、データ処理部132、通信部134およびデータ格納部136を含む。
ユーザインタフェース処理部130は、受付モニタ108、編集モニタ120等を介したユーザインタフェース処理を担当する。通信部134は、インターネット204を介してサーバ202との通信処理を担当する。通信部134は、近距離無線通信によりユーザ端末206とダイレクトに通信してもよい。たとえば、通信部134からユーザ端末206に対象画像を直接送信してもよい。データ格納部136は各種データを格納する。データ処理部132は、通信部134により取得されたデータおよびデータ格納部136に格納されているデータに基づいて各種処理を実行する。データ処理部132は、ユーザインタフェース処理部130、通信部134およびデータ格納部136のインタフェースとしても機能する。
The game image capturing device 100 includes a user interface processing unit 130, a data processing unit 132, a communication unit 134, and a data storage unit 136.
The user interface processing unit 130 is in charge of user interface processing via the reception monitor 108, the editing monitor 120, and the like. The communication unit 134 is in charge of communication processing with the server 202 via the Internet 204. The communication unit 134 may directly communicate with the user terminal 206 by short-range wireless communication. For example, the target image may be directly transmitted from the communication unit 134 to the user terminal 206. The data storage unit 136 stores various data. The data processing unit 132 executes various processes based on the data acquired by the communication unit 134 and the data stored in the data storage unit 136. The data processing unit 132 also functions as an interface for the user interface processing unit 130, the communication unit 134, and the data storage unit 136.

ユーザインタフェース処理部130は、ユーザによる操作入力を受け付ける入力部140と、ユーザへの情報提示を行う出力部142と、撮影画像を取得する撮影部138(カメラ118)を含む。入力部140は、受付装置102、撮影装置128、編集装置126等に設置されるタッチパネルに対するユーザの操作入力を検出する。入力部140は、スタイラスペン122による操作入力も検出する。出力部142は、受付装置102、撮影装置128、編集装置126等における画像表示のほか、音声出力、印刷出力など各種の出力処理を実行する。 The user interface processing unit 130 includes an input unit 140 that accepts operation input by the user, an output unit 142 that presents information to the user, and a photographing unit 138 (camera 118) that acquires a captured image. The input unit 140 detects the user's operation input to the touch panel installed on the reception device 102, the photographing device 128, the editing device 126, and the like. The input unit 140 also detects the operation input by the stylus pen 122. The output unit 142 executes various output processes such as audio output and print output in addition to displaying images on the reception device 102, the photographing device 128, the editing device 126, and the like.

入力部140は、受付部158を含む。受付部158は、編集処理においてユーザ操作を受け付ける。 The input unit 140 includes a reception unit 158. The reception unit 158 accepts a user operation in the editing process.

出力部142は、画像出力部170を含む。画像出力部170は、撮影静止画像を対象静止画像として編集モニタ120に表示させ、さらに撮影動画像を対象動画像として編集モニタ120に表示させる。 The output unit 142 includes an image output unit 170. The image output unit 170 displays the captured still image as the target still image on the editing monitor 120, and further displays the captured moving image as the target moving image on the editing monitor 120.

データ処理部132は、撮影制御部144、編集処理部146、受付管理部148および印刷処理部150を含む。
撮影制御部144は、撮影ブース104における撮影処理を制御する。撮影制御部144は、撮影ブース104においてユーザに撮影タイミングを通知する。撮影タイミングを時刻t1とすると、撮影制御部144は時刻t1よりも1.5秒前から0.1秒前まで動画像(以下、「前半動画像」とよぶ)を記録し、時刻t1において撮影静止画像を取得し、時刻t1の0.1秒後から1.5秒後まで動画像(以下、「後半動画像」とよぶ)を再び記録する。撮影制御部144は、前半動画像と後半動画像をつなげることにより撮影動画像を生成する。撮影制御部144は、撮影部138に撮影の開始指示および停止指示を送信することにより、撮影部138を制御する。また、撮影制御部144は、撮影静止画の取得時においては、ストロボ119a、119bを発光させる。撮影動画像は、撮影静止画の取得期間、いいかえれば、ストロボ発光時の動画が含まれないため、ストロボ発光が映り込むことがない。
The data processing unit 132 includes a shooting control unit 144, an editing processing unit 146, a reception management unit 148, and a printing processing unit 150.
The shooting control unit 144 controls the shooting process in the shooting booth 104. The shooting control unit 144 notifies the user of the shooting timing at the shooting booth 104. Assuming that the shooting timing is time t1, the shooting control unit 144 records a moving image (hereinafter referred to as "first half moving image") from 1.5 seconds to 0.1 seconds before time t1 and shoots at time t1. A still image is acquired, and a moving image (hereinafter referred to as "second half moving image") is recorded again from 0.1 second to 1.5 seconds after time t1. The shooting control unit 144 generates a shooting moving image by connecting the first half moving image and the second half moving image. The shooting control unit 144 controls the shooting unit 138 by transmitting a shooting start instruction and a shooting stop instruction to the shooting unit 138. Further, the photographing control unit 144 causes the strobes 119a and 119b to emit light when the photographed still image is acquired. Since the shooting moving image does not include the acquisition period of the shot still image, in other words, the moving image at the time of strobe light emission, the strobe light emission is not reflected.

編集処理部146は、ユーザからの操作入力にしたがって対象静止画像および対象動画像を装飾加工する。編集処理部146は、配置特定部152と動画加工部154を含む。配置特定部152は、スタンプ画像の配置を特定する。動画加工部154は、スタンプ画像を対象動画像に貼り付ける加工を行う。 The editing processing unit 146 decorates the target still image and the target moving image according to the operation input from the user. The editing processing unit 146 includes an arrangement specifying unit 152 and a moving image processing unit 154. The arrangement specifying unit 152 specifies the arrangement of the stamp image. The moving image processing unit 154 performs a process of pasting the stamp image on the target moving image.

受付管理部148は、受付装置102においてユーザによるプレイ料金の支払いと予約順序を管理する。受付管理部148は、撮影ブース104において撮影作業が終了するごとに、予約中のユーザを撮影ブース104に案内する。印刷処理部150は、印刷装置110における対象静止画像の印刷を制御する。 The reception management unit 148 manages the payment of the play fee and the reservation order by the user in the reception device 102. The reception management unit 148 guides the reserved user to the shooting booth 104 every time the shooting work is completed at the shooting booth 104. The print processing unit 150 controls printing of the target still image in the printing device 110.

データ格納部136は、スタンプデータ格納部174、撮影画像格納部180、一次顔情報記憶部182、一次顔スタンプ情報記憶部184、二次顔情報記憶部186および二次顔スタンプ情報記憶部188を含む。
スタンプデータ格納部174は、スタンプIDとスタンプ名とスタンプタイプを対応付けるスタンプ定義データ(不図示)、スタンプ画像データおよび動画パターンのデータなどを格納する。撮影画像格納部180は、撮影静止画像と撮影動画像を対応付けて格納する。一次顔情報記憶部182は、一次顔情報(図12)を記憶する。一次顔スタンプ情報記憶部184は、一次顔スタンプ情報(図13)を記憶する。二次顔情報記憶部186は、二次顔情報(図14)を記憶する。二次顔スタンプ情報記憶部188は、二次顔スタンプ情報(図15)を記憶する。
The data storage unit 136 includes a stamp data storage unit 174, a photographed image storage unit 180, a primary face information storage unit 182, a primary face stamp information storage unit 184, a secondary face information storage unit 186, and a secondary face stamp information storage unit 188. include.
The stamp data storage unit 174 stores stamp definition data (not shown), stamp image data, moving image pattern data, and the like that associate the stamp ID with the stamp name and the stamp type. The captured image storage unit 180 stores the captured still image and the captured moving image in association with each other. The primary face information storage unit 182 stores the primary face information (FIG. 12). The primary face stamp information storage unit 184 stores the primary face stamp information (FIG. 13). The secondary face information storage unit 186 stores the secondary face information (FIG. 14). The secondary face stamp information storage unit 188 stores the secondary face stamp information (FIG. 15).

図18と図19は、編集処理過程を示すフローチャートである。
受付部160がいずれかの画像タブ300のタッチを受け付けた場合には(S10のY)、画像出力部170は、タッチされた画像タブ300に対応する撮影静止画像を、対象静止画像として画像表示領域302に表示する(S12)。そして、配置特定部152は、一次顔情報(図12)を生成する(S14)。一次顔情報の生成処理については、図20に関連して後述する。一次顔情報の生成処理を終えると、S10の処理にもどる。一方、S10のNのルートでは、S16の処理へ移る。
18 and 19 are flowcharts showing the editing process.
When the reception unit 160 receives the touch of any of the image tabs 300 (Y in S10), the image output unit 170 displays the captured still image corresponding to the touched image tab 300 as the target still image. It is displayed in the area 302 (S12). Then, the arrangement specifying unit 152 generates the primary face information (FIG. 12) (S14). The process of generating the primary face information will be described later in relation to FIG. When the process of generating the primary face information is completed, the process returns to the process of S10. On the other hand, in the route N of S10, the process proceeds to the process of S16.

受付部160がいずれかのスタンプボタンのタッチを受け付けた場合には(S16のY)、受付部160は、タッチされたスタンプボタンに対応するスタンプIDを特定し(S18)、S10の処理にもどる。一方、S16のNのルートでは、S20の処理へ移る。 When the reception unit 160 accepts the touch of any of the stamp buttons (Y in S16), the reception unit 160 identifies the stamp ID corresponding to the touched stamp button (S18) and returns to the process of S10. .. On the other hand, in the route N of S16, the process proceeds to the process of S20.

受付部160が顔スタンプの貼り付け操作を受け付けた場合には(S20のY)、配置特定部152は、一次調整パラメータを特定する(S22)。一次調整パラメータの特定処理については、図21に関連して後述する。 When the reception unit 160 accepts the face stamp pasting operation (Y in S20), the arrangement specifying unit 152 specifies the primary adjustment parameter (S22). The process of specifying the primary adjustment parameter will be described later in relation to FIG.

画像出力部170は、スライド中の顔スタンプ画像を表示する(S24)。具体的には、スライド操作が継続している間、新たなタッチ位置に顔スタンプ基準点を合わせて、顔スタンプ画像を表示し直す。 The image output unit 170 displays the face stamp image during the slide (S24). Specifically, while the slide operation continues, the face stamp reference point is aligned with the new touch position, and the face stamp image is displayed again.

スライド操作が終わると、配置特定部152は、一次顔スタンプ情報(図13)を生成する(S26)。一次顔スタンプ情報の生成処理については、図22に関連して後述する。一次顔スタンプ情報の生成処理を終えると、S10の処理にもどる。一方、S20のNのルートでは、図19に示したS28の処理へ移る。 When the slide operation is completed, the arrangement specifying unit 152 generates the primary face stamp information (FIG. 13) (S26). The process of generating the primary face stamp information will be described later in relation to FIG. 22. When the process of generating the primary face stamp information is completed, the process returns to the process of S10. On the other hand, in the route N of S20, the process proceeds to the process of S28 shown in FIG.

図19の説明に移る。受付部160が変化スタンプの貼り付け操作を受け付けた場合には(S28のY)、画像出力部170は、スライド中の変化スタンプ画像を表示する(S30)。つまり、スライドしたタッチ位置に従って変化スタンプ画像を表示し直す。スライド操作が終わると、配置特定部152は、変化スタンプ情報(図16)を生成する(S32)。変化スタンプ情報の生成処理を終えると、図18に示したS10の処理にもどる。一方、S28のNのルートでは、S34の処理へ移る。 The description of FIG. 19 will be resumed. When the reception unit 160 accepts the change stamp pasting operation (Y in S28), the image output unit 170 displays the change stamp image in the slide (S30). That is, the change stamp image is displayed again according to the sliding touch position. When the slide operation is completed, the arrangement specifying unit 152 generates change stamp information (FIG. 16) (S32). When the process of generating the change stamp information is completed, the process returns to the process of S10 shown in FIG. On the other hand, in the route N of S28, the process proceeds to the process of S34.

受付部160が動画スタートボタン320のタッチを受け付けた場合には(S34のY)、編集処理部146は、撮影動画像を表示する(S36)。撮影動画像の表示処理については、図23に関連して後述する。撮影動画像の表示処理を終えると、図18に示したS10の処理にもどる。一方、S34のNのルートでは、S38の処理へ移る。 When the reception unit 160 receives the touch of the moving image start button 320 (Y in S34), the editing processing unit 146 displays the shooting moving image (S36). The display processing of the captured moving image will be described later in relation to FIG. 23. When the display processing of the captured moving image is completed, the process returns to the processing of S10 shown in FIG. On the other hand, in the route N of S34, the process proceeds to the process of S38.

編集時間が経過してタイムアウトになれば、編集処理を終える(38のY)。一方、まだ編集時間が経過していなければ(38のN)、図18に示したS10の処理にもどる。 When the editing time elapses and the timeout occurs, the editing process ends (Y of 38). On the other hand, if the editing time has not passed yet (N of 38), the process returns to the process of S10 shown in FIG.

図20は、一次顔情報の生成処理過程を示すフローチャートである。
配置特定部152は、対象静止画像(図7)に含まれる顔画像を抽出する(S40)。対象静止画像中の顔画像を「一次顔画像」という。具体的には、上述したように顔認証処理を行う。図7では、左側のユーザXと右側のユーザYの顔画像が抽出される。
FIG. 20 is a flowchart showing a process of generating primary face information.
The arrangement specifying unit 152 extracts the face image included in the target still image (FIG. 7) (S40). The face image in the target still image is called a "primary face image". Specifically, the face recognition process is performed as described above. In FIG. 7, the face images of the user X on the left side and the user Y on the right side are extracted.

配置特定部152は、一次顔画像毎に処理を繰り返す(S42)。この例では、ユーザXの顔画像と、ユーザYの顔画像との2回の処理を行う。配置特定部152は、一次顔中心位置、一次顔傾き角および一次顔サイズを算出する(S44〜S48)。すべての一次顔画像を処理すると(S50のY)、図18に示したS10の処理にもどる。まだ処理していない一次顔画像が残っていれば(S50のN)、S40の処理にもどる。 The arrangement specifying unit 152 repeats the process for each primary face image (S42). In this example, the face image of the user X and the face image of the user Y are processed twice. The arrangement specifying unit 152 calculates the primary face center position, the primary face tilt angle, and the primary face size (S44 to S48). When all the primary face images are processed (Y in S50), the process returns to the processing in S10 shown in FIG. If there is a primary face image that has not been processed yet (N in S50), the process returns to S40.

図21は、一次調整パラメータの特定処理過程を示すフローチャートである。
配置特定部152は、タッチ位置を含む顔画像の顔IDを判別する(S60)。たとえば、図9の例で左のユーザXの顔がタッチされていれば、ユーザXのIDである「F1」が特定される。配置特定部152は、特定したユーザIDに対応する一次顔傾き角を一次顔スタンプ傾き角とする(S62)。つまり、「狸の鼻とひげ」の顔スタンプが選ばれてユーザXの顔がタッチされていれば、「狸の鼻とひげ」の傾き角を対象静止画像におけるユーザXの顔の傾きに一致させる。配置特定部152は、一次顔サイズに基づく一次顔スタンプ倍率を算出する(S64)。具体的には、一次顔サイズを基準サイズで除することによって、一次顔スタンプ倍率が求められる。S24の処理へ移る。
FIG. 21 is a flowchart showing a process for specifying the primary adjustment parameter.
The arrangement specifying unit 152 determines the face ID of the face image including the touch position (S60). For example, if the face of the user X on the left is touched in the example of FIG. 9, the ID "F1" of the user X is specified. The arrangement specifying unit 152 sets the primary face tilt angle corresponding to the specified user ID as the primary face stamp tilt angle (S62). In other words, if the face stamp of "Tsumugi nose and whiskers" is selected and the face of user X is touched, the tilt angle of "Tsumugi nose and whiskers" matches the tilt angle of user X's face in the target still image. Let me. The arrangement specifying unit 152 calculates the primary face stamp magnification based on the primary face size (S64). Specifically, the primary face stamp magnification can be obtained by dividing the primary face size by the reference size. The process proceeds to S24.

図22は、一次顔スタンプ情報の生成処理過程を示すフローチャートである。
配置特定部152は、スライド終了位置を、一次顔スタンプ位置とする(S70)。配置特定部152は、一次顔スタンプ傾き角を記憶する(S72)。配置特定部152は、一次顔スタンプ倍率を記憶する(S74)。配置特定部152は、一次相対ベクトルを算出する(S76)。一次相対ベクトルは、一次顔スタンプ位置の座標から一次顔中心位置の座標を引くことによって求められる。そして、S10の処理へ移る。
FIG. 22 is a flowchart showing a process of generating primary face stamp information.
The arrangement specifying unit 152 sets the slide end position as the primary face stamp position (S70). The arrangement specifying unit 152 stores the tilt angle of the primary face stamp (S72). The arrangement specifying unit 152 stores the primary face stamp magnification (S74). The arrangement specifying unit 152 calculates a first-order relative vector (S76). The primary relative vector is obtained by subtracting the coordinates of the primary face center position from the coordinates of the primary face stamp position. Then, the process proceeds to S10.

図23は、撮影動画像の表示処理過程を示すフローチャートである。
動画加工部154は、撮影動画像のフレームを順次取得する(S80)。動画加工部154は、二次顔スタンプ情報(図15)を生成する(S82)。二次顔スタンプ情報の生成処理については、図24と図25に関連して後述する。二次顔スタンプ情報の生成処理を終えると、S84の処理に移る。
FIG. 23 is a flowchart showing the display processing process of the photographed moving image.
The moving image processing unit 154 sequentially acquires frames of the captured moving image (S80). The moving image processing unit 154 generates secondary face stamp information (FIG. 15) (S82). The process of generating the secondary face stamp information will be described later in relation to FIGS. 24 and 25. When the process of generating the secondary face stamp information is completed, the process proceeds to the process of S84.

動画加工部154は、変化スタンプ画像を特定する(S84)。変化スタンプ画像の特定処理については、図26に関連して後述する。変化スタンプ画像の特定処理を終えると、S86の処理にもどる。 The moving image processing unit 154 identifies the change stamp image (S84). The process of specifying the change stamp image will be described later in relation to FIG. When the process of specifying the change stamp image is completed, the process returns to the process of S86.

動画加工部154は、フレームと各スタンプの画像表示を行う(S86)。具体的には、下位レイヤに撮影動画像のフレームを描画し、中間レイヤに顔スタンプの画像を描画し、上位レイヤに変化スタンプの画像を描画して、レイヤ合成に得られる合成画像を表示する。 The moving image processing unit 154 displays an image of the frame and each stamp (S86). Specifically, the frame of the shooting moving image is drawn on the lower layer, the face stamp image is drawn on the intermediate layer, the change stamp image is drawn on the upper layer, and the composite image obtained by layer composition is displayed. ..

動画加工部154は、次のフレームがあれば(S88のN)、S80にもどる。一方、すべてのフレームを処理した場合には(S88のY)、図18に示したS10の処理にもどる。 The moving image processing unit 154 returns to S80 if there is a next frame (N in S88). On the other hand, when all the frames are processed (Y in S88), the process returns to the processing in S10 shown in FIG.

図24と図25は、二次顔スタンプ情報の生成処理過程を示すフローチャートである。動画加工部154は、対象動画像のフレーム(図11)に含まれる顔画像を抽出する(S90)。対対象動画像のフレーム中の顔画像を「二次顔画像」という。具体的には、上述したように顔認証処理を行う。動画像の2番目のフレーム以降に関しては、顔を追跡する処理によって顔画像を抽出してもよい。図11では、左下方のユーザXと右側のユーザYの顔画像が抽出される。 24 and 25 are flowcharts showing a process of generating secondary face stamp information. The moving image processing unit 154 extracts a face image included in the frame (FIG. 11) of the target moving image (S90). The face image in the frame of the target moving image is called a "secondary face image". Specifically, the face recognition process is performed as described above. For the second and subsequent frames of the moving image, the face image may be extracted by the process of tracking the face. In FIG. 11, the face images of the user X on the lower left and the user Y on the right are extracted.

動画加工部154は、二次顔画像毎に処理を繰り返す(S92)。この例では、ユーザXの顔画像と、ユーザYの顔画像との2回の処理を行う。動画加工部154は、顔の特徴データに基づいて二次顔画像の顔IDを特定する(S94)。動画加工部154は、二次顔中心位置、二次顔傾き角および二次顔サイズを算出する(S96〜S100)。すべての二次顔画像を処理すると(S102のY)、図25に示したS104の処理に移る。まだ処理していない二次顔画像が残っていれば(S102のN)、S92の処理にもどる。 The moving image processing unit 154 repeats the processing for each secondary face image (S92). In this example, the face image of the user X and the face image of the user Y are processed twice. The moving image processing unit 154 identifies the face ID of the secondary face image based on the feature data of the face (S94). The moving image processing unit 154 calculates the secondary face center position, the secondary face tilt angle, and the secondary face size (S96 to S100). When all the secondary face images are processed (Y in S102), the process proceeds to the process of S104 shown in FIG. If there is a secondary face image that has not been processed yet (N in S102), the process returns to S92.

図25の説明に移る。動画加工部154は、顔スタンプ毎に処理を繰り返す(S104)。具体的には、一次顔スタンプ情報のレコード毎に、以下の処理を行う。一次顔スタンプ情報にレコードがない場合、つまり顔スタンプが貼り付けられていない場合には、以下の処理を行わない。動画加工部154は、顔スタンプに対応する顔IDを判別する(S106)。具体的には、一次顔スタンプ情報のレコードにおける顔IDを読み取る。動画加工部154は、顔IDに対応する一次顔情報および二次顔情報を参照して、二次相対ベクトル、二次顔スタンプ位置、二次顔スタンプ傾き角および二次顔スタンプ倍率を算出する(S108〜S114)。すべての顔スタンプを処理すると(S116のY)、図23に示したS84の処理にもどる。まだ処理していない顔スタンプが残っていれば(S116のN)、S104の処理に戻る。 The description of FIG. 25 will be resumed. The moving image processing unit 154 repeats the processing for each face stamp (S104). Specifically, the following processing is performed for each record of the primary face stamp information. If there is no record in the primary face stamp information, that is, if the face stamp is not pasted, the following processing is not performed. The moving image processing unit 154 determines the face ID corresponding to the face stamp (S106). Specifically, the face ID in the record of the primary face stamp information is read. The moving image processing unit 154 calculates the secondary relative vector, the secondary face stamp position, the secondary face stamp tilt angle, and the secondary face stamp magnification with reference to the primary face information and the secondary face information corresponding to the face ID. (S108 to S114). When all the face stamps are processed (Y in S116), the process returns to the processing of S84 shown in FIG. 23. If there is a face stamp that has not been processed yet (N in S116), the process returns to S104.

図26は、変化スタンプ画像の特定処理過程を示すフローチャートである。貼り付けられている変化スタンプが拡縮タイプである場合には(S120のY)、動画加工部154は、フレームの順位に対応する倍率を特定して(S122)、倍率に従ってスタンプ画像の大きさを変更する(S124)。貼り付けられている変化スタンプが回転タイプである場合には(S126のY)、動画加工部154は、フレームの順位に対応する傾き角を特定して(S128)。傾き角に従ってスタンプ画像を回転する(S130)。貼り付けられている変化スタンプがアニメーションタイプである場合には(S132のY)、動画加工部154は、フレームの順位に対応するコマ画像を特定する(S134)。複数の変化スタンプが貼り付けられている場合には、各変化スタンプについてこの処理を行う。変化スタンプが貼り付けられていない場合には、この処理を行わない。 FIG. 26 is a flowchart showing a process of specifying the change stamp image. When the pasted change stamp is a scaling type (Y in S120), the moving image processing unit 154 specifies a magnification corresponding to the frame order (S122), and determines the size of the stamp image according to the magnification. Change (S124). When the pasted change stamp is a rotation type (Y in S126), the moving image processing unit 154 specifies an inclination angle corresponding to the order of the frames (S128). The stamp image is rotated according to the tilt angle (S130). When the pasted change stamp is an animation type (Y in S132), the moving image processing unit 154 specifies a frame image corresponding to the order of the frames (S134). If a plurality of change stamps are pasted, this process is performed for each change stamp. If the change stamp is not pasted, this process is not performed.

[変形例1]
本実施形態では、対象動画像における変化スタンプの位置を固定としたが、対象動画像における変化スタンプの位置が変わるようにしてもよい。顔スタンプと同様に、顔に追従してもよい。
[Modification 1]
In the present embodiment, the position of the change stamp in the target moving image is fixed, but the position of the change stamp in the target moving image may be changed. Like the face stamp, it may follow the face.

あるいは、複数ユーザの各顔との相対的な位置関係を保つようにしてもよい。たとえば、ユーザXとユーザYの間にハート図型の変化スタンプを貼り付けた場合に、対象動画像の各フレームにおいて、ユーザXとユーザYの間にハート図型の変化スタンプが自動的に貼り付けられるようにしてもよい。 Alternatively, the relative positional relationship with each face of a plurality of users may be maintained. For example, when a heart-shaped change stamp is pasted between user X and user Y, a heart-shaped change stamp is automatically pasted between user X and user Y in each frame of the target moving image. It may be attached.

図27は、変形例1における対象静止画像に対する変化スタンプの貼り付け例を示す図である。
対象静止画像において、ユーザXの一次顔中心位置とユーザYの一次顔中心位置を結ぶ線分を底辺とし、変化スタンプ位置を頂点とする三角形を想定する。対象静止画像において想定する三角形を「一次三角形」という。
FIG. 27 is a diagram showing an example of attaching a change stamp to the target still image in the modified example 1.
In the target still image, a triangle is assumed in which the line segment connecting the user X's primary face center position and the user Y's primary face center position is the base and the change stamp position is the apex. The triangle assumed in the target still image is called a "first-order triangle".

図19に示したS32の処理の後に、配置特定部152は、一次三角形を特定する情報を算出する。具体的には、底辺の長さと、垂線の足(底辺と垂線の交点)が底辺を分割する比率と、底辺から頂点までの高さを算出する。以下、対象静止画像における底辺の長さを「一次底辺長」という。対象静止画像における底辺を分割する比率を「一次分割比」という。対象静止画像における底辺から頂点までの高さを「一次高さ」という。データ格納部136に含まれる一次顔間情報記憶部(不図示)は、一次顔間情報として、一次底辺長、一次分割比および一次高さを記憶する。一次顔間情報は、スタンプIDに対応付けられる。 After the process of S32 shown in FIG. 19, the arrangement specifying unit 152 calculates the information for specifying the linear triangle. Specifically, the length of the base, the ratio at which the foot of the perpendicular (the intersection of the base and the perpendicular) divides the base, and the height from the base to the apex are calculated. Hereinafter, the length of the base in the target still image is referred to as "primary base length". The ratio of dividing the base of the target still image is called the "primary division ratio". The height from the bottom to the top of the target still image is called the "primary height". The primary face-to-face information storage unit (not shown) included in the data storage unit 136 stores the primary base length, the primary division ratio, and the primary height as the primary face-to-face information. The primary face-to-face information is associated with the stamp ID.

図28は、変形例1における撮影動画像の先頭フレームに対する変化スタンプの貼り付け例を示す図である。
ここでは、先頭フレームの例を示すが、2つ目以降のフレームについても同様に処理される。対象静止画像で想定した一次三角形と相似の三角形を想定する。撮影動画像のフレームにおいて想定される三角形を「二次三角形」という。ユーザXの二次顔中心位置とユーザYの二次顔中心位置を結ぶ線分が、二次三角形の底辺であり、二次三角形における頂点が、撮影動画像のフレームにおける変化スタンプ位置となる。
FIG. 28 is a diagram showing an example of attaching a change stamp to the first frame of the captured moving image in the modified example 1.
Here, an example of the first frame is shown, but the second and subsequent frames are processed in the same manner. A triangle similar to the linear triangle assumed in the target still image is assumed. The triangle assumed in the frame of the captured moving image is called a "quadratic triangle". The line segment connecting the center position of the secondary face of the user X and the center position of the secondary face of the user Y is the base of the quadratic triangle, and the apex of the quadratic triangle is the change stamp position in the frame of the captured moving image.

図23に示したS84の処理のあとに、動画加工部154は、変化スタンプ位置を算出する。具体的にはユーザXの二次顔中心位置とユーザYの二次顔中心位置を結ぶ線分を、一次分割比に従って分割する点の位置を算出する。この点が、二次三角形における垂線の足である。以下、ユーザXの二次顔中心位置とユーザYの二次顔中心位置を結ぶ線分の長さを「二次底辺長」という。 After the processing of S84 shown in FIG. 23, the moving image processing unit 154 calculates the change stamp position. Specifically, the position of the point at which the line segment connecting the secondary face center position of the user X and the secondary face center position of the user Y is divided according to the primary division ratio is calculated. This point is the foot of the perpendicular in the quadratic triangle. Hereinafter, the length of the line segment connecting the secondary face center position of the user X and the secondary face center position of the user Y is referred to as "secondary base length".

次に、垂線の傾きを特定する。垂線の傾きは、ユーザXの二次顔中心位置とユーザYの二次顔中心位置を結ぶ線分の傾きを90度回転することによって求められる。最後に、底辺から頂点までの高さを算出して、垂線上の頂点の位置を特定する。底辺から頂点までの高さは、一次高さに相似比を掛けることによって求められる。相似比は、二次底辺長を一次底辺長で除した値である。 Next, the slope of the perpendicular is specified. The inclination of the perpendicular line is obtained by rotating the inclination of the line segment connecting the secondary face center position of the user X and the secondary face center position of the user Y by 90 degrees. Finally, the height from the base to the apex is calculated to specify the position of the apex on the vertical line. The height from the base to the apex is obtained by multiplying the primary height by the similarity ratio. The similarity ratio is a value obtained by dividing the secondary base length by the primary base length.

図23に示したS86の処理では、二次三角形の頂点の位置に変化スタンプ画像を描画する。 In the process of S86 shown in FIG. 23, a change stamp image is drawn at the position of the apex of the quadratic triangle.

このようにすれば、たとえばユーザXとユーザYの仲がよいというユーザ同士の関係を撮影動画像のスタンプで表現することができる。 In this way, for example, the relationship between the users that the user X and the user Y are on good terms can be expressed by the stamp of the photographed moving image.

ここでは、変化スタンプの例を示したが、変化しない通常のスタンプにおいて、複数ユーザの各顔との相対的な位置関係を保つようにしてもよい。つまり、この例で示したハート図形のスタンプは、図8(C)のように傾きを変化させるものとは限らず、傾きを変化させないものであってもよい。 Here, an example of a change stamp is shown, but in a normal stamp that does not change, the relative positional relationship with each face of a plurality of users may be maintained. That is, the stamp of the heart figure shown in this example is not limited to the one that changes the inclination as shown in FIG. 8C, and may be the one that does not change the inclination.

[変形例2]
本実施形態では、スタンプを貼り付ける例を示したが、スタンプ以外の装飾加工を対象動画像に反映してもよい。スタンプ以外の装飾加工とは、たとえば線描きやパーティクル装飾などである。パーティクル装飾とは、スライド操作によって対象静止画像上に小片画像を散らす装飾のことである。たとえば、スライドの軌跡に沿って付近に小さな星図形を配置する。
[Modification 2]
In the present embodiment, an example of pasting a stamp is shown, but decorative processing other than the stamp may be reflected in the target moving image. The decorative processing other than the stamp is, for example, line drawing or particle decoration. Particle decoration is a decoration in which small pieces of images are scattered on a target still image by a slide operation. For example, place a small star in the vicinity along the trajectory of the slide.

対象静止画像における装飾結果を、そのまま撮影動画像の各フレームに施してもよいし、スライド操作によって装飾される過程を段階的に再現してもよい。以下、パーティクル装飾を段階的に表示する例について説明する。 The decoration result of the target still image may be applied to each frame of the captured moving image as it is, or the process of decoration by the slide operation may be reproduced step by step. An example of displaying the particle decoration step by step will be described below.

図29は、変形例2における編集画面の画面図である。
ユーザがパーティクルパレット328に含まれるパーティクルボタン330aにタッチしてから、画像表示領域302をタッチしてスライドさせると、受付部160がタッチ操作およびスライド操作を受け付けて、タッチ位置を描画の基準点として、描画部(不図示)によって基準点の付近に小片画像が描かれる。以下、描画の基準点を「描画基準点」という。破線は、スライド操作によるタッチ位置の軌跡を示している。このとき、配置特定部152は、スライド操作によるタッチ位置の軌跡をデータ格納部136に含まれる軌跡情報記憶部(不図示)に記憶する。つまり、時系列の描画基準点が蓄積される。
FIG. 29 is a screen view of the editing screen in the second modification.
When the user touches the particle button 330a included in the particle palette 328 and then touches and slides the image display area 302, the reception unit 160 accepts the touch operation and the slide operation, and the touch position is used as the reference point for drawing. , A small image is drawn near the reference point by the drawing unit (not shown). Hereinafter, the reference point for drawing is referred to as a "reference point for drawing". The broken line shows the locus of the touch position by the slide operation. At this time, the arrangement specifying unit 152 stores the locus of the touch position by the slide operation in the locus information storage unit (not shown) included in the data storage unit 136. That is, time-series drawing reference points are accumulated.

図30は、変形例2における撮影動画像のフレームに対するパーティクルの貼り付け例を示す図である。
連続するフレームのうちの一部を抜粋して示している。動画加工部154は、フレームの進行に従って、軌跡情報記憶部に蓄積されている描画基準点を順次読み込む。そして、描画基準点の付近に小片画像を描画する。
FIG. 30 is a diagram showing an example of attaching particles to the frame of the shooting moving image in the modified example 2.
Some of the consecutive frames are excerpted and shown. The moving image processing unit 154 sequentially reads the drawing reference points stored in the locus information storage unit as the frame progresses. Then, a small piece image is drawn near the drawing reference point.

このように、動画の進行に合わせて小片画像を散りばめるようにすれば、幻想的な演出を楽しむことができる。 In this way, if small pieces of images are scattered as the moving image progresses, a fantastic effect can be enjoyed.

線描きに関して、同様にスライド操作によるタッチ位置の軌跡を、時系列の描画基準点として蓄積して、動画の進行に合わせて線を延長するように描画してもよい。手書きの図形や文字を描いた過程が再現されるので、ユーザが書き込んだ様子を思い返して楽しむことができる。 Similarly, regarding line drawing, the locus of the touch position by the slide operation may be accumulated as a time-series drawing reference point, and the line may be drawn so as to extend as the moving image progresses. Since the process of drawing handwritten figures and characters is reproduced, you can enjoy looking back on how the user wrote it.

[変形例3]
上述のように対象静止画像にユーザが行った落書きを対象動画像に反映させるだけでなく、対象静止画像の顔に施した装飾、つまり盛りや化粧の加工を対象動画像に反映させてもよい。盛りや化粧の加工とは、目を大きくしたり、涙袋を設けたり、まつ毛を濃くしたり、唇に口紅色を加えたり、頬に頬紅色を加えたり、フェイスラインをシャープにする処理である。
[Modification 3]
As described above, not only the graffiti performed by the user on the target still image may be reflected on the target moving image, but also the decoration applied to the face of the target still image, that is, the processing of the filling and makeup may be reflected on the target moving image. .. Heaping and makeup processing is the process of enlarging the eyes, providing teardrops, thickening the eyelashes, adding lipstick to the lips, adding blush to the cheeks, and sharpening the face line. be.

盛りや化粧の程度は、ユーザが指示してもよいし、予め設定しておいてもよい。盛りや化粧は、自動的な事前修正の処理で行ってもよいし、ユーザの指示に応じる編集処理で行ってもよい。事前修正に関する盛りや化粧の程度(修正量)をユーザが指示してもよい。受付部160は、ユーザが指示した盛りや化粧の程度を受け付ける。盛りや化粧の程度とは、たとえば目の拡大率、涙袋のサイズ、まつ毛の濃さ、口紅色の濃さ、頬紅色の濃さやフェイスラインのシャープ化度などである。 The degree of filling and makeup may be instructed by the user or may be set in advance. The filling and makeup may be performed by an automatic pre-correction process, or may be performed by an editing process according to a user's instruction. The user may instruct the degree of pre-correction and the degree of makeup (correction amount). The reception unit 160 receives the degree of filling and makeup instructed by the user. The degree of heaping and makeup includes, for example, the enlargement ratio of the eyes, the size of the tear bag, the darkness of the eyelashes, the darkness of the lipstick, the darkness of the blusher, and the degree of sharpening of the face line.

対象動画像の各フレームにおいて行う盛りや化粧の加工の処理自体は、対象静止画像の場合と同様である。ただし、対象動画像の場合には、盛りや化粧の程度を対象静止画像の場合に比べて弱くする。動画加工部154は、たとえば目の拡大率を小さくしたり、涙袋のサイズを小さくしたり、まつ毛の濃さを弱めたり、口紅色を薄くしたり、頬紅色を薄くしたり、フェイスラインのシャープ化度を小さくしたりなどの調整を行ってから、盛りや化粧の加工の処理を行う。 The processing itself of the filling and makeup processing performed in each frame of the target moving image is the same as in the case of the target still image. However, in the case of the target moving image, the degree of filling and makeup is weaker than that in the case of the target still image. The video processing unit 154 may, for example, reduce the enlargement ratio of the eyes, reduce the size of the tear bag, reduce the thickness of the eyelashes, lighten the lipstick color, lighten the blusher color, and the face line. After making adjustments such as reducing the degree of sharpening, the treatment of filling and makeup is performed.

または、事前修正部(不図示)が、撮影動画像の各フレームに対して盛りや化粧の加工を行うときに、動画加工部154と同様に盛りや化粧の程度を対象静止画像の場合に比べて弱くして事前修正を行ってもよい。このようにすれば、事前修正された対象動画像を表示する段階で特別な処理を行わなくても盛りや化粧の程度が弱い動画が再生表示される。 Alternatively, when the pre-correction unit (not shown) performs the filling and makeup processing on each frame of the shooting moving image, the degree of filling and makeup is compared with that of the target still image as in the moving image processing section 154. It may be weakened and pre-corrected. In this way, a moving image having a weak degree of filling or makeup can be reproduced and displayed without any special processing at the stage of displaying the pre-corrected target moving image.

以上のように盛りや化粧の程度を弱めれば、対象動画像における表情が自然になる。一般的には、対象静止画像における盛りや化粧の加工を強調することが好まれる傾向にある。その心理的な作用は、人それぞれなので一概には言えないが、たとえばお人形のように大きな目で、鋭角なフェイスラインにすれば、愛らしさが増すと思うからであると推察される。ただし、この心理的作用は画像が動かないことを前提としている。動きがない分、表情を強調して個性を伝えようとする思いが働いているものと思われる。これは、動かないお人形の表情から擬人的な心を読み取って楽しむという「お人形遊び」に似ている。端的に言えば、自分をお人形に置き換えて、愛らしい存在として自己愛を満足させるということである。 By weakening the degree of filling and makeup as described above, the facial expression in the target moving image becomes natural. In general, it tends to be preferred to emphasize the filling and makeup processing in the target still image. The psychological effect is different for each person, so it cannot be said unconditionally, but it is presumed that if you have big eyes like a doll and a sharp face line, you will be more adorable. However, this psychological effect presupposes that the image does not move. Since there is no movement, it seems that the desire to emphasize facial expressions and convey individuality is working. This is similar to "doll play" where you can enjoy reading anthropomorphic minds from the facial expressions of immovable dolls. Simply put, you replace yourself with a doll and satisfy your self-love as an adorable being.

一方、動画像の場合には人物が動くので、「お人形遊び」のような楽しみ方とは趣が異なる。むしろ、お人形が動くという態様はホラー映画などに見られる演出であって、無機質のものに魂が宿ったような奇異な印象を起こさせることもある。この感覚についても、人それぞれなので一概には言えないが、現実感が残るようにした方が動画自体を楽しみやすいと考えられる。つまり、人物や表情の動きがある分、見る者が被写体の心を読み取りやすいので、盛りや化粧を強調しなくても十分であるという見方もできる。 On the other hand, in the case of a moving image, the person moves, so the taste is different from the way of enjoying like "doll play". Rather, the movement of the doll is a production seen in horror movies, and it may give a strange impression that the soul resides in the inorganic one. This feeling cannot be unequivocally stated because it is different for each person, but it is thought that it is easier to enjoy the video itself if the reality remains. In other words, since the viewer can easily read the subject's mind because of the movement of the person and facial expression, it can be said that it is not necessary to emphasize the height and makeup.

ただし、対象動画像における盛りや化粧の加工の程度を、対象静止画像における盛りや化粧の加工の程度と別に指示させるようにするとユーザにとって面倒である。変形例3では、この点に考慮して自動的に盛りや化粧の加工を弱めて、対象動画像を自然に楽しめるようにしている。 However, it is troublesome for the user to indicate the degree of filling and makeup processing in the target moving image separately from the degree of filling and makeup processing in the target still image. In the third modification, in consideration of this point, the filling and makeup processing are automatically weakened so that the target moving image can be enjoyed naturally.

[その他の変形例]
本実施形態の顔スタンプは変化しないが、顔スタンプを変化するようにしてもよい。変化させる方法は、拡縮タイプ、回転タイプあるいはアニメーションタイプであってもよい。アニメーションタイプであれば、いろいろな態様を表現することができる。狸の鼻をひくつかせたり、狸のひげをしならせたり、張り立たせたり、あるいは狸の耳を垂れさせたり、大きくしたりなどの演出もできる。このようにすれば、まるで狸がユーザに化けており、今ここにいる者が本当は狸なのではないかと戯れに想像し、童話的な世界観を楽しむことができる。
[Other variants]
The face stamp of the present embodiment does not change, but the face stamp may be changed. The method of changing may be a scaling type, a rotation type, or an animation type. If it is an animation type, various aspects can be expressed. You can also make the raccoon's nose twitch, make the raccoon's beard bend, make it stand up, or make the raccoon's ears hang down or make it bigger. In this way, you can enjoy the fairy tale world view by imagining that the raccoon dog is masquerading as a user and that the person who is here is actually a raccoon dog.

本実施形態および各変形例では、静止画像の撮影前と撮影後に撮影された2つの動画像がつながる撮影動画像の例を示したが、撮影動画像は、静止画像の撮影前に撮影された動画像だけでもよい。あるいは、静止画像の撮影後に撮影された動画像だけでもよい。 In this embodiment and each modification, an example of a shooting moving image in which two moving images taken before and after shooting a still image are connected is shown, but the shooting moving image was taken before shooting the still image. Only the moving image may be used. Alternatively, only the moving image taken after the still image is taken may be used.

本実施形態および各変形例では、撮影動画像の全フレームについて装飾加工を施す例を示したが、撮影動画像の一部のフレームにだけ装飾加工を施すようにしてもよい。たとえば、静止画像の撮影前に撮影された動画のフレームにだけ装飾加工を施すようにしてもよい。あるいは、静止画像の撮影後に撮影された動画のフレームにだけ装飾加工を施すようにしてもよい。 In the present embodiment and each modification, an example in which all frames of the captured moving image are decorated is shown, but only a part of the frames of the captured moving image may be decorated. For example, the decoration process may be applied only to the frame of the moving image taken before the taking of the still image. Alternatively, the decoration process may be applied only to the frame of the moving image taken after the still image is taken.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。 The present invention is not limited to the above-described embodiment or modification, and the components can be modified and embodied within a range that does not deviate from the gist. Various inventions may be formed by appropriately combining a plurality of components disclosed in the above embodiments and modifications. In addition, some components may be deleted from all the components shown in the above embodiments and modifications.

100 遊戯画像撮影装置、102 受付装置、104 撮影ブース、106 編集ブース、108 受付モニタ、110 印刷装置、112 第1撮影モニタ、114 第2撮影モニタ、116 ライト、118 カメラ、119 ストロボ、120 編集モニタ、122 スタイラスペン、124 カーテン、126 編集装置、128 撮影装置、130 ユーザインタフェース処理部、132 データ処理部、134 通信部、136 データ格納部、138 撮影部、140 入力部、142 出力部、144 撮影処理部、146 編集処理部、148 受付処理部、150 印刷処理部、152 配置特定部、154 動画加工部、160 受付部、170 画像出力部、174 スタンプデータ格納部、180 撮影画像格納部、182 一次顔情報記憶部、184 一次顔スタンプ情報記憶部、186 二次顔情報記憶部、188 二次顔スタンプ情報記憶部、200 遊戯画像撮影システム、202 サーバ、204 インターネット、206 ユーザ端末、222 タッチパネル、220 ディスプレイ、300 画像タブ、302 画像表示領域、304 スタンプパレット、306 顔スタンプボタン、308 変化スタンプボタン、310 変化スタンプボタン、312 変化スタンプボタン、320 動画スタートボタン、322 シークバー、328 パーティクルパレット、330 パーティクルボタン 100 play image shooting device, 102 reception device, 104 shooting booth, 106 editing booth, 108 reception monitor, 110 printing device, 112 first shooting monitor, 114 second shooting monitor, 116 lights, 118 camera, 119 strobe, 120 editing monitor , 122 stylus pen, 124 curtain, 126 editing device, 128 shooting device, 130 user interface processing unit, 132 data processing unit, 134 communication unit, 136 data storage unit, 138 shooting unit, 140 input unit, 142 output unit, 144 shooting Processing unit, 146 Editing processing unit, 148 Reception processing unit, 150 Printing processing unit, 152 Arrangement specifying unit, 154 Video processing unit, 160 Reception unit, 170 Image output unit, 174 Stamp data storage unit, 180 Captured image storage unit, 182 Primary face information storage unit, 184 Primary face stamp information storage unit, 186 Secondary face information storage unit, 188 Secondary face stamp information storage unit, 200 Play image shooting system, 202 server, 204 Internet, 206 user terminal, 222 touch panel, 220 Display, 300 Image Tab, 302 Image Display Area, 304 Stamp Palette, 306 Face Stamp Button, 308 Change Stamp Button, 310 Change Stamp Button, 312 Change Stamp Button, 320 Video Start Button, 322 Seek Bar, 328 Particle Palette, 330 Particles button

Claims (4)

ユーザの静止画を撮影するとともに、前記静止画の撮影前と撮影後のうちの少なくとも一方の前記ユーザの動画を撮影して、録画する撮影部と、
撮影静止画に対して付加画像を貼り付ける指示を受け付ける受付部と、
前記付加画像を前記貼り付ける指示に従って、前記撮影静止画における前記付加画像の貼り付け位置を特定する特定部と、
録画された撮影動画に含まれる複数のフレーム画像に対して、前記貼り付け位置を基準として前記付加画像を貼り付ける動画加工部と、
前記付加画像を貼り付けた撮影動画を送信する通信部と
を有し、
前記特定部は、前記貼り付け位置として、前記撮影静止画における前記ユーザの顔に対する前記付加画像の相対位置を特定し、
前記動画加工部は、前記撮影動画の前記複数のフレーム画像それぞれについて、前記ユーザの前記顔に対する前記相対位置を基準として前記付加画像の貼り付け位置を決め、前記付加画像を前記撮影動画における前記ユーザの前記顔の動きに追従させることを特徴とする遊戯画像撮影装置。
A shooting unit that shoots a still image of the user and also shoots and records a moving image of the user at least one of before and after shooting the still image.
A reception section that accepts instructions to paste additional images on shot still images,
According to the instruction to paste the additional image, a specific unit for specifying the pasting position of the additional image in the captured still image, and a specific unit.
A moving image processing unit that attaches the additional image to a plurality of frame images included in the recorded recorded moving image based on the pasting position, and a moving image processing unit.
Have a communication unit for transmitting the captured videos pasted the additional image,
The specific unit specifies the relative position of the additional image with respect to the user's face in the captured still image as the pasting position.
The moving image processing unit determines the pasting position of the additional image with reference to the relative position of the user with respect to the face for each of the plurality of frame images of the captured moving image, and the additional image is used as the user in the captured moving image. A game image capturing device characterized by following the movement of the face.
ユーザの静止画を撮影するとともに、前記静止画の撮影前と撮影後のうちの少なくとも一方の前記ユーザの動画を撮影して、録画する撮影部と、
撮影静止画に対して付加画像を貼り付ける指示を受け付ける受付部と、
前記付加画像を前記貼り付ける指示に従って、前記撮影静止画における前記付加画像の貼り付け位置を特定する特定部と、
録画された撮影動画に含まれる複数のフレーム画像に対して、前記貼り付け位置を基準として前記付加画像を貼り付ける動画加工部と、
前記付加画像を貼り付けた撮影動画を送信する通信部と
を有し、
前記撮影部は、複数ユーザの静止画を撮影するとともに、前記静止画の撮影前と撮影後のうちの少なくとも一方の前記複数ユーザの動画を撮影し、
前記特定部は、撮影静止画における前記複数ユーザの各顔と前記付加画像の相対関係を特定し、
前記動画加工部は、前記撮影動画の前記各フレーム画像に対して、前記複数ユーザの前記各顔との前記相対関係を保つ位置に前記付加画像を貼り付けることを特徴とする遊戯画像撮影装置。
A shooting unit that shoots a still image of the user and also shoots and records a moving image of the user at least one of before and after shooting the still image.
A reception section that accepts instructions to paste additional images on shot still images,
According to the instruction to paste the additional image, a specific unit for specifying the pasting position of the additional image in the captured still image, and a specific unit.
A moving image processing unit that attaches the additional image to a plurality of frame images included in the recorded recorded moving image based on the pasting position, and a moving image processing unit.
Have a communication unit for transmitting the captured videos pasted the additional image,
The shooting unit shoots a still image of a plurality of users, and also shoots a moving image of the plurality of users at least one of before and after shooting the still image.
The specific unit identifies the relative relationship between each face of the plurality of users and the additional image in the captured still image.
The moving image processing unit is a game image capturing device, characterized in that the additional image is attached to each frame image of the captured moving image at a position that maintains the relative relationship with each face of the plurality of users.
ユーザの静止画を撮影するとともに、前記静止画の撮影前と撮影後のうちの少なくとも一方の前記ユーザの動画を撮影して、録画する機能と、
撮影静止画に対して付加画像を貼り付ける指示を受け付ける機能と、
前記付加画像を前記貼り付ける指示に従って、前記撮影静止画における前記付加画像の貼り付け位置を特定する特定機能と、
録画された撮影動画に含まれる複数のフレーム画像に対して、前記貼り付け位置を基準として前記付加画像を貼り付ける動画加工機能と、
前記付加画像を貼り付けた撮影動画を送信する機能と
を、情報処理装置に発揮させ
前記特定機能において、前記貼り付け位置として、前記撮影静止画における前記ユーザの顔に対する前記付加画像の相対位置を特定し、
前記動画加工機能において、前記撮影動画の前記複数のフレーム画像それぞれについて、前記ユーザの前記顔に対する前記相対位置を基準として前記付加画像の貼り付け位置を決め、前記付加画像を前記撮影動画における前記ユーザの前記顔の動きに追従させることを特徴とするプログラム。
A function of shooting a still image of a user and shooting and recording a moving image of the user at least one of before and after shooting the still image.
A function that accepts instructions for pasting additional images on captured still images,
A specific function for specifying the pasting position of the additional image in the captured still image according to the instruction for pasting the additional image, and
A video processing function for pasting the additional image to a plurality of frame images included in the recorded video recording based on the pasting position, and
The information processing device is made to demonstrate the function of transmitting the captured video with the additional image pasted .
In the specific function, as the pasting position, the relative position of the additional image with respect to the user's face in the captured still image is specified.
In the moving image processing function, for each of the plurality of frame images of the captured moving image, the attachment position of the additional image is determined based on the relative position of the user with respect to the face, and the additional image is used as the user in the captured moving image. A program characterized by following the movement of the face.
ユーザの静止画を撮影するとともに、前記静止画の撮影前と撮影後のうちの少なくとも一方の前記ユーザの動画を撮影して、録画する撮影機能と、
撮影静止画に対して付加画像を貼り付ける指示を受け付ける機能と、
前記付加画像を前記貼り付ける指示に従って、前記撮影静止画における前記付加画像の貼り付け位置を特定する特定機能と、
録画された撮影動画に含まれる複数のフレーム画像に対して、前記貼り付け位置を基準として前記付加画像を貼り付ける動画加工機能と、
前記付加画像を貼り付けた撮影動画を送信する機能と
を、情報処理装置に発揮させ
前記撮影機能において、複数ユーザの静止画を撮影するとともに、前記静止画の撮影前と撮影後のうちの少なくとも一方の前記複数ユーザの動画を撮影し、
前記特定機能において、撮影静止画における前記複数ユーザの各顔と前記付加画像の相対関係を特定し、
前記動画加工機能において、前記撮影動画の前記各フレーム画像に対して、前記複数ユーザの前記各顔との前記相対関係を保つ位置に前記付加画像を貼り付けることを特徴とするプログラム。
With taking a user of a still image, by capturing at least one of the user's video out after shooting and before photographing of the still image, a photographing function for recording,
A function that accepts instructions for pasting additional images on captured still images,
A specific function for specifying the pasting position of the additional image in the captured still image according to the instruction for pasting the additional image, and
A video processing function for pasting the additional image to a plurality of frame images included in the recorded video recording based on the pasting position, and
The information processing device is made to demonstrate the function of transmitting the captured video with the additional image pasted .
In the shooting function, a still image of a plurality of users is shot, and at least one of the moving images of the plurality of users before and after shooting the still image is shot.
In the specific function, the relative relationship between each face of the plurality of users and the additional image in the captured still image is specified.
A program characterized in that, in the moving image processing function, the additional image is attached to each frame image of the captured moving image at a position where the relative relationship with each face of the plurality of users is maintained.
JP2020027101A 2020-02-20 2020-02-20 Amusement imaging equipment and programs Active JP6939927B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027101A JP6939927B2 (en) 2020-02-20 2020-02-20 Amusement imaging equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027101A JP6939927B2 (en) 2020-02-20 2020-02-20 Amusement imaging equipment and programs

Publications (2)

Publication Number Publication Date
JP2021132320A JP2021132320A (en) 2021-09-09
JP6939927B2 true JP6939927B2 (en) 2021-09-22

Family

ID=77552217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027101A Active JP6939927B2 (en) 2020-02-20 2020-02-20 Amusement imaging equipment and programs

Country Status (1)

Country Link
JP (1) JP6939927B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6201501B2 (en) * 2013-08-07 2017-09-27 辰巳電子工業株式会社 Movie editing apparatus, movie editing method and program
JP2018182469A (en) * 2017-04-07 2018-11-15 株式会社メイクソフトウェア Photographic game machine, control method of photographic game machine, and control program of photographic game machine
JP7073803B2 (en) * 2018-03-14 2022-05-24 株式会社セガ Game image shooting system
JP7132492B2 (en) * 2018-05-24 2022-09-07 フリュー株式会社 Image processing device, display control method, and program

Also Published As

Publication number Publication date
JP2021132320A (en) 2021-09-09

Similar Documents

Publication Publication Date Title
EP3096208B1 (en) Image processing for head mounted display devices
JP6607281B2 (en) Photo sticker creation apparatus, display method, and program
US20150206310A1 (en) Image generating apparatus and image generating method
JP2015146566A (en) Image generation device, method, and program
JP4316001B1 (en) Photography game machine, photography game method and photography game program
JP2020074041A (en) Imaging device for gaming, image processing device, and image processing method
JP2005295163A (en) Photographic printer, photographic printer control method, program, and recording medium with the program recorded thereeon
JP6810336B2 (en) Photo creation game console and display method
JP4553378B2 (en) Image editing apparatus, photo sticker creating apparatus, image editing method, and image editing program
JP6939927B2 (en) Amusement imaging equipment and programs
JP2017147621A (en) Image processing apparatus, image processing method and computer program
JP6620572B2 (en) Game shooting apparatus and image processing method
US20230121976A1 (en) Animation production system
JP4439204B2 (en) Photo vending machine and photo providing method in photo vending machine
US20220301249A1 (en) Animation production system for objects in a virtual space
JP7073803B2 (en) Game image shooting system
JP4990840B2 (en) Image editing apparatus and photography game machine using the same
JP7196487B2 (en) Content creation device
JP7132492B2 (en) Image processing device, display control method, and program
JP4266154B2 (en) Automatic photo creation device and automatic photo creation method
JP6183721B2 (en) Photography game machine and control program
JP6969622B2 (en) Shooting game equipment and programs
JP2014202962A (en) Photographing game machine and control program thereof
JP2018106678A (en) Sticker making game machine and image processing method
JP6978660B2 (en) Photographing game equipment, image display method, and image display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200729

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6939927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150