JP7132492B2 - Image processing device, display control method, and program - Google Patents

Image processing device, display control method, and program Download PDF

Info

Publication number
JP7132492B2
JP7132492B2 JP2018099302A JP2018099302A JP7132492B2 JP 7132492 B2 JP7132492 B2 JP 7132492B2 JP 2018099302 A JP2018099302 A JP 2018099302A JP 2018099302 A JP2018099302 A JP 2018099302A JP 7132492 B2 JP7132492 B2 JP 7132492B2
Authority
JP
Japan
Prior art keywords
image
user
content
view
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018099302A
Other languages
Japanese (ja)
Other versions
JP2019203996A (en
Inventor
俊介 中嶋
莉恵 北野
哲也 北
理予 萩原
仁志 飛田
みな子 坂原
佳那美 上
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2018099302A priority Critical patent/JP7132492B2/en
Publication of JP2019203996A publication Critical patent/JP2019203996A/en
Application granted granted Critical
Publication of JP7132492B2 publication Critical patent/JP7132492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本技術は、画像処理装置、表示制御方法、およびプログラムに関し、特に、利用者が、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができる画像処理装置、表示制御方法、およびプログラムに関する。 The present technology relates to an image processing device , a display control method, and a program, and in particular, enables a user to easily check a moving image reflecting the selected content while selecting the content of image processing to be performed on a captured image. image processing device , display control method, and program.

従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。 Conventionally, a photo sticker creating device is known. A photo sticker creating apparatus photographs a user, makes the user edit the photographed image, and prints the edited image on sticker paper to provide the edited image. A photo sticker creating device is installed in an amusement facility or the like.

写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。 The flow of one game provided by the photo sticker creating device is that after taking a picture of the user in the shooting space as the subject, the user is moved to the editing space, and the image is displayed according to the operation performed in the editing space. After editing, the edited image is printed on sticker paper.

ところで、撮影時、撮影空間に設けられたモニタには、カメラにより撮影された動画像がリアルタイムで表示される。利用者は、ライブビュー画像と呼ばれるこのような動画像を見ながら、自分の立ち位置やポーズなどを確認することができる。 By the way, at the time of photographing, a moving image photographed by the camera is displayed in real time on a monitor provided in the photographing space. The user can check his or her standing position, pose, etc. while watching such a moving image called a live view image.

特許文献1には、ライブビュー画像の画角を、ライブビュー画像の表示開始時と撮影時とで切り替える技術が開示されている。特許文献1に記載の技術においては、後者のタイミングの方が狭くなるように画角が調整され、これにより、画像に占める被写体の面積としては撮影時の方が広くなる。 Japanese Patent Application Laid-Open No. 2002-200001 discloses a technique for switching the angle of view of a live view image between when the live view image starts to be displayed and when the image is captured. In the technique described in Patent Document 1, the angle of view is adjusted so that the latter timing is narrower, and as a result, the area of the subject occupying the image is wider during shooting.

特開2014-212489号公報JP 2014-212489 A

ライブビュー画像の表示画面に表示されたボタンなどを操作して、撮影によって得られる撮影画像に合成するコンテンツの種類を選択したり、レタッチの内容を選択したりすることができるようになっている写真シール作成装置がある。利用者は、自分の選択内容が反映されたライブビュー画像を見ながら、それらの選択を行うことができる。 By operating the buttons displayed on the live view image display screen, you can select the type of content to be combined with the captured image obtained by shooting, and select the content of retouching. There is a photo sticker making device. The user can make these selections while looking at the live view image in which his or her selections are reflected.

表示画面に表示されたボタンなどを操作するためには利用者はモニタに近づく必要がある。モニタに近づくことはカメラに近づくことになるから、これにより、操作を行っている利用者の顔がライブビュー画像の画角から見切れる(画角に収まらない)ことがある。ライブビュー画像の画角から見切れた場合、選択内容がどのような形で反映されるのかを確認することができなくなる。 The user needs to approach the monitor in order to operate the buttons displayed on the display screen. Since moving closer to the monitor means moving closer to the camera, the face of the user performing the operation may be cut off from the angle of view of the live view image (beyond the angle of view). If it is cut off from the angle of view of the live view image, it will be impossible to confirm how the selection will be reflected.

本技術はこのような状況に鑑みてなされたものであり、利用者が、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができるようにするものである。 The present technology has been developed in view of such circumstances, and is intended to enable a user to easily check moving images in which the selected content is reflected while selecting the content of image processing to be performed on the captured image. It is intended to be

本技術の画像処理装置は、利用者を被写体とした撮影画像の元になる静止画像の撮影と、動画像の撮影とを行う撮影部と、前記静止画像に施す画像処理の内容の選択を前記動画像の表示中に受け付ける選択受付部と、前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施す画像処理部と、前記画像処理の内容の選択前、前記撮影部により撮影された前記動画像を、前記撮影画像の画角と同じ画角で表示させ、前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる表示制御部とを備える。 The image processing device of the present technology includes a photographing unit that photographs a still image that is the basis of a photographed image of a user and a moving image that is the basis of the photographed image, and the selection of the content of image processing to be performed on the still image. a selection reception unit that receives a selection during display of a moving image; an image processing unit that performs processing representing the content of the image processing selected by the user on the moving image ; display the moving image photographed by using the same angle of view as the photographed image, and display the content of the image processing selected by the user while accepting the selection of the content of the image processing. and a display control unit for displaying the processed moving image with a wider angle of view than the captured image.

本技術においては、利用者を被写体とした撮影画像の元になる静止画像の撮影と、動画像の撮影とが行われ、前記静止画像に施す画像処理の内容の選択前、撮影された前記動画像が、前記撮影画像の画角と同じ画角で表示され、前記画像処理の内容の選択が前記動画像の表示中に受け付けられる。また、前記利用者により選択された前記画像処理の内容を表す処理が前記動画像に施され、前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像が、前記撮影画像の画角より広い画角で表示される。 In the present technology, a still image that is the basis of a captured image of a user as a subject and a moving image are captured . The image is displayed at the same angle of view as that of the photographed image, and selection of the content of the image processing is accepted while the moving image is being displayed . Further, a process representing the content of the image processing selected by the user is applied to the moving image, and the content of the image processing selected by the user is accepted while the selection of the content of the image processing is being accepted. is displayed with an angle of view wider than that of the captured image.

本技術によれば、利用者は、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができる。 According to the present technology, the user can easily confirm the moving image reflecting the selected content while selecting the content of the image processing to be performed on the captured image.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view showing an example of composition of appearance of a photograph sticker production device of this art. 写真シール作成装置の外観を他の角度からみた斜視図である。FIG. 10 is a perspective view of the appearance of the photo sticker creating apparatus as seen from another angle; 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of a prior selection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of an editing unit. 編集ユニットの側面の構成例を示す図である。FIG. 4 is a diagram showing a configuration example of a side surface of an editing unit; 編集画像のレイヤ構成の例を示す図である。FIG. 4 is a diagram showing an example of a layer configuration of an edited image; 写真シール作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a photo sticker production apparatus. 写真シール作成装置の機能構成例を示すブロック図である。2 is a block diagram showing a functional configuration example of a photo sticker creating device; FIG. 撮影処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an imaging|photography process part. アップ画像とコーディネート画像の生成の例を示す図である。It is a figure which shows the example of generation|occurrence|production of a close-up image and a coordinated image. イマドキ盛り撮影時に用いられるスタンプ画像の例を示す図である。FIG. 10 is a diagram showing an example of a stamp image used when photographing in the prime of the present day; 合成画像の例を示す図である。FIG. 10 is a diagram showing an example of a synthesized image; FIG. スタンプ画像の例を示す図である。FIG. 4 is a diagram showing an example of a stamp image; 写真シール作成装置の動作について説明するフローチャートである。4 is a flowchart for explaining the operation of the photo sticker creating device; 図17のステップS3において行われる撮影処理について説明するフローチャートである。FIG. 18 is a flowchart for explaining a shooting process performed in step S3 of FIG. 17; FIG. ライブビュー画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a live view screen; 図18のステップS15において行われるイマドキ盛り撮影処理について説明するフローチャートである。FIG. 19 is a flowchart for explaining a modern-day photographing process performed in step S15 of FIG. 18; FIG. 画角の変更の例を示す図である。FIG. 10 is a diagram showing an example of changing the angle of view; 画角の変更を行わない場合のライブビュー画像の表示例を示す図である。FIG. 10 is a diagram showing a display example of a live view image when the angle of view is not changed; 画角を広げた場合のライブビュー画像の表示例を示す図である。FIG. 11 is a diagram showing a display example of a live view image when the angle of view is widened; スタンプ画像選択画面の表示例を示す図である。FIG. 11 is a diagram showing a display example of a stamp image selection screen; スタンプ画像選択画面の他の表示例を示す図である。FIG. 11 is a diagram showing another display example of the stamp image selection screen; ライブビュー画像の画角の変化の例を示す図である。FIG. 10 is a diagram showing an example of changes in the angle of view of a live view image; 利用者が1人である場合の画角調整の例を示す図である。It is a figure which shows the example of angle-of-view adjustment when there is one user. 利用者が複数人である場合の画角調整の例を示す図である。It is a figure which shows the example of angle-of-view adjustment when there are multiple users. 全員の顔を収める場合の画角調整の例を示す図である。FIG. 10 is a diagram showing an example of angle-of-view adjustment when all faces are included; コンテンツを収める場合の画角調整の例を示す図である。FIG. 10 is a diagram showing an example of angle-of-view adjustment when content is accommodated; コンテンツを構成する画像が回転するアニメーションの例を示す図である。FIG. 10 is a diagram showing an example of an animation in which an image forming content is rotated; コンテンツを構成する画像の位置が変化するアニメーションの例を示す図である。FIG. 10 is a diagram showing an example of animation in which the positions of images forming content change; 回転の例を示す図である。FIG. 10 is a diagram showing an example of rotation; 上下の移動の例を示す図である。It is a figure showing an example of up-and-down movement. 拡縮の例を示す図である。It is a figure which shows the example of expansion/contraction. 拡縮の他の例を示す図である。It is a figure which shows the other example of expansion/contraction. 左右の移動の例を示す図である。It is a figure which shows the example of a left-right movement. 透過度変更の例を示す図である。It is a figure which shows the example of a transparency change. 色変更の例を示す図である。FIG. 10 is a diagram showing an example of color change; 色変更の他の例を示す図である。FIG. 10 is a diagram showing another example of color change; レタッチ選択画面の例を示す図である。FIG. 11 is a diagram showing an example of a retouch selection screen;

<<実施例>>
<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<<Example>>
<Appearance of photo sticker making device>
1 and 2 are perspective views showing configuration examples of the appearance of the photo sticker creating apparatus 1. FIG.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。 The photo sticker creation device 1 is a game machine that provides photographed images and edited images. The photo sticker creating apparatus 1 provides images to users by printing the images on sticker paper or making the images viewable on the user's portable terminal. The photo sticker creating device 1 is installed in an amusement facility such as a game center or a store.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。 Users of the photo sticker creating apparatus 1 are mainly high school girls and young women. In the photo sticker creating device 1, a plurality of users, mainly two or three, can enjoy the game per group. Of course, one user can also enjoy the game in the photo sticker creating apparatus 1 .

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating apparatus 1, the user himself/herself becomes a subject and performs photographing work. Through editing work, the user combines an image for composition such as handwritten characters or a stamp image with an image selected from the photographed images obtained by photographing. As a result, the photographed image is edited into a colorful image. The user receives the seal paper on which the edited image, which is the edited image, is printed, and ends the series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。 The photo sticker creation device 1 can be called a photo creation game machine that provides a photo creation game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。 As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by installing a photographing unit 11 and an editing unit 12 in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 has a box-shaped housing large enough for a person to enter, and is composed of a pre-selection section 20 , a photographing section 21 and a background section 22 . The pre-selection unit 20 is installed on the side of the imaging unit 21 . The space in front of the pre-selection unit 20 becomes the pre-selection space where the pre-selection process is performed. Also, the photographing unit 21 and the background unit 22 are placed apart from each other by a predetermined distance. A space formed between the photographing section 21 and the background section 22 is a photographing space in which photographing processing is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。 As the pre-selection process, the pre-selection unit 20 performs guidance for introducing games provided by the photo sticker creating apparatus 1, and performs various settings in the photographing process performed in the photographing space. The pre-selection unit 20 is provided with a coin slot into which the user inserts money, a touch panel monitor used for various operations, and the like. The pre-selection unit 20 appropriately guides the user in the pre-selected space to the imaging space according to the availability of the imaging space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。 The photographing unit 21 is a device for photographing a user as a subject. The photographing unit 21 is positioned in front of the user entering the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。 Assuming that the left side and the right side are the left side and the right side, respectively, as viewed from the user facing the front in the imaging space, the left side of the imaging unit 21 is composed of the side panel 41A, and the right side is composed of the side panel 41B. be done. Further, a front panel 42 constitutes the front of the photographing unit 21 . The preselection section 20 described above is installed on the side panel 41A. Note that the preselection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background portion 22 is composed of a rear panel 51, side panels 52A, and side panels 52B. The back panel 51 is a plate-like member located on the back side of the user facing the front. The side panel 52A is a plate-like member attached to the left end of the rear panel 51 and having a width narrower than that of the side panel 41A. The side panel 52B is a plate-like member attached to the right end of the rear panel 51 and having a width narrower than that of the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided substantially on the same plane. Upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A, which is a plate-like member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A' which is provided on the floor and is a member made of metal, for example. Similarly, the side panel 41B and the side panel 52B are provided substantially on the same plane. Upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B'.

撮影空間の床には、板状の部材である床材27が敷かれる。床材27には、撮影時の立ち位置を指定するときに用いられるマークが印刷されている。 A floor material 27, which is a plate-like member, is laid on the floor of the imaging space. The flooring 27 is printed with a mark used for designating a standing position at the time of photographing.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、所望の背景画像が、シートが写っている利用者の背景の部分に合成される。 For example, a green chromakey sheet is attached to the surface of the back panel 51 facing the imaging space. The photo sticker creating apparatus 1 performs chromakey synthesis in the shooting process and the editing process by shooting a chromakey sheet as a background. As a result, the desired background image is synthesized with the user's background in which the sheet is shown.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance to the imaging space. An opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance to the imaging space.

撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。 A ceiling surrounded by the front of the photographing unit 21, the connecting portion 23A, and the connecting portion 23B is formed above the photographing space. A ceiling strobe unit 24 is provided on a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B.

天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。 The ceiling strobe unit 24 incorporates a strobe that irradiates light toward the inside of the photographing space in accordance with photographing. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to the strobe. As a result, the ceiling strobe unit 24 also functions as lighting for the shooting space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 so that one side thereof contacts the front panel 42 of the photographing section 21 .

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 If the configuration of the editing unit 12 shown in FIG. 1 is taken as the configuration on the front side, the configuration used in the editing work is provided on each of the front side and the back side of the editing unit 12 . This configuration allows two sets of users to perform editing work at the same time.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a surface 61 and an inclined surface 62 formed above the surface 61 . The surface 61 is a surface that is perpendicular to the floor surface and substantially parallel to the side panel 41A of the imaging unit 21 . A built-in tablet monitor and a touch pen are provided on the slope 62 as components used for editing work. A columnar support portion 63A that supports one end of the lighting device 64 is provided on the left side of the slope 62 . A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the right side of the slope 62 . A support portion 65 for supporting the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。 A curtain rail 26 is attached above the editing unit 12 . The curtain rail 26 is constructed by combining three rails 26A to 26C. The three rails 26A to 26C are combined to form a U-shape when viewed from above. One ends of rails 26A and 26B provided in parallel are fixed to connecting portions 23A and 23B, respectively, and the other ends of rails 26A and 26B are joined to both ends of rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 so that the space in front of the front and the space in front of the back of the editing unit 12 are not visible from the outside. The space in front of the editing unit 12 surrounded by the curtain and the space behind the editing unit 12 become an editing space in which the user performs editing work.

後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 As will be described later, the left side of the editing unit 12 is provided with a discharge port through which the printed sticker paper is discharged. A space in front of the left side of the editing unit 12 becomes a print waiting space where the user waits for the printed sticker paper to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<Regarding the movement of users>
Here, the flow of the photo sticker creation game and the movement of the user associated therewith will be described.

図3は、写真シール作成装置1を上から見た平面図である。 FIG. 3 is a top plan view of the photo sticker creating apparatus 1. FIG.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 The user inserts money into the coin slot in the pre-selection space A0, which is the space in front of the pre-selection section 20. FIG. Next, the user makes various settings according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course related to photographing to be performed in the photographing space as a pre-selection work.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 After completing the pre-selection work, the user enters the imaging space A1 formed between the imaging unit 21 and the background unit 22 from the entrance G1 between the side panel 41A and the side panel 52A, as indicated by the white arrow #1. to go into. A user uses a camera, a touch panel monitor, or the like provided in the photographing unit 21 to perform photographing work.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-2に移動する。 The user who has completed the photographing work exits the photographing space A1 from the doorway G1 as indicated by the white arrow #2 and moves to the editing space A2-1, or enters the doorway G2 as indicated by the white arrow #3. , exits the photographing space A1 and moves to the editing space A2-2.

編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。 The editing space A2-1 is an editing space on the front side of the editing unit 12. FIG. On the other hand, the editing space A2-2 is the editing space behind the editing unit 12. FIG. To which of the editing space A2-1 and the editing space A2-2 the user should move is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. When printing starts, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the white arrow #4. Also, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow #5.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for the end of printing. When the printing is finished, the user receives the sticker paper ejected from the ejection port provided on the right side of the editing unit 12, and finishes the series of photo sticker creating games.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of pre-selection unit>
FIG. 4 is a diagram showing a configuration example of the pre-selection unit 20. As shown in FIG.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。 A touch panel monitor 71 is provided above the pre-selection section 20 . The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel stacked thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and receiving user selections. The touch panel monitor 71 displays a screen used for selecting the number of users.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71 . The speaker 72 outputs a guide voice for pre-selection processing, BGM (Background Music), sound effects, and the like. Adjacent to the speaker 72, a coin insertion/return opening 73 for inserting coins by the user is provided.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Structure of shooting unit>
FIG. 5 is a diagram showing a configuration example of the front of the photographing unit 21. As shown in FIG. The imaging unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42. As shown in FIG.

正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81の正面には、カメラ91、タッチパネルモニタ92、および正面ストロボ93が設けられる。 A camera unit 81 is provided slightly above the center of the front panel 42 . A camera 91 , a touch panel monitor 92 , and a front strobe 93 are provided in front of the camera unit 81 .

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。 The camera 91 is, for example, a single-lens reflex camera, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 has an imaging device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the imaging space A1. The camera 91 functions as a photographing unit that photographs a user as a subject.

カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 A moving image captured by the camera 91 (hereinafter also referred to as a live view image) is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing, such as when an instruction to shoot is given, is saved as a shot image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択を受け付ける機能を備えている。 A touch panel monitor 92 is provided below the camera 91 . The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays moving images captured by the camera 91, and a function that displays various GUIs and receives user selections.

正面ストロボ93は、カメラ91の上方に設けられる。正面ストロボ93は、乳白アクリル板よりなる、三日月状の発光面を有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。 A front strobe 93 is provided above the camera 91 . The front strobe 93 has a crescent-shaped light-emitting surface made of a milky white acrylic plate. The front strobe 93 emits light in synchronization with photographing by the camera 91 to illuminate the vicinity of the user's face as a subject from the front.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボユニット82が設置される。上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。 Above the camera unit 81, an upper strobe unit 82 is installed with its curved light-emitting surface facing the user. The upper strobe unit 82 irradiates the user's face and upper body with light from above the front of the user.

カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。 Below the camera unit 81, a foot strobe unit 83 is provided to irradiate the user's lower body and feet with light.

上ストロボユニット82および足元ストロボユニット83は、蛍光灯とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、利用者の操作性や安全性を確保するために撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。 The upper strobe unit 82 and the foot strobe unit 83 are composed of a fluorescent lamp and lighting equipment capable of strobe light emission. The upper strobe unit 82 and the foot strobe unit 83 constantly illuminate the shooting space to ensure user operability and safety. Light is emitted to the user who becomes

足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。 A box-shaped portion 84 is provided between the foot strobe unit 83 and the side panel 41A. A box-shaped portion 85 is provided between the foot strobe unit 83 and the side panel 41B. The upper surfaces of the box-shaped parts 84 and 85 form a surface substantially horizontal with the installation surface of the photo sticker creating apparatus 1, and are used as a luggage storage area for the user who performs the photographing work to place luggage and the like.

なお、図示はしないが、正面パネル42の例えば天井付近には、スピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。 Although not shown, a speaker is provided on the front panel 42, for example, near the ceiling. The speaker outputs guide voices, BGM, sound effects, etc. for the shooting process.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Composition of the background part>
FIG. 6 is a diagram showing a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。 A rear upper strobe 101 is installed above the rear panel 51 . The upper back strobe 101 irradiates the user with light from above the back.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。 In the drawing, a rear left strobe 102 is installed on the left side of the rear panel 51 . The back left strobe 102 irradiates the user from the right side of the back. In the drawing, a rear right strobe 103 is installed on the right side of the rear panel 51 . The back-right strobe 103 irradiates the user from the back-left side.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられる。クロマキーシート121の色は、例えば緑色とされる。 A chromakey sheet 121 is attached to the surface of the back panel 51 facing the shooting space A1 (the front side in the figure). The color of the chromakey sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面の下側(床面側)にも、クロマキーシート121と同様のクロマキーシートが貼り付けられる。 Although not shown, a chromakey sheet similar to the chromakey sheet 121 is attached to the lower side (floor surface side) of the side panels 52A and 52B facing the imaging space A1.

<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2-1側)の構成例を示す図である。
<Structure of editing unit>
FIG. 7 is a diagram showing a configuration example of the front side (editing space A2-1 side) of the editing unit 12. As shown in FIG.

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。 A tablet built-in monitor 131 is provided approximately in the center of the slope 62 . A touch pen 132A is provided on the left side of the tablet built-in monitor 131 . A touch pen 132B is provided on the right side of the tablet built-in monitor 131 .

タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 The tablet built-in monitor 131 is configured by laminating a tablet and a display. The tablet enables operation input using touch pen 132A or touch pen 132B. The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. When two users simultaneously perform editing work, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. .

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。 An operation using the touch pen 132A and an operation using the touch pen 132B are distinguished. As appropriate, the display on the left side of the tablet built-in monitor 131 can only be operated using the touch pen 132A, and the display on the right side can only be operated using the touch pen 132B. Hereinafter, when there is no need to distinguish between the touch pen 132A and the touch pen 132B, the touch pen 132A and the touch pen 132B are collectively referred to as the touch pen 132.

図8は、編集ユニット12の左側面の構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of the left side of the editing unit 12. As shown in FIG.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2-1の利用者が写る画像、または、編集空間A2-2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A seal paper discharge port 161 is provided on the lower side of the left side of the editing unit 12 . A printer is provided inside the editing unit 12 . The printer prints an image of the user of the editing space A2-1 or an image of the user of the editing space A2-2 in a predetermined layout on a sticker sheet, which is discharged from the sticker paper outlet 161. FIG.

<編集画像のレイヤ構造>
図9は、編集画像のレイヤ構造の例を示す図である。
<Layer structure of edited image>
FIG. 9 is a diagram showing an example of the layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。 The edited image P1 at the left end is an image generated by editing. The edited image P1 is composed of images of layers of a background image P11, a person image P12, and a foreground image P13.

図9の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。 In the example of FIG. 9, the background image P11 is an image of a pattern of a wall made of stacked bricks. The foreground image P13 is an image including an image of handwritten characters "Love my friend" and a heart-shaped image. The handwritten character image of "Love my friend" is a pen image input by the user using the pen tool. The heart-shaped image is a stamp image input by the user using the stamp tool.

このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させることも可能とされる。 Thus, the edited image P1 is generated by superimposing the person image P12, which is the image of the person's area extracted from the photographed image by chromakey processing, on the background image P11, and superimposing the foreground image P13 thereon. It is also possible to input a pen image or stamp image onto the background image P11 and display it in the background of the subject.

図9の例においては、人物画像P12として、利用者の略胸付近から上の範囲が大きく写る画像が示されている。撮影処理においては、このように顔が大きく写る撮影画像であるアップ画像が撮影される。アップ画像の撮影は例えば複数回行われる。 In the example of FIG. 9, an image showing a large area above the user's chest is shown as the person image P12. In the photographing process, a close-up image, which is a photographed image in which the face is enlarged in this way, is photographed. Shooting of the close-up image is performed, for example, multiple times.

撮影処理においては、アップ画像の他に、頭の上から膝下付近までの広い範囲が写る画像の撮影も行われる。この画像は、例えば、洋服のコーディネートを残しておくために用いられる。以下、適宜、洋服のコーディネートを残しておくためなどに用いられる、アップ画像よりも画角(撮影範囲)の広い画像をコーディネート画像という。 In the photographing process, in addition to the close-up image, an image showing a wide range from the top of the head to the vicinity of the knee is also photographed. This image is used, for example, to keep the coordination of clothes. Hereinafter, an image with a wider angle of view (capturing range) than the close-up image, which is used to record the coordination of clothes as appropriate, will be referred to as a coordinated image.

コーディネート画像よりも画角が広い、利用者の全身が写る全身画像の撮影が行われるようにしてもよい。 A whole-body image that captures the whole body of the user and has a wider angle of view than the coordinated image may be captured.

<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の構成例を示すブロック図である。図10において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram showing a configuration example of the photo sticker creating apparatus 1. As shown in FIG. In FIG. 10, the same reference numerals are given to the same configurations as those described above. Duplicate explanations will be omitted as appropriate.

図10に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に収納される。 As shown in FIG. 10, the photo sticker creating apparatus 1 has an external input/output interface 303 for a PC (Personal Computer) section 301, a preselection section 302, a photographing section 304, editing sections 305A and 305B, and a printing section 306. It is configured by being connected via A PC section 301, which is an information processing section, is housed inside the housing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。 A CPU (Central Processing Unit) 311 , a ROM (Read Only Memory) 312 , and a RAM (Random Access Memory) 313 constituting the PC section 301 are interconnected by a bus 314 .

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。 A CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creating apparatus 1 . The ROM 312 stores programs and data executed by the CPU 311 . A RAM 312 temporarily stores data and programs processed by the CPU 311 .

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。 An input/output interface 315 is further connected to the bus 314 . A storage unit 316 , a communication unit 317 and a drive 318 are connected to the input/output interface 315 .

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。 The storage unit 316 is a nonvolatile storage medium such as a hard disk or flash memory. The storage unit 316 stores various setting information and the like supplied from the CPU 311 . Information stored in the storage unit 316 is appropriately read by the CPU 311 .

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカーが管理する画像取得サイト管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像取得サイト管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。 A communication unit 317 is an interface of a network such as the Internet. A communication unit 317 communicates with an external device under the control of the CPU 311 . The communication unit 317 transmits the image selected by the user to, for example, an image acquisition site management server managed by the manufacturer of the photo sticker creating apparatus 1 . The image transmitted from the communication unit 317 is stored in a predetermined storage area, displayed on the mobile terminal accessing the image acquisition site management server, or downloaded to the mobile terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。 A removable medium 319 such as an optical disk or a semiconductor memory is mounted in the drive 318 as appropriate. Programs and data read from the removable medium 319 by the drive 318 are supplied to the CPU 311 and stored in the storage unit 316 or installed.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。 The external input/output interface 303 is connected to the input/output interface 315 . Each unit is controlled by the PC unit 301 via the external input/output interface 303 .

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。 The pre-selection unit 302 realizes pre-selection processing for users in the pre-selection space A0. The preselection unit 302 is composed of a touch panel monitor 71 , a speaker 72 and a coin processing unit 321 .

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens under the control of the PC unit 301 and accepts user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the PC unit 301, and various settings are performed.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。 The coin processing unit 321 detects insertion of coins into the coin insertion/return port 73 . When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the PC unit 301 .

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部304は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ332から構成される。 The photographing unit 304 realizes photographing processing for users in the photographing space A1. The photographing unit 304 is composed of an illumination device 331 , a camera 91 , a touch panel monitor 92 and a speaker 332 .

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。 The lighting device 331 is each strobe unit in the shooting space A1 and emits light according to the lighting control signal supplied from the PC section 301 .

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた画像データをPC部301に出力する。 The camera 91 performs photographing according to shutter control by the PC section 301 and outputs image data obtained by photographing to the PC section 301 .

編集部305Aは、編集空間A2-1にいる利用者を対象とした編集処理を実現する。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2-2にいる利用者を対象とした編集処理を実現し、編集部305Aと同一の構成を有する。なお、以下、編集部305A,305Bを特に区別しない場合には、単に、編集部305という。 The editing unit 305A implements editing processing for users in the editing space A2-1. The editing unit 305A is composed of a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. FIG. The editing section 305B implements editing processing for users in the editing space A2-2, and has the same configuration as the editing section 305A. Hereinafter, the editing units 305A and 305B will simply be referred to as the editing unit 305 when they are not distinguished from each other.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、撮影画像の編集が行われる。 The tablet built-in monitor 131 displays an edit screen under the control of the PC unit 301 and accepts a user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。 Printing unit 306 is configured to include printer 351 . A sticker paper unit 352 is attached to the printer 351 .

プリンタ351は、ヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によってカットして、シール紙排出口161に排出する。 The printer 351 drives the head 361 and prints an image on the roll-shaped sticker paper 363 contained in the sticker paper unit 352 based on the print data supplied from the PC section 301 . The printer 351 also cuts the sticker paper 363 on which the image is printed by the cutter 362 and discharges it to the sticker paper discharge port 161 .

<写真シール作成装置の機能構成例>
図11は、写真シール作成装置1の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 11 is a block diagram showing a functional configuration example of the photo sticker creating apparatus 1. As shown in FIG. At least some of the functional units shown in FIG. 11 are implemented by the CPU 311 executing a predetermined program.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。 In the photo sticker creating apparatus 1, a pre-selection processing unit 401, a photographing processing unit 402, an editing processing unit 403, and a printing processing unit 404 are realized.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択、背景画像の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。 The pre-selection processing unit 401 executes pre-selection processing by controlling each unit of the pre-selection unit 302 . Selection of the number of users, selection of a background image, and the like are performed by the pre-selection process. Information representing the content selected by the user is supplied to the imaging processing unit 402 .

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。 The imaging processing unit 402 performs imaging processing by controlling each unit of the imaging unit 304 . The shooting processing unit 402 outputs the data of the shot image obtained by performing the shooting processing to the editing processing unit 403 . The shooting processing unit 402 supplies the editing processing unit 403 with data of a plurality of captured images obtained by performing shooting a plurality of times.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさや肌の明るさを調整する処理、撮影画像に対して編集を施す処理などが含まれる。編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。 The editing processing unit 403 performs editing processing by controlling each unit of the editing unit 305 . The editing process includes a process of adjusting the size of the user's eyes and the brightness of the skin appearing in the captured image, a process of editing the captured image, and the like. After editing the captured image, the edit processing unit 403 generates print data by arranging the edited image in a predetermined layout, and outputs the print data to the print processing unit 404 .

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。 The print processing unit 404 outputs print data to the printer 351 to print the edited image.

<撮影処理部の詳細構成>
図12は、撮影処理部402の構成例を示すブロック図である。
<Detailed Configuration of Shooting Processing Unit>
FIG. 12 is a block diagram showing a configuration example of the imaging processing unit 402. As shown in FIG.

撮影処理部402は、撮影制御部411、トリミング部412、画像処理部413、選択受付部414、表示制御部415、および撮影画像記憶部416から構成される。 The photographing processing unit 402 includes a photographing control unit 411 , a trimming unit 412 , an image processing unit 413 , a selection reception unit 414 , a display control unit 415 and a photographed image storage unit 416 .

撮影制御部411は、カメラ91を制御して利用者を被写体とした撮影を行う。撮影制御部411は、静止画像の撮影前、ライブビュー画像用の動画像の撮影を行い、カメラ91により取り込まれた動画像を出力する。また、撮影制御部411は、撮影画像の撮影タイミングに合わせて静止画像の撮影を行い、カメラ91により撮影された静止画像を出力する。撮影制御部411から出力された動画像と静止画像はトリミング部412に供給される。 The photographing control unit 411 controls the camera 91 to photograph the user as a subject. The shooting control unit 411 shoots a moving image for a live view image before shooting a still image, and outputs the moving image captured by the camera 91 . Further, the shooting control unit 411 shoots a still image in accordance with the shooting timing of the shot image, and outputs the still image shot by the camera 91 . The moving image and still image output from the shooting control unit 411 are supplied to the trimming unit 412 .

トリミング部412は、撮影制御部411から供給された動画像の各フレームに対してトリミングを施し、所定の範囲の画像からなる動画像を出力する。トリミングにより切り出された範囲の画像からなる動画像は、画像処理部413と表示制御部415に供給される。 The trimming unit 412 trims each frame of the moving image supplied from the shooting control unit 411, and outputs a moving image composed of images of a predetermined range. A moving image made up of images of the range cut out by trimming is supplied to the image processing unit 413 and the display control unit 415 .

また、トリミング部412は、撮影画像の撮影タイミングで撮影制御部411から供給された静止画像に対してトリミングを施し、所定の範囲を切り出すことによって撮影画像を生成する。トリミング部412は、生成した撮影画像を撮影画像記憶部416に出力し、記憶させる。トリミング部412により生成された撮影画像は、適宜、撮影結果を表示するために表示制御部415に出力される。 Also, the trimming unit 412 trims the still image supplied from the shooting control unit 411 at the shooting timing of the shot image, and cuts out a predetermined range to generate a shot image. The trimming unit 412 outputs the generated captured image to the captured image storage unit 416 for storage. The captured image generated by the trimming unit 412 is appropriately output to the display control unit 415 to display the captured image.

撮影画像の撮影は例えば6回行われる。1回目から4回目までの撮影がアップ画像の撮影となり、6回目の撮影が例えばコーディネート画像の撮影となる。アップ画像の撮影とコーディネート画像の撮影は、カメラ91のレンズの焦点距離を例えば同じ24mmとして行われる。トリミング範囲を変えることによって、縦横比の異なるアップ画像とコーディネート画像が生成される。 The photographing of the photographed image is performed, for example, six times. The 1st to 4th shots are for close-up images, and the 6th shot is for example a coordinated image. The shooting of the close-up image and the shooting of the coordinated image are performed with the same focal length of the lens of the camera 91, for example, 24 mm. By changing the trimming range, a close-up image and a coordinated image with different aspect ratios are generated.

図13は、アップ画像とコーディネート画像の生成の例を示す図である。 FIG. 13 is a diagram showing an example of generating a close-up image and a coordinated image.

図13に示す画像は、焦点距離を24mmとして撮影された原画像である。枠F1で示す矩形領域が、アップ画像の撮影時にトリミングによって切り出される領域である。トリミング部412は、枠F1で示す矩形領域をトリミングによって切り出し、アップ画像を生成する。 The image shown in FIG. 13 is an original image taken with a focal length of 24 mm. A rectangular area indicated by a frame F1 is an area cut out by trimming when shooting a close-up image. The trimming unit 412 cuts out the rectangular area indicated by the frame F1 by trimming to generate a close-up image.

また、枠F2で示す矩形領域が、コーディネート画像の撮影時にトリミングによって切り出される領域である。トリミング部412は、枠F2で示す矩形領域をトリミングによって切り出し、コーディネート画像を生成する。 A rectangular area indicated by a frame F2 is an area cut out by trimming when photographing a coordinated image. The trimming unit 412 cuts out the rectangular area indicated by the frame F2 by trimming to generate a coordinated image.

アップ画像とコーディネート画像の撮影前のライブビュー画像の表示も、カメラ91により撮影された動画像の各フレームから、図13において枠F1と枠F2で示す範囲を切り出して得られた画像を用いて行われる。 The display of the live view image before photographing the close-up image and the coordination image is also performed using images obtained by cutting out the ranges indicated by frames F1 and F2 in FIG. done.

6回の撮影のうちの5回目の撮影は、利用者により選択されたスタンプ画像が合成されたアップ画像の撮影となる。 The fifth shot of the six shots is taken as a close-up image synthesized with the stamp image selected by the user.

以下、適宜、流行のスタンプ画像を合成することによっていわゆる「盛れ感」のある画像を得るための撮影という意味で、スタンプ画像が合成されたアップ画像の撮影を「イマドキ盛り撮影」という。「盛れ感」は、利用者の顔のかわいらしさの強調度合いを表す指標である。 Hereinafter, photographing of a close-up image synthesized with a stamp image will be referred to as "modern prime photographing" in the sense of photographing for obtaining an image with a so-called "lively feeling" by appropriately synthesizing trendy stamp images. The “feeling of liveliness” is an index representing the degree of emphasizing the cuteness of the user's face.

図14は、イマドキ盛り撮影時に用いられるスタンプ画像の例を示す図である。 FIG. 14 is a diagram showing an example of a stamp image that is used when photographing the prime of life.

イマドキ盛り撮影時、例えば、図14に示すような動物の耳と鼻を表現したスタンプ画像431が合成に用いられる。スタンプ画像431は、ウサギの鼻を表現した鼻画像431-1と、ウサギの左右の耳を表現した耳画像431-2,431-3から構成される。 For example, a stamp image 431 representing the ears and nose of an animal as shown in FIG. The stamp image 431 consists of a nose image 431-1 representing the nose of a rabbit and ear images 431-2 and 431-3 representing the left and right ears of a rabbit.

図15は、合成画像の例を示す図である。 FIG. 15 is a diagram showing an example of a synthesized image.

アップ画像に写るそれぞれの利用者の鼻と頭の位置に図14のスタンプ画像が合成されることにより、図15に示すような合成画像が生成される。スタンプ画像の大きさは、アップ画像に写る利用者の大きさに応じて調整され、大きさを調整したスタンプ画像が合成される。 A composite image as shown in FIG. 15 is generated by combining the stamp image of FIG. 14 with the position of the nose and head of each user shown in the close-up image. The size of the stamp image is adjusted according to the size of the user appearing in the close-up image, and the size-adjusted stamp image is synthesized.

図15の例においては、左側の利用者の鼻の位置には鼻画像431-1Lが合成され、頭の位置には耳画像431-2L,431-3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像431-1Rが合成され、頭の位置には耳画像431-2R,431-3Rが合成されている。 In the example of FIG. 15, a nose image 431-1L is synthesized at the position of the user's nose on the left side, and ear images 431-2L and 431-3L are synthesized at the position of the head of the user. A nose image 431-1R is synthesized at the position of the user's nose on the right side, and ear images 431-2R and 431-3R are synthesized at the position of the head of the user.

このように、アップ画像に対してスタンプ画像を合成して得られた合成画像が、イマドキ盛り撮影の撮影画像として生成される。 In this way, a synthesized image obtained by synthesizing the stamp image with the close-up image is generated as the photographed image of the modern prime photographing.

イマドキ盛り撮影が行われる前、合成に用いるスタンプ画像の種類の選択が行われる。写真シール作成装置1には、図16A乃至Dに示すような複数種類のスタンプ画像のデータが予め用意されている。 The type of stamp image to be used for synthesis is selected before the modern prime photography is performed. Data of a plurality of types of stamp images as shown in FIGS.

スタンプ画像の選択は、タッチパネルモニタ92に表示されるスタンプ画像選択画面を用いて行われる。後述するように、スタンプ画像選択画面には、それぞれのスタンプ画像を選択するときに操作されるボタンとともに、選択中のスタンプ画像を表すコンテンツを合成したライブビュー画像が表示される。 Selection of the stamp image is performed using a stamp image selection screen displayed on the touch panel monitor 92 . As will be described later, the stamp image selection screen displays a button operated when selecting each stamp image, as well as a live view image synthesized with content representing the currently selected stamp image.

利用者は、自分が選択した内容が反映されたライブビュー画像を見ながら、イマドキ盛り撮影に用いるスタンプ画像を選択することができる。 The user can select a stamp image to be used for the modern prime photographing while viewing the live view image reflecting the content selected by the user.

詳細については後述するが、図12のトリミング部412は、スタンプ画像の選択を利用者に行わせている間、言い換えると、利用者によるスタンプ画像の選択を受け付けている間、トリミング範囲を調整することにより、ライブビュー画像の画角を調整する。 Although the details will be described later, the trimming unit 412 in FIG. 12 adjusts the trimming range while allowing the user to select the stamp image, in other words, while accepting the selection of the stamp image by the user. By doing so, the angle of view of the live view image is adjusted.

トリミング部412は、イマドキ盛り撮影時に撮影制御部411から供給された静止画像にトリミングを施すことによってアップ画像と同じ画角の画像を切り出し、切り出したアップ画像を画像処理部413に出力する。 The trimming unit 412 cuts out an image having the same angle of view as the close-up image by trimming the still image supplied from the photographing control unit 411 at the time of high-end photographing, and outputs the cut-out close-up image to the image processing unit 413 .

画像処理部413は、イマドキ盛り撮影の前に撮影制御部411から供給された動画像の各フレームに対してコンテンツを合成する。すなわち、画像処理部413は、各フレームを対象として顔認識を行うことによって、目、鼻、頭などの各部位の位置を特定し、特定した位置に、コンテンツを構成する各画像を合成する。選択受付部414からは、利用者が選択しているスタンプ画像の種類を表す情報が供給されてくる。 The image processing unit 413 synthesizes contents with respect to each frame of the moving image supplied from the shooting control unit 411 before the modern prime shooting. That is, the image processing unit 413 identifies the position of each part such as the eyes, nose, and head by performing face recognition on each frame, and synthesizes each image forming the content at the identified position. Information indicating the type of stamp image selected by the user is supplied from the selection reception unit 414 .

動画像に合成されるコンテンツは、アップ画像に合成するスタンプ画像の種類を表す画像から構成される。静止画像に合成されるスタンプ画像と同じ画像が動画像の各フレームに合成されることもあるし、異なる画像が動画像の各フレームに合成されることもある。動画像に合成されるコンテンツは、静止画像であるアップ画像に施される画像処理の内容を表す画像となる。画像処理部413は、コンテンツを合成した動画像を表示制御部415に出力する。 The content to be combined with the moving image is composed of an image representing the type of stamp image to be combined with the close-up image. The same image as the stamp image to be combined with the still image may be combined with each frame of the moving image, or a different image may be combined with each frame of the moving image. The content to be synthesized with the moving image is an image representing the content of the image processing performed on the close-up image, which is a still image. The image processing unit 413 outputs the moving image synthesized with the content to the display control unit 415 .

また、画像処理部413は、イマドキ盛り撮影時に撮影制御部411から供給されたアップ画像に対して、利用者により選択されたスタンプ画像を合成することによって合成画像を生成する。画像処理部413は、スタンプ画像を合成することによって生成した合成画像を撮影画像記憶部416に出力し、イマドキ盛り撮影の撮影画像として記憶させる。画像処理部413により生成された合成画像は、適宜、イマドキ盛り撮影の撮影結果を表示するために表示制御部415に出力される。 Further, the image processing unit 413 generates a synthesized image by synthesizing the stamp image selected by the user with the close-up image supplied from the shooting control unit 411 at the time of shooting in the prime of life. The image processing unit 413 outputs the synthesized image generated by synthesizing the stamp images to the photographed image storage unit 416, and stores it as the photographed image of the modern prime photographing. The composite image generated by the image processing unit 413 is appropriately output to the display control unit 415 to display the imaging result of the modern prime imaging.

選択受付部414は、タッチパネルモニタ92に表示されるスタンプ画像選択画面に対する利用者の操作を受け付ける。選択受付部414は、利用者が選択しているスタンプ画像の種類を表す情報を画像処理部413に出力する。 The selection acceptance unit 414 accepts a user's operation on the stamp image selection screen displayed on the touch panel monitor 92 . The selection accepting unit 414 outputs information indicating the type of stamp image selected by the user to the image processing unit 413 .

表示制御部415は、タッチパネルモニタ92の表示を制御する。例えば、表示制御部415は、撮影に関するガイダンスの画面をタッチパネルモニタ92に表示させる。 The display control unit 415 controls display on the touch panel monitor 92 . For example, the display control unit 415 causes the touch panel monitor 92 to display a guidance screen regarding shooting.

また、表示制御部415は、トリミング部412から供給された動画像に基づいてアップ画像とコーディネート画像の撮影前のライブビュー画像をタッチパネルモニタ92に表示させる。表示制御部415は、画像処理部413から供給された動画像に基づいて、イマドキ盛り撮影前のライブビュー画像をタッチパネルモニタ92に表示させる。 The display control unit 415 also causes the touch panel monitor 92 to display the close-up image and the coordinated image of the live view image before shooting based on the moving image supplied from the trimming unit 412 . Based on the moving image supplied from the image processing unit 413 , the display control unit 415 causes the touch panel monitor 92 to display the live view image before the modern prime shooting.

表示制御部415は、撮影が行われた場合、適宜、撮影結果をタッチパネルモニタ92に表示させる。 When an image is captured, the display control unit 415 causes the touch panel monitor 92 to appropriately display the image capturing result.

撮影画像記憶部416は、トリミング部412から供給されたアップ画像、コーディネート画像と、画像処理部413から供給された合成画像を記憶する。撮影画像記憶部416に記憶された撮影画像は、撮影処理の終了後、編集処理部403により読み出される。 The captured image storage unit 416 stores the close-up image and coordinated image supplied from the trimming unit 412 and the composite image supplied from the image processing unit 413 . The photographed image stored in the photographed image storage unit 416 is read by the editing processing unit 403 after the photographing process is completed.

<写真シール作成装置の動作>
ここで、図17のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, the operation of the photo sticker creating apparatus 1 that provides the photo sticker creating game will be described with reference to the flowchart of FIG.

ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。硬貨が投入されたとステップS1において判定された場合、処理はステップS2に進む。 In step S1, the pre-selection processing unit 401 determines whether or not a predetermined amount of coins has been inserted based on the activation signal supplied from the coin processing unit 321, and waits until it is determined that coins have been inserted. do. If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2.

ステップS2において、事前選択処理部401は、事前選択部302を制御することで、事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影画像に合成する背景画像の選択などが行われる。いずれの選択も、タッチパネルモニタ71に表示される画面を用いて行われる。 In step S<b>2 , the pre-selection processing unit 401 performs pre-selection processing by controlling the pre-selection unit 302 . By the pre-selection process, for example, selection of the number of users, selection of a background image to be combined with the captured image, and the like are performed. Any selection is made using the screen displayed on the touch panel monitor 71 .

ステップS3において、撮影処理部402は、撮影部304を制御することで、撮影処理を行う。例えば、撮影処理部402は、カメラ91により取り込まれた動画像に基づいてライブビュー画面をタッチパネルモニタ92に表示させ、撮影空間A1にいる利用者を被写体として撮影を行う。撮影処理の詳細については図18のフローチャートを参照して後述する。 In step S<b>3 , the imaging processing unit 402 performs imaging processing by controlling the imaging unit 304 . For example, the photographing processing unit 402 displays a live view screen on the touch panel monitor 92 based on the moving image captured by the camera 91, and photographs the user in the photographing space A1 as a subject. Details of the shooting process will be described later with reference to the flowchart of FIG. 18 .

ステップS4において、編集処理部403は、編集空間A2-1と編集空間A2-2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで、編集処理を行う。 In step S4, the editing processing unit 403 controls the editing unit 305 corresponding to the editing space to which the user who has completed the photographing process is moved, out of the editing space A2-1 and the editing space A2-2. to perform the editing process.

例えば、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせる。編集画面には、編集対象の撮影画像とともに、撮影画像に合成する合成用画像を選択するときに操作されるボタンなどが表示される。編集処理部403は、利用者の操作に応じて合成用画像を合成することによって撮影画像の編集を行い、編集画像を生成する。 For example, the editing processing unit 403 causes the tablet built-in monitor 131 to display an editing screen, and allows the user to edit the photographed image obtained by the photographing process. On the editing screen, a photographed image to be edited and buttons to be operated when selecting a composite image to be composited with the photographed image are displayed. The editing processing unit 403 edits the captured image by synthesizing images for synthesis according to the user's operation, and generates an edited image.

例えば、アップ画像、コーディネート画像だけでなく、イマドキ盛り撮影によって得られた合成画像に対しても、編集を行うことが可能とされる。 For example, it is possible to edit not only a close-up image and a coordinated image, but also a composite image obtained by modern-day photography.

撮影画像の編集後、編集処理部403は、分割数の選択に用いられる画面、画像取得サイト管理サーバに送信する画像の選択に用いられる画面などの各種の画面をタブレット内蔵モニタ131に表示する。編集処理部403は、各画面に対する利用者の操作に応じて各種の処理を行う。 After editing the captured image, the edit processing unit 403 displays various screens on the tablet built-in monitor 131, such as a screen used for selecting the number of divisions and a screen used for selecting an image to be transmitted to the image acquisition site management server. The edit processing unit 403 performs various processes according to the user's operation on each screen.

ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力してシール紙363に印刷させる。 In step S<b>5 , the print processing unit 404 performs print processing by controlling the printer 351 . The print processing unit 404 outputs the print data generated by the editing processing unit 403 to the printer 351 to print it on the sticker paper 363 .

印刷が終了した場合、ステップS6において、プリンタ351は、カッター362で切り離したシール紙363をシール紙排出口161に排出する。 When printing is completed, the printer 351 ejects the sticker paper 363 cut by the cutter 362 to the sticker paper outlet 161 in step S6.

写真シール作成装置1の利用者の各グループに対しては、以上のような一連の処理からなる写真作成ゲームが提供される。あるグループの利用者に続けて他のグループの利用者が写真シール作成装置1の利用を開始した場合、写真シール作成装置1の利用を先に始めた利用者の写真シール作成ゲームと、後から始めた利用者の写真シール作成ゲームとが適宜並行して行われることになる。適宜、写真シール作成ゲームを単にゲームともいう。 Each group of users of the photo sticker creating apparatus 1 is provided with a photo creating game consisting of a series of processes as described above. When a user of another group starts using the photo sticker creating device 1 following a user of a certain group, the photo sticker creating game of the user who started using the photo sticker creating device 1 first, and the user who started using the photo sticker creating device 1 later. The user's photo sticker creation game that has been started will be played in parallel as appropriate. As appropriate, the photo sticker creation game is also simply called a game.

<撮影処理>
次に、図18のフローチャートを参照して、図17のステップS3において行われる撮影処理について説明する。
<Shooting process>
Next, the photographing process performed in step S3 of FIG. 17 will be described with reference to the flowchart of FIG.

ステップS11において、撮影処理部402の表示制御部415(図12)は、タッチパネルモニタ92に誘導画面を表示させ、利用者毎の立ち位置を誘導する。立ち位置の誘導は、床材のマークを指定することによって行われる。 In step S11, the display control unit 415 (FIG. 12) of the imaging processing unit 402 displays a guidance screen on the touch panel monitor 92 to guide the standing position of each user. Guidance of the standing position is performed by designating marks on the floor material.

立ち位置の誘導が行われた後、ステップS12において、表示制御部415は、ライブビュー画面の表示を開始する。すなわち、撮影制御部411によりカメラ91が制御され、動画像の取り込みが開始される。カメラ91により取り込まれた動画像は、トリミング部412に供給され、トリミングが行われる。トリミングにより切り出された画像からなる動画像は表示制御部415に出力され、ライブビュー画面の表示に用いられる。 After guidance of the standing position is performed, the display control unit 415 starts displaying the live view screen in step S12. That is, the camera 91 is controlled by the imaging control unit 411, and capturing of the moving image is started. A moving image captured by the camera 91 is supplied to the trimming unit 412 and trimmed. A moving image composed of an image cut out by trimming is output to the display control unit 415 and used for displaying the live view screen.

図19は、ライブビュー画面の表示例を示す図である。 FIG. 19 is a diagram showing a display example of the live view screen.

ライブビュー画面の略中央には表示領域451が設けられる。表示領域451には、トリミング部412から供給された動画像がライブビュー画像として表示される。 A display area 451 is provided substantially in the center of the live view screen. The moving image supplied from the trimming unit 412 is displayed as a live view image in the display area 451 .

図19の例においては、2人の利用者の顔と上半身が大きく写るライブビュー画像が表示されている。アップ画像の撮影前、このようなライブビュー画像が表示される。利用者は、ライブビュー画像を見て、ポーズを確認することができる。 In the example of FIG. 19, a live view image is displayed in which the faces and upper bodies of two users are enlarged. Such a live view image is displayed before shooting a close-up image. The user can check the pose by looking at the live view image.

ライブビュー画面には、撮影までのカウントダウンを表す数字が所定のタイミングで表示される。 On the live view screen, numbers representing the countdown to shooting are displayed at a predetermined timing.

撮影のタイミングになったとき、ステップS13において、撮影制御部411は、アップ画像の撮影を行う。トリミング部412は、撮影によって得られた静止画像から、図13を参照して説明したような範囲の画像を切り出し、アップ画像を生成する。 When the timing for photographing comes, the photographing control unit 411 photographs a close-up image in step S13. The trimming unit 412 cuts out an image in the range described with reference to FIG. 13 from the still image obtained by shooting, and generates a close-up image.

トリミング部412により生成されたアップ画像は、撮影画像記憶部416に記憶されるとともに、表示制御部415に供給され、撮影結果としてタッチパネルモニタ92に表示される。アップ画像に対して、背景画像の合成などが画像処理部413により行われるようにしてもよい。 The close-up image generated by the trimming unit 412 is stored in the captured image storage unit 416, is supplied to the display control unit 415, and is displayed on the touch panel monitor 92 as the captured result. The image processing unit 413 may synthesize a background image with the close-up image.

ステップS14において、撮影制御部411は、アップ画像の撮影を4回行ったか否かを判定する。アップ画像の撮影が4回終わったと判定されるまで、ステップS13に戻り、ライブビュー画面の表示とアップ画像の撮影が繰り返される。 In step S14, the shooting control unit 411 determines whether or not the close-up image shooting has been performed four times. Until it is determined that four close-up images have been captured, the process returns to step S13, and display of the live view screen and close-up image capturing are repeated.

アップ画像の撮影が4回終わったとステップS14において判定された場合、処理はステップS15に進む。 If it is determined in step S14 that four close-up images have been captured, the process proceeds to step S15.

ステップS15において、イマドキ盛り撮影処理が行われる。イマドキ盛り撮影処理により、上述したような合成画像が撮影画像として生成される。イマドキ盛り撮影処理の詳細については図20のフローチャートを参照して後述する。 In step S15, modern prime photographing processing is performed. A synthesized image as described above is generated as a photographed image by the modern prime photographing process. The details of the modern prime photographing process will be described later with reference to the flowchart of FIG. 20 .

ステップS16において、表示制御部415は、タッチパネルモニタ92に誘導画面を表示させ、コーディネート画像用の立ち位置に誘導する。 In step S16, the display control unit 415 displays a guidance screen on the touch panel monitor 92 to guide the user to the standing position for the coordinated image.

立ち位置の誘導が行われた後、ステップS17において、表示制御部415は、ライブビュー画面の表示を開始する。ライブビュー画面の構成は、図19を参照して説明した構成と同じである。表示領域451には、利用者の頭の上から膝下付近までが写るライブビュー画像が表示される。 After guidance of the standing position is performed, the display control unit 415 starts displaying the live view screen in step S17. The configuration of the live view screen is the same as the configuration described with reference to FIG. A display area 451 displays a live view image showing the area from the top of the user's head to the area below the knee.

撮影のタイミングになったとき、ステップS18において、撮影制御部411は、コーディネート画像の撮影を行う。トリミング部412は、撮影によって得られた画像から、図13を参照して説明したような範囲の画像を切り出し、コーディネート画像を生成する。 When the timing for photographing comes, the photographing control unit 411 photographs a coordinated image in step S18. The trimming unit 412 cuts out an image within the range described with reference to FIG. 13 from the captured image to generate a coordinated image.

トリミング部412により生成されたコーディネート画像は、撮影画像記憶部416に記憶されるとともに、表示制御部415に供給され、撮影結果としてタッチパネルモニタ92に表示される。コーディネート画像に対して、背景画像の合成などが画像処理部413により行われるようにしてもよい。 The coordinated image generated by the trimming unit 412 is stored in the photographed image storage unit 416, is supplied to the display control unit 415, and is displayed on the touch panel monitor 92 as the photographed result. The image processing unit 413 may combine the coordinate image with a background image or the like.

ステップS19において、表示制御部415は、案内画面をタッチパネルモニタ92に表示させることによって、撮影を終えた利用者に対して編集空間への移動を案内する。その後、図17のステップS3に戻り、それ以降の処理が行われる。 In step S<b>19 , the display control unit 415 displays a guide screen on the touch panel monitor 92 to guide the user who has finished shooting to move to the editing space. After that, the process returns to step S3 in FIG. 17 and the subsequent processes are performed.

<イマドキ盛り撮影処理>
図20のフローチャートを参照して、図18のステップS15において行われるイマドキ盛り撮影処理について説明する。
<Modern prime shooting processing>
With reference to the flow chart of FIG. 20, the modern prime photographing process performed in step S15 of FIG. 18 will be described.

図20に示す処理は、アップ画像の撮影の後に行われる。アップ画像の撮影時、タッチパネルモニタ92には、図13を参照して説明した枠F1の範囲の動画像がライブビュー画像として表示される。撮影制御部411からは動画像が供給され続ける。 The processing shown in FIG. 20 is performed after shooting the close-up image. When capturing a close-up image, the touch panel monitor 92 displays a moving image within the range of the frame F1 described with reference to FIG. 13 as a live view image. Moving images continue to be supplied from the imaging control unit 411 .

ステップS31において、トリミング部412は、トリミングにより切り出す範囲を変更することによって、ライブビュー画像の画角を変更する。画角を変更したライブビュー画像は、イマドキ盛り撮影前の表示に用いられる画像である。 In step S31, the trimming unit 412 changes the angle of view of the live view image by changing the cutout range by trimming. The live view image with the changed angle of view is an image used for display before the modern day shooting.

図21は、画角の変更の例を示す図である。 FIG. 21 is a diagram showing an example of changing the angle of view.

図21に示すように、例えば、破線の枠F11で示す範囲がトリミングの切り出し範囲として設定され、切り出される。枠F11で示す範囲は、アップ画像の画角より広い画角の範囲である。イマドキ盛り撮影前のライブビュー画像の表示には、アップ画像の画角より広い画角の動画像が用いられることになる。枠F11で示す範囲は、イマドキ盛り撮影前のライブビュー画像用の画角の範囲として固定的に予め設定されている。 As shown in FIG. 21, for example, a range indicated by a dashed frame F11 is set as a trimming cutout range and cut out. The range indicated by the frame F11 is a range with an angle of view wider than the angle of view of the close-up image. A moving image with a wider angle of view than that of the close-up image is used for displaying the live view image before the modern prime shooting. The range indicated by the frame F11 is fixed and set in advance as the range of the angle of view for the live view image before the modern prime shooting.

上述したように、イマドキ盛り撮影前、タッチパネルモニタ92には、コンテンツが合成されたライブビュー画像とともに、スタンプ画像の選択に用いられるボタンなどが表示される。利用者は、ライブビュー画像の表示を見ながらボタンを操作し、好みのスタンプ画像を選択する。 As described above, the touch panel monitor 92 displays a live view image synthesized with content, and buttons used to select a stamp image before the modern prime shooting. The user operates the buttons while watching the display of the live view image to select a desired stamp image.

ここで、タッチパネルモニタ92に表示されたボタンを操作するためには、利用者はタッチパネルモニタ92に近づく必要がある。利用者がタッチパネルモニタ92に近づいた場合、カメラ91に近づくことになるから、仮に、ライブビュー画像の画角がアップ画像の画角と同じ画角であるとすると、図22に示すように、操作を行っている利用者の顔が画角に収まらなくなることがある。 Here, in order to operate the buttons displayed on the touch panel monitor 92 , the user needs to approach the touch panel monitor 92 . When the user approaches the touch panel monitor 92, the user approaches the camera 91. Therefore, assuming that the angle of view of the live view image is the same as the angle of view of the close-up image, as shown in FIG. The face of the user performing the operation may not fit in the angle of view.

図22は、画角の変更を行わない場合のライブビュー画像の画角を示す図である。実際には、利用者が選択しているスタンプ画像を表すコンテンツが合成されたライブビュー画像が表示される。 FIG. 22 is a diagram showing the angle of view of the live view image when the angle of view is not changed. Actually, a live view image is displayed in which the content representing the stamp image selected by the user is synthesized.

図22の例においては、スタンプ画像を選択するための操作を行っている左側の利用者の顔が収まっていない。この場合、顔認識が失敗するなどしてコンテンツの合成が正しく行われず、ライブビュー画像を見ながらスタンプ画像を選択するといったことができなくなる。 In the example of FIG. 22, the face of the left user who is performing the operation for selecting the stamp image does not fit. In this case, face recognition fails, content composition is not performed correctly, and it becomes impossible to select a stamp image while viewing a live view image.

スタンプ画像の選択を受け付けている間、画角を広げることにより、図23に示すように、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。右側の利用者が左側の利用者と同じようにタッチパネルモニタ92に近づいた場合、右側の利用者の顔も、左側の利用者の顔とともにライブビュー画像の画角に収まる。 By widening the angle of view while the stamp image selection is being accepted, it is possible to display a live view image in which the face of the user performing the operation is within the angle of view, as shown in FIG. Become. When the user on the right side approaches the touch panel monitor 92 in the same way as the user on the left side, the face of the user on the right side also fits within the angle of view of the live view image together with the face of the user on the left side.

図20の説明に戻り、ステップS32において、トリミング部412は、撮影制御部411から供給された動画像の各フレームに対してトリミングを施し、画角を広げた動画像を生成する。トリミング部412により生成された動画像は画像処理部413に供給される。 Returning to the description of FIG. 20, in step S32, the trimming unit 412 trims each frame of the moving image supplied from the imaging control unit 411 to generate a moving image with a wider angle of view. The moving image generated by the trimming unit 412 is supplied to the image processing unit 413 .

ステップS33において、画像処理部413は、デフォルトのスタンプ画像を表すコンテンツを、トリミング部412から供給された動画像に合成する。画像処理部413は、例えば動画像に映る利用者の顔を認識し、コンテンツを構成する鼻の画像を利用者の鼻の位置に合成するとともに、コンテンツを構成する耳の画像を利用者の頭の位置に合成する。 In step S<b>33 , the image processing unit 413 synthesizes the content representing the default stamp image with the moving image supplied from the trimming unit 412 . The image processing unit 413 recognizes, for example, the user's face in the moving image, synthesizes the image of the nose that constitutes the content with the position of the user's nose, and aligns the image of the ear that constitutes the content with the user's head. position.

デフォルトのスタンプ画像を表すコンテンツが合成された動画像が表示されることにより、イマドキ盛り撮影を行ったことのない利用者であっても、イマドキ盛り撮影がどのような撮影であるのかを容易に理解することができる。 By displaying a moving image synthesized with the content representing the default stamp image, even users who have never taken a picture in prime time can easily understand what kind of picture is taken in prime time. I can understand.

ステップS34において、表示制御部415は、デフォルトのスタンプ画像を表すコンテンツを合成したライブビュー画像を含むスタンプ画像選択画面をタッチパネルモニタ92に表示させる。 In step S34, the display control unit 415 causes the touch panel monitor 92 to display a stamp image selection screen including a live view image synthesized with content representing a default stamp image.

図24は、スタンプ画像選択画面の表示例を示す図である。 FIG. 24 is a diagram showing a display example of the stamp image selection screen.

図24に示すように、スタンプ画像選択画面の表示領域451には、コンテンツが合成されたライブビュー画像が表示される。ライブビュー画像の表示に用いられている動画像は、アップ画像の画角より広い画角の動画像である。タッチパネルモニタ92(カメラ91)に近づいていることにより、利用者の顔が大きく表示されている。 As shown in FIG. 24, a live view image combined with content is displayed in a display area 451 of the stamp image selection screen. The moving image used to display the live view image is a moving image with a wider angle of view than the close-up image. The user's face is displayed large because the user is approaching the touch panel monitor 92 (camera 91).

図24の例においては、左側の利用者の鼻の位置には鼻画像501-1Lが合成され、頭の位置には耳画像501-2L,501-3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像501-1Rが合成され、頭の位置には耳画像501-2R,501-3Rが合成されている。 In the example of FIG. 24, a nose image 501-1L is synthesized at the position of the user's nose on the left side, and ear images 501-2L and 501-3L are synthesized at the position of the head of the user. A nose image 501-1R is synthesized at the position of the user's nose on the right side, and ear images 501-2R and 501-3R are synthesized at the position of the head of the user.

鼻画像501-1Lと耳画像501-2L,501-3L、鼻画像501-1Rと耳画像501-2R,501-3Rは、デフォルトのスタンプ画像を表すコンテンツである。図24の例においては、猫の鼻と耳のスタンプ画像がデフォルトのスタンプ画像とされている。 A nose image 501-1L, ear images 501-2L and 501-3L, a nose image 501-1R and ear images 501-2R and 501-3R are contents representing default stamp images. In the example of FIG. 24, the default stamp image is a stamp image of a cat's nose and ears.

このように、スタンプ画像選択画面においては、利用者の選択の内容がライブビュー画像の表示にリアルタイムで反映される。 In this way, on the stamp image selection screen, the contents of the user's selection are reflected in the display of the live view image in real time.

表示領域451の下には、スタンプ画像を選択するときに操作されるボタン461-1乃至461-7が横に並べて表示されている。ボタン461-1の左側、ボタン461-7の右側にも、さらに多くのボタンが設けられる。円形のそれぞれのボタンには、それぞれのボタンを押したときに選択されるスタンプ画像を表すサンプルが表示されている。 Below the display area 451, buttons 461-1 to 461-7 operated when selecting a stamp image are displayed side by side. More buttons are provided to the left of button 461-1 and to the right of button 461-7. Each circular button displays a sample stamp image that is selected when the button is pressed.

図24の例においては、中央のボタン461-4が選択されており、他のボタンより大きく表示されている。ボタン461-4が、デフォルトのスタンプ画像を選択するときに操作されるボタンとなる。 In the example of FIG. 24, the central button 461-4 is selected and displayed larger than the other buttons. A button 461-4 is the button operated when selecting the default stamp image.

利用者は、他のボタンを操作することによりライブビュー画像に合成されるコンテンツを切り替え、そのようにコンテンツが合成されたライブビュー画像を見て、好みのスタンプ画像を選択することができる。選択したスタンプ画像の色を利用者が変更することができるようにしてもよい。この場合、色の変更に用いられるボタンなどもスタンプ画像選択画面には用意される。 By operating other buttons, the user can switch the content synthesized with the live view image, view the live view image synthesized with such content, and select a desired stamp image. The user may be allowed to change the color of the selected stamp image. In this case, buttons used for changing the color are also prepared on the stamp image selection screen.

表示領域451の右隣には、スタンプ画像の選択を終えるときに操作されるOKボタン462が表示される。 On the right side of the display area 451, an OK button 462 is displayed which is operated when finishing the selection of the stamp image.

図20の説明に戻り、ステップS35において、選択受付部414は、スタンプ画像が切り替えられたか否かを判定する。 Returning to the description of FIG. 20, in step S35, the selection reception unit 414 determines whether or not the stamp image has been switched.

スタンプ画像が切り替えられたとステップS35において判定された場合、ステップS36において、画像処理部413は、利用者により選択されたスタンプ画像を表すコンテンツを動画像に合成する。 If it is determined in step S35 that the stamp image has been switched, then in step S36 the image processing unit 413 combines the content representing the stamp image selected by the user with the moving image.

その後、ステップS34に戻り、利用者により新たに選択されたスタンプ画像を表すコンテンツが合成されたライブビュー画像がスタンプ画像選択画面に表示される。 Thereafter, the process returns to step S34, and a live view image synthesized with the content representing the stamp image newly selected by the user is displayed on the stamp image selection screen.

図25は、スタンプ画像選択画面の他の表示例を示す図である。 FIG. 25 is a diagram showing another display example of the stamp image selection screen.

例えばボタン461-3が操作された場合、図25に示すように、デフォルトのスタンプ画像を表すコンテンツに代えて、異なるコンテンツが合成されたライブビュー画像が表示される。 For example, when the button 461-3 is operated, as shown in FIG. 25, instead of the content representing the default stamp image, a live view image synthesized with different content is displayed.

鼻画像502-1Lと耳画像502-2L,502-3L、鼻画像502-1Rと耳画像502-2R,502-3Rは、ボタン461-3を操作したときに選択されるスタンプ画像を表すコンテンツである。図25の例においては、犬の鼻と耳のスタンプ画像がボタン461-3を操作したときに選択されるスタンプ画像とされている。 Nose image 502-1L, ear images 502-2L and 502-3L, nose image 502-1R and ear images 502-2R and 502-3R are contents representing stamp images selected when button 461-3 is operated. is. In the example of FIG. 25, the stamp image of the dog's nose and ears is the stamp image selected when the button 461-3 is operated.

一方、スタンプ画像が切り替えられていないと図20のステップS35において判定された場合、ステップS37において、撮影制御部411は、スタンプ画像が決定されたか否かを判定する。 On the other hand, if it is determined in step S35 of FIG. 20 that the stamp image has not been switched, the imaging control unit 411 determines in step S37 whether or not the stamp image has been determined.

スタンプ画像が決定されていないとステップS37において判定された場合、ステップS34に戻り、スタンプ画像選択画面の表示が続けられる。例えば、OKボタン462が操作された場合、または制限時間が経過した場合、その時合成されているスタンプ画像が決定されたものとして判定される。 If it is determined in step S37 that the stamp image has not been determined, the process returns to step S34 to continue displaying the stamp image selection screen. For example, when the OK button 462 is operated, or when the time limit elapses, it is determined that the stamp image synthesized at that time has been determined.

スタンプ画像が決定されたとステップS37において判定された場合、ステップS38において、トリミング部412は、トリミングにより切り出す範囲を変更することによって、ライブビュー画像の画角をアップ画像の画角と同じ画角に戻す。 If it is determined in step S37 that the stamp image has been determined, in step S38 the trimming unit 412 adjusts the angle of view of the live view image to the same angle of view as that of the close-up image by changing the trimming range. return.

タッチパネルモニタ92には、アップ画像の画角と同じ画角のライブビュー画像が表示される。ライブビュー画像には、利用者により選択されたスタンプ画像を表すコンテンツが合成される。 The touch panel monitor 92 displays a live view image with the same angle of view as the close-up image. Content representing the stamp image selected by the user is combined with the live view image.

ステップS39において、撮影制御部411は静止画像の撮影を行う。撮影された静止画像はトリミング部412に供給され、トリミングが施されることにより、アップ画像と同じ画角の、枠F1で示す範囲が切り出される。トリミング部412により切り出された画像(アップ画像)は画像処理部413に供給される。 In step S39, the shooting control unit 411 shoots a still image. The photographed still image is supplied to the trimming unit 412, and trimmed to cut out a range indicated by a frame F1 having the same angle of view as the close-up image. The image (close-up image) cut out by the trimming unit 412 is supplied to the image processing unit 413 .

ステップS40において、画像処理部413は、利用者により選択されたスタンプ画像をトリミング部412から供給されたアップ画像に合成し、イマドキ盛り撮影の合成画像を生成する。 In step S40, the image processing unit 413 synthesizes the stamp image selected by the user with the close-up image supplied from the trimming unit 412, and generates a synthesized image of modern prime photography.

ステップS41において、画像処理部413は、合成画像を撮影画像記憶部416に出力し、撮影画像として保存させる。合成画像が保存された後、図18のステップS15に戻り、それ以降の処理が行われる。 In step S41, the image processing unit 413 outputs the synthesized image to the captured image storage unit 416 and stores it as a captured image. After the composite image is saved, the process returns to step S15 in FIG. 18 and the subsequent processes are performed.

図26は、ライブビュー画像の画角の変化の例を示す図である。 FIG. 26 is a diagram showing an example of changes in the angle of view of the live view image.

図26の横軸は時刻を表す。図26には、アップ画像の撮影前のライブビュー画像の表示開始から、イマドキ盛り撮影までの時間が示されている。イマドキ盛り撮影の後、上述したようにコーディネート画像の撮影前のライブビュー画像の表示などが行われる。 The horizontal axis in FIG. 26 represents time. FIG. 26 shows the time from the start of display of the live view image before shooting of the close-up image to the shooting of the prime of life. After the modern-day photographing, the display of the live view image before photographing of the coordinated image, etc. are performed as described above.

時刻t1においてライブビュー画像の表示が開始される。アップ画像の撮影前のライブビュー画像であるから、ここで表示されるライブビュー画像の画角は、アップ画像の画角と同じ画角(図21の枠F1の画角)である。 Display of the live view image is started at time t1. Since this is the live view image before the close-up image is captured, the angle of view of the live view image displayed here is the same as the angle of view of the close-up image (the angle of view of the frame F1 in FIG. 21).

ライブビュー画像の表示が開始されてから所定の時間経過後の時刻t2乃至t5のそれぞれのタイミングにおいて、アップ画像の撮影が行われる。 A close-up image is captured at each of times t2 to t5 after a predetermined time has elapsed since the display of the live view image started.

アップ画像の撮影が終わり、時刻t6において、スタンプ画像選択画面の表示が開始される。スタンプ画像選択画面に表示されるライブビュー画像の画角は、アップ画像の画角より広い画角(図21の枠F11の画角)である。 After the close-up image is captured, the stamp image selection screen starts to be displayed at time t6. The angle of view of the live view image displayed on the stamp image selection screen is wider than the angle of view of the close-up image (the angle of view of the frame F11 in FIG. 21).

スタンプ画像が決定された後の時刻t7において、ライブビュー画像の画角は、アップ画像の画角と同じ画角に戻される。画角が戻されてから所定時間経過後の時刻t8において、イマドキ盛り撮影が行われる。 At time t7 after the stamp image is determined, the angle of view of the live view image is returned to the same angle of view as that of the close-up image. At time t8 after a predetermined period of time has passed since the angle of view was returned, modern prime photography is performed.

以上のように、少なくとも、タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角を広げることにより、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。 As described above, at least while the selection using the display of the touch panel monitor 92 is being accepted, by widening the angle of view of the live view image, the face of the user who is performing the operation is within the angle of view. A view image can be displayed.

顔が画角に収まっていることにより、利用者は、自分の顔に合成されるコンテンツを見ながら、スタンプ画像を選択することができる。 Since the face is within the angle of view, the user can select a stamp image while looking at the content synthesized with his or her face.

時刻t2乃至t5の期間のライブビュー画像の画角がアップ画像の画角と同一画角であり、時刻t7以降において、ライブビュー画像の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。撮影時、利用者は後ろに下がりがちとなるため、イマドキ盛り撮影の画角をアップ画像の画角より狭くすることにより、利用者同士がより近づいた画像を撮影することが可能となる。 The angle of view of the live-view image during the period from time t2 to t5 is the same as the angle of view of the close-up image, and after time t7, the angle of view of the live-view image is set to be narrower than the angle of view of the close-up image. may be made. Since the user tends to lean backward when photographing, by narrowing the angle of view of the modern-day photographing than the angle of view of the close-up image, it is possible to photograph an image in which the users are closer to each other.

反対に、時刻t7以降におけるライブビュー画像の画角をアップ画像の画角と同一画角とし、時刻t2乃至t5の期間のライブビュー画像の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。 Conversely, the angle of view of the live-view image after time t7 is the same as the angle of view of the close-up image, and the angle of view of the live-view image during the period from time t2 to t5 is narrower than the angle of view of the close-up image. may be set.

時刻t2乃至t5の期間のライブビュー画像の画角と、時刻t7以降のライブビュー画像の画角の双方の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。これにより、利用者同士がより近づいた画像を撮影することが可能となる。 Both the angle of view of the live view image during the period from time t2 to t5 and the angle of view of the live view image after time t7 may be set to a narrower angle of view than the angle of view of the close-up image. . This makes it possible to take an image in which the users are closer to each other.

時刻t2乃至t5の期間のライブビュー画像用の撮影として、アップ画像より画角が広いバストアップ画像の撮影が行われ、時刻t7以降の期間のライブビュー画像用の撮影として、アップ画像の画角と同一画角の撮影が行われるようにしてもよい。 A bust-up image having a wider angle of view than the close-up image is captured as live-view image capturing during the period from time t2 to t5, and the close-up image is captured as live-view image capturing during the period after time t7. It is also possible to shoot with the same angle of view.

反対に、時刻t7以降の期間のライブビュー画像用の撮影として、バストアップ画像の撮影が行われ、時刻t2乃至t5の期間のライブビュー画像用の撮影として、アップ画像と同一画角の撮影が行われるようにしてもよい。 Conversely, a bust-up image is captured as live-view image capturing in the period after time t7, and the same angle of view as the close-up image is captured as live-view image capturing in the period from time t2 to t5. may be performed.

<画角調整の例>
ライブビュー画像の画角を予め設定された固定の画角にまで広げるものとしたが、トリミングにより切り出す範囲の位置を調整するなどして、画角を調整するようにしてもよい。
<Example of angle of view adjustment>
Although the angle of view of the live view image is expanded to a preset fixed angle of view, the angle of view may be adjusted by adjusting the position of the cut-out range by trimming.

図27は、利用者が1人である場合の画角調整の例を示す図である。 FIG. 27 is a diagram showing an example of angle-of-view adjustment when there is only one user.

図27の枠F21に示す範囲はライブビュー画像の画角の範囲である。図27の左側に示すように、利用者の顔がライブビュー画像の画角に収まっていない場合、白抜き矢印の先に示すように、利用者の顔が収まるように、ライブビュー画像の画角が調整される。 The range indicated by a frame F21 in FIG. 27 is the range of the angle of view of the live view image. As shown on the left side of FIG. 27, when the user's face does not fit within the angle of view of the live view image, the image of the live view image is adjusted so that the user's face fits within the angle of view indicated by the white arrow. angle is adjusted.

この場合、トリミング部412は、撮影制御部411から供給された動画像の各フレームを解析することによって利用者の顔を認識し、利用者の顔が画角に収まるようにトリミング範囲の位置を調整することになる。トリミング範囲の位置だけでなく、範囲の大きさも適宜調整される。 In this case, the trimming unit 412 recognizes the user's face by analyzing each frame of the moving image supplied from the shooting control unit 411, and adjusts the position of the trimming range so that the user's face fits within the angle of view. will have to adjust. Not only the position of the trimming range but also the size of the range is adjusted accordingly.

タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角をこのようにして調整することによって、少なくとも、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。 By adjusting the field angle of the live view image in this manner while the selection using the display of the touch panel monitor 92 is being accepted, at least the face of the user who is performing the operation is within the field angle. A view image can be displayed.

図28は、利用者が複数人である場合の画角調整の例を示す図である。 FIG. 28 is a diagram showing an example of angle-of-view adjustment when there are multiple users.

図28に示すように、利用者が複数人である場合、カメラ91に近い利用者の顔が収まるように、ライブビュー画像の画角が調整される。それぞれの利用者の位置は、例えば、カメラ91により撮影された画像にクロマキー処理などを施して得られた、人物の領域を表すマスク画像に基づいて特定される。 As shown in FIG. 28, when there are multiple users, the angle of view of the live view image is adjusted so that the faces of the users near the camera 91 fit. The position of each user is specified, for example, based on a mask image representing a person's area, which is obtained by subjecting an image captured by the camera 91 to chromakey processing or the like.

図28の左側に示すように、カメラ91に近い利用者の顔がライブビュー画像の画角に収まっていない場合、白抜き矢印の先に示すように、カメラ91に近い利用者の顔が収まるように、ライブビュー画像の画角が調整される。 As shown on the left side of FIG. 28, when the face of the user near the camera 91 does not fit within the angle of view of the live view image, the face of the user near the camera 91 fits as indicated by the white arrow. , the angle of view of the live view image is adjusted.

大きく写っている利用者はタッチパネルモニタ92の操作を行っている利用者であると考えられる。タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角をこのようにして調整することによって、操作を行っている利用者は、少なくとも、自分の顔が画角に収まっているライブビュー画像を確認することができる。 It is considered that the user in the large image is the user who is operating the touch panel monitor 92 . By adjusting the angle of view of the live view image in this manner while accepting a selection using the display of the touch panel monitor 92, the user performing the operation can at least fit his or her face within the angle of view. You can check the live view image that is displayed.

利用者が複数人である場合、ライブビュー画像の画角に収める人物が以下のように設定されるようにしてもよい。 When there are multiple users, the persons to be included in the angle of view of the live view image may be set as follows.

・カメラ91から遠い利用者(背面に近い利用者)の顔が収まるように、ライブビュー画像の画角を調整する。
・全員の顔が収まるように、ライブビュー画像の画角を調整する。
- Adjust the angle of view of the live view image so that the face of the user far from the camera 91 (the user near the back) can be accommodated.
・Adjust the angle of view of the live view image so that everyone's face fits.

カメラ91から遠い利用者の顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、背面に近い利用者にコンテンツが合成される様子を見てスタンプ画像を選択することができる。 By adjusting the angle of view so that the face of the user who is far from the camera 91 fits, the user who is operating the touch panel monitor 92 can see how the content is combined with the user who is close to the back and stamp it. Images can be selected.

全員の顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、全員の写りを見てスタンプ画像を選択することができる。 By adjusting the angle of view so that all the faces fit, the user who is operating the touch panel monitor 92 can see the images of all the people and select a stamp image.

図29は、全員の顔を収める場合の画角の調整例を示す図である。 FIG. 29 is a diagram showing an example of adjusting the angle of view when all the faces are included.

図29の枠F31に示す範囲は原画像の画角の範囲である。枠F21に示す範囲は、ライブビュー画像の画角の範囲である。原画像を対象として顔認識が行われ、正方形の枠f1と枠f2で示す範囲に顔が写っていることが検出されている。枠f1と枠f2は、鼻の位置を中点とし、眉から顎先までが入るような正方形である。 The range shown in the frame F31 in FIG. 29 is the range of the angle of view of the original image. The range indicated by the frame F21 is the range of the angle of view of the live view image. Face recognition is performed on the original image, and it is detected that the face appears in the range indicated by square frames f1 and f2. Frames f1 and f2 are squares with the position of the nose as the midpoint and the area from the eyebrows to the tip of the chin.

図29の左端の例においては、カメラ91に近い利用者の顔全体がライブビュー画像の画角に収まっていない。この場合、図29の中央に示すように、2つの正方形の枠f1と枠f2の外周を含めるような四角形の枠f11が設定される。 In the leftmost example of FIG. 29, the entire face of the user near the camera 91 is not within the angle of view of the live view image. In this case, as shown in the center of FIG. 29, a square frame f11 is set to include the peripheries of two square frames f1 and f2.

また、図29の右側に示すように、枠f11が収まるようにライブビュー画像の画角が調整される。これにより、全員の顔が画角に収まっているライブビュー画像を表示させることが可能となる。 Also, as shown on the right side of FIG. 29, the angle of view of the live view image is adjusted so that the frame f11 fits. This makes it possible to display a live view image in which all the faces are within the angle of view.

また、ライブビュー画像の画角に収める範囲が以下のように設定されるようにしてもよい。 Also, the range within the angle of view of the live view image may be set as follows.

・顔が収まるように、ライブビュー画像の画角を調整する。
・バストアップ(略胸から上の範囲)が収まるように、ライブビュー画像の画角を調整する。
・全身が収まるように、ライブビュー画像の画角を調整する。
・Adjust the angle of view of the live view image so that the face fits.
・Adjust the angle of view of the live view image so that the bust-up (approximately the area above the chest) fits.
・Adjust the angle of view of the live view image so that the whole body fits.

顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、自分の顔の写りを見てスタンプ画像を選択することができる。 By adjusting the angle of view so that the face fits, the user operating the touch panel monitor 92 can see the image of his/her own face and select a stamp image.

また、バストアップが収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、自分の顔の写りと全体のバランスを見てスタンプ画像を選択することができる。 In addition, by adjusting the angle of view so that the bust-up fits, the user who is operating the touch panel monitor 92 can select a stamp image by looking at the image of his/her face and the overall balance. .

全身が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、全身の写りを見てスタンプ画像を選択することができる。 By adjusting the angle of view so that the whole body fits, the user operating the touch panel monitor 92 can view the whole body and select a stamp image.

このように、ライブビュー画像の画角に収める対象とする人物と範囲については、適宜、組み合わせて設定することが可能である。 In this way, it is possible to appropriately combine and set the person and the range to be included in the angle of view of the live view image.

例えば、コンテンツ全体が画角に収まるように画角を調整するようにしてもよい。 For example, the angle of view may be adjusted so that the entire content fits within the angle of view.

図30は、コンテンツを収める場合の画角の調整例を示す図である。 FIG. 30 is a diagram illustrating an example of adjusting the angle of view when content is contained.

図30の枠F21に示す範囲は、コンテンツが合成されたライブビュー画像の画角の範囲である。図30の例においては、左側の利用者の鼻の位置には鼻画像431-1Lが合成され、頭の位置には耳画像431-2L,431-3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像431-1Rが合成され、頭の位置には耳画像431-2R,431-3Rが合成されている。 The range indicated by the frame F21 in FIG. 30 is the range of the angle of view of the live view image combined with the content. In the example of FIG. 30, a nose image 431-1L is synthesized at the position of the user's nose on the left side, and ear images 431-2L and 431-3L are synthesized at the position of the head of the user. A nose image 431-1R is synthesized at the position of the user's nose on the right side, and ear images 431-2R and 431-3R are synthesized at the position of the head of the user.

左側の利用者の頭の位置に合成されている耳画像431-2L,431-3Lと、右側の利用者の頭の位置に合成されている耳画像431-2R,431-3Rは、ライブビュー画像の画角に収まっていない。 The ear images 431-2L and 431-3L synthesized at the position of the user's head on the left side and the ear images 431-2R and 431-3R synthesized at the position of the user's head on the right side are live views. It is not within the angle of view of the image.

この場合、白抜き矢印の先に示すように、耳画像431-2L,431-3Lと耳画像431-2R,431-3R全体が収まるように、ライブビュー画像の画角が調整される。 In this case, the angle of view of the live view image is adjusted so that the ear images 431-2L and 431-3L and the ear images 431-2R and 431-3R are entirely contained as indicated by the white arrows.

コンテンツ全体が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、タッチパネルモニタ92に近づいている場合でもコンテンツ全体を見てスタンプ画像を選択することができる。なお、画角の調整は、アスペクト比を保ったまま行われる。 By adjusting the angle of view so that the entire content fits, the user operating the touch panel monitor 92 can view the entire content and select a stamp image even when the user is close to the touch panel monitor 92. . Note that the angle of view is adjusted while maintaining the aspect ratio.

<対象となる撮影画像の画角>
アップ画像と同じ画角の画像の撮影時(イマドキ盛り撮影時)に画角の調整を行うものとしたが、全身画像と同じ画角の画像の撮影時に画角の調整が行われるようにしてもよい。
<Angle of view of target captured image>
The angle of view should be adjusted when shooting an image with the same angle of view as the close-up image (during modern day shooting). good too.

また、コーディネート画像と同じ画角の画像の撮影時に画角の調整が行われるようにしてもよい。 Also, the angle of view may be adjusted when an image having the same angle of view as that of the coordinated image is captured.

<画角の調整方法>
画角の調整方法として、以下のような各種の調整方法を採用することが可能である。
・利用者の位置を検知して画角の大きさを調整する。
・利用者の位置を検知することにより、利用者が左右のいずれかに極端に寄っていることを検出した場合、画角の範囲を左右に移動させる。
・タッチパネルモニタ92にスタンプ画像選択画面を表示している間は、カメラ91に近い利用者が収まるように画角を調整する。
・タッチパネルモニタ92の表示を用いた選択を受け付けている間は、カメラ91に近い利用者が収まるように画角を調整する。
・タッチパネルモニタ92を押下してから所定時間内は、カメラ91に近い利用者が収まるように画角を調整する。
・利用者が動いて画角から外れた場合、利用者の動きに追従するように画角を調整する。
<How to adjust the angle of view>
As a method for adjusting the angle of view, it is possible to adopt various adjustment methods as follows.
・Detects the position of the user and adjusts the size of the angle of view.
- By detecting the position of the user, if it is detected that the user is extremely close to either the left or the right, the range of the angle of view is moved to the left or right.
- While the stamp image selection screen is being displayed on the touch panel monitor 92, the angle of view is adjusted so that the user near the camera 91 can be accommodated.
- Adjust the angle of view so that the user near the camera 91 can be accommodated while the selection using the display of the touch panel monitor 92 is being accepted.
- Within a predetermined time after pressing the touch panel monitor 92, the angle of view is adjusted so that the user closer to the camera 91 is included.
・When the user moves and deviates from the angle of view, the angle of view is adjusted so as to follow the movement of the user.

<画角調整の実現方法>
トリミング範囲の変更により画角の調整が行われるものとしたが、カメラ91のレンズのズームを制御することによって、ライブビュー画像の画角を調整するようにしてもよい。
<How to adjust the angle of view>
Although the angle of view is adjusted by changing the trimming range, the angle of view of the live view image may be adjusted by controlling the zoom of the lens of the camera 91 .

なお、画角の調整をトリミングによって実現することにより、カメラ91のズーム機構を動作させるための処理の負担を軽減することができる。 By adjusting the angle of view by trimming, the processing load for operating the zoom mechanism of the camera 91 can be reduced.

カメラ91のレンズの光軸の方向を制御することによって、ライブビュー画像の画角を調整するようにしてもよい。 The angle of view of the live view image may be adjusted by controlling the direction of the optical axis of the lens of the camera 91 .

原画像上に設定したトリミング枠を動かすことによって画角を調整するのではなく、トリミング枠を固定とし、原画像を動かすことによってライブビュー画像の画角を調整するようにしてもよい。 Instead of adjusting the angle of view by moving a trimming frame set on the original image, the angle of view of the live view image may be adjusted by fixing the trimming frame and moving the original image.

<コンテンツの表示>
・利用者により選択されたスタンプ画像を表すコンテンツを合成して表示させる。
・コンテンツをアニメーションで表示し続ける。
・コンテンツをアニメーションで表示し、所定時間が経過すると、スタンプ画像を用いたコンテンツ(アニメーションではないコンテンツ)に変更してもよい。
・ライブビュー画像に合成されるコンテンツと、静止画像に合成されるコンテンツ(スタンプ画像)は同一ではない。
<Content display>
- Synthesize and display the content representing the stamp image selected by the user.
・Continue to display the content with animation.
- The content may be displayed as an animation, and after a predetermined period of time has elapsed, the content may be changed to content using a stamp image (content that is not animation).
- The content combined with the live view image and the content (stamp image) combined with the still image are not the same.

<スタンプ画像の再選択>
スタンプ画像の再選択が以下のようにして行われるようにしてもよい。
<Re-select stamp image>
Reselection of stamp images may be performed as follows.

・事前選択空間A0においてスタンプ画像の選択が行われる場合、選択されたスタンプ画像を撮影空間A1において変更することができるようにしてもよい。
・撮影空間A1において、OKボタン462(図24)を押下することによってスタンプ画像が決定された場合でも、所定時間内はスタンプ画像を変更することができるようにしてもよい。
・スタンプ画像の選択に割り当てられた所定時間が経過し、かつOKボタン462が押下されていない場合、最後に選択されたスタンプ画像を表すコンテンツが合成されるようにしてもよい。
- When a stamp image is selected in the pre-selection space A0, the selected stamp image may be changed in the photographing space A1.
- Even if a stamp image is determined by pressing the OK button 462 (FIG. 24) in the shooting space A1, the stamp image may be changed within a predetermined time.
If the predetermined time allocated for stamp image selection has passed and the OK button 462 has not been pressed, content representing the last selected stamp image may be synthesized.

<コンテンツの例>
ライブビュー画像の表示に用いられるコンテンツには、以下のように様々なコンテンツがある。
<Content example>
Contents used for displaying live view images include various contents as follows.

(1)固定スタンプ画像を表すコンテンツ
固定スタンプ画像は、画角における位置を固定して表示されるスタンプ画像である。
(2)くっつきスタンプ画像を表すコンテンツ
くっつきスタンプ画像は、利用者の所定の部位の位置に追従して表示されるスタンプ画像である。くっつきスタンプ画像を表すコンテンツが、以下のような変化のあるアニメーションとして表示されるようにしてもよい。
・回転
・上下の移動
・拡縮
・左右の移動
・透過度変更
・色変更
(3)オーラ
(4)ベール
(5)フレーム
オーラ、ベール、フレームは、利用者の体の周りに画像を合成するコンテンツである。
(1) Content Representing Fixed Stamp Image A fixed stamp image is a stamp image that is displayed with a fixed position in the angle of view.
(2) Content representing a sticky stamp image A sticky stamp image is a stamp image displayed following the position of a predetermined part of the user. The content representing the sticky stamp image may be displayed as an animation with the following changes.
・Rotate ・Move up and down ・Scale ・Move left and right ・Transparency change ・Color change (3) Aura (4) Veil (5) Frame is.

<アニメーションの例>
ここで、コンテンツのアニメーションについて説明する。
<Example of animation>
Here, animation of content will be described.

図31は、コンテンツを構成する画像が回転するアニメーションの例を示す図である。 FIG. 31 is a diagram showing an example of an animation in which an image forming content rotates.

図31に示すコンテンツは、図15等を参照して説明したウサギの鼻と耳を表現したスタンプ画像が選択されている場合に合成されるコンテンツである。コンテンツは、ウサギの鼻の画像と耳の画像から構成される。 The content shown in FIG. 31 is content synthesized when the stamp image representing the rabbit's nose and ears described with reference to FIG. 15 and the like is selected. The content consists of an image of a rabbit's nose and an image of its ears.

図31の左側のライブビュー画像上においては耳の画像が右に傾き、右側のライブビュー画像上においては耳の画像が左に傾いている。いずれのライブビュー画像上においても、耳の画像の例えば根元の位置は固定とされている。このように角度が異なる耳の画像が1秒間隔などで交互に表示されることにより、コンテンツが回転するアニメーションが実現される。 The image of the ear is tilted to the right on the live view image on the left side of FIG. 31, and the image of the ear is tilted to the left on the live view image on the right side. For example, the position of the base of the ear image is fixed on any live view image. By alternately displaying the images of the ears with different angles at one-second intervals, an animation in which the content rotates is realized.

このようなライブビュー画像が表示された後、イマドキ盛り撮影によってアップ画像が撮影され、撮影によって得られたアップ画像に対して、傾きのない耳の画像を含むスタンプ画像が合成される。 After such a live view image is displayed, a close-up image is taken by modern prime shooting, and a stamp image including an ear image without inclination is combined with the close-up image obtained by shooting.

図32は、コンテンツを構成する画像の位置が変化するアニメーションの例を示す図である。 FIG. 32 is a diagram showing an example of animation in which the position of an image forming content changes.

図32に示すコンテンツは、図31に示すコンテンツと同じコンテンツである。図32の左側のライブビュー画像上においては耳の画像が頭の上方の位置に配置され、右側のライブビュー画像上においては耳の画像が頭の下方の位置(略額の位置)に配置されている。このように位置が異なる耳の画像が1秒間隔などで交互に表示されることにより、コンテンツが上下に動くアニメーションが実現される。 The content shown in FIG. 32 is the same content as the content shown in FIG. In the live view image on the left side of FIG. 32, the ear image is arranged above the head, and in the live view image on the right side, the ear image is arranged below the head (approximately at the forehead position). ing. By alternately displaying the images of the ears at different positions at one-second intervals, an animation in which the content moves up and down is realized.

このようなライブビュー画像が表示された後、イマドキ盛り撮影によってアップ画像が撮影され、撮影によって得られたアップ画像に対して、耳の画像が図32に示す位置と異なる位置に合成される。 After such a live view image is displayed, a close-up image is taken by the modern prime shooting, and an ear image is synthesized at a position different from the position shown in FIG. 32 with the close-up image obtained by the shooting.

以下、コンテンツを構成する画像の変化についてさらに説明する。 In the following, further description will be given of changes in the images that make up the content.

(1)回転
図33は、回転の例を示す図である。
(1) Rotation FIG. 33 is a diagram showing an example of rotation.

図33の表示1、表示2として示す三角形は、コンテンツを構成する画像を表す。1つの三角形が、例えば上述したウサギの耳を表す1つの画像に相当する。図34乃至図40においても同様である。 Triangles shown as Display 1 and Display 2 in FIG. 33 represent images that constitute content. One triangle corresponds to, for example, one image representing the rabbit's ear described above. The same applies to FIGS. 34 to 40 as well.

表示1、表示2として示すように、所定の位置である位置p1を中心として角度を変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p1を中心として画像が左に傾いており、表示2においては、位置p1を中心として画像が右に傾いている。 As indicated by display 1 and display 2, images whose angles are changed around a position p1, which is a predetermined position, are combined with a moving image as images constituting content. In display 1, the image is tilted to the left about the position p1, and in display 2, the image is tilted to the right about the position p1.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する、画像の下辺の中点が位置p1として設定される。チークを表す画像、動物の鼻を表す画像、サングラスを表す画像などの、顔の周辺に合成する画像の場合、顔の中心である鼻の位置が、回転の中心として設定される。 For example, in the case of an image to be synthesized at the position of the user's head, the midpoint of the lower side of the image, which is in contact with the head, is set as the position p1. In the case of an image to be synthesized around the face, such as an image representing cheeks, an image representing an animal's nose, or an image representing sunglasses, the position of the nose, which is the center of the face, is set as the center of rotation.

図33の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、位置p1を通る垂直軸L上に頂点がくる向きで配置された画像が合成される。 As shown on the left side of FIG. 33, an image arranged with the vertex on the vertical axis L passing through the position p1 is combined with the close-up image obtained by the modern height photographing.

このように、ライブビュー画像の表示を行っている場合、位置p1を中心として角度を変える画像が動画像に合成され、アニメーション表示が実現される。 In this way, when a live view image is being displayed, an image whose angle is changed around the position p1 is combined with a moving image to realize an animation display.

(2)上下の移動
図34は、上下の移動の例を示す図である。
(2) Vertical Movement FIG. 34 is a diagram showing an example of vertical movement.

表示1、表示2として示すように、画像の高さを変える画像が、コンテンツを構成する画像として動画像に合成される。 As indicated by display 1 and display 2, images whose heights are changed are combined with moving images as images constituting content.

例えば利用者の頭部の位置に合成する画像の場合、頭部の所定の位置を通る水平軸L2が設定される。水平軸L2を中心として上下に所定の間隔をあけて水平軸L1,L3が設定され、表示1においては、水平軸L1の高さに下辺がくるように画像が配置され、表示2においては、水平軸L3の高さに下辺がくるように画像が配置される。チークを表す画像、動物の鼻を表す画像、サングラスを表す画像などの、顔の周辺に合成する画像の場合、顔の中心を通るように水平軸L2が設定される。 For example, in the case of an image to be synthesized at the position of the user's head, a horizontal axis L2 passing through a predetermined position of the head is set. Horizontal axes L1 and L3 are set vertically with a predetermined interval around the horizontal axis L2. The image is arranged so that the lower side is at the height of the horizontal axis L3. In the case of an image to be synthesized around the face, such as an image representing cheeks, an image representing an animal's nose, or an image representing sunglasses, the horizontal axis L2 is set so as to pass through the center of the face.

図34の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、下辺が水平軸L2と同じ高さに配置された画像が合成される。 As shown on the left side of FIG. 34, an image whose lower side is arranged at the same height as the horizontal axis L2 is synthesized with the close-up image obtained by the modern height photographing.

このように、ライブビュー画像の表示を行っている場合、所定の等しい幅だけ上下に位置を変える画像が動画像に合成され、アニメーション表示が実現される。このようなアニメーションは、静止画像に合成されるスタンプ画像と見た目の印象の差異が少ない画像を用いたアニメーションといえる。 In this way, when a live view image is being displayed, an image whose position is vertically changed by a predetermined equal width is combined with a moving image to realize an animation display. Such an animation can be said to be an animation using an image that has little difference in visual impression from the stamp image that is synthesized with the still image.

(3)拡縮
図35は、拡縮の例を示す図である。
(3) Scaling FIG. 35 is a diagram showing an example of scaling.

表示1、表示2として示すように、画像の所定の位置である位置p1を基準として大きさを変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p1を基準として画像が縮小し、表示2においては、位置p1を基準として画像が拡大している。 As indicated by display 1 and display 2, an image whose size is changed with reference to a position p1, which is a predetermined position of the image, is synthesized with the moving image as an image constituting content. In the display 1, the image is reduced with the position p1 as a reference, and in the display 2, the image is enlarged with the position p1 as a reference.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する、画像の下辺の中点が位置p1として設定される。 For example, in the case of an image to be synthesized at the position of the user's head, the midpoint of the lower side of the image, which is in contact with the head, is set as the position p1.

図35の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、表示1、表示2に示す大きさとは異なる大きさの画像が位置p1を基準として配置され、合成される。 As shown on the left side of FIG. 35, an image having a size different from the size shown in display 1 and display 2 is arranged and combined with the position p1 as a reference for the close-up image obtained by the modern height photographing. .

このように、ライブビュー画像の表示を行っている場合、位置p1を基準として大きさを変える画像が動画像に合成され、アニメーション表示が実現される。 In this way, when a live view image is being displayed, an image whose size is changed with reference to the position p1 is synthesized with a moving image, thereby realizing an animation display.

図36は、拡縮の他の例を示す図である。 FIG. 36 is a diagram showing another example of scaling.

図36に示す画像の拡縮は、拡縮の基準となる位置が異なる点で図35に示す拡縮と異なる。図36の例においては、画像の中心が拡縮の基準となる中点p2として設定されている。 The scaling of the image shown in FIG. 36 differs from the scaling shown in FIG. 35 in that the reference position for scaling is different. In the example of FIG. 36, the center of the image is set as the midpoint p2 that serves as a reference for scaling.

表示1、表示2として示すように、画像の中心である位置p2を中心として大きさを変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p2を中心として画像が縮小し、表示2においては、位置p2を中心として画像が拡大している。 As indicated by display 1 and display 2, an image whose size is changed around a position p2, which is the center of the image, is combined with the moving image as an image forming the content. In display 1, the image is reduced around the position p2, and in display 2, the image is enlarged around the position p2.

このように、拡縮の基準となる位置を任意に設定することが可能である。 In this way, it is possible to arbitrarily set a position that serves as a reference for scaling.

(4)左右の移動
図37は、左右の移動の例を示す図である。
(4) Left/Right Movement FIG. 37 is a diagram showing an example of left/right movement.

表示1、表示2として示すように、所定の位置である位置p3を中心として左右に位置を変える画像が、コンテンツを構成する画像として動画像に合成される。 As indicated by display 1 and display 2, images that change their positions to the left and right around a predetermined position p3 are synthesized with the moving image as images constituting content.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する位置が位置p3として設定される。表示1においては、右端が位置p3にくるように画像が配置され、表示2においては、左端が位置p3にくるように画像が配置される。 For example, in the case of an image to be combined with the position of the user's head, the position p3 is set to be in contact with the head. In display 1, the image is arranged so that the right end is at position p3, and in display 2, the image is arranged so that the left end is at position p3.

図37の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、下辺の中心が位置p3にくるように配置された画像が合成される。 As shown on the left side of FIG. 37, an image arranged so that the center of the lower side is positioned at the position p3 is synthesized with the close-up image obtained by the modern height photographing.

このように、ライブビュー画像の表示を行っている場合、所定の等しい幅だけ左右に位置を変える画像が動画像に合成され、アニメーション表示が実現される。 In this way, when a live view image is being displayed, an image whose position is changed left and right by a predetermined equal width is combined with a moving image to realize an animation display.

(5)透過度変更
図38は、透過度変更の例を示す図である。
(5) Transparency Change FIG. 38 is a diagram showing an example of transparency change.

図38に示すように、透過度を変える画像が、コンテンツを構成する画像として動画像に合成される。図38の例においては、0%、50%、80%の3段階の透過度が設定されている。図38において、三角形の濃淡が異なることは、透過度が異なることを表している。 As shown in FIG. 38, an image whose transparency is changed is synthesized with a moving image as an image forming content. In the example of FIG. 38, three levels of transmittance of 0%, 50%, and 80% are set. In FIG. 38, different shades of triangles represent different transmittances.

静止画像に合成されるスタンプ画像より透過度が高い画像からなるコンテンツが合成されるようにしてもよいし、透過度が低い画像からなるコンテンツが合成されるようにしてもよい。 A content made up of an image with a higher transparency than the stamp image to be combined with the still image may be combined, or a content made up of an image with a lower transparency may be combined.

図38の左側に示すように、イマドキ盛り撮影によって得られた静止画像に対しては、透過度が0%の画像が合成される。 As shown on the left side of FIG. 38, an image with a transparency of 0% is combined with the still image obtained by the modern prime photography.

このように、ライブビュー画像の表示を行っている場合、透過度が変化する画像が動画像に合成され、アニメーション表示が実現される。 In this way, when a live view image is being displayed, an image whose transparency changes is combined with a moving image to achieve animation display.

(6)色変更
図39は、色変更の例を示す図である。
(6) Color Change FIG. 39 is a diagram showing an example of color change.

図39に示すように、色を順次変える画像が、コンテンツを構成する画像として動画像に合成される。図39の例においては、色1乃至4として示すように4種類の色が設定されている。色1乃至4は、例えば同系色のグラデーションを構成する色である。図39において、三角形の濃淡が異なることは、色が異なることを表している。例えば、明度が高い色から低い色に色を順に変える画像が表示される。 As shown in FIG. 39, an image of which colors are sequentially changed is synthesized with a moving image as an image constituting content. In the example of FIG. 39, four colors are set as shown as colors 1 to 4. In FIG. Colors 1 to 4 are, for example, colors forming a similar color gradation. In FIG. 39, different shades of triangles represent different colors. For example, an image is displayed in which colors are sequentially changed from a color with high brightness to a color with low brightness.

図39の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、色1乃至4と同系色であり、明度が色1より低い色の画像が合成される。 As shown on the left side of FIG. 39, an image of a color similar to colors 1 to 4 and having a lower lightness than color 1 is synthesized with the close-up image obtained by the modern height photographing.

このように、ライブビュー画像の表示を行っている場合、色が変化する画像が動画像に合成され、アニメーション表示が実現される。 In this way, when the live view image is being displayed, an image in which the color changes is synthesized with the moving image to realize an animation display.

図40は、色変更の他の例を示す図である。 FIG. 40 is a diagram showing another example of color change.

図40に示す色変更は、種類が異なる色が用いられる点で図39に示す色変更と異なる。図40の例においては、色1、色2として示すように、2種類の色が設定されている。色1、色2として交互に色を変える画像が、コンテンツを構成する画像として動画像に合成される。 The color change shown in FIG. 40 differs from the color change shown in FIG. 39 in that different types of colors are used. In the example of FIG. 40, two kinds of colors are set as shown as color 1 and color 2. In FIG. Images in which colors are alternately changed as color 1 and color 2 are combined with a moving image as images constituting content.

図40の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、色1、色2のいずれの色とも異なる色の画像が合成される。 As shown on the left side of FIG. 40, an image of a color different from both color 1 and color 2 is combined with the close-up image obtained by the modern height photographing.

このように、ライブビューの画像の表示を行っている場合、色が交互に切り替わることによって点滅表示する画像が動画像に合成され、アニメーション表示が実現される。例えば、色1は緑色であり、色2は青色である。この場合、イマドキ盛り撮影によって得られたアップ画像に対しては例えば赤色のスタンプ画像が合成される。 In this way, when a live view image is being displayed, an image blinking by alternately switching colors is combined with a moving image to realize an animation display. For example, color 1 is green and color 2 is blue. In this case, for example, a red stamp image is synthesized with the close-up image obtained by the modern prime photography.

以上のように、コンテンツのアニメーション表示は、コンテンツを構成する画像の角度、位置、大きさ、透過度、色を変化させることによって実現される。角度の変化、位置の変化、大きさの変化、透過度の変化、色の変化のうち、2種類以上の変化を組み合わせて用いられるようにしてもよい。 As described above, animation display of content is realized by changing the angle, position, size, transparency, and color of images that constitute the content. Two or more types of changes among angle change, position change, size change, transmittance change, and color change may be used in combination.

<画角の形状>
イマドキ盛り撮影の合成画像の形状が縦長長方形であるものとしたが、他の形状であってもよい。
<Shape of angle of view>
Although the shape of the synthesized image of the modern prime photographing is a vertically long rectangle, it may be another shape.

画角の形状として、以下のような各種の形状を採用することが可能である。
・正方形
・略正方形
・縦長の長方形
・横長の長方形
・丸形
・三角形
・各種SNSで用いられる画像に応じた形状
・角丸正方形
・縦長の角丸長方形
・横長の角丸長方形
As the shape of the angle of view, the following various shapes can be adopted.
・Square ・Roughly square ・Vertical rectangle ・Horizontal rectangle ・Circle ・Triangle ・Shapes for images used in various SNS ・Rounded square ・Vertical rounded rectangle ・Horizontal rounded rectangle

<レタッチ処理の内容の選択>
ライブビュー画像の表示を見ながら利用者に選択させる内容が、静止画像に合成するスタンプ画像の種類であるものとしたが、他の内容を選択させるようにしてもよい。例えば、レタッチ処理の内容を選択させるようにすることが可能である。
<Selection of content for retouching>
Although the type of stamp image to be combined with the still image is selected by the user while viewing the display of the live view image, other content may be selected. For example, it is possible to select the content of retouch processing.

レタッチ処理は、目の大きさの調整、目の形の調整、肌の明るさの調整などの、撮影画像に写る利用者の特定の部位に対する画像処理である。 The retouching process is image processing for a specific part of the user appearing in the captured image, such as adjustment of eye size, eye shape, and skin brightness.

ライブビュー画像を見ながら利用者により選択されたレタッチ処理の内容と同じ内容のレタッチ処理が、静止画像に対して施される。レタッチ処理の内容の選択を受け付けている間、ライブビュー画像の画角が、スタンプ画像の種類の選択を受け付けている間と同様に広げられる。 The still image is subjected to the same retouching process as the retouching process selected by the user while viewing the live view image. While the selection of the content of the retouching process is being accepted, the angle of view of the live view image is widened in the same way as while the selection of the stamp image type is being accepted.

図41は、レタッチ選択画面の例を示す図である。 FIG. 41 is a diagram showing an example of a retouch selection screen.

図41に示すレタッチ選択画面は、目の形の選択に用いられる画面である。図41に示すような画面が、例えば、目の形を変更するための画像処理を施す対象となる静止画像の撮影前に表示される。図24を参照して説明した表示と同じ表示については、説明を適宜省略する。 The retouching selection screen shown in FIG. 41 is a screen used for selecting an eye shape. A screen such as that shown in FIG. 41 is displayed, for example, before a still image to be subjected to image processing for changing the shape of the eyes is captured. Descriptions of the same displays as those described with reference to FIG. 24 will be omitted as appropriate.

図41の例においては、利用者のバストアップが入るように画角が調整されたライブビュー画像が表示領域451に表示されている。レタッチ処理の対象となる画像が全身画像である場合、利用者の全身が写るライブビュー画像が表示される。 In the example of FIG. 41 , a live view image whose angle of view is adjusted so that the user's bust-up is included is displayed in the display area 451 . When the image to be retouched is a full-body image, a live view image of the user's whole body is displayed.

表示領域451の下には、目の形を選択するときに操作されるボタン551-1乃至551-4が横に並べて表示されている。それぞれのボタンには、それぞれのボタンを押したときに選択されるレタッチ処理を表すサンプルが表示されている。 Below the display area 451, buttons 551-1 to 551-4 that are operated when selecting the eye shape are displayed side by side. Each button displays a sample representing the retouching process that will be selected when the button is pressed.

ボタン551-1は、目を丸くするレタッチ処理を行うときに操作されるボタンである。ボタン551-2は、目をネコの目のように変形するレタッチ処理を行うときに操作されるボタンである。ボタン551-3は、目をたれ目に変形するレタッチ処理を行うときに操作されるボタンである。ボタン551-4は、レタッチ処理を行わない(目のかたちを変更しない)ときに操作されるボタンである。 The button 551-1 is a button that is operated when performing retouching processing to widen the eyes. The button 551-2 is a button that is operated when performing retouch processing to transform the eyes into cat's eyes. The button 551-3 is a button that is operated when performing retouching processing to transform the eyes into sunken eyes. A button 551-4 is a button that is operated when retouching is not performed (the eye shape is not changed).

図41の例においては、ボタン551-2が選択されており、他のボタンより大きく表示されている。カメラ91により撮影された動画像の各フレームに写る利用者の目を対象として、目をネコの目のように変形するレタッチ処理が施され、レタッチ処理を施すことによって得られた動画像がライブビュー画像として表示領域451に表示される。 In the example of FIG. 41, button 551-2 is selected and displayed larger than the other buttons. The user's eyes captured in each frame of the moving image captured by the camera 91 are subjected to retouching processing to transform the eyes into cat's eyes. It is displayed in the display area 451 as a view image.

動画像に施されるレタッチ処理は、ライブビュー画像の表示後に撮影されるアップ画像に対して施されるレタッチ処理の内容を表す処理となる。 The retouching process performed on the moving image represents the content of the retouching process performed on the close-up image captured after the live view image is displayed.

利用者は、他のボタンを操作することにより、他のレタッチ処理が施されたライブビュー画像を表示させることができる。利用者は、ライブビュー画像を見ながら好みのレタッチ処理の内容を選択することができる。 By operating other buttons, the user can display live view images that have been subjected to other retouching processes. The user can select desired retouching contents while viewing the live view image.

このように、レタッチ処理などの他の画像処理の内容の選択を受け付けている間、ライブビュー画像の画角が変更されるようにしてもよい。 In this manner, the angle of view of the live view image may be changed while the selection of other image processing such as retouching is being accepted.

<レタッチ処理の内容の再選択>
レタッチ処理の内容の再選択が以下のようにして行われるようにしてもよい。
<Reselecting retouching content>
The retouch processing content may be reselected as follows.

・事前選択空間A0においてレタッチ処理の内容の選択が行われる場合、選択された内容を撮影空間A1において変更することができるようにしてもよい。
・撮影空間A1において、OKボタン462(図41)を押下することによってレタッチ処理の内容が決定された場合でも、所定時間内はレタッチ処理の内容を変更することができるようにしてもよい。
・レタッチ処理の内容の選択に割り当てられた所定時間が経過し、かつOKボタン462が押下されていない場合、最後に選択されたレタッチ処理が施されるようにしてもよい。
- When the contents of the retouching process are selected in the pre-selection space A0, the selected contents may be changed in the shooting space A1.
- Even if the contents of the retouching process are determined by pressing the OK button 462 (FIG. 41) in the shooting space A1, the contents of the retouching process may be changed within a predetermined time.
If the predetermined time allocated for selecting the content of retouch processing has passed and the OK button 462 has not been pressed, the last selected retouch processing may be performed.

<レタッチ処理の種類>
レタッチ選択画面において以下のようなレタッチ処理の内容の選択が行われるようにしてもよい。
<Types of retouching>
On the retouching selection screen, the content of retouching may be selected as follows.

レタッチには、アップ画像用のレタッチと全身画像用のレタッチがある。 Retouching includes close-up image retouching and full-body image retouching.

アップ画像用のレタッチ
・輪郭処理
・小顔処理
・目の大きさ処理
・目の形状処理
・小鼻処理
・口角を上げる処理
・口の大きさ処理
・肌の色の処理
・パーツの移動(目をこめかみの方向に動かす等)
・アイブロウ(眉の形を変える)
Retouching for close-up images Contour processing Small face processing Eye size processing Eye shape processing Nostril processing Raising the corners of the mouth Mouth size processing Skin color processing Moving parts (eyes) move it toward the temple, etc.)
・Eyebrow (change the shape of the eyebrows)

輪郭処理は、撮影画像に写る利用者の顔を認識し、輪郭を変更する処理である。小顔処理は、撮影画像に写る利用者の顔を認識し、顔を小さくする処理である。目の大きさ処理は、撮影画像に写る利用者の目を認識し、目を大きくする処理である。 The contour processing is processing for recognizing the user's face in the captured image and changing the contour. Face-slimming processing is processing for recognizing a user's face in a captured image and making the face smaller. The eye size processing is processing for recognizing the user's eyes in the captured image and enlarging the eyes.

目の形状処理は、撮影画像に写る利用者の目を認識し、目の形状を変更する処理である。小鼻処理は、撮影画像に写る利用者の鼻を認識し、鼻を小さくする処理である。口角を上げる処理は、撮影画像に写る利用者の口を認識し、口角を上げる処理である。 The eye shape processing is processing for recognizing the user's eyes in the captured image and changing the eye shape. The nostril processing is processing for recognizing the user's nose in the captured image and making the nose smaller. The process of raising the corners of the mouth is a process of recognizing the user's mouth in the photographed image and raising the corners of the mouth.

口の大きさ処理は、撮影画像に写る利用者の口を認識し、口の大きさを変更する処理である。肌の色の処理は、撮影画像に写る利用者の肌の色を認識し、肌の色を変更する処理である。パーツの移動は、撮影画像に写る利用者の顔のパーツ(部位)を認識し、パーツを移動する処理である。例えば、目の上下方向への移動、内側への移動、口の移動などがパーツの移動に含まれる。アイブロウは、撮影画像に写る利用者の眉を認識し、眉の形を変更する処理である。 Mouth size processing is processing for recognizing the user's mouth in the captured image and changing the size of the mouth. The skin color processing is processing for recognizing the skin color of the user appearing in the captured image and changing the skin color. The movement of parts is a process of recognizing the parts (parts) of the user's face shown in the captured image and moving the parts. For example, movements of parts include upward and downward movements of the eyes, inward movements, and movements of the mouth. Eyebrow is a process of recognizing the user's eyebrows in a captured image and changing the shape of the eyebrows.

全身画像用のレタッチ
・脚長処理
・脚の細さ処理
・身長処理
・二の腕処理
・くびれ処理
・首の長さ処理
・ウエストの位置を上げる処理
・指を細くする処理
・爪の形を変形する処理
・爪の長さ処理
Retouching for full-body images ・Leg length processing ・Leg thinness processing ・Height processing ・Upper arm processing ・Constriction processing ・Neck length processing ・Waist position raising processing・Nail length processing

脚長処理は、撮影画像に写る利用者の脚を認識し、脚を長くする処理である。脚の細さ処理は、撮影画像に写る利用者の脚を認識し、脚を細くする処理である。身長処理は、撮影画像に写る利用者の全身を認識し、身長を高くする処理である。 The leg lengthening process is a process of recognizing the legs of the user appearing in the captured image and lengthening the legs. The thin leg processing is processing for recognizing the leg of the user in the photographed image and thinning the leg. The height processing is processing for recognizing the whole body of the user appearing in the photographed image and increasing the height of the user.

二の腕処理は、撮影画像に写る利用者の二の腕を認識し、二の腕を細くする処理である。くびれ処理は、撮影画像に写る利用者の腰を認識し、くびれを強調する処理である。首の長さ処理は、撮影画像に写る利用者の首を認識し、首を長くする処理である。 The upper arm processing is processing for recognizing the user's upper arms in the captured image and thinning the upper arms. Constriction processing is processing for recognizing the waist of the user in the photographed image and emphasizing the constriction. Neck length processing is processing for recognizing the user's neck in the captured image and lengthening the neck.

ウエストの位置を上げる処理は、撮影画像に写る利用者の腰を認識し、ウエストの位置を上げる処理である。指を細くする処理は、撮影画像に写る利用者の手を認識し、指を細くする処理である。爪の形を変形する処理は、撮影画像に写る利用者の手を認識し、爪の形を変形する処理である。爪の長さ処理は、撮影画像に写る利用者の手を認識し、爪の長さを変更する処理である。 The process of raising the waist position is a process of recognizing the waist of the user in the captured image and raising the waist position. The finger thinning process is a process of recognizing the user's hand in the captured image and thinning the finger. The process of deforming the nail shape is a process of recognizing the user's hand in the photographed image and deforming the shape of the nail. The nail length processing is processing for recognizing the user's hand in the photographed image and changing the length of the nail.

なお、ここでは、アップ画像用のレタッチと全身画像用のレタッチに分けて説明しているが、アップ画像用のレタッチとして説明した各処理が全身画像のレタッチとして用いられるようにしてもよいし、反対に、全身画像用のレタッチとして説明した各処理がアップ画像のレタッチとして用いられるようにしてもよい。 Note that here, retouching for a close-up image and retouching for a full-body image are separately described, but each processing described as retouching for a close-up image may be used for retouching a full-body image, Conversely, each process described as retouching for the whole-body image may be used for retouching the close-up image.

スタンプ画像の種類の選択、または、レタッチ処理の内容の選択ではなく、スタンプ画像の種類とレタッチ処理の内容の両方の選択を、ライブビュー画像の表示を見ながら利用者に行わせるようにしてもよい。 Instead of selecting the type of stamp image or selecting the content of retouch processing, the user can select both the type of stamp image and the content of retouch processing while viewing the display of the live view image. good.

<<変形例1>>
利用者のポーズに合わせて画角が調整されるようにしてもよい。
<<Modification 1>>
The angle of view may be adjusted according to the pose of the user.

・利用者が複数名で互いに離れて立っている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が1名で筐体の端に立っている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が手を外に向けて広げている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が脚を外に向けて広げている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が手に物を持っている場合は、物も含めて利用者が画角に収まるように調整されるようにしてもよい。
- When a plurality of users are standing apart from each other, the angle of view may be adjusted so that the users are not cut off.
- When the user is standing alone at the edge of the housing, the angle of view may be adjusted so that the user is not cut off.
- When the user spreads his or her hands outward, the angle of view may be adjusted so that the user is not cut off.
- When the user spreads his or her legs outward, the angle of view may be adjusted so that the user is not cut off.
- When the user holds an object in his or her hand, the angle of view may be adjusted so that the user, including the object, fits within the angle of view.

<<変形例2>>
利用者の身長に合わせて画角が調整されるようにしてもよい。
<<Modification 2>>
The angle of view may be adjusted according to the height of the user.

・証明写真用の画像の撮影やレタッチ処理の対象となる画像の撮影において、利用者の身長(顔の位置)に応じて画角が調整されるようにしてもよい。 The angle of view may be adjusted according to the height (position of the face) of the user when taking an image for an ID photo or taking an image to be retouched.

<<変形例3>>
写真シール作成装置1において行われる撮影時の画角を調整する場合について説明したが、スマートフォンなどの携帯端末における操作の受け付け時の画角が同様にして調整されるようにしてもよい。利用者の携帯端末には、撮影画像の画像処理に用いられるアプリケーションがインストールされる。
<<Modification 3>>
Although the case of adjusting the angle of view at the time of photographing performed in the photo sticker creating apparatus 1 has been described, the angle of view at the time of accepting an operation in a portable terminal such as a smartphone may be similarly adjusted. An application used for image processing of captured images is installed in the user's mobile terminal.

携帯端末における画角の調整が以下のように行われるようにしてもよい。 The adjustment of the angle of view in the mobile terminal may be performed as follows.

・利用者の位置を検知して画角の大きさを調整する。
・レタッチ選択画面を表示している間は、カメラに近い利用者が収まるように画角を調整する。
・タッチパネルモニタに触れている間は、カメラに近い利用者が収まるように画角を調整する。
・タッチパネルモニタを押下してから所定時間内は、カメラに近い利用者が収まるように画角を調整する。
・ライブビュー画像の表示中は画角を広めに設定して、撮影時に画角を狭める(画角を固定にする)。
・Detects the position of the user and adjusts the size of the angle of view.
・While the retouching selection screen is displayed, the angle of view is adjusted so that the user closest to the camera can be accommodated.
・While touching the touch panel monitor, adjust the angle of view so that the user closest to the camera is included.
・The angle of view is adjusted so that the user who is close to the camera can be accommodated within a predetermined time after pressing the touch panel monitor.
・Set a wide angle of view while displaying a live view image, and narrow the angle of view when shooting (fix the angle of view).

<<他の例>>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。例えば、写真シール作成装置1に搭載されたコンピュータであるPC部301にプログラムがインストールされる。
<<Other examples>>
The series of processes described above can be executed by hardware or by software. When a series of processes is executed by software, a program that constitutes the software is installed in a computer built into dedicated hardware or a general-purpose personal computer. For example, a program is installed in the PC section 301 which is a computer installed in the photo sticker creating apparatus 1 .

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図10に示されるリムーバブルメディア319に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM312や記憶部316に、あらかじめインストールしておくことができる。 The program to be installed is provided by being recorded on removable media 319 shown in FIG. Alternatively, it may be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting. The program can be pre-installed in the ROM 312 or storage unit 316 .

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be executed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

1 写真シール作成装置, 91 カメラ, 92 タッチパネルモニタ, 402 撮影処理部, 403 編集処理部, 411 撮影制御部, 412 トリミング部, 413 画像処理部, 414 選択受付部, 415 表示制御部, 416 撮影画像記憶部 1 photo sticker creation device, 91 camera, 92 touch panel monitor, 402 photographing processing unit, 403 editing processing unit, 411 photographing control unit, 412 trimming unit, 413 image processing unit, 414 selection reception unit, 415 display control unit, 416 photographed image memory

Claims (18)

利用者を被写体とした撮影画像の元になる静止画像の撮影と、動画像の撮影とを行う撮影部と、
前記静止画像に施す画像処理の内容の選択を前記動画像の表示中に受け付ける選択受付部と、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施す画像処理部と、
前記画像処理の内容の選択前、前記撮影部により撮影された前記動画像を、前記撮影画像の画角と同じ画角で表示させ、前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる表示制御部と
を備える画像処理装置
a photographing unit for photographing a still image that is the basis of a photographed image of a user, and for photographing a moving image;
a selection reception unit that receives selection of content of image processing to be performed on the still image while the moving image is being displayed ;
an image processing unit that performs processing representing the content of the image processing selected by the user on the moving image;
Before the selection of the content of the image processing, the moving image captured by the photographing unit is displayed at the same angle of view as the captured image, and while the selection of the content of the image processing is being accepted, the use is performed. and a display control unit configured to display the moving image, which has been subjected to processing representing the content of the image processing selected by a user, at an angle of view wider than that of the captured image.
前記表示制御部は、固定の画角で前記動画像を表示させる
請求項1に記載の画像処理装置
The image processing device according to claim 1, wherein the display control unit displays the moving image with a fixed angle of view.
前記表示制御部は、前記動画像に映る前記利用者を検出し、前記利用者の顔を含むように画角を調整した前記動画像を表示させる
請求項1に記載の画像処理装置
The image processing apparatus according to claim 1, wherein the display control unit detects the user appearing in the moving image, and displays the moving image with an angle of view adjusted to include the user's face.
前記表示制御部は、前記動画像に映る前記利用者が複数人いる場合、全ての前記利用者の顔を含むように画角を調整した前記動画像を表示させる
請求項3に記載の画像処理装置
4. The image processing according to claim 3, wherein, when there are a plurality of users appearing in the moving image, the display control unit displays the moving image with an angle of view adjusted so as to include the faces of all the users. device .
前記表示制御部は、前記動画像に映る前記利用者が複数人いる場合、少なくとも前記撮影部に近い位置に映る前記利用者の顔を含むように画角を調整した前記動画像を表示させる
請求項3に記載の画像処理装置
When there are a plurality of users appearing in the moving image, the display control unit displays the moving image with an angle of view adjusted so as to include at least the face of the user appearing in a position close to the photographing unit. Item 4. The image processing apparatus according to item 3.
前記表示制御部は、前記利用者の身長に基づいて画角を調整した前記動画像を表示させる
請求項3乃至5のいずれかに記載の画像処理装置
The image processing device according to any one of claims 3 to 5, wherein the display control unit displays the moving image with an angle of view adjusted based on the height of the user.
前記画像処理は、前記撮影画像に写る前記利用者の所定の位置に合成用画像を合成させる処理であり、
前記表示制御部は、前記合成用画像の種類の選択を受け付けている間、前記利用者により選択された前記合成用画像を表すコンテンツが合成された前記動画像を表示させる
請求項1に記載の画像処理装置
The image processing is a process of synthesizing an image for synthesis at a predetermined position of the user in the captured image,
2. The display control unit according to claim 1, wherein while the selection of the type of the image for synthesis is being accepted, the moving image synthesized with the content representing the image for synthesis selected by the user is displayed. Image processing device .
前記表示制御部は、前記動画像に映る前記利用者を検出し、前記コンテンツを含むように画角を調整した前記動画像を表示させる
請求項7に記載の画像処理装置
The image processing apparatus according to claim 7, wherein the display control unit detects the user appearing in the moving image, and displays the moving image with an angle of view adjusted to include the content.
前記表示制御部は、前記合成用画像を表す画像が変化するアニメーションを前記コンテンツとして表示させる
請求項7または8に記載の画像処理装置
The image processing apparatus according to Claim 7 or 8, wherein the display control unit displays an animation in which an image representing the composition image changes as the content.
前記表示制御部は、前記合成用画像を表す画像の角度が変化する前記アニメーションを表示させる
請求項9に記載の画像処理装置
The image processing apparatus according to claim 9, wherein the display control unit displays the animation in which the angle of the image representing the composition image changes.
前記表示制御部は、前記合成用画像を表す画像の位置が変化する前記アニメーションを表示させる
請求項9または10に記載の画像処理装置
The image processing device according to claim 9 or 10, wherein the display control unit displays the animation in which the position of the image representing the composition image changes.
前記表示制御部は、前記合成用画像を表す画像の色、大きさ、および透過度のうちの少なくともいずれかが変化する前記アニメーションを表示させる
請求項9乃至11のいずれかに記載の画像処理装置
12. The image processing device according to any one of claims 9 to 11, wherein the display control unit displays the animation in which at least one of color, size, and transparency of an image representing the composition image changes. .
前記画像処理は、前記静止画像に写る前記利用者の写りを調整するレタッチ処理であり、
前記表示制御部は、前記レタッチ処理の内容の選択を受け付けている間、前記利用者により選択された前記レタッチ処理の内容を表す処理が施された前記動画像を表示させる
請求項1に記載の画像処理装置
The image processing is a retouching process for adjusting the appearance of the user in the still image,
2. The display control unit according to claim 1, wherein, while receiving selection of the content of the retouching process, the display control unit displays the moving image subjected to processing representing the content of the retouching process selected by the user. Image processing device .
前記表示制御部は、前記画像処理の内容の選択に用いられる情報を、前記画像処理の内容を表す処理を施した前記動画像とともに同じ画面に表示させる
請求項1乃至13のいずれかに記載の画像処理装置
14. The display control unit according to any one of claims 1 to 13, wherein the information used for selecting the content of the image processing is displayed on the same screen together with the moving image processed to represent the content of the image processing. Image processing device .
前記表示制御部は、前記撮影画像に施す前記画像処理の内容が選択された場合、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記画像処理の内容の選択を受け付けている間の画角より狭い画角で表示させる
請求項1乃至14のいずれかに記載の画像処理装置
When the content of the image processing to be performed on the captured image is selected, the display control unit displays the moving image subjected to the processing representing the content of the image processing selected by the user. 15. The image processing apparatus according to any one of claims 1 to 14, wherein the image is displayed at a narrower angle of view than the angle of view during which the selection of .
前記画像処理部は、前記利用者により選択された前記画像処理を前記撮影部により撮影された前記静止画像に施し、前記撮影画像を生成する
請求項1乃至15のいずれかに記載の画像処理装置
16. The image processing apparatus according to any one of claims 1 to 15, wherein the image processing section applies the image processing selected by the user to the still image captured by the imaging section to generate the captured image. .
画像処理装置が、
利用者を被写体とした撮影画像の元になる静止画像の撮影と、動画像の撮影とを行い、
前記静止画像に施す画像処理の内容の選択前、撮影された前記動画像を、前記撮影画像の画角と同じ画角で表示させ、
前記画像処理の内容の選択を前記動画像の表示中に受け付け、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施し、
前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる
表示制御方法。
The image processing device
Take a still image that is the basis of the shot image with the user as the subject and shoot a moving image,
displaying the captured moving image at the same angle of view as that of the captured image before selecting the content of the image processing to be performed on the still image;
Receiving selection of the content of the image processing during display of the moving image ;
subjecting the moving image to processing representing the content of the image processing selected by the user;
displaying the moving image processed to represent the content of the image processing selected by the user at an angle of view wider than that of the photographed image while the selection of the content of the image processing is being accepted; control method.
画像処理装置に搭載されたコンピュータに、
利用者を被写体とした撮影画像の元になる静止画像の撮影と、動画像の撮影とを行い、
前記静止画像に施す画像処理の内容の選択前、撮影された前記動画像を、前記撮影画像の画角と同じ画角で表示させ、
前記画像処理の内容の選択を前記動画像の表示中に受け付け、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施し、
前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる
処理を実行させるプログラム。
The computer installed in the image processing device
Take a still image that is the basis of the shot image with the user as the subject and shoot a moving image,
displaying the captured moving image at the same angle of view as that of the captured image before selecting the content of the image processing to be performed on the still image;
Receiving selection of the content of the image processing during display of the moving image ;
subjecting the moving image to processing representing the content of the image processing selected by the user;
Displaying the moving image, which has undergone processing representing the content of the image processing selected by the user, at an angle of view wider than that of the photographed image while the selection of the content of the image processing is being accepted. program to run.
JP2018099302A 2018-05-24 2018-05-24 Image processing device, display control method, and program Active JP7132492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018099302A JP7132492B2 (en) 2018-05-24 2018-05-24 Image processing device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018099302A JP7132492B2 (en) 2018-05-24 2018-05-24 Image processing device, display control method, and program

Publications (2)

Publication Number Publication Date
JP2019203996A JP2019203996A (en) 2019-11-28
JP7132492B2 true JP7132492B2 (en) 2022-09-07

Family

ID=68726914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018099302A Active JP7132492B2 (en) 2018-05-24 2018-05-24 Image processing device, display control method, and program

Country Status (1)

Country Link
JP (1) JP7132492B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6939927B2 (en) * 2020-02-20 2021-09-22 株式会社セガ Amusement imaging equipment and programs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277476A (en) 2004-03-22 2005-10-06 Omron Entertainment Kk Photography printer, its control method and program, and computer readable recording medium
JP2014212489A (en) 2013-04-19 2014-11-13 フリュー株式会社 Photograph seal creating device, method, and program
JP2016028463A (en) 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method
JP2016174311A (en) 2015-03-17 2016-09-29 フリュー株式会社 Apparatus, method and program for image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277476A (en) 2004-03-22 2005-10-06 Omron Entertainment Kk Photography printer, its control method and program, and computer readable recording medium
JP2014212489A (en) 2013-04-19 2014-11-13 フリュー株式会社 Photograph seal creating device, method, and program
JP2016028463A (en) 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method
JP2016174311A (en) 2015-03-17 2016-09-29 フリュー株式会社 Apparatus, method and program for image processing

Also Published As

Publication number Publication date
JP2019203996A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP5418708B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP5664755B1 (en) Photo sticker creation apparatus and method, and program
JP5488526B2 (en) Image processing apparatus and image processing method
JP5630675B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6810336B2 (en) Photo creation game console and display method
JP2014211642A (en) Photographing and editing device, processing method for photographing and editing device, and program
JP2013229848A (en) Photograph seal machine, processing method of the same and program
JP7132492B2 (en) Image processing device, display control method, and program
JP6179655B2 (en) Photography game machine, control method, and program
JP6241689B2 (en) Image processing apparatus, image processing method, and program
JP7152687B2 (en) Display control device, display control method, program
JP5120508B1 (en) Photo sticker creation apparatus and method, and program
JP2015211461A (en) Photographic seal creation device and photographic seal creation method
JP6160470B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6687855B2 (en) Photography amusement machine, control method, and program
JP5904192B2 (en) Photo sticker creation apparatus, image processing method, and program
JP7140962B2 (en) Image processing device, control method, and program
JP6521136B1 (en) Photo creation game machine, control method, and program
JP7041342B2 (en) Image processing equipment, image processing methods, and programs
JP2021044734A (en) Image processing device, image processing method, and program
JP5881183B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6489396B2 (en) Photo sticker creation apparatus, display method, and program
JP5482948B2 (en) Image processing apparatus and image processing method
JP7319534B2 (en) camera
JP7007567B2 (en) Shooting equipment, shooting method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7132492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150