JP2019203996A - Photograph creation game machine, display control method, and program - Google Patents
Photograph creation game machine, display control method, and program Download PDFInfo
- Publication number
- JP2019203996A JP2019203996A JP2018099302A JP2018099302A JP2019203996A JP 2019203996 A JP2019203996 A JP 2019203996A JP 2018099302 A JP2018099302 A JP 2018099302A JP 2018099302 A JP2018099302 A JP 2018099302A JP 2019203996 A JP2019203996 A JP 2019203996A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- content
- angle
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本技術は、写真作成ゲーム機、表示制御方法、およびプログラムに関し、特に、利用者が、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができる写真作成ゲーム機、表示制御方法、およびプログラムに関する。 The present technology relates to a photo creation game machine, a display control method, and a program, and in particular, a user can easily confirm a moving image that reflects the selected content while selecting the content of image processing to be performed on a captured image. The present invention relates to a photo creation game machine, a display control method, and a program.
従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。 Conventionally, a photo sticker creating apparatus is known. The photo sticker creating apparatus takes a picture of a user, causes the user to edit the shot image, and provides the edited image on a sticker sheet. Photo sticker creation devices are installed in amusement facilities.
写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。 The flow of one game provided by the photo sticker creating apparatus usually involves shooting a user in the shooting space as a subject, moving the user to the editing space, and then displaying the image according to the operation performed in the editing space. The edited image is printed on the sticker sheet.
ところで、撮影時、撮影空間に設けられたモニタには、カメラにより撮影された動画像がリアルタイムで表示される。利用者は、ライブビュー画像と呼ばれるこのような動画像を見ながら、自分の立ち位置やポーズなどを確認することができる。 By the way, at the time of shooting, a moving image shot by the camera is displayed in real time on a monitor provided in the shooting space. The user can check his / her standing position and pose while watching such a moving image called a live view image.
特許文献1には、ライブビュー画像の画角を、ライブビュー画像の表示開始時と撮影時とで切り替える技術が開示されている。特許文献1に記載の技術においては、後者のタイミングの方が狭くなるように画角が調整され、これにより、画像に占める被写体の面積としては撮影時の方が広くなる。
ライブビュー画像の表示画面に表示されたボタンなどを操作して、撮影によって得られる撮影画像に合成するコンテンツの種類を選択したり、レタッチの内容を選択したりすることができるようになっている写真シール作成装置がある。利用者は、自分の選択内容が反映されたライブビュー画像を見ながら、それらの選択を行うことができる。 By operating the buttons displayed on the live view image display screen, you can select the type of content to be combined with the captured image obtained by shooting, and select the retouching content. There is a photo sticker creation device. The user can make a selection while viewing the live view image in which the user's selection is reflected.
表示画面に表示されたボタンなどを操作するためには利用者はモニタに近づく必要がある。モニタに近づくことはカメラに近づくことになるから、これにより、操作を行っている利用者の顔がライブビュー画像の画角から見切れる(画角に収まらない)ことがある。ライブビュー画像の画角から見切れた場合、選択内容がどのような形で反映されるのかを確認することができなくなる。 In order to operate buttons and the like displayed on the display screen, the user needs to approach the monitor. Since approaching the monitor means approaching the camera, the face of the user who is performing the operation may be cut off from the angle of view of the live view image (does not fit within the angle of view). When the view angle of the live view image is overlooked, it becomes impossible to confirm how the selected content is reflected.
本技術はこのような状況に鑑みてなされたものであり、利用者が、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができるようにするものである。 The present technology has been made in view of such a situation so that a user can easily confirm a moving image in which the selected content is reflected while selecting the content of image processing to be performed on the captured image. It is to make.
本技術の写真作成ゲーム機は、利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とを行う撮影部と、前記静止画像に施す画像処理の内容の選択を受け付ける選択受付部と、前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施す画像処理部と、少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる表示制御部とを備える。 The photo creation game machine of the present technology includes a shooting unit for shooting a still image and a moving image for acquiring a shot image of a user as a subject, and selection of contents of image processing to be performed on the still image. A selection receiving unit that receives the image processing unit, an image processing unit that performs processing representing the content of the image processing selected by the user on the moving image, and at least the user while receiving selection of the content of the image processing And a display control unit that displays the moving image that has been subjected to the processing that represents the content of the image processing selected in step S1, with a wider angle of view than the angle of view of the captured image.
本技術においては、利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とが行われ、前記静止画像に施す画像処理の内容の選択が受け付けられる。また、前記利用者により選択された前記画像処理の内容を表す処理が前記動画像に施され、少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像が、前記撮影画像の画角より広い画角で表示される。 In the present technology, still image shooting and moving image shooting for acquiring a shot image with a user as a subject are performed, and selection of contents of image processing to be performed on the still image is accepted. In addition, a process representing the content of the image processing selected by the user is performed on the moving image, and at least while the selection of the content of the image processing is accepted, the image processing selected by the user. The moving image that has been subjected to the processing representing the content is displayed with a wider angle of view than the angle of view of the captured image.
本技術によれば、利用者は、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができる。 According to the present technology, the user can easily confirm the moving image in which the selected content is reflected while selecting the content of the image processing to be performed on the captured image.
<<実施例>>
<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<< Example >>
<Appearance of photo sticker creation device>
FIG. 1 and FIG. 2 are perspective views showing a configuration example of the appearance of the photographic
写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。
The photo
写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
The users of the photo
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
In the photo
写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。
The photo
図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。
As shown in FIG. 1, the photo
撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。
The photographing unit 11 has a box-shaped housing having a size that allows a person to enter inside, and includes a
事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。
The
撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。
The photographing
撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。
If the left side is the left side and the right side is the right side as viewed from the user facing the front in the imaging space, the left side of the
背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。
The
側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。
The
撮影空間の床には、板状の部材である床材27が敷かれる。床材27には、撮影時の立ち位置を指定するときに用いられるマークが印刷されている。
A
なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、所望の背景画像が、シートが写っている利用者の背景の部分に合成される。
For example, a green chroma key sheet is attached to the surface of the
側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。
An opening formed by being surrounded by the
撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。
A ceiling surrounded by the front surface of the photographing
天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。
The
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。
The
図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。
If the configuration of the
編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。
The front side of the
編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。
A
カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。
As will be described later, the left side surface of the
<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.
図3は、写真シール作成装置1を上から見た平面図である。
FIG. 3 is a plan view of the photo
利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。
The user inserts money into the coin slot in the pre-selected space A0 that is the space in front of the pre-selecting
事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。
The user who has completed the pre-selection operation, as indicated by the
撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。
The user who has finished the shooting work exits the shooting space A1 from the doorway G1 as indicated by the
編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。
After the editing operation is finished, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a
印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。
The user who has moved to the print waiting space A3 waits for the printing to end. When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side of the
<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of preselection unit>
FIG. 4 is a diagram illustrating a configuration example of the
事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。
A touch panel monitor 71 is provided above the
タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。
A
<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Configuration of the shooting unit>
FIG. 5 is a diagram illustrating a configuration example of the front of the photographing
正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81の正面には、カメラ91、タッチパネルモニタ92、および正面ストロボ93が設けられる。
A
カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。
The
カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。
A moving image (hereinafter also referred to as a live view image) captured by the
タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択を受け付ける機能を備えている。
The touch panel monitor 92 is provided below the
正面ストロボ93は、カメラ91の上方に設けられる。正面ストロボ93は、乳白アクリル板よりなる、三日月状の発光面を有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。
The
カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボユニット82が設置される。上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。
Above the
カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。
Below the
上ストロボユニット82および足元ストロボユニット83は、蛍光灯とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、利用者の操作性や安全性を確保するために撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。
The
足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。
A box-shaped
なお、図示はしないが、正面パネル42の例えば天井付近には、スピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。
Although not shown, a speaker is provided near the ceiling of the
<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Configuration of background part>
FIG. 6 is a diagram illustrating a configuration example of the
背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。
Above the
図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。
In the drawing, a rear
また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられる。クロマキーシート121の色は、例えば緑色とされる。
A
なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面の下側(床面側)にも、クロマキーシート121と同様のクロマキーシートが貼り付けられる。
Although not shown, a chroma key sheet similar to the chroma
<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 7 is a diagram illustrating a configuration example of the
斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。
The tablet built-in
なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。
The operation using the
図8は、編集ユニット12の左側面の構成例を示す図である。
FIG. 8 is a diagram illustrating a configuration example of the left side surface of the
編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。
A sticker
<編集画像のレイヤ構造>
図9は、編集画像のレイヤ構造の例を示す図である。
<Layer structure of edited image>
FIG. 9 is a diagram illustrating an example of a layer structure of an edited image.
左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。 The leftmost edited image P1 is an image generated by editing. The edited image P1 is composed of images of each layer of a background image P11, a person image P12, and a foreground image P13.
図9の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。 In the example of FIG. 9, the background image P <b> 11 is an image of a wall pattern on which bricks are stacked. The foreground image P13 is an image including a handwritten character image of “Love my friend” and a heart-shaped image. The handwritten character image of “Love my friend” is a pen image input by the user using the pen tool. The heart-shaped image is a stamp image input by a user using a stamp tool.
このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させることも可能とされる。 As described above, the edited image P1 is generated by superimposing the person image P12, which is an image of the person region extracted from the captured image by the chroma key process, on the background image P11 and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject.
図9の例においては、人物画像P12として、利用者の略胸付近から上の範囲が大きく写る画像が示されている。撮影処理においては、このように顔が大きく写る撮影画像であるアップ画像が撮影される。アップ画像の撮影は例えば複数回行われる。 In the example of FIG. 9, as the person image P12, an image is shown in which the upper range from the vicinity of the user's approximate chest is greatly shown. In the photographing process, an up image, which is a photographed image in which the face is shown large, is photographed. The up image is taken a plurality of times, for example.
撮影処理においては、アップ画像の他に、頭の上から膝下付近までの広い範囲が写る画像の撮影も行われる。この画像は、例えば、洋服のコーディネートを残しておくために用いられる。以下、適宜、洋服のコーディネートを残しておくためなどに用いられる、アップ画像よりも画角(撮影範囲)の広い画像をコーディネート画像という。 In the photographing process, in addition to the up image, photographing of a wide range from the top of the head to the vicinity of the knee is also performed. This image is used, for example, to leave a coordinate of the clothes. Hereinafter, an image having a wider angle of view (photographing range) than an up image, which is used to leave the coordinates of clothes as appropriate, is referred to as a coordinated image.
コーディネート画像よりも画角が広い、利用者の全身が写る全身画像の撮影が行われるようにしてもよい。 You may make it image | photograph the whole body image which has a wider angle of view than a coordinated image and a user's whole body is reflected.
<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の構成例を示すブロック図である。図10において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram illustrating a configuration example of the photographic
図10に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に収納される。
As shown in FIG. 10, the photo
PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。
A CPU (Central Processing Unit) 311, a ROM (Read Only Memory) 312, and a RAM (Random Access Memory) 313 that constitute the
CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。
The CPU 311 executes a predetermined program and controls the overall operation of the photo
バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。
An input /
記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。
The
通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカーが管理する画像取得サイト管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像取得サイト管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。
The
ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。
A
入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。
An external input /
事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。
The
タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。
The touch panel monitor 71 displays various selection screens according to control by the
硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。
The
撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部304は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ332から構成される。
The photographing
照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。
The
カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた画像データをPC部301に出力する。
The
編集部305Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部305Aと同一の構成を有する。なお、以下、編集部305A,305Bを特に区別しない場合には、単に、編集部305という。
The
タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、撮影画像の編集が行われる。
The tablet built-in
印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。
The
プリンタ351は、ヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によってカットして、シール紙排出口161に排出する。
The printer 351 drives the
<写真シール作成装置の機能構成例>
図11は、写真シール作成装置1の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 11 is a block diagram illustrating a functional configuration example of the photo
写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。
In the photo
事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択、背景画像の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。
The
撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。
The
編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさや肌の明るさを調整する処理、撮影画像に対して編集を施す処理などが含まれる。編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。
The
印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。
The
<撮影処理部の詳細構成>
図12は、撮影処理部402の構成例を示すブロック図である。
<Detailed configuration of imaging processing unit>
FIG. 12 is a block diagram illustrating a configuration example of the
撮影処理部402は、撮影制御部411、トリミング部412、画像処理部413、選択受付部414、表示制御部415、および撮影画像記憶部416から構成される。
The
撮影制御部411は、カメラ91を制御して利用者を被写体とした撮影を行う。撮影制御部411は、静止画像の撮影前、ライブビュー画像用の動画像の撮影を行い、カメラ91により取り込まれた動画像を出力する。また、撮影制御部411は、撮影画像の撮影タイミングに合わせて静止画像の撮影を行い、カメラ91により撮影された静止画像を出力する。撮影制御部411から出力された動画像と静止画像はトリミング部412に供給される。
The
トリミング部412は、撮影制御部411から供給された動画像の各フレームに対してトリミングを施し、所定の範囲の画像からなる動画像を出力する。トリミングにより切り出された範囲の画像からなる動画像は、画像処理部413と表示制御部415に供給される。
The
また、トリミング部412は、撮影画像の撮影タイミングで撮影制御部411から供給された静止画像に対してトリミングを施し、所定の範囲を切り出すことによって撮影画像を生成する。トリミング部412は、生成した撮影画像を撮影画像記憶部416に出力し、記憶させる。トリミング部412により生成された撮影画像は、適宜、撮影結果を表示するために表示制御部415に出力される。
The
撮影画像の撮影は例えば6回行われる。1回目から4回目までの撮影がアップ画像の撮影となり、6回目の撮影が例えばコーディネート画像の撮影となる。アップ画像の撮影とコーディネート画像の撮影は、カメラ91のレンズの焦点距離を例えば同じ24mmとして行われる。トリミング範囲を変えることによって、縦横比の異なるアップ画像とコーディネート画像が生成される。
The captured image is captured six times, for example. Shooting from the first time to the fourth time is shooting of an up image, and shooting of the sixth time is shooting of a coordinated image, for example. The up image and coordinated image are taken with the same focal length of the lens of the
図13は、アップ画像とコーディネート画像の生成の例を示す図である。 FIG. 13 is a diagram illustrating an example of generation of an up image and a coordinated image.
図13に示す画像は、焦点距離を24mmとして撮影された原画像である。枠F1で示す矩形領域が、アップ画像の撮影時にトリミングによって切り出される領域である。トリミング部412は、枠F1で示す矩形領域をトリミングによって切り出し、アップ画像を生成する。
The image shown in FIG. 13 is an original image taken with a focal length of 24 mm. A rectangular area indicated by a frame F1 is an area cut out by trimming when an up image is captured. The
また、枠F2で示す矩形領域が、コーディネート画像の撮影時にトリミングによって切り出される領域である。トリミング部412は、枠F2で示す矩形領域をトリミングによって切り出し、コーディネート画像を生成する。
A rectangular area indicated by a frame F2 is an area cut out by trimming when a coordinated image is captured. The
アップ画像とコーディネート画像の撮影前のライブビュー画像の表示も、カメラ91により撮影された動画像の各フレームから、図13において枠F1と枠F2で示す範囲を切り出して得られた画像を用いて行われる。
The display of the live view image before photographing of the up image and the coordinated image is also performed using images obtained by cutting out the ranges indicated by the frames F1 and F2 in FIG. 13 from each frame of the moving image photographed by the
6回の撮影のうちの5回目の撮影は、利用者により選択されたスタンプ画像が合成されたアップ画像の撮影となる。 The fifth shooting out of the six shootings is a shooting of an up image in which the stamp image selected by the user is synthesized.
以下、適宜、流行のスタンプ画像を合成することによっていわゆる「盛れ感」のある画像を得るための撮影という意味で、スタンプ画像が合成されたアップ画像の撮影を「イマドキ盛り撮影」という。「盛れ感」は、利用者の顔のかわいらしさの強調度合いを表す指標である。 Hereinafter, photographing of an up image in which a stamp image is combined is referred to as “imadoki shooting” in the sense of photographing to obtain a so-called “smoothed” image by appropriately combining trendy stamp images. “Feeling” is an index representing the degree of emphasis on the cuteness of the user's face.
図14は、イマドキ盛り撮影時に用いられるスタンプ画像の例を示す図である。 FIG. 14 is a diagram showing an example of a stamp image used at the time of taking a picture.
イマドキ盛り撮影時、例えば、図14に示すような動物の耳と鼻を表現したスタンプ画像431が合成に用いられる。スタンプ画像431は、ウサギの鼻を表現した鼻画像431−1と、ウサギの左右の耳を表現した耳画像431−2,431−3から構成される。
For example, a
図15は、合成画像の例を示す図である。 FIG. 15 is a diagram illustrating an example of a composite image.
アップ画像に写るそれぞれの利用者の鼻と頭の位置に図14のスタンプ画像が合成されることにより、図15に示すような合成画像が生成される。スタンプ画像の大きさは、アップ画像に写る利用者の大きさに応じて調整され、大きさを調整したスタンプ画像が合成される。 The stamp image of FIG. 14 is combined with the position of each user's nose and head that appear in the up image, thereby generating a combined image as shown in FIG. The size of the stamp image is adjusted according to the size of the user shown in the up image, and the stamp image with the adjusted size is synthesized.
図15の例においては、左側の利用者の鼻の位置には鼻画像431−1Lが合成され、頭の位置には耳画像431−2L,431−3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像431−1Rが合成され、頭の位置には耳画像431−2R,431−3Rが合成されている。 In the example of FIG. 15, a nose image 431-1L is synthesized at the position of the left user's nose, and ear images 431-2L and 431-3L are synthesized at the position of the head. Also, a nose image 431-1R is synthesized at the right user's nose position, and ear images 431-2R and 431-3R are synthesized at the head position.
このように、アップ画像に対してスタンプ画像を合成して得られた合成画像が、イマドキ盛り撮影の撮影画像として生成される。 In this way, a composite image obtained by combining the stamp image with the up image is generated as a photographed image for imposing image capturing.
イマドキ盛り撮影が行われる前、合成に用いるスタンプ画像の種類の選択が行われる。写真シール作成装置1には、図16A乃至Dに示すような複数種類のスタンプ画像のデータが予め用意されている。
Prior to imado shooting, the type of stamp image used for composition is selected. In the photo
スタンプ画像の選択は、タッチパネルモニタ92に表示されるスタンプ画像選択画面を用いて行われる。後述するように、スタンプ画像選択画面には、それぞれのスタンプ画像を選択するときに操作されるボタンとともに、選択中のスタンプ画像を表すコンテンツを合成したライブビュー画像が表示される。 The stamp image is selected using a stamp image selection screen displayed on the touch panel monitor 92. As will be described later, on the stamp image selection screen, a live view image obtained by synthesizing contents representing the selected stamp image is displayed together with a button operated when each stamp image is selected.
利用者は、自分が選択した内容が反映されたライブビュー画像を見ながら、イマドキ盛り撮影に用いるスタンプ画像を選択することができる。 The user can select a stamp image to be used for imado shooting while viewing the live view image in which the content selected by the user is reflected.
詳細については後述するが、図12のトリミング部412は、スタンプ画像の選択を利用者に行わせている間、言い換えると、利用者によるスタンプ画像の選択を受け付けている間、トリミング範囲を調整することにより、ライブビュー画像の画角を調整する。
Although the details will be described later, the
トリミング部412は、イマドキ盛り撮影時に撮影制御部411から供給された静止画像にトリミングを施すことによってアップ画像と同じ画角の画像を切り出し、切り出したアップ画像を画像処理部413に出力する。
The
画像処理部413は、イマドキ盛り撮影の前に撮影制御部411から供給された動画像の各フレームに対してコンテンツを合成する。すなわち、画像処理部413は、各フレームを対象として顔認識を行うことによって、目、鼻、頭などの各部位の位置を特定し、特定した位置に、コンテンツを構成する各画像を合成する。選択受付部414からは、利用者が選択しているスタンプ画像の種類を表す情報が供給されてくる。
The
動画像に合成されるコンテンツは、アップ画像に合成するスタンプ画像の種類を表す画像から構成される。静止画像に合成されるスタンプ画像と同じ画像が動画像の各フレームに合成されることもあるし、異なる画像が動画像の各フレームに合成されることもある。動画像に合成されるコンテンツは、静止画像であるアップ画像に施される画像処理の内容を表す画像となる。画像処理部413は、コンテンツを合成した動画像を表示制御部415に出力する。
The content combined with the moving image is composed of an image representing the type of stamp image combined with the up image. The same image as the stamp image combined with the still image may be combined with each frame of the moving image, or a different image may be combined with each frame of the moving image. The content combined with the moving image is an image representing the details of image processing performed on the up image that is a still image. The
また、画像処理部413は、イマドキ盛り撮影時に撮影制御部411から供給されたアップ画像に対して、利用者により選択されたスタンプ画像を合成することによって合成画像を生成する。画像処理部413は、スタンプ画像を合成することによって生成した合成画像を撮影画像記憶部416に出力し、イマドキ盛り撮影の撮影画像として記憶させる。画像処理部413により生成された合成画像は、適宜、イマドキ盛り撮影の撮影結果を表示するために表示制御部415に出力される。
In addition, the
選択受付部414は、タッチパネルモニタ92に表示されるスタンプ画像選択画面に対する利用者の操作を受け付ける。選択受付部414は、利用者が選択しているスタンプ画像の種類を表す情報を画像処理部413に出力する。
The
表示制御部415は、タッチパネルモニタ92の表示を制御する。例えば、表示制御部415は、撮影に関するガイダンスの画面をタッチパネルモニタ92に表示させる。
The
また、表示制御部415は、トリミング部412から供給された動画像に基づいてアップ画像とコーディネート画像の撮影前のライブビュー画像をタッチパネルモニタ92に表示させる。表示制御部415は、画像処理部413から供給された動画像に基づいて、イマドキ盛り撮影前のライブビュー画像をタッチパネルモニタ92に表示させる。
Further, the
表示制御部415は、撮影が行われた場合、適宜、撮影結果をタッチパネルモニタ92に表示させる。
When shooting is performed, the
撮影画像記憶部416は、トリミング部412から供給されたアップ画像、コーディネート画像と、画像処理部413から供給された合成画像を記憶する。撮影画像記憶部416に記憶された撮影画像は、撮影処理の終了後、編集処理部403により読み出される。
The captured
<写真シール作成装置の動作>
ここで、図17のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 17, operation | movement of the photograph
ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。硬貨が投入されたとステップS1において判定された場合、処理はステップS2に進む。
In step S1, the
ステップS2において、事前選択処理部401は、事前選択部302を制御することで、事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影画像に合成する背景画像の選択などが行われる。いずれの選択も、タッチパネルモニタ71に表示される画面を用いて行われる。
In step S <b> 2, the
ステップS3において、撮影処理部402は、撮影部304を制御することで、撮影処理を行う。例えば、撮影処理部402は、カメラ91により取り込まれた動画像に基づいてライブビュー画面をタッチパネルモニタ92に表示させ、撮影空間A1にいる利用者を被写体として撮影を行う。撮影処理の詳細については図18のフローチャートを参照して後述する。
In step S <b> 3, the photographing
ステップS4において、編集処理部403は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで、編集処理を行う。
In step S4, the
例えば、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせる。編集画面には、編集対象の撮影画像とともに、撮影画像に合成する合成用画像を選択するときに操作されるボタンなどが表示される。編集処理部403は、利用者の操作に応じて合成用画像を合成することによって撮影画像の編集を行い、編集画像を生成する。
For example, the
例えば、アップ画像、コーディネート画像だけでなく、イマドキ盛り撮影によって得られた合成画像に対しても、編集を行うことが可能とされる。 For example, it is possible to edit not only an up image and a coordinated image, but also a composite image obtained by imposing shooting.
撮影画像の編集後、編集処理部403は、分割数の選択に用いられる画面、画像取得サイト管理サーバに送信する画像の選択に用いられる画面などの各種の画面をタブレット内蔵モニタ131に表示する。編集処理部403は、各画面に対する利用者の操作に応じて各種の処理を行う。
After editing the captured image, the
ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力してシール紙363に印刷させる。
In step S <b> 5, the
印刷が終了した場合、ステップS6において、プリンタ351は、カッター362で切り離したシール紙363をシール紙排出口161に排出する。
When printing is completed, in step S <b> 6, the printer 351 discharges the
写真シール作成装置1の利用者の各グループに対しては、以上のような一連の処理からなる写真作成ゲームが提供される。あるグループの利用者に続けて他のグループの利用者が写真シール作成装置1の利用を開始した場合、写真シール作成装置1の利用を先に始めた利用者の写真シール作成ゲームと、後から始めた利用者の写真シール作成ゲームとが適宜並行して行われることになる。適宜、写真シール作成ゲームを単にゲームともいう。
For each group of users of the photo
<撮影処理>
次に、図18のフローチャートを参照して、図17のステップS3において行われる撮影処理について説明する。
<Shooting process>
Next, with reference to the flowchart of FIG. 18, the imaging process performed in step S3 of FIG. 17 will be described.
ステップS11において、撮影処理部402の表示制御部415(図12)は、タッチパネルモニタ92に誘導画面を表示させ、利用者毎の立ち位置を誘導する。立ち位置の誘導は、床材のマークを指定することによって行われる。
In step S11, the display control unit 415 (FIG. 12) of the
立ち位置の誘導が行われた後、ステップS12において、表示制御部415は、ライブビュー画面の表示を開始する。すなわち、撮影制御部411によりカメラ91が制御され、動画像の取り込みが開始される。カメラ91により取り込まれた動画像は、トリミング部412に供給され、トリミングが行われる。トリミングにより切り出された画像からなる動画像は表示制御部415に出力され、ライブビュー画面の表示に用いられる。
After the standing position is guided, in step S12, the
図19は、ライブビュー画面の表示例を示す図である。 FIG. 19 is a diagram illustrating a display example of the live view screen.
ライブビュー画面の略中央には表示領域451が設けられる。表示領域451には、トリミング部412から供給された動画像がライブビュー画像として表示される。
A
図19の例においては、2人の利用者の顔と上半身が大きく写るライブビュー画像が表示されている。アップ画像の撮影前、このようなライブビュー画像が表示される。利用者は、ライブビュー画像を見て、ポーズを確認することができる。 In the example of FIG. 19, a live view image is displayed in which the faces and upper body of two users are enlarged. Such a live view image is displayed before the up image is taken. The user can check the pose by looking at the live view image.
ライブビュー画面には、撮影までのカウントダウンを表す数字が所定のタイミングで表示される。 On the live view screen, a number representing a countdown until shooting is displayed at a predetermined timing.
撮影のタイミングになったとき、ステップS13において、撮影制御部411は、アップ画像の撮影を行う。トリミング部412は、撮影によって得られた静止画像から、図13を参照して説明したような範囲の画像を切り出し、アップ画像を生成する。
When it is time to shoot, in step S13, the
トリミング部412により生成されたアップ画像は、撮影画像記憶部416に記憶されるとともに、表示制御部415に供給され、撮影結果としてタッチパネルモニタ92に表示される。アップ画像に対して、背景画像の合成などが画像処理部413により行われるようにしてもよい。
The up image generated by the
ステップS14において、撮影制御部411は、アップ画像の撮影を4回行ったか否かを判定する。アップ画像の撮影が4回終わったと判定されるまで、ステップS13に戻り、ライブビュー画面の表示とアップ画像の撮影が繰り返される。
In step S14, the
アップ画像の撮影が4回終わったとステップS14において判定された場合、処理はステップS15に進む。 If it is determined in step S14 that the up-image shooting has been completed four times, the process proceeds to step S15.
ステップS15において、イマドキ盛り撮影処理が行われる。イマドキ盛り撮影処理により、上述したような合成画像が撮影画像として生成される。イマドキ盛り撮影処理の詳細については図20のフローチャートを参照して後述する。 In step S15, an imprinting shooting process is performed. The composite image as described above is generated as a photographed image by the imprinting photographing process. Details of the imprinting imaging process will be described later with reference to the flowchart of FIG.
ステップS16において、表示制御部415は、タッチパネルモニタ92に誘導画面を表示させ、コーディネート画像用の立ち位置に誘導する。
In step S <b> 16, the
立ち位置の誘導が行われた後、ステップS17において、表示制御部415は、ライブビュー画面の表示を開始する。ライブビュー画面の構成は、図19を参照して説明した構成と同じである。表示領域451には、利用者の頭の上から膝下付近までが写るライブビュー画像が表示される。
After the standing position is guided, in step S17, the
撮影のタイミングになったとき、ステップS18において、撮影制御部411は、コーディネート画像の撮影を行う。トリミング部412は、撮影によって得られた画像から、図13を参照して説明したような範囲の画像を切り出し、コーディネート画像を生成する。
When it is time to shoot, in step S18, the
トリミング部412により生成されたコーディネート画像は、撮影画像記憶部416に記憶されるとともに、表示制御部415に供給され、撮影結果としてタッチパネルモニタ92に表示される。コーディネート画像に対して、背景画像の合成などが画像処理部413により行われるようにしてもよい。
The coordinated image generated by the
ステップS19において、表示制御部415は、案内画面をタッチパネルモニタ92に表示させることによって、撮影を終えた利用者に対して編集空間への移動を案内する。その後、図17のステップS3に戻り、それ以降の処理が行われる。
In step S19, the
<イマドキ盛り撮影処理>
図20のフローチャートを参照して、図18のステップS15において行われるイマドキ盛り撮影処理について説明する。
<Imadoki shooting process>
With reference to the flowchart of FIG. 20, the imprinting image capturing process performed in step S <b> 15 of FIG. 18 will be described.
図20に示す処理は、アップ画像の撮影の後に行われる。アップ画像の撮影時、タッチパネルモニタ92には、図13を参照して説明した枠F1の範囲の動画像がライブビュー画像として表示される。撮影制御部411からは動画像が供給され続ける。
The process shown in FIG. 20 is performed after the up image is captured. When the up image is taken, the moving image in the range of the frame F1 described with reference to FIG. 13 is displayed on the touch panel monitor 92 as a live view image. Moving images continue to be supplied from the
ステップS31において、トリミング部412は、トリミングにより切り出す範囲を変更することによって、ライブビュー画像の画角を変更する。画角を変更したライブビュー画像は、イマドキ盛り撮影前の表示に用いられる画像である。
In step S31, the
図21は、画角の変更の例を示す図である。 FIG. 21 is a diagram illustrating an example of changing the angle of view.
図21に示すように、例えば、破線の枠F11で示す範囲がトリミングの切り出し範囲として設定され、切り出される。枠F11で示す範囲は、アップ画像の画角より広い画角の範囲である。イマドキ盛り撮影前のライブビュー画像の表示には、アップ画像の画角より広い画角の動画像が用いられることになる。枠F11で示す範囲は、イマドキ盛り撮影前のライブビュー画像用の画角の範囲として固定的に予め設定されている。 As shown in FIG. 21, for example, a range indicated by a dashed frame F11 is set as a trimming cutout range and cut out. The range indicated by the frame F11 is a range of an angle of view wider than the angle of view of the up image. A moving image having a wider angle of view than the angle of view of the up image is used to display the live view image before imado shooting. The range indicated by the frame F11 is fixedly set in advance as the range of the angle of view for the live view image before taking a picture.
上述したように、イマドキ盛り撮影前、タッチパネルモニタ92には、コンテンツが合成されたライブビュー画像とともに、スタンプ画像の選択に用いられるボタンなどが表示される。利用者は、ライブビュー画像の表示を見ながらボタンを操作し、好みのスタンプ画像を選択する。 As described above, the button used for selecting the stamp image is displayed on the touch panel monitor 92 before live shooting, along with the live view image in which the content is combined. The user operates the button while watching the display of the live view image, and selects a favorite stamp image.
ここで、タッチパネルモニタ92に表示されたボタンを操作するためには、利用者はタッチパネルモニタ92に近づく必要がある。利用者がタッチパネルモニタ92に近づいた場合、カメラ91に近づくことになるから、仮に、ライブビュー画像の画角がアップ画像の画角と同じ画角であるとすると、図22に示すように、操作を行っている利用者の顔が画角に収まらなくなることがある。
Here, in order to operate the buttons displayed on the touch panel monitor 92, the user needs to approach the touch panel monitor 92. When the user approaches the touch panel monitor 92, the user approaches the
図22は、画角の変更を行わない場合のライブビュー画像の画角を示す図である。実際には、利用者が選択しているスタンプ画像を表すコンテンツが合成されたライブビュー画像が表示される。 FIG. 22 is a diagram illustrating the angle of view of the live view image when the angle of view is not changed. Actually, a live view image in which content representing a stamp image selected by the user is combined is displayed.
図22の例においては、スタンプ画像を選択するための操作を行っている左側の利用者の顔が収まっていない。この場合、顔認識が失敗するなどしてコンテンツの合成が正しく行われず、ライブビュー画像を見ながらスタンプ画像を選択するといったことができなくなる。 In the example of FIG. 22, the face of the left user who is performing an operation for selecting a stamp image does not fit. In this case, the composition of the content is not performed correctly due to face recognition failure or the like, and the stamp image cannot be selected while viewing the live view image.
スタンプ画像の選択を受け付けている間、画角を広げることにより、図23に示すように、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。右側の利用者が左側の利用者と同じようにタッチパネルモニタ92に近づいた場合、右側の利用者の顔も、左側の利用者の顔とともにライブビュー画像の画角に収まる。 While the selection of the stamp image is accepted, it is possible to display a live view image in which the face of the user performing the operation is within the angle of view as shown in FIG. 23 by widening the angle of view. Become. When the user on the right side approaches the touch panel monitor 92 in the same manner as the user on the left side, the face of the user on the right side is within the angle of view of the live view image together with the face of the user on the left side.
図20の説明に戻り、ステップS32において、トリミング部412は、撮影制御部411から供給された動画像の各フレームに対してトリミングを施し、画角を広げた動画像を生成する。トリミング部412により生成された動画像は画像処理部413に供給される。
Returning to the description of FIG. 20, in step S <b> 32, the
ステップS33において、画像処理部413は、デフォルトのスタンプ画像を表すコンテンツを、トリミング部412から供給された動画像に合成する。画像処理部413は、例えば動画像に映る利用者の顔を認識し、コンテンツを構成する鼻の画像を利用者の鼻の位置に合成するとともに、コンテンツを構成する耳の画像を利用者の頭の位置に合成する。
In step S <b> 33, the
デフォルトのスタンプ画像を表すコンテンツが合成された動画像が表示されることにより、イマドキ盛り撮影を行ったことのない利用者であっても、イマドキ盛り撮影がどのような撮影であるのかを容易に理解することができる。 By displaying a moving image in which content representing the default stamp image is combined, it is easy for users who have never taken a lively shot to see what kind of shot it is. I can understand.
ステップS34において、表示制御部415は、デフォルトのスタンプ画像を表すコンテンツを合成したライブビュー画像を含むスタンプ画像選択画面をタッチパネルモニタ92に表示させる。
In step S34, the
図24は、スタンプ画像選択画面の表示例を示す図である。 FIG. 24 is a diagram illustrating a display example of a stamp image selection screen.
図24に示すように、スタンプ画像選択画面の表示領域451には、コンテンツが合成されたライブビュー画像が表示される。ライブビュー画像の表示に用いられている動画像は、アップ画像の画角より広い画角の動画像である。タッチパネルモニタ92(カメラ91)に近づいていることにより、利用者の顔が大きく表示されている。
As shown in FIG. 24, a live view image in which contents are combined is displayed in the
図24の例においては、左側の利用者の鼻の位置には鼻画像501−1Lが合成され、頭の位置には耳画像501−2L,501−3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像501−1Rが合成され、頭の位置には耳画像501−2R,501−3Rが合成されている。 In the example of FIG. 24, a nose image 501-1L is synthesized at the left user's nose position, and ear images 501-2L and 501-3L are synthesized at the head position. Also, a nose image 501-1R is synthesized at the right user's nose position, and ear images 501-2R and 501-3R are synthesized at the head position.
鼻画像501−1Lと耳画像501−2L,501−3L、鼻画像501−1Rと耳画像501−2R,501−3Rは、デフォルトのスタンプ画像を表すコンテンツである。図24の例においては、猫の鼻と耳のスタンプ画像がデフォルトのスタンプ画像とされている。 The nose image 501-1L, the ear images 501-2L, 501-3L, the nose image 501-1R, and the ear images 501-2R, 501-3R are contents representing default stamp images. In the example of FIG. 24, the stamp image of the cat's nose and ear is the default stamp image.
このように、スタンプ画像選択画面においては、利用者の選択の内容がライブビュー画像の表示にリアルタイムで反映される。 Thus, on the stamp image selection screen, the content of the user's selection is reflected in real time on the display of the live view image.
表示領域451の下には、スタンプ画像を選択するときに操作されるボタン461−1乃至461−7が横に並べて表示されている。ボタン461−1の左側、ボタン461−7の右側にも、さらに多くのボタンが設けられる。円形のそれぞれのボタンには、それぞれのボタンを押したときに選択されるスタンプ画像を表すサンプルが表示されている。
Below the
図24の例においては、中央のボタン461−4が選択されており、他のボタンより大きく表示されている。ボタン461−4が、デフォルトのスタンプ画像を選択するときに操作されるボタンとなる。 In the example of FIG. 24, the center button 461-4 is selected and is displayed larger than the other buttons. The button 461-4 is a button that is operated when a default stamp image is selected.
利用者は、他のボタンを操作することによりライブビュー画像に合成されるコンテンツを切り替え、そのようにコンテンツが合成されたライブビュー画像を見て、好みのスタンプ画像を選択することができる。選択したスタンプ画像の色を利用者が変更することができるようにしてもよい。この場合、色の変更に用いられるボタンなどもスタンプ画像選択画面には用意される。 The user can switch the content to be combined with the live view image by operating other buttons, and can select a favorite stamp image by looking at the live view image with the content combined as such. The user may be able to change the color of the selected stamp image. In this case, buttons used for color change are also prepared on the stamp image selection screen.
表示領域451の右隣には、スタンプ画像の選択を終えるときに操作されるOKボタン462が表示される。
On the right side of the
図20の説明に戻り、ステップS35において、選択受付部414は、スタンプ画像が切り替えられたか否かを判定する。
Returning to the description of FIG. 20, in step S35, the
スタンプ画像が切り替えられたとステップS35において判定された場合、ステップS36において、画像処理部413は、利用者により選択されたスタンプ画像を表すコンテンツを動画像に合成する。
When it is determined in step S35 that the stamp image has been switched, in step S36, the
その後、ステップS34に戻り、利用者により新たに選択されたスタンプ画像を表すコンテンツが合成されたライブビュー画像がスタンプ画像選択画面に表示される。 Thereafter, the process returns to step S34, and the live view image in which the content representing the stamp image newly selected by the user is combined is displayed on the stamp image selection screen.
図25は、スタンプ画像選択画面の他の表示例を示す図である。 FIG. 25 is a diagram showing another display example of the stamp image selection screen.
例えばボタン461−3が操作された場合、図25に示すように、デフォルトのスタンプ画像を表すコンテンツに代えて、異なるコンテンツが合成されたライブビュー画像が表示される。 For example, when the button 461-3 is operated, as shown in FIG. 25, a live view image in which different contents are combined is displayed instead of the contents representing the default stamp image.
鼻画像502−1Lと耳画像502−2L,502−3L、鼻画像502−1Rと耳画像502−2R,502−3Rは、ボタン461−3を操作したときに選択されるスタンプ画像を表すコンテンツである。図25の例においては、犬の鼻と耳のスタンプ画像がボタン461−3を操作したときに選択されるスタンプ画像とされている。 The nose image 502-1L and the ear images 502-2L and 502-3L, and the nose image 502-1R and the ear images 502-2R and 502-3R are contents representing a stamp image selected when the button 461-3 is operated. It is. In the example of FIG. 25, the stamp image of the dog's nose and ear is selected when the button 461-3 is operated.
一方、スタンプ画像が切り替えられていないと図20のステップS35において判定された場合、ステップS37において、撮影制御部411は、スタンプ画像が決定されたか否かを判定する。
On the other hand, if it is determined in step S35 in FIG. 20 that the stamp image has not been switched, in step S37, the
スタンプ画像が決定されていないとステップS37において判定された場合、ステップS34に戻り、スタンプ画像選択画面の表示が続けられる。例えば、OKボタン462が操作された場合、または制限時間が経過した場合、その時合成されているスタンプ画像が決定されたものとして判定される。
If it is determined in step S37 that the stamp image has not been determined, the process returns to step S34 and the display of the stamp image selection screen is continued. For example, when the
スタンプ画像が決定されたとステップS37において判定された場合、ステップS38において、トリミング部412は、トリミングにより切り出す範囲を変更することによって、ライブビュー画像の画角をアップ画像の画角と同じ画角に戻す。
When it is determined in step S37 that the stamp image has been determined, in step S38, the
タッチパネルモニタ92には、アップ画像の画角と同じ画角のライブビュー画像が表示される。ライブビュー画像には、利用者により選択されたスタンプ画像を表すコンテンツが合成される。 On the touch panel monitor 92, a live view image having the same angle of view as that of the up image is displayed. Content representing the stamp image selected by the user is combined with the live view image.
ステップS39において、撮影制御部411は静止画像の撮影を行う。撮影された静止画像はトリミング部412に供給され、トリミングが施されることにより、アップ画像と同じ画角の、枠F1で示す範囲が切り出される。トリミング部412により切り出された画像(アップ画像)は画像処理部413に供給される。
In step S39, the
ステップS40において、画像処理部413は、利用者により選択されたスタンプ画像をトリミング部412から供給されたアップ画像に合成し、イマドキ盛り撮影の合成画像を生成する。
In step S <b> 40, the
ステップS41において、画像処理部413は、合成画像を撮影画像記憶部416に出力し、撮影画像として保存させる。合成画像が保存された後、図18のステップS15に戻り、それ以降の処理が行われる。
In step S41, the
図26は、ライブビュー画像の画角の変化の例を示す図である。 FIG. 26 is a diagram illustrating an example of a change in the angle of view of the live view image.
図26の横軸は時刻を表す。図26には、アップ画像の撮影前のライブビュー画像の表示開始から、イマドキ盛り撮影までの時間が示されている。イマドキ盛り撮影の後、上述したようにコーディネート画像の撮影前のライブビュー画像の表示などが行われる。 The horizontal axis of FIG. 26 represents time. FIG. 26 shows the time from the start of displaying the live view image before shooting the up image to the time when the image is taken. After taking a picture, the live view image before the coordinated image is taken is displayed as described above.
時刻t1においてライブビュー画像の表示が開始される。アップ画像の撮影前のライブビュー画像であるから、ここで表示されるライブビュー画像の画角は、アップ画像の画角と同じ画角(図21の枠F1の画角)である。 Display of the live view image is started at time t1. Since it is a live view image before the up image is captured, the angle of view of the live view image displayed here is the same as the angle of view of the up image (the angle of view of the frame F1 in FIG. 21).
ライブビュー画像の表示が開始されてから所定の時間経過後の時刻t2乃至t5のそれぞれのタイミングにおいて、アップ画像の撮影が行われる。 An up image is taken at each timing from time t2 to time t5 after the elapse of a predetermined time since the display of the live view image is started.
アップ画像の撮影が終わり、時刻t6において、スタンプ画像選択画面の表示が開始される。スタンプ画像選択画面に表示されるライブビュー画像の画角は、アップ画像の画角より広い画角(図21の枠F11の画角)である。 Shooting of the up image is completed, and display of the stamp image selection screen is started at time t6. The angle of view of the live view image displayed on the stamp image selection screen is wider than the angle of view of the up image (the angle of view of the frame F11 in FIG. 21).
スタンプ画像が決定された後の時刻t7において、ライブビュー画像の画角は、アップ画像の画角と同じ画角に戻される。画角が戻されてから所定時間経過後の時刻t8において、イマドキ盛り撮影が行われる。 At time t7 after the stamp image is determined, the angle of view of the live view image is returned to the same angle of view as that of the up image. Immediate shooting is performed at time t8 after a predetermined time has elapsed since the return of the angle of view.
以上のように、少なくとも、タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角を広げることにより、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。 As described above, at least while the selection using the display on the touch panel monitor 92 is accepted, the live view image is expanded so that the face of the user performing the operation is within the angle of view. A view image can be displayed.
顔が画角に収まっていることにより、利用者は、自分の顔に合成されるコンテンツを見ながら、スタンプ画像を選択することができる。 Since the face is within the angle of view, the user can select the stamp image while viewing the content to be combined with his / her face.
時刻t2乃至t5の期間のライブビュー画像の画角がアップ画像の画角と同一画角であり、時刻t7以降において、ライブビュー画像の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。撮影時、利用者は後ろに下がりがちとなるため、イマドキ盛り撮影の画角をアップ画像の画角より狭くすることにより、利用者同士がより近づいた画像を撮影することが可能となる。 The angle of view of the live view image in the period from time t2 to time t5 is the same as the angle of view of the up image, and after time t7, the angle of view narrower than the angle of view of the up image is set as the angle of view of the live view image. You may be made to do. At the time of shooting, the user tends to fall backward, so by narrowing the angle of view of the close-up shooting to the angle of view of the up image, it becomes possible to take images closer to each other.
反対に、時刻t7以降におけるライブビュー画像の画角をアップ画像の画角と同一画角とし、時刻t2乃至t5の期間のライブビュー画像の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。 Conversely, the angle of view of the live view image after time t7 is the same as the angle of view of the up image, and the angle of view of the live view image during the period from time t2 to t5 is narrower than the angle of view of the up image. It may be set.
時刻t2乃至t5の期間のライブビュー画像の画角と、時刻t7以降のライブビュー画像の画角の双方の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。これにより、利用者同士がより近づいた画像を撮影することが可能となる。 An angle of view narrower than the angle of view of the up image may be set as the angle of view of both the angle of view of the live view image during the period from time t2 to time t5 and the angle of view of the live view image after time t7. . As a result, it is possible to take an image in which the users are closer to each other.
時刻t2乃至t5の期間のライブビュー画像用の撮影として、アップ画像より画角が広いバストアップ画像の撮影が行われ、時刻t7以降の期間のライブビュー画像用の撮影として、アップ画像の画角と同一画角の撮影が行われるようにしてもよい。 A bust-up image having a wider angle of view than the up image is taken as a live view image during the period from time t2 to t5, and a view angle of the up image is taken as a live view image during the period after time t7. It is also possible to perform shooting at the same angle of view.
反対に、時刻t7以降の期間のライブビュー画像用の撮影として、バストアップ画像の撮影が行われ、時刻t2乃至t5の期間のライブビュー画像用の撮影として、アップ画像と同一画角の撮影が行われるようにしてもよい。 On the other hand, a bust-up image is taken as a live view image for a period after time t7, and a live view image is taken at the same angle of view as a live view image for a period from time t2 to t5. It may be performed.
<画角調整の例>
ライブビュー画像の画角を予め設定された固定の画角にまで広げるものとしたが、トリミングにより切り出す範囲の位置を調整するなどして、画角を調整するようにしてもよい。
<Example of angle of view adjustment>
Although the angle of view of the live view image is extended to a preset fixed angle of view, the angle of view may be adjusted by adjusting the position of the range to be cut out by trimming.
図27は、利用者が1人である場合の画角調整の例を示す図である。 FIG. 27 is a diagram illustrating an example of angle of view adjustment when there is one user.
図27の枠F21に示す範囲はライブビュー画像の画角の範囲である。図27の左側に示すように、利用者の顔がライブビュー画像の画角に収まっていない場合、白抜き矢印の先に示すように、利用者の顔が収まるように、ライブビュー画像の画角が調整される。 A range indicated by a frame F21 in FIG. 27 is a field angle range of the live view image. As shown on the left side of FIG. 27, when the user's face is not within the angle of view of the live view image, the live view image is displayed so that the user's face is within the range as indicated by the tip of the white arrow. The corner is adjusted.
この場合、トリミング部412は、撮影制御部411から供給された動画像の各フレームを解析することによって利用者の顔を認識し、利用者の顔が画角に収まるようにトリミング範囲の位置を調整することになる。トリミング範囲の位置だけでなく、範囲の大きさも適宜調整される。
In this case, the
タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角をこのようにして調整することによって、少なくとも、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。 While accepting the selection using the display on the touch panel monitor 92, by adjusting the angle of view of the live view image in this way, at least the live of the user performing the operation is within the angle of view. A view image can be displayed.
図28は、利用者が複数人である場合の画角調整の例を示す図である。 FIG. 28 is a diagram illustrating an example of angle of view adjustment when there are a plurality of users.
図28に示すように、利用者が複数人である場合、カメラ91に近い利用者の顔が収まるように、ライブビュー画像の画角が調整される。それぞれの利用者の位置は、例えば、カメラ91により撮影された画像にクロマキー処理などを施して得られた、人物の領域を表すマスク画像に基づいて特定される。
As shown in FIG. 28, when there are a plurality of users, the angle of view of the live view image is adjusted so that the user's face close to the
図28の左側に示すように、カメラ91に近い利用者の顔がライブビュー画像の画角に収まっていない場合、白抜き矢印の先に示すように、カメラ91に近い利用者の顔が収まるように、ライブビュー画像の画角が調整される。
As shown on the left side of FIG. 28, when the face of the user close to the
大きく写っている利用者はタッチパネルモニタ92の操作を行っている利用者であると考えられる。タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角をこのようにして調整することによって、操作を行っている利用者は、少なくとも、自分の顔が画角に収まっているライブビュー画像を確認することができる。 It can be considered that the user who is shown largely is a user who operates the touch panel monitor 92. While accepting the selection using the display on the touch panel monitor 92, by adjusting the angle of view of the live view image in this way, at least the user who is performing the operation has his / her face within the angle of view. The live view image can be confirmed.
利用者が複数人である場合、ライブビュー画像の画角に収める人物が以下のように設定されるようにしてもよい。 When there are a plurality of users, the person who falls within the angle of view of the live view image may be set as follows.
・カメラ91から遠い利用者(背面に近い利用者)の顔が収まるように、ライブビュー画像の画角を調整する。
・全員の顔が収まるように、ライブビュー画像の画角を調整する。
-Adjust the angle of view of the live view image so that the face of the user far from the camera 91 (the user near the back) is settled.
・ Adjust the angle of view of the Live View image so that everyone's faces fit.
カメラ91から遠い利用者の顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、背面に近い利用者にコンテンツが合成される様子を見てスタンプ画像を選択することができる。
By adjusting the angle of view so that the face of the user far from the
全員の顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、全員の写りを見てスタンプ画像を選択することができる。 By adjusting the angle of view so that everyone's faces can be accommodated, the user who operates the touch panel monitor 92 can select a stamp image by looking at the reflection of everyone.
図29は、全員の顔を収める場合の画角の調整例を示す図である。 FIG. 29 is a diagram illustrating an example of adjusting the angle of view when all the faces are accommodated.
図29の枠F31に示す範囲は原画像の画角の範囲である。枠F21に示す範囲は、ライブビュー画像の画角の範囲である。原画像を対象として顔認識が行われ、正方形の枠f1と枠f2で示す範囲に顔が写っていることが検出されている。枠f1と枠f2は、鼻の位置を中点とし、眉から顎先までが入るような正方形である。 A range indicated by a frame F31 in FIG. 29 is a range of an angle of view of the original image. The range indicated by the frame F21 is the range of the angle of view of the live view image. Face recognition is performed on the original image, and it is detected that the face appears in the range indicated by the square frames f1 and f2. The frame f1 and the frame f2 are squares with the position of the nose as a midpoint and from the eyebrows to the chin.
図29の左端の例においては、カメラ91に近い利用者の顔全体がライブビュー画像の画角に収まっていない。この場合、図29の中央に示すように、2つの正方形の枠f1と枠f2の外周を含めるような四角形の枠f11が設定される。
In the example at the left end of FIG. 29, the entire face of the user close to the
また、図29の右側に示すように、枠f11が収まるようにライブビュー画像の画角が調整される。これにより、全員の顔が画角に収まっているライブビュー画像を表示させることが可能となる。 Also, as shown on the right side of FIG. 29, the angle of view of the live view image is adjusted so that the frame f11 fits. As a result, it is possible to display a live view image in which all the faces are within the angle of view.
また、ライブビュー画像の画角に収める範囲が以下のように設定されるようにしてもよい。 In addition, the range within the angle of view of the live view image may be set as follows.
・顔が収まるように、ライブビュー画像の画角を調整する。
・バストアップ(略胸から上の範囲)が収まるように、ライブビュー画像の画角を調整する。
・全身が収まるように、ライブビュー画像の画角を調整する。
・ Adjust the angle of view of the Live View image so that the face fits.
-Adjust the angle of view of the live view image so that the bust-up (roughly above the chest) is within the range.
・ Adjust the angle of view of the live view image so that the whole body fits.
顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、自分の顔の写りを見てスタンプ画像を選択することができる。 By adjusting the angle of view so that the face fits in, the user operating the touch panel monitor 92 can select a stamp image by looking at the reflection of his / her face.
また、バストアップが収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、自分の顔の写りと全体のバランスを見てスタンプ画像を選択することができる。 Further, by adjusting the angle of view so that the bust-up is settled, the user who operates the touch panel monitor 92 can select the stamp image by looking at his / her face and the overall balance. .
全身が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、全身の写りを見てスタンプ画像を選択することができる。 By adjusting the angle of view so that the whole body can be accommodated, the user who operates the touch panel monitor 92 can select the stamp image by looking at the whole body.
このように、ライブビュー画像の画角に収める対象とする人物と範囲については、適宜、組み合わせて設定することが可能である。 As described above, the target person and range to be included in the angle of view of the live view image can be set in combination as appropriate.
例えば、コンテンツ全体が画角に収まるように画角を調整するようにしてもよい。 For example, the angle of view may be adjusted so that the entire content falls within the angle of view.
図30は、コンテンツを収める場合の画角の調整例を示す図である。 FIG. 30 is a diagram illustrating an example of adjusting the angle of view when content is stored.
図30の枠F21に示す範囲は、コンテンツが合成されたライブビュー画像の画角の範囲である。図30の例においては、左側の利用者の鼻の位置には鼻画像431−1Lが合成され、頭の位置には耳画像431−2L,431−3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像431−1Rが合成され、頭の位置には耳画像431−2R,431−3Rが合成されている。 A range indicated by a frame F21 in FIG. 30 is a range of an angle of view of a live view image in which content is synthesized. In the example of FIG. 30, a nose image 431-1L is synthesized at the position of the left user's nose, and ear images 431-2L and 431-3L are synthesized at the position of the head. Also, a nose image 431-1R is synthesized at the right user's nose position, and ear images 431-2R and 431-3R are synthesized at the head position.
左側の利用者の頭の位置に合成されている耳画像431−2L,431−3Lと、右側の利用者の頭の位置に合成されている耳画像431−2R,431−3Rは、ライブビュー画像の画角に収まっていない。 The ear images 431-2L and 431-3L synthesized at the left user's head position and the ear images 431-2R and 431-3R synthesized at the right user's head position are live views. It is not within the angle of view of the image.
この場合、白抜き矢印の先に示すように、耳画像431−2L,431−3Lと耳画像431−2R,431−3R全体が収まるように、ライブビュー画像の画角が調整される。 In this case, as indicated by the tip of the white arrow, the angle of view of the live view image is adjusted so that the ear images 431-2L and 431-3L and the entire ear images 431-2R and 431-3R are accommodated.
コンテンツ全体が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、タッチパネルモニタ92に近づいている場合でもコンテンツ全体を見てスタンプ画像を選択することができる。なお、画角の調整は、アスペクト比を保ったまま行われる。 By adjusting the angle of view so that the entire content can be accommodated, a user who operates the touch panel monitor 92 can select a stamp image while viewing the entire content even when the user is approaching the touch panel monitor 92. . Note that the angle of view is adjusted while maintaining the aspect ratio.
<対象となる撮影画像の画角>
アップ画像と同じ画角の画像の撮影時(イマドキ盛り撮影時)に画角の調整を行うものとしたが、全身画像と同じ画角の画像の撮影時に画角の調整が行われるようにしてもよい。
<Field of view of the target image>
The angle of view is adjusted when shooting an image with the same angle of view as that of the close-up image (when taking a picture), but the angle of view is adjusted when shooting an image with the same angle of view as the whole-body image. Also good.
また、コーディネート画像と同じ画角の画像の撮影時に画角の調整が行われるようにしてもよい。 The angle of view may be adjusted when an image having the same angle of view as the coordinated image is captured.
<画角の調整方法>
画角の調整方法として、以下のような各種の調整方法を採用することが可能である。
・利用者の位置を検知して画角の大きさを調整する。
・利用者の位置を検知することにより、利用者が左右のいずれかに極端に寄っていることを検出した場合、画角の範囲を左右に移動させる。
・タッチパネルモニタ92にスタンプ画像選択画面を表示している間は、カメラ91に近い利用者が収まるように画角を調整する。
・タッチパネルモニタ92の表示を用いた選択を受け付けている間は、カメラ91に近い利用者が収まるように画角を調整する。
・タッチパネルモニタ92を押下してから所定時間内は、カメラ91に近い利用者が収まるように画角を調整する。
・利用者が動いて画角から外れた場合、利用者の動きに追従するように画角を調整する。
<How to adjust the angle of view>
As the angle of view adjustment method, the following various adjustment methods can be employed.
-Detect the user's position and adjust the angle of view.
-If it is detected that the user is extremely close to either the left or right by detecting the position of the user, the range of the view angle is moved to the left or right.
While the stamp image selection screen is displayed on the touch panel monitor 92, the angle of view is adjusted so that the user close to the
While the selection using the display on the touch panel monitor 92 is accepted, the angle of view is adjusted so that the user close to the
The angle of view is adjusted so that a user close to the
-When the user moves and deviates from the angle of view, the angle of view is adjusted to follow the user's movement.
<画角調整の実現方法>
トリミング範囲の変更により画角の調整が行われるものとしたが、カメラ91のレンズのズームを制御することによって、ライブビュー画像の画角を調整するようにしてもよい。
<Realization method of angle of view adjustment>
Although the angle of view is adjusted by changing the trimming range, the angle of view of the live view image may be adjusted by controlling the zoom of the lens of the
なお、画角の調整をトリミングによって実現することにより、カメラ91のズーム機構を動作させるための処理の負担を軽減することができる。
Note that by realizing the adjustment of the angle of view by trimming, it is possible to reduce the processing burden for operating the zoom mechanism of the
カメラ91のレンズの光軸の方向を制御することによって、ライブビュー画像の画角を調整するようにしてもよい。
The angle of view of the live view image may be adjusted by controlling the direction of the optical axis of the lens of the
原画像上に設定したトリミング枠を動かすことによって画角を調整するのではなく、トリミング枠を固定とし、原画像を動かすことによってライブビュー画像の画角を調整するようにしてもよい。 Instead of adjusting the angle of view by moving the trimming frame set on the original image, the angle of view of the live view image may be adjusted by moving the original image with the trimming frame fixed.
<コンテンツの表示>
・利用者により選択されたスタンプ画像を表すコンテンツを合成して表示させる。
・コンテンツをアニメーションで表示し続ける。
・コンテンツをアニメーションで表示し、所定時間が経過すると、スタンプ画像を用いたコンテンツ(アニメーションではないコンテンツ)に変更してもよい。
・ライブビュー画像に合成されるコンテンツと、静止画像に合成されるコンテンツ(スタンプ画像)は同一ではない。
<Display content>
-The contents representing the stamp image selected by the user are combined and displayed.
・ Continue to display content with animation.
The content may be displayed as an animation, and after a predetermined time has elapsed, the content may be changed to a content using a stamp image (content that is not an animation).
The content combined with the live view image and the content combined with the still image (stamp image) are not the same.
<スタンプ画像の再選択>
スタンプ画像の再選択が以下のようにして行われるようにしてもよい。
<Reselect stamp image>
The re-selection of the stamp image may be performed as follows.
・事前選択空間A0においてスタンプ画像の選択が行われる場合、選択されたスタンプ画像を撮影空間A1において変更することができるようにしてもよい。
・撮影空間A1において、OKボタン462(図24)を押下することによってスタンプ画像が決定された場合でも、所定時間内はスタンプ画像を変更することができるようにしてもよい。
・スタンプ画像の選択に割り当てられた所定時間が経過し、かつOKボタン462が押下されていない場合、最後に選択されたスタンプ画像を表すコンテンツが合成されるようにしてもよい。
When the stamp image is selected in the pre-selected space A0, the selected stamp image may be changed in the shooting space A1.
In the shooting space A1, even when the stamp image is determined by pressing the OK button 462 (FIG. 24), the stamp image may be changed within a predetermined time.
If the predetermined time allotted to the selection of the stamp image has elapsed and the
<コンテンツの例>
ライブビュー画像の表示に用いられるコンテンツには、以下のように様々なコンテンツがある。
<Example of content>
The content used for displaying the live view image includes various contents as follows.
(1)固定スタンプ画像を表すコンテンツ
固定スタンプ画像は、画角における位置を固定して表示されるスタンプ画像である。
(2)くっつきスタンプ画像を表すコンテンツ
くっつきスタンプ画像は、利用者の所定の部位の位置に追従して表示されるスタンプ画像である。くっつきスタンプ画像を表すコンテンツが、以下のような変化のあるアニメーションとして表示されるようにしてもよい。
・回転
・上下の移動
・拡縮
・左右の移動
・透過度変更
・色変更
(3)オーラ
(4)ベール
(5)フレーム
オーラ、ベール、フレームは、利用者の体の周りに画像を合成するコンテンツである。
(1) Content Representing a Fixed Stamp Image A fixed stamp image is a stamp image that is displayed with a fixed position at an angle of view.
(2) Content Representing the Sticking Stamp Image The sticking stamp image is a stamp image displayed following the position of a predetermined part of the user. The content representing the sticking stamp image may be displayed as an animation with the following changes.
・ Rotation ・ Up and down movement ・ Enlargement and reduction ・ Left and right movement ・ Transparency change ・ Color change (3) Aura (4) Veil (5) Frame Aura, veil, and frame are contents that synthesize an image around the user's body It is.
<アニメーションの例>
ここで、コンテンツのアニメーションについて説明する。
<Example of animation>
Here, the animation of content will be described.
図31は、コンテンツを構成する画像が回転するアニメーションの例を示す図である。 FIG. 31 is a diagram illustrating an example of an animation in which an image constituting the content rotates.
図31に示すコンテンツは、図15等を参照して説明したウサギの鼻と耳を表現したスタンプ画像が選択されている場合に合成されるコンテンツである。コンテンツは、ウサギの鼻の画像と耳の画像から構成される。 The content shown in FIG. 31 is the content that is synthesized when the stamp image representing the nose and ear of the rabbit described with reference to FIG. 15 and the like is selected. The content is composed of a rabbit nose image and an ear image.
図31の左側のライブビュー画像上においては耳の画像が右に傾き、右側のライブビュー画像上においては耳の画像が左に傾いている。いずれのライブビュー画像上においても、耳の画像の例えば根元の位置は固定とされている。このように角度が異なる耳の画像が1秒間隔などで交互に表示されることにより、コンテンツが回転するアニメーションが実現される。 The ear image is tilted to the right on the left live view image in FIG. 31, and the ear image is tilted to the left on the right live view image. In any live view image, for example, the root position of the ear image is fixed. In this way, the images of the ears having different angles are alternately displayed at intervals of 1 second, thereby realizing an animation in which the content rotates.
このようなライブビュー画像が表示された後、イマドキ盛り撮影によってアップ画像が撮影され、撮影によって得られたアップ画像に対して、傾きのない耳の画像を含むスタンプ画像が合成される。 After such a live view image is displayed, an up image is taken by imposing shooting, and a stamp image including an ear image without inclination is combined with the up image obtained by the shooting.
図32は、コンテンツを構成する画像の位置が変化するアニメーションの例を示す図である。 FIG. 32 is a diagram illustrating an example of an animation in which the position of an image constituting the content changes.
図32に示すコンテンツは、図31に示すコンテンツと同じコンテンツである。図32の左側のライブビュー画像上においては耳の画像が頭の上方の位置に配置され、右側のライブビュー画像上においては耳の画像が頭の下方の位置(略額の位置)に配置されている。このように位置が異なる耳の画像が1秒間隔などで交互に表示されることにより、コンテンツが上下に動くアニメーションが実現される。 The content shown in FIG. 32 is the same content as the content shown in FIG. 32, the ear image is arranged at a position above the head on the left live view image, and the ear image is arranged at a position below the head (substantially forehead position) on the right live view image. ing. In this way, the images of the ears at different positions are alternately displayed at intervals of 1 second, thereby realizing an animation in which the content moves up and down.
このようなライブビュー画像が表示された後、イマドキ盛り撮影によってアップ画像が撮影され、撮影によって得られたアップ画像に対して、耳の画像が図32に示す位置と異なる位置に合成される。 After such a live view image is displayed, an up image is shot by imposing shooting, and an ear image is synthesized at a position different from the position shown in FIG. 32 with respect to the up image obtained by shooting.
以下、コンテンツを構成する画像の変化についてさらに説明する。 Hereinafter, the change of the image constituting the content will be further described.
(1)回転
図33は、回転の例を示す図である。
(1) Rotation FIG. 33 is a diagram illustrating an example of rotation.
図33の表示1、表示2として示す三角形は、コンテンツを構成する画像を表す。1つの三角形が、例えば上述したウサギの耳を表す1つの画像に相当する。図34乃至図40においても同様である。
The triangles shown as
表示1、表示2として示すように、所定の位置である位置p1を中心として角度を変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p1を中心として画像が左に傾いており、表示2においては、位置p1を中心として画像が右に傾いている。
As shown as
例えば利用者の頭部の位置に合成する画像の場合、頭部と接する、画像の下辺の中点が位置p1として設定される。チークを表す画像、動物の鼻を表す画像、サングラスを表す画像などの、顔の周辺に合成する画像の場合、顔の中心である鼻の位置が、回転の中心として設定される。 For example, in the case of an image to be combined with the position of the user's head, the midpoint of the lower side of the image that touches the head is set as the position p1. In the case of an image to be synthesized around the face, such as an image representing a cheek, an image representing an animal nose, or an image representing sunglasses, the position of the nose, which is the center of the face, is set as the center of rotation.
図33の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、位置p1を通る垂直軸L上に頂点がくる向きで配置された画像が合成される。 As shown on the left side of FIG. 33, an image arranged in such a direction that the apex comes on the vertical axis L passing through the position p1 is synthesized with the up image obtained by the imprinting.
このように、ライブビュー画像の表示を行っている場合、位置p1を中心として角度を変える画像が動画像に合成され、アニメーション表示が実現される。 As described above, when the live view image is displayed, an image whose angle is changed around the position p1 is combined with the moving image, and animation display is realized.
(2)上下の移動
図34は、上下の移動の例を示す図である。
(2) Vertical movement FIG. 34 is a diagram illustrating an example of vertical movement.
表示1、表示2として示すように、画像の高さを変える画像が、コンテンツを構成する画像として動画像に合成される。
As shown as
例えば利用者の頭部の位置に合成する画像の場合、頭部の所定の位置を通る水平軸L2が設定される。水平軸L2を中心として上下に所定の間隔をあけて水平軸L1,L3が設定され、表示1においては、水平軸L1の高さに下辺がくるように画像が配置され、表示2においては、水平軸L3の高さに下辺がくるように画像が配置される。チークを表す画像、動物の鼻を表す画像、サングラスを表す画像などの、顔の周辺に合成する画像の場合、顔の中心を通るように水平軸L2が設定される。
For example, in the case of an image to be combined with the position of the user's head, a horizontal axis L2 passing through a predetermined position of the head is set. Horizontal axes L1 and L3 are set with a predetermined interval in the vertical direction with the horizontal axis L2 as the center. In the
図34の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、下辺が水平軸L2と同じ高さに配置された画像が合成される。 As shown on the left side of FIG. 34, an image in which the lower side is arranged at the same height as the horizontal axis L2 is combined with the up image obtained by the imprinting.
このように、ライブビュー画像の表示を行っている場合、所定の等しい幅だけ上下に位置を変える画像が動画像に合成され、アニメーション表示が実現される。このようなアニメーションは、静止画像に合成されるスタンプ画像と見た目の印象の差異が少ない画像を用いたアニメーションといえる。 In this way, when a live view image is displayed, an image whose position is changed up and down by a predetermined equal width is combined with a moving image, and animation display is realized. Such an animation can be said to be an animation using an image with little difference in visual impression from a stamp image synthesized with a still image.
(3)拡縮
図35は、拡縮の例を示す図である。
(3) Enlargement / reduction FIG. 35 is a diagram illustrating an example of enlargement / reduction.
表示1、表示2として示すように、画像の所定の位置である位置p1を基準として大きさを変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p1を基準として画像が縮小し、表示2においては、位置p1を基準として画像が拡大している。
As shown as
例えば利用者の頭部の位置に合成する画像の場合、頭部と接する、画像の下辺の中点が位置p1として設定される。 For example, in the case of an image to be combined with the position of the user's head, the midpoint of the lower side of the image that touches the head is set as the position p1.
図35の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、表示1、表示2に示す大きさとは異なる大きさの画像が位置p1を基準として配置され、合成される。
As shown on the left side of FIG. 35, an image having a size different from the sizes shown in
このように、ライブビュー画像の表示を行っている場合、位置p1を基準として大きさを変える画像が動画像に合成され、アニメーション表示が実現される。 As described above, when the live view image is displayed, an image whose size is changed with the position p1 as a reference is combined with the moving image, thereby realizing an animation display.
図36は、拡縮の他の例を示す図である。 FIG. 36 is a diagram illustrating another example of enlargement / reduction.
図36に示す画像の拡縮は、拡縮の基準となる位置が異なる点で図35に示す拡縮と異なる。図36の例においては、画像の中心が拡縮の基準となる中点p2として設定されている。 The enlargement / reduction of the image shown in FIG. 36 differs from the enlargement / reduction shown in FIG. 35 in that the position serving as a reference for enlargement / reduction is different. In the example of FIG. 36, the center of the image is set as a midpoint p2 that serves as a scaling reference.
表示1、表示2として示すように、画像の中心である位置p2を中心として大きさを変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p2を中心として画像が縮小し、表示2においては、位置p2を中心として画像が拡大している。
As shown as
このように、拡縮の基準となる位置を任意に設定することが可能である。 In this way, it is possible to arbitrarily set a position serving as a reference for scaling.
(4)左右の移動
図37は、左右の移動の例を示す図である。
(4) Left / Right Movement FIG. 37 is a diagram illustrating an example of left / right movement.
表示1、表示2として示すように、所定の位置である位置p3を中心として左右に位置を変える画像が、コンテンツを構成する画像として動画像に合成される。
As shown as
例えば利用者の頭部の位置に合成する画像の場合、頭部と接する位置が位置p3として設定される。表示1においては、右端が位置p3にくるように画像が配置され、表示2においては、左端が位置p3にくるように画像が配置される。
For example, in the case of an image to be combined with the position of the user's head, the position in contact with the head is set as the position p3. In
図37の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、下辺の中心が位置p3にくるように配置された画像が合成される。 As shown on the left side of FIG. 37, an image arranged so that the center of the lower side is located at the position p3 is combined with the up image obtained by the imprinting.
このように、ライブビュー画像の表示を行っている場合、所定の等しい幅だけ左右に位置を変える画像が動画像に合成され、アニメーション表示が実現される。 In this way, when a live view image is displayed, an image whose position is shifted to the left and right by a predetermined equal width is combined with the moving image, thereby realizing an animation display.
(5)透過度変更
図38は、透過度変更の例を示す図である。
(5) Transparency Change FIG. 38 is a diagram illustrating an example of transparency change.
図38に示すように、透過度を変える画像が、コンテンツを構成する画像として動画像に合成される。図38の例においては、0%、50%、80%の3段階の透過度が設定されている。図38において、三角形の濃淡が異なることは、透過度が異なることを表している。 As shown in FIG. 38, an image whose transparency is changed is combined with a moving image as an image constituting the content. In the example of FIG. 38, three levels of transparency of 0%, 50%, and 80% are set. In FIG. 38, the fact that the shades of triangles are different means that the transmittance is different.
静止画像に合成されるスタンプ画像より透過度が高い画像からなるコンテンツが合成されるようにしてもよいし、透過度が低い画像からなるコンテンツが合成されるようにしてもよい。 Content consisting of an image with higher transparency than the stamp image combined with the still image may be synthesized, or content consisting of an image with low transparency may be synthesized.
図38の左側に示すように、イマドキ盛り撮影によって得られた静止画像に対しては、透過度が0%の画像が合成される。 As shown on the left side of FIG. 38, an image having a transparency of 0% is combined with a still image obtained by imposing imaging.
このように、ライブビュー画像の表示を行っている場合、透過度が変化する画像が動画像に合成され、アニメーション表示が実現される。 As described above, when a live view image is displayed, an image whose transparency changes is combined with a moving image, thereby realizing an animation display.
(6)色変更
図39は、色変更の例を示す図である。
(6) Color Change FIG. 39 is a diagram illustrating an example of color change.
図39に示すように、色を順次変える画像が、コンテンツを構成する画像として動画像に合成される。図39の例においては、色1乃至4として示すように4種類の色が設定されている。色1乃至4は、例えば同系色のグラデーションを構成する色である。図39において、三角形の濃淡が異なることは、色が異なることを表している。例えば、明度が高い色から低い色に色を順に変える画像が表示される。
As shown in FIG. 39, images whose colors are changed sequentially are combined with a moving image as an image constituting content. In the example of FIG. 39, four types of colors are set as shown as
図39の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、色1乃至4と同系色であり、明度が色1より低い色の画像が合成される。
As shown on the left side of FIG. 39, an image having a color similar to
このように、ライブビュー画像の表示を行っている場合、色が変化する画像が動画像に合成され、アニメーション表示が実現される。 In this way, when a live view image is displayed, an image whose color changes is combined with a moving image, and an animation display is realized.
図40は、色変更の他の例を示す図である。 FIG. 40 is a diagram illustrating another example of color change.
図40に示す色変更は、種類が異なる色が用いられる点で図39に示す色変更と異なる。図40の例においては、色1、色2として示すように、2種類の色が設定されている。色1、色2として交互に色を変える画像が、コンテンツを構成する画像として動画像に合成される。
The color change shown in FIG. 40 is different from the color change shown in FIG. 39 in that different types of colors are used. In the example of FIG. 40, two types of colors are set as shown as
図40の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、色1、色2のいずれの色とも異なる色の画像が合成される。
As shown on the left side of FIG. 40, an image of a color different from both the
このように、ライブビューの画像の表示を行っている場合、色が交互に切り替わることによって点滅表示する画像が動画像に合成され、アニメーション表示が実現される。例えば、色1は緑色であり、色2は青色である。この場合、イマドキ盛り撮影によって得られたアップ画像に対しては例えば赤色のスタンプ画像が合成される。
In this way, when a live view image is displayed, an image that blinks is synthesized with a moving image by switching colors alternately, thereby realizing an animation display. For example,
以上のように、コンテンツのアニメーション表示は、コンテンツを構成する画像の角度、位置、大きさ、透過度、色を変化させることによって実現される。角度の変化、位置の変化、大きさの変化、透過度の変化、色の変化のうち、2種類以上の変化を組み合わせて用いられるようにしてもよい。 As described above, the animation display of content is realized by changing the angle, position, size, transparency, and color of the images constituting the content. Two or more types of changes among angle change, position change, size change, transmittance change, and color change may be used in combination.
<画角の形状>
イマドキ盛り撮影の合成画像の形状が縦長長方形であるものとしたが、他の形状であってもよい。
<Shape of angle of view>
Although the shape of the composite image for imado shooting is assumed to be a vertically long rectangle, other shapes may be used.
画角の形状として、以下のような各種の形状を採用することが可能である。
・正方形
・略正方形
・縦長の長方形
・横長の長方形
・丸形
・三角形
・各種SNSで用いられる画像に応じた形状
・角丸正方形
・縦長の角丸長方形
・横長の角丸長方形
As the shape of the angle of view, the following various shapes can be adopted.
・ Square ・ Approximate square ・ Vertical rectangle ・ Horizontal rectangle ・ Round ・ Triangle ・ Shape according to the image used on various SNS ・ Rounded square ・ Vertical rounded rectangle ・ Horizontal rounded rectangle
<レタッチ処理の内容の選択>
ライブビュー画像の表示を見ながら利用者に選択させる内容が、静止画像に合成するスタンプ画像の種類であるものとしたが、他の内容を選択させるようにしてもよい。例えば、レタッチ処理の内容を選択させるようにすることが可能である。
<Selecting the contents of retouch processing>
The content that the user selects while watching the display of the live view image is the type of stamp image to be combined with the still image, but other content may be selected. For example, the content of the retouch process can be selected.
レタッチ処理は、目の大きさの調整、目の形の調整、肌の明るさの調整などの、撮影画像に写る利用者の特定の部位に対する画像処理である。 The retouch process is an image process for a specific part of the user that appears in the photographed image, such as an eye size adjustment, an eye shape adjustment, and a skin brightness adjustment.
ライブビュー画像を見ながら利用者により選択されたレタッチ処理の内容と同じ内容のレタッチ処理が、静止画像に対して施される。レタッチ処理の内容の選択を受け付けている間、ライブビュー画像の画角が、スタンプ画像の種類の選択を受け付けている間と同様に広げられる。 The retouch process having the same content as the retouch process selected by the user while viewing the live view image is performed on the still image. While accepting the selection of the content of the retouch process, the angle of view of the live view image is expanded in the same manner as when accepting the selection of the type of stamp image.
図41は、レタッチ選択画面の例を示す図である。 FIG. 41 is a diagram illustrating an example of a retouch selection screen.
図41に示すレタッチ選択画面は、目の形の選択に用いられる画面である。図41に示すような画面が、例えば、目の形を変更するための画像処理を施す対象となる静止画像の撮影前に表示される。図24を参照して説明した表示と同じ表示については、説明を適宜省略する。 The retouch selection screen shown in FIG. 41 is a screen used for selecting an eye shape. A screen as shown in FIG. 41 is displayed, for example, before shooting a still image to be subjected to image processing for changing the shape of the eyes. Description of the same display as that described with reference to FIG. 24 will be omitted as appropriate.
図41の例においては、利用者のバストアップが入るように画角が調整されたライブビュー画像が表示領域451に表示されている。レタッチ処理の対象となる画像が全身画像である場合、利用者の全身が写るライブビュー画像が表示される。
In the example of FIG. 41, a live view image whose angle of view is adjusted so that the user's bust-up is entered is displayed in the
表示領域451の下には、目の形を選択するときに操作されるボタン551−1乃至551−4が横に並べて表示されている。それぞれのボタンには、それぞれのボタンを押したときに選択されるレタッチ処理を表すサンプルが表示されている。
Below the
ボタン551−1は、目を丸くするレタッチ処理を行うときに操作されるボタンである。ボタン551−2は、目をネコの目のように変形するレタッチ処理を行うときに操作されるボタンである。ボタン551−3は、目をたれ目に変形するレタッチ処理を行うときに操作されるボタンである。ボタン551−4は、レタッチ処理を行わない(目のかたちを変更しない)ときに操作されるボタンである。 The button 551-1 is a button operated when performing a retouch process for rounding the eyes. The button 551-2 is a button operated when performing a retouch process for deforming the eyes like a cat's eyes. The button 551-3 is a button that is operated when performing a retouch process that transforms the eyes into eyes. The button 551-4 is a button operated when the retouch process is not performed (the shape of the eyes is not changed).
図41の例においては、ボタン551−2が選択されており、他のボタンより大きく表示されている。カメラ91により撮影された動画像の各フレームに写る利用者の目を対象として、目をネコの目のように変形するレタッチ処理が施され、レタッチ処理を施すことによって得られた動画像がライブビュー画像として表示領域451に表示される。
In the example of FIG. 41, the button 551-2 is selected and is displayed larger than the other buttons. A retouch process for deforming the eyes like a cat's eyes is performed on the user's eyes captured in each frame of the moving image captured by the
動画像に施されるレタッチ処理は、ライブビュー画像の表示後に撮影されるアップ画像に対して施されるレタッチ処理の内容を表す処理となる。 The retouch process performed on the moving image is a process representing the content of the retouch process performed on the up image captured after the live view image is displayed.
利用者は、他のボタンを操作することにより、他のレタッチ処理が施されたライブビュー画像を表示させることができる。利用者は、ライブビュー画像を見ながら好みのレタッチ処理の内容を選択することができる。 The user can display a live view image subjected to another retouching process by operating another button. The user can select the content of the preferred retouch process while viewing the live view image.
このように、レタッチ処理などの他の画像処理の内容の選択を受け付けている間、ライブビュー画像の画角が変更されるようにしてもよい。 In this way, the angle of view of the live view image may be changed while the selection of the content of other image processing such as retouch processing is accepted.
<レタッチ処理の内容の再選択>
レタッチ処理の内容の再選択が以下のようにして行われるようにしてもよい。
<Reselecting the contents of retouch processing>
The reselection of the content of the retouch process may be performed as follows.
・事前選択空間A0においてレタッチ処理の内容の選択が行われる場合、選択された内容を撮影空間A1において変更することができるようにしてもよい。
・撮影空間A1において、OKボタン462(図41)を押下することによってレタッチ処理の内容が決定された場合でも、所定時間内はレタッチ処理の内容を変更することができるようにしてもよい。
・レタッチ処理の内容の選択に割り当てられた所定時間が経過し、かつOKボタン462が押下されていない場合、最後に選択されたレタッチ処理が施されるようにしてもよい。
When the content of the retouch process is selected in the pre-selected space A0, the selected content may be changed in the shooting space A1.
In the shooting space A1, even when the content of the retouching process is determined by pressing the OK button 462 (FIG. 41), the content of the retouching process may be changed within a predetermined time.
If the predetermined time allotted to the selection of the content of the retouch process has elapsed and the
<レタッチ処理の種類>
レタッチ選択画面において以下のようなレタッチ処理の内容の選択が行われるようにしてもよい。
<Types of retouch processing>
The following retouch processing content may be selected on the retouch selection screen.
レタッチには、アップ画像用のレタッチと全身画像用のレタッチがある。 The retouch includes a retouch for an up image and a retouch for a whole body image.
アップ画像用のレタッチ
・輪郭処理
・小顔処理
・目の大きさ処理
・目の形状処理
・小鼻処理
・口角を上げる処理
・口の大きさ処理
・肌の色の処理
・パーツの移動(目をこめかみの方向に動かす等)
・アイブロウ(眉の形を変える)
Retouching for up-images ・ Outline processing ・ Small face processing ・ Eye size processing ・ Eye shape processing ・ Nose processing ・ Mouth angle increase processing ・ Mouth size processing ・ Skin color processing ・ Part movement (eye Move in the direction of the temple etc.)
-Eyebrow (changes the shape of the eyebrows)
輪郭処理は、撮影画像に写る利用者の顔を認識し、輪郭を変更する処理である。小顔処理は、撮影画像に写る利用者の顔を認識し、顔を小さくする処理である。目の大きさ処理は、撮影画像に写る利用者の目を認識し、目を大きくする処理である。 The contour process is a process for recognizing the user's face in the captured image and changing the contour. The small face processing is processing for recognizing a user's face in a captured image and reducing the face. The eye size process is a process for recognizing a user's eyes in a captured image and enlarging the eyes.
目の形状処理は、撮影画像に写る利用者の目を認識し、目の形状を変更する処理である。小鼻処理は、撮影画像に写る利用者の鼻を認識し、鼻を小さくする処理である。口角を上げる処理は、撮影画像に写る利用者の口を認識し、口角を上げる処理である。 The eye shape process is a process for recognizing a user's eyes in a captured image and changing the shape of the eyes. The small nose process is a process for recognizing the user's nose in the captured image and reducing the nose. The process for raising the mouth angle is a process for recognizing the user's mouth in the captured image and raising the mouth angle.
口の大きさ処理は、撮影画像に写る利用者の口を認識し、口の大きさを変更する処理である。肌の色の処理は、撮影画像に写る利用者の肌の色を認識し、肌の色を変更する処理である。パーツの移動は、撮影画像に写る利用者の顔のパーツ(部位)を認識し、パーツを移動する処理である。例えば、目の上下方向への移動、内側への移動、口の移動などがパーツの移動に含まれる。アイブロウは、撮影画像に写る利用者の眉を認識し、眉の形を変更する処理である。 The mouth size process is a process for recognizing the user's mouth in the captured image and changing the mouth size. The skin color process is a process of recognizing the user's skin color in the captured image and changing the skin color. The movement of the part is a process of recognizing a part (part) of the user's face shown in the photographed image and moving the part. For example, the movement of the parts includes movement of the eyes in the vertical direction, movement inward, movement of the mouth, and the like. Eyebrow is a process for recognizing the user's eyebrows in the captured image and changing the shape of the eyebrows.
全身画像用のレタッチ
・脚長処理
・脚の細さ処理
・身長処理
・二の腕処理
・くびれ処理
・首の長さ処理
・ウエストの位置を上げる処理
・指を細くする処理
・爪の形を変形する処理
・爪の長さ処理
Retouch for whole body images ・ Leg length processing ・ Leg thinness processing ・ Height processing ・ Two arms processing ・ Necking processing ・ Neck length processing ・ Waist position raising processing ・ Finger thinning processing ・ Nail shape transformation processing・ Claw length processing
脚長処理は、撮影画像に写る利用者の脚を認識し、脚を長くする処理である。脚の細さ処理は、撮影画像に写る利用者の脚を認識し、脚を細くする処理である。身長処理は、撮影画像に写る利用者の全身を認識し、身長を高くする処理である。 The leg length process is a process for recognizing the user's leg in the captured image and lengthening the leg. The leg thinning process is a process for recognizing the user's leg in the captured image and narrowing the leg. The height process is a process for recognizing the whole body of the user in the captured image and increasing the height.
二の腕処理は、撮影画像に写る利用者の二の腕を認識し、二の腕を細くする処理である。くびれ処理は、撮影画像に写る利用者の腰を認識し、くびれを強調する処理である。首の長さ処理は、撮影画像に写る利用者の首を認識し、首を長くする処理である。 The second arm process is a process for recognizing the user's second arm in the captured image and narrowing the second arm. The constriction process is a process for recognizing a user's waist in a captured image and emphasizing the constriction. The neck length process is a process of recognizing the user's neck in the captured image and lengthening the neck.
ウエストの位置を上げる処理は、撮影画像に写る利用者の腰を認識し、ウエストの位置を上げる処理である。指を細くする処理は、撮影画像に写る利用者の手を認識し、指を細くする処理である。爪の形を変形する処理は、撮影画像に写る利用者の手を認識し、爪の形を変形する処理である。爪の長さ処理は、撮影画像に写る利用者の手を認識し、爪の長さを変更する処理である。 The process of raising the waist position is a process of recognizing the user's waist in the captured image and raising the waist position. The process of narrowing the finger is a process of recognizing the user's hand in the captured image and narrowing the finger. The process of deforming the nail shape is a process of recognizing the user's hand in the captured image and deforming the nail shape. The nail length process is a process of recognizing the user's hand in the captured image and changing the nail length.
なお、ここでは、アップ画像用のレタッチと全身画像用のレタッチに分けて説明しているが、アップ画像用のレタッチとして説明した各処理が全身画像のレタッチとして用いられるようにしてもよいし、反対に、全身画像用のレタッチとして説明した各処理がアップ画像のレタッチとして用いられるようにしてもよい。 In addition, here, the retouch for the up image and the retouch for the whole body image are described separately, but each process described as the retouch for the up image may be used as the retouch of the whole body image, Conversely, each process described as the retouch for the whole body image may be used as the retouch of the up image.
スタンプ画像の種類の選択、または、レタッチ処理の内容の選択ではなく、スタンプ画像の種類とレタッチ処理の内容の両方の選択を、ライブビュー画像の表示を見ながら利用者に行わせるようにしてもよい。 Instead of selecting the type of stamp image or the content of retouch processing, the user can select both the type of stamp image and the content of retouch processing while viewing the live view image display. Good.
<<変形例1>>
利用者のポーズに合わせて画角が調整されるようにしてもよい。
<<
The angle of view may be adjusted according to the user's pose.
・利用者が複数名で互いに離れて立っている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が1名で筐体の端に立っている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が手を外に向けて広げている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が脚を外に向けて広げている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が手に物を持っている場合は、物も含めて利用者が画角に収まるように調整されるようにしてもよい。
-When a plurality of users are standing apart from each other, the angle of view may be adjusted so that the users cannot see them.
-When one user is standing on the edge of the housing, the angle of view may be adjusted so that the user cannot see it.
When the user is spreading his / her hand outward, the angle of view may be adjusted so that the user cannot see it.
-When the user spreads his / her legs outward, the angle of view may be adjusted so that the user cannot see it.
-When the user has an object in his hand, the user may be adjusted so that the user will be within the angle of view.
<<変形例2>>
利用者の身長に合わせて画角が調整されるようにしてもよい。
<<
The angle of view may be adjusted according to the height of the user.
・証明写真用の画像の撮影やレタッチ処理の対象となる画像の撮影において、利用者の身長(顔の位置)に応じて画角が調整されるようにしてもよい。 The angle of view may be adjusted in accordance with the height (face position) of the user when taking an image for an ID photo or taking an image to be retouched.
<<変形例3>>
写真シール作成装置1において行われる撮影時の画角を調整する場合について説明したが、スマートフォンなどの携帯端末における操作の受け付け時の画角が同様にして調整されるようにしてもよい。利用者の携帯端末には、撮影画像の画像処理に用いられるアプリケーションがインストールされる。
<<
Although the case of adjusting the angle of view at the time of photographing performed in the photo
携帯端末における画角の調整が以下のように行われるようにしてもよい。 The angle of view adjustment in the mobile terminal may be performed as follows.
・利用者の位置を検知して画角の大きさを調整する。
・レタッチ選択画面を表示している間は、カメラに近い利用者が収まるように画角を調整する。
・タッチパネルモニタに触れている間は、カメラに近い利用者が収まるように画角を調整する。
・タッチパネルモニタを押下してから所定時間内は、カメラに近い利用者が収まるように画角を調整する。
・ライブビュー画像の表示中は画角を広めに設定して、撮影時に画角を狭める(画角を固定にする)。
-Detect the user's position and adjust the angle of view.
-While the retouch selection screen is displayed, adjust the angle of view so that users close to the camera can be accommodated.
-While touching the touch panel monitor, adjust the angle of view so that users close to the camera can be accommodated.
-Adjust the angle of view so that users close to the camera can be accommodated within a predetermined time after pressing the touch panel monitor.
・ Set the angle of view to be wider during live view image display and narrow the angle of view during shooting (fix the angle of view).
<<他の例>>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。例えば、写真シール作成装置1に搭載されたコンピュータであるPC部301にプログラムがインストールされる。
<< Other examples >>
The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in a computer incorporated in dedicated hardware or a general-purpose personal computer. For example, the program is installed in the
インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図10に示されるリムーバブルメディア319に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM312や記憶部316に、あらかじめインストールしておくことができる。
The program to be installed is provided by being recorded on a
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
1 写真シール作成装置, 91 カメラ, 92 タッチパネルモニタ, 402 撮影処理部, 403 編集処理部, 411 撮影制御部, 412 トリミング部, 413 画像処理部, 414 選択受付部, 415 表示制御部, 416 撮影画像記憶部
DESCRIPTION OF
Claims (18)
前記静止画像に施す画像処理の内容の選択を受け付ける選択受付部と、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施す画像処理部と、
少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる表示制御部と
を備える写真作成ゲーム機。 A shooting unit for shooting a still image for acquiring a shot image of a user as a subject and shooting a moving image;
A selection accepting unit that accepts selection of image processing content to be applied to the still image;
An image processing unit that applies processing representing the content of the image processing selected by the user to the moving image;
While accepting selection of at least the content of the image processing, the moving image that has been subjected to processing representing the content of the image processing selected by the user is displayed with a wider angle of view than the angle of view of the captured image. A photo creation game machine comprising a display control unit.
請求項1に記載の写真作成ゲーム機。 The photo creation game machine according to claim 1, wherein the display control unit displays the moving image at a fixed angle of view.
請求項1に記載の写真作成ゲーム機。 The photo creation game machine according to claim 1, wherein the display control unit detects the user reflected in the moving image and displays the moving image with an angle of view adjusted to include the user's face.
請求項3に記載の写真作成ゲーム機。 The photo creation according to claim 3, wherein when there are a plurality of users appearing in the moving image, the display control unit displays the moving image with the angle of view adjusted to include all the user's faces. game machine.
請求項3に記載の写真作成ゲーム機。 The display control unit, when there are a plurality of users appearing in the moving image, displays the moving image having an angle of view adjusted to include at least the user's face appearing at a position close to the photographing unit. Item 4. The photo making game machine according to item 3.
請求項3乃至5のいずれかに記載の写真作成ゲーム機。 The photo creation game machine according to claim 3, wherein the display control unit displays the moving image with an angle of view adjusted based on the height of the user.
前記表示制御部は、前記合成用画像の種類の選択を受け付けている間、前記利用者により選択された前記合成用画像を表すコンテンツが合成された前記動画像を表示させる
請求項1に記載の写真作成ゲーム機。 The image processing is a process of combining an image for synthesis at a predetermined position of the user that appears in the captured image,
The display control unit displays the moving image in which the content representing the composition image selected by the user is synthesized while accepting the selection of the type of the composition image. Photo creation game machine.
請求項7に記載の写真作成ゲーム機。 The photo creation game machine according to claim 7, wherein the display control unit detects the user reflected in the moving image and displays the moving image with an angle of view adjusted to include the content.
請求項7または8に記載の写真作成ゲーム機。 The photo creation game machine according to claim 7, wherein the display control unit displays an animation in which an image representing the composition image changes as the content.
請求項9に記載の写真作成ゲーム機。 The photo creation game machine according to claim 9, wherein the display control unit displays the animation in which an angle of an image representing the composition image is changed.
請求項9または10に記載の写真作成ゲーム機。 The photo creation game machine according to claim 9, wherein the display control unit displays the animation in which a position of an image representing the composition image changes.
請求項9乃至11のいずれかに記載の写真作成ゲーム機。 The photo creation game according to claim 9, wherein the display control unit displays the animation in which at least one of a color, a size, and a transparency of an image representing the composition image is changed. Machine.
前記表示制御部は、前記レタッチ処理の内容の選択を受け付けている間、前記利用者により選択された前記レタッチ処理の内容を表す処理が施された前記動画像を表示させる
請求項1に記載の写真作成ゲーム機。 The image processing is a retouching process for adjusting the user's reflection in the still image,
The said display control part displays the said moving image to which the process showing the content of the said retouch process selected by the said user was performed, while the selection of the content of the said retouch process is received. Photo creation game machine.
請求項1乃至13のいずれかに記載の写真作成ゲーム機。 The said display control part displays the information used for selection of the content of the said image process on the same screen with the said moving image which performed the process showing the content of the said image process. Photo creation game machine.
請求項1乃至14のいずれかに記載の写真作成ゲーム機。 When the content of the image processing to be performed on the captured image is selected, the display control unit displays the moving image that has been subjected to processing representing the content of the image processing selected by the user, as the content of the image processing. The photo creation game machine according to claim 1, wherein the photo creation game machine is displayed with an angle of view narrower than an angle of view while accepting the selection.
請求項1乃至15のいずれかに記載の写真作成ゲーム機。 The photo creation game according to claim 1, wherein the image processing unit performs the image processing selected by the user on the still image shot by the shooting unit to generate the shot image. Machine.
利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とを行い、
前記静止画像に施す画像処理の内容の選択を受け付け、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施し、
少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる
表示制御方法。 A photo creation game machine
Shooting still images and moving images to capture captured images of the user,
Accepts selection of image processing content to be applied to the still image;
Performing a process on the moving image representing the content of the image processing selected by the user;
While accepting selection of at least the content of the image processing, the moving image that has been subjected to processing representing the content of the image processing selected by the user is displayed with a wider angle of view than the angle of view of the captured image. Display control method.
利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とを行い、
前記静止画像に施す画像処理の内容の選択を受け付け、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施し、
少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる
処理を実行させるプログラム。 In the computer installed in the photo creation game machine,
Shooting still images and moving images to capture captured images of the user,
Accepts selection of image processing content to be applied to the still image;
Performing a process on the moving image representing the content of the image processing selected by the user;
While accepting selection of at least the content of the image processing, the moving image that has been subjected to processing representing the content of the image processing selected by the user is displayed with a wider angle of view than the angle of view of the captured image. A program that executes processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018099302A JP7132492B2 (en) | 2018-05-24 | 2018-05-24 | Image processing device, display control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018099302A JP7132492B2 (en) | 2018-05-24 | 2018-05-24 | Image processing device, display control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019203996A true JP2019203996A (en) | 2019-11-28 |
JP7132492B2 JP7132492B2 (en) | 2022-09-07 |
Family
ID=68726914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018099302A Active JP7132492B2 (en) | 2018-05-24 | 2018-05-24 | Image processing device, display control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7132492B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021132320A (en) * | 2020-02-20 | 2021-09-09 | 株式会社セガ | Game image capturing device and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005277476A (en) * | 2004-03-22 | 2005-10-06 | Omron Entertainment Kk | Photography printer, its control method and program, and computer readable recording medium |
JP2014212489A (en) * | 2013-04-19 | 2014-11-13 | フリュー株式会社 | Photograph seal creating device, method, and program |
JP2016028463A (en) * | 2014-07-10 | 2016-02-25 | フリュー株式会社 | Photograph seal creation device and display method |
JP2016174311A (en) * | 2015-03-17 | 2016-09-29 | フリュー株式会社 | Apparatus, method and program for image processing |
-
2018
- 2018-05-24 JP JP2018099302A patent/JP7132492B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005277476A (en) * | 2004-03-22 | 2005-10-06 | Omron Entertainment Kk | Photography printer, its control method and program, and computer readable recording medium |
JP2014212489A (en) * | 2013-04-19 | 2014-11-13 | フリュー株式会社 | Photograph seal creating device, method, and program |
JP2016028463A (en) * | 2014-07-10 | 2016-02-25 | フリュー株式会社 | Photograph seal creation device and display method |
JP2016174311A (en) * | 2015-03-17 | 2016-09-29 | フリュー株式会社 | Apparatus, method and program for image processing |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021132320A (en) * | 2020-02-20 | 2021-09-09 | 株式会社セガ | Game image capturing device and program |
Also Published As
Publication number | Publication date |
---|---|
JP7132492B2 (en) | 2022-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5418708B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP5488526B2 (en) | Image processing apparatus and image processing method | |
JP5630675B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP7132492B2 (en) | Image processing device, display control method, and program | |
JP5668885B1 (en) | Photo sticker making apparatus and photo sticker making method | |
JP6477780B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program | |
JP6853475B2 (en) | Photo creation game console and display method | |
JP6179655B2 (en) | Photography game machine, control method, and program | |
JP7152687B2 (en) | Display control device, display control method, program | |
JP7560711B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING | |
JP6160470B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP2018107515A (en) | Photograph formation game machine and image processing method | |
JP7074994B2 (en) | Photographing game console and image processing method | |
JP6687855B2 (en) | Photography amusement machine, control method, and program | |
JP2021182104A (en) | Photograph creation game machine, editing method and program | |
JP2021044734A (en) | Image processing device, image processing method, and program | |
JP5970013B2 (en) | Photo sticker making apparatus and photo sticker making method | |
JP5482948B2 (en) | Image processing apparatus and image processing method | |
JP2019192061A (en) | Photograph creation game machine, control method and program | |
JP5881183B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP6982230B2 (en) | Photographing game console and image processing method | |
JP6436368B2 (en) | Photo sticker, control method and program | |
JP6489396B2 (en) | Photo sticker creation apparatus, display method, and program | |
JP6455550B2 (en) | Photo sticker creation apparatus and display control method | |
JP6057005B2 (en) | Photo sealing machine, photo sealing machine processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220808 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7132492 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |