JP2019124746A - Picture creation game machine, edition method, and program - Google Patents
Picture creation game machine, edition method, and program Download PDFInfo
- Publication number
- JP2019124746A JP2019124746A JP2018003493A JP2018003493A JP2019124746A JP 2019124746 A JP2019124746 A JP 2019124746A JP 2018003493 A JP2018003493 A JP 2018003493A JP 2018003493 A JP2018003493 A JP 2018003493A JP 2019124746 A JP2019124746 A JP 2019124746A
- Authority
- JP
- Japan
- Prior art keywords
- image
- editing
- retouching
- user
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Studio Devices (AREA)
Abstract
Description
本技術は、写真作成ゲーム機、編集方法、およびプログラムに関し、特に、特定の画角で撮影された画像を個々に、所望する見た目の画像に仕上げることができるようにする写真作成ゲーム機、編集方法、およびプログラムに関する。 The present technology relates to a photo creating game machine, an editing method, and a program, and in particular, a photo creating game machine that enables an image captured at a specific angle of view to be individually finished to a desired appearance image. It relates to a method and a program.
従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。 BACKGROUND Conventionally, a photo sticker machine installed in an amusement facility or the like is known. The photo sticker machine photographs the user, and edits the photographed image according to the user's operation. The photo sticker machine prints the edited image on a sticker sheet.
写真シール機の中には、被写体の顔および上半身を撮影範囲(画角)としたアップ撮影に加え、被写体の全身を撮影範囲とした全身撮影を行うものがある。アップ撮影によれば、撮影画像として、被写体の顔および上半身が写るアップ画像が得られる。また、全身撮影によれば、撮影画像として、被写体の全身が写る全身画像が得られる。 Some photo sticker machines perform full-body imaging in which the entire body of a subject is in the imaging range, in addition to up-shooting in which the face and upper body of the subject are taken in the imaging range (field angle). According to the up shooting, an up image in which the face and the upper body of the subject are captured can be obtained as a shot image. Moreover, according to whole body imaging, a whole body image in which the whole body of the subject is captured can be obtained as a photographed image.
そのような中で、撮影画像の補正を受け付ける際、アップ画像のみが表示された際には、顔に関する補正の選択を受け付け、全身画像のみが表示された際には、全身スタイルに関する補正を受け付けるようにした写真シール機が知られている。 Under such circumstances, when the correction of the photographed image is received, the selection of the correction regarding the face is received when only the up image is displayed, and the correction regarding the whole body style is received when the whole body image is displayed. There is known a photo sealing machine that does.
また、特許文献1には、アップ画像のみを表示するようにして、アップ画像に写る顔の変化度の入力を受け付けるようにした写真シール機が開示されている。
Further,
しかしながら、従来の写真シール機では、例えばアップ画像に対して受け付けられた顔に関する補正や、顔の変化度の入力は、複数枚のアップ画像全てに一括して反映されていた。すなわち、例えばアップ撮影のような特定の画角で撮影された画像を個々に、その画像を所望する見た目の画像に仕上げることはできなかった。 However, in the conventional photo sticker machine, for example, the correction regarding the face accepted for the up image and the input of the degree of change of the face are collectively reflected in all of the plurality of up images. That is, for example, an image captured at a specific angle of view, such as up shooting, can not be individually finished into an image having a desired appearance.
本技術は、このような状況に鑑みてなされたものであり、特定の画角で撮影された画像を個々に、所望する見た目の画像に仕上げることができるようにするものである。 The present technology has been made in view of such a situation, and enables an image captured at a specific angle of view to be individually finished into an image with a desired appearance.
本技術の写真作成ゲーム機は、利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成する撮影処理部と、複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示する表示制御部と、特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施すレタッチ処理部とを備え、前記表示制御部は、前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない。 The photo creating game machine according to the present technology takes a user as a subject and shoots at a plurality of angles of view, thereby setting a shooting processing unit that generates a plurality of shot images and editing any one of the plurality of shot images. The display control unit includes a display control unit that displays an editing screen that receives an editing input, and a retouch processing unit that performs retouching processing on the subject captured in the captured image captured at a specific angle of view, the display control unit A retouching GUI for receiving the selection of the retouching process is displayed on the editing screen only when the captured image captured at a specific angle of view becomes the edit target, and the other screen than the specific angle of view is displayed. When the photographed image photographed at an angle of view is to be edited, the retouching GUI is not displayed on the editing screen.
本技術の編集方法は、写真作成ゲーム機が、利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成し、複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示し、特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施し、前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない。 According to the editing method of the present technology, the photograph creating game machine generates a plurality of photographed images by photographing the user as a subject at a plurality of angles of view, and sets one of the plurality of photographed images as an editing target An editing screen for accepting editing input is displayed, and retouching processing is performed on the subject captured in the captured image captured at a specific angle of view, and the captured image captured at the specific angle of view is the editing target Only when it has become, the retouching GUI for accepting the selection of the retouching process is displayed on the editing screen, and the photographed image photographed at another angle of view other than the specific angle of view is the object of editing At this time, the retouching GUI is not displayed on the editing screen.
本技術のプログラムは、コンピュータを、利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成する撮影処理部と、複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示する表示制御部と、特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施すレタッチ処理部として機能させるためのプログラムであって、前記表示制御部は、前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない。 The program according to the present technology takes a computer as a subject and shoots at a plurality of angles of view, thereby generating a plurality of photographed images and setting any one of the plurality of photographed images as an imaging target. A program for causing a display control unit to display an editing screen for receiving editing input, and a retouch processing unit to perform retouching processing on the subject captured in the captured image captured at a specific angle of view, The display control unit displays, on the editing screen, a retouching GUI for receiving the selection of the retouching process only when the captured image captured at the specific angle of view becomes the edit target, When the photographed image photographed at another angle of view other than the angle of view becomes the editing target, the retouching GUI is not displayed on the editing screen.
本技術においては、利用者を被写体として複数の画角で撮影が行われることで、複数の撮影画像が生成され、複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面が表示され、特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理が施され、前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIが前記編集画面に表示され、前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIは前記編集画面に表示されない。 In the present technology, a plurality of photographed images are generated by photographing at a plurality of angles of view with the user as a subject, and an editing screen for receiving an editing input for editing any of the plurality of photographed images is used. The retouching process is performed on the subject that is displayed and appears in the captured image captured at a specific angle of view, and only when the captured image captured at the specific angle of view becomes the edit target. When the retouching GUI for receiving the selection of the retouching process is displayed on the editing screen and the captured image captured at another angle of view other than the specific angle of view becomes the editing target, the retouching GUI Is not displayed on the editing screen.
本技術によれば、特定の画角で撮影された画像を個々に、所望する見た目の画像に仕上げることが可能となる。 According to the present technology, it is possible to individually finish an image captured at a specific angle of view into an image with a desired appearance.
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 In addition, the effect described here is not necessarily limited, and may be any effect described in the present disclosure.
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。 Hereinafter, modes for carrying out the present technology (hereinafter, referred to as embodiments) will be described.
<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker creation device>
FIG. 1 and FIG. 2 are perspective views showing an example of the external appearance of the photo
写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。
The photograph
写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
The users of the photo
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
In the photograph
写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。
The photo
図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。
As shown in FIG. 1, the photograph
撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。
The imaging unit 11 has a box-shaped housing having a size that allows a person to enter, and is configured of a
事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。
The
撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。
The photographing
撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。
Assuming that the left side is the left side and the right side is the right side as viewed from the user in the imaging space, the left side of the
背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。
The
側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。
The
撮影空間の床には、板状の部材である床材27が敷かれる。
A
側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。
An opening formed by being surrounded by the
撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井シート24が設けられる。天井シート24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。
Above the imaging space, a ceiling surrounded by the front of the
天井シート24は、シート状であっても、板状であっても良い。また、天井シート24を連結部23に連結しない、換言すれば、天井シート24がなく、天井に開口部が形成されているようにしても良い。
The
また天井シート24の一部に、通気孔を設けても良い。例えば、図1に示した天井シート24の両端(連結部23A側と連結部23B側)に四角形状で示した部分を、通気孔としても良い。また、図1に四角形状で示した部分は、光が入射する透明な部材で形成されていても良い。
Further, a vent may be provided in part of the
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。
The
図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。
Assuming that the configuration of the
編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。
The front side of the
編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。
A
カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。
Although described later, the left side surface of the
<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About the movement of users>
Here, the flow of the photo sticker creation game and the movement of the user accompanying it will be described.
図3は、写真シール作成装置1を上から見た平面図である。
FIG. 3 is a plan view of the photograph
利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。
The user charges the coin insertion slot in the preselection space A0 which is the space in front of the
事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。
The user who has finished the preselection operation, as indicated by the
撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。
The user who has finished the photographing work exits the photographing space A1 from the entrance G1 as indicated by the
編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。
After the editing work is completed, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the outlined
印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。
The user who has moved to the print waiting space A3 waits for the printing to finish. When printing is completed, the user receives the sticker sheet discharged from the outlet provided on the right side of the
次に、各装置の構成について説明する。 Next, the configuration of each device will be described.
<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of Preselection Unit>
FIG. 4 is a view showing a configuration example of the
事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。
A touch panel monitor 71 is provided on the upper side of the
タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。
Below the touch panel monitor 71, a
また事前選択部20のタッチパネルモニタ71の上側には、ケース74が設けられている。このケース74には、例えば、写真シール作成装置1で作成されるシールのサンプルが掲示される。また、ケース74は、広告として用いることができ、何らかの商品のサンプルや商品説明画像(ポスター)などを掲示することもできる。
A
<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Structure of Shooting Unit>
FIG. 5 is a view showing a configuration example of the front of the
正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81の正面には、カメラ91とタッチパネルモニタ92が設けられる。
A
カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。
The
カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。
A moving image (hereinafter also referred to as a live view image) captured by the
タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。
The touch panel monitor 92 is provided below the
カメラユニット81の上方には、上ストロボユニット82が設置される。この上ストロボユニット82は、3枚のパネル86−1乃至86−3(以下、パネル86−1乃至86−3を個々に区別する必要がない場合、単にパネル86と記述する)が備えられ、これらのパネル86は、正面パネル42に対して所定の角度を有して設置されている。その角度は、パネル86の面が、利用者側に向く角度とされている。例えば、パネル86は、正面パネル42に対しておよそ45度の角度を有して設置されている。
An
上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。パネル86は、取り外すことが可能な構成とされており、詳細は後述するが、パネル86を取り外すと、内側には、照明用の電球や、撮影時に発光するストロボが配置されている。
The
カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。
Below the
上ストロボユニット82および足元ストロボユニット83は、照明用の電球とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、撮影空間を明るくして、利用者の操作性や安全性を確保するために、撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。
The
足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。
A box-
なお、正面パネル42の例えば天井付近に、スピーカが設けられ、撮影処理の案内音声、BGM、効果音などが出力される構成としても良い。また、スピーカは、正面パネル42ではなく、後述する背景部22に設けられていても良い。ここでは、図6に示すように背景部22にスピーカが設けられている場合を例に挙げて説明を続ける。
A speaker may be provided, for example, in the vicinity of the ceiling of the
<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background portion>
FIG. 6 is a view showing a configuration example of the photographing space A1 side of the
背面パネル51の上方には、背面ストロボ101−1と背面ストロボ101−2が設置されている。背面ストロボ101は、利用者、特に利用者の頭部に、利用者の後方かつ上方から光を照射する。
A rear strobe 101-1 and a rear strobe 101-2 are provided above the
背面ストロボ101−1と背面ストロボ101−2の間に、スピーカ102−1とスピーカ102−2が設けられている。スピーカ102は、撮影処理の案内音声、BGM、効果音などを出力する。
A speaker 102-1 and a speaker 102-2 are provided between the back surface strobe 101-1 and the back surface strobe 101-2. The
なお、図6では、2つのスピーカ102が設けられている例を示したが、1つのスピーカ102が、例えば、背面ストロボ101−1と背面ストロボ101−2の中間部分に設けられているようにしたり、複数の小型のスピーカ102が設けられているようにしたりすることもできる。
Although FIG. 6 shows an example in which two
背面パネル51の撮影空間A1側(図中、手前側)の面には、白色のシート121が貼り付けられている。ここでは、白色のシート121が貼り付けられているとして説明を続けるが、シート121の色は、白色に限らず、例えば、明るい灰色などでも良く、反射率の高い色とされる。
A
また、ここでは、シート121が貼り付けられているとして説明を続けるが、壁面自体が白色で塗られていたり、シート状ではなく、白色の板状のパネルが貼り付けられていたりしても良い。
Further, although the description is continued here assuming that the
また、カーテンユニットを設置し、そのカーテンユニットに白色のカーテンが巻き取られて収納され、撮影時に、その白色のカーテンが降りてくるような構成としても良い。またカーテンの色は、白色に限らず、例えば、明るい灰色などでも良く、反射率の高い色とすることができる。 In addition, a curtain unit may be installed, and a white curtain may be taken up and stored in the curtain unit, and the white curtain may come down at the time of photographing. The color of the curtain is not limited to white, and may be light gray, for example, and may be a color with high reflectance.
<床の構成>
図7は、床材27を示す斜視図である。説明の便宜上、撮影部21、側面パネル41Aなどの図示は省略している。
<Bed composition>
FIG. 7 is a perspective view showing the
床材27の中央、または後方寄りの位置には、横長の長方形の床シート27Aが、その長辺が背面パネル51と略平行になるように貼り付けられる。図7において、背面パネル51のある方向が撮影空間A1の後方となり、撮影部21のある方向(白抜き矢印方向)が撮影空間A1の前方となる。
A horizontally long
床シート27Aには、マーク28−1とマーク28−2が印刷されている。マーク28は、撮影時の立ち位置を利用者毎に誘導するための目印として用いられる。
Marks 28-1 and 28-2 are printed on the
例えば、利用者の人数が2人であり、上半身が大きく写る画像を撮影(アップ撮影)する場合、カメラ91に向かって右側に立っている利用者の立ち位置として、マーク28−1が指定され、左側に立っている利用者の立ち位置として、マーク28−2が指定される。
For example, when the number of users is two and the upper body image is photographed in a large size (up photographing), the mark 28-1 is designated as the standing position of the user standing on the right side toward the
図7に示した例では、マーク28−1には、“RIGHT”との右を意味する英単語が記載されており、右側に位置する利用者の立ち位置であることを、より明確に示す表示がされている。 In the example shown in FIG. 7, an English word meaning the right of "RIGHT" is described in the mark 28-1 to more clearly show that it is the standing position of the user located on the right side. It is displayed.
同様にマーク28−2には、“LEFT”との左を意味する英単語が記載されており、左側に位置する利用者の立ち位置であることを、より明確に示す表示がされている。 Similarly, in the mark 28-2, an English word meaning the left of "LEFT" is described, and it is displayed more clearly indicating that it is the standing position of the user located on the left side.
このマーク28上に、利用者が位置するときに、利用者に最適に光が照射されるように、背面ストロボ101(図6)は、設置されている。このように、最適な写りが得られる位置を、最適撮影位置と適宜記載する。 The rear strobe 101 (FIG. 6) is placed on the mark 28 so that the user can be optimally illuminated when the user is positioned. As described above, the position where the optimum image can be obtained is described as the optimum imaging position.
なお、最適な立ち位置(最適撮影位置)は、ストロボからの光が利用者に対して十分(適切)に照射される位置、カメラ91の撮影範囲から外れない位置、背景と顔の大きさのバランスがよくなる位置等を意味する。
The optimal standing position (optimum shooting position) is the position where the light from the strobe is sufficiently (properly) emitted to the user, the position where it does not deviate from the shooting range of the
ところで、写真シール作成装置1は、カメラ91で撮影された画像に対してトリミングを行い、編集画面に表示される画像を生成する。
The photograph
ここで撮影範囲とは、最終的に撮影画像として編集画面に表示される画像の範囲に対応した撮影部21の撮像素子の範囲であるとして、説明を続けるが、撮影範囲をトリミング前の撮像素子の範囲としてもよい。
Here, the explanation is continued assuming that the shooting range is the range of the imaging device of the
床シート27Aのマーク28は、利用者の人数、撮影する画像の画角(範囲)などに応じて、最適な立ち位置を指定することができるような位置に印刷されているようにしても良い。すなわち、マーク28は、図7に示したように、マーク28−1とマーク28−2の2つのマークだけでなく、複数人に対応した複数のマークや、異なる画角毎に対応した複数のマークが印刷されているようにしても良い。また、マーク28の形状は、図7に示したような四角形状だけでなく、多角形、円形、星形、ハート型など、どのような形状であっても良い。
The mark 28 of the
<編集ユニットの構成>
図8は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Structure of Editing Unit>
FIG. 8 is a diagram showing a configuration example of the front side (the editing space A2-1 side) of the
斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。
The tablet built-in
なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。
The operation using the
図9は、編集ユニット12の左側面の構成例を示す図である。
FIG. 9 is a view showing an example of the configuration of the left side of the
編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。
Below the left side surface of the
<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の構成例を示すブロック図である。図10において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram showing a configuration example of the photograph
図10に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に搭載される。
As shown in FIG. 10, in the photograph
PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。
A central processing unit (CPU) 311, a read only memory (ROM) 312, and a random access memory (RAM) 313 that constitute the
CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。
The
バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。
An input /
記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。
The
通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカが管理する画像取得サイト管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像取得サイト管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。
The
ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。
A removable medium 319 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the
入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。
An external input /
事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。
The
タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。
The touch panel monitor 71 displays various selection screens according to the control of the
硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。
The
撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部304は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ102から構成される。
The
照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。
The
カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)をPC部301に出力する。
The
編集部305Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部305Aと同一の構成を有する。なお、以下、編集部305A,305Bを特に区別しない場合には、単に、編集部305という。
The
タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。
The tablet built-in
印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。
The
プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。
The
<写真シール作成装置の機能構成例>
図11は、写真シール作成装置1の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Functional configuration example of photo sticker creation device>
FIG. 11 is a block diagram showing an example of a functional configuration of the photograph
写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。
In the photograph
事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択、背景画像の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。
The
撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。
The photographing
編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさや肌の明るさを調整するための画像処理、撮影画像に対して編集を施すための画像処理などが含まれる。
The
編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。
After finishing editing of the photographed image, the
印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。
The
<写真シール作成装置の動作>
ここで、図12のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 12, the operation of the photo
ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。
In step S1, the
ステップS1において、硬貨が投入されたと判定された場合、処理はステップS2に進む。ステップS2において、事前選択処理部401は、事前選択部302を制御することで、事前選択処理を行う。具体的には、事前選択処理部401は、撮影空間で行われる撮影に関するコースとして、利用者の人数に応じて行われるゲームの種類を決定する人数コースや、撮影空間で行われる撮影により得られる撮影画像の背景となる背景画像の選択などを利用者に行わせることで、各種の設定を行う。
If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2. In step S2, the
ステップS3において、撮影処理部402は、撮影部304を制御することで、撮影処理を行う。具体的には、撮影処理部402は、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を生成する。
In step S3, the
本実施の形態の撮影処理においては、合計6回の撮影が行われる。6回の撮影により得られる6枚の撮影画像は、編集処理の対象とされてシール紙に印刷されることはもちろん、携帯端末に送信される対象にもなり得る。 In the photographing processing of the present embodiment, a total of six photographings are performed. The six photographed images obtained by six times of photographing may be objects to be edited and printed on a sticker sheet as well as objects to be transmitted to the portable terminal.
6回の撮影としては、5回のアップ撮影と1回の全身撮影が行われるものとするが、6回の撮影として、アップ撮影のみが行われるようにしてもよい。 As the six times of shooting, five up shots and one whole-body shot are performed. However, only six up shots may be performed.
アップ撮影とは、被写体の顔および上半身を撮影範囲とした撮影である。アップ撮影により、撮影画像として、被写体の顔および上半身が写るアップ画像が得られる。一方、全身撮影とは、被写体の全身を撮影範囲とした撮影である。全身撮影により、撮影画像として、被写体の全身が写る全身画像が得られる。全身撮影においては、斜め上から見た被写体の全身が写る全身画像が得られるようにしてもよいし、正面から見た被写体の全身が写る全身画像が得られるようにしてもよい。 The up shooting is a shooting in which the shooting range is the face and upper body of the subject. By the up shooting, an up image in which the face and the upper body of the subject are captured can be obtained as a shot image. On the other hand, full-body imaging is imaging with the entire body of the subject taken as an imaging range. By whole body imaging, a whole body image in which the whole body of the subject is captured can be obtained as a captured image. In whole body imaging, a whole body image in which the whole body of the subject viewed from obliquely above may be obtained, or a whole body image in which the whole body of the subject viewed from the front may be obtained.
このようにして、撮影処理において、6枚の撮影画像が取得される。 Thus, six photographed images are obtained in the photographing process.
ステップS4において、編集処理部403は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで、編集処理を行う。具体的には、編集処理部403は、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせることで、編集が施された編集画像を生成する。
In step S4, the
ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う(開始する)。具体的には、印刷処理部404は、編集処理により得られた編集画像をプリンタ351に出力してシール紙に印刷する。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。
In step S5, the
印刷が終了すると、ステップS6において、プリンタ351は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。
When printing is completed, in step S6, the
<編集処理の詳細>
次に、図13のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS4の編集処理の詳細について説明する。
<Details of editing process>
Next, with reference to the flowchart of FIG. 13, the details of the editing process of step S4 in the series of processes of the photo sticker creating game described above will be described.
編集処理が開始されると、ステップS11において、編集処理部403は、目の大きさ・明るさ選択画面をタブレット内蔵モニタ131に表示させる。
When the editing process is started, in step S11, the
目の大きさ・明るさ選択画面は、撮影画像に写る利用者の目の大きさと肌の明るさの選択に用いられる画面である。目の大きさ・明るさ選択画面において、目の大きさと肌の明るさとが選択されると、処理はステップS12に進む。 The eye size / brightness selection screen is a screen used for selecting the size of the user's eyes and the brightness of the skin appearing in the photographed image. When the eye size and the brightness of the skin are selected on the eye size / brightness selection screen, the process proceeds to step S12.
ステップS12において、編集処理部403は、編集画面をタブレット内蔵モニタ131に表示させる。
In step S12, the
編集画面は、編集対象となる撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)が表示される。 The editing screen is a screen used for editing a captured image to be edited. On the editing screen, a photographed image to be edited and various editing tools (image for synthesis) such as a stamp image and a pen image used for editing are displayed.
利用者は、タッチペン132を用いて、スタンプ画像やペン画像などを編集対象となる撮影画像上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成が行われる。 The user uses the touch pen 132 to superimpose a stamp image, a pen image, or the like on a predetermined position on the captured image to be edited, thereby combining the composite image with the captured image to be edited.
すなわち、ステップS13において、編集処理部403は、利用者が用いるタッチペン132による操作を受け付け、受け付けられた操作に応じて、編集対象となる撮影画像に編集を施す。
That is, in step S13, the
編集作業が終了すると、ステップS14において、編集処理部403は、分割数選択画面をタブレット内蔵モニタ131に表示させる。
When the editing operation is completed, the
分割数選択画面は、最終的に出力されるシール紙の分割数やシールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚の写真シールに配置される編集画像(撮影画像)の枚数や位置、大きさを決定するレイアウト(配置パターン)である。ここで、利用者により選択されたシールレイアウトに従って編集画像が配置されてなる画像、すなわち、シール紙に印刷されて最終的に出力される画像をレイアウト画像という。 The division number selection screen is a screen used for selecting the number of divisions of the seal sheet to be finally output and the seal layout. The seal layout is a layout (arrangement pattern) for determining the number, position, and size of edited images (captured images) arranged on one photo sticker. Here, an image formed by arranging the edited image according to the seal layout selected by the user, that is, an image printed on the seal paper and finally output is referred to as a layout image.
したがって、分割数選択画面には、例えば6枚の撮影画像それぞれに編集が施された編集画像が、異なるシールレイアウトで配置されたレイアウト画像が複数表示される。 Therefore, on the division number selection screen, a plurality of layout images are displayed, in which, for example, edited images obtained by editing each of six photographed images are arranged in different seal layouts.
分割数選択画面において、レイアウト画像のいずれかが選択されると、処理はステップS15に進む。 If one of the layout images is selected on the division number selection screen, the process proceeds to step S15.
ステップS15において、編集処理部403は、携帯送信用画像選択画面をタブレット内蔵モニタ131に表示させる。
In step S15, the
携帯送信用画像選択画面は、利用者の所有する携帯端末に送信するための携帯送信用画像の選択に用いられる画面である。携帯送信用画像選択画面には、6枚の撮影画像に加え、そのうちのいずれかに所定の編集が施された携帯送信専用の画像が表示される。 The portable transmission image selection screen is a screen used for selecting a portable transmission image to be transmitted to a portable terminal owned by the user. In addition to the six photographed images, the mobile transmission image selection screen displays an image dedicated to mobile transmission in which predetermined editing has been performed on any of them.
携帯送信用画像選択画面において、画像のいずれかが選択されると、処理はステップS16に進む。 When one of the images is selected on the mobile transmission image selection screen, the process proceeds to step S16.
ステップS16において、編集処理部403は、メールアドレス入力画面をタブレット内蔵モニタ131に表示させる。
In step S16, the
メールアドレス入力画面は、利用者の所有する携帯端末のメールアドレスの入力に用いられる画面である。メールアドレス入力画面には、メールアドレスに用いることが可能なアルファベットや記号、携帯電話機のキャリアを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。 The e-mail address input screen is a screen used to input the e-mail address of the portable terminal owned by the user. The e-mail address input screen displays alphabets and symbols that can be used for e-mail addresses, a button for selecting a carrier of a mobile phone, and a text box in which a character string corresponding to the selected button is displayed. .
メールアドレス入力画面において、メールアドレスの入力が終了すると、処理はステップS17に進む。 When the input of the mail address is completed on the mail address input screen, the process proceeds to step S17.
ステップS17において、編集処理部403は、通信部317を制御することで、インターネットなどのネットワークを介して、利用者により選択された携帯送信用画像を、利用者により入力されたメールアドレスとともに、画像取得サイト管理サーバに送信する。
In step S17, the
画像取得サイト管理サーバは、利用者により入力されたメールアドレス宛てに、携帯端末が画像取得サイト管理サーバにアクセスするのに必要なURL(Uniform Resource Locator)が記載されたメールを送信する。そして、そのURLに基づいて、利用者が所有する携帯端末が、ネットワークを介して画像取得サイト管理サーバにアクセスすることで、画像取得サイト管理サーバに送信された携帯送信用画像が携帯端末に提供される。 The image acquisition site management server sends, to a mail address input by the user, a mail in which a URL (Uniform Resource Locator) necessary for the mobile terminal to access the image acquisition site management server is described. Then, based on the URL, the portable terminal owned by the user accesses the image acquisition site management server via the network, and the portable transmission image transmitted to the image acquisition site management server is provided to the portable terminal. Be done.
そして、ステップS18において、編集処理部403は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、編集部305A,305Bのタブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ341から出力させることによって行われる。
Then, in step S18, the
以上のようにして、編集処理が行われる。 Editing processing is performed as described above.
ところで、本実施の形態の写真シール作成装置1においては、編集対象となる撮影画像(以下、編集対象画像ともいう)の画角(撮影範囲)によって、異なる表示形態の編集画面が表示される。具体的には、編集対象画像となる撮影画像が、アップ画像であるか全身画像であるかによって、異なる表示形態の編集画面が表示される。
By the way, in the photograph
<編集画面の例>
そこで、図14および図15を参照して、編集対象画像の画角に応じた編集画面の表示形態について説明する。
<Example of editing screen>
Therefore, with reference to FIGS. 14 and 15, the display form of the editing screen according to the angle of view of the image to be edited will be described.
編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。
The editing screen is basically configured by providing the main components symmetrically. The left half area is an area used by the user who is on the left side toward the tablet built-in
図14は、編集画面の左半分の領域(左半分領域)を示している。 FIG. 14 shows the left half area (left half area) of the editing screen.
左半分領域の中央上部には、サムネイル表示領域511が設けられる。サムネイル表示領域511は、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル表示領域511に表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。
A
サムネイル表示領域511には、6枚の撮影画像を表すサムネイル画像が並んで表示されている。
In the
左半分領域の略中央には、編集領域512が設けられる。編集領域512は、編集対象として選択された撮影画像(編集対象画像)の表示領域である。利用者は、タッチペン132を用いて編集ツールを選択し、編集領域512に表示された撮影画像の編集を行う。
An
図14の例では、編集領域512に、編集対象画像として2人の利用者の顔および上半身が写るアップ画像が表示されている。また、編集領域512に表示されているアップ画像において、後述するレタッチ処理の対象となる利用者(左側の利用者)の顔の部分には、顔枠521が表示されている。
In the example of FIG. 14, in the
左半分領域の下部には、編集パレット513が表示される。編集パレット513は、ペン画像やスタンプ画像などの各種の編集ツール(合成用画像)の選択に用いられる。
At the bottom of the left half area, an
編集パレット513においては、編集パレット513の編集画面中央側に設けられたボタン毎に各編集ツールが用意されている。利用者は、それぞれのボタンを選択することによって、編集パレット513に表示される編集ツールを切り替える。例えば、「ペン」の名前が付されたボタンは、ペン画像を選択するときに操作されるボタンであり、「スタンプ」の名前が付されたボタンは、スタンプ画像を選択するときに操作されるボタンである。
In the
左半分領域の左部(編集パレット513の左方)には、専用GUI(Graphic User Interface)表示領域530が設けられる。専用GUI表示領域530は、編集領域512に表示される編集対象画像の画角に対応したGUIが表示される領域である。
A dedicated GUI (Graphic User Interface)
図14の例では、編集領域512にアップ画像が表示されているので、専用GUI表示領域530には、アップ画像に対応したGUIが表示されている。ここで、アップ画像に対応したGUIは、撮影画像(ここではアップ画像)に写る人物やその一部を加工(拡大/縮小、変形、色の変更など)したり修整する画像処理(以下、レタッチ処理という)の選択を受け付けるためのレタッチ用GUIとされる。以下においては、レタッチ用GUIをレタッチパレットという。
In the example of FIG. 14, since the up image is displayed in the
具体的には、図14の例では、専用GUI表示領域530のレタッチパレットに、透明感アップボタン551、まるく大きくボタン552、および涙袋ボタン553の3つのボタンが表示されている。これらのボタン551乃至553は、いずれも、アップ画像に写る被写体の目およびその近傍の領域に対するレタッチ処理の選択を受け付けるためのボタンである。
Specifically, in the example of FIG. 14, the retouching palette of the dedicated
透明感アップボタン551は、アップ画像(編集対象画像)に写る被写体の目(瞳)の色の濃さを変化させるためのボタンである。まるく大きくボタン552は、アップ画像(編集対象画像)に写る被写体の目の形状および大きさを、丸く大きくするためのボタンである。涙袋ボタン553は、アップ画像(編集対象画像)に写る被写体の目の下方に涙袋を作る(作ったように見せる)ためのボタンである。
The transparency-up
これらのボタンが操作されると、アップ画像(編集対象画像)において顔枠521が表示されている顔の目およびその近傍の領域に、操作されたボタンに対応するレタッチ処理が施される。編集画面が最初に表示された状態(デフォルトの状態)では、いずれのボタン551乃至553も操作されていない状態とされる。
When these buttons are operated, retouching processing corresponding to the operated button is performed on the eyes of the face on which the
レタッチ処理の対象となる被写体の選択は、アップ画像に写る被写体(人物)の顔がタッチペン132により選択されることで行われ、選択された顔の部分に顔枠521が表示される。なお、レタッチ処理の対象となる被写体を切り替えた場合、切り替え後の被写体に、切り替え前の被写体に施されたレタッチ処理が反映されることはない。
The selection of the subject to be the target of the retouching process is performed by the face of the subject (person) appearing in the up image being selected by the touch pen 132, and the
また、図14の例では、透明感アップボタン551、まるく大きくボタン552、および涙袋ボタン553それぞれに対応して、OFFボタン561乃至563が表示されている。
Further, in the example of FIG. 14, the
OFFボタン561乃至563はそれぞれ、編集対象画像において顔枠521が表示されている顔の目に施された、ボタン551乃至553それぞれに対応するレタッチ処理を消去する(OFFする)ためのボタンである。OFFボタン561乃至563による消去処理は、対応するレタッチ処理が反映されている場合にのみ反映される。
The
このようにして、編集領域512に、編集対象画像としてアップ画像が表示されている場合、専用GUI表示領域530には、被写体の目の部分を加工したり修整するレタッチ処理の選択を受け付けるためのレタッチパレットが表示される。これにより、利用者は、アップ画像に大きく写る利用者自身の顔を、完成度の高い見た目の顔に仕上げることができる。
Thus, when the up image is displayed as the image to be edited in the
一方、図15に示されるように、編集対象画像として全身画像が選択された場合、専用GUI表示領域530には、全身画像に対応したGUIが表示される。ここで、全身画像に対応したGUIは、撮影画像(ここでは全身画像)に写る人物に合成されるコンテンツを選択するためのコンテンツ選択用GUIとされる。ここでいうコンテンツは、撮影画像に合成される合成用画像(特にスタンプ画像)を指す。以下においては、コンテンツ選択用GUIをコンテンツパレットという。
On the other hand, as shown in FIG. 15, when the whole-body image is selected as the image to be edited, a GUI corresponding to the whole-body image is displayed in the dedicated
具体的には、図15の例では、専用GUI表示領域530のコンテンツパレットに、一発なりきりボタン571乃至573が表示されている。これらのボタン571乃至573は、いずれも、全身画像に写る被写体の体の一部に合成されるコンテンツの選択を受け付けるためのボタンである。
Specifically, in the example of FIG. 15, only one
一発なりきりボタン571は、全身画像(編集対象画像)に写る被写体の顔に「うさぎ」の耳とひげを模したスタンプ画像を合成するともに、画像全体にフレーム画像を合成するためのボタンである。一発なりきりボタン572は、全身画像(編集対象画像)に写る被写体の顔に「猫」の耳とひげを模したスタンプ画像を合成するともに、画像全体にフレーム画像を合成するためのボタンである。一発なりきりボタン573は、全身画像(編集対象画像)に写る被写体の顔に「くま」の耳とひげを模したスタンプ画像を合成するともに、画像全体にフレーム画像を合成するためのボタンである。
The single-
一発なりきりボタン571乃至573によって合成される動物の耳とひげを模したスタンプ画像は、全身画像に対する顔認識処理の結果、大きさや向きが調整された上で、全身画像に写る被写体の顔に合成される。
The stamp image imitating the ears and beards of the animal synthesized by the one-
このようにして、編集領域512に、編集対象画像として全身画像が表示されている場合、専用GUI表示領域530には、全身画像に合成されるコンテンツの選択を受け付けるためのコンテンツパレットが表示される。これにより、利用者は、全身画像に写る利用者自身を、かわいく面白味のある見た目に仕上げることができる。
Thus, when the whole body image is displayed in the
なお、本実施の形態においては、アップ画像と全身画像の縦横比(アスペクト比)は異なるものとすることができる。全身画像には、被写体となる利用者の頭から足元まで写る必要がある。そのため、例えば、アップ画像の縦横比を1.2:1、全身画像の縦横比を1.5:1とするなど、アップ画像より全身画像の方が縦長の矩形形状を有することが好ましい。 In the present embodiment, the aspect ratio (aspect ratio) of the up image and the whole image can be different. The full-body image needs to be taken from the head to the foot of the user who is the subject. Therefore, it is preferable that the whole-body image has a vertically-long rectangular shape rather than the up-image, for example, the aspect ratio of the up image is 1.2: 1 and the aspect ratio of the whole body image is 1.5: 1.
このような場合、編集画面の編集領域512において、アップ画像と全身画像が表示される際にそれぞれの横の長さを一定にすると、縦の長さが異なるため、サムネイル表示領域511や編集パレット513のデザインやレイアウトを変更する必要が生じる。
In such a case, if the horizontal length of each of the up image and the whole body image is constant in the
そこで、図14および図15に示されるように、編集画面の編集領域512において、アップ画像と全身画像が表示される際にそれぞれの縦の長さを一定にする。この場合、横の長さが異なるものの、全身画像が表示されるときにその左右に若干のスペースが生じるだけで、サムネイル表示領域511や編集パレット513など編集画面のデザインやレイアウトを変更する必要は生じない。加えて、全身画像が表示される場合には、その左右に、編集パレット513とは別にコンテンツ(スタンプ画像など)を常時配置することができるので、コンテンツのバリエーションを増やすとともに、選択の容易性を向上させることができる。さらには、専用GUI表示領域530を大きくすることもできるので、コンテンツパレットのバリエーションを増やすことも可能となる。
Therefore, as shown in FIGS. 14 and 15, when the up image and the whole body image are displayed in the
<編集処理部の機能構成例>
ここで、図16を参照して、上述した専用GUI表示領域530における表示を実現する編集処理部403の機能構成例について説明する。
<Example of Functional Configuration of Editing Processing Unit>
Here, with reference to FIG. 16, a functional configuration example of the
編集処理部403は、表示制御部601、レタッチ処理部602、および合成処理部603から構成される。
The
表示制御部601は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部601は、タブレット内蔵モニタ131に、撮影により得られた複数の撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示させる。
The
レタッチ処理部602は、特定の画角(撮影範囲)で撮影された撮影画像に写る被写体に対してレタッチ処理を施す。ここでいう特定の画角は、複数の画角のうちの1つの画角のみであってもよいし、2以上の画角であってもよい。
The
合成処理部603は、編集対象となった撮影画像に、利用者により選択されたコンテンツ(スタンプ画像)を合成する。
The
<編集対象画像に応じたレタッチ/合成処理>
次に、図17のフローチャートを参照して、編集処理部403によって実行される編集対象画像に応じたレタッチ/合成処理の流れについて説明する。図17の処理は、サムネイル表示領域511においていずれかのサムネイル画像が選択されると開始される。
<Retouching / Composition Processing According to Editing Image>
Next, the flow of retouching / composition processing according to the image to be edited executed by the
ステップS31において、表示制御部601は、サムネイル表示領域511においていずれかのサムネイル画像が選択されることで、編集対象画像として選択された画像が、特定の画角の撮影画像であるか否かを判定する。ここでは、特定の画角の撮影画像は、アップ撮影により得られたアップ画像とされる。
In step S31, the
ステップS31において、編集対象画像として選択された画像が特定の画角であると判定されると、処理はステップS32に進む。 If it is determined in step S31 that the image selected as the image to be edited has a specific angle of view, the process proceeds to step S32.
ステップS32において、表示制御部601は、専用GUI表示領域530に、レタッチパレットを表示する。
In step S32, the
ステップS33において、表示制御部601は、利用者によってレタッチパレットが操作されたか否かを判定する。ステップS33の処理は、レタッチパレットが操作されるまで繰り返され、レタッチパレットが操作されると、処理はステップS34に進む。
In step S33, the
ステップS34において、レタッチ処理部602は、レタッチパレットに対する操作に応じたレタッチ処理を編集対象画像(ここではアップ画像)に施す。
In step S34, the
一方、ステップS31において、編集対象画像として選択された画像が特定の画角の画像でない(すなわち全身画像である)と判定されると、処理はステップS35に進む。 On the other hand, when it is determined in step S31 that the image selected as the image to be edited is not an image with a specific angle of view (that is, it is a whole body image), the process proceeds to step S35.
ステップS35において、表示制御部601は、専用GUI表示領域530に、レタッチパレットを表示せず、コンテンツパレットを表示する。
In step S35, the
ステップS36において、表示制御部601は、利用者によってコンテンツパレットが操作されたか否かを判定する。ステップS36の処理は、コンテンツパレットが操作されるまで繰り返され、コンテンツパレットが操作されると、処理はステップS37に進む。
In step S36, the
ステップS37において、合成処理部603は、コンテンツパレットに対する操作に応じたコンテンツを編集対象画像(ここでは全身画像)に合成する。
In step S37, the combining
以上の処理によれば、アップ画像が編集対象となったときのみ、アップ画像に写る顔やその一部を加工したり修整するレタッチ処理の選択を受け付けるためのレタッチ用GUIが編集画面に表示される。これにより、利用者自身の顔が大きく写るアップ画像を個々に、所望する見た目の画像に仕上げることが可能となる。 According to the above process, only when the up image is to be edited, the retouching GUI for receiving the selection of the retouching process for processing or modifying the face or part of the face included in the up image is displayed on the editing screen. Ru. As a result, it is possible to individually finish up-up images, in which the user's own face is large, into images of desired appearance.
<編集画面の他の表示パターン>
以上においては、編集画面において、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときにはレタッチパレットが表示されないものとしたが、その逆であってもよい。
<Other display patterns of the editing screen>
In the above description, the retouching palette is displayed when the up image is to be edited on the editing screen, and the retouching palette is not displayed when the whole image is to be edited, but the reverse is also possible.
具体的には、編集画面において、全身画像が編集対象となったときにはレタッチパレットが表示され、アップ画像が編集対象となったときにはレタッチパレットが表示されないようにしてもよい。なお、ここでの全身画像は、上述した、斜め上から見た被写体の全身が写る全身画像、および、正面から見た被写体の全身が写る全身画像のいずれか一方であってもよいし、その両方であってもよい。 Specifically, on the editing screen, the retouching palette may be displayed when the whole-body image is to be edited, and the retouching palette may not be displayed when the up image is to be edited. Note that the whole-body image here may be any one of the whole-body image showing the whole body of the subject seen from above obliquely and the whole-body image showing the whole body of the subject seen from the front, It may be both.
例えば、図18に示されるように、編集対象画像として全身画像が選択された場合、専用GUI表示領域530に、全身画像に対応したレタッチパレットが表示されるようにする。
For example, as shown in FIG. 18, when a whole-body image is selected as an image to be edited, a retouching palette corresponding to the whole-body image is displayed in the dedicated
図18の例では、専用GUI表示領域530のレタッチパレットに、脚長ボタン611、脚細ボタン612、および背高ボタン613の3つのボタンが表示されている。これらのボタン611乃至613は、いずれも、全身画像に写る被写体の脚または全身の領域に対するレタッチ処理の選択を受け付けるためのボタンである。
In the example of FIG. 18, three buttons of a
これらのボタンが操作されると、全身画像(編集対象画像)において図示せぬ顔枠(全身の部分に表示される全身枠であってもよい)が表示されている被写体の脚または全身の領域に、操作されたボタンに対応するレタッチ処理が施される。 When these buttons are operated, the leg or whole body area of the subject whose face frame (which may be the whole body frame displayed on the whole body part) is displayed in the whole body image (image to be edited) The retouch process corresponding to the operated button is performed.
脚長ボタン611は、全身画像(編集対象画像)に写る被写体の脚の長さを変化させる(伸ばす)ためのボタンである。脚細ボタン612は、全身画像(編集対象画像)に写る被写体の脚の細さをより細くするためのボタンである。背高ボタン613は、全身画像(編集対象画像)に写る被写体の背の高さを大きくするためのボタンである。なお、脚長ボタン611や脚細ボタン612が操作された場合、被写体の脚の長さや細さに伴い、被写体の身体(胴体)を細くする痩身処理が施されるようにしてもよい。
The
また、図18のレタッチパレットには、脚長ボタン611、脚細ボタン612、および背高ボタン613それぞれに対応して、OFFボタン621乃至623が表示されている。
Further, in the retouching pallet of FIG. 18, OFF
OFFボタン621乃至623はそれぞれ、編集対象画像において図示せぬ顔枠(または全身枠)が表示されている被写体の脚または全身に施された、ボタン611乃至613それぞれに対応するレタッチ処理を消去する(OFFする)ためのボタンである。
The
このようにして、編集領域512に、編集対象画像として全身画像が表示されている場合、専用GUI表示領域530には、被写体の脚や全身を加工したり修整するレタッチ処理の選択を受け付けるためのレタッチパレットが表示される。これにより、利用者は、全身画像に写る利用者自身の脚や全身を、完成度の高い見た目のスタイルに仕上げることができる。
Thus, when the whole body image is displayed in the
一方、図19に示されるように、編集対象画像としてアップ画像が選択された場合、専用GUI表示領域530に、コンテンツパレットが表示される。
On the other hand, as shown in FIG. 19, when the up image is selected as the image to be edited, the content palette is displayed in the dedicated
図19の例では、専用GUI表示領域530のコンテンツパレットに、一発なりきりボタン631乃至633が表示されている。これらのボタン631乃至633は、いずれも、アップ画像に写る被写体の顔の部分に合成されるコンテンツの選択を受け付けるためのボタンである。
In the example of FIG. 19, only one
一発なりきりボタン631は、アップ画像(編集対象画像)に写る被写体の顔に「うさぎ」の耳とひげを模したスタンプ画像を合成するためのボタンである。一発なりきりボタン632は、アップ画像(編集対象画像)に写る被写体の顔に「猫」の耳とひげを模したスタンプ画像を合成するためのボタンである。一発なりきりボタン633は、アップ画像(編集対象画像)に写る被写体の顔に「犬」の耳とひげを模したスタンプ画像を合成するためのボタンである。
The one-
一発なりきりボタン631乃至633によって合成される動物の耳とひげを模したスタンプ画像は、アップ画像に対する顔認識処理の結果、大きさや向きが調整された上で、アップ画像に写る被写体の顔に合成される。
The stamp image imitating the ears and beards of the animal synthesized by the one-
このようにして、編集領域512に、編集対象画像としてアップ画像が表示されている場合、専用GUI表示領域530には、アップ画像に合成されるコンテンツの選択を受け付けるためのコンテンツパレットが表示される。これにより、利用者は、アップ画像に写る利用者の顔を、かわいく面白味のある見た目に仕上げることができる。
Thus, when the up image is displayed in the
なお、上述したように、編集画面には、主な構成が左右対称に設けられている。したがって、編集画面の左右に設けられている編集領域512には、タブレット内蔵モニタ131に向かう2人の利用者それぞれが、編集対象として選択した撮影画像が表示される。すなわち、編集画面の左右に設けられている専用GUI表示領域530には、利用者それぞれが選択した撮影画像の画角に応じて、レタッチパレットが表示されたり、コンテンツパレットが表示されたりする。
As described above, the main configuration is provided symmetrically on the editing screen. Therefore, in the
また、上述した構成において、専用GUI表示領域530にレタッチパレットが表示されない場合に、コンテンツパレットも表示されないようにすることもできる。
Further, in the above-described configuration, when the retouching palette is not displayed in the dedicated
例えば、アップ画像が編集対象となり、専用GUI表示領域530にレタッチパレットが表示される場合、図20に示されるように、全身画像が編集対象となったときには、専用GUI表示領域530に何も表示されない(選択させない)ようにする。
For example, when the up image is to be edited and the retouching palette is displayed in the dedicated
また、全身画像が編集対象となり、専用GUI表示領域530にレタッチパレットが表示される場合、図21に示されるように、アップ画像が編集対象となったときには、専用GUI表示領域530に何も表示されない(選択させない)ようにする。
When the whole image is to be edited and the retouching palette is displayed in the dedicated
このように、レタッチパレットが表示されない画角の撮影画像が編集対象となったときには、専用GUI表示領域530に何も表示されないようにすることで、利用者を、編集パレット513を用いた編集作業に集中させることができる。
As described above, when the photographed image of the angle of view in which the retouching palette is not displayed is to be edited, nothing is displayed in the dedicated
なお、図20や図21の例のように、専用GUI表示領域530に何も表示されないのではなく、写真シール作成装置1の機種のテーマに沿ったデザインの画像や広告などが、専用GUI表示領域530に表示されるようにしてもよい。さらに、テーマに沿ったデザインの画像や広告以外にも、編集作業に関わる他の機能を実現するためのGUIが表示されるようにしてもよいし、撮影画像(例えば編集が施される前の撮影画像など)が表示されるようにしてもよい。
It should be noted that nothing is displayed in the dedicated
また、上述した例において、専用GUI表示領域530にコンテンツパレットが表示される場合にも、編集対象画像において顔枠(または全身枠)を表示するようにし、その顔枠(または全身枠)が表示されている被写体のみにコンテンツが合成されるようにしてもよいし、全ての被写体にコンテンツが合成されるようにしてもよい。
Further, in the above-described example, even when the content palette is displayed in the dedicated
<編集画面の表示パターンについて>
図22は、上述で説明した、編集対象画像に応じた編集画面(専用GUI表示領域530)の表示パターンについて説明する図である。
<Display pattern of edit screen>
FIG. 22 is a diagram for explaining the display pattern of the editing screen (dedicated GUI display area 530) corresponding to the image to be edited described above.
図22において、「パターン1」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときにはコンテンツパレットが表示される表示パターンである。パターン1は、図14および図15の例で示される表示パターンである。
In FIG. 22, “
「パターン2」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、全身画像が編集対象となったときにはレタッチパレットが表示される表示パターンである。パターン2は、図18および図19の例で示される表示パターンである。
“
「パターン3」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときには何も表示されない表示パターンである。パターン3は、図14および図20の例で示される表示パターンである。
“
「パターン4」は、専用GUI表示領域530に、アップ画像が編集対象となったときには何も表示されず、全身画像が編集対象となったときにはレタッチパレットが表示される表示パターンである。パターン4は、図18および図21の例で示される表示パターンである。
“
このように、本実施の形態においては、編集対象画像に応じた専用GUI表示領域530の表示パターンを用意することができる。
As described above, in the present embodiment, it is possible to prepare a display pattern of the dedicated
<編集画面の表示パターンの他の例>
以上においては、アップ撮影と全身撮影の2種類の撮影が行われる場合の専用GUI表示領域530の表示パターンについて説明したが、他の種類の撮影が行われるようにしてもよい。
<Another Example of Display Pattern of Editing Screen>
In the above, the display pattern of the dedicated
(例1)
全身撮影として、複数種類の画角の撮影が行われるようにする。
(Example 1)
As the whole body shooting, shooting of a plurality of types of angle of view is performed.
図23は、全身撮影の種類について説明する図である。 FIG. 23 is a diagram for explaining the type of whole-body imaging.
例えば、正面から見た被写体の全身が写る全身画像を得る「正面全身撮影」によれば、図23左側に示される正面全身画像P11が得られる。正面全身画像P11は、利用者の全身がバランスよく写り、落ち着いた印象の画像となる。 For example, according to “front full-body imaging” in which a full-body image in which the entire body of the subject viewed from the front is photographed is obtained, a front full-body image P11 shown on the left side of FIG. The front full-body image P11 is an image in which the entire body of the user is captured in a well-balanced manner and has a calm impression.
また、斜め上から見た被写体の全身が写る全身画像を得る「上から全身撮影」によれば、図23中央に示される上から全身画像P12が得られる。上から全身画像P12は、利用者の顔が強調された、ポップな印象の画像となる。 Further, according to “full-body imaging from above” in which a whole-body image in which the whole body of the subject viewed from diagonally above is taken is obtained, a whole-body image P12 is obtained from the top shown in the center of FIG. From above, the full-body image P12 is an image of a pop impression in which the user's face is emphasized.
さらに、全身撮影として、斜め下から見た利用者の全身が写る画像を得る「下から全身撮影」が行われるようにしてもよい。下から全身撮影によれば、図示はしないが、得られる下から全身画像は、利用者の顔が小さく、かつ脚が長く写り、スタイリッシュな印象の画像となる。 Furthermore, as whole body imaging, “full body imaging from the bottom” may be performed to obtain an image in which the entire body of the user viewed from the bottom of the screen is captured. According to full-body imaging from below, although not shown, the obtained full-body image from the bottom has a small face of the user and long legs, thus giving a stylish impression.
なお、全身撮影により、図23右側に示されるような、利用者の全身のうちの膝辺りから上が写る全身画像P13が得られるようにしてもよい。上述した正面全身撮影、上から全身撮影、および下から全身撮影それぞれは、カメラ91の高さを変えることなく、カメラ91のレンズとして広角レンズを用いた上で、そのレンズの光軸の角度を変えるようにし、得られる画像の切り出し範囲を調整することで実現される。
Note that a full-body image P13 in which the upper part is taken from around the knee of the user's entire body as shown in the right side of FIG. 23 may be obtained by whole-body imaging. The above-mentioned front whole-body photography, whole-body photography from above, and whole-body photography from below each use the angle of the optical axis of the lens after using a wide-angle lens as the lens of the
図24は、本例(例1)での、編集対象画像に応じた編集画面(専用GUI表示領域530)の表示パターンについて説明する図である。この例では、アップ画像、上から全身画像、および正面全身画像のいずれかが、編集対象画像となるものとする。 FIG. 24 is a diagram for explaining the display pattern of the editing screen (dedicated GUI display area 530) according to the image to be edited in the present example (example 1). In this example, any of the up image, the whole-body image from the top, and the front whole-body image is the image to be edited.
図24において、「例1−1」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、上から全身画像または正面全身画像が編集対象となったときには何も表示されない表示パターンである。
In FIG. 24, in the example 1-1, the retouching palette is displayed in the dedicated
「例1−2」は、専用GUI表示領域530に、アップ画像または正面全身画像が編集対象となったときにはレタッチパレットが表示され、上から全身画像が編集対象となったときには何も表示されない表示パターンである。
In “Example 1-2”, the retouching palette is displayed in the dedicated
特に、正面全身画像は、上から全身画像と比べて被写体の脚が長く写るので、正面全身画像に対するレタッチ処理として、脚の長さを伸ばす処理の選択を受け付けるようにすることで、正面全身画像において、被写体の脚の長さをより強調することができる。 In particular, since the front full-body image has a longer leg of the subject than the full-body image from above, the front full-body image can be received by accepting the selection of processing for extending the leg length as retouching processing for the front full-body image. , The length of the subject's leg can be emphasized more.
「例1−3」は、専用GUI表示領域530に、アップ画像または上から全身画像が編集対象となったときにはレタッチパレットが表示され、正面全身画像が編集対象となったときには何も表示されない表示パターンである。
In Example 1-3, the retouching palette is displayed in the dedicated
特に、上から全身画像は、正面全身画像と比べて被写体の顔が大きく写るので、上から全身画像に対するレタッチ処理として、目を大きくするなどの処理の選択を受け付けるようにすることで、上から全身画像において、被写体の顔を強調することができる。 In particular, the whole-body image from above looks larger in the subject's face compared to the front full-body image, so that the selection of processing such as enlarging the eyes is accepted as the retouching process for the whole-body image from above. In the full-body image, the face of the subject can be emphasized.
このように、レタッチパレットが表示される種類の画角の撮影画像に対しては、その撮影画像において目立つ部分を強調するレタッチ処理の選択を受け付けるようにする。 As described above, for a photographed image of a type of angle of view in which the retouching palette is displayed, the selection of the retouching process for emphasizing a prominent portion in the photographed image is accepted.
「例1−4」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、上から全身画像が編集対象となったときには何も表示されず、正面全身画像が編集対象となったときにはコンテンツパレットが表示される表示パターンである。
In “Example 1-4”, the retouching palette is displayed in the dedicated
「例1−5」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、上から全身画像が編集対象となったときにはコンテンツパレットが表示され、正面全身画像が編集対象となったときには何も表示されない表示パターンである。
In Example 1-5, the retouching palette is displayed in the dedicated
正面全身画像および上から全身画像は、アップ画像と比べて画像全体に占める背景領域(余白となる領域)、すなわち落書き(コンテンツの配置)対象とすることができる領域が大きい。そこで、正面全身画像または上から全身画像が編集対象となったときには、コンテンツの選択を受け付けるようにすることで、その背景領域にコンテンツを配置させたバランスのとれた画像を提供することができる。 The front full-body image and the whole-body image from the top have a large background area (area serving as a margin) occupied by the entire image, that is, an area that can be used as graffiti (content arrangement) as compared to the up image. Therefore, when a front full-body image or a full-body image from above is to be edited, it is possible to provide a balanced image in which the content is arranged in the background area by accepting selection of the content.
「例1−6」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、上から全身画像が編集対象となったときにはレタッチパレットが表示され、正面全身画像が編集対象となったときには何も表示されない表示パターンである。
In Example 1-6, the content palette is displayed in the dedicated
「例1−7」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、上から全身画像が編集対象となったときには何も表示されず、正面全身画像が編集対象となったときにはレタッチパレットが表示される表示パターンである。
In “Example 1-7”, the content palette is displayed in the dedicated
このように、アップ画像が編集対象となったときには、アップ画像に写る利用者の顔を、かわいく面白味のある見た目に仕上げることができ、上から全身画像や正面全身画像が編集対象となったときには、全身画像に写る利用者自身の脚や全身を、完成度の高い見た目のスタイルに仕上げることができる。 As described above, when the up image is to be edited, the user's face appearing in the up image can be finished to look cute and interesting, and from the top when the whole body image and the front whole image are to be edited. The user's own legs and whole body that appear in the whole body image can be finished in a style that looks perfect.
また、レタッチパレットが表示されない画角の撮影画像が編集対象となったときには、専用GUI表示領域530に何も表示されないようにすることで、利用者を、編集パレット513を用いた編集作業に集中させることができる。
In addition, when the photographed image of the angle of view in which the retouching palette is not displayed is to be edited, nothing is displayed in the dedicated
(例2)
上述したアップ撮影と全身撮影に加えて、携帯おまけ専用の撮影などの特別撮影が行われるようにしてもよい。携帯おまけは、例えば、携帯端末の待受画像に用いられたり、ブログやSNSなどのウェブサイトに公開される画像として用いられる。
(Example 2)
In addition to the up-shooting and the whole-body shooting described above, special shooting such as shooting for exclusive use of a cell phone may be performed. A mobile extra is used, for example, as a standby image of a mobile terminal or as an image published on a website such as a blog or SNS.
図25は、携帯おまけの作成に用いられる携帯おまけ作成画面の表示例を示す図である。 FIG. 25 is a diagram showing a display example of a mobile bonus creation screen used to create a mobile bonus.
図25においては、編集画面中央付近に設けられる携帯おまけボタン651が操作されることで、編集画面上に、携帯おまけ作成画面660が表示されている。
In FIG. 25, a mobile
携帯おまけ作成画面660の中央には、画像表示領域661が設けられている。
An
画像表示領域661には、携帯おまけを作成するために、複数の撮影画像の中から利用者により選択された撮影画像が表示される。利用者は、タッチペン132を用いて編集パレット513の編集ツールを選択し、画像表示領域661に表示された撮影画像の編集を行うことができる。
In the
なお、画像表示領域661に表示される撮影画像は、利用者により選択された撮影画像において、利用者により指定された範囲が切り出されて拡大された画像となる。特に、利用者は、選択した撮影画像に写る被写体の顔を中心とした範囲を指定することが多い。そのため、携帯おまけを作成するために選択される撮影画像は、アップ画像であってもよいし、全身画像であってもよい。これにより、顔が大きく写る携帯おまけを、ブログやSNSのアイコン(プロフィール画像)として用いることができる。
The photographed image displayed in the
このようにして、携帯おまけは、撮影画像に対してトリミングが行われることで作成されるので、利用者は、携帯おまけにおいて被写体の写る範囲、言い換えると、携帯おまけの画角を選択することができる、といえる。 In this way, since the cell phone bonus is created by trimming the captured image, the user can select the range in which the subject appears in the cell phone bonus, in other words, the angle of view of the cell phone bonus It can be said that it can.
また、携帯おまけ作成画面660の左部(画像表示領域661の左方)には、専用GUI表示領域662が設けられる。専用GUI表示領域662は、専用GUI表示領域530と同様に、画像表示領域661に表示される撮影画像(携帯おまけ)の画角に対応したGUIが表示される領域である。
In addition, a dedicated
図26は、本例(例2)での、編集対象画像に応じた編集画面(専用GUI表示領域530)および携帯おまけ作成画面660(専用GUI表示領域662)の表示パターンについて説明する図である。この例では、アップ画像、全身画像、および携帯おまけのいずれかが、編集対象画像となるものとする。 FIG. 26 is a view for explaining display patterns of an editing screen (dedicated GUI display area 530) and a mobile bonus creation screen 660 (dedicated GUI display area 662) corresponding to the image to be edited in this example (example 2). . In this example, it is assumed that any of the up image, the whole body image, and the mobile extra is the image to be edited.
図26において、「例2−1」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときには何も表示されず、また、携帯おまけが編集対象となったときには、専用GUI表示領域622に何も表示されない表示パターンである。
In FIG. 26, in the example 2-1, the retouching palette is displayed in the dedicated
「例2−2」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときには何も表示されず、また、携帯おまけが編集対象となったときには、専用GUI表示領域622にレタッチパレットが表示される表示パターンである。
In “Example 2-2”, the retouching palette is displayed in the dedicated
上述したように、携帯おまけは、顔が大きく写る画像であるので、携帯おまけに対するレタッチ処理として、目を大きくするなどの処理の選択を受け付けるようにすることで、携帯おまけにおいて、被写体の顔を強調することができる。 As described above, since the mobile bonus is an image with a large face, it is possible to receive the selection of processing such as enlarging the eyes as the retouching process for the mobile bonus, and thereby the subject's face is displayed in the mobile bonus. It can be emphasized.
「例2−3」は、専用GUI表示領域530に、アップ画像または全身画像が編集対象となったときにはレタッチパレットが表示され、また、携帯おまけが編集対象となったときには、専用GUI表示領域622に何も表示されない表示パターンである。
In “Example 2-3”, the retouching palette is displayed in the dedicated
「例2−4」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときには何も表示されず、また、携帯おまけが編集対象となったときには、専用GUI表示領域622にコンテンツパレットが表示される表示パターンである。
In “Example 2-4”, the retouching palette is displayed in the dedicated
「例2−5」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときにはコンテンツパレットが表示され、また、携帯おまけが編集対象となったときには、専用GUI表示領域622に何も表示されない表示パターンである。
In “Example 2-5”, the retouching palette is displayed in the dedicated
「例2−6」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、全身画像が編集対象となったときにはレタッチパレットが表示され、また、携帯おまけが編集対象となったときには、専用GUI表示領域622に何も表示されない表示パターンである。
In “Example 2-6”, the content palette is displayed in the dedicated
「例2−7」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、全身画像が編集対象となったときには何も表示されず、また、携帯おまけが編集対象となったときには、専用GUI表示領域622にレタッチパレットが表示される表示パターンである。
In “Example 2-7”, the content palette is displayed in the dedicated
携帯おまけは、写真シール作成ゲームにおいて得られる画像のなかでは、特に「おまけ」の要素が強く、細かい加工などをせずにそのまま利用する利用者が多い。そのため、上述した例2−1,2−3,2−5,2−6のように、携帯おまけが編集対象となったときには、専用GUI表示領域662に何も表示されないようにすることで、レタッチ処理を施さないままの携帯おまけを、利用者に提供することができる。
Among the images obtained in the photo sticker creation game, the mobile bonus is particularly strong in the element of “extra”, and many users use it as it is without fine processing. Therefore, as in the example 2-1, 2-3, 2-5 and 2-6 described above, nothing is displayed in the dedicated
<専用GUI表示領域の他の例>
以上においては、専用GUI表示領域は、編集領域512の横(左または右)に独立して設けられたり、携帯おまけ作成画面上に設けられるものとしたが、編集パレット513上に設けられるようにしてもよい。
<Other Example of Dedicated GUI Display Area>
In the above, the dedicated GUI display area is provided independently on the side (left or right) of the
この場合、編集パレット513の編集画面中央側に設けられたボタンの1つとして、編集パレット513にレタッチパレットまたはコンテンツパレットを表示するためのボタンが用意されるようにする。このボタンが操作された場合、編集対象画像としてアップ画像が表示されているか、または、全身画像が表示されているかに応じて、編集パレット513にレタッチパレットが表示されるか、コンテンツパレットが表示されるかが切り替わる。すなわち、編集対象となる撮影画像の画角に応じて、編集パレット513にレタッチパレットが表示されるか、または、コンテンツパレットが表示されるかが決定される。
In this case, as one of the buttons provided on the center side of the editing screen of the
<編集対象画像の切り替え>
図14などの編集画面においては、サムネイル表示領域511に表示されているサムネイル画像のいずれかが選択されることで、編集対象画像が、選択されたサムネイル画像に対応する撮影画像に切り替わって表示される。
<Switching of image to be edited>
In the editing screen of FIG. 14 or the like, when any of the thumbnail images displayed in the
これに限らず、他の形態で、編集対象となる撮影画像が切り替わるようにしてもよい。 The present invention is not limited to this, and the photographed image to be edited may be switched in another form.
例えば、図27に示されるように、編集領域512の左右両側に、切替ボタン681,682を設けるようにし、切替ボタン681,682がタッチペン132により操作されることで、編集領域512に編集対象画像として表示される撮影画像が切り替わるようにしてもよい。この場合、編集画面に、サムネイル表示領域511は設けられない。
For example, as shown in FIG. 27, the
さらに、切替ボタン681,682をも設けず、編集領域512に編集対象画像として表示される撮影画像が、所定の時間おきに切り替わるようにしてもよい。
Furthermore, the
<レタッチ処理のバリエーション>
上述した例において、レタッチ処理は、撮影画像における人物(被写体)の顔、目や鼻、口などの顔パーツ、さらには全身が認識されることで適切に施される。
<Variation of retouching process>
In the above-described example, the retouching process is appropriately performed by recognizing the face of the person (subject) in the captured image, the face parts such as the eyes, the nose, and the mouth, and the whole body.
ここでは、レタッチ処理として施される画像処理の種類について説明する。 Here, types of image processing to be applied as retouching processing will be described.
(1)顔認識に関する画像処理
目の大きさ、肌の明るさ、肌の色、顔の大きさ、髪の色、メイクの濃淡などを変える処理がある。これらの処理は、編集対象となる撮影画像における利用者の顔を認識することで、実現可能とされる。具体的には、以下のような画像処理が挙げられる。
(1) Image processing related to face recognition There are processes for changing the size of eyes, the brightness of skin, the color of skin, the size of face, the color of hair, the density of makeup, and the like. These processes can be realized by recognizing the face of the user in the photographed image to be edited. Specifically, the following image processing may be mentioned.
(1−1)小顔処理
例えば、まず、図28左に示されるように、撮影画像711に写る2人の被写体の顔の輪郭点p11乃至p15,p21乃至p25を抽出する。次に、図28中央に示されるように、抽出された輪郭点に基づいて、それらを含む矩形領域F1,F2を設定する。そして、図28右に示されるように、設定された矩形領域を、その上辺を固定した状態で縮小する処理を施す。
(1-1) Small Face Processing For example, as shown on the left of FIG. 28, outline points p11 to p15 and p21 to p25 of faces of two subjects shown in the photographed
具体的には、矩形領域の境界近傍の領域に対して、矩形領域の内側の領域を縮めるように、矩形領域の外側の領域を伸ばすようにして変形処理を施す。このようにして、矩形領域の境界近傍の領域において、画素の欠損を生じることなく、矩形領域を縮小する。 Specifically, deformation processing is performed on the area near the boundary of the rectangular area so as to stretch the area outside the rectangular area so as to shrink the area inside the rectangular area. In this manner, in the area near the boundary of the rectangular area, the rectangular area is reduced without pixel loss.
その他には、まず、図29左に示されるように、撮影画像711に写る2人の被写体の顔の輪郭線L1,L2を特定する。そして、図29右に示されるように、特定された輪郭線L1,L2を顔領域の内側に移動することで、新たな輪郭線C1,C2を設定する。
In addition, first, outlines L1 and L2 of faces of two subjects shown in the photographed
具体的には、輪郭線L1,L2を中心にして所定の幅をもつ境界領域に対して、境界領域の内側の領域を縮めるように、境界領域の外側の領域を伸ばすようにして変形処理を施す。このようにして、境界領域において、画素の欠損を生じることなく、輪郭線C1,C2を設定する。 Specifically, for the boundary area having a predetermined width around the outlines L1 and L2, the deformation process is performed so that the area outside the boundary area is stretched so as to shrink the area inside the boundary area. Apply. In this manner, the outlines C1 and C2 are set in the boundary area without causing pixel loss.
以上のような処理により、被写体の顔を小さくする。 The face of the subject is reduced by the above processing.
(1−2)目サイズ変更処理
まず、撮影画像に写る被写体の顔領域において目領域の画像を抽出する。そして、抽出された目領域の画像を、所定の拡大率で拡大する。数パターンの拡大率が用意されるようにしてもよい。
(1-2) Eye Size Changing Process First, an image of the eye area is extracted in the face area of the subject appearing in the photographed image. Then, the image of the extracted eye area is enlarged at a predetermined enlargement ratio. Several patterns of enlargement factors may be prepared.
このような処理により、目のサイズを変更する。 Such processing changes the size of the eye.
(1−3)美鼻処理
まず、撮影画像に写る被写体の顔領域において鼻領域の画像を抽出する。そして、抽出された鼻領域の画像の一部または全部を、所定の縮小率で縮小する。数パターンの縮小率が用意されるようにしてもよい。
(1-3) Beautification Process First, an image of the nose area is extracted in the face area of the subject appearing in the photographed image. Then, a part or all of the image of the extracted nose area is reduced at a predetermined reduction rate. Several reduction ratios may be prepared.
このような処理により、鼻の大きさや形状を変更する。 Such processing changes the size and shape of the nose.
(1−4)口サイズ変更処理
まず、撮影画像に写る被写体の顔領域において口領域の画像を抽出する。そして、抽出された口領域の画像を、所定の拡大率で拡大するか、または、所定の縮小率で縮小する。数パターンの拡大率や縮小率が用意されるようにしてもよい。
(1-4) Mouth Size Changing Process First, an image of the mouth area is extracted in the face area of the subject appearing in the photographed image. Then, the image of the extracted mouth area is enlarged at a predetermined enlargement ratio or reduced at a predetermined reduction ratio. Several patterns of enlargement or reduction may be prepared.
このような処理により、口のサイズを変更する。 Such processing changes the size of the mouth.
(1−5)目形状変更処理
まず、撮影画像に写る被写体の顔領域において目尻部分または目頭部分を特定する。そして、特定された目尻部分または目頭部分を、所定距離だけ上方向(頭の方向)や下方向(顎の方向)、その他の方向に移動する。
(1-5) Eye Shape Changing Process First, the corner portion or the corner portion of the eye is specified in the face region of the subject appearing in the photographed image. Then, the identified corner portion or the corner portion of the eye is moved in the upward direction (head direction), the downward direction (jaw direction), and other directions by a predetermined distance.
このような処理により、目の形状を変更し、たれ目やつり目など、目元の印象を変える。 By such processing, the shape of the eye is changed, and the impression of the eye such as the hanging eye or the hanging eye is changed.
(1−6)口元変更処理
まず、撮影画像に写る被写体の顔領域において口角部分を特定する。そして、特定された口角部分を、所定距離だけ上方向(頭の方向)に移動する。
(1-6) Mouth change processing First, a corner of the mouth is specified in the face area of the subject shown in the photographed image. Then, the specified corner of the mouth is moved upward by a predetermined distance (head direction).
このような処理により、口元の形を変更し、微笑んだときの口元に変える。また、口角が上がりすぎている場合には、口角部分を下方向に移動することで、口元の形を変更するようにしてもよい。 By this process, the shape of the mouth is changed, and it is changed to the mouth when smiling. If the corner of the mouth is too high, the shape of the mouth may be changed by moving the corner of the corner downward.
(1−7)肌色変更処理
まず、肌領域を特定する。そして、特定された肌領域の色を調整する。
(1-7) Skin Color Changing Process First, a skin area is specified. Then, the color of the identified skin area is adjusted.
このような処理により、肌の色を変更する。 Such processing changes the color of the skin.
(1−8)髪色変更処理
まず、髪領域を特定する。そして、特定された髪領域の色を調整する。
(1-8) Hair Color Changing Process First, a hair region is specified. Then, the color of the identified hair area is adjusted.
このような処理により、髪の色を変更する。 Such processing changes the hair color.
(1−9)化粧処理
まず、撮影画像に写る被写体の顔領域において頬部分や唇部分を特定する。そして、特定された頬部分や唇部分の領域の色を、ピンク色や赤色などに変更する。
(1-9) Makeup Processing First, a cheek portion and a lip portion are specified in the face region of the subject shown in the photographed image. Then, the color of the area of the specified cheek portion or lip portion is changed to pink or red.
このような処理により、チークや口紅などの化粧を施した顔に変更する。 By such processing, the face is changed to a face with makeup such as teak or lipstick.
(1−10)美肌処理
撮影画像全体や、撮影画像に写る被写体の肌領域に対して、ぼかし処理を施す。
(1-10) Skin softening process A blurring process is performed on the entire photographed image and the skin area of the subject appearing in the photographed image.
このような処理により、肌をきれいに見えるようにする。 Such treatment makes the skin look clean.
以上においては、顔認識の結果を利用した画像処理が顔領域に施されるものとした。 In the above, it is assumed that image processing using the result of face recognition is applied to the face area.
これに限らず、顔領域や肌色領域を取得するマスク画像を生成し、そのマスク画像を利用した画像処理が顔領域に対して施されるようにしてもよい。 The present invention is not limited to this, and a mask image for acquiring a face area or a skin color area may be generated, and image processing using the mask image may be performed on the face area.
一方、全身画像に対するレタッチ処理においては、人物領域全体を取得するマスク画像を生成し、そのマスク画像を利用した画像処理が人物領域に対して施されるようにしてもよい。人物領域全体のマスク画像を利用した画像処理としては、被写体の脚を長くする脚長処理や、被写体の身体を細くする痩身処理などがある。 On the other hand, in the retouching process on the whole body image, a mask image for acquiring the entire person area may be generated, and image processing using the mask image may be performed on the person area. As image processing using a mask image of the entire human area, there are leg length processing for making the leg of the subject longer and slimming processing for making the body of the subject thinner.
(2)全身認識に関する画像処理
全身画像に対して施されるレタッチ処理としては、以下のような、全身認識に関する画像処理が挙げられる。
(2) Image Processing Relating to Whole Body Recognition Examples of the retouching process applied to a whole body image include the following image processing relating to whole body recognition.
(2−1)脚の長さ・脚の細さ
脚の長さを変える処理は、足先から腰の領域を特定し、その領域を上下方向に伸長することで実現される。また、脚の細さを変える処理は、足先から腰の領域を特定し、その領域の境界部分を内側に向かう方向に移動することで実現される。
(2-1) Leg Length and Leg Thinness The process of changing the leg length is realized by identifying the area from the toe to the waist and extending the area in the vertical direction. Further, the process of changing the thinness of the leg is realized by identifying an area from the toe to the waist and moving the boundary portion of the area in the inward direction.
これらの処理は、利用者が直立し脚が真っ直ぐな状態でなければ、適切に施されない。例えば、膝から足先が水平になるように、片方の脚の膝を曲げるようなポーズで写った場合、脚の長さや脚の細さを変える処理により、曲げた方の膝から足先が太くなったり短くなってしまう。そこで、全身の輪郭点に基づいて、脚が真っ直ぐな状態でないと判定された場合には、脚の長さや脚の細さを変える処理が施されないようにしてもよい。 These treatments are not properly applied unless the user is upright and the legs are straight. For example, in the case of a posture where the knee of one leg is bent so that the knee to the leg is horizontal, the process of changing the leg length and the leg thickness allows the toe to be bent from the bent knee. It gets thicker and shorter. Therefore, if it is determined that the leg is not straight based on the contour point of the whole body, processing to change the leg length and the leg thickness may not be performed.
また、これらの処理は、利用者がロングスカートなどを着用している場合にも、適切に施されない。この場合、脚の長さや脚の細さを変える処理により、ロングスカートの柄や模様が長くなったり細くなってしまう。そこで、肌色領域を特定し、その領域のみに脚の長さや脚の細さを変える処理が施されるようにしてもよい。さらに、スカートの柄の有無などに応じて、長くする量や細くする量が変更されるようにしてもよい。 In addition, these treatments are not properly applied even when the user wears a long skirt or the like. In this case, the pattern or pattern of the long skirt becomes long or thin due to the process of changing the leg length and the leg thickness. Therefore, a skin color area may be specified, and processing may be performed to change the leg length and the leg thickness only in that area. Furthermore, depending on the presence or absence of the skirt pattern, the lengthening amount and the thinning amount may be changed.
さらに、これらの処理が、足先にまで施されることで、利用者が着用している靴やサンダルなどが変形してしまうおそれがある。そこで、足首からつま先までの領域をさらに特定し、その領域については、脚の長さや脚の細さを変える処理が施されないようにしたり、処理の度合いを弱めるようにしてもよい。 Furthermore, there is a possibility that shoes, sandals, etc. worn by the user may be deformed by applying these treatments to the toes. Therefore, the area from the ankle to the toe may be further specified, and in the area, processing for changing the length or the thinness of the leg may not be performed, or the degree of processing may be weakened.
(2−2)身長
身長を変える処理は、頭から足先までの人物領域を特定し、その領域を上下方向に伸長または短縮することで実現される。人物領域は、クロマキー処理により人物マスク画像を生成することで特定されるようにすることもできる。身長を変える処理によれば、低身長の利用者の身長を高くすることはもちろん、高身長の利用者の身長を低くすることもできる。
(2-2) Height The process of changing the height is realized by specifying the person area from the head to the foot and extending or shortening the area in the vertical direction. The person area can also be identified by generating a person mask image by chroma key processing. According to the process of changing the height, it is possible not only to increase the height of the short stature user but also to reduce the height of the high stature user.
(2−3)二の腕
上腕(いわゆる二の腕)を細くする処理は、肌色領域と顔領域の位置から上腕が含まれる領域を推定し、その境界部分を内側に向かう方向に移動することで実現される。この処理によれば、撮影画像における利用者の上腕を細くすることができる。
(2-3) Two arms The process of thinning the upper arms (so-called two arms) is realized by estimating the area including the upper arms from the positions of the skin color area and the face area, and moving the boundary part in the inward direction. . According to this process, the upper arm of the user in the photographed image can be thinned.
(2−4)腰のくびれ
腰のくびれを強調する処理は、撮影画像における顔を除いた人物領域の略全ての領域を、人物領域の内側(中心)に向かう方向に移動することで実現される。この処理によれば、撮影画像に写る利用者のスタイルのより良いものにすることができる。
(2-4) Waist waist processing of emphasizing waist waist is realized by moving substantially the entire human region excluding the face in the captured image in a direction toward the inside (center) of the human region. Ru. According to this process, it is possible to make the style of the user reflected in the photographed image better.
(2−5)首の長さ
全身画像に対して、人物の顔を小さくする小顔処理が施された場合、相対的に首が長く見えてしまう。そこで、人物の全身に対する顔の大きさ(長さ)に応じて、首の長さを変更する処理を施すことができるようにする。
(2-5) Neck Length When a small face process is performed on a full-body image to make the face of a person smaller, the neck looks relatively long. Therefore, processing for changing the length of the neck can be performed according to the size (length) of the face with respect to the whole body of the person.
(2−6)背面と床面との境界線
撮影画像(全身画像)に写る利用者の背景領域に、背面(背面パネル51)と床面との境界を模した境界線を含む背景画像を合成することができるようにしてもよい。この場合、さらに、その境界線の高さ(上下方向の位置)を変える処理が施されるようにしてもよい。
(2-6) Boundary line between the back surface and the floor surface A background image including a boundary line imitating the boundary between the back surface (the back panel 51) and the floor surface in the background area of the user reflected in the photographed image (whole body image) You may enable it to synthesize | combine. In this case, a process of changing the height (the position in the vertical direction) of the boundary may be further performed.
例えば、図30左側に示される全身画像P21には、背面と床面との境界を模した境界線b11を含む背景画像が合成されているものとする。この全身画像P21に、図30右側に示されるように、境界線b11より高い位置にある境界線b12を含む背景画像が合成されることで、画像の奥行き感を強調することができる。この境界線が、全身画像において高い位置にあるほど、背面と床面との境界が遠くにあるように見え、画像の奥行き感を増すことができる。 For example, it is assumed that a background image including a boundary line b11 imitating the boundary between the back surface and the floor surface is synthesized with the full-body image P21 shown on the left side of FIG. A sense of depth of the image can be enhanced by combining the background image including the boundary line b12 higher than the boundary line b11 with the full-body image P21 as shown on the right side of FIG. The higher this boundary is in the full-body image, the farther the boundary between the back surface and the floor looks like, and the depth of the image can be increased.
(2−7)合成用画像
合成用画像のうち、利用者の全身に合成される合成用画像の位置や大きさを変える処理を、利用者毎に施すようにしてもよい。
(2-7) Compositing Image Among the compositing images, processing for changing the position and size of the compositing image to be synthesized on the whole body of the user may be performed for each user.
例えば、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の身長に応じた位置に合成されるようにする。具体的には、図30に示されるように、利用者の身長が低い場合、浮き輪を模した合成用画像f11は、低い位置に合成される。利用者の身長が中程度の場合、浮き輪を模した合成用画像f12は、中程度の位置に合成される。そして、利用者の身長が高い場合、浮き輪を模した合成用画像f13は、高い位置に合成される。 For example, a composition image imitating a floating ring to be composited around the waist of the user is composited at a position according to the height of the user. Specifically, as shown in FIG. 30, when the height of the user is low, the image f11 for synthesis imitating a floating ring is synthesized at a low position. When the height of the user is medium, the image f12 for synthesis imitating a floating ring is synthesized at an intermediate position. Then, when the height of the user is high, the image f13 for combination imitating a floating ring is combined at a high position.
また、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の体型に応じたサイズで合成されるようにしてもよい。具体的には、図31に示されるように、利用者の体型が小さい場合、浮き輪を模した合成用画像f21は、小さいサイズで合成される。利用者の体型が中程度の場合、浮き輪を模した合成用画像f22は、中程度のサイズで合成される。そして、利用者の体型が大きい場合、浮き輪を模した合成用画像f23は、大きいサイズで合成される。 Further, a composition image imitating a floating ring to be composited around the waist of the user may be composited in a size according to the user's body type. Specifically, as shown in FIG. 31, when the user's physical shape is small, the image f21 for synthesis imitating a floating ring is synthesized in a small size. When the user's body type is medium, the image f22 for synthesis imitating a floating ring is synthesized with a medium size. Then, when the user's physical shape is large, the image f23 for synthesis imitating a floating ring is synthesized in a large size.
(2−8)写り方
被写体となる利用者に照射される光の光量や向き、瞳に写り込むキャッチライトの大きさなど、撮影空間A1内に設けられている照明装置(各ストロボ)により実現される光学環境に依存する写り方を、画像処理により変えるようにしてもよい。
(2-8) Method of shooting Realized by the illumination device (each strobe) provided in the shooting space A1, such as the amount and direction of light emitted to the user as the subject, and the size of the catch light to be reflected in the pupil The way of projection depending on the optical environment to be made may be changed by image processing.
なお、上述した画像処理は、それぞれ単独で撮影画像に施されてもよいし、互いに組み合わされて撮影画像に施されてもよい。後者の場合、組み合わされる画像処理それぞれを、利用者に選択させるようにしてもよいし、あらかじめ決められた画像処理の組み合わせを利用者に選択させるようにしてもよい。 The image processing described above may be applied to the captured image independently or may be applied to the captured image in combination with each other. In the latter case, the user may select each of the image processing to be combined, or the user may select a predetermined combination of image processing.
<被写体の認証について>
以上においては、レタッチ処理の対象となる被写体の選択は、編集対象画像に写る被写体がタッチペン132により選択されることで行われるものとした。
<About authentication of the subject>
In the above, the selection of the subject to be the target of the retouching process is performed by selecting the subject shown in the image to be edited with the touch pen 132.
これに限らず、例えば1回目の撮影により得られた1枚目の撮影画像に写る2人の利用者のいずれかを選択させることで、他の撮影画像においてレタッチ処理の対象となる被写体を選択させるようにしてもよい。この場合、1枚目の撮影画像に写る2人の利用者の立ち位置によって、他の撮影画像における利用者が特定されるようにする。 The present invention is not limited to this. For example, by selecting one of the two users shown in the first photographed image obtained by the first photographing, the subject to be subjected to the retouching process in the other photographed images is selected. You may make it In this case, the user in the other photographed image is specified by the standing positions of the two users shown in the first photographed image.
しかしながら、この場合、1枚目の撮影画像と他の撮影画像とで、2人の利用者の左右の立ち位置が同じであることが前提とされる。 However, in this case, it is assumed that the left and right standing positions of the two users are the same in the first photographed image and the other photographed image.
すなわち、1回目の撮影により得られた1枚目の撮影画像と、それ以降の撮影により得られた他の撮影画像とにおいて、2人の利用者の左右の立ち位置が同じであることで、それぞれの利用者が編集画面において選択したレタッチ処理が、撮影画像に写る自分自身に施されるようになる。 That is, in the first photographed image obtained by the first photographing and the other photographed images obtained by the subsequent photographing, the left and right standing positions of the two users are the same. The retouching process selected by each user on the editing screen is applied to himself / herself in the photographed image.
しかしながら、図33に示されるように、1回目の撮影により得られた1枚目の撮影画像において認識された人物の全身画像N31,N32それぞれに写る利用者の立ち位置が、他の撮影画像P31において左右に入れ替わった場合、一方の利用者が選択したレタッチ処理は、他の撮影画像P31に写る他方の利用者に施されてしまう。 However, as shown in FIG. 33, the user's standing position shown in each of full-body images N31 and N32 of the person recognized in the first photographed image obtained by the first photographing is the other photographed image P31. In the case where the left and right are switched, the retouching process selected by one user is applied to the other user shown in the other captured image P31.
そこで、1回目の撮影により認識された利用者それぞれを、他の撮影画像において認証することで、一方の利用者が選択したレタッチ処理が、2回目以降の撮影での立ち位置によらず、撮影画像に写るその利用者自身に施されるようにすることができる。 Therefore, the retouching process selected by one of the users can be taken regardless of the standing position in the second and subsequent photographings by authenticating each of the users recognized in the first photographing in the other photographed images. It can be applied to the user who appears in the image.
具体的には、1回目の撮影において認識された利用者にIDを割り当て、2回目以降の撮影により得られた撮影画像において、IDが割り当てられた利用者が、どの部分に写っているのかが特定される。このような認証処理は、例えば、所定回数の撮影が全て終了した後に行われるか、2回目以降の撮影により1枚の撮影画像が得られる毎に行われる。 Specifically, an ID is assigned to the user recognized in the first photographing, and in the photographed image obtained in the second and subsequent photographing, in which part the user to which the ID is allocated is shown It is identified. Such an authentication process is performed, for example, after all the predetermined number of times of photographing have been completed, or every time one photographed image is obtained by the second and subsequent photographing.
ここで、以下においては、1回目の撮影を認識撮影といい、認識撮影により得られた撮影画像を認識用画像という。また、2回目以降の撮影を通常撮影といい、通常撮影により得られた撮影画像を単に撮影画像という。 Here, in the following, the first photographing is referred to as recognition photographing, and a photographed image obtained by the recognition photographing is referred to as a recognition image. Further, the second and subsequent photographing is called normal photographing, and a photographed image obtained by the normal photographing is simply called a photographed image.
(認証処理の例1)
まず、図34のフローチャートを参照して、認証処理の第1の例について説明する。図34の処理は、例えば、認識撮影が行われた後から、通常撮影が終了するまでの間に行われてもよいし、通常撮影が終了し、編集画面が表示される前までの間に行われてもよい。
(Example 1 of authentication process)
First, the first example of the authentication process will be described with reference to the flowchart of FIG. The process of FIG. 34 may be performed, for example, after the recognition shooting is performed until the normal shooting ends, or until the normal shooting ends and the editing screen is displayed. It may be done.
ステップS51において、レタッチ処理部602は、認識撮影により得られた認識用画像において、人物の顔を認識する。認識撮影の際、例えば、所定の枠内に利用者それぞれの全身が収まるようにして撮影が行われるようにする。この場合、その枠内にある顔が、それぞれの利用者の顔として認識される。なお、顔の認識は、認識用画像の原画像に対して行われてもよいし、原画像から所定領域が切り出された切り出し画像に対して行われてもよい。
In step S51, the
ステップS52において、レタッチ処理部602は、認識された顔にIDを割り当て、その顔を含む人物の全身画像を登録する。
In step S52, the
具体的には、まず、利用者(被写体)の顔の輪郭点が全て抽出される。このように輪郭点が抽出されるため、例えば、顔の部分に手があったり、横顔であったりすると、正確に輪郭を抽出できない可能性がある。 Specifically, first, all contour points of the user (subject) face are extracted. Since contour points are extracted in this manner, there is a possibility that contours can not be accurately extracted if, for example, there is a hand on the face portion or a side face.
しかしながら、本実施の形態のように認識撮影を行うことで、通常撮影のときとは異なり、利用者が、正面を向いた状態で、かつポーズをとらない状態で撮影を行う可能性が高くなる。すなわち、顔の部分に手があったり、横向きであったりする状態ではなく、顔の輪郭を抽出しやすい状態で認識撮影が行われる可能性が高くなる。 However, by performing the recognition shooting as in the present embodiment, unlike in the case of the normal shooting, there is a high possibility that the user faces the front and does not take a pose. . That is, there is a high possibility that the recognition imaging is performed in a state where it is easy to extract the outline of the face, not in a state where the hand has a hand or is in a sideways manner in the face part.
これにより、輪郭点の抽出も正確に行うことができる。抽出された輪郭点により顔認証信頼度が算出される。そして、顔認証信頼度が最も高い顔の座標情報が確認され、その顔の中点が画像内の左側にあるか、右側にあるかで、利用者が認識される。例えば、図35に示されるように、利用者が検出され、顔認証信頼度がそれぞれ算出されたとする。すなわち、画面内の右側に位置する利用者の顔認証信頼度が700と算出され、画面内の左側に位置する利用の顔認証信頼度が650と算出されたとする。図中の矩形は、顔領域の部分を示している。 This allows accurate extraction of contour points. The face recognition reliability is calculated from the extracted contour points. Then, the coordinate information of the face having the highest face recognition reliability is confirmed, and the user is recognized depending on whether the midpoint of the face is on the left side or on the right side in the image. For example, as shown in FIG. 35, it is assumed that the user is detected and the face authentication reliability is calculated. That is, it is assumed that the face authentication reliability of the user located on the right side in the screen is calculated to be 700, and the face authentication reliability of the use located on the left side in the screen is calculated to be 650. The rectangles in the figure indicate parts of the face area.
このような場合、顔認証信頼度が最も高い顔は、画像の中央を境界として、右半分に存在する顔であり、右の利用者として確定される。そして、右の利用者がID=0と設定される。残りの利用者は、左の利用者とされ、ID=1と設定される。IDが割り当てられた利用者の顔の情報、例えば、抽出された輪郭点の位置関係に加え、認識された顔および顔よりも下の領域を含む画像、すなわち全身画像が、認識結果としてデータベースに登録される。 In such a case, the face with the highest face recognition reliability is a face that exists in the right half with the center of the image as the boundary, and is determined as the right user. Then, the right user is set to ID = 0. The remaining users are left users, and ID = 1 is set. Information of the user's face to which ID is assigned, for example, an image including the recognized face and an area below the face in addition to the positional relationship of the extracted contour points, ie, a whole-body image is added to the database as a recognition result. be registered.
なお、2人の利用者が写っている画像であるため、一方の利用者の顔にIDが割り当てられた時点で、他方のIDを割り当てるようにしても良い。 In addition, since it is the image in which two users are reflected, when ID is allocated to the face of one user, you may make it allocate ID of the other.
また、輪郭点全域ではなく、目、鼻、口、耳などの顔の器官だけを抽出してもよいし、顔の輪郭だけが抽出されてもよい。また、まず画像の最も左の利用者を認識し、次に右の利用者を認識する、という流れで処理が行われるようにしてもよい。この場合、左の1名が認識され、認識された人物以外の人物が認識される、という流れになる。 In addition, not the entire contour point but only facial organs such as eyes, nose, mouth, and ears may be extracted, or only the contour of the face may be extracted. Alternatively, the process may be performed by first recognizing the leftmost user of the image and then recognizing the right user. In this case, one person on the left is recognized, and a person other than the recognized person is recognized.
ステップS53において、レタッチ処理部602は、撮影画像を取得する。レタッチ処理部602は、通常撮影が行われる度に撮影画像を取得するようにしてもよいし、通常撮影が全て終了した後に、全ての撮影画像を取得するようにしてもよい。
In step S53, the
ステップS54において、レタッチ処理部602は、取得された撮影画像から、1つの顔を検出し、データベースに登録されている情報との比較を行う。
In step S54, the
そして、ステップS55において、レタッチ処理部602は、比較結果を用いて、ID毎に顔照合信頼度を算出する。
Then, in step S55, the
例えば、図36に示されるような画像が、撮影画像として取得されたとする。まず、撮影画像内の右側に位置する利用者が検出される。ここでの検出は、ステップS51において実行される認識と同様に、例えば、顔の輪郭点を抽出したり、顔の器官を抽出したりすることで行われる。 For example, it is assumed that an image as shown in FIG. 36 is acquired as a photographed image. First, a user located on the right side in the captured image is detected. The detection here is performed by, for example, extracting an outline point of a face or extracting an organ of a face, as in the recognition performed in step S51.
そして、検出された顔の情報と、データベースに登録されている顔の情報(認識結果)とが比較される。例えば、データベースに登録されている顔の情報が、顔の輪郭点の位置関係に関する情報であった場合、検出された顔の輪郭点の位置関係の情報が生成され、生成された情報と、登録されている情報とが比較される。 Then, the detected face information and the face information (recognition result) registered in the database are compared. For example, when the information of the face registered in the database is the information on the positional relation of the contour points of the face, the information of the positional relation of the detected contour points of the face is generated, and the generated information and registration The information being compared is compared.
まず、データベース内のID=0の情報と、検出された顔の情報とが比較され、顔照合信頼度が算出される。顔照合信頼度は、ID=0が割り当てられた利用者との照合結果が、どれだけ信頼できるかを示す値であり、この数値が高いほど、データベースに登録された顔と類似していることを示す。顔照合信頼度は、例えば0乃至1000の値をとり得る値とされる。 First, the information of ID = 0 in the database is compared with the information of the detected face to calculate the face matching reliability. The face matching reliability is a value indicating how reliable the matching result with the user assigned ID = 0 is, and the higher the value, the more similar the face registered in the database. Indicates The face matching reliability is, for example, a value that can take a value of 0 to 1000.
図36においては、右側に位置する利用者のID=0との顔照合信頼度は、710と算出されている。また、同様に、ID=1との顔照合信頼度は、650と算出されている。このように、1つの顔に対して、ID毎に顔照合信頼度が算出される。 In FIG. 36, the face matching reliability with the user ID = 0 on the right side is calculated as 710. Similarly, the face matching reliability with ID = 1 is calculated as 650. Thus, the face matching reliability is calculated for each ID for one face.
そして、ステップS56において、レタッチ処理部602は、顔照合信頼度が高いIDをその画像の利用者のIDとして確定する。図36の例では、撮影画像内の右側に位置する利用者は、ID=0との顔照合信頼度の方が、ID=1との顔照合信頼度よりも高いので、右側に位置する利用者は、ID=0が割り当てられた利用者であると判断される。よって、図23に示された撮影画像においては、右側に位置する利用者は、ID=0が割り当てられた利用者であると確定される。
Then, in step S56, the
ステップS57において、撮影画像内に他の顔があるか否かが判断される。上述した例では、右側に位置する利用者に対する処理が終了しただけであるので、まだ左側に位置する利用者の顔は処理していないと判断され、処理はステップS55に戻る。 In step S57, it is determined whether there is another face in the captured image. In the example described above, only the process for the user located on the right side is completed, so it is determined that the face of the user still located on the left side is not processed, and the process returns to step S55.
左側に位置している利用者の顔に対しても、右側に位置している利用者の顔に対する処理と同様の処理が行われることで、ID毎の顔照合信頼度が算出される。図36の例では、左側に位置する利用者のID=0との顔照合信頼度は700であり、ID=1との顔照合信頼度は800であると算出されている。 Also for the face of the user located on the left side, the same process as the process for the face of the user located on the right side is performed to calculate the face matching reliability for each ID. In the example of FIG. 36, the face matching reliability with the user ID = 0 on the left side is 700, and the face matching reliability with the ID = 1 is calculated to be 800.
よって、図36の例では、撮影画像内の左側に位置する利用者は、ID=0との顔照合信頼度の方が、ID=1との顔照合信頼度よりも低いので、左側に位置する利用者は、ID=1の利用者であると判断される。よって、図36に示される撮影画像においては、左側に位置する利用者は、ID=1が割り当てられた利用者であると確定される。 Therefore, in the example of FIG. 36, the user located on the left side in the captured image is located on the left side because the face matching reliability with ID = 0 is lower than the face matching reliability with ID = 1. It is determined that the user who is performing the process is an ID = 1 user. Therefore, in the photographed image shown in FIG. 36, the user located on the left side is determined to be the user assigned ID = 1.
このようにして、撮影画像内の利用者毎にIDが割り当てられる。仮に、2人の利用者がデータベースに登録されている状態で、3人の利用者が検出された場合、その中の1人の利用者の顔照合信頼度は、他の利用者の顔照合信頼度よりも低い値となる。そのような他の利用者よりも低い顔照合信頼度が算出された利用者は、データベースに登録されていない利用者であるとして処理される。 Thus, an ID is assigned to each user in the captured image. If two users are registered in the database and three users are detected, then the face matching reliability of one of the users is the face matching of the other users. It is lower than the reliability. A user whose face matching reliability is lower than that of other users is treated as a user not registered in the database.
このようにして、撮影画像内の利用者毎にIDを割り当てる処理が、全ての撮影画像に対して行われる。例えば、通常撮影により5枚の撮影画像が取得される場合、5枚の撮影画像が処理されたと判断されるまで、まだIDが割り振られていない撮影画像に対する処理が繰り返される。 In this manner, the process of assigning an ID to each user in the photographed image is performed on all photographed images. For example, when five captured images are acquired by normal imaging, the process on the captured image to which an ID has not been assigned is repeated until it is determined that the five captured images have been processed.
その結果、撮影画像毎に、撮影画像内の利用者に対してIDが割り当てられ、同一のIDは、同一の利用者であるとして処理される。このようにして、撮影画像毎に、データベースに登録されている利用者との照合が行われることで、撮影画像毎に、どの利用者が、どの立ち位置で撮影されているかを判断することができる。 As a result, for each photographed image, an ID is assigned to the user in the photographed image, and the same ID is processed as being the same user. In this manner, for each photographed image, the collation with the user registered in the database is performed to determine which user is photographed at which standing position for each photographed image. it can.
例えば、ID=0が割り当てられた利用者Aが、脚の長さを伸ばすという指示を出したとき、各撮影画像において、ID=0が割り当てられた画像に対して、脚の長さを伸ばすための画像処理が実行される。 For example, when the user A assigned ID = 0 issues an instruction to extend the leg length, the leg length is extended with respect to the image assigned ID = 0 in each photographed image. Image processing is performed.
利用者の立ち位置は、全ての撮影画像において同じであるとは限らない。すなわち、例えば、1回目の撮影で左側に立っていた利用者が、2回目の撮影では右側に立ち位置を変えているような場合もある。このような立ち位置の変更があったような場合でも、撮影画像毎に利用者を認証しているため、適切に画像処理を施すことが可能となる。すなわち、立ち位置などに関係なく、利用者が所望した画像処理(レタッチ処理)を、利用者毎に施すことが可能となる。 The standing position of the user is not necessarily the same in all photographed images. That is, for example, there may be a case where the user standing on the left side in the first shooting changes the position on the right side in the second shooting. Even when there is such a change in the standing position, since the user is authenticated for each photographed image, image processing can be appropriately performed. That is, regardless of the standing position or the like, it is possible to perform image processing (retouching processing) desired by the user for each user.
以上においては、利用者の顔を認識することで、撮影画像に写る利用者を認証する処理について説明したが、利用者の全身を認識することで、撮影画像に写る利用者を認証することもできる。 In the above, the process of authenticating the user shown in the photographed image by recognizing the face of the user has been described. However, the user shown in the photographed image may be authenticated by recognizing the whole body of the user. it can.
(認証処理の例2)
次に、図37のフローチャートを参照して、認証処理の第2の例について説明する。図37の処理もまた、例えば、認識撮影が行われた後から、通常撮影が終了するまでの間に行われてもよいし、通常撮影が終了し、編集画面が表示される前までの間に行われてもよい。
(Example 2 of authentication process)
Next, a second example of the authentication process will be described with reference to the flowchart of FIG. The process of FIG. 37 may also be performed, for example, after the recognition shooting is performed until the normal shooting ends, or until the normal shooting ends and the editing screen is displayed. May be performed.
ステップS71において、レタッチ処理部602は、認識撮影により得られた認識用画像において、人物の全身を認識する。ここでは、認識用画像として距離画像が生成され、生成された距離画像から人物領域が抽出されることで、人物の全身が認識される。ここで、距離画像は、例えば、TOF(Time of Flight)方式により、照射光と反射光との位相差を用いて、撮影空間A1内の対象物までの距離を示す距離値を、距離画像の各画素の画素値として算出することで生成される。TOF方式に限らず、ストラクチャ光照明方式やInfraredDepth方式、ステレオカメラ方式などの公知の方式より、距離画像が生成されるようにしてもよい。
In step S71, the
ステップS72において、レタッチ処理部602は、認識された人物の全身にIDを割り当て、その全身画像を登録する。
In step S72, the
ここでは、まず、利用者(被写体)の全身の輪郭点が全て抽出される。抽出された輪郭点により全身認証信頼度が算出される。全身認証信頼度が最も高い全身の座標情報が確認され、その全身の中点が画像内の左側にあるか、右側にあるかで、利用者が認識され、IDが割り当てられる。IDが割り当てられた利用者の全身画像に加え、全身の輪郭点の位置関係や、輪郭点で囲まれる領域に含まれる肌色領域を示す情報が、認識結果としてデータベースに登録される。 Here, first, all contour points of the whole body of the user (subject) are extracted. The whole body authentication reliability is calculated from the extracted contour points. The coordinate information of the whole body having the highest whole body authentication reliability is confirmed, and the user is recognized and an ID is assigned depending on whether the middle point of the whole body is on the left side or the right side in the image. In addition to the whole body image of the user to which the ID is assigned, information indicating the positional relationship of contour points of the whole body and the skin color area included in the area surrounded by the contour points is registered in the database as a recognition result.
なお、輪郭点全域ではなく、レタッチ処理の対象となる脚などの部分だけが抽出されてもよい。 Note that not the entire contour point but only the part such as the leg to be subjected to the retouching process may be extracted.
ステップS73において、レタッチ処理部602は、撮影画像を取得する。レタッチ処理部602は、通常撮影が行われる度に撮影画像を取得するようにしてもよいし、通常撮影が全て終了した後に、全ての撮影画像を取得するようにしてもよい。
In step S73, the
ステップS74において、レタッチ処理部602は、取得された撮影画像から、1つの全身を検出し、データベースに登録されている情報との比較を行う。
In step S74, the
ステップS75において、レタッチ処理部602は、比較結果を用いて、ID毎に全身照合信頼度を算出する。全身照合信頼度の算出は、上述した顔照合信頼度の算出と同様にして行われる。
In step S75, the
ステップS76において、レタッチ処理部602は、全身照合信頼度が高いIDをその画像の利用者のIDとして確定する。
In step S76, the
ステップS77において、撮影画像内に他の全身があるか否かが判断される。撮影画像において、上述した処理がされていない全身があると判断された場合、ステップS75に戻り、それ以降の処理が繰り返される。 In step S77, it is determined whether there is another whole body in the captured image. If it is determined in the photographed image that there is a whole body not subjected to the above-described processing, the process returns to step S75, and the subsequent processing is repeated.
このようにして、撮影画像内の利用者毎にIDが割り当てられる処理が、全ての撮影画像に対して行われる。例えば、通常撮影により5枚の撮影画像が取得される場合、5枚の撮影画像が処理されたと判断されるまで、まだIDが割り振られていない撮影画像に対する処理が繰り返される。 In this manner, the process of assigning an ID to each user in a captured image is performed on all captured images. For example, when five captured images are acquired by normal imaging, the process on the captured image to which an ID has not been assigned is repeated until it is determined that the five captured images have been processed.
その結果、撮影画像毎に、撮影画像内の利用者に対してIDが割り当てられ、同一のIDは、同一の利用者であるとして処理される。このようにして、撮影画像毎に、データベースに登録されている利用者との照合が行われることで、撮影画像毎に、どの利用者が、どの立ち位置で撮影されているかを判断することができる。 As a result, for each photographed image, an ID is assigned to the user in the photographed image, and the same ID is processed as being the same user. In this manner, for each photographed image, the collation with the user registered in the database is performed to determine which user is photographed at which standing position for each photographed image. it can.
なお、図37の処理によれば、顔の認識に失敗するような場合であっても、利用者の全身を認識することができるので、より確実に利用者を認証することができるようになる。 Note that according to the process of FIG. 37, even if the face recognition fails, the user's entire body can be recognized, so that the user can be more reliably authenticated. .
<変形例>
以下においては、上述した実施の形態の変形例について説明する。
<Modification>
Hereinafter, modifications of the above-described embodiment will be described.
(レタッチパレットの表示条件)
以上においては、特定の画角で撮影された撮影画像が編集対象となったときのみ、レタッチ処理の選択を受け付けるためのレタッチパレットが編集画面に表示されるものとしたが、他の条件に応じてレタッチパレットが表示されるようにしてもよい。
(Retouching palette display conditions)
In the above, the retouching palette for accepting the selection of the retouching process is displayed on the editing screen only when the captured image captured at a specific angle of view is to be edited, but according to the other conditions The retouching palette may be displayed.
例えば、撮影画像に写る利用者の髪の長さに応じて、レタッチパレットが表示されるようにする。具体的には、撮影画像に写る利用者の髪の長さが所定の長さより短い場合に、レタッチパレットが表示されるようにする。 For example, the retouching palette is displayed according to the length of the user's hair appearing in the photographed image. Specifically, the retouching palette is displayed when the length of the user's hair shown in the photographed image is shorter than a predetermined length.
また、撮影画像に写る利用者の顔における化粧の状態に応じて、レタッチパレットが表示されるようにしてもよい。具体的には、撮影画像に写る利用者の顔に、一切化粧が施されてない場合(いわゆるすっぴんの場合)や、薄い化粧が施されている場合に、レタッチパレットが表示されるようにする。化粧の状態は、例えば、撮影画像に写る利用者の顔のシミやしわなどから推定されるようにする。 Further, the retouching palette may be displayed according to the state of makeup in the face of the user appearing in the photographed image. Specifically, the retouching palette is displayed when no makeup is applied to the face of the user in the photographed image (in the case of so-called top) or when light makeup is applied. . The state of makeup is estimated, for example, from stains or wrinkles on the user's face in the photographed image.
これにより、利用者の顔がすっぴんや薄化粧の状態であっても、撮影画像に写る利用者の顔を、完成度の高い見た目の顔に仕上げることができる。 As a result, even if the user's face is in a state of thinness or makeup, it is possible to finish the user's face in the photographed image into a highly complete look.
さらに、編集対象となる撮影画像に写る利用者の目の認識が成功しているか否かに応じて、レタッチパレットが表示されるようにしてもよい。具体的には、編集対象となる撮影画像に写る利用者の目の認識が成功している場合にのみ、レタッチパレットが表示されるようにする。 Furthermore, the retouching palette may be displayed depending on whether or not the user's eyes in the captured image to be edited have been recognized successfully. Specifically, the retouching palette is displayed only when recognition of the user's eyes in the photographed image to be edited has succeeded.
上述したように、レタッチ処理は、撮影画像における人物の顔や顔パーツが認識されることで適切に施される。そのため、編集対象となる撮影画像に写る利用者の目の認識が成功している場合にのみ、レタッチパレットが表示されるようにすることで、レタッチ処理が適切に施されるようにすることができる。 As described above, the retouching process is appropriately performed by recognizing the face or face part of the person in the captured image. Therefore, the retouching process can be appropriately performed by displaying the retouching palette only when the user's eyes in the captured image to be edited are recognized successfully. it can.
また、撮影に関するコースとして、芸能人やモデル、キャラクタなどとコラボレーションしたコラボコースを用意するようにした場合、コラボコースが選択されたか否かに応じて、レタッチパレットが表示されるようにしてもよい。通常、コラボコースのようなコースが選択された場合、芸能人やモデル、キャラクタなどが撮影画像に一緒に写り込んだり、スタンプ画像として合成されたりするため、撮影画像における利用者自身の見た目はさほど重視されない。そこで、撮影に関するコースとして、コラボコース以外のコースが選択された場合に、レタッチパレットが表示されるようにする。 In addition, when a collaboration course in collaboration with an entertainer, a model, a character, or the like is prepared as a course related to shooting, the retouching palette may be displayed depending on whether the collaboration course is selected. Usually, when a course such as a collaboration course is selected, celebrities, models, characters, etc. are reflected together in the photographed image or combined as a stamp image, so the appearance of the user himself in the photographed image is much emphasized I will not. Therefore, when a course other than the collaboration course is selected as a course related to shooting, the retouching palette is displayed.
(他の画面表示例)
以上においては、編集画面にレタッチパレットが表示されるものとしたが、レタッチ処理の選択を受け付けるためだけのレタッチ画面が表示されるようにしてもよい。
(Another screen display example)
Although the retouching palette is displayed on the editing screen in the above, the retouching screen may be displayed only for receiving the selection of the retouching process.
図38は、レタッチ画面の例を示す図である。 FIG. 38 is a diagram showing an example of the retouching screen.
図38のレタッチ画面は、編集処理において、例えば編集画面が表示される前に、タブレット内蔵モニタ131に表示されるものとするが、撮影処理において例えば6回の撮影が終了した後に表示されるようにしてもよい。
Although the retouching screen in FIG. 38 is displayed on the tablet built-in
図38の例では、レタッチ画面の上段に、6枚の撮影画像として、5枚のアップ画像731乃至734と1枚の全身画像735が表示されている。
In the example of FIG. 38, five up
また、レタッチ画面の下段左側には、アップ画像用のレタッチパレット740−1が表示され、レタッチ画面の下段右側には、全身画像用のレタッチパレット740−2が表示されている。 In addition, a retouching pallet for up image is displayed on the lower left side of the retouching screen, and a retouching pallet 740-2 for whole body image is displayed on the lower right side of the retouching screen.
レタッチパレット740−1には、透明感アップボタン751、まるく大きくボタン752、および涙袋ボタン753の3つのボタンが表示されている。これらのボタン751乃至753は、いずれも図14のボタン551乃至553と同様の機能を有し、アップ画像に写る被写体の目およびその近傍の領域に対するレタッチ処理の選択を受け付けるためのボタンである。
On the retouching pallet 740-1, three buttons of a transparency-up
これらのボタンが操作されると、アップ画像731乃至734に表示されている被写体の目およびその近傍の領域に、操作されたボタンに対応するレタッチ処理が施される。このとき、全身画像735に表示されている被写体には、操作されたボタンに対応するレタッチ処理は施されないものとするが、そのレタッチ処理が施されるようにしてもよい。
When these buttons are operated, the retouching process corresponding to the operated button is performed on the eye of the subject displayed in the up
また、図38の例でも、図14の例と同様、透明感アップボタン751、まるく大きくボタン752、および涙袋ボタン753それぞれに対応して、OFFボタン761乃至763が表示されている。
Also in the example of FIG. 38, as in the example of FIG. 14, the
レタッチパレット740−2には、脚長ボタン771、脚細ボタン772、および背高ボタン773の3つのボタンが表示されている。これらのボタン771乃至773は、いずれも図18のボタン611乃至613と同様の機能を有し、全身画像に写る被写体の脚または全身の領域に対するレタッチ処理の選択を受け付けるためのボタンである。
On the retouching pallet 740-2, three buttons of a
これらのボタンが操作されると、全身画像735に表示されている被写体の脚または全身の領域に、操作されたボタンに対応するレタッチ処理が施される。このとき、アップ画像731乃至734に表示されている被写体には、操作されたボタンに対応するレタッチ処理は施されないものとする。
When these buttons are operated, a retouch process corresponding to the operated button is performed on the region of the leg or whole body of the subject displayed in the full-
また、図38の例でも、図18の例と同様、脚長ボタン771、脚細ボタン772、および背高ボタン773それぞれに対応して、OFFボタン781乃至783が表示されている。
Also in the example of FIG. 38, as in the example of FIG. 18, the
なお、図38の例において、レタッチ処理の対象となる撮影画像を利用者に選択させ、選択された撮影画像の画角(撮影範囲)に応じて、レタッチパレット740−1または740−2をグレーアウト表示させるようにしてもよい。 In the example of FIG. 38, the user is allowed to select a photographed image to be subjected to retouching processing, and the retouching pallet 740-1 or 740-2 is grayed out according to the angle of view (photographing range) of the selected photographed image. It may be displayed.
例えば、レタッチ処理の対象となる撮影画像として、アップ画像731乃至734のいずれかが選択された場合には、レタッチパレット740−2がグレーアウト表示され、レタッチパレット740−1のみが操作可能となるようにする。また、レタッチ処理の対象となる撮影画像として、全身画像735が選択された場合には、レタッチパレット740−1がグレーアウト表示され、レタッチパレット740−2のみが操作可能となるようにする。
For example, when any of the up
これにより、利用者は、レタッチパレット740−1,740−2のどちらを操作すればよいかを簡単に把握することができる。 Thus, the user can easily grasp which one of the retouching pallets 740-1 and 740-2 should be operated.
上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。
In the embodiment described above, the photograph
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。なお、上述した一連の処理を実行させるソフトウェアを構成するプログラムは、写真シール作成装置1にインストールされてもよいし、携帯端末上で起動するアプリケーションとして携帯端末にインストールされてもよい。
The series of processes described above can be performed by hardware or software. When the above-described series of processes are executed by software, a program that configures the software is installed from a network or a recording medium. In addition, the program which comprises the software which performs a series of processes mentioned above may be installed in the photo
この記録媒体は、例えば、図10に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア319により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM312や、記憶部316に含まれるハードディスクなどで構成される。
For example, as shown in FIG. 10, this recording medium is distributed to distribute the program to the administrator of the photograph
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, in the step of describing the program recorded on the recording medium, processing performed in time series according to the described order is, of course, parallel or not necessarily processed in time series. It also includes processing to be executed individually.
以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。 In the above, the print medium is not limited to the seal paper and the photo paper. For example, the image may be printed on paper or a film of a predetermined size, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a seal layout image in which one or more photographed images are arranged may be printed on these print media.
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present technology.
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 In addition, the effect described in this specification is an illustration to the last, is not limited, and may have other effects.
1 写真シール作成装置
401 事前選択処理部
402 撮影処理部
403 編集処理部
404 印刷処理部
601 表示制御部
602 レタッチ処理部
603 合成処理部
1 photo
Claims (10)
複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示する表示制御部と、
特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施すレタッチ処理部と
を備え、
前記表示制御部は、
前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、
前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない
写真作成ゲーム機。 A photographing processing unit that generates a plurality of photographed images by photographing the user as a subject at a plurality of angles of view;
A display control unit that displays an editing screen for receiving an editing input for editing any of the plurality of photographed images;
And a retouch processing unit that performs retouch processing on the subject captured in the captured image captured at a specific angle of view.
The display control unit
The retouching GUI for receiving the selection of the retouching process is displayed on the editing screen only when the captured image captured at the specific angle of view becomes the edit target.
The retouching GUI is not displayed on the editing screen when the captured image captured at another angle of view other than the specific angle of view becomes the edit target.
前記表示制御部は、前記アップ画像が前記編集対象となったときのみ、前記レタッチ用GUIを前記編集画面に表示する
請求項1に記載の写真作成ゲーム機。 The retouch processing unit performs the retouching process on the subject captured in an up image obtained by up shooting with the face and upper body of the subject taken in the shooting range.
The photo creating game machine according to claim 1, wherein the display control unit displays the retouching GUI on the editing screen only when the up image is to be edited.
前記表示制御部は、前記全身画像が前記編集対象となったときのみ、前記レタッチ用GUIを前記編集画面に表示する
請求項1に記載の写真作成ゲーム機。 The retouching processing unit performs the retouching process on the subject captured in a whole-body image obtained by whole-body imaging in which the entire body of the subject is captured.
The photo creating game machine according to claim 1, wherein the display control unit displays the retouching GUI on the editing screen only when the whole-body image is to be edited.
請求項3に記載の写真作成ゲーム機。 The photograph creation game machine according to claim 3, wherein the whole body photographing is a photographing for obtaining the whole body image in which the whole body of the subject viewed from obliquely above is photographed.
請求項3に記載の写真作成ゲーム機。 4. The game machine according to claim 3, wherein the whole body photographing is a photographing for obtaining the whole body image in which the whole body of the subject viewed from the front is photographed.
請求項1乃至5のいずれかに記載の写真作成ゲーム機。 The display control unit selects, when the photographed image photographed at the other angle of view becomes the editing target, a content to be synthesized with the photographed image to be edited instead of the retouching GUI. The picture creation game machine according to any one of claims 1 to 5, wherein a content selection GUI for displaying is displayed on the editing screen.
請求項1乃至6のいずれかに記載の写真作成ゲーム機。 The display control unit is configured to, when the photographed image photographed at the specific angle of view becomes the editing target, the subject among the plurality of subjects shown in the photographed image to be edited on the editing screen. The picture creation game machine according to any one of claims 1 to 6, wherein the selection of the subject to be subjected to retouching processing is received.
複数の前記撮影画像それぞれに対応するサムネイル画像を前記編集画面に表示し、
前記編集画面において、複数の前記サムネイル画像のいずれかが選択されることで、前記編集対象となる前記撮影画像を、選択された前記サムネイル画像に対応する前記撮影画像に切り替えて表示する
請求項1乃至7のいずれかに記載の写真作成ゲーム機。 The display control unit
Displaying a thumbnail image corresponding to each of the plurality of photographed images on the editing screen;
By selecting any one of the plurality of thumbnail images on the editing screen, the photographed image to be edited is switched to the photographed image corresponding to the selected thumbnail image and displayed. 7. A photo creating game machine according to any one of 7 to 7.
利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成し、
複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示し、
特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施し、
前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、
前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない
編集方法。 A photo creation game machine
A plurality of photographed images are generated by photographing the user as a subject at a plurality of angles of view,
Displaying an editing screen for receiving an editing input for editing any of the plurality of photographed images,
Subjecting the subject captured in the captured image captured at a specific angle of view to retouch processing;
The retouching GUI for receiving the selection of the retouching process is displayed on the editing screen only when the captured image captured at the specific angle of view becomes the edit target.
The editing method does not display the retouching GUI on the editing screen when the captured image captured at another angle of view other than the specific angle of view becomes the edit target.
利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成する撮影処理部と、
複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示する表示制御部と、
特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施すレタッチ処理部と
して機能させるためのプログラムであって、
前記表示制御部は、
前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、
前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない
プログラム。 Computer,
A photographing processing unit that generates a plurality of photographed images by photographing the user as a subject at a plurality of angles of view;
A display control unit that displays an editing screen for receiving an editing input for editing any of the plurality of photographed images;
A program for functioning as a retouch processing unit that performs retouch processing on the subject captured in the captured image captured at a specific angle of view,
The display control unit
The retouching GUI for receiving the selection of the retouching process is displayed on the editing screen only when the captured image captured at the specific angle of view becomes the edit target.
The program for not displaying the retouching GUI on the editing screen when the captured image captured at another angle of view other than the specific angle of view becomes the edit target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003493A JP7032642B2 (en) | 2018-01-12 | 2018-01-12 | Photo-creating game consoles, editing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003493A JP7032642B2 (en) | 2018-01-12 | 2018-01-12 | Photo-creating game consoles, editing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019124746A true JP2019124746A (en) | 2019-07-25 |
JP7032642B2 JP7032642B2 (en) | 2022-03-09 |
Family
ID=67398673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018003493A Active JP7032642B2 (en) | 2018-01-12 | 2018-01-12 | Photo-creating game consoles, editing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7032642B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016133977A (en) * | 2015-01-19 | 2016-07-25 | 辰巳電子工業株式会社 | Picture shooting game machine, image creation method and image creation program |
JP2017129651A (en) * | 2016-01-19 | 2017-07-27 | 株式会社メイクソフトウェア | Picture-taking game machine and control program of the same |
JP2017203989A (en) * | 2017-06-14 | 2017-11-16 | 辰巳電子工業株式会社 | Imaging device |
JP2017229013A (en) * | 2016-06-24 | 2017-12-28 | フリュー株式会社 | Game machine for forming photograph and display method |
-
2018
- 2018-01-12 JP JP2018003493A patent/JP7032642B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016133977A (en) * | 2015-01-19 | 2016-07-25 | 辰巳電子工業株式会社 | Picture shooting game machine, image creation method and image creation program |
JP2017129651A (en) * | 2016-01-19 | 2017-07-27 | 株式会社メイクソフトウェア | Picture-taking game machine and control program of the same |
JP2017229013A (en) * | 2016-06-24 | 2017-12-28 | フリュー株式会社 | Game machine for forming photograph and display method |
JP2017203989A (en) * | 2017-06-14 | 2017-11-16 | 辰巳電子工業株式会社 | Imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP7032642B2 (en) | 2022-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5418708B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP5201430B1 (en) | Photo sticker creation apparatus and method, and program | |
JP2015146566A (en) | Image generation device, method, and program | |
JP6880394B2 (en) | Photographing game console and shooting method | |
JP6810336B2 (en) | Photo creation game console and display method | |
JP2017121044A (en) | Photo seal producing apparatus and image processing method | |
JP6853475B2 (en) | Photo creation game console and display method | |
JP5904192B2 (en) | Photo sticker creation apparatus, image processing method, and program | |
JP6477780B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program | |
JP7032642B2 (en) | Photo-creating game consoles, editing methods, and programs | |
JP7140962B2 (en) | Image processing device, control method, and program | |
JP2018107515A (en) | Photograph formation game machine and image processing method | |
JP7074994B2 (en) | Photographing game console and image processing method | |
JP7121256B2 (en) | PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP6232662B2 (en) | Photography game machine and its control program | |
JP2018026750A (en) | Photograph creation game machine and imaging method | |
JP2019186903A (en) | Photo creation game machine, image display method, and program | |
JP6376421B1 (en) | Photo creation game machine, display method, and program | |
JP5970013B2 (en) | Photo sticker making apparatus and photo sticker making method | |
JP2019066778A (en) | Photo creation game machine, image processing method, and program | |
JP6842038B2 (en) | Photographing game console and image processing method | |
JP6691292B2 (en) | Photo sticker creating apparatus and shooting method | |
JP6978660B2 (en) | Photographing game equipment, image display method, and image display program | |
JP6443028B2 (en) | Image generation apparatus, image generation method, and print medium | |
JP5979463B1 (en) | Photo sticker creation apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7032642 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |