JP2015031833A - Game-purposed imaging device, and control method and computer program for the same - Google Patents
Game-purposed imaging device, and control method and computer program for the same Download PDFInfo
- Publication number
- JP2015031833A JP2015031833A JP2013161567A JP2013161567A JP2015031833A JP 2015031833 A JP2015031833 A JP 2015031833A JP 2013161567 A JP2013161567 A JP 2013161567A JP 2013161567 A JP2013161567 A JP 2013161567A JP 2015031833 A JP2015031833 A JP 2015031833A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- unit
- screen
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 title claims description 140
- 238000004590 computer program Methods 0.000 title claims description 11
- 238000012545 processing Methods 0.000 claims abstract description 110
- 230000008569 process Effects 0.000 claims description 115
- 238000012937 correction Methods 0.000 claims description 84
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 208000029152 Small face Diseases 0.000 description 19
- 230000008859 change Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000005286 illumination Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、例えばゲームセンター等に設置されて、遊戯的な写真撮影サービスを利用者に提供する遊戯用撮影装置に関する。また、本発明は、その遊戯用撮影装置の制御方法と、当該装置を制御するためのコンピュータプログラムに関する。 The present invention relates to an amusement photography apparatus that is installed in, for example, a game center and provides a user with a play photography service. The present invention also relates to a control method for the game shooting apparatus and a computer program for controlling the apparatus.
利用者を含む被写体をカメラで撮影し、その撮影画像を写真シールや写真カードとして出力する遊戯用撮影装置が既に知られている。
かかる遊戯用撮影装置は、遊戯性または娯楽性が高いことから、撮影画像と合成する画像を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像から選択したり、タッチペンを用いて自由に描いたりできるように構成されている。利用者によるこのような画像編集の作業は、撮影画像に対する「落書き」などと呼ばれる。
2. Description of the Related Art There is already known an imaging device for a game where a subject including a user is photographed with a camera and the photographed image is output as a photo sticker or a photo card.
Since such a shooting device for play is highly playable or entertaining, an image to be combined with the shot image can be selected from a variety of background images and foreground images prepared in advance according to the user's preference, It is configured to be able to draw freely using a touch pen. Such image editing work by the user is called “graffiti” or the like for a photographed image.
一方、落書き対象となる撮影画像に対して、落書きが行われる前に(または落書き中に)予め定められた態様の補正処理を施す技術が提案されている。
例えば、特許文献1には、目の部分を縦方向に拡大する「目強調処理」を原則的としてすべての撮影画像に施す技術が開示されている。また、特許文献2には、利用者の指示に基づくことなく、自動的に撮影画像における利用者の顔の輪郭を小さくする「小顔処理」を施す技術が開示されている。
On the other hand, there has been proposed a technique for performing a correction process in a predetermined mode on a photographed image to be graffitied before the graffiti is performed (or during the graffiti).
For example, Patent Document 1 discloses a technique in which “eye enhancement processing” for enlarging an eye part in a vertical direction is applied to all photographed images in principle.
特許文献1の目強調処理や特許文献2の小顔処理(以下、これらに代表される撮影画像に施す補正処理を、単に「補正処理」ともいう。)は、遊戯用撮影装置のヘビーユーザである若い女性をターゲットとして開発されたものであるが、これら補正処理を所望しない利用者(例えば、カップルで来場した場合の男性)も想定し得る。
従って、上記のような補正処理をすべての撮影画像に対して一律に行うと、一部の利用者にとっては嗜好に合わない撮影画像しか得られない可能性がある。
The eye enhancement processing of Patent Document 1 and the small face processing of Patent Document 2 (hereinafter, correction processing represented by these images is also simply referred to as “correction processing”) is a heavy user of a game shooting apparatus. Although it was developed targeting a certain young woman, a user who does not desire such correction processing (for example, a man when visiting as a couple) can be assumed.
Therefore, if the correction process as described above is uniformly performed on all the captured images, there is a possibility that only a captured image that does not meet the preference may be obtained for some users.
そこで、特許文献1では、撮影画像に含まれる目の部分ごとに解除ボタンを表示し、この解除ボタンへの操作が行われた目の部分については、目強調処理を解除する方法が開示されている(特許文献1の段落0217〜0222)。
しかし、この解除方法では、目強調処理を所望する利用者(例えば、女性)と所望しない利用者(例えば、男性)が一緒にプレイする場合には、複数の撮影画像に含まれる男性の目の部分を選択して逐一解除操作を行わねばならず、操作が非常に煩雑となる。
Therefore, Patent Document 1 discloses a method of displaying a release button for each eye part included in a photographed image and canceling the eye enhancement processing for the eye part on which an operation to the release button is performed. (Patent Document 1, paragraphs 0217 to 0222).
However, in this cancellation method, when a user who desires eye enhancement processing (for example, a woman) and a user who does not desire to perform (for example, a man) play together, the male eyes included in a plurality of captured images are displayed. It is necessary to select a part and perform a release operation one by one, which makes the operation very complicated.
一方、かかる不都合を解消する方策として、例えば、撮影画像に対する画像認識処理によって顔画像を利用者ごとに識別するとともに、識別結果が同じ顔画像のグループ分けを行い、同じグループに属する顔画像について同じ補正処理を施すことが考えられる。
しかし、コンピュータの画像認識処理のみに依拠したグルーピングでは、異なる人物の顔画像が同じグループに区分されたり、同じ人物の顔画像が異なるグループに区分されたりすることもあり得るので、利用者の顔画像を正確にグルーピングすることができない。
On the other hand, as a measure for eliminating such inconvenience, for example, face images are identified for each user by image recognition processing on captured images, and face images having the same identification result are grouped, and face images belonging to the same group are the same. It is conceivable to perform correction processing.
However, in grouping that relies solely on computer image recognition processing, face images of different people may be divided into the same group, or face images of the same person may be divided into different groups. The images cannot be grouped correctly.
本発明は、このような従来の問題点に鑑み、撮影画像に含まれる所定の画像部分を正確にグルーピングできる遊戯用撮影装置等を提供することを第1の目的とする。
また、本発明は、撮影画像に含まれる利用者ごとの画像部分の補正処理を、簡単かつ確実に行うことができる遊戯用撮影装置等を提供することを第2の目的とする。
In view of such a conventional problem, a first object of the present invention is to provide an amusement photographing apparatus and the like that can accurately group predetermined image portions included in a photographed image.
It is a second object of the present invention to provide a game shooting apparatus and the like that can easily and reliably perform correction processing of image portions for each user included in a shot image.
(1) 本発明の遊戯用撮影装置は、利用者を含む被写体を撮影して撮影画像を得る撮影部と、前記撮影画像を編集して編集画像を得る編集部と、を備える遊戯用撮影装置であって、前記撮影部及び前記編集部のうちの少なくとも1つが、GUI画面を表示可能な表示部と、前記GUI画面に対する操作入力を行うための入力部と、前記操作入力に対応する所定の制御を行う制御部と、を有し、前記制御部は、前記撮影画像の中のどの画像部分がどの前記利用者であるかを当該利用者が特定するための特定画面を前記表示部に表示させ、前記特定画面に対する前記操作入力に基づいて、前記画像部分を同じ前記利用者ごとのグループに分けるグルーピング処理を実行することを特徴とする。 (1) A game shooting apparatus according to the present invention includes a shooting unit for shooting a subject including a user to obtain a shot image, and an editing unit for editing the shot image to obtain an edited image. And at least one of the photographing unit and the editing unit includes a display unit capable of displaying a GUI screen, an input unit for performing an operation input on the GUI screen, and a predetermined corresponding to the operation input A control unit that performs control, and the control unit displays on the display unit a specific screen for the user to specify which image portion in the captured image is which user. And performing a grouping process for dividing the image portion into groups for the same user based on the operation input on the specific screen.
本発明の遊戯用撮影装置によれば、制御部が、撮影画像の中のどの画像部分がどの利用者であるかを当該利用者が特定するための特定画面を表示部に表示させ、特定画面に対する操作入力に基づいて、画像部分を同じ前記利用者ごとのグループに分けるグルーピング処理を実行するので、画像認識処理のみに依拠したグルーピングに比べて、撮影画像に含まれる所定の画像部分を正確にグルーピングすることができる。従って、上述の第1の目的が達成される。 According to the game shooting device of the present invention, the control unit causes the display unit to display a specific screen for the user to specify which image portion in the captured image is which user, and the specific screen Since the grouping process for dividing the image part into the same group for each user is executed based on the operation input to the image, the predetermined image part included in the captured image is accurately compared with the grouping based only on the image recognition process. Can be grouped. Therefore, the first object described above is achieved.
(2) 本発明の遊戯用撮影装置において、前記制御部は、前記撮影画像に施す補正処理の程度を前記利用者が選択するための選択画面を前記表示部に表示させ、前記選択画面に対する前記操作入力によって選択された前記補正処理の程度を、同じ前記グループに属するすべての前記画像部分を含む前記撮影画像に反映させることが好ましい。 (2) In the game shooting device according to the present invention, the control unit displays a selection screen for the user to select the degree of correction processing to be performed on the captured image on the display unit, and the control unit displays the selection screen for the selection screen. It is preferable that the degree of the correction process selected by the operation input is reflected on the captured image including all the image portions belonging to the same group.
本発明の遊戯用撮影装置によれば、制御部が、撮影画像に施す補正処理の程度を利用者が選択するための選択画面を表示部に表示させ、選択画面に対する操作入力によって選択された補正処理の程度を、同じグループに属する画像部分を含む撮影画像に反映させるので、利用者が各撮影画像に対して補正処理の程度を逐一入力する必要がなくなり、利用者ごとの画像部分の補正処理を簡便かつ確実に行うことができる。従って、上述の第2の目的が達成される。 According to the game shooting device of the present invention, the control unit causes the display unit to display a selection screen for the user to select the degree of correction processing to be performed on the captured image, and the correction selected by the operation input on the selection screen. Since the degree of processing is reflected in the captured image including the image portion belonging to the same group, it is not necessary for the user to input the degree of correction processing for each captured image one by one, and the correction processing of the image portion for each user Can be carried out easily and reliably. Therefore, the second object described above is achieved.
(3) 本発明の遊戯用撮影装置において、前記グルーピング処理には、例えば、次の第1及び第2処理が含まれる。
第1処理:表示部に表示されたすべての撮影画像について、どの画像部分が自身であるかの入力を1人ずつ順番に受け付ける処理
第2処理:同じ順番に特定された画像部分を同じ利用者のグループに含める処理
(3) In the game photographing apparatus of the present invention, the grouping process includes, for example, the following first and second processes.
1st process: The process which receives the input of which image part is itself one by one in order about all the picked-up images displayed on the display part 2nd process: The same user of the image part specified in the same order To include in a group
この場合、各利用者が、撮影画像に含まれる自身の画像部分を特定する操作入力を、1人ずつ順番に受け付けるので、利用者の人数の増加に伴って特定画面に対する操作入力を行う時間が増加する。
しかし、その反面、後述の(5)のグルーピング処理のように、分割画面ごとにすべての撮影画像を表示する必要がないので、1つ1つの撮影画像をより大きく表示できるという利点がある。
In this case, each user sequentially receives an operation input for specifying his / her own image portion included in the captured image one by one, so that time for performing an operation input on the specific screen as the number of users increases. To increase.
However, unlike the grouping process (5) described later, it is not necessary to display all the captured images for each divided screen, so that there is an advantage that each captured image can be displayed larger.
(4) 本発明の遊戯用撮影装置において、前記制御部が、1つの前記撮影画像に含まれる人数を検出する機能を有する場合は、前記第2処理において、検出した人数分の前記利用者の特定が終了した前記撮影画像を前記表示部の表示対象から外すことが好ましい。
このようにすれば、グルーピングが進行するほど表示部に表示すべき撮影画像の数が減少する。従って、2番目以後の順番で操作入力する利用者ほど、当初より少ない枚数の撮影画像から自身の画像部分を特定でき、自身の画像部分の特定をより迅速に行える。
(4) In the game shooting device of the present invention, when the control unit has a function of detecting the number of persons included in one shot image, in the second process, the number of the detected number of users. It is preferable that the photographed image that has been identified is removed from the display target of the display unit.
In this way, the number of captured images to be displayed on the display unit decreases as the grouping progresses. Therefore, the user who performs the operation input in the order after the second can specify his own image part from a smaller number of photographed images than the original, and can specify his own image part more quickly.
(5) 本発明の遊戯用撮影装置において、前記グルーピング処理は、例えば、次の第1及び第2処理が含まれる処理であってもよい。
第1処理:撮影人数分の分割画面に分けて表示部に表示されたすべての撮影画像について、どの画像部分が自身であるかの入力を各分割画面において受け付ける処理
第2処理:同じ分割画面に特定された画像部分を同じ利用者のグループに含める処理
(5) In the game shooting apparatus of the present invention, the grouping process may be a process including the following first and second processes, for example.
1st process: The process which receives the input which image part is itself in each divided screen about all the picked-up images displayed on the display part divided into the divided screen for the number of photographing persons 2nd process: On the same divided screen Processing to include the identified image part in the same user group
この場合、撮影人数分に分けられた分割画面にすべての撮影画像が表示されるので、1つ1つの撮影画像は小さくなる。
しかし、その反面、各利用者は、分割画面に対して同時並行的に自身の画像部分を特定することになるので、自身の画像部分の特定を1人ずつ順番に行う前述の(3)の場合に比べて、特定画面に対する操作入力をより短時間で行える利点がある。
In this case, since all the photographed images are displayed on the divided screen divided by the number of photographers, each photographed image becomes small.
However, on the other hand, each user specifies his / her own image portion in parallel with respect to the divided screen. Therefore, the user can specify his / her own image portion one by one in order. Compared to the case, there is an advantage that operation input to a specific screen can be performed in a shorter time.
(6) 本発明の遊戯用撮影装置において、前記制御部は、前記撮影画像に含まれる前記画像部分を前記利用者ごとに識別し、その識別結果が同じ前記画像部分を同じ前記グループとして前記表示部に表示させる自動グルーピング機能を有するものであってもよい。 (6) In the game shooting apparatus according to the present invention, the control unit identifies the image portion included in the captured image for each user, and displays the image portion having the same identification result as the same group. It may have an automatic grouping function to be displayed on the part.
(7) この場合、前記グルーピング処理には、前記自動グルーピング機能による最初のグループ分けと、前記自動グルーピング機能によって誤った前記グループに含まれた前記画像部分を正しい前記グループに含めるための前記操作入力を、前記利用者に行わせる修正処理と、が含まれるようにすればよい。
このようにすれば、利用者の正しい判断に基づく上記修正処理によって完全なグループ分けが可能となるので、撮影画像に含まれる所定の画像部分を正確にグルーピングすることができる。
(7) In this case, the grouping process includes the initial grouping by the automatic grouping function, and the operation input for including the image portion included in the wrong group by the automatic grouping function in the correct group. May be included in the correction process to be performed by the user.
In this way, complete grouping is possible by the correction process based on the correct judgment of the user, so that predetermined image portions included in the captured image can be accurately grouped.
(8) 本発明の制御方法は、上述の(1)〜(7)の遊戯用撮影装置に対して行われる制御方法に関する。従って、本発明の制御方法は、上述の(1)〜(7)の遊戯用撮影装置と同様の作用効果を奏する。
(9) 本発明のコンピュータプログラムは、上述の(1)〜(7)の遊戯用撮影装置としてコンピュータを機能させためのプログラムに関する。従って、本発明のコンピュータプログラムは、上述の(1)〜(7)の遊戯用撮影装置と同様の作用効果を奏する。
(8) The control method of the present invention relates to a control method performed on the above-described game shooting apparatuses (1) to (7). Therefore, the control method of the present invention has the same operational effects as the above-described game shooting apparatuses (1) to (7).
(9) The computer program of the present invention relates to a program for causing a computer to function as the above-described shooting apparatus for games (1) to (7). Therefore, the computer program of the present invention has the same operational effects as the above-described game shooting apparatuses (1) to (7).
以上の通り、本発明によれば、撮影画像に含まれる所定の画像部分を正確にグルーピングすることができる。また、本発明によれば、撮影画像に含まれる利用者ごとの画像部分の補正処理を、簡単かつ確実に行うことができる。 As described above, according to the present invention, it is possible to accurately group predetermined image portions included in a captured image. Further, according to the present invention, it is possible to easily and reliably perform the correction process for the image portion for each user included in the captured image.
以下、本発明の実施形態に係る遊戯用撮影を、図面を参照しつつ説明する。
本実施形態の遊戯用撮影装置は、写真撮影により生成された画像データに対して落書き編集を行った後、シール紙として印刷したり、画像データとして外部装置(携帯端末や画像蓄積サーバ等)に出力したりするものである。まず、この遊戯用撮影装置の全体構造について説明する。
Hereinafter, shooting for play according to an embodiment of the present invention will be described with reference to the drawings.
The imaging device for play of this embodiment performs graffiti editing on image data generated by photography and then prints it as sticker paper or as image data to an external device (such as a portable terminal or an image storage server). Output. First, the overall structure of this gaming device will be described.
<全体構造>
図1は、本発明の実施形態に係る遊戯用撮影装置を左前側から見た斜視図である。
図2は、図1の遊戯用撮影装置を上から見た平面図である。なお、以下では、図1に示す前後左右の方向を基準として、装置構造の説明を行う。
図1及び図2に示すように、遊戯用撮影装置は、前部側の撮影部1と、後部側の編集部2とを備えており、前後方向に長いほぼ直方体状を呈している。編集部2の後端には、編集後の写真の出力などを行う出力部3が設けられている。
<Overall structure>
FIG. 1 is a perspective view of a gaming apparatus according to an embodiment of the present invention as viewed from the left front side.
FIG. 2 is a plan view of the gaming apparatus of FIG. 1 viewed from above. In the following, the device structure will be described with reference to the front, rear, left, and right directions shown in FIG.
As shown in FIGS. 1 and 2, the shooting apparatus for play includes a front-side shooting unit 1 and a rear-
撮影部1は、利用者(ユーザ)を撮影するカメラが内蔵された撮影筐体11と、この撮影筐体11の後方に撮影空間10を介して配置された背景壁部12とを有する。撮影筐体11の側面と、背景壁部12の側面との間の隙間は、撮影空間10への出入口である第1出入口101a,101bを構成している。
編集部2は、背景壁部12の後方に隣接して配置された編集筐体21を有しており、この編集筐体21には、左側及び右側のそれぞれに向いた一対の操作面が設けられている。
The photographing unit 1 includes a photographing
The
各操作面への入力作業を行う編集空間20a,20bへは、第2出入口201a,201bを介して入ることができる。
出力部3は、編集筐体21の後端面と接する出力筐体31を有しており、この出力筐体31に対しては、遊戯撮影装置の後端側から操作を行うように、操作面が後側を向いている。従って、出力筐体31の後端側の空間は、出力操作を行う出力空間30となる。
The
The
撮影筐体11と背景壁部12の上端部の側面は、前後方向に延びる天井フレーム13によって互いに連結されている。この天井フレーム13の枠内部には、撮影空間10を上から覆い、照明とフラッシュ照射が可能な天井照明ユニット14が設けられている。
撮影筐体11の左側面(或いは右側面)には、遊戯用撮影装置の使用方法を含む説明書きを掲示するための掲示スペース15が設けられている。また、その左側面の上部には、撮影筐体11が使用中であるか否かを示す表示部16が設けられている。
The side surfaces of the photographing
On the left side (or right side) of the
表示部16は、編集筐体21の制御ボックス211(図4参照)の内部に設けられた制御装置(図示せず)によって発光又は消灯される表示灯よりなる。表示部16は、その発光によって撮影部1が使用中であることをユーザに示し、消灯によって撮影部1が空きになったことをユーザに示すためのものである。
本実施形態では、表示部16が左右方向外側に突出した平面視三角形状に形成されているが、その形状は特には限定されず、凸湾曲状などのその他の形状であってもよい。
The
In the present embodiment, the
背景壁部12は、撮影筐体11とほぼ同じ幅及び高さの板状部材によって形成され、撮影筐体11の正面と対面する本体プレート121と、この本体プレート121の左右両端から前方に延設された一対のサイドプレート122とを有している。
背景壁部12は、本体プレート121の左右両端縁にサイドプレート122を接合することにより、全体として平面視コ字状に形成されている。
The
The
本体プレート121における撮影筐体11に対面する内面には、クロマキー処理のための単一色(例えば、青色または緑色)の着色が施されている。この着色は、本体プレート121に直接ペンキなどを塗るか、着色された布地やプレート等を取る付けることによって行われている。
そして、撮影筐体11の後端縁と、天井フレーム13の下端縁と、サイドプレート122の前端縁とから、撮影空間10に出入りするための上述の第1出入口101a,101bが構成されている。
The inner surface of the
The first entrances 101 a and 101 b described above for entering and exiting the
編集筐体21は、左右両側から2組のユーザが同時に編集可能な対面方式を採用している。従って、編集筐体21は、左右それぞれに操作面を有するとともに、左右方向の長さが背景壁部12の同方向幅よりも小さい筐体よりなる。
編集筐体21の前端面は、背景壁部12の背面の中央部に接続されており、この背景壁部12の後方でかつ編集筐体21の左右両側方のスペースが、2組のユーザがそれぞれ編集作業を行う編集空間20a,20bとなっている。
The
The front end surface of the editing
編集筐体21の上方には、平面視においてほぼコの字状のカーテンフレーム22が設けられている。
このカーテンフレーム22は、前後方向に延びる一対の側部フレーム221と、この側部フレーム221の後端同士を連結する左右方向に延びる後部フレーム222とから構成されている。
Above the
The
各側部フレーム221の前端は、天井フレーム13の後端に前後方向に延長状に連結されており、後部フレーム222の中央部は、編集筐体21の後上端部に設けられた支持部材23によって支持されている。
そして、左右一方側の側部フレーム221と、後部フレーム222のほぼ半分の長さ部分により、編集空間20a,20bに出入りするための前記第2出入口201a,201bの上枠部が構成されている。
The front end of each
The left and right side frames 221 and the substantially half length of the
<撮影筐体>
図3は、撮影筐体11の斜視図である。
図3に示すように、撮影筐体11は、室内側の正面パネル部が凹湾曲状に形成されている。撮影筐体11の内部には、顔を中心とした上半身の写真(以下、「フェイスアップ画像」という。)を撮影するための上部カメラ111と、全身の写真(以下、「全身画像」という。)を撮影するための下部カメラ112が搭載されている。
<Shooting case>
FIG. 3 is a perspective view of the photographing
As shown in FIG. 3, the photographing
上部カメラ111の下方には、撮影条件などの入力操作が可能なタッチパネル式の液晶モニタよりなる上部モニタ113が設けられている。この上部モニタ113には、上部カメラ111で撮影された画像が表示される。
また、下部カメラ112の下方には、このカメラ112で撮影された画像が表示される下部モニタ114が設けられている。この下部モニタ114にはタッチパネルは設けられておらず、もっぱら表示のみを行うようになっている。
Below the
Also, below the
撮影筐体11の室内側面には、撮影空間10を前方から照明するとともに、フラッシュ照射する正面照明ユニット115が設けられている。
正面照明ユニット115は、4つの部位、つまり中央上側のユニット部分115Aと、中央下側のユニット部分115Bと、左側のユニット部分115Cと、右側のユニット部分115Dとから構成されている。また、撮影筐体11の右下部には、コイン投入口とコイン返却口を有するキャッシュボックス116が設けられている。
A
The
<編集筐体>
図4は、編集筐体21の斜視図である。
同4に示すように、編集筐体21は、下部側の制御ボックス211と、この制御ボックス211の上に設けられた編集台部212とを有する。
制御ボックス211の内部には、メインコンピュータユニットやI/Oコントローラなどの各種の制御装置が内蔵されている。これらの制御装置は、本実施形態の遊戯用撮影装置全体の動作を制御する制御部4として機能する。
<Editing enclosure>
FIG. 4 is a perspective view of the editing
As shown in FIG. 4, the editing
Various control devices such as a main computer unit and an I / O controller are built in the
編集台部212は、頂上の稜線が前後方向を向く山形の傾斜面を有しており、この各傾斜面に、2組のユーザがそれぞれ編集作業を行うための操作面が設置されている。
具体的には、各操作面にはタブレットを内蔵した液晶モニタで構成された編集用モニタ213が設けられており、各編集用モニタ213の左右両側には、2本のタッチペン214A,214Bが接続されている。
The
Specifically, each operation surface is provided with an
このタッチペン214A,213Bのペン先を編集用モニタ213の画面に接触させることにより、画面表示されたアイコンを選択する選択入力や、文字や描画の落書きを行う場合の手書き入力を行うことができる。
なお、図4では、左側の編集用モニタ213を示しているが、右側の編集用モニタ213も左側と同じ構造である。また、制御ボックス211の制御装置は、左右両側の編集用モニタ213への入力情報に対応する処理を個別に並列処理できるようになっている。
By making the pen tips of the touch pens 214A and 213B come into contact with the screen of the
4 shows the
<出力筐体>
図5は、出力筐体31の正面図である。
同5に示すように、出力筐体31は、編集筐体21の後端部に接する矩形状の筐体よりなり、後端側を向く面に操作面が設けられている。
操作面の上部中央には、タッチパネル式の液晶モニタ311が設けられており、このモニタ311に、出力の説明などが表示される。
<Output housing>
FIG. 5 is a front view of the
As shown in FIG. 5, the
A touch panel type
液晶モニタ311の下方には、非接触通信部312が設けられている。この通信部312は、非接触型ICと通信を行うことにより、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。
上記の非接触型の通信手段としては、例えば、FeliCa(登録商標)などを利用することができる。
A
As the non-contact type communication means, for example, FeliCa (registered trademark) can be used.
非接触通信部312の下には、シール紙排出口313が設けられている。シール紙排出口313には、編集部における編集処理によって作成した編集画像が印刷されたシール紙が排出される。
このため、出力筐体31にはプリンタが内蔵されており、シール紙の印刷がそのプリンタにより行われる。また、シール紙排出口313の下にはスピーカ314が設けられており、出力処理における案内音声、BGM、効果音等の音を出力する。なお、本実施形態では、出力筐体31を編集筐体21と別体としているが、これらを一体的な筐体で構成することもできる。
A seal
For this reason, the
<遊戯用撮影装置の機能的構成>
図6は、遊戯用撮影装置の内部の機能的構成を示すブロック図である。
図6に示すように、遊戯用撮影装置は、バスXを介して、通信可能に接続された制御部4、記憶部5、撮影部1、編集部2及び出力部3を備えている。
制御部4は、公知のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成されている。
<Functional structure of shooting device for play>
FIG. 6 is a block diagram showing an internal functional configuration of the game photographing apparatus.
As shown in FIG. 6, the game shooting apparatus includes a control unit 4, a
The control unit 4 includes a known CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), and the like.
制御部4は、記憶部5に記憶されたコンピュータプログラムを読み出して実行し、遊戯用撮影装置の全体の動作を制御する。
例えば、撮影画像に対する補正処理や編集処理などの画像処理を行う場合には、制御部4がその画像処理部として機能する。バスXには、通信部6や外部ドライブ7も接続されている。制御部4、記憶部5、通信部6及び外部ドライブ7は、公知のコンピュータ装置により構成でき、かかるコンピュータは、上述した編集筐体21の制御ボックス211に内蔵されている。
The control unit 4 reads out and executes the computer program stored in the
For example, when performing image processing such as correction processing and editing processing on a captured image, the control unit 4 functions as the image processing unit. A communication unit 6 and an external drive 7 are also connected to the bus X. The control unit 4, the
記憶部5は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体よりなる。記憶部5は、制御部4から送信された各種の設定情報を記憶する。
記憶部5に記憶された情報は、制御部4により適宜読み出される。この記憶部5には、画像の編集のために用いられる各種の画像データや、撮影画像の背景となる背景画像データなどのデータなどが記憶されている。
The
Information stored in the
制御部4のROMには、制御部4において実行されるコンピュータプログラムや、このプログラムを動作させるためのデータが記憶されており、RAMには、制御部4において処理するデータやコンピュータプログラムが一時的に記憶される。以下では、RAMとROMを纏めてメモリということがある。 The ROM of the control unit 4 stores a computer program executed by the control unit 4 and data for operating this program. The RAM temporarily stores data and computer programs to be processed by the control unit 4. Is remembered. Hereinafter, the RAM and the ROM may be collectively referred to as a memory.
通信部6は、インターネット等の公衆回線と接続するための通信インタフェースよりなり、制御部4による通信制御に従って外部の装置と通信を行う。
外部ドライブ7では、光ディスクや半導体メモリなどのリムーバブルメディアに対する読み書きが行われる。例えば、外部ドライブ7によりリムーバブルメディアから読み出されたコンピュータプログラムやデータは、制御部4に送信され、記憶部5に記憶されたり、制御プログラムとしてインストールされたりする。
The communication unit 6 includes a communication interface for connecting to a public line such as the Internet, and communicates with an external device according to communication control by the control unit 4.
The external drive 7 reads / writes from / to a removable medium such as an optical disk or a semiconductor memory. For example, a computer program or data read from a removable medium by the external drive 7 is transmitted to the control unit 4 and stored in the
撮影部1は、撮影空間10における撮影処理に必要な機能部として、コイン処理部17、照明制御部18、上部カメラ111、下部カメラ112、上部モニタ113、下部モニタ114及びスピーカ19を備えている。
上部カメラ111及び下部カメラ112は、制御部4による制御に従って所定の撮影を行い、この撮影によって得られた画像を制御部4に出力する。
The photographing unit 1 includes a
The
上述の通り、上部カメラ111は、フェイスアップ画像を撮影するためものであり、下部カメラ112は、全身画像を撮影するためのものである。このため、カメラ111,112はそれぞれ、フェイスアップ画像および全身画像を得るために理想的な画角やトリミング範囲などの設定が予め行われている。
各カメラ111,112は、リアルタイムに画像を取り込んで当該画像データを表す画像信号を出力する。
As described above, the
Each
カメラ111,112から出力された画像信号は制御部4に入力され、その内部のメモリに一時的に記憶されるとともに、上部モニタ113及び下部モニタ114にそれぞれ送信され、当該画像信号に基づくライブ映像が表示される。
すなわち、上部カメラ11によるライブ映像は、上部モニタ113に表示され、下部カメラ112によるライブ映像は、下部モニタ114に表示される。
Image signals output from the
That is, live video from the
なお、静止画像として保存される撮影画像データ(以下、単に「撮影画像」ということがある。)は、より解像度が高い静止画データであり、ライブ映像表示を行うための撮影画像データ(「スルー画像データ」ともいう。)は、より解像度が低い動画データであることが多いが、スルー画像データを高解像度の動画データとしてもよい。
制御部4は、これらの画像データを画像処理する画像処理部としても機能し、上部モニタ113に表示する撮影画像の抽出や、撮影画像の補正処理などを行うことができる。
Note that captured image data (hereinafter, simply referred to as “captured image”) stored as a still image is still image data with a higher resolution, and is captured image data (“through”) for displaying live video. “Image data” is often moving image data having a lower resolution, but the through image data may be moving image data having a higher resolution.
The control unit 4 also functions as an image processing unit that performs image processing on these image data, and can perform extraction of a captured image displayed on the
上部モニタ113は、公知のタッチパネルよりなり、表示機器として、上部カメラ111によって撮影中のライブ映像を表示する。
上部モニタ113は、上部カメラ111で撮影された撮影画像が表示するとともに、GUI(Graphical User Interface)画面を表示可能である。すなわち、上部モニタ113は、GUI画面に対する入力機器としても機能し、撮影画像を選択する操作入力や、撮影画像に対する補正処理に関する操作入力などを受け付ける。これらの操作入力を示す信号は、操作信号として制御部4に入力される。
The
The
一方、下部モニタ114は、下部カメラ112によって撮影中のライブ映像を表示するものであり、上部モニタ113と概ね同じ構成である。ただし、上述の通り、タッチパネルとしての機能は有しておらず、もっぱら画像を表示することに用いられる。
On the other hand, the
コイン処理部17は、コイン投入口に対するコインの投入を検出する。コイン処理部17は、プレイに要する金額分(プレイ料金分)のコインが投入されたことを検出した場合には、起動信号を制御部4に出力する。
なお、コイン処理部17は、電子マネーやクレジットカードによるプレイ料金の支払を受け付けた場合に、起動信号を制御部4に出力するものであってもよい。
The
Note that the
照明制御部18は、制御部4より供給される照明制御信号に従って、撮影空間10内の正面照明ユニット115から照射されるフラッシュを制御する。
また、照明制御部18は、天井照明ユニット14及び正面照明ユニット115の内部に設けられる電灯(蛍光灯など)を制御することで、ユーザによる撮影処理の段階に応じて撮影空間10内の明るさを調整する。スピーカ19は、ユーザによる撮影処理の段階応じた音声を出力する。
The
In addition, the
編集部2a,2bは、ユーザが編集空間20a,20bそれぞれで編集処理を行うためのものである。編集部2aおよび編集部2の機能的構成は同じであるので、以下では編集部2aの機能的構成のみを説明し、編集部2bの機能的構成の説明を省略する。
編集部2aは、撮影画像の落書きなどの編集のための各種のGUI画面(以下、「編集画面」ともいう。)を表示する編集用モニタ213と、編集画面に対する入力部である2本のタッチペン214A,214Bと、スピーカ215とを備えている。
The
The
編集用モニタ213は、制御部4による制御に従って編集画面を表示し、編集画面に対するユーザの編集入力などを検出する。
すなわち、ユーザが編集用モニタ213にタッチペン214A,214Bのペン先をタッチすると、その操作入力やタッチペン214A,214Bのいずれでタッチされたのかが検出され、操作信号として制御部4に送信される。これにより、編集対象である撮影画像の編集が行われる。
The editing monitor 213 displays an editing screen according to control by the control unit 4 and detects a user's editing input on the editing screen.
That is, when the user touches the
具体的には、ユーザは、編集用モニタ213に表示された撮影画像に対して、例えば、文字、模様、図形などのいわゆる落書きを、タッチペン214A,214Bなどの入力デバイスを用いて入力することができる。
これにより、撮影画像に、落書きなどによるデータが重ね合わされた編集画像の画像データが生成される。このようにして生成された編集画像の画像データは、出力部3へ送信される。
Specifically, for example, the user can input so-called graffiti such as characters, patterns, and figures on the captured image displayed on the
As a result, image data of an edited image in which data such as graffiti is superimposed on the photographed image is generated. The image data of the edited image generated in this way is transmitted to the
出力部3は、出力空間30における出力処理を行う構成であるタッチパネル式の液晶モニタ311と、非接触通信部312と、スピーカ314とを備えている。また、出力部3は、印刷を行うためのプリンタ34やシール紙ユニット35も備えている。
プリンタ34は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ34に装着されたシール紙ユニット35に収納されているシール紙に印刷し、シール紙排出口313に排出する。
The
The
非接触通信部312は、携帯端末との間のデータの受送信を行うものである。なお、編集部2で作成された画像データは、通信部6によってネットワークを通じて外部の画像蓄積サーバに送信される。
The
<遊戯用撮影装置におけるプレイの流れ>
上述したように、撮影部1ではユーザを含む被写体の撮影処理が行われ、編集部2では撮影画像に対する編集処理が行われ、出力部3では編集画像の出力処理が行われる。
これらの処理は、記憶部5またはドライブ7に記憶されたコンピュータプログラム、或いはインストールされたコンピュータプログラムを制御部4が実行することによって行われる。以下、図2を参照しつつ、遊戯用撮影装置におけるプレイの流れを説明する。
<Flow of play in the shooting device for play>
As described above, the photographing unit 1 performs photographing processing of a subject including the user, the
These processes are performed by the control unit 4 executing a computer program stored in the
図2に示すように、ユーザは、矢印Xで示すように、第1出入口101a,101bから撮影空間10に入り、撮影部1に設けられたカメラ111,112やモニタ113,114など利用して撮影処理を行う。
そして、撮影処理を終えたユーザは、矢印Yで示すように、第1出入口101a,101bを通って撮影空間10から装置外部にいったん出たあと、いずれかの編集空間20a,20bに移動する。
As shown in FIG. 2, as indicated by an arrow X, the user enters the
Then, as shown by an arrow Y, the user who has finished the photographing process once exits the apparatus from the photographing
このとき、撮影筐体11の上部モニタ113およびスピーカ19によって、編集空間20a,20bへの移動を促す表示や通知がなされる。例えば、いずれの編集空間20a,20bもユーザが利用していないときは、いずれか一方の編集空間20a,20bへの移動を促す表示などを行う。
また、いずれか一方の編集空間20a,20bにユーザが存在する場合には、空いている編集空間への移動を促す表示を行う。いずれの編集空間20a,20bもユーザによって利用されている場合には、編集空間20a,20bへの移動を待たせる表示を行う。
At this time, the
When there is a user in any one of the
編集空間20a,20bに移動したユーザは、編集処理を開始する。各編集空間20a,20bのユーザは、同時に編集処理を行うことができる。
編集処理が終了すると、撮影画像や編集済みの撮影画像の中から選択された画像の印刷が開始される。そして、編集筐体21の編集用モニタ213には出力空間30への移動を促す表示がなされるとともに、スピーカ215によって出力空間30への移動を促す音声が通知される。
The user who has moved to the
When the editing process ends, printing of an image selected from the captured image and the edited captured image is started. Then, the editing monitor 213 of the editing
これに従って、編集処理を終えたユーザは、いずれかの編集空間20a,20bから、矢印Cで示すように出力空間30に移動して出力処理を行う。
なお、出力空間30において他のユーザが出力処理をしている場合には、編集用モニタ213およびスピーカ215によって、出力空間30への移動を待たせる表示や通知がなされる。
Accordingly, the user who has finished the editing process moves from one of the
When another user is performing output processing in the
出力空間30では、ユーザに画像の印刷を待たせている間、本プレイによって生成した画像をユーザの携帯端末で取得できるようにするための操作(例えば、メールアドレスの入力)をモニタ311に対して行わせる。
画像の印刷が終了したとき、ユーザは、出力筐体31に設けられたシール紙排出口313からシール紙を受け取り、一連のプレイを終えることになる。以上のようなユーザの移動を促す表示は、制御部4により行われる。
In the
When the printing of the image is finished, the user receives the sticker paper from the sticker
<撮影処理の詳細>
図7は、撮影部1における撮影処理の処理手順を示すフローチャートである。
遊戯用撮影装置が使用されていない時(プレイが行われていない時)には、上部モニタ113にはデモ画像が表示されている。このデモ画像の表示中に、ユーザがコイン投入口に所定金額のコインを投入すると、プレイが開始される(ステップS100)。
<Details of shooting process>
FIG. 7 is a flowchart illustrating the processing procedure of the imaging process in the imaging unit 1.
A demo image is displayed on the
プレイが開始されると、制御部4は、まず、画質選択用の案内画面を上部モニタ113に表示する(ステップS110)。
この案内画面には、シャープネスや色合いが異なる複数のサンプル画像が表示される。例えば、複数のサンプル画像の例としては、より素肌に近い色が反映された自然調のサンプル画像と、美白を強調する色が反映された美白調のサンプル画像などがあり、これらの異なる画質のサンプル画像は、上部モニタ113に同時に表示される。
When play is started, the control unit 4 first displays an image quality selection guide screen on the upper monitor 113 (step S110).
On this guidance screen, a plurality of sample images having different sharpness and color are displayed. For example, examples of a plurality of sample images include a natural tone sample image in which a color closer to bare skin is reflected and a whitening sample image in which a color that emphasizes whitening is reflected. The sample image is displayed on the
ユーザは、好みのサンプル画像をタッチすることで、画質の選択を行う。このとき、所定の制限時間内にサンプル画像の選択が行われない場合には、制御部4が自動的に撮影の画質を選択する。
或いは、一方のサンプル画像が、オススメ画像であることを予め表示しておき、サンプル画像の選択が所定の制限時間内に行われなかった場合には、制御部4が自動的にオススメ画像を選択するようにしてもよい。
The user selects an image quality by touching a favorite sample image. At this time, if the sample image is not selected within a predetermined time limit, the control unit 4 automatically selects the image quality for shooting.
Alternatively, it is displayed in advance that one of the sample images is a recommended image, and if the sample image is not selected within a predetermined time limit, the control unit 4 automatically selects the recommended image. You may make it do.
ユーザによる画質選択の受け付けが完了すると、制御部4は、フェイスアップ画像と全身画像の2種類の撮影画像の撮影枚数を、ユーザが指定する枚数分だけ順番に行う(ステップS120,S130)。
すなわち、制御部4は、画質選択の受付の完了後に、フェイスアップ画像と全身画像の撮影枚数を入力するための案内画面を上部モニタ113に表示し、ユーザが入力した枚数分だけ、それぞれの画像の撮影を行う。
When the reception of the image quality selection by the user is completed, the control unit 4 sequentially performs the number of shots of the two types of shot images of the face-up image and the whole body image by the number specified by the user (steps S120 and S130).
That is, after the acceptance of the selection of image quality, the control unit 4 displays a guide screen for inputting the number of face-up images and whole-body images to be captured on the
撮影画像の枚数には上限値(例えば6枚)が設定されている。従って、ユーザは、フェイスアップ画像と全身画像の撮影枚数が上限値の範囲内となるように、各画像の撮影枚数を設定する。
例えば、撮影枚数の上限値が「6」の場合には、フェイスアップ画像の撮影枚数を「4」に設定すると、全身画像の撮影枚数は「2」となる。もっとも、いずれか一方の画像の撮影枚数を上限値(=6)とし、他方の画像の撮影枚数をゼロに設定することもできる。
An upper limit (for example, 6) is set for the number of shot images. Accordingly, the user sets the number of shots for each image so that the number of shots for the face-up image and the whole-body image is within the upper limit range.
For example, when the upper limit of the number of shots is “6” and the number of shots of the face-up image is set to “4”, the number of shots of the whole body image is “2”. However, the number of shots of one of the images can be set to the upper limit (= 6), and the number of shots of the other image can be set to zero.
制御部4は、撮影されたフェイスアップ画像や全身画像に、その撮影前にユーザが選択した画質に基づく補正処理を行い、画質補正済みの撮影画像を生成する。この画質補正済みの撮影画像は、制御部4のメモリにいったん格納される。 The control unit 4 performs a correction process based on the image quality selected by the user before the captured face-up image or the whole body image, and generates a captured image with the image quality corrected. The captured image after the image quality correction is temporarily stored in the memory of the control unit 4.
フェイスアップ画像を撮影する場合、ユーザは、上部モニタ113に表示された撮影フレームにリアルタイム表示されるスルー画像を見ながら撮影を行う。この撮影フレームに表示されるスルー画像は、上部カメラ111により撮影されたものである。
また、上部カメラ11の撮影フレームに表示される画像は、上部カメラ111で撮像されたユーザと予め決められた前景画像や背景画像などが、クロマキー合成により合成された画像である。撮影は、所定時間ごとにシャッターが切られることで行われる。
When shooting a face-up image, the user takes a picture while viewing a through image displayed in real time in a shooting frame displayed on the
The image displayed in the shooting frame of the
全身画像を撮影する場合、ユーザは、下部モニタ114に表示された撮影フレームにリアルタイムに表示されるスルー画像を見ながら撮影を行う。この撮影フレームに表示されるスルー画像は、下部カメラ112により撮影されたものである。
また、下部カメラ112の撮影フレームに表示される画像も、下部カメラ112で撮像されたユーザと予め決められた前景画像や背景画像などが、クロマキー合成により合成された画像である。撮影は所定時間ごとにシャッターが切られることで行われる。
When taking a whole body image, the user takes an image while viewing a through image displayed in real time in a shooting frame displayed on the
The image displayed in the shooting frame of the
上記2種類の撮影(ただし、いずれか一方の撮影枚数を上限値に設定した場合には、その一方の画像タイプの撮影のみ)が完了すると、制御部4は、画質補正済みの撮影画像に対して、更に、撮影画像に対する部分的な補正処理を実行する(ステップS140)。
本実施形態では、上記の部分的な補正処理として、例えば、撮影画像の画像データの顔部分に対する「目強調処理」と「小顔処理」とが行われるが、これらの処理を含む部分的な補正処理の詳細については後述する。
When the above two types of shooting (however, when one of the number of shots is set to the upper limit, only one of the image types) is completed, the control unit 4 applies the image quality-corrected shot image. Further, a partial correction process is performed on the captured image (step S140).
In the present embodiment, as the partial correction processing, for example, “eye enhancement processing” and “small face processing” are performed on the face portion of the image data of the photographed image. Details of the correction processing will be described later.
なお、本実施形態の部分的な補正処理には、上記の「目強調処理」と「小顔処理」が含まれるので、本実施形態の制御部4は、撮影画像を構成する静止画データの中で、どのデータ部分が人物の目や顔の輪郭に相当するかを認識する画像認識処理が可能である。この画像認識処理により、制御部4は、撮影画像に含まれる顔を検出することができる。
また、本実施形態では、制御部4は、1つの撮影画像に含まれる目や顔の数をカウントすること等により、1つの撮影画像に含まれるユーザの人数を検出する機能を有するものとする。
Note that the partial correction processing according to the present embodiment includes the “eye enhancement processing” and the “small face processing” described above, and thus the control unit 4 according to the present embodiment performs the processing of the still image data constituting the captured image. Among them, it is possible to perform image recognition processing for recognizing which data portion corresponds to the outline of a person's eyes or face. By this image recognition processing, the control unit 4 can detect the face included in the captured image.
In the present embodiment, the control unit 4 has a function of detecting the number of users included in one captured image by counting the number of eyes and faces included in one captured image. .
部分的な補正処理が完了すると、制御部4は、上部モニタ113に、編集部2のいずれか一方の編集空間20a,20bへの移動を促す表示を行うとともに、スピーカ19によって、編集空間20a,20bへの移動を促す通知を行う。
また、制御部4は、補正処理が完了した後の撮影画像の画像データを、編集部2における落書きなどの編集対象としていったんメモリに記憶するとともに、その画像データを編集部2に送信する。
When the partial correction processing is completed, the control unit 4 displays on the upper monitor 113 a prompt to move to any one of the
Further, the control unit 4 temporarily stores the image data of the photographed image after the correction processing is completed in the memory as an editing target such as graffiti in the
<第1実施形態に係る補正処理>
図8〜図10は、第1実施形態に係る補正処理のためのGUI画面を示している。
このうち、図8及び図9のGUI画面は、撮影画像の中のどの画像部分がどのユーザであるかをユーザが特定するための「特定画面」であり、図10のGUI画面は、撮影画像に施す補正処理の程度を選択するための「選択画面」である。これらのGUI画面は、いずれも上部モニタ113に表示される。
<Correction Processing According to First Embodiment>
8 to 10 show GUI screens for correction processing according to the first embodiment.
Of these, the GUI screens in FIGS. 8 and 9 are “specific screens” for the user to specify which image portion in the captured image is which user, and the GUI screen in FIG. 10 is the captured image. This is a “selection screen” for selecting the degree of correction processing to be performed on the screen. All of these GUI screens are displayed on the
図7の撮影処理において、画質補正済みの撮影画像の部分的な補正処理(ステップS140)に移行すると、制御部4は、ユーザによる操作入力の進行状況に応じて、図8(a)〜図9(c)に示す特定画面G1〜G3を上部モニタ113に順番に表示する。
このうち、図8(a)と図8(b)の特定画面G1は、1人目のユーザの特定を行うためのGUI画面であり、図9(a)の特定画面G2は、2人目のユーザの特定を行うためのGUI画面であり、図9(c)の特定画面G3は、3人目のユーザの特定を行うためのGUI画面である。
In the shooting process of FIG. 7, when the process shifts to a partial correction process (step S <b> 140) of a shot image that has been subjected to image quality correction, the control unit 4 displays FIGS. 8A to 8D according to the progress of operation input by the user. Specific screens G1 to G3 shown in FIG. 9C are displayed on the
Among these, the specific screen G1 in FIGS. 8A and 8B is a GUI screen for specifying the first user, and the specific screen G2 in FIG. 9A is the second user. The specification screen G3 in FIG. 9C is a GUI screen for specifying the third user.
図8及び図9に示すように、特定画面G1〜G3には、画面の上側から順に、当該画面についての順番表示部401と、複数の撮影画像P1〜P6を並べて表示する画像表示領域402と、次の順番への移行ボタン403と、終了ボタン404とが含まれる。
このうち、順番表示部401は、特定画面G1〜G3が何人目のユーザの顔画像を特定するための画面であるかを表示する部分である。
As shown in FIGS. 8 and 9, the specific screens G <b> 1 to G <b> 3 are sequentially displayed from the upper side of the screen, an
Among these, the
画像表示領域402は、メモリに記憶された画質補正済みの撮影画像P1〜P6を並べて表示する領域である。この実施形態では、フェイスアップ画像が6枚撮影されたと仮定し、フェイスアップ画像よりなる6枚の撮影画像P1〜P6が並べて表示されている。
また、ここでは、3人のユーザA〜Cが一緒にプレイしており、そのユーザA〜Cのうちの任意の2人が、図示の組み合わせで各々の撮影画像P1〜P6に含まれているものと仮定する。
The
Also, here, three users A to C play together, and any two of the users A to C are included in each of the captured images P1 to P6 in the illustrated combination. Assume that
具体的には、撮影画像P1では、ユーザAが左側でかつユーザBが右側に位置し、撮影画像P2では、ユーザBが左側でかつユーザAが右側に位置している。
また、撮影画像P3では、ユーザCが左側でかつユーザAが右側に位置し、撮影画像P4では、ユーザBが左側でかつユーザCが右側に位置している。
更に、撮影画像P5では、ユーザAが左側でかつユーザBが右側に位置し、撮影画像P6では、ユーザAが左側でかつユーザCが右側に位置している。
Specifically, in the captured image P1, the user A is positioned on the left side and the user B is positioned on the right side, and in the captured image P2, the user B is positioned on the left side and the user A is positioned on the right side.
In the captured image P3, the user C is positioned on the left side and the user A is positioned on the right side, and in the captured image P4, the user B is positioned on the left side and the user C is positioned on the right side.
Further, in the captured image P5, the user A is positioned on the left side and the user B is positioned on the right side, and in the captured image P6, the user A is positioned on the left side and the user C is positioned on the right side.
各々の特定画面G1〜G3において、画像表示領域402に含まれる撮影画像P1〜P6に対しては、そこに含まれる顔部分を任意のユーザA〜Cがタッチすることにより、当該顔部分がどのユーザA〜Cに対応するかの操作入力を行うことができる。
例えば、図8(a)の特定画面G1に入力する1人目のユーザが、ユーザAであるとすると、ユーザAは、撮影画像P1〜P3,P5,P6に含まれる自身の顔部分を指で1回だけタッチする。
In each of the specific screens G1 to G3, for any of the captured images P1 to P6 included in the
For example, if the first user who inputs to the specific screen G1 in FIG. 8A is the user A, the user A uses his / her finger to touch his / her face included in the captured images P1 to P3, P5 and P6. Touch only once.
すると、図8(b)に示すように、制御部4は、ユーザAがタッチした顔部分にシャドーをかける。このシャドーは、その人物画像が既に選択済みであることをユーザA〜Cに通知するための表示方法の1つである。
なお、選択済みであること示すシャドーをかける画像部分は、顔部分をはみ出てもよいし、選択済みであることを示す表示方法は、シャドーをかける方法以外に、「選択済み」などの文字表示を顔画像に重ねて表示するなど、種々の方法を採用し得る。
Then, as illustrated in FIG. 8B, the control unit 4 shadows the face part touched by the user A. This shadow is one of display methods for notifying the users A to C that the person image has already been selected.
It should be noted that the image portion to be shadowed indicating that it has been selected may protrude from the face portion, and the display method to indicate that it has been selected is a character display such as “selected” in addition to the method of applying shadow. Various methods such as displaying the image on the face image can be adopted.
制御部4は、特定画面G1において操作入力があった複数の顔部分については、同じグループ(例えば、「グループ1」とする。)であることを示す識別子を付与し、その識別子を、選択された顔部分に対応づけてメモリに記憶する。
従って、ユーザAが最初の特定画面G1をタッチすることによって選択された複数の顔部分には、それぞれ「グループ1」の識別子が付与される。
The control unit 4 assigns an identifier indicating the same group (for example, “group 1”) to a plurality of face portions for which an operation input has been made on the specific screen G1, and the identifier is selected. It is stored in the memory in association with the face part.
Therefore, the identifier of “Group 1” is assigned to each of the plurality of face portions selected by the user A touching the first specific screen G1.
一方、ユーザAが間違って自分以外の顔部分をタッチすることもある。そこで、ユーザAは、例えば、選択された顔部分を2回連続してタッチし直したり、選択された顔部分を長押しでタッチしたりして、解除操作を行うことができる。制御部4は、この解除操作を検出すると、その顔画像について付与したグループ1の識別子を削除する。
なお、制御部4は、上記の解除操作を、最初の特定画面G1だけでなく2番目以後のすべての特定画面G2,G3についても実行可能である。
On the other hand, the user A may touch a face part other than himself / herself by mistake. Therefore, for example, the user A can perform a release operation by touching the selected face portion twice in succession or touching the selected face portion with a long press. When detecting the release operation, the control unit 4 deletes the identifier of the group 1 assigned to the face image.
Note that the control unit 4 can perform the above-described release operation not only on the first specific screen G1 but also on all the second and subsequent specific screens G2 and G3.
また、同じ撮影画像(例えば、P1とする。)に含まれる複数の顔画像のうち、最新にタッチ操作された顔画像を常に選択された顔画像として逐次更新して、上記のような個別の解除操作を省略することにしてもよい。この場合、同じ撮影画像P1について、ユーザAが一方の顔画像を先にタッチしたあと、別の顔画像を後からタッチすると、先の顔画像の選択が自動的に解除され、後の顔画像の選択が有効となる。
このように、顔画像に対する解除操作を省略することにすれば、例えば、同じ撮影画像P1に複数の顔画像が近接しているためにミスタッチの可能性が高い場合でも、ユーザAがミスタッチを即座に修正できるという利点がある。
In addition, among the plurality of face images included in the same photographed image (for example, P1), the face image that has been touched most recently is sequentially updated as the selected face image, and the individual images as described above are obtained. The release operation may be omitted. In this case, for the same captured image P1, when the user A touches one face image first and then touches another face image later, the selection of the previous face image is automatically canceled, and the subsequent face image The selection is valid.
In this way, if the release operation for the face image is omitted, for example, even when there is a high possibility of mistouch because a plurality of face images are close to the same captured image P1, the user A immediately makes a mistouch. There is an advantage that it can be corrected.
図8(b)では、最初の特定画面G1において、ユーザAがすべての自分の顔画像を正確にタッチした場合を示している。
その後、次のユーザBが自分の顔画像の特定を行う場合には、ユーザA〜Cの誰かが次の順番への移行ボタン403をタッチする。このタッチを検出すると、制御部4は、上部モニタ113のGUI画面を、図9(c)に示す2番目の特定画面G2に移行させる。
FIG. 8B shows a case where the user A touches all his / her face images accurately on the first specific screen G1.
Thereafter, when the next user B specifies his / her face image, one of the users A to C touches the
図8(b)と図9(c)を対比すれば明らかな通り、特定画面G1から特定画面G2に移行する場合、制御部4は、順番表示部401と移行ボタン403の人数表示をそれぞれ1つインクリメントして表示する。
この人数表示のインクリメントは、特定画面G2(図9(c))から特定画面G3(図9(d))に移行させる場合など、所定の特定画面Gi(i=1,2……)を次の特定画面Gi+1に移行させる場合に常に行われる。
As is clear from a comparison between FIG. 8B and FIG. 9C, when shifting from the specific screen G <b> 1 to the specific screen G <b> 2, the control unit 4 displays the number of persons on the
The increment of the number of persons is performed following the predetermined specific screen Gi (i = 1, 2,...), For example, when the specific screen G2 (FIG. 9C) is shifted to the specific screen G3 (FIG. 9D). This is always performed when shifting to the specific screen Gi + 1.
図9(c)の特定画面G2に入力する2人目のユーザが、ユーザBであるとすると、ユーザBは、撮影画像P1,P2,P4,P5に含まれる自身の顔部分を指で1回だけタッチする。
すると、制御部4は、特定画面G1の場合と同様に、ユーザBがタッチした顔部分にシャドーをかけて、その人物画像が選択済みであることを表示する。
If the second user who inputs to the specific screen G2 in FIG. 9C is the user B, the user B uses his / her finger once to touch his / her face included in the captured images P1, P2, P4 and P5. Just touch.
Then, similarly to the case of the specific screen G1, the control unit 4 shadows the face part touched by the user B and displays that the person image has been selected.
また、制御部4は、特定画面G2において操作入力があった複数の顔部分については、同じグループ(例えば、「グループ2」とする。)であることを示す識別子を付与し、その識別子を、選択された顔部分に対応づけてメモリに記憶する。
従って、ユーザBが特定画面G2をタッチすることによって選択された複数の顔部分には、それぞれ「グループ2」の識別子が付与される。
Further, the control unit 4 assigns an identifier indicating the same group (for example, “
Therefore, the identifier of “
その後、次のユーザCが自分の顔画像の特定を行う場合には、ユーザA〜Cの誰かが次の順番への移行ボタン403をタッチする。このタッチを検出すると、制御部4は、上部モニタ113のGUI画面を図9(d)に示す3番目の特定画面G3に移行させる。
図9(d)の特定画面G3に入力する3人目のユーザが、ユーザCであるとすると、ユーザCは、撮影画像P3,P4,P6に含まれる自身の顔部分を指で1回だけタッチすればよい。
Thereafter, when the next user C specifies his / her face image, someone of the users A to C touches the
If the third user who inputs to the specific screen G3 in FIG. 9D is the user C, the user C touches his / her face included in the captured images P3, P4, and P6 only once with a finger. do it.
すると、制御部4は、特定画面G1,G2の場合と同様に、ユーザCがタッチした顔部分にシャドーをかけて、その人物画像が選択済みであることを表示する。
また、制御部4は、特定画面G3において操作入力があった複数の顔部分については、同じグループ(例えば、「グループ3」とする。)であることを示す識別子を付与し、その識別子を、選択された顔部分に対応づけてメモリに記憶する。
Then, similarly to the specific screens G1 and G2, the control unit 4 shadows the face part touched by the user C and displays that the person image has been selected.
Further, the control unit 4 assigns an identifier indicating the same group (for example, “
なお、図9(d)に示すように、制御部4は、処理済みの特定画面G1,G2に対する操作入力(画面へのタッチ)により、撮影画像P1〜P6に含まれる人数分のユーザA,Bの特定が終了した撮影画像P1,P2,P5については、画像表示領域402に対する表示対象から外す。すなわち、残り撮影画像P3,P4,P5だけが画像表示領域402に表示される。
As shown in FIG. 9 (d), the control unit 4 allows the number of users A and the number of users A included in the captured images P1 to P6 by an operation input (touch on the screen) to the processed specific screens G1 and G2. The captured images P1, P2, and P5 for which the identification of B has been completed are excluded from the display targets for the
図8及び図9の図示例では、制御部4は、各撮影画像P1〜P6に含まれるユーザの人数がいずれも「2」であることを検出している。
このため、図9(c)の特定画面G2において、ユーザBが、撮影画像P1,P2,P5の自分の顔画像をタッチすることにより、撮影画像P1,P2,P5についての人物の特定数が検出数と一致すると、制御部4は、撮影画像P1,P2,P5を表示対象から外し、それ以外の撮影画像P3,P4,P6のみを画像表示領域402に表示する。
8 and 9, the control unit 4 detects that the number of users included in each of the captured images P1 to P6 is “2”.
For this reason, when the user B touches his / her face image of the captured images P1, P2, and P5 on the specific screen G2 of FIG. 9C, the specific number of persons for the captured images P1, P2, and P5 is determined. When the number matches the number of detections, the control unit 4 excludes the captured images P1, P2, and P5 from the display target and displays only the other captured images P3, P4, and P6 in the
このため、図9(d)に示すように、3番目のユーザCは、当初の特定画面G1の場合よりも少ない3枚の撮影画像P3,P4,P6の中から、自身の顔画像がどこにあるかを探せばよいので、すべての撮影画像P1〜P6をそのまま画像表示領域402に残しておく場合に比べて、自身の顔画像の特定をより迅速に行えるようになる。
For this reason, as shown in FIG. 9 (d), the third user C finds out where his / her face image is from among the three photographed images P3, P4, and P6 that are smaller than in the case of the original specific screen G1. Since it is only necessary to search for the presence, it is possible to identify the face image more quickly than when all the captured images P1 to P6 are left in the
図9(d)の特定画面G3において、ユーザCが、撮影画像P3,P4,P6に含まれる自分の顔画像を正確にタッチすると、残りの撮影画像P3,P4,P6についても、人物の特定数が検出数と一致し、画像表示領域402への表示対象がゼロになる。
そして、制御部4は、次のいずれかの条件1又は2が成立した場合に、特定画面Gi(i=1,2,……)を図10に示す選択画面Sに移行させる。
When the user C touches his / her face image included in the captured images P3, P4, and P6 correctly on the specific screen G3 in FIG. 9D, the remaining captured images P3, P4, and P6 are identified. The number matches the detected number, and the display target in the
Then, the control unit 4 shifts the specific screen Gi (i = 1, 2,...) To the selection screen S shown in FIG. 10 when any one of the following
条件1:任意の特定画面Giにおいて、終了ボタン404の操作入力があった場合。
条件2:任意の特定画面Giにおいて、画像表示領域402の表示対象がゼロの場合。
なお、条件1の場合には、終了ボタン404の操作入力までにグルーピングが完了した顔画像についてのみ、選択画面Sを用いた補正処理が可能となる。また、条件2は、すべてのユーザA〜Cの顔画像のグルーピングが完了した場合に成立する条件であり、この場合、すべてのユーザA〜Cの顔画像の補正処理が可能となる。
Condition 1: When there is an operation input of the
Condition 2: When the display target of the
In the case of condition 1, correction processing using the selection screen S is possible only for face images for which grouping has been completed before the
次に、図10を参照しつつ、選択画面Sを用いた補正処理の内容を説明する。
制御部4は、上述のグルーピング処理により判明したグループ数(本実施形態では、「3」)に分割した選択画面Sを表示する。図示の例では、選択画面Sを縦割りに分割してなる、グループ1〜3に対応する分割領域が表示されている。
選択画面Sの各分割領域には、上側から順に、顔表示領域411と、目強調処理の程度を選択するための選択部412と、小顔処理の程度を選択するための選択部413と、選択完了を指示するためのOKボタン414とが含まれる。
Next, the content of the correction process using the selection screen S will be described with reference to FIG.
The control unit 4 displays the selection screen S divided into the number of groups (“3” in this embodiment) determined by the above-described grouping process. In the example shown in the figure, the divided areas corresponding to the groups 1 to 3 obtained by dividing the selection screen S vertically are displayed.
In each divided area of the selection screen S, in order from the top, a
図10に示すように、制御部4は、撮影画像P1〜P6から同じグループ1〜3の識別子を有する顔画像をトリミングし、トリミングした顔画像を、対応するグループ1〜3の顔表示領域411に並べて表示する。このとき、制御部4は、顔画像をできるだけ拡大して表示する。
例えば、ユーザAの顔画像はグループ1に属するので、ユーザAの5つの顔画像がグループ1の顔表示領域411に表示されている。同様に、ユーザBの4つの顔画像がグループ2の顔表示領域411に表示され、ユーザCの3つの顔画像がグループ3の顔表示領域411に表示されている。
As illustrated in FIG. 10, the control unit 4 trims the face images having the identifiers of the same groups 1 to 3 from the captured images P1 to P6, and converts the trimmed face images into the
For example, since the face image of user A belongs to group 1, five face images of user A are displayed in the
なお、選択画面Sの顔表示領域411には、必ずしも、ユーザA〜Cが特定した顔画像をすべて表示する必要はなく、少なくとも1つの顔画像を表示すればよい。その方が、すべての顔画像を表示するよりも、各顔画像がより大きくなるように拡大して表示することが可能となる。
各ユーザA〜Cは、撮影画像P1〜P6に対する部分的な補正処理(本実施形態では、目強調処理と小顔処理)を所望する場合は、選択部412,413に対する操作入力を行うことにより、その補正処理の程度を選択することができる。
Note that it is not always necessary to display all the face images specified by the users A to C in the
When each user A to C desires partial correction processing (in this embodiment, eye enhancement processing and small face processing) for the captured images P1 to P6, the user A to C performs operation input to the
例えば、図示の例では、目強調処理用の選択部412に、ナチュラルから大きめまでの3段階の程度が表示されている。
そこで、ユーザA〜Cが所望の大きさの目の例示部分をタッチすると、制御部4は、タッチされた部分に対応する拡大度合いとなるように、顔表示領域411に含まれる顔画像の目の部分の大きさを変更する。この顔画像の目の大きさの変更は、タッチする目の例示部分を変更する度に実行される。
For example, in the illustrated example, the eye enhancement
Therefore, when the users A to C touch an exemplary portion of the eye having a desired size, the control unit 4 causes the eyes of the face image included in the
また、図示の例では、小顔処理用の選択部413に、ナチュラルから小さめまでの3段階の程度が表示されている。
そこで、ユーザA〜Cが所望の大きさの輪郭の例示部分をタッチすると、制御部4は、タッチされた部分に対応する縮小度合いとなるように、顔表示領域411に含まれる顔画像に対して小顔処理を実行する。この小顔処理は、例えば、特許文献2等に記載の技術を利用すればよい。この顔画像の輪郭部分の大きさの変更は、タッチする輪郭の例示部分を変更する度に実行され、その変更が顔表示領域411に表示された顔画像に対して反映される。
In the illustrated example, the small face
Therefore, when the users A to C touch an exemplary portion of a contour having a desired size, the control unit 4 applies the face image included in the
例えば、図10のグループ1に関する選択部412,413における選択が変更されるたびに、グループ1に関する顔表示領域411に表示されたすべての顔画像に対して、その変更(目の大きさ、小顔の度合い)が反映される。
なお、選択部412,413に対して目や顔の大きさを変更する入力が行われると、顔表示領域411に表示される顔画像の目の大きさや顔の大きさも変更される。また、選択部412,413に対する操作入力は、OKボタン414が押されるまで、或いは制限時間が経過するまで可能である。
For example, every time the selection in the
In addition, when an input for changing the size of the eyes or the face is performed to the
制御部4は、ユーザA〜CがOKボタン414をタッチした時点、或いは、所定の制限時間が経過した時点の目強調処理及び小顔処理の程度を、各グループ1〜3ごと(すなわち、ユーザA〜Cごと)ことの変更程度として採用する。
そして、制御部4は、各グループ1〜3の目強調処理と小顔処理の程度が、当該グループ1〜3に含まれるすべての顔画像に適用されるように、撮影画像P1〜P6の画像データを変更することで、ユーザA〜Cが望む変更程度を撮影画像P1〜P6に反映させる。
The control unit 4 determines the degree of eye enhancement processing and small face processing at the time when the users A to C touch the
The control unit 4 then images the captured images P1 to P6 so that the degree of eye enhancement processing and small face processing of each group 1 to 3 is applied to all the face images included in the groups 1 to 3. By changing the data, the degree of change desired by the users A to C is reflected in the captured images P1 to P6.
<第1実施形態の効果>
以上の通り、第1実施形態の遊戯用撮影装置によれば、制御部4が、撮影画像P1〜P6の中のどの画像部分(具体的には、被写体の「顔画像」)がどのユーザA〜Cであるかを当該ユーザA〜Cが特定するための特定画面G1〜G3(図8及び図9)を上部モニタ113に表示させ、その特定画面G1〜G3に対する操作入力に基づいて、画像部分を同じユーザA〜Cごとのグループ1〜3に分けるグルーピング処理を実行する。
<Effects of First Embodiment>
As described above, according to the game shooting device of the first embodiment, the control unit 4 determines which image portion (specifically, “face image” of the subject) in the shot images P1 to P6 and which user A. The specific screens G1 to G3 (FIGS. 8 and 9) for the user A to C to specify whether the user A to C is displayed on the
このため、例えば、コンピュータによる画像認識処理の結果のみに基づいて、自動的にグルーピングを行う場合に比べて、撮影画像P1〜P6に含まれる所定の画像部分を正確にグルーピングすることができる。 Therefore, for example, it is possible to accurately group predetermined image portions included in the captured images P1 to P6 as compared to a case where grouping is automatically performed based only on the result of image recognition processing by a computer.
また、第1実施形態の遊戯用撮影装置によれば、制御部4が、グルーピング処理の完了後に、撮影画像P1〜P6に施す補正処理の程度をユーザA〜Cが選択するための選択画面Sを上部モニタ113に表示させ、選択画面Sに対する操作入力によって選択された補正処理の程度を、同じグループ1〜3に属するユーザA〜Cの画像部分を含む撮影画像P1〜P6に反映させる。
In addition, according to the game shooting apparatus of the first embodiment, the selection screen S for the users A to C to select the degree of the correction process that the control unit 4 performs on the captured images P1 to P6 after the grouping process is completed. Is displayed on the
このため、ユーザA〜Cが画像部分に対する補正処理の程度を各々の撮影画像P1〜P6に対して逐一入力する必要がなくなり、ユーザA〜Cごとの画像部分の補正処理を簡便かつ確実に行うことができる。 For this reason, it is not necessary for the users A to C to input the degree of correction processing for the image portion one by one for each of the captured images P1 to P6, and the correction processing of the image portion for each of the users A to C is performed simply and reliably. be able to.
第1実施形態の遊戯用撮影装置では、制御部4が行うグルーピング処理には、上部モニタ113に表示されたすべての撮影画像P1〜P6について、どの画像部分が自身であるかの入力を1人ずつ順番に受け付ける処理(順番に表示される特定画面G1〜G3に対する入力の受け付け処理)と、同じ順番に特定された画像部分を同じユーザA〜Cのグループ1〜3に含める処理とが含まれる。
In the shooting apparatus for play of the first embodiment, one person inputs which image part is himself for all the captured images P1 to P6 displayed on the
このように、第1実施形態では、各ユーザA〜Cが、撮影画P1〜P6像に含まれる自身の画像部分を特定する操作入力を、1人ずつ順番に行うので、ユーザA〜Cの人数の増加に伴って特定画面G1〜G3に対する操作入力を行う時間が増加する。
しかし、その反面、後述の第2実施形態のグルーピング処理のように、分割画面B1,B2ごとにすべての撮影画像P1〜P6を表示する必要がないので、1つ1つの撮影画像P1〜P6をより大きく表示できるという利点がある。これにより、ユーザA〜Cに対して顔部分をより大きく提示することができ、ユーザA〜Cは自分の顔の確認がし易くなる。従って、グルーピング処理のための操作入力に関するミスを低減することができる。
Thus, in 1st Embodiment, since each user A-C performs operation input which specifies the own image part contained in the picked-up image P1-P6 image one by one in order, user A-C's As the number of people increases, the time for performing operation input on the specific screens G1 to G3 increases.
However, unlike the grouping process of the second embodiment described later, it is not necessary to display all the captured images P1 to P6 for each of the divided screens B1 and B2, so that each captured image P1 to P6 is displayed. There is an advantage that it can be displayed larger. Thereby, the face portion can be presented larger to the users A to C, and the users A to C can easily confirm their faces. Accordingly, it is possible to reduce errors related to operation input for grouping processing.
<第2実施形態に係る補正処理>
図11は、第2実施形態に係る補正処理のためのGUI画面を示している。
具体的には、図11のGUI画面は、撮影画像の中のどの画像部分がどのユーザであるかをユーザが特定するための「特定画面」である。このGUI画面は、上部モニタ113に表示される。
<Correction Processing According to Second Embodiment>
FIG. 11 shows a GUI screen for correction processing according to the second embodiment.
Specifically, the GUI screen in FIG. 11 is a “specific screen” for the user to specify which image portion in the captured image is which user. This GUI screen is displayed on the
なお、第2実施形態では、図11の特定画面G11,G12を用いたグルーピング処理が完了すると、図10のGUI画面(選択画面S)に移行し、第1実施形態と同様の補正処理が行われる。
従って、以下においては、第1実施形態と同様の構成及び効果については説明を省略し、第1実施形態との相違点とその効果について説明する。
In the second embodiment, when the grouping process using the specific screens G11 and G12 in FIG. 11 is completed, the process proceeds to the GUI screen (selection screen S) in FIG. 10, and the same correction process as in the first embodiment is performed. Is called.
Therefore, in the following, description of the same configurations and effects as those of the first embodiment will be omitted, and differences from the first embodiment and effects thereof will be described.
図7の撮影処理において、画質補正済みの撮影画像の部分的な補正処理(ステップS140)に移行すると、制御部4は、まず、図11(a)に示す特定画面G11を上部モニタ113に表示する。
この特定画面G11は、プレイ中のユーザの人数の入力を促す案内画面である。図示の例では、1人〜4人までの人数を入力するためのアイコンが表示されている。なお、ここでは、ユーザの人数が「2人」であると仮定する。
In the shooting process of FIG. 7, when the process proceeds to a partial correction process (step S <b> 140) of the shot image after image quality correction, the control unit 4 first displays the specific screen G <b> 11 shown in FIG. 11A on the
The specific screen G11 is a guidance screen that prompts input of the number of users who are playing. In the illustrated example, icons for inputting the number of people from 1 to 4 are displayed. Here, it is assumed that the number of users is “two”.
ここで、いずれかのユーザA,Bが特定画面G11の「2人」のアイコンをタッチすると、制御部4は、次の特定画面G12を上部モニタ113に表示させる。
この特定画面G12には、タッチされた操作入力の人数に対応する数の分割領域B1,B2が含まれている。制御部4は、各分割領域B1,B2に、すべての撮影画像P1〜P6を並べて表示する。図示の例では、2つの分割領域B1,B2が縦割りに分割され、同じ6枚の撮影画像が各分割領域B1,B2に表示されている。
Here, when any of the users A and B touches the “two people” icon on the specific screen G11, the control unit 4 causes the
The specific screen G12 includes a number of divided areas B1 and B2 corresponding to the number of touched operation inputs. The control unit 4 displays all the captured images P1 to P6 side by side in each of the divided areas B1 and B2. In the illustrated example, the two divided areas B1 and B2 are divided vertically, and the same six captured images are displayed in the divided areas B1 and B2.
そこで、例えば一方のユーザAは、左側の分割領域B1に含まれる撮影画像P1〜P6の中から、自身の顔画像を含む箇所をタッチすることにより、どの顔画像が自身(ユーザA)であるかを入力する。
また、他方のユーザBは、右側の分割領域B2に含まれる撮影画像P1〜P6の中から、自身の顔画像を含む箇所をタッチすることにより、どの顔画像が自身(ユーザB)であるかを入力する。なお、以前に選択した自身の顔画像を2回タッチしたら、その選択をキャンセルすることができる。
Therefore, for example, one user A touches a part including his / her face image from among the captured images P1 to P6 included in the left divided region B1, and thereby which face image is the user (user A). Enter
In addition, the other user B touches a part including his / her face image from among the captured images P1 to P6 included in the right divided area B2, which face image is himself (user B). Enter. If the face image selected previously is touched twice, the selection can be canceled.
そして、制御部4は、同じ分割画面B1,B2において特定された顔画像が同じグループ1,2に含まれるようにグルーピングを行う。
例えば、分割画面B1を「グループ1」とし、分割領域B2を「グループ2」とすると、制御部4は、ユーザAが分割画面B1内でタッチした複数の顔画像をグループ1にグルーピングし、ユーザBが分割画面B2内でタッチした複数の顔画像をグループ2にグルーピングする。
Then, the control unit 4 performs grouping so that the face images specified on the same divided screens B1 and B2 are included in the
For example, when the divided screen B1 is “group 1” and the divided area B2 is “
なお、分割画面B1,B2に操作入力を行うユーザA,Bが、同じ顔画像を選択した場合には、制御部4は、後でタッチされた方の選択を不能にするとともに、同じ顔画像が重複して選択されたために、グループ分けできない旨のメッセージを、特定画面G12に表示する。
また、制御部4は、特定画面G12の「OK」ボタンが押されるか、或いは、制限時間が経過すると、特定画面G12によるグルーピング処理を完了し、この処理にて反面したグループ数に分割された図10の選択画面Sを上部モニタ113に表示する。
In addition, when the users A and B who perform operation inputs on the divided screens B1 and B2 select the same face image, the control unit 4 disables the selection of the one touched later and the same face image. A message is displayed on the specific screen G12 indicating that grouping cannot be performed due to the selection of “D”.
In addition, when the “OK” button on the specific screen G12 is pressed or the time limit has elapsed, the control unit 4 completes the grouping process by the specific screen G12 and is divided into the number of groups on the other hand in this process. The selection screen S of FIG. 10 is displayed on the
第2実施形態の遊戯用撮影装置では、制御部4が行うグルーピング処理には、撮影人数分の分割画面B1,B2に分けて上部モニタ113に表示されたすべての撮影画像P1〜P6について、どの顔画像が自身であるかの入力を各分割画面B1,B2において受け付ける処理と、同じ分割画面B1,B2に入力された顔画像を同じユーザA,Bのグループ1,2に含める処理とが含まれる。
In the game shooting apparatus of the second embodiment, the grouping process performed by the control unit 4 is performed for any of the shot images P1 to P6 displayed on the
このように、第2実施形態では、撮影人数分に分けられた分割画面B1,B2にすべての撮影画像P1〜P6が表示されるので、第1実施形態の場合(図8及び図9)に比べて、1つ1つの撮影画像P1〜P6は小さく表示される。これを回避するために、顔付近の画像を各撮影画像P1〜P6からトリミングし、それらを拡大表示することもできる。
この場合、各ユーザA,Bは、分割画面B1,B2に対して同時並行的に自身の顔画像を特定できるので、自身の顔画像の特定を1人ずつ順番に行う第1実施形態の場合に比べて、特定画面G12に対する操作入力がより短時間となる利点がある。
As described above, in the second embodiment, since all the captured images P1 to P6 are displayed on the divided screens B1 and B2 divided for the number of photographers, in the case of the first embodiment (FIGS. 8 and 9). In comparison, the captured images P1 to P6 are displayed smaller. In order to avoid this, it is possible to trim the image near the face from each of the captured images P1 to P6 and to enlarge them.
In this case, each user A, B can specify his / her face image simultaneously in parallel with respect to the divided screens B1, B2, so in the case of the first embodiment in which his / her face image is specified one by one in order. Compared to the above, there is an advantage that the operation input to the specific screen G12 takes a shorter time.
<第3実施形態に係る補正処理>
図12は、第3実施形態に係る補正処理のためのGUI画面を示している。
具体的には、図12のGUI画面は、撮影画像の中のどの画像部分がどのユーザであるかをユーザが特定するための「特定画面」である。このGUI画面は、上部モニタ113に表示される。
<Correction Processing According to Third Embodiment>
FIG. 12 shows a GUI screen for correction processing according to the third embodiment.
Specifically, the GUI screen of FIG. 12 is a “specific screen” for the user to specify which image portion in the captured image is which user. This GUI screen is displayed on the
なお、第3実施形態においても、図12の特定画面G21を用いたグルーピング処理が完了すると、図10のGUI画面(選択画面S)に移行し、第1実施形態と同様の補正処理が行われる。
従って、以下においては、第1実施形態と同様の構成及び効果については説明を省略し、第1実施形態との相違点とその効果について説明する。
Also in the third embodiment, when the grouping process using the specific screen G21 in FIG. 12 is completed, the process proceeds to the GUI screen (selection screen S) in FIG. 10, and the same correction process as in the first embodiment is performed. .
Therefore, in the following, description of the same configurations and effects as those of the first embodiment will be omitted, and differences from the first embodiment and effects thereof will be described.
図7の撮影処理において、画質補正済みの撮影画像の部分的な補正処理(ステップS140)に移行すると、制御部4は、まず、図12(a)に示す特定画面G21を上部モニタ113に表示する。
第3実施形態では、制御部4が、撮影画像P1〜P6に含まれる顔画像をユーザA〜Dごとに識別し、その識別結果が同じ顔部分を同じグループ1〜4として表示する「自動グルーピング機能」を有するものとする。
In the shooting process of FIG. 7, when the process shifts to a partial correction process (step S140) of the shot image whose image quality has been corrected, the control unit 4 first displays the specific screen G21 shown in FIG. To do.
In the third embodiment, the control unit 4 identifies the face images included in the captured images P1 to P6 for each of the users A to D, and displays the face portions having the same identification result as the same groups 1 to 4. “Automatic grouping” "Function".
具体的には、制御部4は、撮影画像P1〜P6に含まれるすべての顔部分を検出して、それぞれの顔部分の画像データから所定の特徴量を算出し、算出した特徴量が所定の閾値内で共通する顔部分を、同じグループ1〜4にグルーピングする。
上記の特徴量としては、例えば、顔画像に含まれる肌部分や頭髪部分から検出したRGB値や、両目の中央点と口の中央点とで構成される三角形の相対比率などがある。
Specifically, the control unit 4 detects all the face portions included in the captured images P1 to P6, calculates a predetermined feature amount from the image data of each face portion, and the calculated feature amount is a predetermined amount. Face portions that are common within the threshold are grouped into the same groups 1 to 4.
Examples of the feature amount include an RGB value detected from a skin portion and a hair portion included in a face image, and a relative ratio of a triangle formed by the center point of both eyes and the center point of the mouth.
図12(a)の例では、制御部4による上記の自動グルーピング機能により、合計9つの顔画像が抽出され、その顔画像が4つのグループ1〜4にグルーピングされて表示されている。表示される顔画像は、顔検出により人間の顔と判断された部分の画像であり、撮影画像からトリミングされたものである。
もっとも、図12(a)に示すように、制御部4は、同じ人物であるユーザBの顔画像を、グループ2とグループ3の2つにグルーピングしたり、異なる人物であるユーザCとユーザDの顔画像を、同じグループ4にグルーピングしたりして、実情とは異なるグルーピングを行うことがある。
In the example of FIG. 12A, a total of nine face images are extracted by the automatic grouping function by the control unit 4, and the face images are grouped and displayed in four groups 1 to 4. The displayed face image is an image of a part determined to be a human face by face detection, and is trimmed from the captured image.
However, as illustrated in FIG. 12A, the control unit 4 groups the face images of the user B who is the same person into two
その理由は、例えば、ユーザA〜Dが撮影ごとに表情を大きく変更(いわゆる変顔)したり、撮影ごとに帽子を着脱したり、撮影ごとに顔の向きが異なったりすると、上記の特徴量に基づく自動グルーピング機能では、誤りが生じ得るからである。
そこで、第3実施形態では、特定画面G21に対して各顔画像がアイコン的に表示され、この顔画像をグループ1〜4間で自由に移動できる。すなわち、ユーザA〜Dは、自身の顔画像のグルーピングが誤っている場合には、その顔画像を正しいグループ1〜4に移動させて制御部4によるグルーピングを修正することができる。
The reason is that, for example, if the users A to D greatly change their facial expressions every time they shoot (so-called “face change”), put on and take off their hats every time they shoot, or the direction of their faces changes every time they shoot, This is because an error may occur in the automatic grouping function based on.
Therefore, in the third embodiment, each face image is displayed as an icon on the specific screen G21, and this face image can be freely moved between the groups 1 to 4. That is, if the grouping of the user's face images is incorrect, the users A to D can correct the grouping by the control unit 4 by moving the face images to the correct groups 1 to 4.
アイコン的に表示された顔画像を移動する場合の操作方法としては、例えば、次のような方法がある。
操作方法1:移動させたい顔画像のアイコンを最初に指でタッチしたあと、移動先となる正式なグループの領域を指でタッチする方法
操作方法2:移動させたい顔画像のアイコンを指でタッチしたまま画面内を移動させ、移動先である正式なグループの領域で指を離す(昨今のスマートフォンで常用されている方法)。
As an operation method for moving a face image displayed as an icon, for example, there are the following methods.
Operation method 1: First touch the icon of the face image you want to move with your finger, then touch the area of the formal group that you want to move with your finger Operation method 2: Touch the icon of the face image you want to move with your finger Move the screen as it is, and release your finger in the area of the formal group that you are moving to (a method commonly used on modern smartphones).
そして、図12に矢印αで示すように、グループ3内のユーザBの顔画像をグループ2に移動させると、制御部4は、その顔画像をグループ3からグループ2に修正する。
また、図12に矢印βで示すように、グループ4内のユーザCの顔画像をグループ3に移動させると、制御部4は、その顔画像をグループ3からグループ2に修正する。
そして、図12(b)に示すように、正しいグルーピングがなされた時点でユーザがOKボタンを操作すると、制御部4は、その入力時点でのグループ分けを確定する。
Then, as shown by an arrow α in FIG. 12, when the face image of the user B in the
Further, as indicated by an arrow β in FIG. 12, when the face image of the user C in the group 4 is moved to the
Then, as shown in FIG. 12B, when the user operates the OK button when correct grouping is performed, the control unit 4 determines the grouping at the input time.
第3実施形態のグルーピング処理は、自動グルーピング機能による最初のグループ分けと、自動グルーピング機能によって誤ったグループに含まれた顔部分を正しいグループに含めるための操作入力を、ユーザA〜Dに行わせる修正処理とを含む。
このため、第1及び第2実施形態のように、各ユーザA〜Dが何度も操作入力を行う必要がなく、簡単にかつ素早くグルーピングを行うことができる。さらには、ユーザA〜Dの正しい判断に基づく修正処理によって完全なグループ分けが可能となり、撮影画像P1〜P6に含まれる顔画像を正確にグルーピングできるという効果がある。
The grouping process according to the third embodiment causes the users A to D to perform the initial grouping by the automatic grouping function and the operation input for including the face part included in the wrong group by the automatic grouping function in the correct group. Correction processing.
For this reason, unlike the first and second embodiments, it is not necessary for each of the users A to D to input an operation many times, and grouping can be performed easily and quickly. Further, complete grouping is possible by the correction process based on correct judgments of the users A to D, and the face images included in the captured images P1 to P6 can be accurately grouped.
<第4実施形態に係る補正処理>
図13〜図15は、第4実施形態に係る補正処理のためのGUI画面を示している。
このうち、図13及び図14のGUI画面は、撮影画像の中のどの画像部分がどのユーザであるかをユーザが特定するための「特定画面」であり、図15のGUI画面は、撮影画像に施す補正処理の程度を選択するための選択画面である。これらのGUI画面は、いずれも編集用モニタ213に表示される。
<Correction Processing According to Fourth Embodiment>
13 to 15 show GUI screens for correction processing according to the fourth embodiment.
Among these, the GUI screens in FIGS. 13 and 14 are “specific screens” for the user to specify which image portion in the captured image is which user, and the GUI screen in FIG. 15 is the captured image. 6 is a selection screen for selecting the degree of correction processing to be performed on the screen. All of these GUI screens are displayed on the
上述の第1〜第3実施形態では、図7の撮影処理中にグルーピング処理と補正処理の程度の選択を行うので、特定画面や選択画面が上部モニタ113に表示される。
これに対して、第4実施形態では、そのグルーピング処理と補正処理の程度の選択を、編集処理の一環として行う。このため、特定画面や選択画面は編集部2a,2bの編集用モニタ213に表示される。
In the first to third embodiments described above, since the grouping process and the correction process are selected during the shooting process of FIG. 7, the specific screen and the selection screen are displayed on the
On the other hand, in the fourth embodiment, selection of the degree of the grouping process and the correction process is performed as part of the editing process. For this reason, the specific screen and the selection screen are displayed on the editing monitor 213 of the
図13は、編集用モニタ213に表示される左右の編集用画面の一例を示す図である。
図13に示すように、編集用モニタ213には、左側のユーザA用と右側のユーザB用とに分かれてそれぞれ編集用画面が表示され、各ユーザA,Bは、左右のタッチペン214A,214Bを用いて編集用画面にそれぞれ操作入力を行うことができる。
また、各編集用画面には、上部側の編集領域501と、編集の態様に応じた複数のパレットを表示するパレット領域502とが含まれる。
FIG. 13 is a diagram illustrating an example of left and right editing screens displayed on the
As shown in FIG. 13, on the
Each of the editing screens includes an
パレット領域502の中のパレットには、例えば、「オススメ」、「スタンプ」、「ペン」、「メッセージ」及び「メイク」などが含まれており、目強調処理を含む本実施形態の補正処理は、「メイク」のパレットに割り当てられている。
図13では、左右両側の編集用画面がいずれも補正処理用の特定画面G31となっているが、編集用画面に表示される操作画面の内容は、ユーザA,Bがパレット領域502においてどのアプリケーションを選択するかによって定まる。
The palette in the
In FIG. 13, the editing screens on both the left and right sides are both the correction processing
例えば、一方のユーザA(又はB)がパレット領域502の「メイク」を選択する操作入力を行うと、その入力に対応する側の編集用画面が特定画面G31となるが、他方のユーザB(又はA)がパレット領域502の中の「スタンプ」などの他のアプリケーションを選択する操作入力を行うと、当該アプリケーションのために設計された所定の操作画面が表示される。
もっとも、各ユーザA,Bが同じアプリケーションを選択した場合には、編集用モニタ213の左右両側に同じ操作画面が表示され、各ユーザA,Bが独立して同じアプリケーションに基づく編集作業を行うことができる。
For example, when one user A (or B) performs an operation input for selecting “make” in the
However, when the users A and B select the same application, the same operation screen is displayed on both the left and right sides of the
そこで、以下においては、編集用モニタ213の左側に表示される図14及び図15の編集用画面を参照しつつ、ユーザAが左側の編集用画面を用いて自身の顔画像を特定し、その顔画像に対する部分的な補正処理の程度を選択する場合について、説明する。
編集部2における編集処理において、ユーザAが左側の編集用画面の「メイク」のパレットをタッチペンにて選択すると、制御部4は、まず図14(a)に示す特定画面G31を編集用モニタ213の左側部分に表示する。
Therefore, in the following, while referring to the editing screens shown in FIGS. 14 and 15 displayed on the left side of the
In the editing process in the
すなわち、制御部4は、「メイク」が選択されると、編集用画面を図14(a)に示す特定画面G31に変更し、この特定画面G31の編集領域501に、編集対象となるすべての撮影画像P1〜P6を同時に表示するとともに、目強調処理と小顔処理が可能である旨の所定のメッセージ503をパレット領域502表示する。
次に、制御部4は、編集用モニタ213の左側の編集用画面を、図14(a)の特定画面G31から、編集処理においてグルーピングを行うための図14(b)に示す特定画面G32に遷移させる。
That is, when “make” is selected, the control unit 4 changes the editing screen to the specific screen G31 shown in FIG. 14A, and all the edit targets 501 are displayed in the
Next, the control unit 4 changes the editing screen on the left side of the editing monitor 213 from the specific screen G31 of FIG. 14A to the specific screen G32 shown in FIG. 14B for performing grouping in the editing process. Transition.
第4実施形態の制御部4は、特徴量が共通する複数の顔画像を、すべての撮影画像P1〜P6から抽出し、それらの顔画像を同じグループにグルーピングする。このように、第4実施形態の制御部4も、特徴量に基づく自動グルーピング機能を有する。
このため、制御部4は、ユーザA用のグループ1の代表的な1つの顔画像と、ユーザB用のグループ2の代表的な1つの顔画像とを選択し、それらの顔画像A,Bをパレット領域502に表示する。これと同時に、制御部4は、ユーザが自分の顔をタッチするように促すメッセージ504をパレット領域502に表示する。
The control unit 4 of the fourth embodiment extracts a plurality of face images having a common feature amount from all the captured images P1 to P6, and groups these face images into the same group. As described above, the control unit 4 of the fourth embodiment also has an automatic grouping function based on the feature amount.
For this reason, the control unit 4 selects one representative face image of the group 1 for the user A and one representative face image of the
なお、図14(b)に示す左側の特定画面G32において、ユーザAの顔画像が補正対象として選択されている場合には、図示を省略した右側の特定画面G32においては、ユーザBが、ユーザAの顔画像を補正対象の画像として選択することはできない。 In the left specific screen G32 shown in FIG. 14B, when the face image of the user A is selected as the correction target, the user B is displayed on the right specific screen G32 (not shown). The face image of A cannot be selected as the correction target image.
図14(b)の例では、2人のユーザA,Bが撮影処理(図7)を行い、更に編集を行う場合を想定している。従って、パレット領域502には、ユーザAとユーザBの顔画像のトリミング画像が、少なくとも1つ表示される。
そこで、ユーザAが、パレット領域502に含まれる自身の画像にタッチすると、編集領域501に含まれるユーザAの顔画像(特徴量が共通する顔画像)に、囲みマーク505が表示される。これにより、ユーザAは自身の選択が正しいことを確認できる。
In the example of FIG. 14B, it is assumed that two users A and B perform the photographing process (FIG. 7) and further edit. Accordingly, at least one trimmed image of the face images of user A and user B is displayed in the
Therefore, when the user A touches his / her own image included in the
一方、図14に「符号A1」で示すように、実際にはユーザAである顔画像A1が、別のユーザの顔画像として誤って表示される場合がある。
この場合、ユーザAは、矢印で示すように、符号A1の顔画像を符号Aの自身の顔画像にドラッグアンドドロップする。すると、制御部4は、ドラッグされた顔画像A1のグループを、ドロップ先の顔画像Aと同じグループ1に修正する。このように、ユーザAは、制御部4の自動グルーピング機能に基づくグルーピングの誤りを、顔画像A1のドラッグアンドドロップによって修正することができる。
On the other hand, as shown by “reference A1” in FIG. 14, the face image A1 that is actually the user A may be erroneously displayed as the face image of another user.
In this case, as indicated by an arrow, the user A drags and drops the face image with the reference sign A1 onto the face image with the reference sign A. Then, the control unit 4 corrects the group of the dragged face image A1 to the same group 1 as the face image A that is the drop destination. Thus, the user A can correct the grouping error based on the automatic grouping function of the control unit 4 by dragging and dropping the face image A1.
また、図14の画面において、例えば次の手順(a1)〜(a3)により、制御部4によるグルーピングの誤りの修正を行うことにしてもよい。
(a1) ユーザAがパレット領域502内の自分の顔画像Aを選択し、編集領域501に含まれる撮影画像に、囲みマーク505を表示させる。この場合、制御部4の顔認証の誤りにより、ユーザA以外の顔画像C(図14では図示せず。)に囲みマーク505が表示されたとする。
Further, in the screen of FIG. 14, for example, the grouping error may be corrected by the control unit 4 by the following procedures (a1) to (a3).
(A1) User A selects his / her face image A in the
(a2) 撮影画像の表示領域501において、ユーザAが、囲みマーク505が表示されている自身以外の顔画像Cをペンでタッチする。
(a3) 上記(a2)のタッチ操作に応じて、制御部4は、タッチされた顔画像Cから囲みマーク505を消去し、タッチされた顔画像Cを別のユーザCのものとしてパレット領域502に追加する。
(A2) In the captured
(A3) In response to the touch operation in (a2) above, the control unit 4 deletes the surrounding
更に、図14の画面において、例えば次の手順(b1)〜(b3)により、制御部4によるグルーピングの誤りの修正を行うことにしてもよい。
(b1) ユーザAがパレット領域502内の自分の顔画像Aを選択し、編集領域501に含まれる撮影画像に、囲みマーク505を表示させる。この場合、制御部4の顔認証の誤りにより、ユーザAの顔画像A1に囲みマーク505が表示されなかったとする。
Furthermore, in the screen of FIG. 14, the grouping error may be corrected by the control unit 4 by the following procedures (b1) to (b3), for example.
(B1) User A selects his / her face image A in the
(b2) 撮影画像の表示領域501において、ユーザAが、囲みマーク505が表示されていない自身の顔画像A1をペンでタッチする。
(b3) 上記(b2)のタッチ操作に応じて、制御部4は、タッチされた顔画像A1に囲みマーク505を表示するとともに、パレット領域502における顔画像A1の表示を消去する。
(B2) In the captured
(B3) In response to the touch operation in (b2), the control unit 4 displays the surrounding
その後、ユーザAが、パレット領域502に含まれる終了ボタン506をタッチすることにより、グルーピング処理とユーザAの選択が完了すると、制御部4は、図15に示す選択画面S31を編集用モニタ213に表示する。
この選択画面S31では、編集領域501の撮影画像P1〜P6に含まれるユーザA,Bのうち、選択されなかったユーザBの顔部分にシャドーを付けるなどにより、自分以外のユーザBが補正処理の対象ではないことが示される。なお、選択されたユーザAの顔部分以外にシャドーを付けるようにしてもよい。
After that, when the user A touches the
In this selection screen S31, among the users A and B included in the captured images P1 to P6 in the
また、選択画面S31では、パレット領域502に、目強調処理の程度を選択するための選択部511と、小顔処理の程度を選択するための選択部512と、選択完了を指示するためのOKボタン513とが含まれる。
ユーザAは、撮影画像P1〜P6に対する部分的な補正処理(本実施形態では、目強調処理と小顔処理)を所望する場合は、選択部412,413に対する操作入力を行って補正処理の程度を選択することができる。
In the selection screen S31, a
When the user A desires partial correction processing (in this embodiment, eye enhancement processing and small face processing) on the captured images P1 to P6, the user A performs an operation input on the
例えば、図示の例では、目強調処理用の選択部511に、「ナチュ目」、「盛り目」、及び「デカ目」の3段階の程度が表示されている。
そこで、ユーザAが所望の大きさの目の例示部分をタッチすると、制御部4は、タッチされた部分に対応する拡大度合いとなるように、編集領域501に含まれるユーザAの顔画像の目の部分の大きさを変更する。この顔画像の目の大きさの変更は、タッチする目の例示部分を変更する度に実行される。
For example, in the illustrated example, the eye enhancement
Therefore, when the user A touches the exemplified portion of the eye having a desired size, the control unit 4 causes the eyes of the face image of the user A included in the
また、図示の例では、小顔処理用の選択部512に、「ナチュ顔」、「小顔」及び「モデル小顔」の3段階の程度が表示されている。
そこで、ユーザAが所望の大きさの輪郭の例示部分をタッチすると、制御部4は、タッチされた部分に対応する縮小度合いとなるように、編集領域501に含まれるユーザAの顔画像の輪郭部分の大きさを変更する。この顔画像の輪郭部分の大きさの変更は、タッチする輪郭の例示部分を変更する度に実行される。
In the illustrated example, the small face
Therefore, when the user A touches the exemplified portion of the contour of a desired size, the control unit 4 causes the contour of the face image of the user A included in the
制御部4は、ユーザAがOKボタン513をタッチした時点、或いは、所定制限時間が経過した時点の目強調処理及び小顔処理の程度を、ユーザAの顔画像に対する変更程度として採用する。
そして、制御部4は、採用された変更程度がすべてのユーザAの顔画像に適用されるように、撮影画像P1〜P6の画像データを変更することで、ユーザAの望む変更程度を撮影画像P1〜P6に反映させる。
The control unit 4 employs the degree of eye enhancement processing and small face processing at the time when the user A touches the
And the control part 4 changes the image data of the picked-up images P1-P6 so that the employ | adopted change degree is applied to the face image of all the users A, and the change degree which the user A desires is taken image. Reflected in P1 to P6.
第4実施形態のグルーピング処理の場合も、自動グルーピング機能による最初のグループ分けと、自動グルーピング機能によって誤ったグループに含まれた顔部分を正しいグループに含めるための操作入力を、ユーザAに行わせる修正処理とを含む。
このため、第1及び第2実施形態のように、各ユーザA,Bが何度も操作入力を行う必要がなく、簡単にかつ素早くグルーピングを行うことができる。さらには、ユーザA,Bの正しい判断に基づく修正処理によって完全なグループ分けが可能となり、撮影画像P1〜P6に含まれる顔画像を正確にグルーピングできるという効果がある。
Also in the case of the grouping process of the fourth embodiment, the user A is caused to perform an initial grouping by the automatic grouping function and an operation input for including the face part included in the wrong group by the automatic grouping function in the correct group. Correction processing.
Therefore, unlike the first and second embodiments, it is not necessary for the users A and B to input the operation many times, and the grouping can be performed easily and quickly. Furthermore, complete grouping is possible by correction processing based on correct judgments of the users A and B, and the face images included in the captured images P1 to P6 can be accurately grouped.
<変形例>
今回開示した実施形態は、例示であって制限的なものではない。本発明の権利範囲は、上述の実施形態で特定されるものではなく、基本的には特許請求の範囲に基づいて定まるものであり、そこに記載された構成と均等の範囲内でのすべての変更が含まれる。
<Modification>
The embodiment disclosed this time is illustrative and not restrictive. The scope of rights of the present invention is not specified in the above-described embodiment, but is basically determined based on the scope of the claims, and is all within the scope equivalent to the configuration described therein. Includes changes.
例えば、上述の実施形態では、撮影画像P1〜P6に含まれる任意の被写体に対する補正処理として、目を拡大して強調する「目強調処理」と、顔の輪郭を小さめに補正する「小顔処理」を例示したが、これ以外の補正処理であってもよい。
顔部分に対する補正処理としては、唇のつや感を強調する補正処理を採用することにしてもよい。また、撮影画像が全身画像である場合には、足を長めに強調する補正処理であってもよいし、体を細めに絞る補正処理であってもよい。
For example, in the above-described embodiment, as correction processing for an arbitrary subject included in the captured images P1 to P6, “eye enhancement processing” for enlarging and emphasizing eyes and “small face processing for correcting face outlines to be smaller” However, other correction processing may be used.
As the correction process for the face portion, a correction process for enhancing the gloss of the lips may be employed. In addition, when the captured image is a whole body image, it may be a correction process for emphasizing the legs longer, or a correction process for narrowing the body narrowly.
1:撮影部
2:編集部
2a:編集部
2b:編集部
3:出力部
4:制御部
5:記憶部
6:通信部
7:外部ドライブ
10:撮影空間 11:撮影筐体
113:上部モニタ(表示部、入力部)
114:下部モニタ
213:編集用モニタ(表示部)
214A,214B:タッチペン(入力部)
214A,213B:タッチペン(入力部)
1: shooting unit 2: editing
114: Lower monitor 213: Editing monitor (display unit)
214A, 214B: Touch pen (input unit)
214A, 213B: Touch pen (input unit)
Claims (9)
前記撮影部及び前記編集部のうちの少なくとも1つが、GUI画面を表示可能な表示部と、前記GUI画面に対する操作入力を行うための入力部と、前記操作入力に対応する所定の制御を行う制御部と、を有し、
前記制御部は、前記撮影画像の中のどの画像部分がどの前記利用者であるかを当該利用者が特定するための特定画面を前記表示部に表示させ、
前記特定画面に対する前記操作入力に基づいて、前記画像部分を同じ前記利用者ごとのグループに分けるグルーピング処理を実行することを特徴とする遊戯用撮影装置。 An imaging device for a game comprising: a photographing unit that photographs a subject including a user to obtain a photographed image; and an editing unit that edits the photographed image to obtain an edited image,
Control in which at least one of the photographing unit and the editing unit displays a GUI screen, an input unit for performing an operation input on the GUI screen, and a predetermined control corresponding to the operation input And
The control unit causes the display unit to display a specific screen for the user to specify which image portion in the captured image is which user.
An amusement shooting apparatus according to claim 1, wherein a grouping process for dividing the image portion into the same group for each user is executed based on the operation input on the specific screen.
前記選択画面に対する前記操作入力によって選択された前記補正処理の程度を、同じ前記グループに属する前記画像部分を含む前記撮影画像に反映させる請求項1に記載の遊戯用撮影装置。 The control unit causes the display unit to display a selection screen for the user to select the degree of correction processing to be performed on the captured image,
The game shooting device according to claim 1, wherein the degree of the correction process selected by the operation input on the selection screen is reflected in the shot image including the image portion belonging to the same group.
第1処理:表示部に表示されたすべての撮影画像について、どの画像部分が自身であるかの入力を1人ずつ順番に受け付ける処理
第2処理:同じ順番に入力された画像部分を同じ利用者のグループに含める処理 The shooting device according to claim 1 or 2, wherein the grouping process includes the following first and second processes.
1st process: The process which receives the input of which image part is one by one in order about all the picked-up images displayed on the display part 2nd process: The same user receives the image part input in the same order To include in a group
前記第2処理において、検出した人数分の前記利用者の特定が終了した前記撮影画像を前記表示部の表示対象から外す請求項3に記載の遊戯用撮影装置。 The control unit has a function of detecting the number of people included in one captured image,
The game photographing apparatus according to claim 3, wherein in the second process, the photographed images for which the number of detected users for the number of detected users are finished are excluded from display targets of the display unit.
第1処理:撮影人数分の分割画面に分けて表示部に表示されたすべての撮影画像について、どの画像部分が自身であるかの入力を各分割画面において受け付ける処理
第2処理:同じ分割画面に入力された画像部分を同じ利用者のグループに含める処理 The shooting device according to claim 1 or 2, wherein the grouping process includes the following first and second processes.
1st process: The process which receives the input which image part is itself in each divided screen about all the picked-up images displayed on the display part divided into the divided screen for the number of photographing persons 2nd process: On the same divided screen Processing to include the input image part in the same user group
前記自動グルーピング機能による最初のグループ分けと、
前記自動グルーピング機能によって誤った前記グループに含まれた前記画像部分を正しい前記グループに含めるための前記操作入力を、前記利用者に行わせる修正処理と、が含まれる請求項6に記載の遊戯用撮影装置。 For the grouping process,
First grouping by the automatic grouping function,
The game for playing according to claim 6, further comprising: a correction process for causing the user to perform the operation input for including the image portion included in the wrong group by the automatic grouping function in the correct group. Shooting device.
前記撮影部及び前記編集部のうちの少なくとも1つに対して行う、GUI画面を表示可能な表示ステップと、前記GUI画面に対する操作入力を行うための入力ステップと、前記操作入力に対応する所定の制御を行う制御ステップと、を含み、
前記制御ステップは、前記撮影画像の中のどの画像部分がどの前記利用者であるかを当該利用者が特定するための特定画面を前記表示部に表示させる第1のステップと、
前記特定画面に対する前記操作入力に基づいて、前記画像部分を同じ前記利用者ごとのグループに分けるグルーピング処理を実行する第2のステップと、を含むことを特徴とする遊戯用撮影装置の制御方法。 A method for controlling a shooting apparatus for a game, comprising: a photographing unit that photographs a subject including a user to obtain a photographed image; and an editing unit that edits the photographed image to obtain an edited image.
A display step capable of displaying a GUI screen, an input step for performing an operation input on the GUI screen, and a predetermined step corresponding to the operation input, performed on at least one of the photographing unit and the editing unit A control step for performing control,
The control step includes a first step of causing the display unit to display a specific screen for the user to specify which image portion in the captured image is which user.
And a second step of executing a grouping process for dividing the image portion into the same group for each user based on the operation input on the specific screen.
GUI画面を表示可能な表示ステップと、前記GUI画面に対する操作入力を行うための入力ステップと、前記操作入力に対応する所定の制御を行う制御ステップと、を含み、
前記制御ステップは、前記撮影画像の中のどの画像部分がどの前記利用者であるかを当該利用者が特定するための特定画面を前記表示部に表示させる第1のステップと、
前記特定画面に対する前記操作入力に基づいて、前記画像部分を同じ前記利用者ごとのグループに分けるグルーピング処理を実行する第2のステップと、を含むことを特徴とするコンピュータプログラム。 At least one of the shooting unit and the editing unit of a shooting apparatus for play, comprising: a shooting unit that takes a subject including a user to obtain a shot image; and an editing unit that edits the shot image to obtain an edited image. A computer program for controlling one,
A display step capable of displaying a GUI screen, an input step for performing an operation input on the GUI screen, and a control step for performing a predetermined control corresponding to the operation input,
The control step includes a first step of causing the display unit to display a specific screen for the user to specify which image portion in the captured image is which user.
And a second step of executing a grouping process for dividing the image portion into the same group for each user based on the operation input on the specific screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013161567A JP6191318B2 (en) | 2013-08-02 | 2013-08-02 | Game shooting device, image processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013161567A JP6191318B2 (en) | 2013-08-02 | 2013-08-02 | Game shooting device, image processing method, and computer program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015031833A true JP2015031833A (en) | 2015-02-16 |
JP2015031833A5 JP2015031833A5 (en) | 2016-09-08 |
JP6191318B2 JP6191318B2 (en) | 2017-09-06 |
Family
ID=52517190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013161567A Active JP6191318B2 (en) | 2013-08-02 | 2013-08-02 | Game shooting device, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6191318B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005092588A (en) * | 2003-09-18 | 2005-04-07 | Hitachi Software Eng Co Ltd | Composite image print device and image editing method |
JP2012037735A (en) * | 2010-08-06 | 2012-02-23 | Furyu Kk | Image editing device, image editing method and program |
JP2012237957A (en) * | 2011-04-28 | 2012-12-06 | Furyu Kk | Photo sticker machine, and processing method and program for the machine |
JP5201430B1 (en) * | 2012-04-24 | 2013-06-05 | フリュー株式会社 | Photo sticker creation apparatus and method, and program |
JP2013109307A (en) * | 2011-10-28 | 2013-06-06 | Furyu Kk | Photo sticker creation device, photo sticker creation method and program |
-
2013
- 2013-08-02 JP JP2013161567A patent/JP6191318B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005092588A (en) * | 2003-09-18 | 2005-04-07 | Hitachi Software Eng Co Ltd | Composite image print device and image editing method |
JP2012037735A (en) * | 2010-08-06 | 2012-02-23 | Furyu Kk | Image editing device, image editing method and program |
JP2012237957A (en) * | 2011-04-28 | 2012-12-06 | Furyu Kk | Photo sticker machine, and processing method and program for the machine |
JP2012238297A (en) * | 2011-04-28 | 2012-12-06 | Furyu Kk | Photo sticker machine, and processing method and program for the machine |
JP2013109307A (en) * | 2011-10-28 | 2013-06-06 | Furyu Kk | Photo sticker creation device, photo sticker creation method and program |
JP5201430B1 (en) * | 2012-04-24 | 2013-06-05 | フリュー株式会社 | Photo sticker creation apparatus and method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6191318B2 (en) | 2017-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5782873B2 (en) | Game shooting device, game shooting method and program | |
JP5201430B1 (en) | Photo sticker creation apparatus and method, and program | |
JP6414681B2 (en) | Photo sticker creation apparatus, image processing method, and program | |
JP6880394B2 (en) | Photographing game console and shooting method | |
JP2013243466A (en) | Imaging apparatus for game, imaging method for game, and program | |
JP6085838B2 (en) | PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM | |
JP6245529B2 (en) | Game shooting device, game shooting method and program | |
JP2016133977A (en) | Picture shooting game machine, image creation method and image creation program | |
JP2018029343A (en) | Image processing apparatus, image processing method, and program | |
JP5632104B2 (en) | Game shooting device, processing method and program for game shooting device | |
JP6191318B2 (en) | Game shooting device, image processing method, and computer program | |
JP6614386B2 (en) | Image processing apparatus, image processing method, and program | |
JP5527460B2 (en) | Game shooting device, game shooting method and computer program | |
JP6156559B2 (en) | Game shooting device, game shooting method, and program | |
JP5967275B2 (en) | Photographic game machine, its control method and control computer | |
JP6090369B2 (en) | Game shooting device, game shooting method and program | |
JP2017037271A (en) | Game imaging device | |
JP2017038341A (en) | Photographing device for game, image edition method and program | |
JP5790896B2 (en) | Game shooting device, game shooting method, and game shooting program | |
JP2015064706A (en) | Image processing apparatus, photography game device using the same, image processing method, image processing program, and photo printing sheet | |
JP2019050582A (en) | Photographing game device, image processing method, and image processing program | |
JP6614374B2 (en) | Photography game machine, control method and program | |
JP5967283B2 (en) | Photo shooting game machine, its control method and control program | |
JP2018106678A (en) | Sticker making game machine and image processing method | |
JP2018018450A (en) | Image edition device, image edition method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160722 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160722 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20160725 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20161006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170511 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20170518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170724 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6191318 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |