JP2017208780A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2017208780A
JP2017208780A JP2016101823A JP2016101823A JP2017208780A JP 2017208780 A JP2017208780 A JP 2017208780A JP 2016101823 A JP2016101823 A JP 2016101823A JP 2016101823 A JP2016101823 A JP 2016101823A JP 2017208780 A JP2017208780 A JP 2017208780A
Authority
JP
Japan
Prior art keywords
user
image
correction
unit
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016101823A
Other languages
Japanese (ja)
Inventor
野間 忠
Tadashi Noma
忠 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tatsumi Denshi Kogyo KK
Original Assignee
Tatsumi Denshi Kogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tatsumi Denshi Kogyo KK filed Critical Tatsumi Denshi Kogyo KK
Priority to JP2016101823A priority Critical patent/JP2017208780A/en
Publication of JP2017208780A publication Critical patent/JP2017208780A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system capable of easily reflecting preference for each user in correction of a photographed image.SOLUTION: An identification processing section 520 specifies a user included in subjects by person detection and person authentication in a photographed image, and a correction processing section 540 corrects the photographed image. When the correction processing section 540 corrects the photographed image including a plurality of users in the subjects, the correction processing section reads a specified value of correction, which is previously stored for each user, for each user specified by the identification processing section, and correction corresponding to the specified value which is read can be performed on an image range of each user among the plurality of users.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置に関し、特に画像の補正を処理する装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an apparatus for processing image correction.

従来、複数のユーザを含む被写体をカメラで複数回撮影し、その撮影画像を写真印刷シートとして出力したり、ネットワークを介して外部の装置に送信したりすることができる遊戯用撮影装置および遊戯用写真撮影サービスが知られている。このような遊戯用撮影装置では、ユーザの嗜好に応じて、例えば、次のような編集処理を行えるものが多く提案されている。まず、撮影された被写体の画像に対してクロマキー処理をし、被写体部分を抽出した被写体画像を生成する。そして、この被写体画像にユーザが選択した背景画像を合成した上で、目の色や大きさ、肌の色、顔の輪郭などに補正を加えたり、文字や模様を重ねたりするなどの編集処理(一般に「落書き」とも呼ばれる)を経て、最終的な印刷用の画像を生成する。またそうした編集機能を、一緒に撮影した複数のユーザが一度にタッチペンなどで操作できるように提供することで、撮影から編集まで友人同士が一緒に楽しむことができ、人気を博している。   2. Description of the Related Art Conventionally, an imaging device for a game and a game that can shoot a subject including a plurality of users with a camera a plurality of times and output the captured image as a photographic print sheet or send it to an external device via a network Photography services are known. Many such shooting apparatuses have been proposed that can perform, for example, the following editing process according to the user's preference. First, chroma key processing is performed on a photographed subject image to generate a subject image from which the subject portion is extracted. Then, after combining the subject image with the background image selected by the user, editing processing such as correcting the eye color and size, skin color, face outline, etc., and overlaying characters and patterns (Generally also called “graffiti”), the final print image is generated. Also, by providing such editing functions so that multiple users who photographed together can operate with a touch pen at the same time, friends can enjoy together from shooting to editing, which is gaining popularity.

一方、近年、スマートフォンなどのカメラ機能付き携帯端末において動作するアプリケーションソフトウェア(以下、「アプリ」ともいう)でも、手軽に写真撮影をして撮影画像を簡単に加工できるものが増えている。特に、通常のスマートフォンはメインカメラ以外にユーザ側を撮影するためのサブカメラを搭載しており、そのサブカメラによって自分を撮影する「セルフ撮影」「自撮り」とも呼ばれる撮影方法も一般化している。   On the other hand, in recent years, there is an increasing number of application software (hereinafter also referred to as “applications”) that operate on a mobile terminal with a camera function such as a smartphone that can easily take a photograph and process a photographed image. In particular, ordinary smartphones are equipped with a sub-camera for shooting the user side in addition to the main camera, and a shooting method called “self-shooting” or “self-shooting” that takes a picture of itself with the sub-camera is also common. .

特開2015−211275号公報JP 2015-2111275 A

スマートフォンなどのカメラ機能付き携帯端末が普及した結果、複数人が集まったときに手軽に数人の集合写真を撮れるため、スマートフォンで撮影した集合写真にも遊戯用撮影装置と同じような加工を簡単にできることが望まれるようになった(例えば、特許文献1参照)。そのような状況を背景にして、携帯端末特有の機能を用いることによって遊戯用撮影装置にはない新たな利便性の高い機能も実現し得ると本願発明者は認識するに至った。   As a result of the widespread use of mobile devices with camera functions such as smartphones, it is easy to take group photos of several people when multiple people gather. It has become desirable to be able to do this (for example, see Patent Document 1). Against this backdrop, the present inventor has come to recognize that a new and highly convenient function that is not available in the game shooting apparatus can be realized by using a function specific to the portable terminal.

本発明はこうした課題に鑑みてなされたものであり、その目的は、撮影画像の補正にユーザごとの好みを簡単に反映させることが可能な画像処理装置を提供することにある。   The present invention has been made in view of these problems, and an object of the present invention is to provide an image processing apparatus that can easily reflect the preference of each user in correcting a captured image.

上記課題を解決するために、本発明のある態様の画像処理装置は、ユーザを被写体に含む像を撮像する撮像部と、撮像部により撮像されるユーザの撮影画像を取得する画像取得部と、撮影画像における人物検出および人物認証により被写体に含まれるユーザを特定する識別処理部と、撮影画像に対する補正を実行する補正処理部と、撮影画像を画面に表示させる表示制御部と、を備える。補正処理部は、複数人のユーザを被写体に含む撮影画像に対する補正を実行する場合、ユーザごとにあらかじめ記憶されている補正の既定値を識別処理部により特定されたユーザごとに読み出し、その読み出した既定値に応じた補正を複数人のユーザのそれぞれの画像範囲に実行し得る。   In order to solve the above problems, an image processing apparatus according to an aspect of the present invention includes an imaging unit that captures an image including a user as a subject, an image acquisition unit that acquires a captured image of the user captured by the imaging unit, An identification processing unit that identifies a user included in the subject by person detection and person authentication in the captured image, a correction processing unit that performs correction on the captured image, and a display control unit that displays the captured image on the screen. When performing correction on a captured image including a plurality of users as subjects, the correction processing unit reads a correction default value stored in advance for each user for each user specified by the identification processing unit, and reads the read-out value. Correction according to the predetermined value can be performed on each image range of a plurality of users.

ここで、「画像処理装置」は、プログラムを実行できるカメラ付き携帯電話などの携帯端末やコンピュータ端末であってよい。「撮影画像」は動画像に含まれるフレームと静止画像のいずれであってもよい。「人物検出」は、顔などの人間の一部を画像認識によって検出することで人物を検出する技術であってよい。「人物認証」は、顔などの人間の一部の特徴情報を、あらかじめ記憶しておく特徴情報と比較することによってユーザを特定する技術であってよい。「補正」は、顔に含まれる一部、例えば目、輪郭、鼻、肌などについて、その形状や大きさ、色、質感などを変化させる画像処理であってよい。この態様によると、1台の端末で複数人のユーザを被写体として撮影し、それぞれの顔に補正を施す場合でも、ユーザごとに別々の好みの設定値で補正をすることができるだけでなく、お気に入りの設定値を容易に読み出して設定することができる。このように、撮影画像の補正にユーザごとの好みを簡単に反映させることができる。   Here, the “image processing device” may be a mobile terminal such as a camera-equipped mobile phone or a computer terminal that can execute the program. The “captured image” may be either a frame or a still image included in the moving image. The “person detection” may be a technique for detecting a person by detecting a part of a person such as a face by image recognition. “Person authentication” may be a technique for identifying a user by comparing feature information of a part of a person such as a face with feature information stored in advance. “Correction” may be image processing that changes the shape, size, color, texture, and the like of a part included in the face, such as eyes, contours, nose, and skin. According to this aspect, even when a plurality of users are photographed as subjects on one terminal and each face is corrected, not only the correction can be performed with different preference settings for each user, Can be easily read and set. Thus, the preference for each user can be easily reflected in the correction of the captured image.

補正処理部は、撮影画像の被写体に含まれるユーザが一人の場合と複数人の場合とで異なる記憶手段から補正の既定値を読み出すことができてもよい。また、補正処理部は、撮影画像の被写体に含まれるユーザが複数人の場合、ユーザごとに異なる記憶手段から補正の既定値を読み出すことができてもよい。   The correction processing unit may be able to read a default value for correction from different storage means when there are one user and a plurality of users included in the subject of the captured image. In addition, when there are a plurality of users included in the subject of the captured image, the correction processing unit may be able to read a correction default value from different storage means for each user.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a data structure, a recording medium, etc. are also effective as an aspect of the present invention.

本発明によれば、撮影画像の補正にユーザごとの好みを簡単に反映させることが可能な画像処理装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus which can reflect the preference for every user for correction | amendment of a picked-up image can be provided.

画像処理システムの全体構成を模式的に示す図である。1 is a diagram schematically illustrating an overall configuration of an image processing system. 端末装置の機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of a terminal device. 端末装置のハードウェアブロック図である。It is a hardware block diagram of a terminal device. 遊戯用撮影装置を左前側から見た斜視図である。It is the perspective view which looked at the imaging device for play from the left front side. 図4に示す遊戯用撮影装置を上から見た平面図である。It is the top view which looked at the imaging device for play shown in FIG. 4 from the top. 遊戯用撮影装置の機能構成を模式的に示す機能ブロック図である。It is a functional block diagram which shows typically the functional structure of the imaging device for play. 管理サーバの機能構成を模式的に示す機能ブロック図である。It is a functional block diagram which shows typically the functional structure of a management server. ユーザが本実施形態のアプリを初めて使用する場合の過程を示すフローチャートである。It is a flowchart which shows the process in case a user uses the application of this embodiment for the first time. 図8のS20における端末ユーザ設定処理を詳細に示すフローチャートである。It is a flowchart which shows the terminal user setting process in S20 of FIG. 8 in detail. 図8のS26における補正処理を詳細に示すフローチャートである。It is a flowchart which shows the correction process in S26 of FIG. 8 in detail. 図8のS30における端末ユーザ設定を詳細に示すフローチャートである。It is a flowchart which shows the terminal user setting in S30 of FIG. 8 in detail. 初回の撮影前に端末ユーザ設定を実行する場合の設定画面例を模式的に示す図である。It is a figure which shows typically the example of a setting screen in the case of performing a terminal user setting before the 1st imaging | photography. 端末ユーザ設定として識別情報を登録する画面の画面例を模式的に示す図である。It is a figure which shows typically the example of a screen of registering identification information as a terminal user setting. 第1の補正として「テイスト」をユーザに選択させる画面例を模式的に示す図である。It is a figure which shows typically the example of a screen which makes a user select "taste" as 1st correction | amendment. 第2の補正として「写りの仕上がり」をユーザに選択させる画面例を模式的に示す図である。It is a figure which shows typically the example of a screen as which a user selects "finish of a reflection" as 2nd correction | amendment. 第3の補正として「肌の明るさ」をユーザに選択させる画面例を模式的に示す図である。It is a figure which shows typically the example of a screen which makes a user select "brightness of skin" as 3rd correction | amendment. 端末ユーザが未設定のまま初回の撮影を実行した場合の画面例を示す図である。It is a figure which shows the example of a screen when a terminal user performs the first imaging | photography without setting. 画像から人物を検出してユーザを特定する画面例を模式的に示す図である。It is a figure which shows typically the example of a screen which detects a person from an image and specifies a user. 第2実施形態におけるユーザ特定画面の例を模式的に示す図である。It is a figure which shows typically the example of the user specific screen in 2nd Embodiment.

(第1実施形態)
本実施形態においては、スマートフォンなどのカメラ付き携帯電話を始めとする端末装置にインストールされた所定の写真撮影アプリケーションプログラム(以下、単に「アプリ」ともいう)を用いてユーザが自分一人または自分を含む複数人を被写体として写真撮影をする。そのアプリは、撮影画像に被写体として含まれるユーザのそれぞれ個別の設定値を用いて画像を補正することができる。ユーザそれぞれの設定値は自分の端末装置または管理サーバ上にお気に入りの既定値として登録され、アプリは撮影画像に含まれる人物の顔認証結果に応じて各自の既定値を参照し、その既定値を用いたユーザごとの補正をユーザそれぞれの画像範囲に実行する。ユーザごとの補正の既定値は、アプリにおいて事前に設定された内容や補正の実行結果に基づいて端末装置上または管理サーバ上に登録されてもよいし、いわゆるプリントシール機などの遊戯用撮影装置において実行された補正結果に基づいて端末装置上または管理サーバ上に登録されてもよい。アプリによって撮影され、補正された画像は、各種のSNS(Social Network Service)サイトなどの外部サービスへ投稿して共有することもできる。
(First embodiment)
In the present embodiment, a user includes himself or herself by using a predetermined photography application program (hereinafter also simply referred to as “app”) installed in a terminal device such as a mobile phone with a camera such as a smartphone. Take a photo with multiple people as subjects. The app can correct the image using the individual setting values of the users included as the subject in the captured image. Each user's setting value is registered as a favorite default value on his / her terminal device or management server, and the application refers to the user's default value according to the face authentication result of the person included in the photographed image, and uses the default value. The correction for each user used is executed for each user's image range. The default value of correction for each user may be registered on the terminal device or the management server based on the content set in advance in the application or the execution result of the correction, or a shooting device for games such as a so-called print sticker May be registered on the terminal device or the management server on the basis of the correction result executed in step. Images captured and corrected by the application can be posted and shared with external services such as various SNS (Social Network Service) sites.

図1は、画像処理システム600の全体構成を模式的に示す図である。画像処理システム600は、複数の端末装置500がインターネット等のネットワーク200を介して管理サーバ300と接続するシステムであり、管理サーバ300はネットワーク200を介して遊戯用撮影装置100と接続する。また、複数の端末装置500は、ネットワーク200を介してSNSサイト400とも接続され得る。本図では、複数の端末として端末装置500aと端末装置500bの2台を図示するが、ユーザの数に応じた多数の端末装置500がネットワーク200を介して管理サーバ300に接続され得る。以下、本明細書において、それぞれの端末装置500を特に区別する場合を除き、単に「端末装置500」と総称する。   FIG. 1 is a diagram schematically showing the overall configuration of the image processing system 600. The image processing system 600 is a system in which a plurality of terminal devices 500 are connected to the management server 300 via the network 200 such as the Internet. The management server 300 is connected to the game shooting device 100 via the network 200. The plurality of terminal devices 500 can also be connected to the SNS site 400 via the network 200. In the figure, two terminals, the terminal device 500a and the terminal device 500b, are illustrated as a plurality of terminals, but a large number of terminal devices 500 corresponding to the number of users can be connected to the management server 300 via the network 200. Hereinafter, in the present specification, the terminal devices 500 are simply collectively referred to as “terminal devices 500” unless otherwise distinguished.

端末装置500にインストールされたアプリは、内蔵のカメラを用いて撮影した写真画像から被写体の人物を検出し、人物ごとに顔の特徴情報を検出してその特徴情報に基づく顔認証によって人物ごとにユーザを特定する。特定されたユーザごとにあらかじめ登録されている既定値を端末装置500または管理サーバ300から読み出して、その既定値に基づいて補正が実行される。未登録のユーザについては未登録者用にあらかじめアプリに用意された平均的な推奨値に基づいて補正が仮実行された上で、その補正がなされた画像を基準にして好みの補正内容をユーザが指定して補正に反映される。最終的な補正の結果はそのユーザの「お気に入りの補正値」であり、ユーザの既定値として管理サーバ300に登録されるとともに、そのアプリが実行されている端末装置500を保有するユーザ自身については端末装置500のアプリ上にもその既定値が登録される。   An application installed in the terminal device 500 detects a person as a subject from a photograph image taken using a built-in camera, detects face feature information for each person, and performs face authentication based on the feature information for each person. Identify users. A default value registered in advance for each identified user is read from the terminal device 500 or the management server 300, and correction is executed based on the default value. For unregistered users, corrections are provisionally executed based on an average recommended value prepared in advance for applications for unregistered users, and then the desired correction content is used based on the corrected images. Is specified and reflected in the correction. The final correction result is the user's “favorite correction value”, which is registered in the management server 300 as the user's default value, and the user who owns the terminal device 500 on which the application is being executed. The default value is also registered on the application of the terminal device 500.

遊戯用撮影装置100は、カメラや、撮影した写真画像を補正および編集するためのユーザインタフェースを備える電子機器を含む、いわゆるプリントシール機などの装置である。ユーザが遊戯用撮影装置100で写真を撮影して画像を補正すると、遊戯用撮影装置100で入力されたユーザのメールアドレス等の識別情報に紐付けられる形で補正の設定値および顔の特徴情報が管理サーバ300に送信され、管理サーバ300に登録される。また、端末装置500上のアプリで実行されて管理サーバ300に登録された補正の既定値や特徴情報は、遊戯用撮影装置100から識別情報に基づいて参照可能であり、遊戯用撮影装置100におけるユーザ特定や補正に用いられてもよい。このようにアプリ内で用いた補正の設定値を遊戯用撮影装置100でも利用することにより、遊戯用撮影装置100において必要なユーザの操作を簡素化して操作時間が短縮されるようにしてもよい。   The game shooting apparatus 100 is an apparatus such as a so-called print sticker machine including a camera and an electronic device having a user interface for correcting and editing a photographed photograph image. When the user corrects the image by taking a picture with the game shooting device 100, the correction setting value and the facial feature information are linked to the identification information such as the user's mail address input by the game shooting device 100. Is transmitted to the management server 300 and registered in the management server 300. Further, the correction default value and feature information that are executed by the application on the terminal device 500 and registered in the management server 300 can be referred to from the game shooting device 100 based on the identification information. It may be used for user identification or correction. As described above, the correction setting values used in the application are also used in the game shooting apparatus 100, thereby simplifying the user's operation required in the game shooting apparatus 100 and reducing the operation time. .

図2は、端末装置500の機能構成を示す機能ブロック図である。端末装置500は、撮像部510、識別処理部520、画像取得部530、補正処理部540、データ記憶部550、認証処理部560、入出力制御部570、通信処理部580を備える。撮像部510は、カメラ制御部511を含み、ユーザを被写体に含む像を撮像する。カメラ制御部511は、端末装置500に内蔵されるカメラを制御してユーザを撮像する。   FIG. 2 is a functional block diagram illustrating a functional configuration of the terminal device 500. The terminal device 500 includes an imaging unit 510, an identification processing unit 520, an image acquisition unit 530, a correction processing unit 540, a data storage unit 550, an authentication processing unit 560, an input / output control unit 570, and a communication processing unit 580. The imaging unit 510 includes a camera control unit 511 and captures an image including the user as a subject. The camera control unit 511 controls the camera built in the terminal device 500 and images the user.

画像取得部530は、撮像部510により撮像されるユーザの撮影画像を取得する。画像取得部530は、映像取得部531および画像記録部532を含む。映像取得部531は、撮像部510により撮像された映像、例えば静止画の撮影待機中や動画の撮影中に撮像部510によって撮像される映像を取得して、後述するデータ記憶部550の一時記憶部551にライブビュー映像としてリアルタイムに送信してその映像に含まれるフレームをバッファリングする。バッファリングされたライブビュー映像は、後述する入出力制御部570の表示制御部571によりタッチパネル画面に表示されるとともに、識別処理部520による人物検出または顔認証の対象となる。   The image acquisition unit 530 acquires a user-captured image captured by the imaging unit 510. The image acquisition unit 530 includes a video acquisition unit 531 and an image recording unit 532. The video acquisition unit 531 acquires the video imaged by the imaging unit 510, for example, the video imaged by the imaging unit 510 during standby for capturing a still image or during video recording, and temporarily stores the data in the data storage unit 550 described later. The live view video is transmitted to the unit 551 in real time, and the frames included in the video are buffered. The buffered live view video is displayed on the touch panel screen by the display control unit 571 of the input / output control unit 570 described later, and is subject to person detection or face authentication by the identification processing unit 520.

画像記録部532は、ユーザによるシャッターボタン操作またはタイマーによるシャッターオンの指示に基づくタイミングで撮像部510により撮像される画像を静止画として取得し、データ記憶部550の一時記憶部551に記憶させる。一時記憶部551に記憶された撮影画像は、識別処理部520による人物検出または人物認証の対象となるとともに、補正処理部540による補正処理の対象となる。補正処理後の画像は後述する画像記憶部554に記憶される。   The image recording unit 532 acquires an image captured by the imaging unit 510 as a still image at a timing based on a shutter button operation by the user or a shutter-on instruction by a timer, and stores the image in the temporary storage unit 551 of the data storage unit 550. The captured image stored in the temporary storage unit 551 is a target of person detection or person authentication by the identification processing unit 520 and a target of correction processing by the correction processing unit 540. The image after the correction process is stored in an image storage unit 554 described later.

識別処理部520は、撮影画像における人物検出および人物認証により被写体に含まれるユーザを特定する。識別処理部520は、人物検出部521、特徴検出部522、特徴照合部523を含む。   The identification processing unit 520 identifies a user included in the subject through person detection and person authentication in the captured image. The identification processing unit 520 includes a person detection unit 521, a feature detection unit 522, and a feature matching unit 523.

人物検出部521は、撮像部510により撮像される画像から被写体に含まれるユーザの画像範囲を、既知の人物検出技術や顔検出技術などの画像処理技術を用いて検出する。ここでいう「撮像部510により撮像される画像」は、ユーザによってシャッターボタンが操作される写真撮影(以下、「本撮影」ともいう)の前はライブビュー映像であってもよいし、本撮影後は本撮影によって取得される静止画としての撮影画像であってもよい。ライブビュー映像は、内蔵カメラの撮像素子によって撮像される被写体や画角をリアルタイムに確認するための映像である。なお、人物検出部521は、人物検出として人物全体ではなく顔の画像範囲だけを検出する手法を用いてもよい。   The person detection unit 521 detects the image range of the user included in the subject from the image captured by the imaging unit 510 using an image processing technique such as a known person detection technique or a face detection technique. The “image picked up by the image pickup unit 510” here may be a live view video before a photo shoot (hereinafter also referred to as a “main shoot”) in which the shutter button is operated by the user, or a main shoot. After that, it may be a captured image as a still image acquired by actual shooting. The live view video is a video for confirming in real time the subject and angle of view imaged by the image sensor of the built-in camera. The person detection unit 521 may use a method for detecting only the image range of the face, not the whole person, as person detection.

特徴検出部522は、人物検出部521によって検出された人物の画像範囲から人物の顔の画像範囲を検出する(ただし、人物検出部521が人物の顔の画像範囲を検出する仕様の場合は特徴検出部522は顔の画像範囲の検出を要しない)。特徴検出部522は、顔の画像範囲から人間の顔の各構成要素を既存の顔認識技術を用いて検出することにより、各構成要素の特徴量を顔の特徴情報として検出する。例えば、肌の色の領域や目、鼻などの器官を抽出して顔領域を検出し、検出した顔領域から目や鼻などの器官同士の距離や配置、大きさといった特徴量を検出する。なお、人物検出部521および特徴検出部522は、ライブビュー映像に含まれる各フレームからリアルタイムに人物検出ないし顔検出を実行し、顔の特徴情報を検出してもよい。あるいは、一時記憶部551にバッファされた数秒分のライブビュー映像に含まれるフレームや静止画像、または、画像記憶部554に記憶された数秒分の動画像に含まれるフレームや静止画像から、それらの再生タイミングとは無関係の事後的なタイミングで検出処理をしてもよい。その場合、画像再生と並行するリアルタイムな検出ではない分、時間と負荷のかかる検出処理を実行することができる。   The feature detection unit 522 detects the image range of the person's face from the image range of the person detected by the person detection unit 521 (however, if the specification is such that the person detection unit 521 detects the image range of the person's face) The detection unit 522 does not need to detect the image range of the face). The feature detection unit 522 detects the feature amount of each human face from the face image range using the existing face recognition technology, thereby detecting the feature amount of each constituent element as face feature information. For example, an area such as a skin color area, an eye, or a nose is extracted to detect a face area, and a feature amount such as a distance, arrangement, or size between the organs such as an eye or nose is detected from the detected face area. The person detection unit 521 and the feature detection unit 522 may detect face feature information by performing person detection or face detection in real time from each frame included in the live view video. Alternatively, from a frame or still image included in a live view video for several seconds buffered in the temporary storage unit 551 or a frame or still image included in a moving image for several seconds stored in the image storage unit 554 The detection process may be performed at an ex-post timing unrelated to the reproduction timing. In this case, it is possible to execute detection processing that takes time and load because it is not real-time detection in parallel with image reproduction.

特徴照合部523は、特徴検出部522によって検出された顔の特徴情報とデータ記憶部550にあらかじめ記憶されている特徴情報、すなわち端末装置500の端末ユーザの顔の特徴情報とを照合することにより、端末装置500の端末ユーザが被写体に含まれるかを特定する。また、特徴照合部523は、端末ユーザ以外のユーザに関しては通信処理部580による外部装置との無線通信を介した特徴情報の照合によりユーザを特定する。   The feature matching unit 523 compares the feature information of the face detected by the feature detection unit 522 with the feature information stored in advance in the data storage unit 550, that is, the feature information of the face of the terminal user of the terminal device 500. Then, it is determined whether the terminal user of the terminal device 500 is included in the subject. The feature matching unit 523 specifies a user other than the terminal user by matching feature information through wireless communication with an external device by the communication processing unit 580.

特徴情報同士の照合は、例えば、特徴情報に含まれる複数の特徴項目ごとにその特徴量の値が近似するほど高いスコアをカウントし、特徴項目ごとに重み付けをしたスコアを合計した総合スコアが所定の基準値を超える場合に「合致する」と判定してもよい。あるいは、被写体に含まれるユーザが一人の場合は、そのユーザが端末ユーザである蓋然性が高いとして、総合スコアが所定の第1の基準値を下回ったとしても、第1の基準値より低い第2の基準値を超えていれば「合致する」と判定してもよい。すなわち、端末ユーザか他のユーザかによって異なる判定基準を用いて特徴情報を照合することにより、照合の厳密さを調整してもよい。また、被写体に含まれるユーザが複数人の場合、いずれのユーザが端末ユーザであるかの判定基準として、端末ユーザの特徴情報との照合において最もスコアが高い人物を端末ユーザであると判定してもよい。例えば、スコアが所定の基準値を上回る人物が仮に複数検出された場合でも、最も高いスコアの人物のみを端末ユーザと判定することによって誤判定の可能性を減らすことが期待できる。   The feature information is collated by, for example, counting a higher score as the feature value is approximated for each of a plurality of feature items included in the feature information, and adding a total score obtained by weighting the feature items. If it exceeds the reference value, it may be determined as “match”. Alternatively, if there is only one user included in the subject, it is highly probable that the user is a terminal user, and even if the overall score is lower than the predetermined first reference value, the second lower than the first reference value. If it exceeds the reference value, it may be determined as “match”. That is, the strictness of collation may be adjusted by collating feature information using different criteria depending on whether the user is a terminal user or another user. Further, when there are a plurality of users included in the subject, the person who has the highest score in the comparison with the feature information of the terminal user is determined as the terminal user as a criterion for determining which user is the terminal user. Also good. For example, even if a plurality of persons whose scores exceed a predetermined reference value are detected, it can be expected that the possibility of erroneous determination is reduced by determining only the person with the highest score as the terminal user.

本実施形態においては、特徴照合部523は端末ユーザ以外のユーザの特徴情報を通信処理部580のデータ通信部582を介して管理サーバ300へ送信し、管理サーバ300に記憶されるユーザの特徴情報と照合させ、ユーザを特定させる。変形例においては、端末ユーザの特徴情報もデータ記憶部550ではなく管理サーバ300に記憶させておき、被写体に含まれるすべてのユーザについて特徴情報を管理サーバ300へ送信するなど通信処理部580による通信を介した照合によりユーザを特定する仕様としてもよい。別の変形例においては、端末ユーザの特徴情報をデータ記憶部550に記憶させる一方、端末ユーザとの間であらかじめ「友達」として関連づけられたユーザの特徴情報を管理サーバ300から取得してデータ記憶部550に記憶させてもよい。「友達」かどうかの関連づけは、遊戯用撮影装置100において過去に一緒に撮影したことのあるユーザの履歴に基づいて画像処理システム600として独自に管理サーバ300が管理してもよいし、SNSサイト400において管理されている「友達」同士の関連性情報をSNSサイト400の認証を介して取得し、その関連性を用いることとしてもよい。これらの場合、管理サーバ300から取得してデータ記憶部550に記憶されたユーザごとの特徴情報と検出された特徴情報とを特徴照合部523が照合することによりユーザを特定する。「友達」かどうかの関連づけは、遊戯用撮影装置100において過去に一緒に撮影したことのあるユーザの履歴に基づいて画像処理システム600として独自に管理サーバ300が管理してもよいし、SNSサイト400において管理されている「友達」同士の関連性情報をSNSサイト400の認証を介して取得し、その関連性を用いることとしてもよい。別の変形例においては、被写体に含まれるユーザの特徴情報を照合する相手の特徴情報として、管理サーバ300に記憶されるすべてのユーザの特徴情報を照合の対象としたうえで、その中から所定の優先順位にしたがって対象を絞りながら照合してもよい。管理サーバ300に記憶されるすべての特徴情報から無作為な順序で照合すると処理にかかる時間が増大するおそれがあるためである。例えば、上述したように端末ユーザとの間で「友達」として関連づけられたユーザの特徴情報を最優先で照合する。その中から検出されない場合は、居住地域や行動地域などの地域情報に基づいて照合する対象を絞り込んでもよい。すなわち、ユーザごとに居住地域や行動地域などの地域情報を関連づけて管理サーバ300に登録しておくことを前提に、端末ユーザの地域情報や現在地と同じまたは近い地域情報が関連づけられたユーザの特徴情報を優先的に照合することとしてもよい。地域情報は、画像を撮影する際に携帯端末で取得されるGPSなどの位置情報やモバイル通信の基地局や無線LAN通信のアクセスポイントなどから得られる位置情報に基づき、特徴情報に自動で関連づけられてサーバに登録されてもよい。   In the present embodiment, the feature matching unit 523 transmits the feature information of users other than the terminal user to the management server 300 via the data communication unit 582 of the communication processing unit 580, and the user feature information stored in the management server 300 To identify the user. In the modified example, the feature information of the terminal user is also stored in the management server 300 instead of the data storage unit 550, and the feature information is transmitted to the management server 300 for all users included in the subject. It is good also as a specification which specifies a user by collation via. In another modification, while the feature information of the terminal user is stored in the data storage unit 550, the feature information of the user previously associated with the terminal user as a “friend” is acquired from the management server 300 and stored. It may be stored in the unit 550. The association as to whether it is a “friend” may be managed by the management server 300 independently as the image processing system 600 based on the history of users who have taken together in the past in the game shooting device 100, or may be an SNS site. It is good also as acquiring the relevance information of "friend" managed in 400 through the authentication of the SNS site 400, and using the relevance. In these cases, the feature matching unit 523 compares the feature information for each user acquired from the management server 300 and stored in the data storage unit 550 with the detected feature information to identify the user. The association as to whether it is a “friend” may be managed by the management server 300 independently as the image processing system 600 based on the history of users who have taken together in the past in the game shooting device 100, or may be an SNS site. It is good also as acquiring the relevance information of "friend" managed in 400 through the authentication of the SNS site 400, and using the relevance. In another modified example, the feature information of all the users stored in the management server 300 is used as the target of matching as the feature information of the partner to be matched with the feature information of the user included in the subject. You may collate, narrowing down the object according to the priority order. This is because the time required for processing may increase if collation is performed in a random order from all feature information stored in the management server 300. For example, as described above, the user's feature information associated with the terminal user as a “friend” is collated with the highest priority. When not detected from among them, you may narrow down the object to collate based on regional information, such as a residence area and an action area. That is, on the premise that regional information such as a residential area and a behavioral area is associated and registered in the management server 300 for each user, the characteristics of the user associated with the regional information of the terminal user or regional information that is the same as or close to the current location It is good also as collating information preferentially. Regional information is automatically associated with feature information based on location information such as GPS acquired by a mobile terminal when taking an image, or location information obtained from a mobile communication base station or wireless LAN communication access point. May be registered in the server.

特徴照合部523は、検出した特徴情報とユーザごとの特徴情報との照合において、ユーザの識別情報に基づいたユーザによる確認処理をもとに被写体に含まれるユーザを特定する。例えば特徴照合部523は、複数のユーザの特徴情報のなかで、検出された特徴情報に適合する特徴情報を特定し、その特徴情報に対応づけられた識別情報を入出力制御部570を介して画面に提示する。識別情報は、ユーザごとに登録されたニックネームなどのユーザ名であってもよく、その場合、例えば「この人は○○さんですか?」というようにユーザに対して正しいユーザであるか否かを質問する文字列を画面に表示する。この情報が正しい場合はユーザはタッチパネルを操作して正しい旨を指示し、誤っていれば誤認識である旨を指示する。このような確認処理を通じて、特徴照合部523による照合結果が正しいことが認められたときにユーザが正しく特定されたことになる。なお、識別情報としてのユーザ名は、本実施形態においては「この人は○○さんですか?」のように照合の正否を問うためにユーザに提示するものであり、照合精度やシステムの仕様によっては無関係の他人の端末に表示される可能性がある。そのため、個人情報保護の観点から、ユーザ名はユーザの本名ではないニックネームなどの名前を登録しておくのが好ましい。ただし、変形例として、ユーザ同士の友達関係を管理する仕様とした上で、端末装置500の端末ユーザの「友達」としてあらかじめ関連づけられたユーザと照合した場合には、個人情報漏洩の問題もないことから、本名を含む名前を提示できる仕様としてもよい。   The feature matching unit 523 specifies the user included in the subject based on the confirmation process by the user based on the user identification information in the matching between the detected feature information and the feature information for each user. For example, the feature matching unit 523 identifies feature information that matches the detected feature information among the feature information of a plurality of users, and uses the input / output control unit 570 to identify identification information associated with the feature information. Present on the screen. The identification information may be a user name such as a nickname registered for each user. In this case, for example, whether or not this person is the correct user, such as “Is this person Mr. XX?” Displays a character string for asking a question on the screen. If this information is correct, the user operates the touch panel to indicate that it is correct, and if it is incorrect, indicates that it is a misrecognition. Through such confirmation processing, the user is correctly identified when it is recognized that the matching result by the feature matching unit 523 is correct. In this embodiment, the user name as identification information is presented to the user in order to ask whether the collation is correct, such as “Is this person Mr. XX?”. May be displayed on the terminal of another unrelated person. Therefore, from the viewpoint of protecting personal information, it is preferable to register a user name such as a nickname that is not the user's real name. However, as a modified example, there is no problem of leakage of personal information when it is set as a specification for managing friendships between users and compared with a user associated in advance as a “friend” of the terminal user of the terminal device 500. Therefore, it may be a specification that can present a name including the real name.

変形例として、識別処理部520は、端末ユーザ以外のユーザが被写体に含まれている場合に、そのユーザの特徴情報を管理サーバ300へ送信するのではなく、撮影画像そのものを送信して管理サーバ300に人物検出からユーザ特定までの処理を実行させる仕様としてもよい。   As a modification, when a user other than the terminal user is included in the subject, the identification processing unit 520 does not transmit the feature information of the user to the management server 300 but transmits the captured image itself to the management server. It is good also as a specification which makes 300 perform the process from a person detection to a user identification.

認証処理部560は、特徴検出部522によって検出された顔の特徴情報や補正処理部540で設定された補正の既定値、入力制御部573によって入力された識別情報を互いに対応づける形でデータ通信部582を介して管理サーバ300に送信する。特に特徴検出部522により顔の特徴情報が検出されるたびに管理サーバ300に送信して管理サーバ300に蓄積させる。また認証処理部560は、ユーザの識別情報に基づいてそのユーザを特定ないし認証をする。特に、端末ユーザ以外の他のユーザを特定する場合にそのユーザが正しいか否かを認証するためにユーザに識別情報を入力させ、入力された識別情報を暗号化して管理サーバ300へ送信し、管理サーバ300から認証結果を受信することによりユーザを確認する。認証処理部560は、識別情報としてメールアドレス、ユーザ名、パスワードなどの主に文字列からなる情報や、指紋情報や虹彩情報、網膜情報などの生体情報のいずれか一つ以上の情報を用いて認証する。認証処理部560は、入力制御部573を介して入力されるメールアドレス、ユーザ名、パスワード、指紋情報などの識別情報を暗号化した上でデータ通信部582を介して管理サーバ300へ送信する。識別情報として指紋情報を用いる場合、端末装置500に内蔵されている指紋センサによって指紋情報を取得してもよいし、タッチパネルによって指紋情報を取得してもよい。識別情報として虹彩情報や網膜情報、静脈認証を用いる場合、カメラによって虹彩、網膜、静脈の画像を取得してもよい。識別情報として声紋認証を用いる場合、マイクによって音声を取得してもよい。   The authentication processing unit 560 performs data communication by associating the facial feature information detected by the feature detection unit 522, the correction default value set by the correction processing unit 540, and the identification information input by the input control unit 573 with each other. The data is transmitted to the management server 300 via the unit 582. In particular, whenever facial feature information is detected by the feature detection unit 522, it is transmitted to the management server 300 and stored in the management server 300. The authentication processing unit 560 identifies or authenticates the user based on the user identification information. In particular, when specifying a user other than the terminal user, in order to authenticate whether or not the user is correct, the user is input identification information, and the input identification information is encrypted and transmitted to the management server 300, The user is confirmed by receiving the authentication result from the management server 300. The authentication processing unit 560 uses, as identification information, one or more pieces of information mainly consisting of character strings such as an email address, a user name, and a password, and biological information such as fingerprint information, iris information, and retina information. Certify. The authentication processing unit 560 encrypts identification information such as a mail address, a user name, a password, and fingerprint information input via the input control unit 573 and transmits the encrypted identification information to the management server 300 via the data communication unit 582. When fingerprint information is used as the identification information, the fingerprint information may be acquired by a fingerprint sensor built in the terminal device 500, or the fingerprint information may be acquired by a touch panel. When using iris information, retinal information, or vein authentication as identification information, images of iris, retina, and vein may be acquired by a camera. When voiceprint authentication is used as identification information, sound may be acquired by a microphone.

データ記憶部550は、画像取得部530によって取得されたライブビュー映像や静止画を一時的に記憶するバッファメモリである一時記憶部551と、ユーザの特徴情報を記憶する特徴記憶部552と、ユーザの補正の既定値を記憶する既定値記憶部553と、ユーザの撮影画像を記憶する画像記憶部554と、を含む。   The data storage unit 550 includes a temporary storage unit 551 that is a buffer memory that temporarily stores live view video and still images acquired by the image acquisition unit 530, a feature storage unit 552 that stores user feature information, and a user A default value storage unit 553 that stores a default value for correction of the image, and an image storage unit 554 that stores a user's captured image.

特徴記憶部552は、特徴検出部522によって検出された端末装置500の端末ユーザの顔の特徴情報を、そのユーザの識別情報とともにその識別情報に対応づける形で記憶する。他のユーザの特徴情報は、管理サーバ300内におけるデータ記憶部に記憶されるが、変形例においては、他のユーザ、特に端末ユーザの「友達」として関連づけられたユーザの特徴情報を管理サーバ300から取得してそのユーザの識別情報と対応づける形で特徴記憶部552に記憶させてもよい。端末装置500において画像から顔の特徴情報が検出されるたびに送信され、これを特徴記憶部312に蓄積することにより特徴情報による照合精度を高める。   The feature storage unit 552 stores the feature information of the face of the terminal user of the terminal device 500 detected by the feature detection unit 522 in association with the identification information together with the identification information of the user. The feature information of other users is stored in a data storage unit in the management server 300. However, in the modified example, the feature information of other users, particularly users associated as “friends” of the terminal user, is stored in the management server 300. May be stored in the feature storage unit 552 in association with the identification information of the user. Each time facial feature information is detected from an image in the terminal device 500, the facial feature information is transmitted and accumulated in the feature storage unit 312, thereby increasing the accuracy of matching with the feature information.

既定値記憶部553は、端末装置500の端末ユーザに対応する補正の既定値を、そのユーザの識別情報と対応づける形で記憶する。端末ユーザの補正の既定値は、アプリのインストール後、初回の撮影前に端末ユーザが自らの指示によって既定値を登録できるほか、初回の撮影後に実際に補正をしたときの設定値を既定値として登録することもできる。また、撮影画像を補正するたびに端末ユーザの指示に基づいてその設定値で既定値を更新することもできる。あるいは、撮影画像を補正するたびに自動的にその設定値で既定値を更新する仕様としてもよいし、相対的に頻度の高い設定値で既定値を更新する仕様としてもよい。他のユーザに対応する補正の既定値は、管理サーバ300内におけるデータ記憶部にユーザごとの特徴情報および識別情報と対応づけられて記憶される。ただし、変形例においては、他のユーザ、特に端末ユーザの「友達」として関連づけられたユーザの補正の既定値を管理サーバ300から取得してそのユーザの識別情報と対応づける形で既定値記憶部553に記憶させてもよい。   The default value storage unit 553 stores a correction default value corresponding to the terminal user of the terminal device 500 in a form associated with the identification information of the user. The default value of the terminal user's correction can be registered by the terminal user according to his / her own instruction before the first shooting after installing the application, and the setting value when the correction is actually performed after the first shooting is set as the default value. You can also register. In addition, the default value can be updated with the set value based on the instruction of the terminal user every time the captured image is corrected. Alternatively, each time a captured image is corrected, the default value may be automatically updated with the set value, or the default value may be updated with a relatively frequent set value. The correction default values corresponding to other users are stored in the data storage unit in the management server 300 in association with the feature information and identification information for each user. However, in a modified example, the default value storage unit acquires a default value of correction of another user, particularly a user associated as a “friend” of the terminal user, from the management server 300 and associates it with identification information of the user. You may memorize | store in 553.

識別情報として生体情報を用いる場合、指紋情報以外に、虹彩認証、網膜認証、静脈認証、声紋認証などの各認証用の情報を専用のセンサまたは画像、音声から採取して特徴記憶部552に記憶させてもよい。ただし、プライバシーの観点から、その性質上変更できない情報である生体情報による認証を好まないユーザのために、代替手段としてメールアドレス、ユーザ名、パスワードや暗証番号などの変更可能な文字情報のみ使用することをユーザが選択可能であってもよい。あるいは、生体情報とパスワードや暗証番号などの文字情報を組み合わせて使用し、いずれも適合するときのみユーザが特定されるようにしてもよい。変形例においては、識別情報としてアプリをインストールする際に一意に割り当てるアプリIDを用いてもよい。   When biometric information is used as identification information, in addition to fingerprint information, information for authentication such as iris authentication, retinal authentication, vein authentication, and voiceprint authentication is collected from a dedicated sensor, image, or sound and stored in the feature storage unit 552. You may let them. However, for users who do not like to authenticate with biometric information, which cannot be changed due to its nature from the viewpoint of privacy, only changeable text information such as e-mail address, user name, password and password is used as an alternative. This may be selectable by the user. Alternatively, biometric information and character information such as a password and a personal identification number may be used in combination, and the user may be specified only when both are compatible. In the modification, an application ID that is uniquely assigned when installing an application may be used as the identification information.

補正処理部540は、簡易補正部541と主補正部542を含む。簡易補正部541は、撮像されて一時記憶部551に一時的に記憶された、ライブビュー映像に含まれる複数のフレームのそれぞれに対して、比較的処理負荷が低く高速処理が可能な簡易補正を実行する。簡易補正の内容は、全ユーザを対象にして一律に仮施行するためにメーカーが推奨値として用意する標準的な設定値である。この標準的な設定値は、全員に共通であってもよいし、男女や人種によって別々の設定値があらかじめ用意され、ユーザごとに別々の補正が実行されるようになっていてもよい。ただし、変形例においては、ユーザごとに登録された補正の既定値を読み出して、その既定値に基づいてユーザごとに異なる補正をそれぞれの画像範囲に実行してもよい。   The correction processing unit 540 includes a simple correction unit 541 and a main correction unit 542. The simple correction unit 541 performs simple correction capable of high-speed processing with a relatively low processing load for each of a plurality of frames included in the live view video imaged and temporarily stored in the temporary storage unit 551. Run. The content of the simple correction is a standard set value prepared as a recommended value by the manufacturer for uniform provisional enforcement for all users. This standard set value may be common to all members, or different set values may be prepared in advance for each gender and race, and different corrections may be executed for each user. However, in a modified example, a correction default value registered for each user may be read, and different corrections for each user may be performed on each image range based on the default value.

主補正部542は、静止画である撮影画像に対して補正を実行する。撮影画像に対する補正は、目の色や大きさ、顔の輪郭、小鼻の形状、肌の色や質感等を変化させる処理である。主補正部542は、複数人のユーザを被写体に含む撮影画像に対する補正を実行する場合、ユーザごとにあらかじめ記憶されている補正の既定値を識別処理部520により特定されたユーザごとに読み出し、その読み出した既定値に応じた補正を複数人のユーザのそれぞれの画像範囲に実行し得る。主補正部542は、撮影画像の被写体に含まれるユーザが一人の場合と複数人の場合とで異なる記憶手段から補正の既定値を読み出し得る。すなわち、ユーザが一人の場合は端末装置500の端末ユーザが一人で撮影したと推定できることから、原則として既定値記憶部553に記憶された既定値を読み出し、その既定値に応じた補正を撮影画像に含まれる端末ユーザの画像範囲に実行する。一方、ユーザが複数人の場合は、特徴記憶部552に記憶される端末ユーザの特徴情報と照合されたユーザについては既定値記憶部553から既定値を読み出し、それ以外のユーザについてはデータ通信部582を介して管理サーバ300から既定値を読み出し、その既定値に応じた補正をユーザごとの画像範囲に実行する。このように、撮影画像の被写体に含まれるユーザが複数人の場合、ユーザごとに異なる記憶手段から補正の既定値を読み出し得る。補正後の画像は、表示制御部571によりタッチパネルの画面に表示される。   The main correction unit 542 performs correction on a captured image that is a still image. The correction for the captured image is a process for changing the color and size of the eyes, the contour of the face, the shape of the nose, the color and texture of the skin. When executing correction on a captured image including a plurality of users in the subject, the main correction unit 542 reads a correction default value stored in advance for each user for each user specified by the identification processing unit 520, and Correction according to the read default value can be performed on each image range of a plurality of users. The main correction unit 542 can read a default value for correction from different storage means when there are one user and a plurality of users included in the subject of the captured image. That is, since it can be estimated that the terminal user of the terminal device 500 has photographed alone when there is only one user, in principle, the default value stored in the default value storage unit 553 is read and correction according to the default value is performed. To the image range of the terminal user included in the. On the other hand, when there are a plurality of users, the default value is read from the default value storage unit 553 for the user collated with the feature information of the terminal user stored in the feature storage unit 552, and the data communication unit for other users. A default value is read from the management server 300 via 582, and correction according to the default value is performed on the image range for each user. As described above, when there are a plurality of users included in the subject of the captured image, the correction default value can be read from the storage means that differs for each user. The corrected image is displayed on the screen of the touch panel by the display control unit 571.

入出力制御部570は、表示制御部571、音声制御部572、入力制御部573を含む。表示制御部571は、ライブビュー映像や撮影画像を含む表示内容をタッチパネルの画面に表示させる。音声制御部572は、スピーカから音声を出力する。入力制御部573は、タッチパネルやボタンを介したユーザの操作入力を受け付ける。   The input / output control unit 570 includes a display control unit 571, a voice control unit 572, and an input control unit 573. The display control unit 571 displays the display content including the live view video and the captured image on the screen of the touch panel. The audio control unit 572 outputs audio from the speaker. The input control unit 573 accepts a user operation input via a touch panel or buttons.

通信処理部580は、外部との通信を制御する。通信処理部580は、近距離無線部581、データ通信部582、位置取得部583を含む。近距離無線部581は、Bluetooth(商標)やNFC(Near Field Communication)などの近距離無線通信により、例えば他のユーザの端末装置500などの外部装置とのデータ通信を制御する。データ通信部582は、無線LAN通信や携帯電話のパケット通信などによる管理サーバ300とのデータ通信を制御する。位置取得部583は、GPS信号を受信して端末装置500の現在位置情報を取得する。   The communication processing unit 580 controls communication with the outside. The communication processing unit 580 includes a short-range wireless unit 581, a data communication unit 582, and a position acquisition unit 583. The short-range wireless unit 581 controls data communication with an external device such as the terminal device 500 of another user, for example, by short-range wireless communication such as Bluetooth (trademark) or NFC (Near Field Communication). The data communication unit 582 controls data communication with the management server 300 by wireless LAN communication, cellular phone packet communication, or the like. The position acquisition unit 583 receives the GPS signal and acquires current position information of the terminal device 500.

図3は、端末装置500のハードウェアブロック図である。端末装置500においては、カメラ515、通信モジュール585、タッチパネル555、スピーカ556、GPU557、CPU590、メモリ575が互いにバス591を介して接続される。   FIG. 3 is a hardware block diagram of the terminal device 500. In the terminal device 500, a camera 515, a communication module 585, a touch panel 555, a speaker 556, a GPU 557, a CPU 590, and a memory 575 are connected to each other via a bus 591.

カメラ515は、端末装置500の背面側に内蔵される、いわゆるアウトカメラとも呼ばれるメインカメラ516と、端末装置500の正面側に内蔵される、いわゆるインカメラとも呼ばれるサブカメラ517と、を含む。メインカメラ516およびサブカメラ517は、機能的には撮像部510の一部を構成しており、カメラ制御部511により制御され、映像または画像が画像取得部530によって取得される。いずれのカメラによって撮像された映像および画像であっても本実施形態のアプリによる画像処理の対象となり得る。   The camera 515 includes a main camera 516 called a so-called out camera built in the back side of the terminal device 500 and a sub camera 517 called a so-called in camera built in the front side of the terminal device 500. The main camera 516 and the sub camera 517 functionally form part of the imaging unit 510 and are controlled by the camera control unit 511, and a video or an image is acquired by the image acquisition unit 530. Any video and image captured by any camera can be the target of image processing by the application of this embodiment.

通信モジュール585は、Bluetooth(商標)やNFCなどの近距離無線通信を行う近距離無線モジュール586、無線LAN通信を行う無線LANモジュール587、携帯電話のパケット通信を行う携帯通信モジュール588、GPS信号に基づいて端末装置500の現在位置情報を取得するGPSモジュール589を含む。通信モジュール585は、機能的には通信処理部580の一部を構成する。   The communication module 585 includes a short-range wireless module 586 that performs short-range wireless communication such as Bluetooth (trademark) and NFC, a wireless LAN module 587 that performs wireless LAN communication, a portable communication module 588 that performs packet communication of a mobile phone, and a GPS signal. The GPS module 589 which acquires the current position information of the terminal device 500 based on it is included. The communication module 585 functionally constitutes a part of the communication processing unit 580.

タッチパネル555は、端末装置500における画面表示とタッチ入力のための装置である。タッチパネル555は、機能的には入出力制御部570の一部を構成し、表示制御部571によってタッチパネル555への表示が制御され、入力制御部573によってタッチパネル555やボタンへの操作入力が検出される。スピーカ556は、音声を出力する装置である、機能的には入出力制御部570の一部を構成し、音声制御部572によってスピーカ556による音声出力が制御される。   The touch panel 555 is a device for screen display and touch input in the terminal device 500. The touch panel 555 functionally constitutes a part of the input / output control unit 570, the display control unit 571 controls display on the touch panel 555, and the input control unit 573 detects operation input to the touch panel 555 and buttons. The The speaker 556 is a device that outputs sound, and functionally constitutes a part of the input / output control unit 570, and the sound control unit 572 controls the sound output by the speaker 556.

GPU(Graphics Processing Unit)557は、画像表示や画像変換処理を実行するマイクロプロセッサであり、機能的には識別処理部520、補正処理部540、表示制御部571の一部を構成する。CPU(Central Processing Unit)590は、主に画像処理以外の処理や計算を司る中央処理装置であり、機能的には画像取得部530、識別処理部520、補正処理部540、認証処理部560、入出力制御部570等の一部を構成する。メモリ575は、読み書き可能なフラッシュメモリなどの不揮発性記憶媒体であり、機能的にはデータ記憶部550の一部を構成する。   A GPU (Graphics Processing Unit) 557 is a microprocessor that executes image display and image conversion processing, and functionally forms part of an identification processing unit 520, a correction processing unit 540, and a display control unit 571. A CPU (Central Processing Unit) 590 is a central processing unit mainly responsible for processing and calculation other than image processing, and functionally includes an image acquisition unit 530, an identification processing unit 520, a correction processing unit 540, an authentication processing unit 560, A part of the input / output control unit 570 or the like is configured. The memory 575 is a non-volatile storage medium such as a readable / writable flash memory, and functionally forms part of the data storage unit 550.

図4は、遊戯用撮影装置100を左前側から見た斜視図である。図5は、図4に示す遊戯用撮影装置100を上から見た平面図である。以下では、図4に示す前後左右の方向を基準として、他の図面も説明する。図4および図5に示すように、遊戯用撮影装置100は、前部側の撮影部50と後部側の編集部51とを備え、前後方向に長いほぼ直方体状を呈している。撮影部50の左側面または右側面にはコインの投入と撮影人数を含む撮影内容を事前設定する事前設定部40が設けられ、編集部51の後端には、編集後の写真の出力等をするための出力部52が設けられている。   FIG. 4 is a perspective view of the gaming apparatus 100 viewed from the left front side. FIG. 5 is a plan view of the gaming apparatus 100 shown in FIG. 4 as viewed from above. In the following, other drawings will also be described with reference to the front, rear, left and right directions shown in FIG. As shown in FIGS. 4 and 5, the gaming device 100 includes a front-side shooting unit 50 and a rear-side editing unit 51, and has a substantially rectangular parallelepiped shape that is long in the front-rear direction. The left side or right side of the photographing unit 50 is provided with a presetting unit 40 for presetting the contents of the coin including the number of coins and the number of photographers. An output unit 52 is provided.

撮影部50は、ユーザを撮影するカメラが内蔵された撮影筐体11と、この撮影筐体11の後方に撮影空間10を介して配置された背景壁部12とを有する。撮影筐体11の側面と、背景壁部12の側面との間の隙間が、撮影空間10への出入口である第1出入口101a,101bを構成する。事前設定部40は、撮影人数を含む撮影内容の設定項目を表示してユーザからの指示を受け付けるタッチパネル41と、コインの投入口と返却口を含むコイン投入部42を有する。事前設定部40の筐体は、図では撮影部50の左側面に着脱自在に取り付けた例を示すが、遊戯用撮影装置100を設置する店舗のレイアウトに応じて左右側面のいずれかに取り付ければよい。ユーザは事前設定部40を取り付けた側の入口から撮影空間10へ入る。編集部51は、背景壁部12の後方に隣接して配置された編集筐体21を有する。編集筐体21には、左右の方向を向く一対の操作面が設けられる。ユーザは各操作面への入力作業をする編集空間20a,20bに、第2出入口201a,201bを介して入ることができる。出力部52は、編集筐体21の後端面と接する出力筐体31を有する。出力筐体31に対しては、ユーザが遊戯用撮影装置100の後端側から操作するように、操作面が後端側を向いている。したがって、出力筐体31の後端側の空間が、ユーザが出力操作をするための出力空間30となる。なお、変形例として、事前設定部40を備えない形で遊戯用撮影装置100を構成してもよいし、編集部51ないし編集空間20を備えない形で遊戯用撮影装置100を構成してもよい。   The photographing unit 50 includes a photographing case 11 in which a camera for photographing a user is incorporated, and a background wall portion 12 disposed behind the photographing case 11 via the photographing space 10. A gap between the side surface of the imaging housing 11 and the side surface of the background wall portion 12 constitutes first entrances 101 a and 101 b that are entrances to the imaging space 10. The pre-setting unit 40 includes a touch panel 41 that displays setting items of shooting contents including the number of photographers and receives instructions from the user, and a coin insertion unit 42 that includes a coin insertion slot and a return slot. Although the figure shows an example in which the housing of the presetting unit 40 is detachably attached to the left side surface of the photographing unit 50, it can be attached to either the left or right side according to the layout of the store where the game photographing device 100 is installed. Good. The user enters the imaging space 10 from the entrance on the side where the presetting unit 40 is attached. The editing unit 51 includes an editing housing 21 disposed adjacent to the back of the background wall 12. The editing casing 21 is provided with a pair of operation surfaces that face in the left and right directions. The user can enter the editing spaces 20a and 20b for performing input operations on the operation surfaces via the second entrances 201a and 201b. The output unit 52 includes an output housing 31 that contacts the rear end surface of the editing housing 21. The operation surface faces the rear end side so that the user operates the output casing 31 from the rear end side of the game photographing apparatus 100. Therefore, the space on the rear end side of the output housing 31 becomes an output space 30 for the user to perform an output operation. As a modification, the game shooting device 100 may be configured without the presetting unit 40, or the game shooting device 100 may be configured without the editing unit 51 or the editing space 20. Good.

撮影筐体11と背景壁部12との上端部の側面は、前後方向に延びる天井フレーム13によって互いに連結される。天井フレーム13の枠内部には、撮影空間10を上から覆い、照明およびフラッシュ照射する天井照明ユニット14が設けられる。撮影筐体11の左側面または右側面には、遊戯用撮影装置100の使用方法を含む説明書きを掲示するための掲示スペース15が設けられる。掲示スペース15の上部には、撮影筐体11が使用中であるか否かを示す表示部16が設けられる。   The side surfaces of the upper end portions of the photographing housing 11 and the background wall portion 12 are connected to each other by a ceiling frame 13 extending in the front-rear direction. Inside the frame of the ceiling frame 13, a ceiling illumination unit 14 that covers the imaging space 10 from above, and illuminates and flashes is provided. On the left side or the right side of the photographic housing 11, a posting space 15 is provided for posting instructions including how to use the game shooting device 100. In the upper part of the posting space 15, a display unit 16 is provided to indicate whether or not the photographing housing 11 is in use.

表示部16は、発光または消灯される表示灯(図示せず)を備える。表示部16は、表示灯の発光によって撮影部50が使用中であることをユーザに示し、消灯によって撮影部50が空きになったことをユーザに示す。遊戯用撮影装置100は、表示部16が左右方向外側に突出した平面視三角形状に形成されているが、その形状は特には限定されず、凸湾曲状などのその他の形状であってもよい。   The display unit 16 includes an indicator lamp (not shown) that emits light or is turned off. The display unit 16 indicates to the user that the photographing unit 50 is in use by light emission of the indicator lamp, and indicates to the user that the photographing unit 50 has become empty by turning off the light. The shooting device 100 for play is formed in a triangular shape in plan view in which the display unit 16 protrudes outward in the left-right direction, but the shape is not particularly limited, and may be other shapes such as a convex curve shape. .

背景壁部12は、撮影筐体11とほぼ同じ幅および高さの板状部材によって形成され、撮影筐体11の正面と対面する本体プレート121と、この本体プレート121の左右両端から前方に延設された一対のサイドプレート122とを有する。このため背景壁部12は、全体として平面視コ字状に形成されている。本体プレート121において、撮影筐体11を向く面には、クロマキー処理のための単一の色(例えば、青色または緑色)が着色される。着色については、本体プレート121に直接ペンキなどで着色するほか、着色された布地、プレート等を取付けてもよい。図示はしないが、撮影空間10の床面には、この本体プレート121と連続するように、当該本体プレート121と同様にクロマキー処理のための単一色が着色される。撮影筐体11の後端縁と、天井フレーム13の下端縁と、サイドプレート122の前端縁とから、上述したように、撮影空間10に出入りするための第1出入口101a,101bが構成される。   The background wall portion 12 is formed by a plate-like member having substantially the same width and height as the photographing housing 11, and extends from the left and right ends of the main body plate 121 to the front. And a pair of side plates 122 provided. For this reason, the background wall part 12 is formed in the planar view U shape as a whole. A single color (for example, blue or green) for chroma key processing is colored on the surface of the main body plate 121 facing the photographing housing 11. Regarding the coloring, in addition to coloring the main body plate 121 directly with paint or the like, a colored fabric, plate or the like may be attached. Although not shown, the floor surface of the imaging space 10 is colored with a single color for chroma key processing in a manner similar to the main body plate 121 so as to be continuous with the main body plate 121. As described above, the first entrances 101 a and 101 b for entering and exiting the imaging space 10 are configured from the rear end edge of the imaging casing 11, the lower end edge of the ceiling frame 13, and the front end edge of the side plate 122. .

編集筐体21は、左右両側から2組のユーザが同時に編集可能な対面式であり、左右それぞれに操作面が設けられる。編集筐体21は、左右方向の長さが背景壁部12の同方向の幅よりも短い。編集筐体21は、その前端面を背景壁部12の背面の中央部に接続される。編集筐体21の左右両側方のスペースが、2組のユーザがそれぞれ編集作業を行う編集空間20a,20bとなる。編集筐体21の上方には、平面視においてほぼコの字状のカーテンフレーム22が設けられる。カーテンフレーム22は、前後方向に延びる一対の側部フレーム221と、この側部フレーム221の後端同士を連結する左右方向に延びる後部フレーム222とからなる。図示はしないが、編集筐体21の内部には、例えばPC(Personal Computer)等のCPU(Central Processing Unit)を備える計算機が設置される。   The editing case 21 is a face-to-face type that allows two sets of users to edit simultaneously from the left and right sides, and has an operation surface on each of the left and right sides. The editing casing 21 is shorter in the left-right direction than the width of the background wall 12 in the same direction. The editing housing 21 is connected at its front end surface to the center of the back surface of the background wall portion 12. The spaces on the left and right sides of the editing housing 21 become editing spaces 20a and 20b in which two sets of users perform editing operations, respectively. Above the editing housing 21, a substantially U-shaped curtain frame 22 is provided in plan view. The curtain frame 22 includes a pair of side frames 221 extending in the front-rear direction and a rear frame 222 extending in the left-right direction connecting the rear ends of the side frames 221. Although not shown, a computer including a CPU (Central Processing Unit) such as a PC (Personal Computer) is installed inside the editing case 21.

各側部フレーム221の前端は、天井フレーム13の後端に前後方向に延長状に連結され、後部フレーム222の中央部は、編集筐体21の後上端部に設けられた支持部材23によって支持される。左右一方側の側部フレーム221と、後部フレーム222のほぼ半分の長さ部分により、編集空間20a,20bに出入りするための前記第2出入口201a,201bの上枠部が構成される。   The front end of each side frame 221 is connected to the rear end of the ceiling frame 13 in the front-rear direction, and the central portion of the rear frame 222 is supported by a support member 23 provided at the rear upper end of the editing housing 21. Is done. The side frames 221 on one side of the left and right sides and the almost half length of the rear frame 222 constitute upper frame portions of the second entrances 201a and 201b for entering and exiting the editing spaces 20a and 20b.

図6は、遊戯用撮影装置100の機能構成を模式的に示す機能ブロック図である。遊戯用撮影装置100は、事前設定部40、撮影処理部130、表示制御部135、データ生成部140、データ記憶部150、および出力処理部160を含む。   FIG. 6 is a functional block diagram schematically showing a functional configuration of the game shooting apparatus 100. The game shooting apparatus 100 includes a pre-setting unit 40, a shooting processing unit 130, a display control unit 135, a data generation unit 140, a data storage unit 150, and an output processing unit 160.

本図は、遊戯用撮影装置100を実現するための機能構成を示しており、その他の構成は省略している。本図において、さまざまな処理をする機能ブロックとして記載される各要素は、図示しないハードウェアであるカメラ、CPU、メインメモリ、その他のLSI(Large Scale Integrated circuit)で構成することができる。また、ソフトウェア的にはRAMにロードされたプログラム等をCPUが実行することによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   This figure shows a functional configuration for realizing the game photographing apparatus 100, and other configurations are omitted. In this figure, each element described as a functional block for performing various processes can be configured by a camera (not shown), a CPU, a main memory, and other LSI (Large Scale Integrated circuit). In terms of software, it is realized by the CPU executing a program or the like loaded in the RAM. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

事前設定部40は、撮影に先立って、撮影プレイ中に撮影空間10に流す音楽、合成用の背景画像等の撮影内容をユーザの指示に基づいて事前設定する。事前設定部40が事前設定する背景画像としては、ユーザに選択された音楽に応じた複数の背景画像のうちいずれかをユーザが選択する形で設定する。また、事前設定部40は、撮影に先立って、被写体となるユーザの撮影人数、名前やグループ名、好みのテーマ等の撮影内容をユーザの指示に基づいて事前設定する。事前設定部40が事前設定する撮影人数としては、「2人」「3人」「大人数」のうちいずれかをユーザが選択する形で設定する。   Prior to shooting, the presetting unit 40 presets shooting contents such as music to be played in the shooting space 10 during shooting play, background images for synthesis, and the like based on user instructions. The background image preset by the presetting unit 40 is set in such a manner that the user selects one of a plurality of background images corresponding to the music selected by the user. Further, prior to shooting, the presetting unit 40 presets the shooting contents of the user who is a subject, the number of shots, the name and group name, a favorite theme, and the like based on a user instruction. The number of photographers to be preset by the presetter 40 is set in such a manner that the user selects one of “2”, “3”, and “large number of people”.

撮影処理部130は、個別認証部131、撮像部132、画像取得部133を含む。撮像部132は、事前設定部40から受け取るプレイ開始の指示に基づき、個別認証部131または画像取得部133による制御にしたがい、正面カメラ111または側方カメラ112により1人または複数のユーザを被写体として撮像する。個別認証部131は、認証用の撮影画像の取得、取得した認証用の撮影画像に対する人物検出および人物認証を実行する。個別認証部131は、取得した認証用の撮影画像から人物を検出する人物検出を実行する。本実施の形態における人物検出は、例えば顔検出である。個別認証部131は、認証用の撮影画像から、肌の色の領域や目、鼻などの器官を抽出して顔領域を検出する。個別認証部131は、検出した顔領域から目や鼻などの器官同士の距離や配置、大きさといった特徴量を検出し、その特徴量に基づいて各人物の特徴を特定する人物認証を実行する。個別認証部131は、認証用の撮影画像をデータ記憶部150に一時的に記憶させる。   The imaging processing unit 130 includes an individual authentication unit 131, an imaging unit 132, and an image acquisition unit 133. The imaging unit 132 sets one or more users as subjects by the front camera 111 or the side camera 112 according to the control by the individual authentication unit 131 or the image acquisition unit 133 based on the play start instruction received from the presetting unit 40. Take an image. The individual authentication unit 131 performs acquisition of a photographed image for authentication, person detection for the acquired photographed image for authentication, and person authentication. The individual authentication unit 131 performs person detection for detecting a person from the acquired photographed image for authentication. The person detection in the present embodiment is, for example, face detection. The individual authentication unit 131 detects a face region by extracting a skin color region or an organ such as an eye or a nose from a photographed image for authentication. The individual authentication unit 131 detects feature quantities such as the distance, arrangement, and size of organs such as eyes and nose from the detected face area, and executes person authentication that identifies the characteristics of each person based on the feature quantities. . The individual authentication unit 131 temporarily stores the captured image for authentication in the data storage unit 150.

表示制御部135は、撮像部132により撮影中のライブビュー映像を正面モニタ113または側方モニタ114の画面にリアルタイムで表示させる。   The display control unit 135 displays the live view video being shot by the imaging unit 132 on the screen of the front monitor 113 or the side monitor 114 in real time.

画像取得部133は、撮像部132(すなわち正面カメラ111および側方カメラ112)の焦点距離や画角、トリミング範囲などの設定を行い、撮像部132に撮像させる。そして画像取得部133は、ライブビューを表示制御部135を介して正面モニタ113または側方モニタ114に表示させる。また、画像取得部133は、撮像部132により撮像される被写体について、ユーザの撮影画像を複数回撮影して取得する。本実施の形態では、画像取得部133は、少なくとも5回の撮影を実行し、5枚程の撮影画像を生成する。   The image acquisition unit 133 sets the focal length, the angle of view, the trimming range, and the like of the imaging unit 132 (that is, the front camera 111 and the side camera 112), and causes the imaging unit 132 to capture an image. Then, the image acquisition unit 133 displays the live view on the front monitor 113 or the side monitor 114 via the display control unit 135. Further, the image acquisition unit 133 acquires a user's captured image by capturing the subject imaged by the imaging unit 132 a plurality of times. In the present embodiment, the image acquisition unit 133 performs at least five shootings and generates about five shot images.

画像取得部133は、取得した複数の本撮影用の撮影画像をひとまとまりの写真画像群としてデータ記憶部150に記憶させる。より具体的には、画像取得部133は、取得した複数の本撮影用の撮影画像に同一のプレイIDを付与し、かつ撮影画像を特定するために、各撮影画像に固有の画像識別子を付与する。   The image acquisition unit 133 causes the data storage unit 150 to store a plurality of acquired captured images for main shooting as a group of photographic images. More specifically, the image acquisition unit 133 assigns the same play ID to a plurality of acquired photographed images for actual photographing, and assigns a unique image identifier to each photographed image in order to identify the photographed image. To do.

画像取得部133は、撮像部132により撮像される被写体について、ユーザの動画像を複数回撮影して取得する。画像取得部133は、例えば3回の動画撮影を実行し、3本の動画像を取得する。   The image acquisition unit 133 acquires and acquires a user's moving image for a subject imaged by the imaging unit 132 a plurality of times. The image acquisition unit 133 executes, for example, three moving image shootings, and acquires three moving images.

表示制御部135は、動画撮影の開始に先立ち、動画撮影中の被写体動作の手本をユーザに示すための手本動画を正面モニタ113の画面に表示させる。表示制御部135は、手本動画の表示を終了した後、撮像部132により撮像されるユーザの映像のライブビューに切り替える。ライブビューに切り替えられた後で、画像取得部133がユーザの動画像を撮影する。このような手本動画の表示からユーザの動画像の撮影までの過程を3回繰り返すことにより3本の動画像を取得する。画像取得部133は、取得した動画像をデータ記憶部150にプレイIDと対応づけて記憶させる。   Prior to the start of moving image shooting, the display control unit 135 displays on the screen of the front monitor 113 a model moving image for showing the user a model of subject movement during moving image shooting. The display control unit 135 switches to the live view of the user's video imaged by the imaging unit 132 after finishing the display of the model moving image. After switching to the live view, the image acquisition unit 133 captures a moving image of the user. By repeating the process from the display of the model moving image to the shooting of the moving image of the user three times, three moving images are acquired. The image acquisition unit 133 stores the acquired moving image in the data storage unit 150 in association with the play ID.

データ生成部140は、背景処理部141、補正処理部142、編集処理部143、動画処理部144を含む。背景処理部141は、データ記憶部150に記憶される認証用の撮影画像、複数の本撮影用の撮影画像、および複数の動画像のそれぞれについて、被写体と背景画像を既知のクロマキー合成技術により合成する。すなわち背景処理部141は、撮影画像における被写体と、それ以外の領域である背景領域とを区別するための背景情報(クロマキーマスク)を2値化画像またはグレースケールの画像、あるいはそれらを圧縮したデータとして生成し、その背景情報を用いて被写体を背景から抽出した画像を取得する。認証用の撮影画像について背景処理部141は、その被写体のみの画像を、あらかじめ定められた背景画像、例えば白、グレー、黒といった単一の無彩色が一面に施された背景画像と合成する。本撮影用の撮影画像について背景処理部141は、その被写体のみの画像を、事前設定したユーザの好みの背景画像と合成する。被写体のみの画像および背景画像と合成した合成画像はデータ記憶部150に記憶される。本撮影用の撮影画像については、後の編集処理において被写体のみの画像に別の背景画像を合成してあらたな合成画像を生成し直すこともできる。背景処理部141は、撮像部132により撮影中のライブビュー映像からリアルタイムに被写体を抽出して背景画像を合成して表示制御部135により表示させる処理をしてもよい。また、背景処理部141は上述のクロマキー合成を、画像取得部133によって取得された動画像に対しても同様に処理し、合成動画像を生成する。   The data generation unit 140 includes a background processing unit 141, a correction processing unit 142, an editing processing unit 143, and a moving image processing unit 144. The background processing unit 141 synthesizes the subject and the background image with a known chroma key composition technique for each of the authentication photographed image, the plurality of actual photographed images, and the plurality of moving images stored in the data storage unit 150. To do. In other words, the background processing unit 141 converts the background information (chroma key mask) for distinguishing between the subject in the captured image and the background region other than the binarized image or the grayscale image, or data obtained by compressing them. And an image obtained by extracting the subject from the background using the background information. For the photographed image for authentication, the background processing unit 141 synthesizes an image of only the subject with a predetermined background image, for example, a background image in which a single achromatic color such as white, gray, or black is applied on one side. The background processing unit 141 synthesizes the image of only the subject with the background image of the user's preference set in advance for the captured image for actual shooting. The composite image synthesized with the subject-only image and the background image is stored in the data storage unit 150. With regard to the captured image for the main photographing, a new composite image can be regenerated by compositing another background image with the image of only the subject in the subsequent editing process. The background processing unit 141 may perform processing for extracting a subject in real time from the live view video being shot by the imaging unit 132 and combining the background image and causing the display control unit 135 to display them. The background processing unit 141 similarly performs the above-described chroma key composition on the moving image acquired by the image acquisition unit 133 to generate a combined moving image.

補正処理部142は、本撮影用の撮影画像における人物検出および人物認証を実行するとともに、本撮影用の撮影画像に対する補正を実行する。本撮影用の撮影画像における人物検出は、例えば認証用の撮影画像における人物検出と同様の顔検出である。補正処理部142は、本撮影用の撮影画像から、肌の色の領域や目、鼻などの器官を抽出して顔領域を検出する。本撮影用の撮影画像における人物認証は、認証用の撮影画像における人物認証と同様の処理および人物特定の処理を含む。より具体的には、まず本撮影用の撮影画像における人物検出により検出した顔領域から目や鼻などの器官同士の距離や配置、大きさといった人物ごとの特徴量を検出する。その人物ごとの特徴量を、あらかじめ認証用の撮影画像における人物認証によって特定されてデータ記憶部150に一時的に記憶させたユーザごとの特徴量と照合し、その照合結果に基づいて本撮影用の撮影画像に含まれる人物がどのユーザであるかを特定する処理が「人物特定」である。例えば、あらかじめ特定して記憶するユーザごとの特徴量の情報がAとBの2つある場合、本撮影用の撮影画像から特定された人物ごとの特徴量がそれぞれAとBのどちらに相対的に近似するかを照合する。これにより、本撮影用の撮影画像に含まれる人物ごとにどのユーザであるかを特定する。   The correction processing unit 142 performs person detection and person authentication in the captured image for main shooting, and also performs correction for the captured image for main shooting. The person detection in the photographed image for main photographing is, for example, face detection similar to the person detection in the photographed image for authentication. The correction processing unit 142 extracts a skin color region, an organ such as an eye and a nose from a captured image for actual photographing, and detects a face region. The person authentication in the photographed image for main photographing includes the same process as the person authentication in the photographed image for authentication and the person specifying process. More specifically, first, feature quantities for each person such as the distance, arrangement, and size of organs such as eyes and nose are detected from the face area detected by the person detection in the captured image for the main photographing. The feature quantity for each person is collated with the feature quantity for each user specified in advance in the photographed image for authentication and temporarily stored in the data storage unit 150, and based on the collation result, The process of identifying which user is the person included in the captured image is “person identification”. For example, when there are two pieces of feature amount information for each user to be specified and stored in advance, A and B, the feature amount for each person specified from the captured image for actual shooting is relative to either A or B. It is checked whether it approximates to. Thereby, which user is identified for each person included in the captured image for the main photographing.

本撮影用の撮影画像に対する補正は、目の色や大きさ、顔の輪郭、肌の色や質感等を変化させる処理であり、本撮影後の編集処理(特に落書きの処理)に先立ち、本撮影用の撮影画像に対して実行される。補正処理の方法は、撮影人数によって異なり、また、アップ撮影による画像か全身撮影による画像かによっても異なる。事前設定された撮影人数が3人以内であった場合に、ユーザごとに事前設定された好みに応じて選択される補正方法にて人物ごとの個別の補正を実行する。ユーザごとに指定された補正の設定値およびユーザごとの顔の特徴情報は、送信出力部163を介して管理サーバ300へ送信され、管理サーバ300によりユーザごとの識別情報と対応づけられて記憶される。撮影人数が3人を超える場合、補正処理部142は、本撮影用の撮影画像に含まれる人物全体に対して同じ補正を実行する。また例えば、アップ撮影による画像と全身撮影による画像とでは画像に写る目をはじめとする部位の大きさが異なり、顔ないし全身の印象に影響する目の印象度の割合も異なるため、目の拡大率などが僅かに相違する。   The correction for the captured image for the actual shooting is a process of changing the eye color and size, the face outline, the skin color and the texture, etc., and before the editing process (especially the graffiti process) after the actual shooting. It is executed on a captured image for shooting. The correction processing method differs depending on the number of photographers, and also differs depending on whether the image is an up-shot image or a whole-body image. When the preset number of photographers is three or less, individual correction for each person is executed by a correction method selected according to the preference preset for each user. The correction setting value specified for each user and the facial feature information for each user are transmitted to the management server 300 via the transmission output unit 163 and stored in association with the identification information for each user by the management server 300. The When the number of photographers exceeds three, the correction processing unit 142 performs the same correction on the entire person included in the photographed image for actual photographing. In addition, for example, an up-shot image and a whole-body image differ in the size of the part of the eye, including the eyes, and the ratio of the degree of impression of the eyes that affects the impression of the face or the whole body. The rate is slightly different.

編集処理部143は、落書きと呼ばれる編集処理を実行するとともに、データ記憶部150に記憶される複数の撮影画像を含む写真画像群と、個別認証部131により特定されるユーザを識別するためのプレイIDとを紐付けたコンテンツデータを生成する。コンテンツデータには、背景処理部141が取得した背景情報や遊戯用撮影装置100の識別情報も含めてもよい。編集処理部143は、画像取得部133が一連の写真画像群を撮影する度(1プレイごと)に、コンテンツデータを生成する。コンテンツデータは、画像取得部133が生成したプレイIDを用いて一意に特定することができる。   The editing processing unit 143 executes editing processing called graffiti, and plays for identifying a group of photographic images including a plurality of photographed images stored in the data storage unit 150 and a user specified by the individual authentication unit 131. Content data associated with an ID is generated. The content data may include the background information acquired by the background processing unit 141 and the identification information of the gaming device 100. The edit processing unit 143 generates content data every time the image acquisition unit 133 captures a series of photographic image groups (for each play). The content data can be uniquely specified using the play ID generated by the image acquisition unit 133.

編集処理部143は、背景処理部141による背景画像の合成と補正処理部142による補正処理がなされた撮影画像を編集対象画像とし、その編集対象画像に対して編集処理を実行する。編集処理は複数の編集対象画像に対して個別に実行されるとともに、複数のユーザからのそれぞれの指示に基づいて複数の編集対象画像に対して同時並行的に実行され得る。   The editing processing unit 143 sets the captured image that has been subjected to the synthesis of the background image by the background processing unit 141 and the correction processing by the correction processing unit 142 as an editing target image, and executes editing processing on the editing target image. The editing process is executed individually for a plurality of editing target images, and can be executed simultaneously for a plurality of editing target images based on respective instructions from a plurality of users.

具体的には、編集処理部143は、補正処理部142により補正された合成画像と、合成画像に装飾として重畳しうる文字、模様、図形、スタンプ画像などの編集ツールと、を含む編集画面を編集用モニタ213に表示させ、合成画像に対する編集処理の指示を受け付ける。編集処理部143は特に、事前設定部40が受け付けた音楽に応じた編集ツールを編集画面に初期的に表示させる。編集処理の指示は、タッチペン214を用いた編集用モニタ213に対するユーザの編集操作、例えば編集ツールを選択する選択操作や編集対象画像(合成画像)に対して位置を指定する入力操作により入力される。編集処理部143は、ユーザの選択した編集ツールに対応する編集を編集対象画像に施して複数の編集済画像を生成し、これをデータ記憶部150に記憶させる。また、編集処理部143は、シート紙に印刷する印刷用画像を決定させるための選択画面を編集用モニタ213に表示させ、印刷用画像の選択を受け付ける。   Specifically, the editing processing unit 143 displays an editing screen including the composite image corrected by the correction processing unit 142 and editing tools such as characters, patterns, figures, and stamp images that can be superimposed on the composite image as decorations. The image is displayed on the editing monitor 213 and an instruction for editing processing for the composite image is received. In particular, the editing processing unit 143 initially displays an editing tool corresponding to the music received by the pre-setting unit 40 on the editing screen. The instruction of the editing process is input by a user editing operation on the editing monitor 213 using the touch pen 214, for example, a selection operation for selecting an editing tool or an input operation for specifying a position for an image to be edited (composite image). . The editing processing unit 143 performs editing corresponding to the editing tool selected by the user on the editing target image to generate a plurality of edited images, and stores them in the data storage unit 150. The editing processing unit 143 displays a selection screen for determining a printing image to be printed on the sheet paper on the editing monitor 213 and accepts the selection of the printing image.

動画処理部144は、画像取得部133によって取得されてデータ記憶部150に記憶される複数の動画像に対する編集処理を実行し、出力対象となる表示用動画像と送信用動画像を生成する。   The moving image processing unit 144 performs an editing process on a plurality of moving images acquired by the image acquisition unit 133 and stored in the data storage unit 150, and generates a display moving image and a transmission moving image to be output.

出力処理部160は、印刷処理部161、無線出力部162、送信出力部163を含む。印刷処理部161は、データ記憶部150に記憶された複数の編集済画像に基づく印刷用画像をプリンタ34によりシール紙に印刷する。無線出力部162は、非接触通信部を介してユーザの端末へ複数の編集済画像を送信する。送信出力部163は、ネットワークを介して管理サーバ300へすべての編集済画像を送信する。送信出力部163は、プレイの終了後にタッチパネル上に表示されるキーボードに、ユーザによって入力されたメールアドレス等の個人を特定する識別情報を受け付ける。送信出力部163は、入力されたメールアドレスおよびプレイIDと対応させて編集済画像を管理サーバ300にアップロードし、ユーザによって後に編集済画像をダウンロードさせることができる。   The output processing unit 160 includes a print processing unit 161, a wireless output unit 162, and a transmission output unit 163. The print processing unit 161 prints a printing image based on a plurality of edited images stored in the data storage unit 150 on a sticker sheet by the printer 34. The wireless output unit 162 transmits a plurality of edited images to the user terminal via the non-contact communication unit. The transmission output unit 163 transmits all edited images to the management server 300 via the network. The transmission output unit 163 receives identification information for identifying an individual such as an e-mail address input by the user on a keyboard displayed on the touch panel after the play ends. The transmission output unit 163 can upload the edited image to the management server 300 in association with the input mail address and play ID, and can download the edited image later by the user.

送信出力部163は、動画処理部144によって設定された表示用動画像を表示制御部135に送信することによりその表示用動画像を液晶モニタ等の表示装置に表示させる。送信出力部163は、動画処理部144によって設定された送信用動画像または撮影された動画像を、入力されたメールアドレスおよびプレイIDと対応させて管理サーバ300にアップロードし、ユーザによって後にダウンロードさせることができる。管理サーバ300は、メールアドレスおよびプレイIDと対応させる形で編集済画像および送信用動画像(または撮影された動画像)を記憶し、そのメールアドレス宛にそのメールアドレスに対応づけられたプレイIDを引数として含んだURLをコンテンツアクセス情報として送信する。ユーザは、受信したコンテンツアクセス情報のURLに携帯電話等の端末装置500でアクセスすることにより、所定の画像取得ウェブサイト内の自身の編集済画像や送信用動画像をダウンロードできるページを開くことができ、ダウンロードが可能となる。また、シール紙には、編集済画像に基づく印刷用画像とともにプレイIDが印刷され、ユーザはそのプレイIDを所定の画像取得ウェブサイトに入力することによっても、自身の編集済画像や送信用動画像をダウンロードできるページを開くことができ、ダウンロードが可能となる。なお、ユーザが無料会員としてメールアドレスを登録している場合は、管理サーバ300にアップロードされた複数の編集済画像のうち自身が選択した画像が取得可能なページを開くことができる。ユーザが有料会員としてメールアドレスを登録している場合は、管理サーバ300にアップロードされた複数の編集済画像のすべてが取得可能なページを開くことができる。   The transmission output unit 163 transmits the display moving image set by the moving image processing unit 144 to the display control unit 135 to display the display moving image on a display device such as a liquid crystal monitor. The transmission output unit 163 uploads the transmission moving image or the captured moving image set by the moving image processing unit 144 to the management server 300 in association with the input e-mail address and play ID, and causes the user to download later. be able to. The management server 300 stores the edited image and the moving image for transmission (or the captured moving image) in a form corresponding to the e-mail address and the play ID, and the play ID associated with the e-mail address is addressed to the e-mail address. Is transmitted as content access information. The user opens a page on the predetermined image acquisition website where the edited image or the moving image for transmission can be downloaded by accessing the URL of the received content access information with the terminal device 500 such as a mobile phone. Can be downloaded. In addition, a play ID is printed on the sticker paper together with a print image based on the edited image, and the user can input his / her edited image or a moving image for transmission by inputting the play ID into a predetermined image acquisition website. A page where the image can be downloaded can be opened and downloaded. When the user registers an e-mail address as a free member, a page where an image selected by the user among the plurality of edited images uploaded to the management server 300 can be acquired can be opened. When the user registers an e-mail address as a paying member, a page where all of the plurality of edited images uploaded to the management server 300 can be acquired can be opened.

図7は、管理サーバ300の機能構成を模式的に示す機能ブロック図である。管理サーバ300は、ユーザごとの特徴情報および補正の既定値をそのユーザの識別情報と対応づけて記憶するほか、遊戯用撮影装置100から取得したコンテンツデータや写真撮影サービスの利用履歴等のユーザ情報を管理するサーバである。コンテンツデータは、プレイID、写真画像群、遊戯用撮影装置100で入力されたメールアドレスなどのデータである。管理サーバ300は、ユーザのデータを記憶するデータ記憶部310と、ネットワーク200を介して端末装置500、遊戯用撮影装置100、SNSサイト400と通信する通信処理部320と、ユーザを特定する識別処理部330と、ユーザを認証する認証処理部340と、を備える。   FIG. 7 is a functional block diagram schematically showing the functional configuration of the management server 300. The management server 300 stores the feature information and correction default values for each user in association with the identification information of the user, as well as user information such as content data acquired from the shooting apparatus for play 100 and a usage history of the photography service. It is a server that manages The content data is data such as a play ID, a group of photographic images, and an e-mail address input by the game shooting apparatus 100. The management server 300 includes a data storage unit 310 that stores user data, a communication processing unit 320 that communicates with the terminal device 500, the game shooting device 100, and the SNS site 400 via the network 200, and an identification process that identifies the user. Unit 330 and an authentication processing unit 340 for authenticating a user.

データ記憶部310は、識別情報記憶部311、特徴記憶部312、既定値記憶部313、画像記憶部314を含む。識別情報記憶部311は、ユーザごとの識別情報を記憶する。特徴記憶部312は、ユーザごとの特徴情報を識別情報との対応で記憶する。ユーザの識別情報は、例えばメールアドレス、ユーザ名、パスワードなどの主に文字列からなる情報や、指紋情報などの生体情報のうちいずれであってもよい。既定値記憶部313は、ユーザごとの補正の既定値を識別情報との対応で記憶する。画像記憶部314は、遊戯用撮影装置100から送信された写真画像群などのコンテンツデータを記憶する。   The data storage unit 310 includes an identification information storage unit 311, a feature storage unit 312, a default value storage unit 313, and an image storage unit 314. The identification information storage unit 311 stores identification information for each user. The feature storage unit 312 stores feature information for each user in correspondence with identification information. The user identification information may be any of information mainly consisting of character strings such as e-mail addresses, user names, and passwords, and biometric information such as fingerprint information. The default value storage unit 313 stores a correction default value for each user in correspondence with the identification information. The image storage unit 314 stores content data such as a photographic image group transmitted from the game shooting apparatus 100.

識別処理部330は、端末装置500から送信された特徴情報を特徴記憶部312に記憶された複数の特徴情報と照合し、そのうち一致する特徴情報と対応するユーザの識別情報を認証処理部340が端末装置500に通信処理部320を介して送信する。特徴情報の照合方法は、上述した端末装置500における照合と同様である。認証処理部340が、ユーザの識別情報が正しい旨を示す情報を通信処理部320を介して端末装置500から受信すると、通信処理部320を介してそのユーザの補正の既定値を端末装置500へ送信する。   The identification processing unit 330 collates the feature information transmitted from the terminal device 500 with a plurality of feature information stored in the feature storage unit 312, and the authentication processing unit 340 obtains user identification information corresponding to the matching feature information among them. The data is transmitted to the terminal device 500 via the communication processing unit 320. The feature information matching method is the same as the matching in the terminal device 500 described above. When the authentication processing unit 340 receives information indicating that the user identification information is correct from the terminal device 500 via the communication processing unit 320, the default value for the correction of the user is transmitted to the terminal device 500 via the communication processing unit 320. Send.

図8は、ユーザが本実施形態のアプリを初めて使用する場合の過程を示すフローチャートである。このアプリを使用するにあたり、ユーザ設定として顔の特徴情報などを端末装置500において登録する必要がある。ユーザ設定は、初回の撮影前にあらかじめ設定する方法と、まずは1回撮影をした後で事後的に設定する方法の2通りが用意されている。   FIG. 8 is a flowchart showing a process when the user uses the application of this embodiment for the first time. When using this application, it is necessary to register facial feature information and the like as user settings in the terminal device 500. There are two types of user settings: a method for setting in advance before the first shooting, and a method for setting after shooting first.

ユーザは、所定のサイトからアプリをダウンロードして端末装置500にインストールすると(S10)、アプリの使用可能状態となる。ユーザがアプリを起動すると(S12)、この時点ではアプリ側からユーザへ端末ユーザ設定の実行を促すことなく直ちに撮影が可能な待機状態となり、カメラ515によって撮像されるライブビュー映像の表示が開始される(S140)。インストールしてすぐにユーザ設定をしないと撮影できない仕様ではユーザに対して心理的に設定の煩わしさを感じさせてしまうおそれがあるためであり、ユーザ設定をしなくともまずは初回の撮影が可能となるように設定を後回しにして煩わしさを和らげている。変形例としては、この時点、すなわちアプリのインストール後の初回起動時に端末ユーザ設定を実行可能である旨を表示して、任意で端末ユーザ設定を開始できるよう促す仕様としてもよい。   When the user downloads an application from a predetermined site and installs it on the terminal device 500 (S10), the application is ready for use. When the user starts the application (S12), at this time, the application enters a standby state in which shooting can be performed immediately without prompting the user to execute terminal user settings, and display of a live view image captured by the camera 515 is started. (S140). This is because the specifications that cannot be shot without user settings immediately after installation may cause the user to feel psychologically troublesome in setting, and the first shooting can be performed without user settings. The setting is postponed so as to reduce the annoyance. As a modified example, it may be a specification that displays that the terminal user setting can be executed at this time, that is, at the first activation after the application is installed, and that the terminal user setting can be arbitrarily started.

ライブビューの表示開始後、ライブビュー映像には簡易補正が実行される(S16)。この場合の簡易補正は、ライブビュー映像から一人または複数人のユーザの顔を検出し、そのユーザに端末ユーザが含まれているか否かに関わらず一律に同じ設定値にて簡易的な補正を施す。ただし、変形例においては、端末ユーザを特定して端末ユーザに対してはその端末ユーザに対応づけられた既定値に基づいて簡易補正または本格的な補正を施してもよい。撮影可能状態において、所定のメニューから端末ユーザ設定を含む各種設定の実行がユーザにより指示された場合(S18のY)、端末ユーザ設定を実行する(S20)。端末ユーザ設定の詳細は後述する。設定実行の指示がなく(S18のN)、撮影操作もない間は(S22のN)、S16に戻ってライブビュー映像に対するリアルタイムな簡易補正を繰り返す。ここで、ユーザによってシャッターボタンが操作されるなど撮影操作がなされると(S22のY)、本撮影が実行され(S24)、その撮影画像に含まれるユーザごとの画像範囲に補正を実行する(S26)。補正の詳細については後述する。その補正後、端末ユーザが未設定であった場合は(S28のY)、端末ユーザ設定を実行し(S30)、端末ユーザが設定済みであった場合はS30をスキップして1回の撮影を終了する(S28のN)。S30における端末ユーザ設定については後述するが、S20における端末ユーザ設定とは手順が異なる。以降は、S14からS30までの処理をアプリが終了されるまで繰り返す。すなわち、1回撮影をするたびに補正を実行するのであって、複数枚の写真を撮影してからまとめて補正をする方式ではない。このように、アプリが起動されるたびにS14からS30までの処理を撮影回数分だけ繰り返す。   After starting the live view display, simple correction is performed on the live view video (S16). In this case, the simple correction is performed by detecting the face of one or more users from the live view video, and performing simple correction with the same set value regardless of whether or not the terminal user is included in the user. Apply. However, in a modified example, the terminal user may be specified, and simple correction or full-scale correction may be performed on the terminal user based on a default value associated with the terminal user. In the photographing enabled state, when the user instructs execution of various settings including terminal user settings from a predetermined menu (Y in S18), terminal user settings are executed (S20). Details of the terminal user setting will be described later. While there is no setting execution instruction (N in S18) and there is no shooting operation (N in S22), the process returns to S16 and repeats real-time simple correction on the live view video. Here, when a photographing operation such as a shutter button operation is performed by the user (Y in S22), the main photographing is performed (S24), and correction is performed on the image range for each user included in the photographed image (S24). S26). Details of the correction will be described later. After the correction, if the terminal user is not set (Y in S28), the terminal user setting is executed (S30), and if the terminal user has been set, S30 is skipped and one shooting is performed. The process ends (N in S28). The terminal user setting in S30 will be described later, but the procedure is different from the terminal user setting in S20. Thereafter, the processing from S14 to S30 is repeated until the application is terminated. That is, correction is executed every time one image is taken, and it is not a method in which correction is performed collectively after taking a plurality of photographs. Thus, every time the application is activated, the processing from S14 to S30 is repeated by the number of times of photographing.

図9は、図8のS20における端末ユーザ設定処理を詳細に示すフローチャートである。まず、カメラ515で端末ユーザ自身を一人で撮影させて端末ユーザの静止画像を取得する(S50)。ただし、変形例としてライブビュー映像としてユーザの画像を取得する仕様でもよい。端末ユーザの画像から人物(特に顔の部分)を検出し(S52)、その人物の顔から特徴情報を検出する(S54)。補正の既定値として登録するための補正の設定値をユーザが入力し(S56)、メールアドレスやユーザ名などの識別情報をユーザが入力し(S58)、これらを対応づけて端末ユーザ設定として端末装置500に登録するとともに、管理サーバ300にも同じ情報を送信する(S60)。なお、S50〜S52において被写体として複数のユーザが含まれ、複数の人物が検出された場合、いずれの人物を端末ユーザとして登録するかをユーザに選択させるためのダイアログを表示し、ユーザによって選択された人物について顔の特徴情報を検出し、これを識別情報と対応づけて端末装置500および管理サーバ300に登録する。変形例においては、端末ユーザの特徴情報を端末装置500にのみ登録する仕様としてもよい。   FIG. 9 is a flowchart showing in detail the terminal user setting process in S20 of FIG. First, the terminal user himself is photographed alone by the camera 515 to obtain a still image of the terminal user (S50). However, the specification which acquires a user's image as a live view image | video as a modification may be sufficient. A person (especially a face portion) is detected from the image of the terminal user (S52), and feature information is detected from the face of the person (S54). The user inputs a correction setting value for registration as a correction default value (S56), and the user inputs identification information such as an e-mail address and a user name (S58). While registering with the device 500, the same information is also transmitted to the management server 300 (S60). In S50 to S52, when a plurality of users are included as subjects and a plurality of persons are detected, a dialog for causing the user to select which person to register as a terminal user is displayed and selected by the user. Face feature information is detected for each person, and this is registered with the terminal device 500 and the management server 300 in association with the identification information. In the modification, the specification may be such that the feature information of the terminal user is registered only in the terminal device 500.

図10は、図8のS26における補正処理を詳細に示すフローチャートである。まず、撮影画像から一人または複数の人物(特に顔の部分)を検出し(S100)、その人物の顔から特徴情報を検出する(S102)。端末ユーザ設定がすでになされている場合(S104のY)、端末ユーザの特徴情報を読み出して照合し(S106)、被写体から端末ユーザが特定された場合(S108のY)、端末ユーザの顔画像を拡大表示するとともに端末ユーザの補正の既定値を読み出して設定し、その設定値に基づいた補正を端末ユーザの画像範囲に実行する(S110)。また、端末ユーザの好みで設定値の変更があればその変更された設定値に基づいた補正を実行し直す。S108において端末ユーザが特定されない場合はS110をスキップする(S108のN)。S104において端末ユーザ設定がなされていない場合はS106〜S110をスキップする(S104のN)。   FIG. 10 is a flowchart showing in detail the correction processing in S26 of FIG. First, one or a plurality of persons (particularly a face portion) are detected from the photographed image (S100), and feature information is detected from the face of the person (S102). If the terminal user setting has already been made (Y in S104), the characteristic information of the terminal user is read and collated (S106). If the terminal user is identified from the subject (Y in S108), the face image of the terminal user is displayed. In addition to displaying the enlarged image, the terminal user's correction default value is read and set, and correction based on the set value is executed on the terminal user's image range (S110). If the setting value is changed according to the preference of the terminal user, the correction based on the changed setting value is executed again. If no terminal user is specified in S108, S110 is skipped (N in S108). If the terminal user setting is not made in S104, S106 to S110 are skipped (N in S104).

端末ユーザ以外のユーザが含まれている場合は他のユーザの特徴情報を管理サーバ300から取得して照合し(S112)、ユーザを特定できた場合は(S114のY)、特定したユーザのうち未補正である一人の顔画像を拡大表示するとともにその特定したユーザの補正の既定値を管理サーバ300から取得して設定し(S116)、その設定値に基づいた補正をそのユーザの画像範囲に実行する(S118)。そのユーザの好みで設定値の変更があればその変更された設定値に基づいた補正を実行し直す。S114においてユーザを特定しない場合はS116をスキップして(S114のN)、ユーザの好みに応じた設定値に基づいて補正を実行する(S118)。被写体に含まれるユーザのうち未補正のユーザが他にいればS114に戻り(S120のY)、S114〜S118の補正処理をユーザの人数分繰り返す。未補正のユーザがなければ本図のフローを終了する(S120のN)。なお、端末ユーザが未設定である場合、その端末ユーザについてもS112〜S120の過程で補正を実行することとなる。その場合、端末ユーザに対する補正をS118で実行したときに端末ユーザを設定する旨の指示があれば、そのまま図11のフローに遷移して端末ユーザを設定する。   If a user other than the terminal user is included, the feature information of the other user is acquired from the management server 300 and collated (S112). If the user can be identified (Y in S114), The uncorrected face image of one person is enlarged and displayed, and the specified correction value of the specified user is acquired from the management server 300 and set (S116), and the correction based on the set value is set in the image range of the user. Execute (S118). If the setting value is changed according to the preference of the user, the correction based on the changed setting value is executed again. If the user is not specified in S114, S116 is skipped (N in S114), and correction is performed based on the set value according to the user's preference (S118). If there are other uncorrected users among the users included in the subject, the process returns to S114 (Y in S120), and the correction processing in S114 to S118 is repeated for the number of users. If there is no uncorrected user, the flow of this figure is ended (N in S120). When the terminal user is not set, correction is also performed for the terminal user in the process of S112 to S120. In that case, if there is an instruction to set the terminal user when the correction for the terminal user is executed in S118, the process proceeds to the flow of FIG. 11 to set the terminal user.

図11は、図8のS30における端末ユーザ設定を詳細に示すフローチャートである。本図における端末ユーザ設定のフローは、図9における端末ユーザ設定とは異なり、すでに撮影がなされ、人物や顔の特徴情報が検出済みであるため、これらの処理は省略されている。すでに検出された人物が複数の場合はいずれの人物を端末ユーザとして設定するかをユーザに選択させる(S150)。ただし、検出された人物が一人の場合はその人物を端末ユーザとして設定してよいかをユーザに確認する。また、図10のS118において端末ユーザを設定する旨の指示があった場合にはどの人物の補正設定値を用いて端末ユーザの既定値を登録するかが明示されているためS150を省略する。   FIG. 11 is a flowchart showing in detail the terminal user setting in S30 of FIG. The terminal user setting flow in this figure is different from the terminal user setting in FIG. 9 and has already been photographed, and the person and face feature information has already been detected, so these processes are omitted. If a plurality of persons have already been detected, the user is allowed to select which person is set as the terminal user (S150). However, if the detected person is one person, the user is confirmed whether the person can be set as the terminal user. In addition, when there is an instruction to set a terminal user in S118 of FIG. 10, it is clearly indicated which person's correction setting value is used to register the default value of the terminal user, and thus S150 is omitted.

端末ユーザとして特定された人物について、メールアドレスやユーザ名などの識別情報をユーザに入力させる(S152)。特定された人物の特徴情報と、その人物についてすでになされた補正の設定値とを、識別情報と対応づけて端末装置500に端末ユーザ設定として登録するとともに、管理サーバ300にも同じ情報を送信する(S154)。   For the person specified as the terminal user, the user is allowed to input identification information such as an e-mail address and a user name (S152). The characteristic information of the specified person and the set value of correction already made for the person are registered as terminal user settings in the terminal device 500 in association with the identification information, and the same information is also transmitted to the management server 300. (S154).

図12は、初回の撮影前に端末ユーザ設定を実行する場合の設定画面例を模式的に示す図である。図9の端末ユーザ設定において本図の画面が表示される。まず、画像枠610にはサブカメラ517によって撮像されるライブビュー映像が表示され、端末ユーザの顔がアップで表示される。画像枠610の下方に「画像枠に顔が大きく収まるように正面を向き、ランプが点灯したら撮影してください。」といったユーザへの指示を表示することにより、端末ユーザに対して正面を向いて画像枠610に大きく顔が写るように位置調整を促す。最初はシャッターボタン634をグレイアウトして操作不可の状態にし、ライブビュー映像から顔を検出できたときに準備ランプ633を緑色に点灯させるとともに、シャッターボタン634を操作可能状態に表示する。端末ユーザがシャッターボタン634を操作したときに、端末ユーザの顔写真が撮影されて、静止画の撮影画像が画像枠610に表示される。特徴検出部522は、この端末ユーザの顔写真から顔の特徴情報を検出し、端末ユーザの特徴情報として特徴記憶部552および管理サーバ300に登録する。端末ユーザが自分の顔写真の写りに納得しない場合は再びシャッターボタン634を操作して撮り直すことができ、画像の写りに納得したときに「次へ」と書かれた遷移ボタン635を操作すると、次図の識別情報登録画面へ遷移する。この場合、特徴検出部522は撮り直された顔写真から顔の特徴情報を検出し、端末ユーザの正式な特徴情報として特徴記憶部552および管理サーバ300に登録し直す。   FIG. 12 is a diagram schematically illustrating an example of a setting screen when terminal user settings are executed before the first shooting. In the terminal user setting of FIG. 9, the screen of this figure is displayed. First, a live view image captured by the sub camera 517 is displayed in the image frame 610, and the terminal user's face is displayed in an up position. Under the image frame 610, by displaying an instruction to the user such as “Look forward so that the face fits in the image frame and take a picture when the lamp is lit”, face the front to the terminal user. Position adjustment is urged so that a large face appears in the image frame 610. Initially, the shutter button 634 is grayed out so that it cannot be operated. When a face can be detected from the live view video, the preparation lamp 633 is lit in green and the shutter button 634 is displayed in an operable state. When the terminal user operates the shutter button 634, a face picture of the terminal user is taken, and a still image is displayed in the image frame 610. The feature detection unit 522 detects facial feature information from the face photograph of the terminal user, and registers it in the feature storage unit 552 and the management server 300 as the feature information of the terminal user. If the terminal user is not satisfied with the photograph of his / her face, he / she can operate the shutter button 634 again to take a picture again. When he / she is satisfied with the photograph of the image, he / she operates the transition button 635 written “Next”. Then, the screen transitions to the identification information registration screen shown in the next figure. In this case, the feature detection unit 522 detects facial feature information from the recaptured facial photograph, and re-registers it in the feature storage unit 552 and the management server 300 as the official feature information of the terminal user.

図13は、端末ユーザ設定として識別情報を登録する画面の画面例を模式的に示す図である。画像枠610には前図で撮影した画像が表示され、画像枠610の下方にはユーザ名欄636、アドレス欄637、パスワード欄638が表示される。ユーザは、ユーザ名欄636に好みのユーザ名を入力し、アドレス欄637に自分のメールアドレスを入力し、パスワード欄638に任意のパスワードを入力してから、登録ボタン632を操作する。これにより、ユーザの識別情報が登録され、次図の補正画面に遷移する。ここでは端末ユーザのユーザ名が「A」として登録されることを前提として以下を説明する。なお、本実施形態では識別情報を先に登録させてから補正の既定値を登録する仕様としているが、先に補正を実行して補正の既定値を登録してから識別情報を登録させる順序としてもよい。なお、すでにユーザ登録済みの端末ユーザが、アプリを再インストールした場合や機種変更などで別の端末装置500にアプリをインストールした場合には、図13と同様の認証画面において登録済みのユーザ名またはメールアドレス、および、パスワードを入力させる。入力されたユーザ名またはメールアドレスとパスワードは管理サーバ300へ送信され、正しい情報として認証されると、登録済みの端末ユーザの特徴情報などが管理サーバ300から送信されて端末内に登録される。このようにして端末ユーザの環境を新しい端末装置500などへ移行ないし再設定することができる。   FIG. 13 is a diagram schematically showing a screen example of a screen for registering identification information as terminal user settings. The image frame 610 displays the image taken in the previous figure, and a user name field 636, an address field 637, and a password field 638 are displayed below the image frame 610. The user inputs his / her favorite user name in the user name column 636, inputs his / her e-mail address in the address column 637, inputs an arbitrary password in the password column 638, and then operates the registration button 632. As a result, the user identification information is registered, and the screen shifts to the correction screen in the next figure. Here, the following will be described on the assumption that the user name of the terminal user is registered as “A”. In the present embodiment, the specification is such that the identification information is registered first and then the default correction value is registered. However, the order in which the identification information is registered after the correction is executed first and the correction default value is registered. Also good. When a terminal user who has already been registered as a user reinstalls the application or installs an application in another terminal device 500 due to a model change or the like, the registered user name or Enter your e-mail address and password. The input user name or e-mail address and password are transmitted to the management server 300, and when authenticated as correct information, the registered terminal user feature information and the like are transmitted from the management server 300 and registered in the terminal. In this way, the terminal user's environment can be transferred or reset to the new terminal device 500 or the like.

図14は、第1の補正として「テイスト」をユーザに選択させる画面例を模式的に示す図である。タッチパネル画面601には、端末ユーザである「Aさん」の顔画像を画像枠610に表示するとともに、補正対象者である「Aさん」のニックネームを補正対象ユーザ名620として表示することで、現在「Aさん」が補正中であることを示す。画像枠610の下方には、テイスト選択ボタン621として「かわいい」「キレイ」「ナチュラル」の3つの選択肢を表示し、ユーザに選択させる。ユーザがいずれかの選択ボタンを操作すると、その選択ボタンが太枠で囲まれて色が変わるといった強調表示がなされ、その選択ボタンに対応する補正が画像枠610の画像に実行される。タッチパネル画面601の下部には、画面切替選択ボタン630として「補正完了」と「次の補正」と表記されたボタンが表示される。ユーザが「次の補正」をタッチ操作すると、この画面における補正項目「テイスト」の選択が終了して次の補正項目の設定画面に切り替わる。一方、ユーザが「補正完了」をタッチ操作すると、次の補正項目には移動せずに現時点での補正内容で確定させてすべての補正項目について完了させる。   FIG. 14 is a diagram schematically illustrating a screen example that allows the user to select “taste” as the first correction. The touch panel screen 601 displays the face image of the terminal user “Mr. A” in the image frame 610, and also displays the nickname of “Mr. A” who is the correction target person as the correction target user name 620. “Mr. A” indicates that correction is in progress. Below the image frame 610, three choices of “cute”, “beautiful”, and “natural” are displayed as a taste selection button 621 to allow the user to select. When the user operates any of the selection buttons, highlighting is performed such that the selection button is surrounded by a thick frame and the color changes, and correction corresponding to the selection button is performed on the image in the image frame 610. At the bottom of the touch panel screen 601, buttons indicated as “correction complete” and “next correction” are displayed as screen switching selection buttons 630. When the user performs a touch operation on “next correction”, the selection of the correction item “taste” on this screen is completed, and the screen is switched to the setting screen for the next correction item. On the other hand, when the user touches “Correction Complete”, the correction contents at the present time are determined without moving to the next correction item, and all correction items are completed.

図15は、第2の補正として「写りの仕上がり」をユーザに選択させる画面例を模式的に示す図である。タッチパネル画面601において、画像枠610および補正対象ユーザ名620は前画面の図14と同様である。画像枠610の下方には、目選択ボタン622、輪郭選択ボタン623、小鼻選択ボタン624が表示される。目選択ボタン622として、異なる目の大きさを示す3つの選択肢「目1」「目2」「目3」が表示され、初期的には前画面で選択した「かわいい」のテイストに対応する「目3」が選択状態となって強調表示される。この時点で、設定値「目3」に基づく補正がすでに施されている。輪郭選択ボタン623として、異なる輪郭形状を示す3つの選択肢「輪郭1」「輪郭2」「輪郭3」が表示され、初期的には前画面で選択した「かわいい」のテイストに対応する「輪郭1」が選択状態となって強調表示される。この時点で、設定値「輪郭1」に基づく補正がすでに施されている。小鼻選択ボタン624として、異なる小鼻形状を示す3つの選択肢「小鼻1」「小鼻2」「小鼻3」が表示され、初期的には前画面で選択した「かわいい」のテイストに対応する「小鼻1」が選択状態となって強調表示される。この時点で、設定値「小鼻1」に基づく補正がすでに施されている。ユーザが他のボタンをタッチ操作すると、そのタッチしたボタンに強調表示対象が切り替わり、画像枠610の顔画像に施される補正も、ユーザにより選択された項目に対応する補正設定値に基づく補正に切り替わる。   FIG. 15 is a diagram schematically illustrating an example of a screen that allows the user to select “finished image” as the second correction. On the touch panel screen 601, an image frame 610 and a correction target user name 620 are the same as those in FIG. 14 on the previous screen. Below the image frame 610, an eye selection button 622, an outline selection button 623, and a nose selection button 624 are displayed. As the eye selection button 622, three options “eye 1”, “eye 2”, and “eye 3” indicating different eye sizes are displayed, and initially “cute” corresponding to the “cute” taste selected on the previous screen is displayed. “Eye 3” is selected and highlighted. At this point, correction based on the set value “eye 3” has already been performed. As the contour selection button 623, three options “contour 1”, “contour 2”, and “contour 3” indicating different contour shapes are displayed, and “contour 1” corresponding to the “cute” taste selected on the previous screen is initially displayed. "Is selected and highlighted. At this point, correction based on the set value “contour 1” has already been performed. As the nostril selection button 624, three options “nostril 1”, “nasal nose 2”, and “nasal nose 3” indicating different nostral shapes are displayed, and “nose 1” corresponding to the “cute” taste initially selected on the previous screen is displayed. "Is selected and highlighted. At this time, the correction based on the set value “small nose 1” has already been performed. When the user touches another button, the highlighted object is switched to the touched button, and the correction applied to the face image in the image frame 610 is also corrected based on the correction setting value corresponding to the item selected by the user. Switch.

タッチパネル画面601の下部には、画面切替選択ボタン630として「戻る」「補正完了」「次の補正」と表記されたボタンが表示される。ユーザが「戻る」をタッチ操作すると、図14の前画面に戻り、「次の補正」をタッチ操作すると、この画面における補正項目「写りの仕上がり」の選択が終了して次の補正項目の設定画面に切り替わる。ユーザが「補正完了」をタッチ操作すると、次の補正項目には移動せずにすべての補正項目について完了させる。   At the bottom of the touch panel screen 601, buttons labeled “return”, “correction complete”, and “next correction” are displayed as screen switching selection buttons 630. When the user touches “RETURN”, the screen returns to the previous screen in FIG. 14, and when “NEXT CORRECTION” is touched, selection of the correction item “Finished” on this screen is completed and the next correction item is set. Switch to the screen. When the user touches “Correction Complete”, all correction items are completed without moving to the next correction item.

図16は、第3の補正として「肌の明るさ」をユーザに選択させる画面例を模式的に示す図である。タッチパネル画面601において、画像枠610および補正対象ユーザ名620は図14、図15と同様である。画像枠610の下方には、肌選択ボタン625として、異なる肌の明るさを示す3つの選択肢「美黒」「おすすめ」「美白」が表示され、初期的には図14の画面でユーザが選択した「かわいい」のテイストに対応する「美白」が選択状態となって強調表示される。この時点で、設定値「美白」に基づく補正がすでに施されている。タッチパネル画面601の下部には、画面切替選択ボタン630として「戻る」「補正完了」と表記されたボタンが表示される。ユーザが「戻る」をタッチ操作すると、図15の前画面に戻り、「補正完了」をタッチ操作すると、すべての補正項目について補正が完了し、端末ユーザ設定も完了する。端末ユーザ設定として登録される識別情報、補正の既定値、顔の特徴情報は、ユーザの指示に基づいて随時変更が可能であり、一度撮影した顔画像は画像記憶部554に「プロフィール写真」として記憶され、端末ユーザ設定の画面を開くたびに表示されるが、この写真も図13のように再度撮り直して差し替えることができる。「プロフィール写真」として画像記憶部554に記憶される画像は管理サーバ300にも送信され、識別情報と対応づけられて管理サーバ300に記憶される。   FIG. 16 is a diagram schematically illustrating a screen example that allows the user to select “skin brightness” as the third correction. On the touch panel screen 601, the image frame 610 and the correction target user name 620 are the same as those in FIGS. Below the image frame 610, three choices “Bright Black”, “Recommended”, and “Whitening” indicating different skin brightness are displayed as a skin selection button 625, and initially selected by the user on the screen of FIG. “Whitening” corresponding to the “cute” taste is selected and highlighted. At this point, correction based on the set value “whitening” has already been performed. At the bottom of the touch panel screen 601, buttons labeled “return” and “correction complete” are displayed as screen switching selection buttons 630. When the user touches “Return”, the screen returns to the previous screen of FIG. 15, and when “Correction Complete” is touched, correction is completed for all correction items and terminal user settings are also completed. Identification information, correction default values, and facial feature information registered as terminal user settings can be changed as needed based on user instructions, and once captured face images are stored in the image storage unit 554 as “profile photos”. It is stored and displayed every time the terminal user setting screen is opened, but this picture can be taken again and replaced as shown in FIG. The image stored in the image storage unit 554 as the “profile photo” is also transmitted to the management server 300 and is stored in the management server 300 in association with the identification information.

なお、図14〜16においては、複数の補正項目についてそれぞれボタンで選択肢を提示し、ユーザに選択させる仕様を説明した。変形例においては、ボタン操作ではなく、画像枠610の顔画像に直接指でタッチ操作することで自由に変形ないし修正できるようなインタフェースとしてもよい。例えば、目、輪郭、小鼻などの形状や大きさを変えたい場合に、指2本でタッチしてその2本の指を狭める「ピンチイン」や2本の指を広げる「ピンチアウト」といった操作により、形状や大きさを多段階調整できるインタフェースとしてもよい。別の変形例においては、目、輪郭、小鼻などの部分をタッチ操作するたびに複数の選択肢の中で順に切り替えて補正を実行するインタフェースとしてもよい。例えば、「目1」の補正が反映された状態で目の部分をタッチすると、「目2」の補正に切り替わって反映され、さらにタッチするたびに「目3」「目1」「目2」のように循環して補正が施される方式である。これらの変形例では、選択肢のボタンを表示する必要がないため補正の段階を限定せずに多段階調整を可能とするだけでなく画面構成をシンプルにすることができる。また、図14〜16のように画面を切り替える必要がなく、また補正の順序に囚われずに自由な順序で補正を実行することができる。   In FIGS. 14 to 16, the description has been given of the specification in which options are presented with buttons for a plurality of correction items, and the user is allowed to select. In a modified example, an interface that can be freely deformed or corrected by directly touching a face image of the image frame 610 with a finger instead of a button operation may be used. For example, if you want to change the shape or size of your eyes, contours, nose, etc., you can touch with two fingers to narrow the two fingers, or “pinch out” to spread the two fingers An interface that can adjust the shape and size in multiple stages may be used. In another modified example, an interface may be used in which correction is performed by sequentially switching among a plurality of options each time a touch operation is performed on a portion such as an eye, an outline, or a nose. For example, if the eye part is touched in a state where the correction of “eye 1” is reflected, the correction is switched to the correction of “eye 2”, and “eye 3”, “eye 1”, and “eye 2” are reflected each time the touch is further performed. In this way, correction is performed in a circulating manner. In these modified examples, it is not necessary to display a selection button, so that not only the correction stage but also the multistage adjustment can be made, and the screen configuration can be simplified. Further, it is not necessary to switch the screen as in FIGS. 14 to 16, and the correction can be executed in any order without being restricted by the order of correction.

図17は、端末ユーザが未設定のまま初回の撮影を実行した場合の画面例を示す。端末ユーザが未設定のまま初回の撮影を実行すると、本図の画面を表示させて、撮影画像に被写体として含まれる人物が端末ユーザであるか否かを設定する。図示する例は2人の人物が検出された場合であり、それぞれの顔を囲むように第1ユーザ枠611、第2ユーザ枠612を表示する。初期的には点線によるユーザ枠を表示し、「端末ユーザはどちら?」といった質問を表示していずれかの枠の選択をユーザに促す。例えばユーザが左側の第1ユーザ枠611を選択すると、第1ユーザ枠611で囲まれた人物が端末ユーザとして特定され、この人物の画像に対する図14〜16の補正処理に遷移する。このとき、補正処理の前に図13の識別情報の登録画面に遷移して、先に端末ユーザの識別情報を登録させる仕様としてもよい。あるいは「すぐに登録」「後で登録」のように端末ユーザの識別情報の登録タイミングを補正処理の前と後のどちらがよいかユーザに選択させる仕様としてもよい。補正処理の後で端末ユーザの識別情報を登録する場合は、図16において「補正完了」のボタンを操作して補正が完了したタイミングで図13における端末ユーザの識別情報登録画面に遷移してもよい。または、すべての人物について補正が完了するまで待ってから図13における端末ユーザの識別情報登録画面に遷移してもよい。端末ユーザについての補正処理が図16の画面において完了すると、その補正の設定値が端末ユーザの補正の既定値として登録される。端末ユーザの補正の既定値ないし識別情報の登録が終わると、次図の画面に遷移する。なお、ユーザがスキップボタン640を操作した場合は、端末ユーザおよび他のユーザの特定はせずに図14〜16の補正処理を一人ずつ進める。   FIG. 17 shows an example of a screen when the terminal user executes the first shooting without setting. When the terminal user performs the first shooting without setting, the screen of this figure is displayed, and it is set whether or not the person included in the captured image as the subject is the terminal user. The example shown in the figure is a case where two persons are detected, and the first user frame 611 and the second user frame 612 are displayed so as to surround each face. Initially, a dotted user frame is displayed, and a question such as “Which is the terminal user?” Is displayed to prompt the user to select one of the frames. For example, when the user selects the first user frame 611 on the left side, the person surrounded by the first user frame 611 is specified as the terminal user, and the process proceeds to the correction processing of FIGS. At this time, the specification may be changed to the identification information registration screen shown in FIG. 13 before the correction processing, and the terminal user identification information is registered first. Or it is good also as a specification which makes a user select the registration timing of a terminal user's identification information before and after a correction process like "registration immediately" "registration later". When registering the identification information of the terminal user after the correction processing, even if the correction is completed by operating the “correction completed” button in FIG. 16, the terminal user identification information registration screen in FIG. Good. Alternatively, after waiting for correction for all persons, the terminal user identification information registration screen in FIG. 13 may be displayed. When the correction process for the terminal user is completed on the screen of FIG. 16, the set value for the correction is registered as the default value for the correction of the terminal user. When registration of the terminal user's correction default value or identification information is completed, the screen transitions to the next screen. When the user operates the skip button 640, the correction process of FIGS. 14 to 16 is advanced one by one without specifying the terminal user and other users.

図18は、画像から人物を検出してユーザを特定する画面例を模式的に示す図である。左の人物はすでに端末ユーザとして特定されているため、第1ユーザ枠611の下に端末ユーザのユーザ名「Aさん」の文字を第1ユーザ名613として表示する。一方、右の人物の第2ユーザ枠612の下にはその人物の顔の特徴情報を特徴照合部523が照合して得られたユーザ名を「Bさん?」というように疑問符とともに第2ユーザ名614として表示する。ユーザが第2ユーザ枠612を選択すると第2ユーザ枠612は太枠の強調表示に変化させることで選択状態であることを示すとともに、認証処理部560は「Yes」「No」のボタン(図示せず)を表示し、ユーザが「Yes」をタッチ操作したときにパスワード欄615を表示するとともに「パスワードを入力してください」と表示する。認証処理部560は、ユーザが入力したパスワードを暗号化して管理サーバ300に送信し、そのパスワードが「Bさん」に対応づけられたパスワードと一致した旨の応答を受信したときに右の人物は「Bさん」であることを確定させ、その人物について図14〜16の補正処理へ遷移する。このように、端末ユーザとその他のユーザとで、本人確認としてパスワードなどの識別情報の入力を要求するか否かが異なる。端末ユーザに関しては被写体として含まれる可能性がつねに高いことから誤認識の可能性が低く、個人情報保護の問題も少ないためであり、逆に他のユーザに関しては誤認識のおそれや個人情報保護の観点から本人確認の要求度合いを高めている。変形例においては、パスワードの代わりに指紋情報などの生体情報を入力させて、その生体情報を暗号化して管理サーバ300に送信し、認証させる仕様としてもよい。   FIG. 18 is a diagram schematically illustrating a screen example for detecting a person from an image and specifying a user. Since the person on the left has already been specified as the terminal user, the user name “Mr. A” of the terminal user is displayed as the first user name 613 under the first user frame 611. On the other hand, under the second user frame 612 of the right person, the user name obtained by matching the feature information of the person's face by the feature matching unit 523 is a second user with a question mark such as “Mr. Displayed as name 614. When the user selects the second user frame 612, the second user frame 612 is changed to a thick frame highlight to indicate that it is in a selected state, and the authentication processing unit 560 displays “Yes” and “No” buttons (FIG. When the user touches “Yes”, the password field 615 is displayed and “Please enter the password” is displayed. The authentication processing unit 560 encrypts the password input by the user and transmits the encrypted password to the management server 300. When the response indicating that the password matches the password associated with “Mr. B” is received, The person is determined to be “Mr. B”, and the person is shifted to the correction processing of FIGS. In this way, the terminal user and other users differ in whether input of identification information such as a password is requested as identity verification. This is because the possibility of misrecognition is low because the possibility of being included as a subject is always high for terminal users, and there is little problem of personal information protection. The degree of request for identity verification is increased from the viewpoint. In a modification, biometric information such as fingerprint information may be input instead of a password, and the biometric information may be encrypted and transmitted to the management server 300 for authentication.

なお、第2ユーザ枠612のユーザに関する照合の結果、総合スコアが所定の基準値を超えるような特徴情報が複数存在した場合に、スコアの高い順に複数のユーザ候補を一人ずつ表示し得るようにしてもよい。例えば、第2ユーザ名614としてスコアが最も高い「Bさん?」を表示し、ユーザが「No」を選択した場合は次点のスコアである「Cさん?」の表示に切り替え、さらに「No」を選択すれば次点のスコアである「Dさん?」の表示に切り替えるなど、複数人にわたって次々に候補を表示し得る仕様としてもよい。そして、ユーザが「Yes」を選択してパスワードの認証が得られるか、所定の基準値を超える複数のユーザ候補のすべてを表示し終えるまで候補の提示を繰り返してもよい。また、ユーザが「No」をタッチ操作したときはそのユーザ名の表示をいったん消去させるが、あらためてユーザがユーザ枠をタッチ操作したときに、次点候補のユーザ名を表示してもよい。または「No」がタッチ操作されたときに「ユーザを再特定する」「ユーザ名を手入力する」といった選択肢を表示し、ユーザの自動特定と手動入力のいずれにすべきかをユーザに選択させてもよい。あるいは、第2実施形態として後述する方法で他のユーザを特定してもよい。ユーザが「ユーザを再特定する」を選択した場合は次点候補のユーザ名を表示する。ユーザが「ユーザ名を手入力する」を選択した場合は、ユーザ名とパスワードの入力欄を表示して、それぞれをユーザに入力させ、これらの情報を暗号化して管理サーバ300に送信し、一致するユーザのユーザ名が返送されたときにそのユーザで確定させる。変形例として、第2ユーザ枠612のユーザに関する照合の結果、総合スコアが所定の基準値を超えるような特徴情報が複数存在した場合に、その複数人のユーザ候補の選択肢を「Bさん?」「Cさん?」「Dさん?」のように一度に提示してユーザにいずれかを選択させる仕様としてもよい。ユーザの選択が確定すると、その人物について図14〜16の補正処理へ遷移する。被写体として含まれる一人または複数人のユーザの特定および補正処理が終わると初回の撮影が終了するが、ユーザが「No」を選択するなどして一部のユーザを特定しないまま補正処理に移行する場合は画面切替選択ボタン630をタッチ操作すればよい。なお、図18の例のように第1ユーザ枠611の人物が端末ユーザとして登録済みのユーザである一方で第2ユーザ枠612の人物がユーザ登録されていないような場合、第2ユーザ枠612の人物についてユーザ登録ができるようにしてもよい。例えば、第2ユーザ枠612をタッチしたときに「ユーザを再特定する」「ユーザ名を手入力する」といった選択肢以外に「ユーザを登録する」のような選択肢をさらに表示し、この選択肢をユーザが選択した場合は図13〜16の画面に遷移してユーザ登録および補正値の設定をさせてもよい。   As a result of collation for the user in the second user frame 612, when there are a plurality of feature information whose total score exceeds a predetermined reference value, a plurality of user candidates can be displayed one by one in descending order of score. May be. For example, “Mr. B?” Having the highest score is displayed as the second user name 614, and when the user selects “No”, the display is switched to the display of “Mr. C?”, Which is the score of the next point. If "" is selected, the display may be changed to the display of the next score, "Mr. D?". Then, the presentation of candidates may be repeated until the user selects “Yes” to obtain password authentication or displays all of a plurality of user candidates exceeding a predetermined reference value. Further, when the user touches “No”, the display of the user name is once deleted. However, when the user touches the user frame again, the user name of the next candidate may be displayed. Or, when “No” is touched, options such as “re-specify the user” and “manually input the user name” are displayed, and the user can select whether to specify the user automatically or manually. Also good. Alternatively, another user may be specified by a method described later as the second embodiment. When the user selects “respecify user”, the user name of the next candidate is displayed. When the user selects “manually enter user name”, the user name and password input fields are displayed, the user is prompted to enter each of them, and the information is encrypted and transmitted to the management server 300. When the user name of the user to be returned is returned, that user is confirmed. As a modification, when there are a plurality of pieces of feature information whose total score exceeds a predetermined reference value as a result of collation for the user in the second user frame 612, the option for the plurality of user candidates is “Mr. B?”. It is good also as a specification which presents at a time and makes a user select any one like "C-san?" "D-san?". When the selection of the user is confirmed, the process shifts to the correction process of FIGS. When the identification and correction process for one or more users included in the subject is completed, the first shooting is finished. However, the user selects “No” or the like, and the process proceeds to the correction process without specifying some users. In this case, the screen switching selection button 630 may be touched. If the person in the first user frame 611 is a registered user as a terminal user as in the example of FIG. 18 and the person in the second user frame 612 is not registered as a user, the second user frame 612 is used. User registration may be made for this person. For example, when the second user frame 612 is touched, an option such as “register user” is further displayed in addition to the options such as “re-specify the user” and “manually enter the user name”. May be selected, the screen may change to the screens of FIGS. 13 to 16 and user registration and correction values may be set.

ここで、遊戯用撮影装置における補正の場合、できる限り短時間に補正を処理する必要があるため、被写体として含まれるユーザ数が複数人の場合は補正内容を各自別々に設定するのが難しく、人数が多いほど設定できる補正項目を減らすことが多い。本実施形態のアプリにおいては、遊戯用撮影装置のような時間的制約が特にないことから、ユーザの人数にかかわらず各自がすべての補正項目について時間をかけて好みを設定できるように構成されている。補正の手順としては、被写体に含まれるユーザのうち所定人数ずつが順次、補正項目ごとに好みの値を設定する、または、所定人数以上であった場合に補正の手順を切り替える。本実施形態の例では、一度に一人のユーザが各補正項目に好みの値を設定でき、全ユーザについて順次設定させていく仕様とする。   Here, in the case of correction in the shooting device for play, it is necessary to process the correction in as short a time as possible, so when there are a plurality of users included as subjects, it is difficult to set the correction content individually, The larger the number of people, the fewer correction items that can be set. In the application of the present embodiment, since there is no particular time restriction like the shooting device for games, it is configured so that each person can set his / her preference for all correction items regardless of the number of users. Yes. As a correction procedure, a predetermined number of users included in the subject sequentially set a favorite value for each correction item, or the correction procedure is switched when the number of users is equal to or greater than the predetermined number. In the example of this embodiment, it is assumed that one user can set a desired value for each correction item at a time, and that all users are set sequentially.

2回目以降の撮影において、特に端末ユーザ設定がすでに登録されている場合には、画像の撮影直後に自動的にユーザが特定されて図18の画面が表示される。また、他のユーザとしてすでにパスワードなどの識別情報によって認証されている場合には識別情報の再入力をさせることなくユーザを確定させ、一人一人について図14〜16の補正処理を実行する。このとき、端末ユーザおよび他のユーザについてそれぞれの補正の既定値を読み込むことができるため、あらためてユーザが補正の設定値を入力または変更することなく、自動的に各種の補正処理が実行されるようにしてもよい。あるいは、補正処理までは自動実行せず、既定値の設定までを自動的に実行する仕様としてもよい。その場合、補正の画面では最初から既定値に基づく選択がなされた状態となる。例えば、図14においては、端末ユーザである「Aさん」の補正の既定値である「かわいい」のボタンが初期的に選択状態となっており、太枠で囲まれて色が変わるといった強調表示がなされ、選択状態であることが外観で示される。また、画像枠610に表示される顔画像にもそのユーザの補正既定値としてあらかじめ登録された設定値に基づく補正がすでに施されている。ユーザが他のボタン、例えば「キレイ」や「ナチュラル」をタッチ操作すると、そのタッチしたボタンに強調表示対象が切り替わり、画像枠610の顔画像に施される補正も、ユーザにより選択されたテイストに対応する補正設定値に基づく補正に切り替わる。図15においては、初期的に「Aさん」の既定値である「目3」「輪郭1」「小鼻1」が選択状態となって強調表示される。画像枠610に表示される顔画像にも既定値「目3」「輪郭1」「小鼻1」に基づく補正がすでに施されている。ユーザが他のボタンをタッチ操作すると、そのタッチしたボタンに強調表示対象が切り替わり、画像枠610の顔画像に施される補正も、ユーザにより選択された項目に対応する補正設定値に基づく補正に切り替わる。図16においては、初期的に「Aさん」の既定値である「美白」が選択状態となって強調表示される。画像枠610に表示される顔画像にも既定値「美白」に基づく補正がすでに施されている。ユーザが他のボタンをタッチ操作すると、そのタッチしたボタンに強調表示対象が切り替わり、画像枠610の顔画像に施される補正も、ユーザにより選択された項目に対応する補正設定値に基づく補正に切り替わる。   In the second and subsequent shootings, particularly when the terminal user setting has already been registered, the user is automatically specified immediately after shooting the image, and the screen of FIG. 18 is displayed. If another user has already been authenticated by identification information such as a password, the user is determined without re-entering the identification information, and the correction processing of FIGS. 14 to 16 is executed for each person. At this time, since the default values of the respective corrections can be read for the terminal user and other users, various correction processes are automatically executed without the user inputting or changing the correction setting values again. It may be. Or it is good also as a specification which does not automatically perform to a correction process, but performs to the setting of a default value automatically. In this case, the correction screen is selected from the beginning based on the default value. For example, in FIG. 14, an emphasis display is made such that the “cute” button, which is the default value for the correction of the terminal user “Mr. A”, is initially selected and the color changes with a thick frame. And the appearance is shown to be selected. In addition, the face image displayed in the image frame 610 has already been corrected based on a setting value registered in advance as the user's correction default value. When the user touches another button, for example, “Beautiful” or “Natural”, the highlighted object is switched to the touched button, and the correction applied to the face image in the image frame 610 is also applied to the taste selected by the user. Switch to the correction based on the corresponding correction setting value. In FIG. 15, “Eye 3”, “Outline 1”, and “Nose 1”, which are default values of “Mr. A”, are initially selected and highlighted. The face image displayed in the image frame 610 has also been corrected based on the default values “Eye 3”, “Outline 1”, and “Nose 1”. When the user touches another button, the highlighted object is switched to the touched button, and the correction applied to the face image in the image frame 610 is also corrected based on the correction setting value corresponding to the item selected by the user. Switch. In FIG. 16, “whitening”, which is the default value of “Mr. A”, is initially selected and highlighted. The face image displayed in the image frame 610 has already been corrected based on the default value “whitening”. When the user touches another button, the highlighted object is switched to the touched button, and the correction applied to the face image in the image frame 610 is also corrected based on the correction setting value corresponding to the item selected by the user. Switch.

(第2実施形態)
本実施形態においては、ユーザの顔の特徴情報、補正の既定値、識別情報等の情報をネットワーク200を介さずに端末装置500間で送受信する点で第1実施形態と相違する。すなわち、第1実施形態では端末ユーザ以外のユーザについては顔の特徴情報、補正の既定値、識別情報等をネットワーク200を介して管理サーバ300から取得したが、本実施形態ではこれらの情報を近距離無線技術を用いて他の端末装置500から取得する。以下、第1実施形態との相違点を中心に説明し、共通点の説明を省略する。
(Second Embodiment)
This embodiment is different from the first embodiment in that information such as user face feature information, correction default values, and identification information is transmitted and received between the terminal devices 500 without using the network 200. That is, in the first embodiment, facial feature information, correction default values, identification information, and the like are acquired from the management server 300 via the network 200 for users other than the terminal user. Obtained from another terminal device 500 using the distance wireless technology. Hereinafter, the description will focus on differences from the first embodiment, and description of common points will be omitted.

図19は、第2実施形態におけるユーザ特定画面の例を模式的に示す図である。まず、端末ユーザについてはその特徴情報との照合によって自動的に特定され、第1ユーザ名613として「Aさん?」と表示する点は第1実施形態と同様であるが、他のユーザに関しては最初の時点では特徴情報を取得しておらずユーザ特定は行われない。ユーザ特定がなされていない第2ユーザ枠612をユーザがタッチ操作したときに、「近くを検索」と書かれた第1検索ボタン642と、「振って検索」と書かれた第2検索ボタン643が表示される。   FIG. 19 is a diagram schematically illustrating an example of a user specifying screen in the second embodiment. First, the terminal user is automatically identified by collating with the feature information, and the point of displaying “Mr. A?” As the first user name 613 is the same as in the first embodiment. At the first time, feature information is not acquired and user identification is not performed. When the user performs a touch operation on the second user frame 612 in which the user is not specified, a first search button 642 written “search near” and a second search button 643 written “search by shaking” Is displayed.

「近くを検索」をユーザが選択した場合、近距離無線の通信範囲において同じアプリをインストールした端末を検出してそのユーザ名を選択候補として表示し、いずれかを選択するとその端末側のアプリに「ユーザ情報を送信してよいですか?」と表示する。その端末ユーザが同意すると、アプリに記憶されたユーザの特徴情報、補正の既定値、識別情報が送信され、元のアプリ側で受け取ることができる。   When the user selects “Find Near”, a terminal installed with the same application is detected in the short-range wireless communication range, and the user name is displayed as a selection candidate. “Can I send user information?” Is displayed. If the terminal user agrees, the user's characteristic information, correction default value, and identification information stored in the application are transmitted and can be received on the original application side.

「振って検索」をユーザが選択した場合、「端末を振ってください」と表示する。ユーザが端末を振るなどのジェスチャーを行って振動を加えると、その振動を加速度センサによって検知した端末は位置取得部583によって位置情報を取得して識別情報とともに管理サーバ300へ送信する。このとき、ほぼ同時、または前後間もないタイミングで他のユーザの端末にも振動を加えると、その端末側のアプリも同様に位置取得部583によって位置情報を取得して識別情報とともに管理サーバ300へ送信する。管理サーバ300では、近似する時間に近似する位置情報を送信してきた複数の端末のそれぞれに、相互の識別情報を送信して両者の端末同士が近距離無線通信を用いた直接接続を確立する。例えば、端末Aには端末Bの識別情報を送信し、端末Bには端末Aの識別情報を送信し、端末Aと端末Bが近距離無線通信で接続される。この場合の識別情報には、端末のMACアドレスが含まれていてもよい。「Bさん」の識別情報を受け取った、図示する「Aさん」の端末では第2ユーザ枠612の下方に「Bさん」の第2ユーザ名614を表示し、「Bさん」の端末から特徴情報や補正の既定値などの情報を近距離無線通信による受信する。これにより、最初にタッチ操作された第2ユーザ枠612の人物が「Bさん」と特定され、その顔画像範囲には「Bさん」の補正既定値に基づく補正が次以降の画面にて実行される。   When the user selects “Search by shaking”, “Please shake your device” is displayed. When the user performs a gesture such as shaking the terminal to apply vibration, the terminal that has detected the vibration by the acceleration sensor acquires position information by the position acquisition unit 583 and transmits the position information to the management server 300 together with the identification information. At this time, if vibration is applied to another user's terminal at almost the same time or just before and after, the application on the terminal side similarly acquires the position information by the position acquisition unit 583 and the management server 300 together with the identification information. Send to. In the management server 300, mutual identification information is transmitted to each of a plurality of terminals that have transmitted location information that approximates the approximate time, and both terminals establish a direct connection using short-range wireless communication. For example, the identification information of terminal B is transmitted to terminal A, the identification information of terminal A is transmitted to terminal B, and terminal A and terminal B are connected by short-range wireless communication. The identification information in this case may include the MAC address of the terminal. Upon receiving the identification information of “Mr. B”, the terminal of “Mr. A” shown in the figure displays the second user name 614 of “Mr. B” below the second user frame 612, and features from the terminal of “Mr. B”. Information such as information and default values for correction is received by short-range wireless communication. As a result, the person in the second user frame 612 that is first touch-operated is identified as “Mr. B”, and correction based on the correction default value of “Mr. B” is performed on the subsequent screens in the face image range. Is done.

以上のように、「近くを検索」「振って検索」を利用してユーザを特定する場合、そのユーザの端末が近くにあって特定内容が正しい可能性が高いことから、第1実施形態と異なりパスワード等の識別情報の入力は要求しない。ただし、変形例においては、より確実性を高めるためにパスワード等の識別情報をさらに入力させる要求をする構成としてもよい。別の変形例においては、近くにある端末同士を認識するために「近くを検索」「振って検索」を利用するだけで、補正の既定値は管理サーバ300から取得する構成としてもよいし、無線LANのアドホックモードで接続して直接受信する構成としてもよい。また、第2実施形態においては、端末ユーザ以外のユーザについては「近くを検索」「振って検索」によってユーザを特定し、顔の特徴情報に基づく照合を用いないが、特定した他のユーザの特徴情報を取得してデータ記憶部550に記憶させておく。その上で、2枚目以降の撮影画像におけるユーザ特定では「近くを検索」「振って検索」を用いることなく、第1実施形態と同様に特徴情報に基づく照合によって他のユーザを特定することができる。ただし、変形例においては、他のユーザの特徴情報を取得しない構成とし、2枚目以降の撮影画像においても1枚目と同様に「近くを検索」「振って検索」によりユーザを特定する構成としてもよい。   As described above, when a user is specified using “search near” and “search by shaking”, since the user's terminal is close and the specific content is likely to be correct, the first embodiment and Differently, input of identification information such as a password is not required. However, in a modified example, it may be configured to request further input of identification information such as a password in order to further increase the certainty. In another modified example, the correction default value may be acquired from the management server 300 by simply using “search near” and “waving search” in order to recognize nearby terminals. It is good also as a structure which connects in the ad hoc mode of wireless LAN, and receives directly. In the second embodiment, for users other than the terminal user, the user is specified by “search near” and “search by shaking”, and collation based on facial feature information is not used. The feature information is acquired and stored in the data storage unit 550. In addition, in specifying the user in the second and subsequent shot images, other users are specified by collation based on feature information as in the first embodiment, without using “search near” and “search by shaking”. Can do. However, in the modification, the configuration is such that the feature information of other users is not acquired, and the user is identified by “search near” and “search by shaking” in the second and subsequent captured images as in the first image. It is good.

別の変形例においては、二次元コードを利用したユーザ特定方法をさらに設けてもよい。アプリに自分の識別情報を二次元コード化して表示する機能を設け、表示した二次元コードを他の端末のカメラでスキャンすることで識別情報を伝達することができる。   In another modification, a user specifying method using a two-dimensional code may be further provided. An application can be provided with a function for displaying its identification information in a two-dimensional code, and the identification information can be transmitted by scanning the displayed two-dimensional code with a camera of another terminal.

以上、本発明の実施の形態に係る画像処理システム600について説明した。本発明は上記実施の形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。   The image processing system 600 according to the embodiment of the present invention has been described above. The present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention.

上記の各実施形態においては、端末ユーザの特徴情報、補正の既定値、識別情報は端末内のデータ記憶部に記憶させる構成を説明した。変形例においては、端末ユーザの特徴情報、補正の既定値、識別情報を端末内に記憶させずに、他のユーザと同様に管理サーバ300から取得して他のユーザと同様に識別情報による認証を経てユーザを特定する方式としてもよい。   In each of the above embodiments, the configuration in which the feature information of the terminal user, the correction default value, and the identification information are stored in the data storage unit in the terminal has been described. In the modified example, the feature information of the terminal user, the default value of correction, and the identification information are not stored in the terminal, but are acquired from the management server 300 in the same manner as other users and authenticated by the identification information in the same manner as other users. It is good also as a system which specifies a user through.

上記の各実施形態においては、ユーザの顔に補正を加える構成を説明したが、実際にはユーザは顔写真だけでなく、全身写真をこのアプリを使用して撮影することもできる。そこで、変形例においては、顔の補正だけでなく、全身のスタイル補正、例えば脚の長さ、二の腕の細さ、腰のくびれの細さ等を補正する仕様としてもよい。その場合、図14〜19の画像枠610にはユーザの全身撮影画像を表示し、その画像に基づいてユーザの選択や設定をし、その画像に対して補正を実行する。   In each of the above-described embodiments, the configuration for correcting the user's face has been described. However, in practice, the user can take not only a face photo but also a whole body photo using this application. Therefore, in the modified example, not only the face correction but also the whole body style correction, for example, the length of the leg, the narrowness of the second arm, the narrowness of the waist, and the like may be used. In this case, the whole body captured image of the user is displayed in the image frame 610 of FIGS. 14 to 19, the user selects and sets based on the image, and correction is performed on the image.

200 ネットワーク、 310 データ記憶部、 320 通信処理部、 330 識別処理部、 510 撮像部、 520 識別処理部、 530 画像取得部、 540 補正処理部、 550 データ記憶部、 571 表示制御部、 580 通信処理部。   200 network, 310 data storage unit, 320 communication processing unit, 330 identification processing unit, 510 imaging unit, 520 identification processing unit, 530 image acquisition unit, 540 correction processing unit, 550 data storage unit, 571 display control unit, 580 communication processing Department.

Claims (1)

ユーザを被写体に含む像を撮像する撮像部と、
前記撮像部により撮像されるユーザの撮影画像を取得する画像取得部と、
前記撮影画像における人物検出および人物認証により被写体に含まれるユーザを特定する識別処理部と、
前記撮影画像に対する補正を実行する補正処理部と、
前記撮影画像を画面に表示させる表示制御部と、
を備え、
前記補正処理部は、複数人のユーザを被写体に含む撮影画像に対する補正を実行する場合、ユーザごとにあらかじめ記憶されている補正の既定値を前記識別処理部により特定されたユーザごとに読み出し、その読み出した既定値に応じた補正を前記複数人のユーザのそれぞれの画像範囲に実行し得ることを特徴とする画像処理装置。
An imaging unit that captures an image including a user in a subject;
An image acquisition unit for acquiring a captured image of a user imaged by the imaging unit;
An identification processing unit that identifies a user included in the subject by person detection and person authentication in the captured image;
A correction processing unit for performing correction on the captured image;
A display control unit for displaying the captured image on a screen;
With
When the correction processing unit executes correction on a captured image including a plurality of users as subjects, the correction processing unit reads a preset correction value stored in advance for each user for each user specified by the identification processing unit, An image processing apparatus, wherein correction according to the read default value can be performed on each image range of the plurality of users.
JP2016101823A 2016-05-20 2016-05-20 Image processing system Pending JP2017208780A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016101823A JP2017208780A (en) 2016-05-20 2016-05-20 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016101823A JP2017208780A (en) 2016-05-20 2016-05-20 Image processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020132486A Division JP2020188507A (en) 2020-08-04 2020-08-04 Game image capturing system and image processing system

Publications (1)

Publication Number Publication Date
JP2017208780A true JP2017208780A (en) 2017-11-24

Family

ID=60416491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016101823A Pending JP2017208780A (en) 2016-05-20 2016-05-20 Image processing system

Country Status (1)

Country Link
JP (1) JP2017208780A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124231A (en) * 2007-11-12 2009-06-04 Oki Electric Ind Co Ltd Image correction device, and image correction method
JP2015185878A (en) * 2014-03-20 2015-10-22 フリュー株式会社 Information providing device, image analysis system, server, information providing device control method, server control method, image analysis method, control program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124231A (en) * 2007-11-12 2009-06-04 Oki Electric Ind Co Ltd Image correction device, and image correction method
JP2015185878A (en) * 2014-03-20 2015-10-22 フリュー株式会社 Information providing device, image analysis system, server, information providing device control method, server control method, image analysis method, control program, and recording medium

Similar Documents

Publication Publication Date Title
JP4760172B2 (en) Image processing apparatus, user ID storage terminal apparatus, photography apparatus, image processing terminal apparatus, image processing method, and image processing system
JP2006259931A (en) Face authentication apparatus and its control method, electronic device equipped with face authentication apparatus, face authentication apparatus control program and recording medium recorded with the program
JP5464197B2 (en) Information management system, information management method, photo sticker creation device, and server
JP6307964B2 (en) Management server, photo sticker creating apparatus, image management method, control program, and recording medium
JP2015179221A (en) Picture-taking editing device, server, control program and recording medium
US20160156854A1 (en) Image processing method and apparatus, and electronic device
JP2020188507A (en) Game image capturing system and image processing system
JP2019159647A (en) Program, network system, and image determination method
JP2009015518A (en) Eye image photographing device and authentication device
JP2017120540A (en) Character editing device and program
JP4952410B2 (en) Address transmitting apparatus and control method therefor, mail transmitting system, address transmitting apparatus control program, and recording medium
JP4581872B2 (en) Image providing apparatus, image providing system, image providing method, image providing apparatus control program, and recording medium recording the program
JP6620572B2 (en) Game shooting apparatus and image processing method
JP7185130B2 (en) Management server, mobile terminal, management server control method, mobile terminal control method, control program, and recording medium
JP5799381B1 (en) Photography game machine and its control program
CN106776874A (en) User's colonization method and device
JP2007052733A (en) Face image determination device, and face image determination method
JP2017208780A (en) Image processing system
CN109426758A (en) Acquisition method and device, the computer readable storage medium of skin characteristic information
JP2015154218A (en) Server system, and program
WO2005022462A1 (en) Electronic device having user authentication function
JP6254400B2 (en) Photo sticker dispensing device
JP2016206465A (en) Photography amusement device
JP6569767B2 (en) Management server
JP6311383B2 (en) PHOTOGRAPHIC EDITING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE CONTROL PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200616