JP4581872B2 - Image providing apparatus, image providing system, image providing method, image providing apparatus control program, and recording medium recording the program - Google Patents

Image providing apparatus, image providing system, image providing method, image providing apparatus control program, and recording medium recording the program Download PDF

Info

Publication number
JP4581872B2
JP4581872B2 JP2005194145A JP2005194145A JP4581872B2 JP 4581872 B2 JP4581872 B2 JP 4581872B2 JP 2005194145 A JP2005194145 A JP 2005194145A JP 2005194145 A JP2005194145 A JP 2005194145A JP 4581872 B2 JP4581872 B2 JP 4581872B2
Authority
JP
Japan
Prior art keywords
image
face
unit
communication terminal
image providing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005194145A
Other languages
Japanese (ja)
Other versions
JP2007013800A (en
Inventor
昭博 青井
崇雅 西郡
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2005194145A priority Critical patent/JP4581872B2/en
Publication of JP2007013800A publication Critical patent/JP2007013800A/en
Application granted granted Critical
Publication of JP4581872B2 publication Critical patent/JP4581872B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、通信端末に画像を提供する画像提供装置、画像提供システム、画像提供方法、画像提供装置制御プログラム、および該プログラムを記録した記録媒体に関するものである。   The present invention relates to an image providing apparatus that provides an image to a communication terminal, an image providing system, an image providing method, an image providing apparatus control program, and a recording medium on which the program is recorded.

従来、例えばゲームセンターなどの娯楽施設に設置されている、撮影した写真をシールとして出力する写真シール機(写真撮影プリント装置)では、撮影から画像編集(落書き)そして印刷に至るまで一連の工程を1つの筐体で行ってきた。写真シール機は、2つの筐体で構成されているものもあるが、実質的には1つの筐体として考えられ、写真シール機が登場した当初は、1つの場所で上記の工程が全て行われていた。そのため、ユーザの回転率が非常に悪く、人気のある機種の場合は何分も待ち時間が発生していた。   Conventionally, in a photo sticker machine (photographing and printing device) that is installed in an entertainment facility such as a game center and outputs a photograph taken as a sticker, a series of processes from photographing to image editing (graffiti) and printing are performed. I went in one case. Although some photo sealing machines consist of two housings, they are essentially considered as one housing, and when the photo sealing machine first appeared, all of the above steps were performed in one place. It was broken. For this reason, the user's turnover rate is very bad, and a waiting time has occurred for a number of popular models.

しかし、最近では、その待ち時間を解消するための工夫が写真シール機に盛り込まれ、上記の工程を2つ以上の複数の場所に分けて行う、いわゆる「2重接客」や「3重接客」と呼ばれる機種が一般的になり、回転率を向上させている。また、上記の工程に加え、さらに、撮影待ちの時間に行う「事前接客」や、シール紙の印刷待ちの時間に行う「事後接客」などの工程を含む機種もある。   However, recently, a device for eliminating the waiting time has been incorporated into the photo sticker machine, and the above process is divided into two or more locations, so-called “double customer service” and “triple customer service”. The model called is becoming common, and the rotation rate is improved. In addition to the above steps, there are also models that include processes such as “pre-service” that is performed during the waiting time for photographing and “post-service” that is performed during the waiting time for printing the sticker paper.

また、落書きを写真シール機から着脱可能な落書きパネルにて行い、落書き後の画像を写真シール機本体に転送するものもある(例えば、特許文献1参照)。また、写真シール機にて撮影した写真画像を端末に転送するシステムもある(例えば、特許文献2参照)。また、撮影した画像データ等をデータベースに保持し、当該画像データをネットワークを介して利用可能な画像管理システムもある(例えば、特許文献3参照)。   In addition, there is also a technique in which graffiti is performed on a graffiti panel that can be attached to and detached from a photo sticker and the image after the graffiti is transferred to the main body of the photo sticker (for example, see Patent Document 1). There is also a system for transferring a photographic image taken with a photo sticker to a terminal (for example, see Patent Document 2). There is also an image management system in which captured image data and the like are stored in a database and the image data can be used via a network (for example, see Patent Document 3).

一方、デジタルカメラ等の撮影手段を有する携帯電話機(カメラ付き携帯電話機)等のモバイル機器の機能向上と普及に伴い、単に被写体を撮影するだけでなく、写真シール機において実現されているような、画像編集機能を有するものも登場している。さらに、カメラ付き携帯電話機で撮影した画像や上記編集機能を用いて編集した画像を、インターネットや赤外線を利用して他の携帯電話機に送信できるようになっている。携帯電話機を用いて画像をやり取りする場合、例えば、送信側がメールに直接添付ファイルとして添付して画像を送信すると、受信側はそれを受信することができる。また、送信側がサーバに画像を保存し、保存先のURLをメール等で送信し、受信側はその保存先にアクセスすると画像を閲覧できる、というようになっている(例えば、特許文献4参照)。
特開2004−362046号公報(2004年12月24日公開) 特開2001−245290号公報(2001年9月7日公開) 特開2004−206345号公報(2004年7月22日公開) 特開2004−70614号公報(2004年3月4日公開)
On the other hand, with the improvement and popularization of mobile devices such as mobile phones (camera mobile phones) having photographing means such as digital cameras, not only photographing subjects but also being realized in photo stickers, Some have an image editing function. Furthermore, an image taken with a camera-equipped cellular phone or an image edited using the editing function can be transmitted to another cellular phone using the Internet or infrared rays. When exchanging images using a mobile phone, for example, when the transmitting side attaches an image directly to an email as an attached file and transmits the image, the receiving side can receive the image. In addition, the transmission side stores the image in the server, transmits the URL of the storage destination by e-mail or the like, and the reception side can view the image by accessing the storage destination (for example, see Patent Document 4). .
JP 2004-362046 A (released on December 24, 2004) JP 2001-245290 A (published September 7, 2001) JP 2004-206345 A (released on July 22, 2004) JP 2004-70614 A (published March 4, 2004)

写真シール機から携帯電話機などの通信端末に撮影画像を送信する場合、従来は、特にユーザ認証を行わないまま通信端末に送信していた。このため、例えば、複数人が入れ替わりながら撮影を行う場合、撮影画像に写っていない利用者の通信端末に上記撮影画像を送信することが起こり得る。このことは、個人情報の保護の観点から好ましくない。特に、複数人で撮影した場合には、複数の通信端末に送信される場合が多いので注意が必要である。   Conventionally, when a photographed image is transmitted from a photo sticker to a communication terminal such as a mobile phone, the image is transmitted to the communication terminal without performing user authentication. For this reason, for example, when shooting is performed while a plurality of people are switched, the shot image may be transmitted to a communication terminal of a user who is not shown in the shot image. This is not preferable from the viewpoint of protecting personal information. In particular, when photographing by a plurality of people, attention is necessary because they are often transmitted to a plurality of communication terminals.

一方、ユーザ認証を行うために通信端末ごとにIDおよびパスワードを設定することが考えられる。しかしながら、この場合、通信端末ごとのIDおよびパスワードを写真シール機にも入力しておく必要があり、煩雑となる。   On the other hand, it is conceivable to set an ID and a password for each communication terminal in order to perform user authentication. However, in this case, it is necessary to input the ID and password for each communication terminal to the photo sticker machine, which is complicated.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、通信端末に撮影画像を送信する場合のユーザ認証を簡便に行うことができる画像提供装置などを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image providing apparatus and the like that can easily perform user authentication when a captured image is transmitted to a communication terminal. .

本発明に係る画像提供装置は、上記課題を解決するために、通信端末に画像を提供する画像提供装置であって、撮影画像を取得する撮影画像取得手段と、前記撮影画像の中から顔の部分の画像である顔画像を認識する顔認識手段と、前記顔画像に基づいて、顔の特徴点を抽出する特徴点抽出手段と、前記顔の特徴点に基づいて顔画像を識別するデータである顔IDを作成する顔ID作成手段と、前記通信端末から前記顔IDを受信する顔ID受信手段と、受信した顔IDと、前記顔ID作成手段が作成した顔IDにより認証する顔ID認証手段と、認証に成功した場合、受信した顔IDに対応する撮影画像を前記通信端末に送出する画像送出手段とを備えることを特徴としている。   In order to solve the above problems, an image providing apparatus according to the present invention is an image providing apparatus that provides an image to a communication terminal, and includes a photographed image obtaining unit that obtains a photographed image, and a face of the photographed image. A face recognition unit for recognizing a face image as a partial image, a feature point extraction unit for extracting a facial feature point based on the facial image, and data for identifying the facial image based on the facial feature point. Face ID creating means for creating a face ID, face ID receiving means for receiving the face ID from the communication terminal, received face ID, and face ID authentication for authenticating with the face ID created by the face ID creating means And an image sending means for sending a photographed image corresponding to the received face ID to the communication terminal when authentication is successful.

上記の構成によると、画像提供装置は、撮影画像を取得し、取得した撮影画像の中から顔画像を認識し、認識した顔画像に基づいて、顔の特徴点を抽出し、抽出した顔の特徴点に基づいて顔IDを作成し、作成した顔IDを利用して、通信端末から受信した顔IDの認証を行い、認証に成功した場合、受信した顔IDに対応する撮影画像を通信端末に送出する。したがって、画像提供装置は、ユーザ認証に利用する顔IDを撮影画像から作成するので、利用者ごとのIDを利用者が画像提供装置に予め入力する必要が無い。その結果、通信端末に撮影画像を送信する場合のユーザ認証を簡便に行うことができる。   According to the above configuration, the image providing device acquires a captured image, recognizes a face image from the acquired captured image, extracts facial feature points based on the recognized face image, and extracts the extracted facial features. A face ID is created based on the feature points, and the face ID received from the communication terminal is authenticated using the created face ID. If the authentication is successful, a captured image corresponding to the received face ID is displayed on the communication terminal. To send. Therefore, since the image providing apparatus creates a face ID used for user authentication from the captured image, it is not necessary for the user to input an ID for each user in the image providing apparatus in advance. As a result, user authentication can be easily performed when a captured image is transmitted to the communication terminal.

なお、撮影画像取得手段は、カメラなどの撮影手段から取得してもよいし、外部記録媒体から再生手段を介して取得してもよいし、外部装置から通信手段を介して取得してもよい。   The captured image acquisition means may be acquired from imaging means such as a camera, may be acquired from an external recording medium via playback means, or may be acquired from an external device via communication means. .

本発明に係る画像提供装置では、前記顔の特徴点に基づいて顔の類型を特定する類型特定手段をさらに備えており、前記顔ID作成手段は、前記顔の類型に基づいて前記顔IDを作成してもよい。ここで、顔の類型の例としては、顔の各器官の形状および寸法が挙げられる。   The image providing apparatus according to the present invention further includes a type specifying unit that specifies a type of a face based on the feature point of the face, and the face ID creating unit determines the face ID based on the type of the face. You may create it. Here, examples of the face type include the shape and size of each organ of the face.

一般に、顔の特徴点は情報量が多い。このため、顔の特徴点に基づいて作成された顔IDは、データ量が多くなるので、ユーザの識別能力が高い一方、データ処理に負担がかかる。一方、顔の類型は、顔の特徴点を簡略化したものであるため、情報量が少ない。このため、顔の類型に基づいて作成された顔IDは、データ量が少なくなるので、ユーザの識別能力が低くなる一方、データ処理を高速化できる。したがって、識別すべきユーザの人数に応じて、顔の特徴点および類型の何れを用いるかを選択すればよい。   In general, facial feature points have a large amount of information. For this reason, the face ID created based on the feature points of the face increases the amount of data, so that the user's identification ability is high, but the data processing is burdened. On the other hand, the type of face has a small amount of information because it is a simplified feature point of the face. For this reason, since the face ID created based on the face type has a small amount of data, the user's identification ability is lowered, and the data processing can be speeded up. Therefore, it is only necessary to select which of the facial feature points and the type is used according to the number of users to be identified.

本発明に係る画像提供装置では、前記撮影画像取得手段が取得した撮影画像に関して、前記顔ID作成手段が作成した顔IDに対応する顔画像以外の顔画像の領域を画像編集不可領域としたマスク画像を作成するマスク画像作成手段をさらに備えており、前記画像送出手段は、受信した顔IDに対応する撮影画像およびマスク画像を前記通信端末に送出することが好ましい。この場合、通信端末の利用者の顔画像以外の顔画像に対しては、マスク画像により落書き等の画像編集ができないので、個人情報の改竄を防止できる。   In the image providing apparatus according to the present invention, with respect to the photographed image acquired by the photographed image acquisition unit, a mask of a face image region other than the face image corresponding to the face ID created by the face ID creation unit is set as an image edit disabled region. It is preferable that the apparatus further includes a mask image creating unit that creates an image, and the image sending unit sends a photographed image and a mask image corresponding to the received face ID to the communication terminal. In this case, since the face image other than the face image of the user of the communication terminal cannot be edited with graffiti or the like by the mask image, falsification of personal information can be prevented.

なお、上記構成の画像提供装置と、該画像提供装置と通信可能な1または複数の通信端末とを備える画像提供システムであっても、上述の作用効果を奏することができる。   In addition, even the image providing system including the image providing apparatus having the above configuration and one or a plurality of communication terminals capable of communicating with the image providing apparatus can achieve the above-described effects.

本発明に係る画像提供システムでは、前記通信端末は、顔IDを取得する顔ID取得手段であって、取得した顔IDを画像提供装置に送出する顔ID取得手段を備えることが好ましい。   In the image providing system according to the present invention, it is preferable that the communication terminal includes a face ID acquisition unit that acquires a face ID, and transmits the acquired face ID to the image providing apparatus.

なお、画像提供装置が通信端末に顔IDを要求して取得してもよいし、通信端末が所望のタイミングで画像提供装置に送信してもよい。また、顔ID取得手段は、利用者からの各種情報の入力を受け付けるタッチパネルなどの入力手段から顔IDを取得してもよい。また、顔ID取得手段は、入力手段を介して取得した顔IDを記憶手段に記憶しておき、適当なタイミングで記憶手段から顔IDを取得してもよい。この場合、利用者が顔IDを1回入力すればよく、以後は、画像提供装置が通信端末を自動検索して、顔IDを自動的に取得することができる。   Note that the image providing apparatus may request and acquire the face ID from the communication terminal, or the communication terminal may transmit to the image providing apparatus at a desired timing. Further, the face ID acquisition means may acquire the face ID from an input means such as a touch panel that accepts input of various information from the user. Further, the face ID acquisition unit may store the face ID acquired via the input unit in the storage unit, and acquire the face ID from the storage unit at an appropriate timing. In this case, the user only needs to input the face ID once, and thereafter, the image providing apparatus can automatically search the communication terminal and automatically acquire the face ID.

本発明に係る画像提供システムでは、前記画像提供装置および前記通信端末は、近距離無線通信によりデータ通信を行うことが好ましい。この場合、画像提供装置と通信端末とをケーブル接続する必要がないので、通信端末の利便性が向上する。   In the image providing system according to the present invention, it is preferable that the image providing apparatus and the communication terminal perform data communication by short-range wireless communication. In this case, since it is not necessary to connect the image providing apparatus and the communication terminal with a cable, the convenience of the communication terminal is improved.

ここで、近距離無線通信としては、IEEE(Institute of Electrical and Electronics Engineers)802.11a,11b,11gなどに準拠した無線LAN(Local Area Network)、Bluetooth(登録商標)、IrDA(Infrared Data Association)などの赤外線通信などが挙げられる。   Here, as short-range wireless communication, wireless LAN (Local Area Network), Bluetooth (registered trademark), IrDA (Infrared Data Association) conforming to IEEE (Institute of Electrical and Electronics Engineers) 802.11a, 11b, 11g, etc. And infrared communication.

本発明に係る画像提供システムでは、前記通信端末は、前記画像提供装置から取得した撮影画像を編集する画像編集手段を備えることが好ましい。この場合、通信端末にて撮影画像の編集を行うことができる。   In the image providing system according to the present invention, it is preferable that the communication terminal includes an image editing unit that edits a captured image acquired from the image providing apparatus. In this case, the captured image can be edited on the communication terminal.

本発明に係る画像提供システムでは、前記通信端末として、1つの親機と、1または複数の子機とを備えており、前記親機は、前記子機の画像編集手段が編集した編集画像を収集する画像収集手段と、該画像収集手段が収集した編集画像を前記子機に送出する画像送出手段と、前記子機から前記編集画像に対する投票情報を取得し、取得した投票情報に基づいて編集画像を決定する画像決定手段とを備えることが好ましい。   In the image providing system according to the present invention, the communication terminal includes one master unit and one or more slave units, and the master unit receives an edited image edited by the image editing unit of the slave unit. Image collecting means for collecting, image sending means for sending edited images collected by the image collecting means to the slave unit, voting information for the edited image is acquired from the slave unit, and editing is performed based on the acquired voting information It is preferable to include image determining means for determining an image.

この場合、親機が子機から編集画像を収集し、子機からの投票によって編集画像を決定できるので、利用者の多数が最適と判断した編集画像を選択することができる。また、投票による編集画像の決定という遊戯を提供するので、利用者の娯楽性を高めることができる。なお、選択された編集画像は、例えばプリンタや写真シール機で印刷してもよい。   In this case, since the parent device collects the edited images from the child device and can determine the edited image by voting from the child device, it is possible to select an edited image that many users have determined to be optimal. In addition, since the game of determining the edited image by voting is provided, the entertainment of the user can be enhanced. The selected edited image may be printed by, for example, a printer or a photo sticker.

本発明に係る画像提供装置の画像提供方法は、上記課題を解決するために、通信端末に画像を提供する画像提供装置における画像提供方法であって、画像提供装置は、撮影画像を取得し、取得した撮影画像の中から顔の部分の画像である顔画像を認識し、認識した顔画像に基づいて、顔の特徴点を抽出し、抽出した顔の特徴点に基づいて顔画像を識別するデータである顔IDを作成し、作成した顔IDにより、前記通信端末から受信した顔IDを認証し、認証に成功した場合、受信した顔IDに対応する撮影画像を前記通信端末に送出することを特徴としている。   An image providing method of an image providing apparatus according to the present invention is an image providing method in an image providing apparatus that provides an image to a communication terminal in order to solve the above-described problem. The image providing apparatus acquires a captured image, Recognize a face image, which is an image of a face portion, from the acquired captured image, extract a facial feature point based on the recognized facial image, and identify the facial image based on the extracted facial feature point A face ID that is data is created, and the face ID received from the communication terminal is authenticated by the created face ID. If the authentication is successful, a captured image corresponding to the received face ID is sent to the communication terminal. It is characterized by.

上記の方法によると、画像提供装置は、撮影画像を取得し、取得した撮影画像の中から顔画像を認識し、認識した顔画像に基づいて、顔の特徴点を抽出し、抽出した顔の特徴点に基づいて顔IDを作成し、作成した顔IDを利用して、通信端末から受信した顔IDの認証を行い、認証に成功した場合、受信した顔IDに対応する撮影画像を通信端末に送出する。したがって、画像提供装置は、ユーザ認証に利用する顔IDを撮影画像から作成するので、利用者ごとのIDを利用者が画像提供装置に予め入力する必要が無い。その結果、通信端末に撮影画像を送信する場合のユーザ認証を簡便に行うことができる。   According to the above method, the image providing apparatus acquires a captured image, recognizes a face image from the acquired captured image, extracts facial feature points based on the recognized face image, and extracts the extracted facial features. A face ID is created based on the feature points, and the face ID received from the communication terminal is authenticated using the created face ID. If the authentication is successful, a captured image corresponding to the received face ID is displayed on the communication terminal. To send. Therefore, since the image providing apparatus creates a face ID used for user authentication from the captured image, it is not necessary for the user to input an ID for each user in the image providing apparatus in advance. As a result, user authentication can be easily performed when a captured image is transmitted to the communication terminal.

なお、上記画像提供装置における各手段を、画像提供装置制御プログラムによりコンピュータ上で実行させることができる。さらに、上記画像提供装置制御プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記画像提供装置制御プログラムを実行させることができる。   Each unit in the image providing apparatus can be executed on a computer by an image providing apparatus control program. Furthermore, by storing the image providing apparatus control program in a computer-readable recording medium, the image providing apparatus control program can be executed on any computer.

以上のように、本発明に係る画像提供装置は、ユーザ認証に利用する顔IDを撮影画像から作成するので、利用者ごとのIDを利用者が画像提供装置に予め入力する必要が無く、その結果、通信端末に撮影画像を送信する場合のユーザ認証を簡便に行うことができるという効果を奏する。   As described above, the image providing apparatus according to the present invention creates a face ID to be used for user authentication from a photographed image, so that it is not necessary for the user to input the ID for each user in the image providing apparatus in advance. As a result, it is possible to easily perform user authentication when a captured image is transmitted to the communication terminal.

〔実施の形態1〕
以下、本発明の一実施形態について図1〜図24を参照しつつ説明する。図1は、本実施形態である画像提供システムの概略構成を示している。図示のように、画像提供システム1は、写真シール機(画像提供装置)2、および写真シール機2と通信可能な通信端末3を備える構成である。
[Embodiment 1]
Hereinafter, an embodiment of the present invention will be described with reference to FIGS. FIG. 1 shows a schematic configuration of an image providing system according to the present embodiment. As shown in the figure, the image providing system 1 includes a photo sticker (image providing device) 2 and a communication terminal 3 capable of communicating with the photo sticker 2.

写真シール機2は、利用者の写真撮影を行うと共に、所望の場合にその写真を背景画像などと合成した上で、シール紙に印刷出力するものであり、例えばゲームセンターなどの娯楽施設に設置されるものである。一方、通信端末3は、利用者が所有するものであり、写真シール機2と各種データを送受信するものである。   The photo sticker 2 takes a picture of the user and, if desired, combines the photo with a background image and prints it on sticker paper. For example, the photo sticker 2 is installed in an entertainment facility such as a game center. It is what is done. On the other hand, the communication terminal 3 is owned by the user, and transmits / receives various data to / from the photo sticker 2.

通信端末3は、その利用者が所持して移動できるように、携帯型PC(Personal Computer)、携帯電話機、PHS(Personal Handyphone System)(登録商標)端末、携帯型ゲーム機などの携帯型通信端末であることが望ましい。また、通信端末3の利用者が所持して移動しても写真シール機2と通信できるように、通信端末3と写真シール機2との間の通信は、赤外線、電波などを利用したワイヤレス通信であることが望ましい。さらに、通信端末3は、他の通信端末3とワイヤレス通信できることが望ましい。   The communication terminal 3 is a portable communication terminal such as a portable PC (Personal Computer), a cellular phone, a PHS (Personal Handyphone System) (registered trademark) terminal, or a portable game machine so that the user can carry it. It is desirable that In addition, communication between the communication terminal 3 and the photo sticker 2 is wireless communication using infrared rays, radio waves, etc. so that the user of the communication terminal 3 can carry and communicate with the photo sticker 2 even if the user moves. It is desirable that Furthermore, it is desirable that the communication terminal 3 can wirelessly communicate with other communication terminals 3.

なお、本実施形態では、通信端末3は、例えば任天堂株式会社が市販している携帯型ゲーム機(商品名「ニンテンドーDS」)のように、2画面のタッチパネルを備える携帯型通信端末を利用している。また、本実施形態では、写真シール機2および通信端末3間の通信には、無線LAN(Local Area Network)を利用している。   In this embodiment, the communication terminal 3 uses a portable communication terminal having a two-screen touch panel, such as a portable game machine (trade name “Nintendo DS”) marketed by Nintendo Co., Ltd. ing. In this embodiment, a wireless LAN (Local Area Network) is used for communication between the photo sticker 2 and the communication terminal 3.

本実施形態の画像提供システム1では、写真シール機2の制御装置10は、CCDカメラ13から撮影画像を取得し、取得した撮影画像の中から顔画像を認識し、認識した顔画像に基づいて、顔の特徴点を抽出し、抽出した顔の特徴点に基づいて顔IDを作成し、作成した顔IDを利用して、通信端末3から受信した顔IDの認証を行い、認証に成功した場合、受信した顔IDに対応する撮影画像を通信端末3に送出している。したがって、写真シール機2は、ユーザ認証に利用する顔IDを撮影画像から作成するので、利用者ごとのIDを利用者が写真シール機2に予め入力する必要が無い。その結果、通信端末3に撮影画像を送信する場合のユーザ認証を簡便に行うことができる。   In the image providing system 1 of the present embodiment, the control device 10 of the photo sticker 2 acquires a captured image from the CCD camera 13, recognizes a face image from the acquired captured image, and based on the recognized face image. The facial feature points are extracted, the face ID is created based on the extracted facial feature points, the face ID received from the communication terminal 3 is authenticated using the created face ID, and the authentication is successful. In this case, a captured image corresponding to the received face ID is sent to the communication terminal 3. Therefore, since the photo sticker 2 creates a face ID used for user authentication from the photographed image, it is not necessary for the user to input the ID for each user into the photo sticker 2 in advance. As a result, user authentication when transmitting a captured image to the communication terminal 3 can be easily performed.

次に、写真シール機2の構成の詳細について説明する。図1に示されるように、写真シール機2は、本体に制御装置10、記憶装置11、および通信装置12が設けられている。また、利用者が撮影作業を行う空間である撮影空間には、CCDカメラ13、ライブビューパネル14、撮影処理用タッチパネル15、照明装置16、スピーカ17、および硬貨処理装置18が設けられている。また、利用者が撮影画像の編集作業を行う空間である編集空間には、編集処理用タッチパネル20および編集処理用タッチペン21が設けられている。そして、シール紙が印刷出力される空間である印刷空間には、印刷処理用タッチパネル22、プリンタ23、およびシール紙排出口24が設けられている。   Next, the details of the configuration of the photo sticker 2 will be described. As shown in FIG. 1, the photo sticker 2 is provided with a control device 10, a storage device 11, and a communication device 12 in the main body. In addition, a CCD camera 13, a live view panel 14, a shooting processing touch panel 15, an illumination device 16, a speaker 17, and a coin processing device 18 are provided in a shooting space where a user performs shooting work. In addition, an editing processing touch panel 20 and an editing processing touch pen 21 are provided in an editing space, which is a space in which a user edits a captured image. A print processing touch panel 22, a printer 23, and a sticker paper discharge port 24 are provided in a print space in which sticker paper is printed out.

制御装置10は、写真シール機2の各種構成の動作を統括的に制御するものである。制御装置10は、例えばPC(Personal Computer)ベースのコンピュータによって構成される。そして、各種構成の動作制御は、制御プログラムをコンピュータに実行させることによって行なわれる。   The control device 10 controls the operation of various components of the photographic sticker 2 in an integrated manner. The control device 10 is configured by a PC (Personal Computer) -based computer, for example. And operation control of various composition is performed by making a computer run a control program.

このプログラムは、例えばCD−ROMなどのリムーバブルメディアに記録されているものを読み出して使用する形態であってもよいし、ハードディスクなどにインストールされたものを読み出して使用する形態であってもよい。また、写真シール機2がインターネットなどの通信ネットワークに接続された構成とする場合、この通信ネットワークを介して上記プログラムをダウンロードしてハードディスクなどにインストールして実行する形態なども考えられる。なお、本実施形態の制御装置10の詳細については後述する。   This program may be in the form of reading and using what is recorded on a removable medium such as a CD-ROM, or may be in the form of reading and using what is installed on a hard disk or the like. Further, when the photo sticker 2 is connected to a communication network such as the Internet, a form in which the program is downloaded via the communication network, installed on a hard disk, and the like can be considered. Details of the control device 10 of this embodiment will be described later.

記憶装置11は、各種のデータおよびプログラムを記憶するものである。記憶装置11は、例えばハードディスクなどの不揮発性の記憶装置によって構成される。この記憶装置11に記憶される内容としては、上記した制御プログラム、OS(Operating System)プログラム、およびその他各種プログラム、CCDカメラ13における動作設定値、撮影した画像の撮影画像データ、編集した画像の編集画像データなどが挙げられる。CCDカメラ13における上記動作設定値としては、装置出荷時やメンテナンス時などに設定されるホワイトバランスの値、撮影画像の明暗などを調整する際の画像処理に関する各種パラメータ値などが挙げられる。   The storage device 11 stores various data and programs. The storage device 11 is configured by a nonvolatile storage device such as a hard disk. The contents stored in the storage device 11 include the above-described control program, OS (Operating System) program, and other various programs, operation setting values in the CCD camera 13, photographed image data of the photographed image, and editing of the edited image. For example, image data. Examples of the operation setting values in the CCD camera 13 include white balance values set at the time of shipment of the apparatus and maintenance, various parameter values relating to image processing when adjusting the brightness and darkness of a captured image, and the like.

本実施形態では、記憶装置11は、さらに、マスク画像データ、顔ID、および器官パーツを記憶している。なお、これらのデータの詳細については後述する。   In the present embodiment, the storage device 11 further stores mask image data, a face ID, and organ parts. Details of these data will be described later.

通信装置12は、通信端末3と無線通信を行うためのものである。通信装置12は、制御装置10から受信した各種データを、データ通信に適した形式に変換した後、通信端末3に電波で送信する。また、通信装置12は、通信端末3から電波で受信した各種データを装置内部のデータ形式に変換した後、制御装置10に送信する。   The communication device 12 is for performing wireless communication with the communication terminal 3. The communication device 12 converts various data received from the control device 10 into a format suitable for data communication, and then transmits the data to the communication terminal 3 by radio waves. The communication device 12 converts various data received by radio waves from the communication terminal 3 into a data format inside the device, and then transmits the data to the control device 10.

CCDカメラ13は、被写体の撮影を行うものであり、例えばレンズ群、絞り、CCD(Charge Coupled Device)撮像素子などを備えたデジタルカメラによって構成される。ライブビューパネル14は、CCDカメラ13が撮影するライブビュー画像を表示するものであり、例えばLCD(液晶ディスプレイ)によって構成される。   The CCD camera 13 shoots a subject, and is constituted by a digital camera including, for example, a lens group, a diaphragm, a CCD (Charge Coupled Device) imaging device, and the like. The live view panel 14 displays a live view image taken by the CCD camera 13, and is configured by, for example, an LCD (liquid crystal display).

撮影処理用タッチパネル15、編集処理用タッチパネル20、および印刷処理用タッチパネル22は、フラットパネルディスプレイやCRTなどの表示面にタッチセンサを設けて構成され、利用者が見易くかつ操作し易い位置に配備される。撮影処理用タッチパネル15、編集処理用タッチパネル20、および印刷処理用タッチパネル22は、それぞれ、撮影処理、画像編集処理、および印刷処理における各種メッセージや画像などを表示するとともに、利用者から各種の指示や選択などが入力される。   The photographing processing touch panel 15, the editing processing touch panel 20, and the printing processing touch panel 22 are configured by providing a touch sensor on a display surface such as a flat panel display or a CRT, and are disposed at positions where the user can easily see and operate. The The shooting process touch panel 15, the edit process touch panel 20, and the print process touch panel 22 display various messages and images in the shooting process, the image edit process, and the print process, respectively. Selection etc. are input.

照明装置16は、被写体である利用者を照明する照明手段として機能するものである。照明装置16は、撮影時の照明として機能するとともに、通常時の撮影空間の照明としても機能する蛍光灯と、撮影時の写真閃光灯として機能するストロボランプとを備える構成である。スピーカ17は、各種の音声ガイダンスおよび効果音を出力するものである。   The illumination device 16 functions as illumination means for illuminating a user who is a subject. The illuminating device 16 is configured to include a fluorescent lamp that functions as illumination at the time of shooting and also functions as illumination of a shooting space at normal time, and a strobe lamp that functions as a photographic flashlight at the time of shooting. The speaker 17 outputs various voice guidance and sound effects.

硬貨処理装置18は、写真シール機2の利用料金として利用者により硬貨投入口(図示せず)から投入された硬貨が、所定の硬貨であるか否かを判定するものである。所定の硬貨であると判定した場合には、硬貨処理装置18は、制御装置10に通知し、投入された硬貨を、硬貨を蓄積する硬貨容器(図示せず)に送り出す。一方、所定の硬貨以外の硬貨であると判定した場合には、硬貨処理装置18は、投入された硬貨を硬貨返却口(図示せず)に送り出す。なお、紙幣や硬貨を所定の硬貨に両替する両替機が写真シール機2付近に存在しない場合には、新たに紙幣投入口を設けて、紙幣処理装置を設けたり、釣銭処理装置を設けたりすることが望ましい。   The coin processing device 18 determines whether or not a coin inserted from a coin slot (not shown) by a user as a usage fee for the photo sticker 2 is a predetermined coin. If it is determined that the coin is a predetermined coin, the coin processing device 18 notifies the control device 10 and sends out the inserted coin to a coin container (not shown) for storing coins. On the other hand, when it determines with it being coins other than a predetermined coin, the coin processing apparatus 18 sends out the inserted coin to a coin return port (not shown). In addition, when there is no money change machine for exchanging bills or coins into predetermined coins near the photo seal machine 2, a bill input port is newly provided to provide a bill processing device or a change processing device. It is desirable.

編集処理用タッチペン21は、画像編集処理における細かな操作入力を利用者が行うためのものであり、編集処理用タッチパネル20の近傍に配備される。利用者は、この編集処理用タッチペン21を編集処理用タッチパネル20に接触させることによって、処理の進行に応じて表示されるボタンを選択したり、落書きなどの画像描画を行ったりすることができる。   The edit processing touch pen 21 is used by a user to perform fine operation input in image editing processing, and is disposed in the vicinity of the editing processing touch panel 20. The user can select a button to be displayed according to the progress of the process or draw an image such as a graffiti by bringing the editing process touch pen 21 into contact with the editing process touch panel 20.

プリンタ23は、出力すべき画像データが制御装置10から送られてくると、その画像データに基づいてシール紙に印刷するものである。このプリンタ23としては、例えば昇華型プリンタが用いられる。シール紙排出口24は、プリンタ23にて印刷されて出力されたシール紙を外部に排出するための開口である。   When image data to be output is sent from the control device 10, the printer 23 prints on a sticker sheet based on the image data. For example, a sublimation printer is used as the printer 23. The sticker paper discharge port 24 is an opening for discharging sticker paper printed and output by the printer 23 to the outside.

次に、写真シール機2として機能するための制御装置10の構成について説明する。図1に示されるように、制御装置10は、課金処理部25、撮影処理部(撮影画像取得手段)26、画像処理部27、および印刷処理部28を備える構成である。   Next, the configuration of the control device 10 for functioning as the photo sticker 2 will be described. As shown in FIG. 1, the control device 10 includes a charging processing unit 25, a photographing processing unit (captured image acquisition unit) 26, an image processing unit 27, and a print processing unit 28.

課金処理部25は、硬貨処理装置18から制御装置10に硬貨の投入が通知されることにより課金処理を行うものである。課金処理部25は、課金処理が正常に完了したことが確認されると、すなわち、硬貨処理装置18からの通知をカウントし、利用者から硬化処理装置18に所定の硬貨が所定枚数投入されたと判断すると、プレイ動作の開始を撮影処理部26に通知する。   The billing processing unit 25 performs billing processing when the coin processing device 18 notifies the control device 10 of the insertion of coins. When it is confirmed that the billing process has been completed normally, that is, the billing processing unit 25 counts notifications from the coin processing device 18 and a predetermined number of coins are inserted into the curing processing device 18 from the user. If it judges, the start of play operation will be notified to photography processing part 26.

撮影処理部26は、課金処理部25からの通知に基づき撮影処理を行うものである。撮影処理は主に以下のように行われる。すなわち、まず、撮影枚数および撮影時間の設定を行う。次に、撮影の設定が行われる。具体的には、全身撮影またはアップ撮影の選択や、撮影アングルの調整が行なわれる。次に、CCDカメラ13が撮影するライブビュー画像をライブビューパネル14に表示する。利用者は、前記ライブビュー画像を参照しつつ所望のポーズをとり、所望のタイミングで撮影処理用タッチパネル15の撮影ボタンを押すと、カウントダウン後に撮影が実行される。   The photographing processing unit 26 performs photographing processing based on the notification from the billing processing unit 25. The photographing process is mainly performed as follows. That is, first, the number of shots and the shooting time are set. Next, shooting settings are performed. Specifically, the whole body photographing or the up photographing is selected and the photographing angle is adjusted. Next, a live view image captured by the CCD camera 13 is displayed on the live view panel 14. When the user takes a desired pose while referring to the live view image and presses the shooting button on the shooting processing touch panel 15 at a desired timing, shooting is performed after the countdown.

次に、上記撮影によりCCDカメラ13が生成した撮影画像データを受信して、記憶装置11に書き込む。そして、上記撮影の設定に戻って、上記の処理動作を、設定された撮影枚数および撮影時間に到達するまで繰り返す。その後、撮影処理の完了を画像処理部27に通知する。   Next, the photographed image data generated by the CCD camera 13 by the above photographing is received and written into the storage device 11. Then, returning to the shooting setting, the above processing operation is repeated until the set number of shots and shooting time are reached. Thereafter, the image processing unit 27 is notified of completion of the photographing process.

画像処理部27は、撮影処理部26からの通知に基づき画像編集処理を行うものである。画像編集処理は主に以下のように行われる。すなわち、まず、複数回の撮影により取得された複数の撮影画像を編集処理用タッチパネル20に表示する。次に、これら複数の撮影画像の中から落書きなどの編集処理を行う撮影画像の選択を行う。これにより、撮影時に目をつぶってしまったり、不本意な状態で撮影されたりした撮影画像などを排除して、利用者の好みに適合した画像を選択することができる。   The image processing unit 27 performs image editing processing based on the notification from the imaging processing unit 26. The image editing process is mainly performed as follows. That is, first, a plurality of photographed images acquired by a plurality of photographings are displayed on the editing processing touch panel 20. Next, a photographed image for editing such as graffiti is selected from the plurality of photographed images. As a result, it is possible to select an image that suits the user's preference by eliminating a photographed image that has been closed at the time of photographing or photographed in an unintentional state.

次に、選択された撮影画像を編集処理用タッチパネル20に表示し、編集処理用タッチペン21を用いて、撮影画像に対して背景画像の選択、色の変更、落書きなどの画像編集を行う。そして、別の撮影画像に対して画像編集を行う場合には、編集画像データを記憶装置11に保存して、上記の画像編集処理を繰り返す。その後、画像編集処理の完了を印刷処理部28に通知する。   Next, the selected photographed image is displayed on the editing processing touch panel 20, and image editing such as background image selection, color change, and graffiti is performed on the photographed image using the editing processing touch pen 21. When image editing is performed on another captured image, the edited image data is stored in the storage device 11 and the above-described image editing process is repeated. Thereafter, the print processing unit 28 is notified of completion of the image editing process.

印刷処理部28は、画像処理部27からの通知に基づき、印刷処理を行う。印刷処理は、主に以下のように行われるる。すなわち、まず、印刷処理用タッチパネル22を用いて、シール紙上での分割数または分割パターンを利用者に選択させ、選択された分割領域ごとに、画像編集処理部27が編集処理した編集画像が印刷されるように、プリンタ23を制御してシール紙に印刷を行う。そして、印刷されたシール紙がシール紙排出口24から排出される。その後、印刷処理を終了し、利用者のプレイ動作を終了する。   The print processing unit 28 performs print processing based on the notification from the image processing unit 27. The printing process is mainly performed as follows. That is, first, using the print processing touch panel 22, the user selects the number of divisions or the division pattern on the sticker paper, and the edited image edited by the image editing processing unit 27 is printed for each selected divided area. As described above, the printer 23 is controlled to print on the sticker paper. Then, the printed sticker paper is discharged from the sticker paper discharge port 24. Thereafter, the printing process is terminated, and the user's play operation is terminated.

次に、通信端末3の構成について説明する。図1に示されるように、通信端末3は、端末本体に設けられる制御部30、記憶部31、通信部32、タッチパネル33、およびタッチペン34を備える構成である。なお、通信端末3の制御部30、記憶部31、通信部32、タッチパネル33、およびタッチペン34は、それぞれ、写真シール機2の制御装置10、記憶装置11、通信装置12、タッチパネル15・20・22、およびタッチペン21と同様に機能するので、その説明を省略する。なお、本実施形態の制御部30の詳細については後述する。   Next, the configuration of the communication terminal 3 will be described. As illustrated in FIG. 1, the communication terminal 3 includes a control unit 30, a storage unit 31, a communication unit 32, a touch panel 33, and a touch pen 34 provided in the terminal body. The control unit 30, the storage unit 31, the communication unit 32, the touch panel 33, and the touch pen 34 of the communication terminal 3 are the control device 10, the storage device 11, the communication device 12, the touch panel 15, 20, and the touch pen 34, respectively. 22 and the touch pen 21, the description thereof is omitted. Details of the control unit 30 of this embodiment will be described later.

次に、本実施形態の写真シール機2における制御装置10および記憶装置11の詳細について、図2を参照しつつ説明する。図2は、写真シール機2における制御装置10および記憶装置11の概略構成を示している。   Next, details of the control device 10 and the storage device 11 in the photo sticker 2 of the present embodiment will be described with reference to FIG. FIG. 2 shows a schematic configuration of the control device 10 and the storage device 11 in the photographic sticker 2.

図2に示されるように、制御装置10は、上記の撮影処理部26の他に、顔認識部(顔認識手段、マスク画像作成手段)40、顔特徴点抽出部(特徴点抽出手段)41、器官パーツ選択部(類型特定手段)42、顔ID作成部(顔ID作成手段)43、画像・顔ID表示制御部44、顔ID認証部(顔ID受信手段、顔ID認証手段)45、および画像送出部(画像送出手段)46を備える構成である。また、記憶装置11は、撮影画像データ、マスク画像データ、および顔IDと、器官パーツ群52とを記憶するものである。なお、撮影処理部26および撮影画像データについては上述の通りであるから、その説明を省略する。   As shown in FIG. 2, the control device 10 includes a face recognition unit (face recognition unit, mask image creation unit) 40, a face feature point extraction unit (feature point extraction unit) 41, in addition to the imaging processing unit 26 described above. An organ parts selection unit (type identification unit) 42, a face ID creation unit (face ID creation unit) 43, an image / face ID display control unit 44, a face ID authentication unit (face ID reception unit, face ID authentication unit) 45, And an image sending unit (image sending means) 46. The storage device 11 stores captured image data, mask image data, a face ID, and an organ part group 52. Since the photographing processing unit 26 and the photographed image data are as described above, description thereof is omitted.

顔認識部40は、撮影処理部26から撮影画像データを受信し、受信した撮影画像データによる撮影画像から、認証対象となる顔画像を抽出するものである。この顔画像の抽出には、肌色領域を検出したり、顔の輪郭を検出したりするなど、公知の顔認識技術を利用することができる。また、顔認識部40は、上記撮影画像のうち、上記顔画像およびその周囲の領域の画像編集を禁止するためのマスク画像を形成するものである。顔認識部40は、形成したマスク画像からマスク画像データを生成して、記憶装置11に記憶する。   The face recognition unit 40 receives photographed image data from the photographing processing unit 26 and extracts a face image to be authenticated from a photographed image based on the received photographed image data. For the extraction of the face image, a known face recognition technique such as detecting a skin color region or detecting the outline of the face can be used. In addition, the face recognition unit 40 forms a mask image for prohibiting image editing of the face image and the surrounding area of the photographed image. The face recognition unit 40 generates mask image data from the formed mask image and stores it in the storage device 11.

顔特徴点抽出部41は、顔認識部40が抽出した顔画像から、公知の顔特徴点抽出技術を利用して、顔の特徴点を抽出するものである。図4は、顔画像から顔の特徴点を抽出する具体例を示している。同図(a)は、顔認識部40が取得した顔画像FIの一例を示しており、同図(b)は、該顔画像FIから顔特徴点抽出部41が顔の特徴点FCを抽出した画像を示している。   The face feature point extraction unit 41 extracts face feature points from the face image extracted by the face recognition unit 40 using a known face feature point extraction technique. FIG. 4 shows a specific example of extracting facial feature points from a face image. FIG. 4A shows an example of the face image FI acquired by the face recognition unit 40. FIG. 4B shows the face feature point extraction unit 41 extracting a face feature point FC from the face image FI. The image is shown.

器官パーツ選択部42は、顔特徴点抽出部41が抽出した特徴点FCに基づいて、記憶装置11に記憶された器官パーツ群52の中から、適当な器官パーツを選択するものである。図5は、器官パーツ群52の構造を示しており、図6は、器官パーツ群52に含まれる器官パーツの一例を示している。本実施形態では、図5および図6に示されるように、顔の器官として、目、鼻、および口を利用している。各器官は、図5に示されるように、50種類の器官パーツに分類されている。器官パーツは、図6に示されるように、各器官の寸法および形状によって規定されるものである。   The organ part selector 42 selects an appropriate organ part from the organ parts group 52 stored in the storage device 11 based on the feature points FC extracted by the face feature point extractor 41. FIG. 5 shows the structure of the organ part group 52, and FIG. 6 shows an example of the organ parts included in the organ part group 52. In this embodiment, as shown in FIGS. 5 and 6, eyes, nose, and mouth are used as facial organs. Each organ is classified into 50 kinds of organ parts as shown in FIG. The organ parts are defined by the size and shape of each organ as shown in FIG.

また、各器官の器官パーツには、器官パーツを識別する器官IDが割り当てられている。具体的には、図5に示されるように、目の各器官パーツには、目IDが割り当てられ、鼻の各器官パーツには、鼻IDが割り当てられ、口の各器官パーツには、口IDが割り当てられている。   In addition, an organ ID for identifying the organ part is assigned to the organ part of each organ. Specifically, as shown in FIG. 5, an eye ID is assigned to each organ part of the eye, a nose ID is assigned to each organ part of the nose, and a mouth ID is assigned to each organ part of the mouth. An ID is assigned.

図2に戻ると、顔ID作成部43は、器官パーツ選択部42が選択した器官パーツに基づいて、顔画像を特定する顔IDを作成するものである。顔ID作成部43は、作成した顔IDを、撮影画像データおよびマスク画像データと対応付けて記憶装置11に記憶する。また、顔ID作成部43は、作成した顔IDを画像・顔ID表示制御部44に送信する。   Returning to FIG. 2, the face ID creation unit 43 creates a face ID for specifying a face image based on the organ part selected by the organ part selection unit 42. The face ID creation unit 43 stores the created face ID in the storage device 11 in association with the captured image data and the mask image data. Further, the face ID creation unit 43 transmits the created face ID to the image / face ID display control unit 44.

本実施形態では、顔IDは、器官パーツ選択部42が選択した目、鼻、および口の器官パーツにそれぞれ対応する目ID、鼻ID、および口IDを結合したものである。例えば、図5に示される場合において、器官パーツ選択部42が、目の器官パーツとしてパーツ1(目ID=01)を選択し、鼻の器官パーツとしてパーツ28(鼻ID=28)を選択し、口の器官パーツとしてパーツ44(口ID=44)を選択したとすると、顔ID作成部43が作成する顔IDは、「012844」となる。   In this embodiment, the face ID is obtained by combining the eye ID, nose ID, and mouth ID corresponding to the eye, nose, and mouth organ parts selected by the organ part selector 42, respectively. For example, in the case shown in FIG. 5, the organ part selector 42 selects part 1 (eye ID = 01) as the organ part of the eye and selects part 28 (nose ID = 28) as the organ part of the nose. If the part 44 (mouth ID = 44) is selected as the mouth organ part, the face ID created by the face ID creation unit 43 is “012844”.

この場合、顔IDの総数は、50×50×50=125000であり、平均すると、日本国に約1000人は同じ顔IDのものが存在することになる。しかしながら、本実施形態では、写真シール機2において1回の遊戯での利用者を識別できる程度(4,5人程度)であればよいので、上記の顔IDの作成方法でも利用者を充分に識別可能である。   In this case, the total number of face IDs is 50 × 50 × 50 = 1250. On average, about 1000 people with the same face ID exist in Japan. However, in this embodiment, it is only necessary to be able to identify the user in one game (about 4 or 5 people) in the photo sticker 2, so the above-described method for creating the face ID is sufficient for the user. Be identifiable.

画像・顔ID表示制御部44は、顔ID作成部43から顔IDを受信すると、受信した顔IDに対応する撮影画像データを記憶装置11から読み出し、読み出した撮影画像データに基づく撮影画像と上記顔IDとを撮影処理用タッチパネル15に表示するように制御するものである。また、画像・顔ID表示制御部44は、顔ID認証部45に顔IDを送信して、顔ID認証部45から認証結果を受信し、認証に成功した場合には、画像送出部46に顔IDを送信する。   When receiving the face ID from the face ID creation unit 43, the image / face ID display control unit 44 reads out the captured image data corresponding to the received face ID from the storage device 11, and the captured image based on the read captured image data and the above-described captured image data. The face ID is controlled to be displayed on the photographing processing touch panel 15. Further, the image / face ID display control unit 44 transmits the face ID to the face ID authentication unit 45 and receives the authentication result from the face ID authentication unit 45. Send face ID.

顔ID認証部45は、顔IDの認証を行うものである。具体的には、顔ID認証部45は、画像・顔ID表示制御部44から顔IDを受信すると、通信装置12を介して通信端末3に顔IDの入力要求を送信することにより、通信端末3から通信装置12を介して顔IDを取得し、画像・顔ID表示制御部44から受信した顔IDと、通信端末3から取得した顔IDとが一致するか否かを判断するものである。顔ID認証部45は、この判断結果を認証結果として画像・顔ID表示制御部44に送信する。   The face ID authenticating unit 45 performs face ID authentication. Specifically, when the face ID authentication unit 45 receives the face ID from the image / face ID display control unit 44, the face ID authentication unit 45 transmits a face ID input request to the communication terminal 3 via the communication device 12, thereby 3, the face ID is acquired via the communication device 12, and it is determined whether the face ID received from the image / face ID display control unit 44 matches the face ID acquired from the communication terminal 3. . The face ID authenticating unit 45 transmits the determination result to the image / face ID display control unit 44 as an authentication result.

画像送出部46は、画像・顔ID表示制御部44から顔IDを受信すると、受信した顔IDに対応する撮影画像データおよびマスク画像データを記憶装置11から読み出して、通信装置12を介して通信端末に送信するものである。   When the image sending unit 46 receives the face ID from the image / face ID display control unit 44, the image sending unit 46 reads out the captured image data and the mask image data corresponding to the received face ID from the storage device 11 and communicates via the communication device 12. It is sent to the terminal.

次に、本実施形態の通信端末3における制御部30および記憶部31の詳細について、図3を参照しつつ説明する。図3は、通信端末3における制御部30および記憶部31の概略構成を示している。   Next, details of the control unit 30 and the storage unit 31 in the communication terminal 3 of the present embodiment will be described with reference to FIG. FIG. 3 shows a schematic configuration of the control unit 30 and the storage unit 31 in the communication terminal 3.

図示のように、制御部30は、顔ID取得部(顔ID取得手段)60、画像取得部61、および画像編集部(画像編集手段)62を備える構成である。また、画像編集部62は、レイアウト変更部63を含んでいる。一方、記憶部31は、撮影画像データ、マスク画像データ、顔ID、および編集画像データを記憶するものである。   As illustrated, the control unit 30 includes a face ID acquisition unit (face ID acquisition unit) 60, an image acquisition unit 61, and an image editing unit (image editing unit) 62. The image editing unit 62 includes a layout changing unit 63. On the other hand, the storage unit 31 stores captured image data, mask image data, face ID, and edited image data.

顔ID取得部60は、利用者がタッチパネル33にて顔IDを入力することにより、利用者から顔IDを取得するものである。具体的には、顔ID取得部60は、写真シール機2から通信部32を介して顔ID入力要求を取得すると、顔ID入力要求の画像をタッチパネル33に表示するように制御する。次に、顔ID取得部60は、利用者がタッチパネル33を操作することにより、利用者から顔IDを取得する。そして、顔ID取得部60は、取得した顔IDを通信部32を介して写真シール機2に送信する。これにより、顔ID取得部60が写真シール機2に送信した顔IDと、写真シール機2が記憶する顔IDとの認証が行われる。   The face ID acquisition unit 60 acquires a face ID from the user when the user inputs the face ID on the touch panel 33. Specifically, when acquiring the face ID input request from the photo sticker 2 via the communication unit 32, the face ID acquisition unit 60 controls the touch panel 33 to display an image of the face ID input request. Next, the face ID acquisition unit 60 acquires a face ID from the user when the user operates the touch panel 33. Then, the face ID acquisition unit 60 transmits the acquired face ID to the photo sticker 2 via the communication unit 32. Thus, authentication of the face ID transmitted from the face ID acquisition unit 60 to the photo sticker 2 and the face ID stored in the photo sticker 2 is performed.

上記認証に成功した場合、顔ID取得部60は、タッチパネル33から取得した顔IDを記憶部31に記憶する。なお、顔ID取得部60は、記憶部31に予め記憶した顔IDを読み出して、通信部32を介して写真シール機2に送信することもできる。   When the authentication is successful, the face ID acquisition unit 60 stores the face ID acquired from the touch panel 33 in the storage unit 31. Note that the face ID acquisition unit 60 can also read out the face ID stored in advance in the storage unit 31 and transmit it to the photo sticker 2 via the communication unit 32.

画像取得部61は、上記認証に成功した場合に、写真シール機2から通信部32を介して、撮影画像データおよびマスク画像データを取得して、記憶部31に記憶するものである。なお、顔ID取得部60または画像取得部61は、撮影画像データおよびマスク画像データを顔IDに対応付けて記憶部31に記憶することが望ましい。これにより、通信端末3を複数の利用者が利用する場合でも、各利用者に対応する撮影画像データ、マスク画像データ、および顔IDを記憶部31から読み出すことができる。   When the authentication is successful, the image acquisition unit 61 acquires captured image data and mask image data from the photo sticker 2 via the communication unit 32 and stores them in the storage unit 31. The face ID acquisition unit 60 or the image acquisition unit 61 preferably stores the captured image data and the mask image data in the storage unit 31 in association with the face ID. Thereby, even when a plurality of users use the communication terminal 3, the captured image data, the mask image data, and the face ID corresponding to each user can be read from the storage unit 31.

画像編集部62は、利用者が選択した画像に対して画像編集処理を行うものである。なお、画像編集部62における画像編集処理は、写真シール機2の画像処理部27におけるものと同様であるので、その説明を省略する。   The image editing unit 62 performs image editing processing on the image selected by the user. Note that the image editing process in the image editing unit 62 is the same as that in the image processing unit 27 of the photographic sticker 2, and the description thereof is omitted.

レイアウト変更部63は、画像編集処理を行う画像が縦長であるか横長であるかに基づいて、タッチパネル33における表示レイアウトの変更を行うものである。なお、表示レイアウトの変更の具体例については後述する。   The layout changing unit 63 changes the display layout on the touch panel 33 based on whether the image to be subjected to the image editing process is vertically long or horizontally long. A specific example of changing the display layout will be described later.

上記構成の画像提供システム1における処理動作について説明する。まず、1人の利用者が写真シール機2で1回撮影する場合について、図7〜図9を参照しつつ説明する。   Processing operations in the image providing system 1 configured as described above will be described. First, a case where one user takes a picture with the photo sticker 2 will be described with reference to FIGS.

図7は、上記の場合における写真シール機2および通信端末3の処理動作の流れを示している。また、図8(a)・(c)は、上記処理動作において写真シール機2のタッチパネル15に表示される画像を示しており、同図(b)は、写真シール機2の器官パーツ選択部42が選択した器官パーツを示している。また、図9(a)〜(c)は、上記処理動作において通信端末3のタッチパネル33に表示される画像を示している。   FIG. 7 shows the flow of processing operations of the photo sticker 2 and the communication terminal 3 in the above case. 8A and 8C show images displayed on the touch panel 15 of the photographic sticker 2 in the above processing operation, and FIG. 8B shows an organ part selector of the photographic sticker 2 Reference numeral 42 denotes the selected organ part. 9A to 9C show images displayed on the touch panel 33 of the communication terminal 3 in the processing operation.

図7に示されるように、まず、写真シール機2の撮影処理部26は、1人の利用者に対する撮影処理を行う(ステップS10。以下、単に「S10」と記載することがある。他のステップについても同様である。)。   As shown in FIG. 7, first, the photographing processing unit 26 of the photo sticker 2 performs photographing processing for one user (step S10. Hereinafter, it may be simply referred to as “S10”. The same applies to the steps).

次に、写真シール機2は、顔認識処理を行う(S11)。具体的には、まず、図8(a)に示されるように、写真シール機2の制御装置10は、上記撮影処理により取得した撮影画像と、顔認識の実行を予告する画像とをタッチパネル15に表示させる。このとき、タッチパネル15の右下に表示される「やめる」ボタンを利用者が選択すると、以下の処理を行うこと無く撮影空間での処理が終了し、引き続き編集空間での画像編集処理が行われる。次に、上記撮影処理により取得した撮影画像から写真シール機2の顔認識部40が顔画像を抽出し、抽出した顔画像から写真シール機2の顔特徴点抽出部41が顔の特徴点を抽出する。   Next, the photo sticker 2 performs a face recognition process (S11). Specifically, first, as illustrated in FIG. 8A, the control device 10 of the photographic sticker 2 displays a captured image acquired by the above-described shooting process and an image for notifying the execution of face recognition on the touch panel 15. To display. At this time, when the user selects the “stop” button displayed at the lower right of the touch panel 15, the processing in the shooting space is terminated without performing the following processing, and the image editing processing in the editing space is continued. . Next, the face recognition unit 40 of the photo sticker 2 extracts a face image from the photographed image acquired by the photographing process, and the face feature point extraction unit 41 of the photo sticker 2 extracts the face feature point from the extracted face image. Extract.

次に、写真シール機2の器官パーツ選択部42は、顔特徴点抽出部41が抽出した顔の特徴点に基づいて、目、鼻、および口の適当な器官パーツを選択する(S12)。図8(b)は、選択された器官パーツを撮影画像に適合するように配置したものである。図示において、撮影画像は破線で示され、器官パーツが実線で示されている。なお、選択された器官パーツとその幾何学的配置(位置情報)とに基づいて作成される器官配置データを顔IDとして利用することもできる。   Next, the organ part selection unit 42 of the photo sticker 2 selects appropriate organ parts of the eyes, nose, and mouth based on the facial feature points extracted by the facial feature point extraction unit 41 (S12). FIG. 8B shows the selected organ parts arranged so as to match the captured image. In the drawing, the photographed image is shown by a broken line, and the organ parts are shown by a solid line. Note that organ arrangement data created based on the selected organ part and its geometric arrangement (position information) can also be used as the face ID.

次に、写真シール機2の顔ID作成部43は、器官パーツ選択部42が選択した器官パーツに対応する目ID、鼻ID、および口IDに基づいて顔IDを作成する(S13)。また、顔ID作成部43は、作成した顔IDを、撮影画像データに対応付けて記憶装置11に記憶する。   Next, the face ID creation unit 43 of the photo seal machine 2 creates a face ID based on the eye ID, nose ID, and mouth ID corresponding to the organ part selected by the organ part selection unit 42 (S13). In addition, the face ID creation unit 43 stores the created face ID in the storage device 11 in association with the captured image data.

次に、写真シール機2は、通信端末3に対して顔IDの入力要求を行う(S14)。具体的には、まず、写真シール機2の画像・顔ID表示制御部44は、図8(c)に示されるように、顔ID作成部43が作成した顔IDと上記撮影画像とを、タッチパネル15に表示させる。次に、写真シール機2と、写真シール機2の近くに位置する通信端末3とを通信可能な状態にする。そして、写真シール機2の顔ID認証部45は、通信端末3に対して顔IDの入力要求を送信する。   Next, the photo sticker 2 requests the communication terminal 3 to input a face ID (S14). Specifically, first, as shown in FIG. 8C, the image / face ID display control unit 44 of the photo sticker machine 2 uses the face ID created by the face ID creation unit 43 and the captured image. It is displayed on the touch panel 15. Next, the photo sticker 2 and the communication terminal 3 located near the photo sticker 2 are brought into a communicable state. Then, the face ID authentication unit 45 of the photo sticker 2 transmits a face ID input request to the communication terminal 3.

通信端末3は、写真シール機2から顔IDの入力要求を受信すると(S20)、通信端末3の顔ID取得部60は、顔IDの入力を利用者に要求する顔ID入力要求画像をタッチパネル33に表示させる。図9(a)は、タッチパネル33に顔ID入力要求画像を表示した状態を示している。本実施形態では、通信端末3は、2つのタッチパネルを有しているので、図示のように、第1のタッチパネル33aには、利用者に顔IDの入力を指示するための画像を表示し、第2のタッチパネル33bには、顔IDを入力するための画像を表示している。   When the communication terminal 3 receives the face ID input request from the photo sticker 2 (S20), the face ID acquisition unit 60 of the communication terminal 3 displays a face ID input request image for requesting the user to input the face ID on the touch panel. 33 is displayed. FIG. 9A shows a state in which a face ID input request image is displayed on the touch panel 33. In the present embodiment, since the communication terminal 3 has two touch panels, an image for instructing the user to input a face ID is displayed on the first touch panel 33a as shown in the figure. An image for inputting a face ID is displayed on the second touch panel 33b.

次に、図9(b)に示されるように、利用者が、写真シール機2のタッチパネル15に表示された顔ID(図8(c)参照)を、通信端末3の第2のタッチパネル33bに、タッチペン34を用いて入力し、「けってい」ボタンを選択する(S21)。このとき、通信端末3の顔ID取得部60は、第2のタッチパネル33bから入力された顔IDを写真シール機2に送信する(S22)。   Next, as shown in FIG. 9B, the user uses the face ID (see FIG. 8C) displayed on the touch panel 15 of the photo sticker 2 as the second touch panel 33 b of the communication terminal 3. Then, the input is performed using the touch pen 34, and the “KET” button is selected (S21). At this time, the face ID acquisition unit 60 of the communication terminal 3 transmits the face ID input from the second touch panel 33b to the photo sticker 2 (S22).

写真シール機2は、通信端末3から顔IDを受信すると(S15)、写真シール機2の顔ID認証部45は、認証に成功したか否か、すなわち顔ID作成部43が作成した顔IDと、通信端末3から受信した顔IDとが一致するか否かを判断する(S16)。認証に失敗した場合(顔IDが不一致である場合)には、ステップS14に戻って、上記処理動作を繰り返す。一方、認証に成功した場合(顔IDが一致である場合)には、写真シール機2の画像送出部46は、顔IDに対応する撮影画像データを記憶装置11から読み出して、通信端末3に送信する(S17)。その後、写真シール機2における処理動作を終了する。   When the photo sticker 2 receives the face ID from the communication terminal 3 (S15), the face ID authenticating unit 45 of the photo sticker 2 determines whether or not the authentication is successful, that is, the face ID created by the face ID creating unit 43. And the face ID received from the communication terminal 3 is determined (S16). If the authentication fails (if the face IDs do not match), the process returns to step S14 and the above processing operation is repeated. On the other hand, when the authentication is successful (when the face IDs match), the image sending unit 46 of the photo sticker 2 reads out the captured image data corresponding to the face ID from the storage device 11 and sends it to the communication terminal 3. Transmit (S17). Thereafter, the processing operation in the photo sticker 2 is ended.

通信端末3は、写真シール機2から撮影画像データを受信すると(S23)、通信端末3の制御部30は、図9(b)に示されるように、画像の受信中を示す情報と顔IDとを第1のタッチパネル33aに表示させる。撮影画像データの受信が完了すると、通信端末3の制御部30は、図9(c)に示されるように、受信の完了を示す情報と、顔IDと、受信した撮影画像データに基づく撮影画像とを第1のタッチパネル33aに表示させる。   When the communication terminal 3 receives the captured image data from the photo sticker 2 (S23), the control unit 30 of the communication terminal 3 displays information indicating that the image is being received and a face ID, as shown in FIG. 9B. Are displayed on the first touch panel 33a. When reception of the captured image data is completed, the control unit 30 of the communication terminal 3, as shown in FIG. 9C, captures information based on the information indicating the completion of reception, the face ID, and the received captured image data. Are displayed on the first touch panel 33a.

次に、顔ID取得部60が、顔IDを記憶部31に記憶するとともに、画像取得部61が、写真シール機2から取得した撮影画像データを、上記顔IDに対応付けて記憶部31に記憶する(S24)。その後、通信端末3における処理動作を終了する。   Next, the face ID acquisition unit 60 stores the face ID in the storage unit 31, and the image acquisition unit 61 associates the captured image data acquired from the photo sticker 2 with the face ID in the storage unit 31. Store (S24). Thereafter, the processing operation in the communication terminal 3 is terminated.

なお、本実施形態では、顔IDを記憶部31に記憶するタイミングは、写真シール機2から取得した撮影画像データを記憶部31に記憶するタイミング(S24)としているが、その他のタイミングであってもよい。例えば、写真シール機2が、顔IDの認証に成功した場合に(S16にてYES)、通信端末3に認証の成功を通知するようにしておき、通信端末3が該通知を受け取ったときに顔IDを記憶部31に記憶してもよい。また、写真シール機2が撮影画像データと共に顔IDを通信端末3に送信するようにしておき、通信端末3が写真シール機2から受信した撮影画像データおよび顔IDを記憶部31に記憶してもよい。   In this embodiment, the timing for storing the face ID in the storage unit 31 is the timing for storing the captured image data acquired from the photo sticker 2 in the storage unit 31 (S24). Also good. For example, when the photo sticker 2 has successfully authenticated the face ID (YES in S16), the communication terminal 3 is notified of the authentication success, and the communication terminal 3 receives the notification. The face ID may be stored in the storage unit 31. The photo sticker 2 transmits the face ID together with the photographed image data to the communication terminal 3, and the photographed image data and the face ID received by the communication terminal 3 from the photo sticker 2 are stored in the storage unit 31. Also good.

次に、複数人の利用者が写真シール機2で複数回撮影する場合について、図10および図11を参照しつつ説明する。なお、上述した処理動作と同様の処理動作については同じ符号を付して、その詳細な説明を省略する。   Next, a case where a plurality of users take a picture a plurality of times with the photo sticker 2 will be described with reference to FIGS. 10 and 11. In addition, the same code | symbol is attached | subjected about the processing operation similar to the processing operation mentioned above, and the detailed description is abbreviate | omitted.

図10は、上記の場合における写真シール機2および通信端末3の処理動作の流れを示している。また、図11(a)は、写真シール機2の器官パーツ選択部42が選択した器官パーツを顔画像ごとに示しており、同図(b)・(c)は、上記処理動作において写真シール機2のタッチパネル15に表示される画像を示している。なお、上記処理動作において通信端末3のタッチパネル33に表示される画像は、図9(a)〜(c)と同様である。   FIG. 10 shows the flow of processing operations of the photo sticker 2 and the communication terminal 3 in the above case. FIG. 11A shows the organ parts selected by the organ part selector 42 of the photo sticker 2 for each face image. FIGS. 11B and 11C show the photo stickers in the above processing operation. An image displayed on the touch panel 15 of the machine 2 is shown. In addition, the image displayed on the touch panel 33 of the communication terminal 3 in the above processing operation is the same as that shown in FIGS.

図10に示されるように、まず、写真シール機2の撮影処理部26は、複数の利用者に対する撮影処理を行う(S10)。   As shown in FIG. 10, first, the photographing processing unit 26 of the photo sticker 2 performs photographing processing for a plurality of users (S10).

次に、写真シール機2は、顔認識処理を行う(S30)。具体的には、まず、上記撮影処理により取得した撮影画像から写真シール機2の顔認識部40が複数の顔画像を抽出し、抽出した複数の顔画像のそれぞれから、写真シール機2の顔特徴点抽出部41が顔の特徴点を抽出する。また、顔認識部40は、上記撮影画像のうち、上記顔画像およびその周囲の領域の画像編集を禁止するためのマスク画像を形成する。マスク画像は、顔認識部40が抽出した複数の顔画像ごとに作成される。顔認識部40は、形成した複数のマスク画像から複数のマスク画像データを生成して、記憶装置11に記憶する。   Next, the photo sticker 2 performs a face recognition process (S30). Specifically, first, the face recognition unit 40 of the photograph sticker 2 extracts a plurality of face images from the photographed image acquired by the photographing process, and the face of the photograph sticker 2 is extracted from each of the extracted face images. The feature point extraction unit 41 extracts facial feature points. Further, the face recognition unit 40 forms a mask image for prohibiting image editing of the face image and the surrounding area of the photographed image. A mask image is created for each of a plurality of face images extracted by the face recognition unit 40. The face recognition unit 40 generates a plurality of mask image data from the formed plurality of mask images and stores them in the storage device 11.

次に、顔認識部40が抽出した各顔画像に関して、写真シール機2の器官パーツ選択部42は、顔特徴点抽出部41が抽出した顔の特徴点に基づいて、目、鼻、および口の適当な器官パーツを選択する(S12)。図11(a)は、4人の顔画像のそれぞれに関して、器官パーツ選択部42が選択した器官パーツを撮影画像に適合するように配置したものである。図示において、撮影画像は破線で示され、器官パーツが実線で示されている。   Next, with respect to each face image extracted by the face recognition unit 40, the organ part selection unit 42 of the photo sticker 2 is based on the face feature points extracted by the face feature point extraction unit 41, and the eyes, nose, and mouth. The appropriate organ parts are selected (S12). FIG. 11A shows the arrangement of the organ parts selected by the organ part selector 42 so as to match the photographed image with respect to each of the four face images. In the drawing, the photographed image is shown by a broken line, and the organ parts are shown by a solid line.

次に、上記各顔画像に関して、写真シール機2の顔ID作成部43は、器官パーツ選択部42が選択した器官パーツに対応する目ID、鼻ID、および口IDに基づいて顔IDを作成する(S13)。また、顔ID作成部43は、作成した顔IDを、マスク画像データおよび撮影画像データに対応付けて記憶装置11に記憶する。   Next, for each face image, the face ID creation unit 43 of the photo sticker 2 creates a face ID based on the eye ID, nose ID, and mouth ID corresponding to the organ part selected by the organ part selection unit 42. (S13). In addition, the face ID creation unit 43 stores the created face ID in the storage device 11 in association with the mask image data and the captured image data.

次に、写真シール機2の制御装置10は、所定回数撮影が行われるか、或いは所定時間が経過するまで、上記処理動作を繰り返す(S31)。その後、写真シール機2の画像・顔ID表示制御部44は、通信端末3に送信すべき撮影画像を選択する(S32)。具体的には、画像・顔ID表示制御部44は、図11(b)に示されるように、撮影画像を選択するように利用者に要求する選択要求画像をタッチパネル15に表示させる。この選択要求画像には、複数の撮影画像のサムネイル画像が表示される。なお、全てのサムネイル画像を表示できない場合には、一部のサムネイル画像を表示しておき、残りのサムネイル画像を表示するための切替ボタンを設ければよい。   Next, the control device 10 of the photo sticker 2 repeats the above processing operation until a predetermined number of times of photographing is performed or a predetermined time has elapsed (S31). Thereafter, the image / face ID display control unit 44 of the photo sticker 2 selects a photographed image to be transmitted to the communication terminal 3 (S32). Specifically, the image / face ID display control unit 44 causes the touch panel 15 to display a selection request image that requests the user to select a captured image, as shown in FIG. In this selection request image, thumbnail images of a plurality of photographed images are displayed. If not all thumbnail images can be displayed, a part of thumbnail images may be displayed and a switching button for displaying the remaining thumbnail images may be provided.

次に、利用者が所望のサムネイル画像を選択すると、画像・顔ID表示制御部44は、図11(c)に示されるように、選択したサムネイル画像に対応する撮影画像と、該撮影画像に含まれる複数の顔画像と、該複数の顔画像にそれぞれ対応する複数の顔IDとをタッチパネル15に表示させる。次に、写真シール機2と、写真シール機2の近くに位置する通信端末3とを通信可能な状態にする。そして、写真シール機2の顔ID認証部45は、通信端末3に対して顔IDの入力要求を送信する(S14)。   Next, when the user selects a desired thumbnail image, the image / face ID display control unit 44, as shown in FIG. 11C, the captured image corresponding to the selected thumbnail image and the captured image. A plurality of face images included and a plurality of face IDs respectively corresponding to the plurality of face images are displayed on the touch panel 15. Next, the photo sticker 2 and the communication terminal 3 located near the photo sticker 2 are brought into a communicable state. Then, the face ID authentication unit 45 of the photo sticker 2 transmits a face ID input request to the communication terminal 3 (S14).

通信端末3は、写真シール機2から顔IDの入力要求を受信すると(S20)、通信端末3の顔ID取得部60は、図9(a)に示されるように、顔IDの入力を利用者に要求する顔ID入力要求画像をタッチパネル33に表示させる。   When the communication terminal 3 receives the face ID input request from the photo sticker 2 (S20), the face ID acquisition unit 60 of the communication terminal 3 uses the input of the face ID as shown in FIG. 9A. The face ID input request image requested from the person is displayed on the touch panel 33.

次に、図9(b)に示されるように、端末利用者が、写真シール機2のタッチパネル15に表示された複数の顔IDのうち、自身の顔画像に対応する顔IDを通信端末3のタッチパネル33から入力する(S21)。このとき、通信端末3の顔ID取得部60は、タッチパネル33から入力された顔IDを写真シール機2に送信する(S22)。   Next, as shown in FIG. 9B, the terminal user sets the face ID corresponding to his / her face image among the plurality of face IDs displayed on the touch panel 15 of the photo sticker 2 to the communication terminal 3. From the touch panel 33 (S21). At this time, the face ID acquisition unit 60 of the communication terminal 3 transmits the face ID input from the touch panel 33 to the photo sticker 2 (S22).

写真シール機2は、通信端末3から顔IDを受信すると(S15)、写真シール機2の顔ID認証部45は、認証に成功したか否か、すなわち顔ID作成部43が作成した複数の顔IDの何れかと、通信端末3から受信した顔IDとが一致するか否かを判断する(S16)。認証に失敗した場合(顔IDが不一致である場合)には、ステップS14に戻って、上記処理動作を繰り返す。一方、認証に成功した場合(顔IDが一致である場合)には、写真シール機2の画像送出部46は、ステップS32にて選択した撮影画像データと、該撮影画像データに対応し、かつステップS16にて一致した顔IDに対応するマスク画像データとを記憶装置11から読み出して、通信端末3に送信する(S33)。その後、写真シール機2における処理動作を終了する。   When the photo sticker 2 receives the face ID from the communication terminal 3 (S15), the face ID authenticating unit 45 of the photo sticker 2 determines whether the authentication is successful, that is, a plurality of pieces created by the face ID creating unit 43. It is determined whether any of the face IDs matches the face ID received from the communication terminal 3 (S16). If the authentication fails (if the face IDs do not match), the process returns to step S14 and the above processing operation is repeated. On the other hand, when the authentication is successful (when the face IDs match), the image sending unit 46 of the photo sticker 2 corresponds to the captured image data selected in step S32 and the captured image data, and The mask image data corresponding to the face ID matched in step S16 is read from the storage device 11 and transmitted to the communication terminal 3 (S33). Thereafter, the processing operation in the photo sticker 2 is ended.

通信端末3は、写真シール機2から撮影画像データおよびマスク画像データを受信すると(S34)、通信端末3の制御部30は、図9(b)に示されるように、画像の受信中を示す情報と顔IDとをタッチパネル33に表示させる。撮影画像データおよびマスク画像データの受信が完了すると、通信端末3の制御部30は、図9(c)に示されるように、受信の完了を示す情報と、顔IDと、受信した撮影画像データに基づく撮影画像とを上部のタッチパネル33に表示させる。   When the communication terminal 3 receives the photographed image data and the mask image data from the photo sticker 2 (S34), the control unit 30 of the communication terminal 3 indicates that an image is being received, as shown in FIG. 9B. Information and face ID are displayed on the touch panel 33. When the reception of the captured image data and the mask image data is completed, the control unit 30 of the communication terminal 3, as shown in FIG. 9C, information indicating the completion of reception, the face ID, and the received captured image data A photographed image based on the above is displayed on the upper touch panel 33.

次に、顔ID取得部60が、顔IDを記憶部31に記憶するとともに、画像取得部61が、写真シール機2から取得した撮影画像データおよびマスク画像データを、上記顔IDに対応付けて記憶部31に記憶する(S35)。その後、通信端末3における処理動作を終了する。なお、マスク画像データは、後述する撮影画像の画像編集処理において利用される。   Next, the face ID acquisition unit 60 stores the face ID in the storage unit 31, and the image acquisition unit 61 associates the captured image data and the mask image data acquired from the photo sticker 2 with the face ID. Store in the storage unit 31 (S35). Thereafter, the processing operation in the communication terminal 3 is terminated. The mask image data is used in an image editing process for a captured image described later.

次に、複数人の利用者が写真シール機2で複数回撮影する場合であって、写真シール機2が、通信端末3から顔IDを自動的に取得して、顔IDの認証を行う場合について、図12〜図14を参照しつつ説明する。なお、上述した処理動作と同様の処理動作については同じ符号を付して、その詳細な説明を省略する。   Next, a case where a plurality of users take a picture a plurality of times with the photo sticker 2 and the photo sticker 2 automatically acquires a face ID from the communication terminal 3 and authenticates the face ID. Will be described with reference to FIGS. In addition, the same code | symbol is attached | subjected about the processing operation similar to the processing operation mentioned above, and the detailed description is abbreviate | omitted.

図12は、上記の場合における写真シール機2および通信端末3の処理動作の流れを示している。また、図13(a)〜(c)は、上記処理動作において、写真シール機2のタッチパネル15に表示される画像を示している。また、図14(a)・(b)は、上記処理動作において、通信端末3のタッチパネル33に表示される画像を示している。なお、図12〜図14に示される場合では、予め図7または図10に示される処理動作が行われることにより、通信端末3の記憶部31に顔IDが記憶されているとする。   FIG. 12 shows the flow of processing operations of the photo sticker 2 and the communication terminal 3 in the above case. 13A to 13C show images displayed on the touch panel 15 of the photographic sticker 2 in the processing operation. 14A and 14B show images displayed on the touch panel 33 of the communication terminal 3 in the processing operation. In the case shown in FIGS. 12 to 14, it is assumed that the face ID is stored in the storage unit 31 of the communication terminal 3 by performing the processing operation shown in FIG. 7 or 10 in advance.

まず、図12に示される撮影処理から撮影終了の判断処理までの処理(S10・S30・S12・S13・S31)は、図10に示される処理と同様であるので、その説明を省略する。   First, the processing (S10, S30, S12, S13, S31) from the photographing processing to the photographing end determination processing shown in FIG. 12 is the same as the processing shown in FIG.

写真シール機2にて所定回数撮影が行われるか、或いは所定時間が経過して撮影が終了した後(S31でYES)、写真シール機2の制御装置10は、通信端末3の自動検索を行う(S40)。具体的には、写真シール機2の通信装置12は、写真シール機2の通信範囲内に存在する通信端末3であって、写真シール機2と通信可能な通信端末3を検索する。この検索は、所定期間(例えば30秒)経過するまで続けられる。また、写真シール機2の画像・顔ID表示制御部44は、図13(a)に示されるように、通信端末3の検索中を示す画像をタッチパネル15に表示させる。   After the photo sticker 2 has taken a predetermined number of times, or after the photo has been taken after a predetermined time has elapsed (YES in S31), the control device 10 of the photo sticker 2 performs an automatic search for the communication terminal 3. (S40). Specifically, the communication device 12 of the photo sticker 2 searches for a communication terminal 3 that exists within the communication range of the photo sticker 2 and can communicate with the photo sticker 2. This search is continued until a predetermined period (for example, 30 seconds) elapses. Further, the image / face ID display control unit 44 of the photo sticker 2 displays on the touch panel 15 an image indicating that the communication terminal 3 is being searched, as shown in FIG.

所定期間経過するまでに通信可能な通信端末3を発見できなかった場合には(S41でNO)、図13(b)に示されるような、「近くに端末がありません」という検索失敗を示す画像を表示する(S42)。その後、ステップS40に戻って、上記自動検索を繰り返す。   If no communicable communication terminal 3 can be found before the predetermined period has passed (NO in S41), an image indicating a search failure “no terminal nearby” as shown in FIG. Is displayed (S42). Then, it returns to step S40 and repeats the said automatic search.

一方、所定期間内に通信可能な通信端末3を発見した場合には(S41でYES)、写真シール機2の顔ID認証部45は、通信端末3に対して顔IDの取得要求を送信する(S43)。   On the other hand, when a communication terminal 3 capable of communicating within a predetermined period is found (YES in S41), the face ID authentication unit 45 of the photo sticker 2 transmits a face ID acquisition request to the communication terminal 3. (S43).

通信端末3は、写真シール機2から顔IDの取得要求を受信すると(S50)、通信端末3の顔ID取得部60は、記憶部31に記憶された顔IDを読み出し(S51)、読み出した顔IDを写真シール機2に送信する(S52)。   When the communication terminal 3 receives the face ID acquisition request from the photo sticker 2 (S50), the face ID acquisition unit 60 of the communication terminal 3 reads the face ID stored in the storage unit 31 (S51). The face ID is transmitted to the photo sticker 2 (S52).

写真シール機2は、通信端末3から顔IDを受信すると(S15)、写真シール機2の顔ID認証部45は、認証に成功したか否か、すなわち顔ID作成部43が作成した複数の顔IDの何れかと、通信端末3から受信した顔IDとが一致するか否かを判断する(S16)。認証に失敗した場合(顔IDが不一致である場合)には、ステップS40に戻って、上記処理動作を繰り返す。   When the photo sticker 2 receives the face ID from the communication terminal 3 (S15), the face ID authenticating unit 45 of the photo sticker 2 determines whether the authentication is successful, that is, a plurality of pieces created by the face ID creating unit 43. It is determined whether any of the face IDs matches the face ID received from the communication terminal 3 (S16). If the authentication fails (if the face IDs do not match), the process returns to step S40 and the above processing operation is repeated.

一方、認証に成功した場合(顔IDが一致である場合)には、写真シール機2の画像送出部46は、通信端末3から受信した顔IDに対応付けられた全ての撮影画像データと、各撮影画像データに対応するサムネイル画像データと、各撮影画像データに対応し、かつ上記顔IDに対応するマスク画像データとを記憶装置11から読み出して、通信端末3に送信する(S44)。その後、写真シール機2における処理動作を終了する。   On the other hand, when the authentication is successful (when the face IDs match), the image sending unit 46 of the photo sticker 2 includes all the captured image data associated with the face ID received from the communication terminal 3, and The thumbnail image data corresponding to each photographed image data and the mask image data corresponding to each photographed image data and corresponding to the face ID are read from the storage device 11 and transmitted to the communication terminal 3 (S44). Thereafter, the processing operation in the photo sticker 2 is ended.

通信端末3は、写真シール機2から撮影画像データ、サムネイル画像データ、およびマスク画像データを受信する(S53)。このとき、通信端末3の制御部30は、図14(a)に示されるように、画像の受信中を示す情報をタッチパネル33に表示させる。撮影画像データ、サムネイル画像データおよびマスク画像データの受信が完了すると、通信端末3の制御部30は、図14(b)に示されるように、受信の完了を示す情報と、受信した複数のサムネイル画像データに基づく複数のサムネイル画像とをタッチパネル33に表示させる。   The communication terminal 3 receives the captured image data, thumbnail image data, and mask image data from the photo sticker 2 (S53). At this time, the control unit 30 of the communication terminal 3 causes the touch panel 33 to display information indicating that an image is being received, as illustrated in FIG. When reception of the captured image data, thumbnail image data, and mask image data is completed, the control unit 30 of the communication terminal 3 displays information indicating the completion of reception and the received plurality of thumbnails, as shown in FIG. A plurality of thumbnail images based on the image data are displayed on the touch panel 33.

次に、通信端末3の画像取得部61が、写真シール機2から取得した撮影画像データ、サムネイル画像データ、およびマスク画像データを、記憶部31に記憶された顔IDに対応付けて、記憶部31に記憶する(S54)。その後、通信端末3における処理動作を終了する。   Next, the image acquisition unit 61 of the communication terminal 3 associates the captured image data, thumbnail image data, and mask image data acquired from the photo sticker 2 with the face ID stored in the storage unit 31, 31 (S54). Thereafter, the processing operation in the communication terminal 3 is terminated.

次に、通信端末3の画像編集部62が、撮影画像に対し色の変更、落書きなどの画像編集処理を実行する場合について、図15〜図24を参照しつつ説明する。   Next, a case where the image editing unit 62 of the communication terminal 3 executes image editing processing such as color change and graffiti on a captured image will be described with reference to FIGS.

図15は、画像編集部62が実行する画像編集モードにおける処理動作を示している。また、図16は、画像編集の対象となる撮影画像(以下、「編集対象画像」と称する。)が横長である場合にタッチパネル33a・33bに表示される画像を示している。また、図17は、編集対象画像が縦長である場合にタッチパネル33a・33bに表示される画像を示している。   FIG. 15 shows processing operations in the image editing mode executed by the image editing unit 62. FIG. 16 shows images displayed on the touch panels 33a and 33b when a captured image (hereinafter referred to as “edit target image”) that is an object of image editing is horizontally long. FIG. 17 shows images displayed on the touch panels 33a and 33b when the editing target image is vertically long.

図15〜図17に示されるように、まず、第1のタッチパネル33aには、編集対象画像を選択するための選択用画像70が表示される。選択用画像70は、複数の撮影画像に対応する複数のサムネイル画像71を含んでいる(S60)。   As shown in FIGS. 15 to 17, first, a selection image 70 for selecting an edit target image is displayed on the first touch panel 33 a. The selection image 70 includes a plurality of thumbnail images 71 corresponding to the plurality of photographed images (S60).

一方、第2のタッチパネル33bには、画像編集を行うための編集用画像72が表示される。編集用画像72は、中央部に編集対象画像73を含んでいる。編集対象画像73は、その長手方向が第2のタッチパネル33bの長手方向と平行になるように配置される。また、編集用画像72は、タッチパネル33bの長手方向の一端に、画像編集で利用される各種のツールボタン74を含んでおり、他端に、選択されたツールボタン74に対応する各種ボタン75が含まれる。   On the other hand, an editing image 72 for performing image editing is displayed on the second touch panel 33b. The editing image 72 includes an editing target image 73 at the center. The editing target image 73 is arranged so that its longitudinal direction is parallel to the longitudinal direction of the second touch panel 33b. The editing image 72 includes various tool buttons 74 used for image editing at one end in the longitudinal direction of the touch panel 33b, and various buttons 75 corresponding to the selected tool button 74 at the other end. included.

次に、利用者がタッチペン34を用いて、第1のタッチパネル33aに含まれるサムネイル画像71を選択する(S61)。このとき、利用者が横長のサムネイル画像71aを選択する場合(S62でYES)、図16に示されるように、利用者がタッチパネル33a・33bを横長で使用するような横長用の表示レイアウトとなる(S63)。一方、利用者が縦長のサムネイル画像71bを選択する場合(S62でNO)、図17に示されるように、利用者がタッチパネル33a・33bを縦長で使用するような縦長用の表示レイアウトとなる(S64)。   Next, the user uses the touch pen 34 to select a thumbnail image 71 included in the first touch panel 33a (S61). At this time, when the user selects the horizontally long thumbnail image 71a (YES in S62), as shown in FIG. 16, the horizontally long display layout is such that the user uses the touch panel 33a or 33b in the horizontally long direction. (S63). On the other hand, when the user selects the vertically long thumbnail image 71b (NO in S62), as shown in FIG. 17, the display layout for the vertically long is such that the user uses the touch panels 33a and 33b in the vertically long ( S64).

なお、サムネイル画像71が横長であるか縦長であるかは、画像の表示サイズから判断してもよいし、横長および縦長の何れであるかを示す識別情報を、サムネイル画像データまたは撮影画像データに埋め込んでおき、上記データから上記識別情報を抽出することによって判断してもよい。   Whether the thumbnail image 71 is horizontally long or vertically long may be determined from the display size of the image. Identification information indicating whether the thumbnail image 71 is horizontally long or vertically long is used as thumbnail image data or captured image data. It may be determined by embedding and extracting the identification information from the data.

ここで、利用者が選択するサムネイル画像71が横長であるか縦長であるかに関係なく、利用者がタッチパネル33a・33bを横長で使用するような表示レイアウトの場合について、図18〜図20を参照しつつ説明する。なお、図18(a)、図19(a)、および図20(a)は、編集対象画像73が横長である場合の編集用画像72を示しており、図18(b)、図19(b)、および図20(b)は、編集対象画像73が縦長である場合の編集用画像72を示している。   Here, in the case of a display layout in which the user uses the touch panels 33a and 33b horizontally regardless of whether the thumbnail image 71 selected by the user is horizontally long or vertically long, FIGS. This will be described with reference to FIG. 18A, FIG. 19A, and FIG. 20A show an editing image 72 when the editing target image 73 is horizontally long. FIG. 18B and FIG. FIG. 20B and FIG. 20B show an editing image 72 when the editing target image 73 is vertically long.

図18(a)・(b)は、編集対象画像73が縦長であるか横長であるかに応じて、ツールボタン74および各種ボタン75の配置を変化させる場合の表示レイアウトを示している。図示の場合、編集対象画像73が横長であるか縦長であるかにより、表示レイアウトが大幅に変化するので、利用者がツールボタン74および各種ボタン75を操作し辛くなる。   18A and 18B show display layouts when the arrangement of the tool button 74 and the various buttons 75 is changed depending on whether the editing object image 73 is vertically long or horizontally long. In the case shown in the figure, the display layout changes greatly depending on whether the editing object image 73 is horizontally long or vertically long, so that it is difficult for the user to operate the tool buttons 74 and various buttons 75.

図19(a)・(b)は、編集対象画像73、ツールボタン74、および各種ボタンの配置を固定するとともに、編集対象画像73がタッチパネル33の表示領域内に収まるように拡大または縮小する場合の表示レイアウトを示している。図示の場合、表示レイアウトが固定されているので、利用者がツールボタン74および各種ボタン75を操作し易い。しかしながら、同図(b)に示されるように、縦長の編集対象画像73は、縮小表示されるため、利用者による画像編集の作業がし辛くなる。   19A and 19B show the case where the arrangement of the editing target image 73, the tool button 74, and various buttons is fixed, and the editing target image 73 is enlarged or reduced so as to be within the display area of the touch panel 33. The display layout of is shown. In the illustrated case, since the display layout is fixed, the user can easily operate the tool buttons 74 and various buttons 75. However, as shown in FIG. 5B, the vertically long edit target image 73 is displayed in a reduced size, making it difficult for the user to edit the image.

図20(a)・(b)は、編集対象画像73、ツールボタン74、および各種ボタンの配置を固定するとともに、編集対象画像73を縮小すること無く表示する場合の表示レイアウトを示している。図示の場合、表示レイアウトが固定されているので、利用者がツールボタン74および各種ボタン75を操作し易い。また、同図(b)に示されるように、縦長の編集対象画像73であっても、等倍表示であるため、利用者による画像編集の作業がし易い。しかしながら、縦長の編集対象画像73は、タッチパネル33の表示領域内に収まらないため、編集対象画像73を例えばスクロール表示させる必要があり、編集対象画像73の全体を把握し辛くなる。   20A and 20B show a display layout when the arrangement of the editing target image 73, the tool button 74, and various buttons is fixed and the editing target image 73 is displayed without being reduced. In the illustrated case, since the display layout is fixed, the user can easily operate the tool buttons 74 and various buttons 75. Further, as shown in FIG. 5B, even a vertically long edit target image 73 is displayed at the same magnification, and thus it is easy for the user to perform image editing work. However, since the vertically long edit target image 73 does not fit in the display area of the touch panel 33, it is necessary to scroll the edit target image 73, for example, and it is difficult to grasp the entire edit target image 73.

これに対し、本実施形態の画像提供システム1は、図16および図17に示されるように、通信端末3を回転させるだけで表示レイアウトに変化が無く、また、縦長および横長の何れの画像でも適当な寸法で表示されるため、利用者の操作性が向上する。   On the other hand, as shown in FIGS. 16 and 17, the image providing system 1 according to the present embodiment does not change the display layout only by rotating the communication terminal 3, and can display both vertically and horizontally long images. Since it is displayed with an appropriate size, the operability for the user is improved.

図15に戻って、横長用および縦長用の何れかの表示レイアウトが選択された後(S62〜S64)、画像編集処理が行われる(S65)。このとき、画像編集部62は、記憶部31からマスク画像データを読み出して、画像の編集可能領域を制限する。   Returning to FIG. 15, after either one of the horizontally long display layout and the vertically long display layout is selected (S62 to S64), an image editing process is performed (S65). At this time, the image editing unit 62 reads the mask image data from the storage unit 31 and limits the editable area of the image.

図21(a)は、撮影画像の一例を示しており、同図(b)は、該撮影画像に対応するマスク画像の一例を示している。同図(a)に示される撮影画像には、4人の顔画像が含まれ、このうち左上の顔画像に対応する顔IDを、通信端末3の記憶部31が記憶しているとする。この場合、マスク画像は、同図(b)に示されるように、残り3人の顔画像とその周辺領域(図示の斜線領域)が編集不能領域を示すものとなる。   FIG. 21A shows an example of a captured image, and FIG. 21B shows an example of a mask image corresponding to the captured image. The photographed image shown in FIG. 5A includes four face images, and it is assumed that the storage unit 31 of the communication terminal 3 stores the face ID corresponding to the upper left face image. In this case, in the mask image, as shown in FIG. 5B, the remaining three face images and the peripheral area (the hatched area in the figure) indicate an uneditable area.

図22(a)〜(c)は、図21(a)・(b)に示される撮影画像およびマスク画像に対して、画像編集部62が画像編集処理を行うときにタッチパネル33bに表示される編集用画像72を示している。図22(a)に示されるように、記憶部31が記憶する顔IDに対応する顔画像とその周囲の領域に対しては、画像編集(図示の例では付け髭)が可能である。一方、同図(b)に示されるように、上記顔IDに対応する顔画像以外の顔画像およびその周囲の領域に対して、画像編集を行おうとしても、同図(c)に示されるように、画像編集を行うことができず、「自分の顔じゃないから落書きできないよ!」というエラーメッセージを表示する。   22A to 22C are displayed on the touch panel 33b when the image editing unit 62 performs an image editing process on the captured image and the mask image shown in FIGS. 21A and 21B. An editing image 72 is shown. As shown in FIG. 22A, image editing (addition in the example shown) is possible for the face image corresponding to the face ID stored in the storage unit 31 and the surrounding area. On the other hand, as shown in (b) of the figure, even if it is attempted to perform image editing on a face image other than the face image corresponding to the face ID and the surrounding area, it is shown in (c) of the same figure. In this way, image editing cannot be performed and an error message “You cannot graffiti because you are not your face!” Is displayed.

これにより、通信端末3の利用者の顔画像以外の顔画像に対しては、マスク画像により画像編集を行うことができないので、個人情報の改竄を防止できる。   As a result, the face image other than the face image of the user of the communication terminal 3 cannot be edited with the mask image, so that personal information can be prevented from being falsified.

図15に戻って、上記画像編集処理(S65)は、利用者から終了の指示があるまで続けられる(S66)。利用者から終了の指示があると、編集中の画像データを編集画像データとして記憶部31に保存する。そして、別の画像の編集を行う場合には(S67でYES)、ステップS61に戻って上記の処理動作を繰り返し、画像の編集を行わない場合には(S67でNO)、画像編集モードを終了する。   Returning to FIG. 15, the image editing process (S65) is continued until an end instruction is given from the user (S66). When there is an end instruction from the user, the image data being edited is stored in the storage unit 31 as edited image data. If another image is to be edited (YES in S67), the process returns to step S61 and the above processing operation is repeated. If no image editing is to be performed (NO in S67), the image editing mode is terminated. To do.

次に、同じ撮影画像を複数の通信端末3で編集し、編集画像データを写真シール機2に送信した場合に、複数の編集画像を合成する方法について、図21、図23、および図24を参照しつつ説明する。図23(a)はAさんが編集した編集画像を示しており、同図(b)はBさんが編集した編集画像を示している。また、同図(c)はBさんに対するマスク画像を示している。   Next, FIG. 21, FIG. 23, and FIG. 24 show a method of combining a plurality of edited images when the same photographed image is edited by a plurality of communication terminals 3 and the edited image data is transmitted to the photo sticker 2. This will be described with reference to FIG. FIG. 23A shows an edited image edited by Mr. A, and FIG. 23B shows an edited image edited by Mr. B. FIG. 5C shows a mask image for Mr. B.

なお、複数の編集画像を合成する処理は、写真シール機2の画像編集処理部27にて行われる。また、或る通信端末3が、別の通信端末3から編集画像データを受信し、受信した編集画像データに基づく編集画像と、自端末の記憶部31が記憶する編集画像データに基づく編集画像とを、画像編集部62にて合成してもよい。   Note that the process of combining a plurality of edited images is performed by the image editing processing unit 27 of the photo sticker 2. Also, a certain communication terminal 3 receives edited image data from another communication terminal 3, and an edited image based on the received edited image data, an edited image based on the edited image data stored in the storage unit 31 of the own terminal, and May be combined by the image editing unit 62.

図21(a)に示される撮影画像に含まれる4人の顔画像のうち、Aさんは左上の顔画像の人物であり、Bさんは右上の顔画像の人物である。したがって、Aさんのマスク画像は、図21(b)に示されるものとなり、Bさんのマスク画像は、図23(c)に示されるものとなる。なお、図21(b)と同様に、図23(c)に示される画像の斜線領域が、編集不能領域を示している。   Of the four face images included in the photographed image shown in FIG. 21A, Mr. A is a person in the upper left face image, and Mr. B is a person in the upper right face image. Therefore, Mr. A's mask image is as shown in FIG. 21B, and Mr. B's mask image is as shown in FIG. As in FIG. 21B, the shaded area of the image shown in FIG. 23C indicates an uneditable area.

図21(b)に示されるマスク画像により、Aさんの編集画像では、図23(a)に示されるように、Aさんの顔画像の領域と、4人の顔画像以外の領域とに画像編集処理が施されることになる。一方、図23(c)に示されるマスク画像により、Bさんの編集画像では、図23(b)に示されるように、Bさんの顔画像の領域と、4人の顔画像以外の領域とに画像編集処理が施されることになる。   With the mask image shown in FIG. 21 (b), in Mr. A's edited image, as shown in FIG. 23 (a), images of Mr. A's face image and images other than the face images of the four people are displayed. Editing processing will be performed. On the other hand, according to the mask image shown in FIG. 23 (c), in the edited image of Mr. B, as shown in FIG. 23 (b), an area of Mr. B's face image and an area other than the face images of four people The image editing process is performed on the.

図24(a)・(b)は、図23(a)に示されるAさんの編集画像と、図23(b)に示されるBさんの編集画像とを合成した合成画像の例を示している。図24(a)に示される合成画像の例は、2つの編集画像を単純に合成したものである。図示のように、Aさんの顔画像とBさんの顔画像とのそれぞれに画像編集処理が反映されることになるが、4人の顔画像以外の領域では、スタンプ、線などの編集内容が重なる可能性がある。   FIGS. 24A and 24B show examples of synthesized images obtained by synthesizing the edited image of Mr. A shown in FIG. 23A and the edited image of Mr. B shown in FIG. Yes. The example of the composite image shown in FIG. 24A is a composite of two edited images. As shown in the figure, the image editing process is reflected in each of the face image of Mr. A and the face image of Mr. B. In areas other than the face images of four people, edit contents such as stamps and lines are not displayed. There is a possibility of overlapping.

そこで、編集内容が重なる場合には、図24(b)に示されるように、編集内容が重ならないように移動させるか、或いは編集内容を消去することが望ましい。これは、複数の編集画像を別々のレイヤに形成することにより対応可能である。   Therefore, when the editing contents overlap, as shown in FIG. 24B, it is desirable to move the editing contents so that they do not overlap, or to delete the editing contents. This can be dealt with by forming a plurality of edited images in different layers.

〔実施の形態2〕
次に、本発明の別の実施形態について、図25〜図27を参照しつつ説明する。図25は、本実施形態である画像選択システムの概略構成を示している。この画像選択システム(画像提供システム)100は、複数の通信端末3にて作成された複数の編集画像のうち、印刷を行うものを投票形式で決定するものである。なお、本実施形態の画像選択システム100は、図1に示される複数の通信端末3と写真シール機2とを備える構成であるため、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
[Embodiment 2]
Next, another embodiment of the present invention will be described with reference to FIGS. FIG. 25 shows a schematic configuration of the image selection system according to the present embodiment. This image selection system (image providing system) 100 is for deciding which of a plurality of edited images created by a plurality of communication terminals 3 is to be printed in a voting format. Note that the image selection system 100 of the present embodiment is configured to include the plurality of communication terminals 3 and the photo sticker 2 shown in FIG. 1, and therefore the same configuration as the configuration described in the above embodiment is the same. Reference numerals are assigned and explanations thereof are omitted.

複数の通信端末3は、相互に無線通信可能であるが、或る1台が親機3aとなり、その他が子機3bとなる。また、親機3aは、写真シール機2と無線通信可能である。なお、親機3aおよび子機3bは、通信部32を介して無線通信を行うが、図25では、通信部32を省略して記載している。   The plurality of communication terminals 3 can perform wireless communication with each other, but one unit serves as a parent device 3a and the other serves as a child device 3b. The master unit 3a can communicate with the photo sticker 2 wirelessly. In addition, although the main | base station 3a and the subunit | mobile_unit 3b perform radio | wireless communication via the communication part 32, the communication part 32 is abbreviate | omitted and described in FIG.

図25に示されるように、親機3aの制御部30は、画像収集部(画像収集手段)110、画像選択部(画像送出手段)111、および画像決定部(画像決定手段)112を備える構成である。一方、子機3bの制御部30は、画像送信部120、画像取得部121、投票部122、および結果取得部123を備える構成である。また、図26(a)〜(d)は、親機3aのタッチパネル33に表示される画像を示しており、図27(a)〜(c)は、子機3bのタッチパネル33に表示される画像を示している。   As shown in FIG. 25, the control unit 30 of the parent device 3a includes an image collection unit (image collection unit) 110, an image selection unit (image transmission unit) 111, and an image determination unit (image determination unit) 112. It is. On the other hand, the control part 30 of the subunit | mobile_unit 3b is a structure provided with the image transmission part 120, the image acquisition part 121, the voting part 122, and the result acquisition part 123. FIG. FIGS. 26A to 26D show images displayed on the touch panel 33 of the parent device 3a, and FIGS. 27A to 27C are displayed on the touch panel 33 of the child device 3b. An image is shown.

まず、親機3aの制御部30は、図26(a)に示されるメニュー画像をタッチパネル33に表示させる。ここで、「投票」が選択されると、投票モードに移行し、以下の処理が行われる。   First, the control unit 30 of the parent device 3a causes the touch panel 33 to display the menu image shown in FIG. Here, when “voting” is selected, the mode shifts to the voting mode, and the following processing is performed.

親機3aの画像収集部110は、通信可能な通信端末3を検索する。このとき、画像収集部110は、図26(b)に示される待機画像をタッチパネル33に表示させる。   The image collection unit 110 of the parent device 3a searches for communication terminals 3 that can communicate. At this time, the image collection unit 110 displays the standby image shown in FIG.

検索の結果、通信可能な通信端末3が見つかると、親機3aの画像収集部110は、見つかった通信端末3を子機3bとして、画像の要求を送信する。一方、子機3bの画像送信部120は、親機3aから画像の要求を受信すると、記憶部31に記憶された撮影画像データと、該撮影画像データに対応する編集画像データとを読み出して親機3aに送信する。親機3aの画像収集部110は、子機3bから受信した撮影画像データおよび編集画像データを記憶部31に記憶する。   As a result of the search, when a communicable communication terminal 3 is found, the image collection unit 110 of the parent device 3a transmits an image request using the found communication terminal 3 as the child device 3b. On the other hand, when receiving the image request from the parent device 3a, the image transmission unit 120 of the child device 3b reads out the photographed image data stored in the storage unit 31 and the edited image data corresponding to the photographed image data to read the parent image. To the machine 3a. The image collection unit 110 of the parent device 3a stores the captured image data and the edited image data received from the child device 3b in the storage unit 31.

具体的には、親機3aの画像収集部110は、子機3bから顔IDを取得し、取得した顔IDに対応する画像データ(撮影画像データおよび編集画像データ)を検索する。次に、親機3aの画像収集部110は、検索した画像データと、子機3bが記憶する画像データとの照合を行う。このとき、画像収集部110は、図26(c)に示される照合中の画像をタッチパネル33に表示させる。照合の結果、親機3aの画像収集部110は、子機3bにのみ記憶されている画像データを子機3bに要求して取得し、記憶部31に記憶する。これにより、親機3aおよび子機3bの両方が記憶する画像データを通信する無駄を防止できる。なお、親機3aの画像収集部110は、通信可能な全ての子機3bに対して上記の処理を実行する。   Specifically, the image collection unit 110 of the parent device 3a acquires a face ID from the child device 3b, and searches for image data (captured image data and edited image data) corresponding to the acquired face ID. Next, the image collection unit 110 of the parent device 3a collates the searched image data with the image data stored in the child device 3b. At this time, the image collection unit 110 causes the touch panel 33 to display the image being verified as illustrated in FIG. As a result of the collation, the image collection unit 110 of the parent device 3 a requests and acquires image data stored only in the child device 3 b from the child device 3 b and stores it in the storage unit 31. Thereby, it is possible to prevent waste of communicating image data stored in both the parent device 3a and the child device 3b. Note that the image collection unit 110 of the parent device 3a executes the above-described process for all the child devices 3b that can communicate.

次に、親機3aの画像選択部111は、記憶部31に記憶されている撮影画像データを読み出して、図26(d)に示されるように、撮影画像データに基づくサムネイル画像のリストをタッチパネル33に表示させる。親機3aの利用者がタッチパネル33またはタッチペン34を介して画像を選択すると、親機3aの画像選択部111は、選択されたサムネイル画像(撮影画像)に対応する全ての編集画像データを記憶部31から読み出して子機3bに送信する。   Next, the image selection unit 111 of the parent device 3a reads the photographed image data stored in the storage unit 31, and displays a list of thumbnail images based on the photographed image data on the touch panel as shown in FIG. 33 is displayed. When the user of the parent device 3a selects an image via the touch panel 33 or the touch pen 34, the image selection unit 111 of the parent device 3a stores all edited image data corresponding to the selected thumbnail image (photographed image). It reads from 31 and transmits to the subunit | mobile_unit 3b.

一方、子機3bの画像取得部121は、親機3aから編集画像データを受信すると、図27(a)に示されるように、受信した編集画像データに基づく編集画像のリストを第2のタッチパネル33bに表示させる。子機3bの利用者がタッチパネル33またはタッチペン34を介して編集画像を選択すると、子機3bの投票部122は、選択された編集画像の情報(例えば、編集画像の識別情報など)を含む投票データを親機3aに送信する。   On the other hand, when the image acquisition unit 121 of the child device 3b receives the edited image data from the parent device 3a, the second touch panel displays a list of edited images based on the received edited image data, as shown in FIG. 33b is displayed. When the user of the slave unit 3b selects an edited image via the touch panel 33 or the touch pen 34, the voting unit 122 of the slave unit 3b votes including information on the selected edited image (for example, identification information of the edited image). Data is transmitted to the base unit 3a.

親機3aの画像決定部112は、複数の子機3bから投票データを受信すると、投票数の多い編集画像を、印刷を行う編集画像に決定し、その編集画像データを写真シール機2に送信する。写真シール機2は、シール紙上での分割数または分割パターンを利用者に選択させ、選択された分割領域ごとに、親機3aから受信した編集画像データに基づく編集画像が印刷されるように、プリンタ23を制御して印刷を行う。その後、シール紙排出口24から印刷された写真シール紙が排出される。   When receiving the vote data from the plurality of slave units 3b, the image determination unit 112 of the master unit 3a determines an edited image with a large number of votes as an edited image to be printed, and transmits the edited image data to the photo sealer 2 To do. The photo sticker 2 allows the user to select the number of divisions or the division pattern on the sticker paper, and an edited image based on the edited image data received from the master unit 3a is printed for each selected divided area. The printer 23 is controlled to perform printing. Thereafter, the printed photo sticker paper is discharged from the sticker paper discharge port 24.

また、親機3aの画像決定部112は、上記決定の結果を結果データとして子機3bに送信する。子機3bの結果取得部123は、親機3aから結果データを受信し、受信した結果データに基づき、図27(b)・(c)に示されるように、印刷を行う編集画像を第1のタッチパネル33aに表示させる。また、子機3bの結果取得部123は、印刷を行う編集画像が、子機3bの利用者が選択した編集画像と一致する場合には、図27(b)に示されるように、祝福を示す画像を第2のタッチパネル33bに表示させる。一方、子機3bの結果取得部123は、印刷を行う編集画像が、子機3bの利用者が選択した編集画像と一致しない場合には、図27(c)に示されるように、残念を示す画像を第2のタッチパネル33bに表示させる。   The image determination unit 112 of the parent device 3a transmits the determination result to the child device 3b as result data. The result acquisition unit 123 of the child device 3b receives the result data from the parent device 3a, and based on the received result data, the edited image to be printed is first displayed as shown in FIGS. 27 (b) and (c). Displayed on the touch panel 33a. When the edited image to be printed matches the edited image selected by the user of the child device 3b, the result obtaining unit 123 of the child device 3b gives a blessing as shown in FIG. The image shown is displayed on the second touch panel 33b. On the other hand, if the edited image to be printed does not match the edited image selected by the user of the child device 3b, the result acquisition unit 123 of the child device 3b disappoints as shown in FIG. The image shown is displayed on the second touch panel 33b.

したがって、本実施形態の画像選択システム100は、印刷すべき画像を、通信端末3の利用者からの投票によって決定できるので、利用者の多数が最適と判断した編集画像を、印刷すべき画像として選択することができる。また、投票による編集画像の決定という遊戯を提供するので、利用者の娯楽性を高めることができる。   Therefore, the image selection system 100 according to the present embodiment can determine an image to be printed by voting from the users of the communication terminals 3, and therefore, an edited image determined by the majority of users as an optimum image is to be printed. You can choose. In addition, since the game of determining the edited image by voting is provided, the entertainment of the user can be enhanced.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

例えば、上記実施形態では、顔IDは、器官パーツ選択部42が選択した器官パーツから作成しているが、顔特徴点抽出部41が抽出した顔の特徴点から作成することもできる。この場合、顔IDによる利用者の識別力が向上する一方で、顔IDのデータ長が増大することにより処理速度が低下することになる。   For example, in the above-described embodiment, the face ID is created from the organ parts selected by the organ part selection unit 42, but can also be created from the facial feature points extracted by the face feature point extraction unit 41. In this case, while the user's discriminating power by the face ID is improved, the processing speed is lowered by increasing the data length of the face ID.

また、顔の特徴点を検出することにより顔認識を行うこともできる。この場合、顔認識部40および顔特徴点抽出部41を一体とすることができる。また、顔認識から器官パーツを選択できる場合には、顔特徴点抽出部41を省略することができる。   Face recognition can also be performed by detecting feature points of the face. In this case, the face recognition unit 40 and the face feature point extraction unit 41 can be integrated. Further, when an organ part can be selected from face recognition, the face feature point extraction unit 41 can be omitted.

また、利用者が専ら通信端末3にて画像編集を行う場合には、写真シール機2は、編集空間と、該編集空間に設けられる編集処理用タッチパネル20および編集処理用タッチペン21と、制御装置10の画像処理部27を省略してもよい。   When the user performs image editing exclusively on the communication terminal 3, the photo sticker 2 includes an editing space, an editing processing touch panel 20 and an editing processing touch pen 21 provided in the editing space, and a control device. The ten image processing units 27 may be omitted.

また、印刷空間に設けられる印刷処理用タッチパネル22、プリンタ23、およびシール紙排出口24は、写真シール機2とは別の装置であって写真シール機2とデータ通信可能である専用の印刷装置に設けることもできる。   In addition, the print processing touch panel 22, the printer 23, and the sticker paper discharge port 24 provided in the print space are devices different from the photo sticker 2 and can be used for data communication with the photo sticker 2. It can also be provided.

最後に、写真シール機2および通信端末3の各ブロック、特に制御装置10および制御部30は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the photo sticker 2 and the communication terminal 3, in particular, the control device 10 and the control unit 30 may be configured by hardware logic, or may be realized by software using a CPU as follows. Good.

すなわち、制御装置10および制御部30は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである制御装置10および制御部30の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、制御装置10および制御部30に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the control device 10 and the control unit 30 include a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, and a RAM (random) that expands the program. access memory), a storage device (recording medium) such as a memory for storing the program and various data. The object of the present invention is to record the program code (execution format program, intermediate code program, source program) of the control program of the control device 10 and the control unit 30, which is software that realizes the above-described functions, in a computer-readable manner. This can also be achieved by supplying the recording medium to the control device 10 and the control unit 30 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、制御装置10および制御部30を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   In addition, the control device 10 and the control unit 30 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Further, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、例えば、複数の人数で撮影した撮影画像において、被写体である利用者の通信端末に適切に送信できる画像提供装置とそれを含むシステム全般に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for, for example, an image providing apparatus that can appropriately transmit a captured image taken by a plurality of people to a communication terminal of a user who is a subject, and a system including the image providing apparatus.

本発明の一実施形態である画像提供システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image provision system which is one Embodiment of this invention. 上記画像提供システムにおける写真シール機の制御装置および記憶装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control apparatus and memory | storage device of a photograph sticker in the said image provision system. 上記画像提供システムにおける通信端末の制御部および記憶部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part and memory | storage part of a communication terminal in the said image provision system. 同図(a)は、撮影画像から抽出された顔画像の一例を示す図であり、同図(b)は、該顔画像から顔の特徴点を抽出した画像の一例を示す図である。FIG. 4A is a diagram showing an example of a face image extracted from a photographed image, and FIG. 4B is a diagram showing an example of an image obtained by extracting facial feature points from the face image. 上記写真シール機の記憶装置に記憶される器官パーツ群のデータ構造を表形式で示す図である。It is a figure which shows the data structure of the organ parts group memorize | stored in the memory | storage device of the said photograph sealing machine in a table form. 上記器官パーツ群に含まれる器官パーツの一例を表形式で示す図である。It is a figure which shows an example of the organ parts contained in the said organ part group in a table | surface form. 上記画像提供システムにおいて、1人の利用者が上記写真シール機で1回撮影する場合の処理動作の流れを示すフローチャートである。In the said image provision system, it is a flowchart which shows the flow of a processing operation in case one user image | photographs once with the said photograph sticker. 同図(a)・(c)は、上記処理動作において上記写真シール機に表示される画像を示す図であり、同図(b)は、上記写真シール機が選択した器官パーツを示す図である。(A) and (c) are diagrams showing images displayed on the photographic seal machine in the processing operation, and (b) are diagrams showing organ parts selected by the photographic seal machine. is there. 同図(a)〜(c)は、上記処理動作において上記通信端末に表示される画像を示す図である。FIGS. 9A to 9C are diagrams showing images displayed on the communication terminal in the processing operation. 上記画像提供システムにおいて、複数人の利用者が上記写真シール機で複数回撮影する場合の処理動作の流れを示すフローチャートである。In the said image provision system, it is a flowchart which shows the flow of a processing operation in case several users image | photograph several times with the said photograph sticker. 同図(a)は、上記処理動作において上記写真シール機が選択した器官パーツを顔画像ごとに示す図であり、同図(b)・(c)は、上記処理動作において上記写真シール機に表示される画像を示す図である。FIG. 4A is a view showing organ parts selected by the photo sticker in the processing operation for each face image, and FIGS. 5B and 5C show the photo sticker in the processing operation. It is a figure which shows the image displayed. 上記画像提供システムにおいて、複数人の利用者が上記写真シール機で複数回撮影する場合であって、上記写真シール機が、上記通信端末から顔IDを自動的に取得して、顔IDの認証を行う場合の処理動作の流れを示すフローチャートである。In the image providing system, when a plurality of users take a picture a plurality of times with the photo sticker, the photo sticker automatically acquires a face ID from the communication terminal and authenticates the face ID. It is a flowchart which shows the flow of the processing operation in performing. 同図(a)〜(c)は、上記処理動作において上記写真シール機に表示される画像を示す図である。FIGS. 9A to 9C are diagrams showing images displayed on the photographic sticker in the processing operation. 同図(a)・(b)は、上記処理動作において上記通信端末に表示される画像を示す図である。FIGS. 4A and 4B are diagrams showing images displayed on the communication terminal in the processing operation. 上記通信端末が実行する画像編集モードにおける処理動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the processing operation in the image edit mode which the said communication terminal performs. 上記画像編集の対象となる撮影画像が横長である場合に上記通信端末に表示される画像を示す図である。It is a figure which shows the image displayed on the said communication terminal when the picked-up image used as the object of the said image editing is horizontally long. 上記撮影画像が縦長である場合に上記通信端末に表示される画像を示す図である。It is a figure which shows the image displayed on the said communication terminal when the said picked-up image is vertically long. 上記撮影画像が縦長であるか横長であるかに応じて、表示レイアウトが変化する場合を示す図であり、同図(a)は、上記撮影画像が横長である場合を示しており、同図(b)は、上記撮影画像が縦長である場合を示している。It is a figure which shows the case where a display layout changes according to whether the said picked-up image is vertically long or horizontally long, The figure (a) has shown the case where the said picked-up image is horizontally long, (B) has shown the case where the said picked-up image is vertically long. 表示レイアウトを固定するとともに、上記撮影画像が表示領域内に収まるように拡大または縮小する場合を示す図であり、同図(a)は、上記撮影画像が横長である場合を示しており、同図(b)は、上記撮影画像が縦長である場合を示している。FIG. 7 is a diagram showing a case where the display layout is fixed and the captured image is enlarged or reduced so as to be within the display area. FIG. 5A shows a case where the captured image is horizontally long. FIG. 5B shows a case where the captured image is vertically long. 表示レイアウトを固定するとともに、上記撮影画像を縮小することなく表示する場合を示す図であり、同図(a)は、上記撮影画像が横長である場合を示しており、同図(b)は、上記撮影画像が縦長である場合を示している。FIG. 4 is a diagram showing a case where the display layout is fixed and the captured image is displayed without being reduced. FIG. 5A shows a case where the captured image is horizontally long, and FIG. The case where the photographed image is vertically long is shown. 同図(a)は、撮影画像の一例を示す図であり、同図(b)は、該撮影画像に対応するマスク画像の一例を示す図である。FIG. 4A is a diagram illustrating an example of a captured image, and FIG. 4B is a diagram illustrating an example of a mask image corresponding to the captured image. 同図(a)〜(c)は、上記撮影画像および上記マスク画像に対して画像編集処理を行うときに上記通信端末のタッチパネルに表示される編集用画像を示す図である。FIGS. 9A to 9C are diagrams illustrating editing images displayed on the touch panel of the communication terminal when image editing processing is performed on the captured image and the mask image. 同図(a)は或る人が編集した編集画像を示す図であり、同図(b)・(c)は、別の人が編集した編集画像およびマスク画像を示す図である。FIG. 4A is a diagram showing an edited image edited by a certain person, and FIGS. 5B and 5C are diagrams showing an edited image and a mask image edited by another person. 同図(a)・(b)は、上記2つの編集画像を合成した合成画像の例を示す図である。FIGS. 7A and 7B are diagrams illustrating examples of a composite image obtained by combining the two edited images. 本発明の別の実施形態である画像選択システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image selection system which is another embodiment of this invention. 同図(a)〜(d)は、上記画像選択システムにおける複数の通信端末のうちの親機に表示される画像を示す図である。FIGS. 4A to 4D are diagrams showing images displayed on a master unit among a plurality of communication terminals in the image selection system. 同図(a)〜(c)は、複数の上記通信端末のうちの子機に表示される画像を示す図である。FIGS. 4A to 4C are diagrams showing images displayed on the slave units among the plurality of communication terminals.

符号の説明Explanation of symbols

1 画像提供システム
2 写真シール機(画像提供装置)
3 通信端末
3a 親機
3b 子機
26 撮影処理部(撮影画像取得手段)
40 顔認識部(顔認識手段、マスク画像作成手段)
41 顔特徴点抽出部(特徴点抽出手段)
42 器官パーツ選択部(類型特定手段)
43 顔ID作成部(顔ID作成手段)
45 顔ID認証部(顔ID受信手段、顔ID認証手段)
46 画像送出部(画像送出手段)
60 顔ID取得部(顔ID取得手段)
62 画像編集部(画像編集手段)
100 画像選択システム(画像提供システム)
110 画像収集部(画像収集手段)
111 画像選択部(画像送出手段)
112 画像決定部(画像決定手段)
1 Image providing system 2 Photo sticker (image providing device)
3 Communication Terminal 3a Master Unit 3b Slave Unit 26 Shooting Processing Unit (Captured Image Acquisition Unit)
40 Face recognition unit (face recognition means, mask image creation means)
41 face feature point extraction unit (feature point extraction means)
42 Organ parts selector (type identification means)
43 Face ID creation unit (face ID creation means)
45 Face ID authentication unit (face ID receiving means, face ID authentication means)
46 Image sending section (image sending means)
60 Face ID acquisition unit (face ID acquisition means)
62 Image Editor (Image Editor)
100 Image selection system (image provision system)
110 Image collection unit (image collection means)
111 Image selection unit (image sending means)
112 Image determination unit (image determination means)

Claims (10)

通信端末に画像を提供する画像提供装置であって、
撮影画像を取得する撮影画像取得手段と、
前記撮影画像の中から顔の部分の画像である顔画像を認識する顔認識手段と、
前記顔画像に基づいて、顔の特徴点を抽出する特徴点抽出手段と、
前記顔の特徴点に基づいて顔画像を識別するデータである顔IDを作成する顔ID作成手段と、
前記撮影画像取得手段が取得した撮影画像に関して、前記顔ID作成手段が作成した顔IDに対応する顔画像以外の顔画像の領域を画像編集不可領域としたマスク画像を作成するマスク画像作成手段と、
前記通信端末から前記顔IDを受信する顔ID受信手段と、
受信した顔ID、前記顔ID作成手段が作成した顔IDにより認証する顔ID認証手段と、
認証に成功した場合、受信した顔IDに対応する顔画像を含む撮影画像と、該撮影画像に関して、受信した顔IDに対応する顔画像以外の顔画像の領域を画像編集不可領域としたマスク画像とを前記通信端末に送出する画像送出手段とを備えることを特徴とする画像提供装置。
An image providing device for providing an image to a communication terminal,
A captured image acquisition means for acquiring a captured image;
Face recognition means for recognizing a face image that is an image of a face portion from the captured image;
Feature point extraction means for extracting facial feature points based on the face image;
A face ID creating means for creating a face ID that is data for identifying a face image based on the facial feature points;
A mask image creating unit that creates a mask image in which a region of a face image other than the face image corresponding to the face ID created by the face ID creating unit is an image edit impossible region with respect to the photographed image obtained by the photographed image obtaining unit; ,
Face ID receiving means for receiving the face ID from the communication terminal;
A face ID authenticating means for authenticating the received face ID with the face ID created by the face ID creating means;
When the authentication is successful, a captured image including a face image corresponding to the received face ID, and a mask image in which an area of the face image other than the face image corresponding to the received face ID with respect to the captured image is an image edit disabled region And an image sending means for sending the information to the communication terminal.
前記顔の特徴点に基づいて顔の類型を特定する類型特定手段をさらに備えており、
前記顔ID作成手段は、前記顔の類型に基づいて前記顔IDを作成することを特徴とする請求項1に記載の画像提供装置。
Further comprising a type specifying means for specifying the type of the face based on the facial feature points;
The image providing apparatus according to claim 1, wherein the face ID creating unit creates the face ID based on a type of the face.
請求項1または2に記載の画像提供装置と、該画像提供装置と通信可能な1または複数の通信端末とを備えることを特徴とする画像提供システム。 An image providing system comprising: the image providing apparatus according to claim 1 ; and one or more communication terminals capable of communicating with the image providing apparatus. 前記通信端末は、顔IDを取得する顔ID取得手段であって、取得した顔IDを画像提供装置に送出する顔ID取得手段を備えることを特徴とする請求項に記載の画像提供システム。 4. The image providing system according to claim 3 , wherein the communication terminal includes a face ID obtaining unit that obtains a face ID, and the face providing unit obtains the acquired face ID to the image providing apparatus. 前記画像提供装置および前記通信端末は、近距離無線通信によりデータ通信を行うことを特徴とする請求項3または4に記載の画像提供システム。 The image providing system according to claim 3 or 4 , wherein the image providing apparatus and the communication terminal perform data communication by short-range wireless communication. 前記通信端末は、前記画像提供装置から取得した撮影画像を編集する画像編集手段を備えることを特徴とする請求項3ないし5の何れか1項に記載の画像提供システム。 The image providing system according to claim 3 , wherein the communication terminal includes an image editing unit that edits a captured image acquired from the image providing apparatus. 前記通信端末として、1つの親機と、1または複数の子機とを備えており、
前記親機は、
前記子機の画像編集手段が編集した編集画像を収集する画像収集手段と、
該画像収集手段が収集した編集画像を前記子機に送出する画像送出手段と、
前記子機から前記編集画像に対する投票情報を取得し、取得した投票情報に基づいて編集画像を決定する画像決定手段とを備えることを特徴とする請求項に記載の画像提供システム。
As the communication terminal, it comprises one parent device and one or more child devices,
The base unit is
Image collection means for collecting edited images edited by the image editing means of the slave unit;
Image sending means for sending the edited image collected by the image collecting means to the slave unit;
The image providing system according to claim 6 , further comprising image determining means for acquiring voting information for the edited image from the slave unit and determining an edited image based on the acquired voting information.
通信端末に画像を提供する画像提供装置における画像提供方法であって、
画像提供装置は、
撮影画像を取得し、
取得した撮影画像の中から顔の部分の画像である顔画像を認識し、
認識した顔画像に基づいて、顔の特徴点を抽出し、
抽出した顔の特徴点に基づいて顔画像を識別するデータである顔IDを作成し、
取得した撮影画像に関して、作成した顔IDに対応する顔画像以外の顔画像の領域を画像編集不可領域としたマスク画像を作成し、
作成した顔IDにより、前記通信端末から受信した顔IDを認証し、
認証に成功した場合、受信した顔IDに対応する顔画像を含む撮影画像と、該撮影画像に関して、受信した顔IDに対応する顔画像以外の顔画像の領域を画像編集不可領域としたマスク画像とを前記通信端末に送出することを特徴とする画像提供装置の画像提供方法。
An image providing method in an image providing apparatus for providing an image to a communication terminal,
The image providing device
Get the shot image,
Recognize the face image that is the image of the face part from the acquired captured image,
Based on the recognized face image, extract facial feature points,
Create a face ID, which is data for identifying a face image based on the extracted facial feature points,
For the acquired captured image, create a mask image in which the area of the face image other than the face image corresponding to the created face ID is an image edit impossible area,
The face ID received from the communication terminal is authenticated by the created face ID,
When the authentication is successful, a captured image including a face image corresponding to the received face ID, and a mask image in which an area of the face image other than the face image corresponding to the received face ID with respect to the captured image is an image edit disabled region image providing method for an image providing apparatus characterized by delivering bets to the communication terminal.
請求項1または2に記載の画像提供装置を動作させるための画像提供装置制御プログラムであって、コンピュータを上記各手段として機能させるための画像提供装置制御プログラム。 An image providing apparatus control program for operating the image providing apparatus according to claim 1 or 2 for causing a computer to function as each means. 請求項に記載の画像提供装置制御プログラムが記録されたコンピュータ読取り可能な記録媒体。 A computer-readable recording medium on which the image providing device control program according to claim 9 is recorded.
JP2005194145A 2005-07-01 2005-07-01 Image providing apparatus, image providing system, image providing method, image providing apparatus control program, and recording medium recording the program Expired - Fee Related JP4581872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005194145A JP4581872B2 (en) 2005-07-01 2005-07-01 Image providing apparatus, image providing system, image providing method, image providing apparatus control program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005194145A JP4581872B2 (en) 2005-07-01 2005-07-01 Image providing apparatus, image providing system, image providing method, image providing apparatus control program, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2007013800A JP2007013800A (en) 2007-01-18
JP4581872B2 true JP4581872B2 (en) 2010-11-17

Family

ID=37751632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005194145A Expired - Fee Related JP4581872B2 (en) 2005-07-01 2005-07-01 Image providing apparatus, image providing system, image providing method, image providing apparatus control program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4581872B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9047506B2 (en) 2011-11-25 2015-06-02 Fujitsu Limited Computer-readable recording medium storing authentication program, authentication device, and authentication method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128792A (en) * 2010-12-17 2012-07-05 Mitsubishi Electric Corp Personal authentication device and computer program
JP2013093841A (en) * 2011-10-05 2013-05-16 Sanyo Electric Co Ltd Electronic camera
JP5820359B2 (en) * 2012-11-28 2015-11-24 フリュー株式会社 Photographed image editing apparatus, image processing terminal, method for controlling photographed image editing apparatus, photographed image editing apparatus, image processing terminal control program, and computer-readable recording medium thereof
JP5673883B1 (en) * 2014-06-13 2015-02-18 フリュー株式会社 Photo sticker making apparatus and photo sticker making method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052142A (en) * 1999-08-06 2001-02-23 Toshiba Corp Id card, id card issuing device and id card authenticating device
JP2004070614A (en) * 2002-08-06 2004-03-04 Canon Sales Co Inc Image processing server and method for controlling the same, and its program
JP2004147174A (en) * 2002-10-25 2004-05-20 Make Softwear:Kk Photograph vending machine, image input method, and image input program
JP2004362046A (en) * 2003-06-02 2004-12-24 Omron Corp Photographic sticker vending machine and its processing method, edit terminal and edit method, and photographic sticker sale system
WO2005031612A1 (en) * 2003-09-26 2005-04-07 Nikon Corporation Electronic image accumulation method, electronic image accumulation device, and electronic image accumulation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052142A (en) * 1999-08-06 2001-02-23 Toshiba Corp Id card, id card issuing device and id card authenticating device
JP2004070614A (en) * 2002-08-06 2004-03-04 Canon Sales Co Inc Image processing server and method for controlling the same, and its program
JP2004147174A (en) * 2002-10-25 2004-05-20 Make Softwear:Kk Photograph vending machine, image input method, and image input program
JP2004362046A (en) * 2003-06-02 2004-12-24 Omron Corp Photographic sticker vending machine and its processing method, edit terminal and edit method, and photographic sticker sale system
WO2005031612A1 (en) * 2003-09-26 2005-04-07 Nikon Corporation Electronic image accumulation method, electronic image accumulation device, and electronic image accumulation system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9047506B2 (en) 2011-11-25 2015-06-02 Fujitsu Limited Computer-readable recording medium storing authentication program, authentication device, and authentication method

Also Published As

Publication number Publication date
JP2007013800A (en) 2007-01-18

Similar Documents

Publication Publication Date Title
JP4668056B2 (en) Remote camera device, remote camera operation device, and data generation device
JP4569578B2 (en) Image transfer system, photo print device, image storage server, image transfer method, and image transfer program
US7619657B2 (en) Recording apparatus, communications apparatus, recording system, communications system, and methods therefor for setting the recording function of the recording apparatus in a restricted state
JP4760172B2 (en) Image processing apparatus, user ID storage terminal apparatus, photography apparatus, image processing terminal apparatus, image processing method, and image processing system
JP5369797B2 (en) Game shooting device, game shooting method, and game shooting program
JP4631708B2 (en) Image editing apparatus, image providing system, control program for image editing apparatus, and recording medium recording control program for image editing apparatus
JP2016154021A (en) Animation image presenting system
JP4581872B2 (en) Image providing apparatus, image providing system, image providing method, image providing apparatus control program, and recording medium recording the program
JP5515464B2 (en) Image processing apparatus, photographing / editing apparatus, image processing method, image processing program, and recording medium storing the program
JP2003087632A (en) Electronic equipment having photographing function, and image processing system
US7277124B2 (en) Image sensing apparatus, information processing apparatus, control method for these apparatuses, image processing apparatus and method, and image processing system
JP5212053B2 (en) Photographed image editing apparatus, image processing terminal, method for controlling photographed image editing apparatus, photographed image editing apparatus, image processing terminal control program, and computer-readable recording medium thereof
JP5531562B2 (en) Image transmission apparatus, image providing system, server, image transmission apparatus control method, server control method, image transmission apparatus control program, server control program, and recording medium
JP2010220119A (en) Conference system, and image data management method
JP2007149027A (en) Photographic seal preparation device, control method for photographic seal preparation device, and control program for photographic seal preparation device
JP4952410B2 (en) Address transmitting apparatus and control method therefor, mail transmitting system, address transmitting apparatus control program, and recording medium
JP4770466B2 (en) Image providing system, control program for image providing system, and recording medium recording control program for image providing system
JP2013115447A (en) Photography playing apparatus, image data providing apparatus, image data providing system, image data generation method, and image data generation program
JP6458366B2 (en) Photography editing apparatus, management server, portable terminal, control program, and recording medium
JP7131343B2 (en) Image processing device, processing control method and processing control program
JP5820359B2 (en) Photographed image editing apparatus, image processing terminal, method for controlling photographed image editing apparatus, photographed image editing apparatus, image processing terminal control program, and computer-readable recording medium thereof
JP4317971B2 (en) Photo sticker vending machine, photo sticker creation method, and program
JP2016206465A (en) Photography amusement device
JP2007226549A (en) Id card system and id card preparing method
JP2002116496A (en) Device and system for preparing identification photograph

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070403

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

R150 Certificate of patent or registration of utility model

Ref document number: 4581872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees