JP2016025603A - Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method - Google Patents

Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method Download PDF

Info

Publication number
JP2016025603A
JP2016025603A JP2014150391A JP2014150391A JP2016025603A JP 2016025603 A JP2016025603 A JP 2016025603A JP 2014150391 A JP2014150391 A JP 2014150391A JP 2014150391 A JP2014150391 A JP 2014150391A JP 2016025603 A JP2016025603 A JP 2016025603A
Authority
JP
Japan
Prior art keywords
person
photographing
captured image
image
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2014150391A
Other languages
Japanese (ja)
Inventor
御影 知美
Tomomi Mikage
知美 御影
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMS Co Ltd
Original Assignee
IMS Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMS Co Ltd filed Critical IMS Co Ltd
Priority to JP2014150391A priority Critical patent/JP2016025603A/en
Publication of JP2016025603A publication Critical patent/JP2016025603A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for accurately and simply identifying, when editing of figure parts in a photographed image IM uploaded in an Internet server 8 is performed by operation from a portable terminal 9, the photographed image IM's area occupied by a figure part to be an editing target.SOLUTION: Part information IP is uploaded to the Internet server 8 capable of being accessed from the portable terminal 9, so that the part information IP can be used when the photographed image IM uploaded to the Internet server 8 is edited by operation using the portable terminal 9. As a result, it is made to be possible to accurately and simply identify the photographed image IM's area occupied by a figure part to be an editing target.SELECTED DRAWING: Figure 3

Description

本発明は、人物撮影装置が人物を撮影してサーバーにアップロードした撮影画像に対して人物を構成するパーツの画像編集を実行するにあたって利用可能な技術に関する。   The present invention relates to a technique that can be used when performing image editing of parts constituting a person on a photographed image that a person photographing device has photographed a person and uploaded to a server.

従来、撮影ブース内の人物を撮影して撮影画像をユーザーに提供する人物撮影装置が知られている。また、かかる人物撮影装置では、特許文献1の写真シール機のように目や髪などの顔の特徴的なパーツを指定でき、ユーザーが撮影画像中に指定したパーツの編集を行って、編集後の撮影画像を提供するように構成されたものが一般的である。   2. Description of the Related Art Conventionally, a person photographing apparatus that photographs a person in a photographing booth and provides a photographed image to a user is known. Further, in such a person photographing apparatus, characteristic parts of the face such as eyes and hair can be designated as in the photo sticker of Patent Document 1, and after editing the parts designated by the user in the photographed image, Generally, it is configured to provide a photographed image.

ちなみに、特許文献1では、写真シールという形態で撮影画像をユーザーに提供している。しかしながら、近年では撮影画像のユーザーへの提供形態も多様化してきている。例えば特許文献2では、人物撮影装置(写真シール作成装置)で撮影された撮影画像は、人物撮影装置からサーバーにアップロードされ、ユーザーは携帯端末からサーバーにアクセスすることで撮影画像の提供を受ける。   Incidentally, in Patent Document 1, a photographed image is provided to the user in the form of a photo sticker. However, in recent years, the form of providing captured images to users has been diversified. For example, in Patent Document 2, a photographed image photographed by a person photographing device (photo sticker creating device) is uploaded from a person photographing device to a server, and a user is provided with the photographed image by accessing the server from a portable terminal.

特開2013−255217号公報JP 2013-255217 A 特開2013−141194号公報JP 2013-141194 A

ところで、サーバーを介して人物の撮影画像を提供する形態においては、携帯端末の操作によって、サーバーにアップロードされた撮影画像における人物パーツの編集を実行したいといったユーザーのニーズがある。ただし、かかる画像編集を行うためには、携帯端末に対するユーザーの操作に基づいて、編集対象となる人物パーツが撮影画像中に占める領域を的確に特定する必要がある。そこで、ユーザーが携帯端末にダウンロードした撮影画像上で指やペン等を用いて取り囲んだ領域を、編集対象となる人物パーツが撮影画像中に占める領域と特定する手法も考えられる。しかしながら、このようなマニュアル操作によって、編集対象となる人物パーツが撮影画像中に占める領域を的確に特定することは困難である。   By the way, in the form of providing a photographed image of a person via a server, there is a user's need to edit a person part in the photographed image uploaded to the server by operating a mobile terminal. However, in order to perform such image editing, it is necessary to accurately specify an area occupied by a human part to be edited in a captured image based on a user operation on the mobile terminal. In view of this, a method of specifying an area surrounded by a finger or pen on a captured image downloaded by the user to the mobile terminal as an area occupied by the person part to be edited in the captured image is also conceivable. However, it is difficult to accurately specify the area occupied by the person part to be edited in the captured image by such a manual operation.

また、撮影画像の提供態様のみならず、撮影画像に対する編集態様についてもユーザーのニーズが多様化してきており、例えば顔以外の身体に対して編集を行いたいとったニーズがある。しかしながら、撮影画像に写る人物の体型を的確に把握することができないために、撮影画像中の人物の身体に対する編集をニーズに応じた精度で行うことが難しい場合があった。   In addition to the manner of providing photographed images, user needs have been diversified not only with respect to the manner of editing of photographed images. However, since it is impossible to accurately grasp the body shape of a person shown in a captured image, it may be difficult to edit the body of the person in the captured image with accuracy according to needs.

本発明の第1態様は、上記の前者の課題に鑑みなされたものであり、サーバーにアップロードされた撮影画像における人物パーツの編集を携帯端末の操作によって行うにあたり、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定するのに資する技術の提供を目的(第1目的)とする。   The first aspect of the present invention has been made in view of the above-described problem, and when editing a human part in a captured image uploaded to a server by operating a mobile terminal, the human part to be edited is captured. The purpose (first purpose) is to provide a technique that contributes to accurately and simply specifying the area occupied in an image.

本発明の第2態様は、上記の後者の課題に鑑みなされたものであり、撮影画像に写る人物の体型を的確に把握することを可能とする技術の提供を目的(第2目的)とする。   The second aspect of the present invention has been made in view of the latter problem described above, and aims to provide a technique (second purpose) capable of accurately grasping the figure of a person appearing in a photographed image. .

上記した第1目的を達成するために、本発明の第1態様に係る人物撮影装置は、撮影ブースを有する筐体と、前記撮影ブース内の人物を撮影して撮影画像を取得する撮影手段と、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出するパーツ情報抽出手段と、前記撮影画像とともに前記パーツ情報を、携帯端末からアクセス可能なサーバーにアップロードする通信手段とを備えたことを特徴としている(請求項1)。   In order to achieve the first object described above, a person photographing apparatus according to the first aspect of the present invention includes a housing having a photographing booth, and photographing means for photographing a person in the photographing booth to obtain a photographed image. At least one human part of a person's eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, legs, joints is the captured image. A part information extracting unit that extracts part information indicating an area occupied from the captured image, and a communication unit that uploads the part information together with the captured image to a server accessible from a mobile terminal. (Claim 1).

また、前記通信手段は、インターネットに接続されたサーバーに前記撮影画像とともに前記パーツ情報をアップロードするように、人物撮影装置を構成しても良い(請求項2)。   The communication unit may be configured to upload the part information together with the captured image to a server connected to the Internet (claim 2).

また、クロマキーによる画像合成に使用可能なマスクを前記撮影画像に基づき生成するマスク生成手段をさらに備え、前記通信手段は、前記マスクも前記サーバーにアップロードするように、人物撮影装置を構成しても良い(請求項3)。   Further, the image forming apparatus may further include a mask generating unit that generates a mask that can be used for image synthesis using a chroma key based on the captured image, and the communication unit is configured to upload the mask to the server. Good (claim 3).

また、前記通信手段は、前記撮影手段の被写体である当該人物に特有の人物特定情報も前記サーバーにアップロードするように、人物撮影装置を構成しても良い(請求項4)。   The communication unit may be configured to upload the person specifying information unique to the person who is the subject of the photographing unit to the server (claim 4).

また、前記撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段をさらに備え、前記通信手段は、前記検出手段が検出した前記身体パーツの位置を示す身体パーツ位置情報も前記サーバーにアップロードするように、人物撮影装置を構成しても良い(請求項5)。   Further, the apparatus further comprises detection means for detecting a position of a body part other than the face of the person in the photographing booth, and the communication means also includes body part position information indicating the position of the body part detected by the detection means. The person photographing device may be configured so as to be uploaded.

上記した第1目的を達成するために、本発明の第1態様に係る撮影画像提供システムは、筐体に設けられた撮影ブース内の人物を撮影して撮影画像を取得するとともに、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出する人物撮影装置と、携帯端末からアクセス可能なサーバーとを備え、前記人物撮影装置は、前記撮影画像とともに前記パーツ情報を前記サーバーにアップロードする通信手段を有することを特徴としている(請求項6)。   In order to achieve the first object described above, the captured image providing system according to the first aspect of the present invention acquires a captured image by photographing a person in a photographing booth provided in a housing, and , Black eyes, white eyes, eyelashes, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, legs, joints in the captured image area A person photographing device that extracts part information indicating the photographed image from the photographed image and a server accessible from a mobile terminal, the person photographing device includes a communication unit that uploads the part information together with the photographed image to the server. (Claim 6).

上記した第1目的を達成するために、本発明の第1態様に係るサーバー用プログラムは、人物撮影装置の撮影手段により人物を撮影して取得した撮影画像、および、前記人物撮影装置のパーツ情報抽出手段により前記撮影画像から抽出した人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を、前記人物撮影装置から受信する撮影画像受信工程と、前記撮影画像をアクセス中の携帯端末に送信する撮影画像送信工程と、ユーザーによる前記携帯端末の操作により前記撮影画像中に指定した位置に対応する指定位置情報を前記携帯端末から受信する指定位置情報受信工程と、前記指定位置情報により指定される位置に対応する前記人物パーツが前記撮影画像中に占める領域を前記パーツ情報に基づいて特定する特定工程とをサーバーに実行させることを特徴としている(請求項7)。   In order to achieve the first object described above, a server program according to a first aspect of the present invention includes a photographed image obtained by photographing a person by photographing means of a person photographing device, and part information of the person photographing device. Human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, joints extracted from the photographed image by the extracting means A photographed image receiving step of receiving, from the person photographing device, part information indicating an area occupied by one person part in the photographed image, a photographed image transmitting step of transmitting the photographed image to the accessing mobile terminal, and a user A designated position information receiving step for receiving, from the portable terminal, designated position information corresponding to a position designated in the captured image by an operation of the portable terminal by the designated position information. That the person part corresponding to the position is characterized in that to execute a particular process on a server that identified based an area occupied in the captured image in the part information (claim 7).

上記した第1目的を達成するために、本発明の第1態様に係る携帯端末用プログラムは、人物撮影装置が撮影手段により人物を撮影してサーバーにアップロードした撮影画像にアクセスする撮影画像アクセス工程と、前記ユーザーによる携帯端末の操作により前記撮影画像中に指定した位置に対応する指定位置情報を取得する指定位置情報取得工程と、前記人物撮影装置がパーツ情報抽出手段により前記撮影画像から抽出して前記サーバーにアップロードした人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報にアクセスするパーツ情報アクセス工程と、前記指定位置情報により指定される位置に対応する前記人物パーツが前記撮影画像中に占める領域を前記パーツ情報に基づいて特定する特定工程とを、前記携帯端末に搭載されたコンピューターに実行させることを特徴としている(請求項8)。   In order to achieve the first object described above, the portable terminal program according to the first aspect of the present invention is a captured image access process in which a person photographing device photographs a person by photographing means and accesses a photographed image uploaded to a server. A specified position information acquisition step of acquiring specified position information corresponding to a position specified in the captured image by an operation of the mobile terminal by the user, and the person imaging device extracts the captured image from the captured image by a part information extraction unit. At least one of the eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, and joints uploaded to the server A part information access step for accessing part information indicating an area occupied by the part in the captured image, and a position specified by the specified position information. A specifying step of specifying on the basis of regions where the person part occupied in the captured image in the part information, is characterized in that to be executed by the onboard computer to the portable terminal (claim 8).

上記した第1目的を達成するために、本発明の第1態様に係る画像編集方法は、人物撮影装置に設けられた撮影ブース内の人物を撮影して撮影画像を取得する撮影工程と、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出するパーツ情報抽出工程と、前記撮影画像とともに前記パーツ情報を携帯端末によりアクセス可能なサーバーにアップロードするアップロード工程と、ユーザーによる前記携帯端末の操作に応じて前記サーバーにアップロードされた前記撮影画像にアクセスして、当該撮影画像中の前記携帯端末の操作により指定された位置を取得する位置取得工程と、前記位置取得工程で取得した位置に対応する前記人物パーツが前記撮影画像中に占める領域を、前記サーバーにアップロードされた前記パーツ情報に基づいて特定する特定工程と、前記特定工程で前記撮影画像中に占める領域が特定された前記人物パーツの画像に対して、ユーザーの前記携帯端末の操作に基づく所定の編集を施す編集工程とを備えたことを特徴としている(請求項9)。   In order to achieve the first object described above, an image editing method according to the first aspect of the present invention includes a photographing step of photographing a person in a photographing booth provided in a person photographing apparatus to obtain a photographed image, and a person At least one human part of the eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, joints in the captured image Depending on the operation of the portable terminal by the user, a parts information extracting step of extracting part information indicating the occupied area from the photographed image, an uploading step of uploading the part information together with the photographed image to a server accessible by the portable terminal, and A position acquisition step of accessing the captured image uploaded to the server and acquiring a position specified by an operation of the mobile terminal in the captured image; A specifying step of specifying an area occupied by the person part corresponding to the position acquired in the position acquisition step in the photographed image based on the part information uploaded to the server; and in the photographed image in the specification step An editing step of performing predetermined editing based on the user's operation of the portable terminal on the image of the person part in which the occupied area is specified (claim 9).

上記した第2目的を達成するために、本発明の第2態様に係る人物撮影装置は、撮影ブースを有する筐体と、前記撮影ブース内の人物を撮影して撮影画像を取得する撮影手段と、前記撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段とを備えたことを特徴としている(請求項10)。   In order to achieve the second object described above, a person photographing apparatus according to the second aspect of the present invention includes a housing having a photographing booth, and photographing means for photographing a person in the photographing booth to obtain a photographed image. And detecting means for detecting the position of body parts other than the face of the person in the photographing booth (claim 10).

また、前記検出手段は、前記撮影ブース内の人物の身体が有する三次元形状を測定した結果に基づいて、前記身体パーツの位置を検出するように、人物撮影装置を構成しても良い(請求項11)。   In addition, the person photographing apparatus may be configured to detect the position of the body part based on a result of measuring a three-dimensional shape of a person's body in the photographing booth (claim). Item 11).

また、前記撮影ブース内の人物の身体までの距離を計測することで前記三次元形状を測定するように、人物撮影装置を構成しても良い(請求項12)。   In addition, the person photographing apparatus may be configured to measure the three-dimensional shape by measuring a distance to a human body in the photographing booth (claim 12).

また、前記検出手段は、赤外線カメラによって前記撮影ブース内の人物の身体までの距離を計測するように、人物撮影装置を構成しても良い(請求項13)。   In addition, the person photographing device may be configured such that the detecting means measures the distance to the human body in the photographing booth by an infrared camera.

また、前記検出手段が検出した前記身体パーツの位置を示す身体パーツ位置情報を、前記撮影画像とともにサーバーにアップロードする通信手段をさらに備えるように、人物撮影装置を構成しても良い(請求項14)。   In addition, the person photographing apparatus may be configured to further include communication means for uploading body part position information indicating the position of the body part detected by the detecting means to a server together with the photographed image. ).

また、前記検出手段が求めた前記身体パーツの位置に基づいて、前記撮影手段が取得した前記撮影画像中の人物の身体に対して編集を行う編集手段をさらに備えるように、人物撮影装置を構成しても良い(請求項15)。   Further, the person photographing apparatus is configured to further include an editing unit that edits the body of the person in the photographed image acquired by the photographing unit based on the position of the body part obtained by the detecting unit. (Claim 15).

上記した第2目的を達成するために、本発明の第2態様に係る画像編集方法は、人物撮影装置に設けられた撮影ブース内の人物を撮影して撮影画像を取得する撮影工程と、撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出工程と、前記検出工程で求めた前記身体パーツの位置に基づいて、前記撮影工程で取得した前記撮影画像中の人物の身体に対して編集を行う編集工程とを備えたことを特徴としている(請求項16)。   In order to achieve the second object described above, an image editing method according to the second aspect of the present invention includes a photographing step of photographing a person in a photographing booth provided in a person photographing device to obtain a photographed image, and photographing. Based on the detection step of detecting the position of a body part other than the face of the person in the booth, and the position of the body part obtained in the detection step, the human body in the captured image acquired in the shooting step And an editing step for performing editing (claim 16).

ここで、サーバーにアップロードされたデータ(パーツ情報、撮影画像等)とは、サーバーにアップロードされてサーバーに存在するデータ、およびサーバーにアップロードされた後に他の装置(携帯端末等)に転送されたデータの両方を含むものとして取り扱う。また、携帯端末とは、携帯電話、スマートフォン、タブレット型のコンピューター、ノート型のコンピューター等の可搬型の端末を指す。身体とは人物の顔以外の部分を示し、身体パーツとは身体の一部を構成するパーツ、具体的には人物の顔以外の部分、具体的には、肩、腕、肘、手首、手、胸、腹、腰、足、膝、足首、腿、脛、足、各関節等を示す。   Here, the data uploaded to the server (part information, captured images, etc.) is the data uploaded to the server and existing on the server, and after being uploaded to the server, transferred to other devices (such as mobile terminals) Treat as containing both data. The portable terminal refers to a portable terminal such as a mobile phone, a smartphone, a tablet computer, or a notebook computer. The body means a part other than the person's face, and the body part means a part that constitutes a part of the body, specifically the part other than the person's face, specifically the shoulder, arm, elbow, wrist, hand. , Chest, abdomen, waist, legs, knees, ankles, thighs, shins, legs, joints, etc.

請求項1に係る人物撮影装置は、人物パーツが撮影画像中に占める領域を示すパーツ情報を撮影画像から抽出し、撮影画像とともにパーツ情報を携帯端末からアクセス可能なサーバーにアップロードする。そのため、サーバーにアップロードされた撮影画像を携帯端末の操作により編集する際に、サーバーにアップロードされたパーツ情報を用いることができる。したがって、ユーザーによる携帯端末の操作が指定する人物パーツが撮影画像中に占める領域をパーツ情報に基づき特定することができ、その結果、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。   The person photographing apparatus according to claim 1 extracts part information indicating an area occupied by a human part in the photographed image from the photographed image, and uploads the part information together with the photographed image to a server accessible from the portable terminal. Therefore, when editing a captured image uploaded to the server by operating the mobile terminal, the part information uploaded to the server can be used. Therefore, the area occupied by the human part specified by the user's operation of the mobile terminal in the captured image can be specified based on the part information, and as a result, the area occupied by the person part to be edited in the captured image can be accurately identified. It becomes possible to specify simply.

請求項2に係る人物撮影装置によれば、人物撮影装置および携帯端末からインターネットを介して簡便にサーバーへアクセスすることができる。   According to the person photographing device of the second aspect, it is possible to easily access the server from the person photographing device and the portable terminal via the Internet.

請求項3に係る人物撮影装置は、クロマキーによる画像合成に使用可能なマスクをサーバーにアップロードする。したがって、サーバーにアップロードされた撮影画像を携帯端末の操作により編集するにあたり、サーバーにアップロードされたマスクを用いることができる。よって、ユーザーは携帯端末の操作によってクロマキーによる画像合成を行うことができ、より充実した画像編集が可能となる。   According to a third aspect of the present invention, a human photographing apparatus uploads a mask that can be used for image composition using a chroma key to a server. Therefore, the mask uploaded to the server can be used to edit the captured image uploaded to the server by operating the mobile terminal. Therefore, the user can perform image composition using the chroma key by operating the portable terminal, and more complete image editing is possible.

請求項4に係る人物撮影装置は、撮影手段の被写体である人物に特有の人物特定情報をアップロードする。したがって、多数の人物の撮影画像がサーバーにアップロードされている状況においても、ユーザーは、人物特定情報に基づいて適切な人物の撮影画像にアクセスすることができる。   According to a fourth aspect of the present invention, the person photographing apparatus uploads the person specifying information specific to the person who is the subject of the photographing means. Therefore, even in a situation where captured images of a large number of persons are uploaded to the server, the user can access captured images of appropriate persons based on the person specifying information.

請求項5に係る人物撮影装置は、撮影ブース内の人物の顔以外の身体パーツの位置を検出手段により検出し、検出手段が検出した身体パーツの位置を示す身体パーツ位置情報もサーバーにアップロードする。したがって、サーバーにアップロードされた撮影画像を携帯端末の操作によって編集するにあたり、サーバーにアップロードされた身体パーツ位置情報を用いることができる。よって、ユーザーは携帯端末の操作によって例えば人物により近いアバターを作成するといったことができ、より充実した画像編集が可能となる。   The human photographing apparatus according to claim 5 detects the position of the body part other than the face of the person in the photographing booth by the detecting means, and uploads the body part position information indicating the position of the body part detected by the detecting means to the server. . Therefore, when editing the captured image uploaded to the server by operating the mobile terminal, the body part position information uploaded to the server can be used. Therefore, the user can create an avatar that is closer to the person, for example, by operating the mobile terminal, and more complete image editing is possible.

請求項6に係る撮影画像提供システムは、人物撮影装置とサーバーとを備える。そして、人物撮影装置は人物パーツが撮影画像中に占める領域を示すパーツ情報を撮影画像から抽出し、撮影画像とともにサーバーにアップロードする。そのため、サーバーにアップロードされた撮影画像を携帯端末の操作により編集する際に、サーバーにアップロードされたパーツ情報を用いることができる。したがって、ユーザーによる携帯端末の操作が指定する人物パーツが撮影画像中に占める領域をパーツ情報に基づき特定することができ、その結果、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。   A photographed image providing system according to a sixth aspect includes a person photographing device and a server. Then, the person photographing device extracts part information indicating an area occupied by the person parts in the photographed image from the photographed image, and uploads it to the server together with the photographed image. Therefore, when editing a captured image uploaded to the server by operating the mobile terminal, the part information uploaded to the server can be used. Therefore, the area occupied by the human part specified by the user's operation of the mobile terminal in the captured image can be specified based on the part information, and as a result, the area occupied by the person part to be edited in the captured image can be accurately identified. It becomes possible to specify simply.

請求項7に係るサーバー用プログラムによれば、サーバーは、人物パーツが撮影画像中に占める領域を示すパーツ情報を撮影画像と併せて人物撮影装置から受信する。そのため、サーバーにアップロードされた撮影画像を携帯端末の操作により編集する際に、サーバーにアップロードされたパーツ情報を用いることができる。具体的には、サーバーは、ユーザーによる携帯端末の操作により撮影画像中に指定した位置に対応する指定位置情報を携帯端末から受信し、指定位置情報により指定される位置に対応する人物パーツが撮影画像中に占める領域をパーツ情報に基づいて特定する。したがって、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。   According to the server program of the seventh aspect, the server receives the part information indicating the area occupied by the human part in the captured image together with the captured image from the person imaging device. Therefore, when editing a captured image uploaded to the server by operating the mobile terminal, the part information uploaded to the server can be used. Specifically, the server receives specified position information corresponding to the position specified in the captured image by the user's operation of the mobile terminal from the mobile terminal, and the human part corresponding to the position specified by the specified position information is captured. An area occupied in the image is specified based on the part information. Therefore, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image.

請求項8に係る携帯端末用プログラムによれば、人物撮影装置からサーバーにアップロードされた、撮影画像および人物パーツが撮影画像中に占める領域を示すパーツ情報に携帯端末からアクセスする。そして、編集対象となる人物パーツが撮影画像中に占める領域をパーツ情報に基づいて特定する。具体的には、ユーザーによる携帯端末の操作により撮影画像中に指定した位置に対応する指定位置情報を取得し、指定位置情報により指定される位置に対応する人物パーツが撮影画像中に占める領域をパーツ情報に基づいて特定する。したがって、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。   According to the portable terminal program of the eighth aspect, the portable terminal accesses part information indicating an area occupied by the photographed image and the person part in the photographed image uploaded from the person photographing device to the server. Then, an area occupied by the person part to be edited in the captured image is specified based on the part information. Specifically, the designated position information corresponding to the position designated in the photographed image is acquired by the operation of the mobile terminal by the user, and the area occupied by the human part corresponding to the position designated by the designated position information in the photographed image is determined. Identify based on parts information. Therefore, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image.

請求項9に係る画像編集方法によれば、人物パーツが撮影画像中に占める領域を示すパーツ情報を撮影画像から抽出し、撮影画像とともにパーツ情報を携帯端末からアクセス可能なサーバーにアップロードする。そのため、サーバーにアップロードされた撮影画像を携帯端末の操作により編集する際に、サーバーにアップロードされたパーツ情報を用いることができる。具体的には、ユーザーによる携帯端末の操作に応じてサーバーにアップロードされた撮影画像にアクセスして、当該撮影画像中の携帯端末により指定された位置を取得する。そして、取得した位置に対応する人物パーツが撮影画像中に占める領域を、サーバーにアップロードされたパーツ情報に基づいて特定する。したがって、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。しかも、このようにして撮影画像中に占める領域が的確に特定された人物パーツに対して編集が実行されるため、人物パーツの編集を高精度に実行することができる。   According to the image editing method of the ninth aspect, part information indicating an area occupied by a human part in a photographed image is extracted from the photographed image, and the part information is uploaded together with the photographed image to a server accessible from the mobile terminal. Therefore, when editing a captured image uploaded to the server by operating the mobile terminal, the part information uploaded to the server can be used. Specifically, the captured image uploaded to the server is accessed according to the operation of the mobile terminal by the user, and the position designated by the mobile terminal in the captured image is acquired. And the area | region which the person parts corresponding to the acquired position occupies in a picked-up image is specified based on the parts information uploaded to the server. Therefore, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image. In addition, since the editing is performed on the person part in which the area occupied in the captured image is accurately specified in this way, the editing of the person part can be performed with high accuracy.

請求項10に係る人物撮影装置は、撮影ブース内の人物を撮影して撮影画像を取得する撮影手段の他に、撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段を備える。したがって、この検出手段によって人物の身体パーツの位置を検出することができ、撮影画像に写る人物の体型を的確に把握することが可能となっている。   According to a tenth aspect of the present invention, in addition to photographing means for photographing a person in a photographing booth and acquiring a photographed image, the human photographing apparatus includes detecting means for detecting the position of a body part other than the face of the person in the photographing booth. . Therefore, the position of the body part of the person can be detected by this detection means, and the body shape of the person shown in the captured image can be accurately grasped.

請求項11に係る人物撮影装置は、撮影ブース内の人物の身体が有する三次元形状を測定した結果に基づいて身体パーツの位置を検出する。その結果、身体パーツの位置をより高精度に検出することができる。   The person photographing device according to claim 11 detects the position of the body part based on the result of measuring the three-dimensional shape of the person's body in the photographing booth. As a result, the position of the body part can be detected with higher accuracy.

請求項12に係る人物撮影装置のように、撮影ブース内の人物の身体までの距離を計測することで、三次元形状を適切に測定することができる。   As in the person photographing apparatus according to the twelfth aspect, the three-dimensional shape can be appropriately measured by measuring the distance to the body of the person in the photographing booth.

請求項13に係る人物撮影装置のように、赤外線カメラを用いることで、撮影ブース内の人物の身体までの距離を適切に計測することができる。   By using an infrared camera as in the person photographing apparatus according to the thirteenth aspect, the distance to the person's body in the photographing booth can be appropriately measured.

請求項14に係る人物撮影装置は、検出手段が検出した身体パーツの位置を示す身体パーツ位置情報を、撮影画像とともにサーバーにアップロードする。したがって、サーバーにアップロードされた撮影画像を編集するのに際して、身体パーツ位置情報を用いることができる。その結果、撮影画像中の人物の身体に対する編集をニーズに応じた精度で行うことが可能となる。   According to the fourteenth aspect of the present invention, the body part position information indicating the position of the body part detected by the detecting means is uploaded to the server together with the photographed image. Therefore, the body part position information can be used when editing the captured image uploaded to the server. As a result, it becomes possible to edit the person's body in the captured image with accuracy according to the needs.

請求項15に係る人物撮影装置は、撮影画像中の人物の身体に対する編集を、検出手段が求めた身体パーツの位置に基づいて行う。したがって、撮影画像中の人物の身体に対する編集をニーズに応じた精度で行うことが可能となる。   According to a fifteenth aspect of the present invention, the person photographing device performs editing of the person's body in the photographed image based on the position of the body part obtained by the detecting means. Therefore, it becomes possible to edit the person's body in the captured image with accuracy according to the needs.

請求項16に係る画像編集方法は、撮影ブース内の人物を撮影して撮影画像を取得する撮影工程の他に、撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出工程を備える。したがって、この検出工程によって人物の身体パーツの位置を検出することができ、撮影画像に写る人物の体型を的確に把握することが可能となっている。さらに、撮影画像中の人物の身体に対する編集を、検出工程で求めた身体パーツの位置に基づいて行う(編集工程)。したがって、撮影画像中の人物の身体に対する編集をニーズに応じた精度で行うことが可能となっている。   The image editing method according to claim 16 includes a detection step of detecting a position of a body part other than the face of the person in the shooting booth, in addition to a shooting step of shooting a person in the shooting booth and acquiring a shot image. . Therefore, the position of the body part of the person can be detected by this detection step, and the body shape of the person shown in the captured image can be accurately grasped. Further, editing of the person's body in the photographed image is performed based on the position of the body part obtained in the detection process (editing process). Therefore, it is possible to edit the person's body in the captured image with accuracy according to the needs.

本発明を適用した写真シール払出装置の一例の外観を示す斜視図である。It is a perspective view which shows the external appearance of an example of the photograph sticker delivery apparatus to which this invention is applied. 図1の写真シール払出装置が具備する電気的構成を模式的に示すブロック図である。It is a block diagram which shows typically the electrical constitution which the photograph sticker dispensing apparatus of FIG. 1 comprises. インターネットを介した撮影画像の提供態様の一例を模式的に示す図である。It is a figure which shows typically an example of the provision aspect of the picked-up image via the internet. インターネットサーバーの構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of a structure of an internet server. 写真シール払出装置が実行する撮影処理の一例を示すフローチャートである。It is a flowchart which shows an example of the imaging | photography process which a photograph sticker payout apparatus performs. 写真シール払出装置が実行するパーツ情報取得処理の一例を示すフローチャートである。It is a flowchart which shows an example of the parts information acquisition process which a photograph sticker payout apparatus performs. インターネットサーバーが実行するパーツ編集処理の一例を示すフローチャートである。It is a flowchart which shows an example of the part edit process which an internet server performs. 第1変形例にかかる写真シール払出装置が具備する電気的構成を模式的に示すブロック図である。It is a block diagram which shows typically the electric constitution which the photograph sticker dispensing apparatus concerning a 1st modification comprises. 第1変形例にかかる写真シール払出装置が実行する撮影処理の一例を示すフローチャートである。It is a flowchart which shows an example of the imaging | photography process which the photographic sticker payout apparatus concerning a 1st modification performs. 第1変形例にかかる写真シール払出装置が実行するパーツ情報取得処理の一例を示すフローチャートである。It is a flowchart which shows an example of the parts information acquisition process which the photograph sticker payout apparatus concerning a 1st modification performs. 第1変形例にかかるインターネットサーバーが実行するパーツ編集処理の一例を示すフローチャートである。It is a flowchart which shows an example of the parts edit process which the internet server concerning a 1st modification performs. 第2変形例にかかるインターネットサーバーが具備する電気的構成を模式的に示すブロック図である。It is a block diagram which shows typically the electric constitution which the Internet server concerning a 2nd modification comprises. 第2変形例にかかる携帯端末が具備する電気的構成を模式的に示すブロック図である。It is a block diagram which shows typically the electric constitution which the portable terminal concerning a 2nd modification comprises. 第2変形例にかかる携帯端末が実行するパーツ編集処理の一例を示すフローチャートである。It is a flowchart which shows an example of the parts edit process which the portable terminal concerning a 2nd modification performs.

図1は、本発明を適用した写真シール払出装置の一例の外観を示す斜視図である。図2は、図1の写真シール払出装置が具備する電気的構成を模式的に示すブロック図である。なお、図1では、写真シール払出装置1の撮影ブース2内で撮影を行うユーザーから見て、後方から前方へ向かう前後方向をX軸とし、右方から左方へ向かう左右方向をY軸とするXY直交座標軸が示されている。この写真シール払出装置1は、装置本体10(筐体)に撮影ブース2、編集ブース3および印刷ブース4を形成した概略構成を備え、ユーザー(遊技者)は各ブース2、3、4のそれぞれにおいて撮影、編集および印刷を順番に行うことができる。   FIG. 1 is a perspective view showing an appearance of an example of a photographic sticker dispensing apparatus to which the present invention is applied. FIG. 2 is a block diagram schematically showing an electrical configuration of the photographic sticker dispensing apparatus of FIG. In FIG. 1, the front-rear direction from the rear to the front is the X-axis and the left-right direction from the right to the left is the Y-axis, as viewed from the user who takes pictures in the photographing booth 2 of the photo sticker dispensing device 1. XY orthogonal coordinate axes are shown. This photo sticker dispensing apparatus 1 has a schematic configuration in which a photographing booth 2, an editing booth 3 and a printing booth 4 are formed in an apparatus main body 10 (housing), and a user (player) has each of the booths 2, 3, 4 respectively. Shooting, editing, and printing can be performed in order.

撮影ブース2の外壁には、受付モニター201およびスピーカー202が設けられている。受付モニター201は、撮影ブース2の占有状況、デモムービーあるいは宣伝広告等をユーザーに表示し、スピーカー202は、写真シール払出装置1の遊戯方法等を案内する音声を出力する。さらに、撮影ブース2の外壁には、受付モニター201の近傍にコイン受付部203(図2)が設けられている。そして、ユーザーは、所定の遊戯料金(例えば、400円)のコインを投入口に投入した後に、撮影ブース2内に移動して撮影を行うことができる。   A reception monitor 201 and a speaker 202 are provided on the outer wall of the photography booth 2. The reception monitor 201 displays the occupancy status of the shooting booth 2, a demo movie, a publicity advertisement, and the like to the user, and the speaker 202 outputs a sound that guides the playing method of the photo sticker dispensing device 1. Further, a coin reception unit 203 (FIG. 2) is provided on the outer wall of the photography booth 2 in the vicinity of the reception monitor 201. The user can move to the shooting booth 2 and take a picture after inserting a coin of a predetermined game fee (for example, 400 yen) into the slot.

撮影ブース2内では、後方(前後方向Xの矢印反対側)にクロマキーカーテン204が配置されるとともに、前方(前後方向Xの矢印側)に撮影装置21(撮影手段)および撮影部モニター22が配置されており、撮影装置21および撮影部モニター22が撮影ブース2内のユーザーに対向する。撮影装置21は、CCD(Charge Coupled
Device)カメラ等で構成され、クロマキーカーテン204を背景にして撮影ブース2内のユーザーの画像を撮影する。撮影部モニター22は、LCD(Liquid Crystal Display)等で構成され、撮影装置21が捉えた画像をユーザーに向けて表示する。したがって、ユーザーは、撮影装置21が捉えた画像を撮影部モニター22で確認しながら、撮影装置21による撮影を行うことができる。
In the photographing booth 2, a chroma key curtain 204 is disposed rearward (opposite the arrow in the front-rear direction X), and the photographing device 21 (photographing means) and the photographing unit monitor 22 are disposed forward (the arrow side in the front-rear direction X). Thus, the photographing device 21 and the photographing unit monitor 22 face the user in the photographing booth 2. The photographing device 21 is a CCD (Charge Coupled).
Device) It is composed of a camera or the like, and takes images of users in the shooting booth 2 against the chroma key curtain 204 as a background. The photographing unit monitor 22 is composed of an LCD (Liquid Crystal Display) or the like, and displays an image captured by the photographing device 21 toward the user. Therefore, the user can take a picture with the photographing apparatus 21 while confirming the image captured by the photographing apparatus 21 on the photographing unit monitor 22.

また、撮影ブース2では、蛍光灯23、ストロボ発光部241およびストロボ制御装置242といった照明系が設けられている。蛍光灯23は、撮影ブース2内のユーザーを前方および上方から照らして、撮影装置21による撮影に必要な露光量を確保し、ストロボ発光部241は、撮影装置21が撮影を行う瞬間にユーザーを照らして、撮影時における影の発生を抑える。この際、ストロボ発光部241の発光タイミングや発光量は、ストロボ制御装置242によって制御される。   In the photographing booth 2, illumination systems such as a fluorescent lamp 23, a strobe light emitting unit 241, and a strobe control device 242 are provided. The fluorescent lamp 23 illuminates the user in the shooting booth 2 from the front and the upper side to ensure an exposure amount necessary for shooting by the shooting device 21, and the strobe light emitting unit 241 detects the user at the moment when the shooting device 21 performs shooting. Illuminate and suppress the occurrence of shadows during shooting. At this time, the light emission timing and light emission amount of the strobe light emitting unit 241 are controlled by the strobe control device 242.

この撮影ブース2は、撮影装置21によって静止画の他に動画(ムービー)も撮影することができる。そこで、撮影ブース2は、動画撮影時にユーザーを照らすムービー用照明装置25や、動画撮影時に撮影ブース2内の音声を録音するムービー用音声録音装置26を有する。さらに、撮影ブース2は、静止画および動画の撮影手順の音声案内や、動画撮影時のBGM(Background Music)等を出力する撮影部スピーカー27を有する。   The shooting booth 2 can also take a moving image (movie) in addition to a still image by the shooting device 21. Therefore, the shooting booth 2 includes a movie lighting device 25 that illuminates the user during moving image shooting, and a movie audio recording device 26 that records the sound in the shooting booth 2 during moving image shooting. Furthermore, the shooting booth 2 includes a shooting section speaker 27 that outputs voice guidance for shooting procedures of still images and moving images, BGM (Background Music) during moving image shooting, and the like.

そして、ユーザーは、撮影ブース2で撮影した静止画の編集を編集ブース3で行うことができる。編集ブース3は、撮影ブース2より前後方向Xの前方に配置されており、編集モニター31、入力ペン32および編集部スピーカー33を有する。編集モニター31は、LCD等で構成され、編集対象となる静止画や編集内容を選択するためのボタンをユーザーに向けて表示する。入力ペン32は編集モニター31の近傍に用意されており、ユーザーは、入力ペン32により編集モニター31を操作することで所定の編集を静止画に施すことができる。また、編集部スピーカー33は、編集手順の音声案内や編集時のBGM等を出力する。   Then, the user can edit the still image shot at the shooting booth 2 at the editing booth 3. The editing booth 3 is disposed in front of the photographing booth 2 in the front-rear direction X, and includes an editing monitor 31, an input pen 32, and an editing unit speaker 33. The editing monitor 31 is composed of an LCD or the like, and displays buttons for selecting a still image to be edited and editing contents for the user. The input pen 32 is prepared in the vicinity of the editing monitor 31, and the user can perform predetermined editing on the still image by operating the editing monitor 31 with the input pen 32. The editing unit speaker 33 outputs voice guidance for editing procedures, BGM at the time of editing, and the like.

かかる編集ブース3では、静止画に対する文字や絵等の落書きを行える他、静止画中の人物パーツ(黒目、髪の毛、肌、顔等)毎に色、サイズ、形状等を変更するパーツ編集(メイク)を実行できる。すなわち、ユーザーは、編集モニター31において静止画(撮影画像IM)中の人物パーツに触れることで、パーツ編集の対象となる人物パーツを選択できる。さらに、ユーザーは、編集モニター31に表示されたボタンのうち所望の編集内容を示すボタンに触れることで、当該ボタンが示すパーツ編集を選択した人物パーツに実行できる。パーツ編集の具体的内容としては種々のものがあり、例えば静止画中の人物の黒目(瞳)の色を変更したり、黒目を大きくしたり、髪の毛の色を変更したり、肌の色や艶を変更したり、肌に化粧を施したり、顔のサイズを小さくしたりといったパーツ編集が可能である。   In this editing booth 3, in addition to being able to doodle characters and pictures on still images, parts editing (makeup) that changes the color, size, shape, etc. for each human part (black eyes, hair, skin, face, etc.) in the still image ) Can be executed. That is, the user can select a person part to be edited by touching the person part in the still image (captured image IM) on the editing monitor 31. Furthermore, the user can execute the part editing indicated by the button on the selected person part by touching the button indicating the desired editing content among the buttons displayed on the editing monitor 31. There are various specific contents of parts editing, such as changing the color of the black eyes (pupil) of a person in a still image, increasing the black eyes, changing the color of the hair, Parts can be edited such as changing the gloss, applying makeup to the skin, and reducing the size of the face.

こうして、編集ブース3で編集された静止画は、印刷ブース4で印刷されてユーザーに提供される。印刷ブース4は、編集ブース3より前後方向Xの前方に配置されており、印刷部モニター41、プリンター42、シール排出口43および印刷部スピーカー44を有する。印刷部モニター41は、LCD等で構成され、編集ブース3で編集された静止画をユーザーに向けて表示する。プリンター42は、インクジェット方式のプリンター等で構成され、印刷部モニター41に表示された静止画をシール台紙に印刷する。こうしてシール台紙に印刷された静止画は、シール排出口43から排出されてユーザーに提供される。また、印刷部スピーカー44は、印刷手順の音声案内や印刷時のBGM等を出力する。   Thus, the still image edited in the editing booth 3 is printed in the printing booth 4 and provided to the user. The printing booth 4 is disposed in front of the editing booth 3 in the front-rear direction X, and includes a printing unit monitor 41, a printer 42, a seal discharge port 43, and a printing unit speaker 44. The printing unit monitor 41 is composed of an LCD or the like, and displays a still image edited in the editing booth 3 for the user. The printer 42 is configured by an inkjet printer or the like, and prints a still image displayed on the printing unit monitor 41 on a sticker mount. The still image printed on the sticker mount is discharged from the sticker discharge port 43 and provided to the user. The printing unit speaker 44 outputs voice guidance for printing procedures, BGM at the time of printing, and the like.

図2に示すように、写真シール払出装置1は、撮影ブース2、編集ブース3および印刷ブース4の制御を司る主制御装置6を有する。主制御装置6は、CPU(Central Processing Unit)61、メモリー62およびHDD (Hard disk drive) 63で構成されたコンピューターである。CPU61は、主制御装置6における基本プログラムの他、撮影プログラム、編集プログラムおよび印刷プログラム等の各種プログラムを実行する。メモリー62は、フラッシュメモリー等の不揮発性メモリーおよびRAM(Random Access Memory)で構成されており、CPU61で実行される各種プログラムや画像データ等を書換可能に一時記憶する。HDD
63は、CPU61で実行される各種プログラムや撮影画像IM等の各種データを保存する。さらに、主制御装置6は、各スピーカー27、33、44による音声案内を制御する音声制御装置64も備える。
As shown in FIG. 2, the photo sticker dispensing device 1 has a main control device 6 that controls the photographing booth 2, the editing booth 3, and the printing booth 4. The main control device 6 is a computer composed of a CPU (Central Processing Unit) 61, a memory 62, and an HDD (Hard disk drive) 63. The CPU 61 executes various programs such as a photographing program, an editing program, and a printing program in addition to the basic program in the main control device 6. The memory 62 includes a nonvolatile memory such as a flash memory and a RAM (Random Access Memory), and temporarily stores various programs executed by the CPU 61, image data, and the like so as to be rewritable. HDD
63 stores various data such as various programs executed by the CPU 61 and the captured image IM. Further, the main control device 6 includes a voice control device 64 that controls voice guidance by the speakers 27, 33, and 44.

かかる主制御装置6は、CPU61により撮影プログラムを実行することで、撮影ブース2での人物の撮影を実行して撮影画像IMを取得し、当該撮影画像IMをHDD63に保存する。また、主制御装置6は、CPU61により編集プログラムを実行することで、編集ブース3におけるユーザーの入力に従って撮影画像IMを編集する。この際、主制御装置6(マスク生成手段)は、人物をマスクする前景マスクとクロマキーカーテン204をマスクする背景マスクとを撮影画像IMから生成し、各マスクを用いて撮影画像IMにクロマキー合成を行うことで、ユーザーが指定した画像を背景とする人物の画像を生成する。   The main controller 6 executes a shooting program by the CPU 61 to execute shooting of a person at the shooting booth 2 to acquire a shot image IM, and stores the shot image IM in the HDD 63. Further, the main control device 6 executes the editing program by the CPU 61 to edit the captured image IM according to the user input in the editing booth 3. At this time, the main controller 6 (mask generating means) generates a foreground mask for masking a person and a background mask for masking the chroma key curtain 204 from the captured image IM, and performs chroma key composition on the captured image IM using each mask. By doing so, an image of a person with the background designated by the user as a background is generated.

さらに、主制御装置6(パーツ情報抽出手段)は、編集プログラムに従って、撮影画像IMのパーツ編集に必要となるパーツ情報IPを撮影画像IMから抽出して、HDD63へ保存する。このパーツ情報IPは、パーツ編集の実行単位となる人物パーツ(黒目、髪の毛、顔等)それぞれが撮影画像IM中に占める領域(座標データ)を人物パーツ毎に示すデータであり、人物パーツと当該人物パーツの撮影画像IM中の領域とを対応付けて人物パーツ毎に管理する。そして、編集モニター31に表示された撮影画像IM中にユーザーがパーツ編集の対象となる位置を指定すると、CPU61は、ユーザーの指定位置に対応する人物パーツをパーツ情報IPに基づき特定し、当該人物パーツに所定のパーツ編集を行う。こうして、各人物パーツにパーツ編集を個別に行うことができる。   Further, main controller 6 (part information extracting means) extracts part information IP necessary for part editing of photographed image IM from photographed image IM in accordance with an editing program, and stores it in HDD 63. This parts information IP is data indicating the area (coordinate data) that each person part (black eye, hair, face, etc.), which is an execution unit of parts editing, occupies in the captured image IM for each person part. The area in the captured image IM of the human part is associated with each other and managed for each human part. When the user designates a position to be part-edited in the captured image IM displayed on the edit monitor 31, the CPU 61 identifies a person part corresponding to the user-designated position based on the part information IP, and the person Perform predetermined part editing on parts. In this way, parts editing can be performed on each person part individually.

また、写真シール払出装置1は、主制御装置6と撮影ブース2との信号の入出力を制御する入出力制御装置71と、主制御装置6から外部装置へデータを出力する通信装置73(通信手段)とを備える。写真シール払出装置1は、通信装置73によってインターネットに接続されており、インターネットを介して外部のサーバーにアップロードした撮影画像IMをユーザーの携帯端末9(携帯電話、スマートフォン、タブレット型のコンピューター、ノート型のコンピューター等)へ提供することができる(図3)。   The photo sticker dispensing device 1 also includes an input / output control device 71 that controls input / output of signals between the main control device 6 and the photographing booth 2 and a communication device 73 (communication) that outputs data from the main control device 6 to an external device. Means). The photo sticker dispensing device 1 is connected to the Internet by a communication device 73, and a photographed image IM uploaded to an external server via the Internet is used for a user's mobile terminal 9 (mobile phone, smartphone, tablet computer, notebook type). (Fig. 3).

図3は、インターネットを介した撮影画像の提供態様の一例を模式的に示す図である。図3に示すように、写真シール払出装置1はインターネットサーバー8とインターネットNを介して接続されており、写真シール払出装置1および携帯端末9からインターネットを介して簡便にインターネットサーバー8へアクセスすることができる。したがって、写真シール払出装置1は、インターネットNを介してインターネットサーバー8に撮影画像IM等のデータをアップロードすることができる。そして、ユーザーは、携帯端末9からインターネットNを介してインターネットサーバー8にアクセスすることで、撮影画像IMを携帯端末9にダウンロードして、撮影画像IMの提供を受けることができる。   FIG. 3 is a diagram schematically illustrating an example of a captured image providing mode via the Internet. As shown in FIG. 3, the photo sticker dispensing device 1 is connected to the Internet server 8 via the Internet N, and the photo sticker dispensing device 1 and the portable terminal 9 can easily access the Internet server 8 via the Internet. Can do. Therefore, the photo sticker dispensing apparatus 1 can upload data such as the photographed image IM to the Internet server 8 via the Internet N. Then, by accessing the Internet server 8 from the mobile terminal 9 via the Internet N, the user can download the captured image IM to the mobile terminal 9 and receive the provided captured image IM.

このように、写真シール払出装置1はインターネットサーバー8と協働して、ユーザーの携帯端末9へ撮影画像IMを提供する撮影画像提供システム100を構成する。さらに、本実施形態の撮影画像提供システム100は、インターネットサーバー8にアップロードされた撮影画像IMのパーツ編集を、ユーザーによる携帯端末9の操作によって実行できるように構成されている。   As described above, the photograph sticker dispensing apparatus 1 forms a photographed image providing system 100 that provides the photographed image IM to the user's portable terminal 9 in cooperation with the Internet server 8. Furthermore, the captured image providing system 100 according to the present embodiment is configured such that part editing of the captured image IM uploaded to the Internet server 8 can be executed by the user operating the mobile terminal 9.

図4は、インターネットサーバーの構成の一例を模式的に示すブロック図である。インターネットサーバー8は、コンピューター81、データベース82および通信装置83を有し、通信装置83によってインターネットNに接続されている。そして、インターネットサーバー8は、撮影画像IMとともにパーツ情報IPを、インターネットNを介して写真シール払出装置1から受信してデータベース82に保存する。また、コンピューター81にはサーバー用プログラムPSがインストールされており、インターネットサーバー8は、コンピューター81によりサーバー用プログラムPSを実行することで、撮影画像IMのパーツ編集に必要な各動作を実行する。   FIG. 4 is a block diagram schematically showing an example of the configuration of the Internet server. The Internet server 8 includes a computer 81, a database 82, and a communication device 83, and is connected to the Internet N by the communication device 83. Then, the Internet server 8 receives the part information IP together with the photographed image IM from the photograph sticker dispensing apparatus 1 via the Internet N and stores it in the database 82. The server 81 is installed with the server program PS, and the Internet server 8 executes the server program PS by the computer 81, thereby executing each operation necessary for editing the parts of the captured image IM.

続いては、図5〜図7を用いて、以上の構成を具備する写真シール払出装置1、インターネットサーバー8および携帯端末9が実行するパーツ編集に関連する動作について説明する。ここで、図5は、写真シール払出装置が実行する撮影処理の一例を示すフローチャートであり、図6は、写真シール払出装置が実行するパーツ情報取得処理の一例を示すフローチャートであり、図7は、インターネットサーバーが実行するパーツ編集処理の一例を示すフローチャートである。   Next, operations related to part editing executed by the photo sticker dispensing apparatus 1, the Internet server 8, and the portable terminal 9 having the above-described configuration will be described with reference to FIGS. Here, FIG. 5 is a flowchart showing an example of the photographing process executed by the photograph sticker dispensing apparatus, FIG. 6 is a flowchart showing an example of the part information acquisition process executed by the photograph sticker dispensing apparatus, and FIG. 5 is a flowchart showing an example of part editing processing executed by the Internet server.

図5の撮影処理が開始されると、写真シール払出装置1の主制御装置6は、撮影部モニター22に「撮影スタート」の旨を表示する(ステップS101)。そして、「撮影スタート」の表示から所定時間の経過後に、主制御装置6は撮影装置21により撮影ブース2内の人物を撮影することで撮影画像IMを取得し(ステップS102、撮影工程))、こうして取得した撮影画像IMをHDD63に保存する(ステップS103)。ステップS104では、主制御装置6は、撮影部モニター22に「撮影終了」の旨を表示して撮影処理を終了し、図6のパーツ情報取得処理を開始する。   When the photographing process of FIG. 5 is started, the main control device 6 of the photo sticker dispensing device 1 displays “photographing start” on the photographing unit monitor 22 (step S101). Then, after a lapse of a predetermined time from the display of “shooting start”, the main control device 6 obtains a photographed image IM by photographing a person in the photographing booth 2 with the photographing device 21 (step S102, photographing step)). The captured image IM acquired in this way is stored in the HDD 63 (step S103). In step S104, the main control device 6 displays “photographing end” on the photographing unit monitor 22, finishes the photographing process, and starts the part information acquisition process of FIG.

パーツ情報取得処理のステップS201(パーツ情報抽出工程)では、主制御装置6は撮影画像IMからパーツ情報IPを抽出する。例えば、人物パーツのうちの顔パーツのパーツ情報を抽出する場合には、先ず肌色部分を抽出し、続いて肌色部分の抽出結果に基づいて目(白目および黒目)の位置を抽出する。そして、目の位置を基点に眉毛、鼻、口の位置を抽出し、目、鼻、口の位置から顔の角度を抽出する。さらに、顔の角度を抽出した結果に基づいて、顔の輪郭や髪の毛を抽出する。ステップS201でのパーツ情報IPの抽出が完了すると、主制御装置6は、パーツ情報IPをHDD63に保存する(ステップS202)。こうしてHDD63に保存されたパーツ情報IPが上述の編集ブース3でのパーツ編集に用いられる。さらに、ステップS203(アップロード工程、撮影画像受信工程)において、主制御装置6は、パーツ情報IPを撮影画像IMとともにインターネットサーバー8へアップロードして、パーツ情報取得処理を終了する。こうしてインターネットサーバー8にアップロードされたパーツ情報IPは、図7のフローチャートに示すパーツ編集処理に用いられる。   In step S201 (part information extraction step) of the part information acquisition process, the main control device 6 extracts the part information IP from the captured image IM. For example, when extracting part information of a facial part among human parts, a skin color part is first extracted, and then the positions of eyes (white eyes and black eyes) are extracted based on the extraction result of the skin color part. Then, the positions of the eyebrows, nose and mouth are extracted based on the position of the eyes, and the face angle is extracted from the positions of the eyes, nose and mouth. Further, based on the result of extracting the face angle, the face outline and the hair are extracted. When the extraction of the parts information IP in step S201 is completed, the main controller 6 stores the parts information IP in the HDD 63 (step S202). The part information IP stored in the HDD 63 in this way is used for parts editing at the editing booth 3 described above. Furthermore, in step S203 (upload process, captured image receiving process), the main controller 6 uploads the part information IP together with the captured image IM to the Internet server 8, and ends the part information acquisition process. The part information IP uploaded to the Internet server 8 in this way is used for parts editing processing shown in the flowchart of FIG.

図7のフローチャートは、インターネットサーバー8のコンピューター81がサーバー用プログラムPSに従って動作することで実行され、ユーザーの携帯端末9の操作によりパーツ編集を行うことを可能とするものである。ステップS301では、インターネットサーバー8は、携帯端末9から撮影画像IMのダウンロードの要求があったか否かを判断する。そして、撮影画像IMのダウンロードの要求があった場合(ステップS301で「YES」の場合)は、インターネットサーバー8は、撮影画像IMを携帯端末9へダウンロードする(ステップS302、撮影画像送信工程)。これにより、ユーザーは、携帯端末9の画面において、撮影画像IMを確認することができる。   The flowchart of FIG. 7 is executed when the computer 81 of the Internet server 8 operates in accordance with the server program PS, and enables parts editing by the user's operation of the mobile terminal 9. In step S <b> 301, the Internet server 8 determines whether there is a request for downloading the captured image IM from the mobile terminal 9. If there is a request for downloading the captured image IM (in the case of “YES” in step S301), the Internet server 8 downloads the captured image IM to the mobile terminal 9 (step S302, captured image transmission step). Thereby, the user can check the captured image IM on the screen of the mobile terminal 9.

ステップS303では、インターネットサーバー8は、携帯端末9から指定位置情報を受信したか否かを判断する。この指定位置情報は、ユーザーが携帯端末9の操作により撮影画像IM中に指定した位置を示す情報であり、具体的には、携帯端末9の表示画面に表示される撮影画像IM中でユーザーが指あるいはペンで触れた位置の座標データである。そして、携帯端末9は、ユーザーから指定位置情報の入力があると、当該指定位置情報をインターネットサーバー8に転送し、インターネットサーバー8は指定位置情報の受信を確認すると(ステップS303で「YES」)、ステップS304に進んで指定位置情報をコンピューター81に取得する(位置取得工程、指定位置情報受信工程)。   In step S <b> 303, the Internet server 8 determines whether or not the designated position information has been received from the mobile terminal 9. The designated position information is information indicating a position designated by the user in the captured image IM by operating the mobile terminal 9. Specifically, the user specifies the position information in the captured image IM displayed on the display screen of the mobile terminal 9. This is coordinate data of a position touched with a finger or a pen. When the designated position information is input from the user, the portable terminal 9 transfers the designated position information to the Internet server 8, and when the Internet server 8 confirms reception of the designated position information ("YES" in step S303). In step S304, the designated position information is obtained by the computer 81 (position obtaining step, designated position information receiving step).

ステップS305では、インターネットサーバー8は、指定位置情報により指定される位置に対応する人物パーツが撮影画像IMに占める領域をパーツ情報IPに基づいて特定する(特定工程)。具体的には、パーツ情報IPの示す各人物パーツが撮影画像IM中に占める領域のうち、指定位置情報に対応する位置を含むあるいは最も広く重複する対象領域を判別する。そして、当該対象領域が、ユーザーにより指定された人物パーツが撮影画像IM中に占める領域であると特定する。   In step S305, the Internet server 8 specifies an area occupied by the human part corresponding to the position specified by the specified position information in the captured image IM based on the part information IP (specific process). Specifically, a target area that includes a position corresponding to the designated position information or that overlaps the widest among the areas occupied by each person part indicated by the part information IP in the captured image IM is determined. Then, the target area is specified as an area occupied by the human part designated by the user in the captured image IM.

ステップS306では、インターネットサーバー8はステップS305で特定した人物パーツの領域に対して、ユーザーが携帯端末9の操作により指定したパーツ編集を行って、編集画像を生成する。具体的には、携帯端末9の画面に表示された各ボタンのうちからユーザーが所望の編集内容を示すボタンに指あるいはペンで触れると、当該ボタンに対応する編集を実行せよとのパーツ編集指令が携帯端末9からインターネットサーバー8へ送信される。これを受けて、インターネットサーバー8が当該パーツ編集指令に応じたパーツ編集を行って編集画像を生成する。続いてステップS307で、インターネットサーバー8は、編集画像を携帯端末9へダウンロードして、図7のパーツ編集処理を終了する。   In step S306, the Internet server 8 performs part editing specified by the user by operating the portable terminal 9 on the person part region specified in step S305, and generates an edited image. Specifically, when the user touches the button indicating the desired editing content from among the buttons displayed on the screen of the mobile terminal 9 with a finger or a pen, the parts editing command is executed to execute the editing corresponding to the button. Is transmitted from the portable terminal 9 to the Internet server 8. In response to this, the Internet server 8 performs part editing according to the part editing command and generates an edited image. Subsequently, in step S307, the Internet server 8 downloads the edited image to the mobile terminal 9, and ends the part editing process of FIG.

以上に説明したように、本実施形態によれば、写真シール払出装置1はパーツ情報IPを撮影画像IMから抽出し、撮影画像IMとともにパーツ情報IPを携帯端末9からアクセス可能なインターネットサーバー8にアップロードする。そのため、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集する際に、インターネットサーバー8にアップロードされたパーツ情報IPを用いることができる。したがって、ユーザーによる携帯端末9の操作が指定する人物パーツが撮影画像IM中に占める領域をパーツ情報IPに基づき特定することができる。こうして、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。   As described above, according to the present embodiment, the photograph sticker dispensing apparatus 1 extracts the part information IP from the captured image IM, and the Internet information server 8 can access the part information IP together with the captured image IM from the mobile terminal 9. Upload. Therefore, when the captured image IM uploaded to the Internet server 8 is edited by operating the mobile terminal 9, the part information IP uploaded to the Internet server 8 can be used. Therefore, it is possible to specify the area occupied by the human part specified by the user's operation of the mobile terminal 9 in the captured image IM based on the part information IP. In this way, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image IM.

具体的には、インターネットサーバー8は、サーバー用プログラムPSに従って動作することで、ユーザーによる携帯端末9の操作により撮影画像IM中に指定した位置に対応する指定位置情報を携帯端末9から受信し、指定位置情報により指定される位置に対応する人物パーツが撮影画像IM中に占める領域をパーツ情報IPに基づいて特定する。これによって、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。   Specifically, the Internet server 8 operates according to the server program PS, thereby receiving designated position information corresponding to the position designated in the captured image IM by the operation of the portable terminal 9 by the user from the portable terminal 9, An area occupied by the human part corresponding to the position specified by the specified position information in the captured image IM is specified based on the part information IP. As a result, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image IM.

しかも、本実施形態によれば、このようにして撮影画像IM中に占める領域が的確に特定された人物パーツに対して編集が実行される。そのため、人物パーツの編集を高精度に実行することが可能となっている。   In addition, according to the present embodiment, editing is performed on the person part in which the area occupied in the captured image IM is accurately specified in this way. Therefore, it is possible to execute the editing of the person parts with high accuracy.

続いては、本発明の実施形態の第1変形例について説明する。なお、上記実施形態と第1変形例との差異点は、人物の関節の位置を検出した結果に基づいてアバターの作成が可能となっている点である。したがって、以下では、この差異点を中心に説明を行い、上記実施形態との共通点については適宜説明を省略する。ただし、上記実施形態と共通する構成を備えることで、同様の効果を奏することは言うまでもない。   Then, the 1st modification of embodiment of this invention is demonstrated. The difference between the above embodiment and the first modification is that an avatar can be created based on the result of detecting the position of a person's joint. Therefore, in the following, description will be made focusing on this difference, and description of points in common with the above embodiment will be omitted as appropriate. However, it is needless to say that the same effect can be achieved by providing the configuration common to the above embodiment.

図8は、第1変形例にかかる写真シール払出装置が具備する電気的構成を模式的に示すブロック図である。図9は、第1変形例にかかる写真シール払出装置が実行する撮影処理の一例を示すフローチャートであり、図10は、第1変形例にかかる写真シール払出装置が実行するパーツ情報取得処理の一例を示すフローチャートであり、図11は、第1変形例にかかるインターネットサーバーが実行するパーツ編集処理の一例を示すフローチャートである。   FIG. 8 is a block diagram schematically showing the electrical configuration of the photographic sticker dispensing apparatus according to the first modification. FIG. 9 is a flowchart showing an example of a photographing process executed by the photo sticker dispensing apparatus according to the first modification, and FIG. 10 is an example of a part information acquisition process executed by the photo sticker dispensing apparatus according to the first modification. FIG. 11 is a flowchart showing an example of part editing processing executed by the Internet server according to the first modification.

第1変形例においては、図8に示すように、写真シール払出装置1の撮影ブース2は、センサー28を有する。このセンサー28は、赤外線照射部から撮影ブース2内の人物に赤外線を照射つつ赤外線カメラによって人物で反射された赤外線を検出することで、人物までの距離を測定する赤外線方式の測距センサーである。そして、主制御装置6は、撮影装置21により撮影ブース2内の人物を撮影するのと同時に、センサー28により人物までの距離を測定する。このセンサー28による測距結果IRは、人物の各部までの距離を示すものであり、換言すれば人物の三次元形状を示すものである。この測距結果IRは、入出力制御装置71を介してセンサー28から主制御装置6に出力されて、主制御装置6のHDD63に保存される。かかる第1変形例の構成を踏まえて、図9〜図11の説明を行う。   In the first modified example, as shown in FIG. 8, the photography booth 2 of the photographic sticker dispensing apparatus 1 has a sensor 28. This sensor 28 is an infrared distance measuring sensor that measures the distance to a person by detecting the infrared ray reflected by the person by the infrared camera while irradiating the person in the photographing booth 2 with infrared rays from the infrared irradiation unit. . Then, the main control device 6 measures the distance to the person by the sensor 28 at the same time that the photographing device 21 photographs the person in the photographing booth 2. The distance measurement result IR by the sensor 28 indicates the distance to each part of the person, in other words, the three-dimensional shape of the person. The distance measurement result IR is output from the sensor 28 to the main control device 6 via the input / output control device 71 and stored in the HDD 63 of the main control device 6. 9 to 11 will be described based on the configuration of the first modification.

図9の撮影処理が開始されると、写真シール払出装置1の主制御装置6は、撮影部モニター22に「撮影スタート」の旨を表示する(ステップS401)。そして、「撮影スタート」の表示から所定時間の経過後に、主制御装置6は、撮影ブース2内の人物全体(全身)の撮影および測距を同時に行って撮影画像IMおよび測距結果IRを取得し(ステップS402)、これらをHDD63に保存する(ステップS403)。ステップS404では、主制御装置6は、撮影部モニター22に「撮影終了」の旨を表示して撮影処理を終了し、図10のパーツ情報取得処理を開始する。   When the photographing process of FIG. 9 is started, the main control device 6 of the photo sticker dispensing device 1 displays “photographing start” on the photographing unit monitor 22 (step S401). Then, after a lapse of a predetermined time from the display of “shooting start”, the main control device 6 obtains a photographed image IM and a distance measurement result IR by simultaneously photographing and ranging of the entire person (whole body) in the photography booth 2. These are stored in the HDD 63 (step S403). In step S404, the main control device 6 displays “photographing end” on the photographing unit monitor 22, finishes the photographing process, and starts the part information acquisition process of FIG.

図10のパーツ情報取得処理では、主制御装置6は図6のステップS201、S202と同様にしてステップS501、S502を実行し、撮影画像IMから抽出したパーツ情報IPをHDD63に保存する。さらに、主制御装置6は、センサー28による測距結果IRから、人物全体の各関節の位置を示す関節位置情報IJを抽出する(ステップS503)。このように、主制御装置6とセンサー28とが協働して、人物の関節の位置を検出する「検出手段」として機能する。なお、関節位置情報IJの抽出は例えば、各関節の三次元形状を示すパターンにマッチする位置を、測距結果IRが示す人物の三次元形状のうちから抽出するパターンマッチングにより実行することができる。また、撮影画像IMおよび測距結果IRは同じ人物に対して同時に取得されているため、測距結果IRから抽出した関節位置情報IJは、撮影画像IMにおける人物全体の各関節の位置を示すこととなる。   In the part information acquisition process of FIG. 10, the main controller 6 executes steps S501 and S502 in the same manner as steps S201 and S202 of FIG. 6, and stores the part information IP extracted from the captured image IM in the HDD 63. Further, main controller 6 extracts joint position information IJ indicating the position of each joint of the entire person from distance measurement result IR by sensor 28 (step S503). In this way, the main control device 6 and the sensor 28 cooperate to function as “detection means” that detects the position of the joint of the person. The joint position information IJ can be extracted, for example, by pattern matching in which a position that matches the pattern indicating the three-dimensional shape of each joint is extracted from the three-dimensional shape of the person indicated by the distance measurement result IR. . Further, since the captured image IM and the distance measurement result IR are acquired simultaneously for the same person, the joint position information IJ extracted from the distance measurement result IR indicates the position of each joint of the entire person in the captured image IM. It becomes.

ステップS503での関節位置情報IJの抽出が完了すると、主制御装置6は、関節位置情報IJをHDD63に保存する。そして、主制御装置6は、撮影画像IMとともに、パーツ情報IPおよび関節位置情報IJをインターネットサーバー8にアップロードして(ステップS505)、パーツ情報取得処理を終了する。こうしてインターネットサーバー8にアップロードされたパーツ情報IPおよび関節位置情報IJは、図11のフローチャートに示す画像編集処理に用いられる。   When the extraction of the joint position information IJ in step S503 is completed, the main control device 6 stores the joint position information IJ in the HDD 63. Then, main controller 6 uploads part information IP and joint position information IJ together with captured image IM to Internet server 8 (step S505), and ends the part information acquisition process. The part information IP and joint position information IJ uploaded to the Internet server 8 in this way are used for the image editing process shown in the flowchart of FIG.

図11のフローチャートは、インターネットサーバー8のコンピューター81がサーバー用プログラムPSに従って動作することで実行され、ユーザーの携帯端末9の操作により画像編集を行うことを可能とするものである。図11のステップS601〜S606では、図7のステップS301〜S306と同様の動作が実行され、ユーザーによる携帯端末9の操作に基づいて撮影画像IMに対するパーツ編集が実行される。   The flowchart of FIG. 11 is executed when the computer 81 of the Internet server 8 operates in accordance with the server program PS, and enables image editing by operating the user's portable terminal 9. In steps S601 to S606 in FIG. 11, operations similar to those in steps S301 to S306 in FIG. 7 are performed, and parts editing for the captured image IM is performed based on the operation of the mobile terminal 9 by the user.

かかるパーツ編集が完了すると、インターネットサーバー8は、アバターを作成するか否かを判断する(ステップS607)。具体的には、携帯端末9の画面に表示された各ボタンのうちからユーザーがアバター作成を示すボタンに指あるいはペンで触れると、アバターを作成せよとのアバター作成指令が携帯端末9からインターネットサーバー8へ送信される。そこで、ステップS607では、インターネットサーバー8は携帯端末9からアバター作成指令を受信したか否かを判断する。そして、アバター作成指令を受信していない場合(ステップS607で「NO」の場合)は、インターネットサーバー8はステップS610へ進んで、編集画像、すなわちパーツ編集が施された撮影画像IMを携帯端末9へダウンロードする。   When such part editing is completed, the Internet server 8 determines whether or not to create an avatar (step S607). Specifically, when the user touches a button indicating creation of an avatar with a finger or a pen from among the buttons displayed on the screen of the portable terminal 9, an avatar creation command for creating an avatar is issued from the portable terminal 9 to the Internet server. 8 is transmitted. Therefore, in step S607, the Internet server 8 determines whether or not an avatar creation command is received from the mobile terminal 9. If the avatar creation command has not been received (in the case of “NO” in step S607), the internet server 8 proceeds to step S610, and displays the edited image, that is, the captured image IM subjected to the part editing, on the mobile terminal 9. Download to

一方、アバター作成指令を受信した場合(ステップS607で「YES」の場合)は、インターネットサーバー8はステップS608、S609を実行する。ステップS608では、アバターの各関節位置を関節位置情報IJに基づいて調整し、アバターの各関節位置を撮影画像IM中の人物の各関節位置に一致させる。ステップS609では、こうして関節位置が調整されたアバターの表面に、ステップS606でのパーツ編集が施された撮影画像IMを重ね合せる。そして、ステップS610においては、主制御装置6は、パーツ編集が施された撮影画像IMおよび人物のアバターのそれぞれを携帯端末9にダウンロードする。   On the other hand, when an avatar creation command is received (in the case of “YES” in step S607), the Internet server 8 executes steps S608 and S609. In step S608, each joint position of the avatar is adjusted based on the joint position information IJ, and each joint position of the avatar is matched with each joint position of the person in the captured image IM. In step S609, the captured image IM subjected to the part editing in step S606 is superimposed on the surface of the avatar whose joint position is adjusted in this way. In step S610, main controller 6 downloads captured image IM and the person's avatar that have undergone part editing to portable terminal 9.

以上に説明したように、第1変形例においても、パーツ情報IPが携帯端末9からアクセス可能なインターネットサーバー8にアップロードされる。そのため、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集する際に、パーツ情報IPを用いることができる。その結果、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。さらに、撮影画像IM中に占める領域が的確に特定された人物パーツに対して編集が実行されるため、人物パーツの編集を高精度に実行することが可能となっている。   As described above, also in the first modification, the part information IP is uploaded to the Internet server 8 accessible from the mobile terminal 9. Therefore, when editing the captured image IM uploaded to the Internet server 8 by operating the mobile terminal 9, the part information IP can be used. As a result, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image IM. Furthermore, since the editing is performed on the person part in which the area occupied in the captured image IM is accurately specified, it is possible to execute the editing of the person part with high accuracy.

また、第1変形例においては、撮影ブース2内の人物を撮影して撮影画像IMを取得する他に、撮影ブース2内の人物の関節(身体パーツ)の位置を検出する。このように人物の関節の位置を検出することができ、撮影画像IMに写る人物の体型を的確に把握することが可能となっている。   Further, in the first modification, in addition to capturing a photographed image IM by photographing a person in the photographing booth 2, the positions of the joints (body parts) of the person in the photographing booth 2 are detected. In this way, the positions of the joints of the person can be detected, and the body shape of the person shown in the captured image IM can be accurately grasped.

しかも、検出した関節の位置を示す関節位置情報IJ(身体パーツ位置情報)を、撮影画像IMとともにインターネットサーバー8にアップロードする。したがって、インターネットサーバー8にアップロードされた撮影画像IMを編集するのに際して、関節位置情報IJを用いることができる。その結果、撮影画像IM中の人物の身体に対する編集をニーズに応じた精度で行うことが可能となる。   In addition, joint position information IJ (body part position information) indicating the position of the detected joint is uploaded to the Internet server 8 together with the captured image IM. Therefore, the joint position information IJ can be used when editing the captured image IM uploaded to the Internet server 8. As a result, it is possible to edit the person's body in the captured image IM with accuracy according to needs.

具体的には、検出した関節の位置に基づいてアバターの各関節位置を調整することで、人物の体型に応じてアバターの体型を調整してから、撮影画像IMをアバターに重ね合せる。こうして、撮影画像中の人物の身体をアバターに重ね合せるといった編集をアバターの体型を調整してから行うことで、例えばアバターの足の長さや身体全体のバランス等を、人物の体型に応じて適切化することができ、当該編集をユーザーのニーズに応じた精度で行うことが可能になっている。   Specifically, by adjusting each joint position of the avatar based on the detected joint position, the body shape of the avatar is adjusted according to the body shape of the person, and then the captured image IM is superimposed on the avatar. Thus, by editing the avatar's body shape so that the person's body in the captured image is superimposed on the avatar, for example, the length of the avatar's legs and the balance of the entire body are appropriate according to the person's body shape. Therefore, the editing can be performed with accuracy according to the user's needs.

すなわち、写真シール払出装置1は、撮影装置21の被写体である人物の関節の位置を検出し、検出した関節の位置を示す関節位置情報IJをインターネットサーバー8にアップロードする。したがって、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集するにあたり、インターネットサーバー8にアップロードされた関節位置情報IJを用いることができる。よって、ユーザーは、携帯端末9の操作によって人物により近いアバターを作成することができ、より充実した画像編集が可能となる。   That is, the photograph sticker dispensing apparatus 1 detects the position of the joint of the person who is the subject of the photographing apparatus 21 and uploads the joint position information IJ indicating the detected position of the joint to the Internet server 8. Therefore, the joint position information IJ uploaded to the Internet server 8 can be used to edit the captured image IM uploaded to the Internet server 8 by operating the mobile terminal 9. Therefore, the user can create an avatar that is closer to a person by operating the mobile terminal 9, and more complete image editing is possible.

この際、撮影ブース2内の人物の身体が有する三次元形状を測定した結果に基づいて、関節(身体パーツ)の位置が検出される。したがって、写真等の二次元の情報に基づく場合と比較して、関節の位置をより高精度に検出することが可能となっている。特に、三次元形状に基づく手法によれば、人物の関節が服で隠れているような場合でも、関節の位置を求めることが可能となる。なお、ここでは、測距により三次元形状を求める場合を例示したが、例えば位相シフト法等の他の手法により三次元形状を求めても構わない。   At this time, the position of the joint (body part) is detected based on the result of measuring the three-dimensional shape of the person's body in the imaging booth 2. Therefore, it is possible to detect the position of the joint with higher accuracy than in the case based on two-dimensional information such as a photograph. In particular, according to a method based on a three-dimensional shape, the position of a joint can be obtained even when a person's joint is hidden by clothes. Although the case where the three-dimensional shape is obtained by distance measurement is illustrated here, the three-dimensional shape may be obtained by another method such as a phase shift method.

続いては、本発明の実施形態の第2変形例について説明する。なお、上記実施形態と第2変形例との差異点は、携帯端末9の操作に基づくパーツ編集処理を、インターネットサーバー8ではなく携帯端末9で行う点である。したがって、以下では、この差異点を中心に説明を行い、上記実施形態との共通点については適宜説明を省略する。ただし、上記実施形態と共通する構成を備えることで、同様の効果を奏することは言うまでもない。   Then, the 2nd modification of embodiment of this invention is demonstrated. The difference between the above embodiment and the second modification is that the part editing process based on the operation of the mobile terminal 9 is performed not by the Internet server 8 but by the mobile terminal 9. Therefore, in the following, description will be made focusing on this difference, and description of points in common with the above embodiment will be omitted as appropriate. However, it is needless to say that the same effect can be achieved by providing the configuration common to the above embodiment.

図12は、第2変形例にかかるインターネットサーバーが具備する電気的構成を模式的に示すブロック図である。図13は、第2変形例にかかる携帯端末が具備する電気的構成を模式的に示すブロック図である。図14は、第2変形例にかかる携帯端末が実行するパーツ編集処理の一例を示すフローチャートである。   FIG. 12 is a block diagram schematically illustrating an electrical configuration of the Internet server according to the second modification. FIG. 13 is a block diagram schematically illustrating an electrical configuration of the mobile terminal according to the second modification. FIG. 14 is a flowchart illustrating an example of part editing processing executed by the mobile terminal according to the second modification.

携帯端末9は、コンピューター91および通信装置92を有し、通信装置92によってインターネットNに接続されている。この携帯端末9は、インターネットサーバー8のデータベース82に保存されているアプリケーションプログラムPA(携帯端末用プログラム)を、インターネットNを介してダウンロードしてコンピューター91にインストールする。そして、携帯端末9は、コンピューター91によりアプリケーションプログラムPAを実行することで、図14に示すパーツ編集処理を実行する。   The mobile terminal 9 includes a computer 91 and a communication device 92, and is connected to the Internet N by the communication device 92. The mobile terminal 9 downloads an application program PA (mobile terminal program) stored in the database 82 of the Internet server 8 via the Internet N and installs it on the computer 91. Then, the portable terminal 9 executes the part editing process shown in FIG. 14 by executing the application program PA by the computer 91.

ステップS701では、携帯端末9は、インターネットサーバー8から撮影画像IMおよびパーツ情報IPをダウンロードする(撮影画像アクセス工程、パーツ情報アクセス工程)。これにより、ユーザーは、携帯端末9の画面において、撮影画像IMを確認することができる。なお、撮影画像IMおよびパーツ情報IPは、上記実施形態と同様にして写真シール払出装置1からインターネットサーバー8に予めアップロードされたものである。   In step S701, the mobile terminal 9 downloads the captured image IM and the part information IP from the Internet server 8 (captured image access process, parts information access process). Thereby, the user can check the captured image IM on the screen of the mobile terminal 9. Note that the photographed image IM and the part information IP are uploaded in advance from the photo sticker dispensing apparatus 1 to the Internet server 8 in the same manner as in the above embodiment.

ステップS702では、携帯端末9は、ユーザーからの指定位置情報の入力の有無を確認する。そして、指定位置情報の入力を確認すると(ステップS702で「YES」)、ステップS703に進んで指定位置情報をコンピューター91に取得する(指定位置情報取得工程)。ステップS704では、携帯端末9は、指定位置情報により指定される位置に対応する人物パーツが撮影画像IMに占める領域をパーツ情報IPに基づいて特定する(特定工程)。そして、ステップS705では、携帯端末9は、ステップS704で特定した人物パーツの領域に対して、ユーザーが携帯端末9の操作により指定したパーツ編集を行って、編集画像を生成する。続いて、ステップS706で、携帯端末9は、編集画像を保存して、図14のパーツ編集処理を終了する。   In step S <b> 702, the mobile terminal 9 confirms whether or not the designated position information is input from the user. When the input of the designated position information is confirmed (“YES” in step S702), the process proceeds to step S703 and the designated position information is acquired in the computer 91 (specified position information acquisition step). In step S704, the mobile terminal 9 specifies an area occupied by the human part corresponding to the position specified by the specified position information in the captured image IM based on the part information IP (specific process). In step S <b> 705, the mobile terminal 9 performs part editing specified by an operation of the mobile terminal 9 on the person part area specified in step S <b> 704 to generate an edited image. Subsequently, in step S706, the portable terminal 9 stores the edited image and ends the part editing process of FIG.

以上に説明したように、第2変形例においても、パーツ情報IPが携帯端末9からアクセス可能なインターネットサーバー8にアップロードされる。そのため、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集する際に、パーツ情報IPを用いることができる。その結果、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。さらに、撮影画像IM中に占める領域が的確に特定された人物パーツに対して編集が実行されるため、人物パーツの編集を高精度に実行することが可能となっている。   As described above, also in the second modification, the part information IP is uploaded to the Internet server 8 accessible from the mobile terminal 9. Therefore, when editing the captured image IM uploaded to the Internet server 8 by operating the mobile terminal 9, the part information IP can be used. As a result, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image IM. Furthermore, since the editing is performed on the person part in which the area occupied in the captured image IM is accurately specified, it is possible to execute the editing of the person part with high accuracy.

具体的には、携帯端末9は、アプリケーションプログラムPAに従って動作することで、ユーザーによる操作により撮影画像IM中に指定した位置に対応する指定位置情報を取得し、指定位置情報により指定される位置に対応する人物パーツが撮影画像IM中に占める領域をパーツ情報IPに基づいて特定する。これによって、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。   Specifically, the mobile terminal 9 operates in accordance with the application program PA to acquire designated position information corresponding to the position designated in the captured image IM by the user's operation, and to the position designated by the designated position information. An area occupied by the corresponding person part in the captured image IM is specified based on the part information IP. As a result, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image IM.

なお、本発明は上記の例に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記の例では、人物パーツとして、黒目、髪の毛、顔が例示列挙されていた。しかしながら、人物パーツの例はこれらに限られず、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節のいずれかであっても良い。   The present invention is not limited to the above example, and various modifications other than those described above can be made without departing from the spirit of the present invention. For example, in the above example, black eyes, hair, and a face are listed as human parts. However, examples of human parts are not limited to these. Human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, Any of the joints may be used.

さらに、これに対応して、パーツ情報IPは、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが撮影画像IM中に占める領域を示す情報であっても良い。   Correspondingly, parts information IP includes human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet. Information indicating an area occupied by at least one person part of the joint in the captured image IM may be used.

あるいは、パーツ情報IPは、パーツ編集のニーズが特に高いもの、例えば人物の目、黒目、肌、髪の毛の少なくとも1つの人物パーツが撮影画像IM中に占める領域を示す情報であっても良い。   Alternatively, the part information IP may be information indicating an area occupied in the photographed image IM by at least one person part having particularly high parts editing needs, for example, human eyes, black eyes, skin, and hair.

また、上記の例では、写真シール払出装置1は、撮影画像IMのクロマキー合成に用いるマスク(前景マスク、背景マスク)を取得していた。そこで、写真シール払出装置1がこれらマスクをインターネットサーバー8にアップロードするように構成しても良い。かかる構成では、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集するにあたり、インターネットサーバー8にアップロードされたマスクを用いることができる。よって、ユーザーは携帯端末9の操作によってクロマキーによる画像合成を行うことができ、より充実した画像編集が可能となる。   In the above example, the photographic sticker dispensing apparatus 1 acquires a mask (foreground mask, background mask) used for chroma key composition of the captured image IM. Therefore, the photo sticker dispensing apparatus 1 may be configured to upload these masks to the Internet server 8. In such a configuration, when the captured image IM uploaded to the Internet server 8 is edited by operating the portable terminal 9, the mask uploaded to the Internet server 8 can be used. Therefore, the user can perform image composition using the chroma key by operating the mobile terminal 9, and more complete image editing is possible.

あるいは、写真シール払出装置1が、撮影装置21の被写体である人物に特有の人物特定情報(例えば、ユーザーの名前、ハンドルネーム、電話番号、メールアドレス等)をインターネットサーバー8にアップロードするように構成しても良い。かかる構成では、多数の人物の撮影画像IMがインターネットサーバー8にアップロードされている状況においても、ユーザーは、人物特定情報に基づいて適切な人物の撮影画像IMにアクセスすることができる。   Alternatively, the photo sticker dispensing device 1 is configured to upload person specifying information (for example, a user name, a handle name, a telephone number, a mail address, etc.) specific to the person who is the subject of the photographing device 21 to the Internet server 8. You may do it. In such a configuration, even in a situation in which captured images IM of a large number of persons are uploaded to the Internet server 8, the user can access the captured images IM of appropriate persons based on the person specifying information.

また、上記の例では、撮影画像IMをシール台紙に印刷してユーザーに提供する写真シール払出装置1に本発明を適用した構成について説明した。しかしながら、本発明の適用範囲は写真シール払出装置1のような人物撮影装置に限られない。したがって、シール台紙に印刷した撮影画像IMをユーザーに提供する構成を具備しない人物撮影装置に本発明を適用しても構わない。   In the above example, the configuration in which the present invention is applied to the photo sticker dispensing apparatus 1 that prints the photographed image IM on a sticker mount and provides it to the user has been described. However, the application range of the present invention is not limited to a person photographing apparatus such as the photo sticker dispensing apparatus 1. Therefore, the present invention may be applied to a person photographing apparatus that does not have a configuration for providing a user with a photographed image IM printed on a sticker mount.

また、上記の例では、静止画に対してパーツ編集を行う場合について説明した。しかしながら、動画を構成する各フレームに対して上記の静止画に対する処理と同様の処理を行うことで、動画に対しても本発明を適用することが可能である。   In the above example, the case where parts editing is performed on a still image has been described. However, the present invention can also be applied to a moving image by performing the same processing as that for the still image on each frame constituting the moving image.

また、上記の第1変形例では、関節位置情報IJに基づく編集と、パーツ情報IPに基づく編集とが撮影画像IMに対して行われていた。しかしながら、関節位置情報IJに基づく編集のみを行い、パーツ情報IPに基づく編集を行わないように構成しても構わない。   Further, in the first modified example, editing based on the joint position information IJ and editing based on the part information IP are performed on the captured image IM. However, only the editing based on the joint position information IJ may be performed, and the editing based on the part information IP may not be performed.

また、上記の第1変形例では、関節位置情報IJに基づく編集をインターネットサーバー8で行っていた。しかしながら、関節位置情報IJに基づく編集を写真シール払出装置1で行って、編集済みの撮影画像IMを写真シール払出装置1からインターネットサーバー8へアップロードするように構成しても構わない。   In the first modified example, editing based on the joint position information IJ is performed by the Internet server 8. However, editing based on the joint position information IJ may be performed by the photo sticker dispensing apparatus 1 and the edited photographed image IM may be uploaded from the photo sticker dispensing apparatus 1 to the Internet server 8.

また、第1変形例では、関節が身体パーツとして検出されていたが、身体パーツとして検出される対象は関節に限られない。したがって、肩、腕、肘、手首、手、胸、腹、腰、足、膝、足首、腿、脛、足、関節のうち少なくとも1つを身体パーツとして検出し、その検出結果に基づいて撮影画像IMを編集するように構成しても構わない。具体例を挙げると、かかる身体パーツの位置を検出した結果に基づいてアバターの該当する身体パーツの位置を調整してから、撮影画像IMをアバターに重ね合わせるといった編集を行うことができる。   In the first modification, the joint is detected as a body part, but the target to be detected as the body part is not limited to the joint. Therefore, at least one of shoulder, arm, elbow, wrist, hand, chest, abdomen, waist, foot, knee, ankle, thigh, shin, foot, and joint is detected as a body part, and shooting is performed based on the detection result. You may comprise so that the image IM may be edited. As a specific example, after adjusting the position of the corresponding body part of the avatar based on the result of detecting the position of the body part, editing such as superimposing the captured image IM on the avatar can be performed.

また、第1変形例では、身体パーツの位置を検出した結果に基づいてアバターの体型を調整していた。しかしながら、身体パーツの位置を検出した結果に基づいて、撮影画像IM中の人物の体型をアバターに合うように調整して、撮影画像IMをアバターに重ね合せても良い。   In the first modification, the body shape of the avatar is adjusted based on the result of detecting the position of the body part. However, based on the result of detecting the position of the body part, the body shape of the person in the captured image IM may be adjusted to match the avatar, and the captured image IM may be superimposed on the avatar.

また、第1変形例では、身体パーツの位置を検出した結果(関節位置情報IJ)をアバターの作成に用いた場合について説明した。しかしながら、身体パーツの位置を検出した結果の用途はこれに限られない。   In the first modification, the case where the result of detecting the position of the body part (joint position information IJ) is used to create the avatar has been described. However, the use of the result of detecting the position of the body part is not limited to this.

1…写真シール払出装置
10…装置本体
100…撮影画像提供システム
2…撮影ブース
21…撮影装置
204…クロマキーカーテン
28…センサー
3…編集ブース
4…印刷ブース
42…プリンター
6…主制御装置
73…通信装置
8…インターネットサーバー
81…コンピューター
82…データベース
83…通信装置
9…携帯端末
91…コンピューター
92…通信装置
IJ…関節位置情報
IM…撮影画像
IP…パーツ情報
IR…測距結果
N…インターネット
PS…サーバー用プログラム
PA…アプリケーションプログラム
DESCRIPTION OF SYMBOLS 1 ... Photograph sticker dispensing apparatus 10 ... Apparatus main body 100 ... Shooting image provision system 2 ... Shooting booth 21 ... Shooting apparatus 204 ... Chroma key curtain 28 ... Sensor 3 ... Editing booth 4 ... Printing booth 42 ... Printer 6 ... Main controller 73 ... Communication Device 8 ... Internet server 81 ... Computer 82 ... Database 83 ... Communication device 9 ... Mobile terminal 91 ... Computer 92 ... Communication device IJ ... Joint position information IM ... Photographed image IP ... Part information IR ... Ranging result N ... Internet PS ... Server Program PA ... Application program

Claims (16)

撮影ブースを有する筐体と、
前記撮影ブース内の人物を撮影して撮影画像を取得する撮影手段と、
人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出するパーツ情報抽出手段と、
前記撮影画像とともに前記パーツ情報を、携帯端末からアクセス可能なサーバーにアップロードする通信手段と
を備えたことを特徴とする人物撮影装置。
A housing having a photography booth;
Photographing means for photographing a person in the photographing booth to obtain a photographed image;
Human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, joints in the captured image Part information extracting means for extracting part information indicating the area occupied by
A person photographing apparatus comprising: a communication unit that uploads the part information together with the photographed image to a server accessible from a portable terminal.
前記通信手段は、インターネットに接続されたサーバーに前記撮影画像とともに前記パーツ情報をアップロードする請求項1に記載の人物撮影装置。   The person photographing apparatus according to claim 1, wherein the communication unit uploads the part information together with the photographed image to a server connected to the Internet. クロマキーによる画像合成に使用可能なマスクを前記撮影画像に基づき生成するマスク生成手段をさらに備え、
前記通信手段は、前記マスクも前記サーバーにアップロードする請求項1または2に記載の人物撮影装置。
Mask generation means for generating a mask that can be used for image synthesis by chroma key based on the captured image,
The person photographing apparatus according to claim 1, wherein the communication unit uploads the mask to the server.
前記通信手段は、前記撮影手段の被写体である当該人物に特有の人物特定情報も前記サーバーにアップロードする請求項1ないし3のいずれか一項に記載の人物撮影装置。   The person photographing apparatus according to any one of claims 1 to 3, wherein the communication unit also uploads person specifying information specific to the person who is the subject of the photographing unit to the server. 前記撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段をさらに備え、
前記通信手段は、前記検出手段が検出した前記身体パーツの位置を示す身体パーツ位置情報も前記サーバーにアップロードする請求項1ないし4のいずれか一項に記載の人物撮影装置。
Further comprising detection means for detecting the position of body parts other than the face of the person in the shooting booth,
5. The person photographing apparatus according to claim 1, wherein the communication unit also uploads body part position information indicating the position of the body part detected by the detection unit to the server.
筐体に設けられた撮影ブース内の人物を撮影して撮影画像を取得するとともに、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出する人物撮影装置と、
携帯端末からアクセス可能なサーバーと
を備え、
前記人物撮影装置は、前記撮影画像とともに前記パーツ情報を前記サーバーにアップロードする通信手段を有することを特徴とする撮影画像提供システム。
Take a picture of a person in the shooting booth provided in the housing and obtain a shot image, and also, the person's eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, A person photographing device that extracts part information indicating an area occupied by at least one person part of a neck, a torso, an arm, a hand, a foot, and a joint in the photographed image from the photographed image;
With a server accessible from a mobile device,
The photographed image providing system, wherein the person photographing device includes a communication unit that uploads the part information together with the photographed image to the server.
人物撮影装置の撮影手段により人物を撮影して取得した撮影画像、および、前記人物撮影装置のパーツ情報抽出手段により前記撮影画像から抽出した人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を、前記人物撮影装置から受信する撮影画像受信工程と、
前記撮影画像をアクセス中の携帯端末に送信する撮影画像送信工程と、
ユーザーによる前記携帯端末の操作により前記撮影画像中に指定した位置に対応する指定位置情報を前記携帯端末から受信する指定位置情報受信工程と、
前記指定位置情報により指定される位置に対応する前記人物パーツが前記撮影画像中に占める領域を前記パーツ情報に基づいて特定する特定工程と
をサーバーに実行させることを特徴とするサーバー用プログラム。
A photographed image obtained by photographing a person with the photographing means of the person photographing device, and the eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose of the person extracted from the photographed image by the part information extracting means of the person photographing device Receiving from the person photographing device part information indicating an area occupied by at least one person part of the mouth, lips, cheeks, skin, hair, face, neck, torso, arm, hand, foot, and joint in the photographed image A captured image receiving process to perform,
A photographed image transmission step of transmitting the photographed image to the accessing mobile terminal;
A designated position information receiving step for receiving designated position information corresponding to a position designated in the captured image by an operation of the portable terminal by a user from the portable terminal;
A program for a server, which causes a server to execute a specifying step of specifying, based on the part information, an area occupied by the person part corresponding to a position specified by the specified position information in the captured image.
人物撮影装置が撮影手段により人物を撮影してサーバーにアップロードした撮影画像にアクセスする撮影画像アクセス工程と、
前記ユーザーによる携帯端末の操作により前記撮影画像中に指定した位置に対応する指定位置情報を取得する指定位置情報取得工程と、
前記人物撮影装置がパーツ情報抽出手段により前記撮影画像から抽出して前記サーバーにアップロードした人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報にアクセスするパーツ情報アクセス工程と、
前記指定位置情報により指定される位置に対応する前記人物パーツが前記撮影画像中に占める領域を前記パーツ情報に基づいて特定する特定工程と
を、前記携帯端末に搭載されたコンピューターに実行させることを特徴とする携帯端末用プログラム。
A photographed image access process in which the person photographing device photographs a person by photographing means and accesses a photographed image uploaded to the server;
A designated position information obtaining step for obtaining designated position information corresponding to a position designated in the captured image by an operation of the mobile terminal by the user;
The person's photographing device extracted from the photographed image by the parts information extracting means and uploaded to the server, the human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, A part information access step for accessing part information indicating an area occupied by at least one person part of a neck, a torso, an arm, a hand, a foot, and a joint in the captured image;
Causing the computer mounted on the portable terminal to execute a specific step of specifying, based on the part information, an area occupied by the person part corresponding to the position specified by the specified position information in the captured image. A portable terminal program characterized.
人物撮影装置に設けられた撮影ブース内の人物を撮影して撮影画像を取得する撮影工程と、
人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出するパーツ情報抽出工程と、
前記撮影画像とともに前記パーツ情報を携帯端末によりアクセス可能なサーバーにアップロードするアップロード工程と、
ユーザーによる前記携帯端末の操作に応じて前記サーバーにアップロードされた前記撮影画像にアクセスして、当該撮影画像中の前記携帯端末の操作により指定された位置を取得する位置取得工程と、
前記位置取得工程で取得した位置に対応する前記人物パーツが前記撮影画像中に占める領域を、前記サーバーにアップロードされた前記パーツ情報に基づいて特定する特定工程と、
前記特定工程で前記撮影画像中に占める領域が特定された前記人物パーツの画像に対して、ユーザーの前記携帯端末の操作に基づく所定の編集を施す編集工程と
を備えたことを特徴とする画像編集方法。
A shooting step of shooting a person in a shooting booth provided in the person shooting device and acquiring a shot image;
Human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, joints in the captured image Part information extracting step for extracting part information indicating the area occupied by the photographed image,
Uploading the parts information together with the captured image to a server accessible by a mobile terminal,
A position acquisition step of accessing the captured image uploaded to the server according to an operation of the mobile terminal by a user and acquiring a position specified by the operation of the mobile terminal in the captured image;
A specifying step of specifying an area occupied by the person part corresponding to the position acquired in the position acquiring step in the captured image based on the part information uploaded to the server;
An editing step of performing predetermined editing based on an operation of the user's mobile terminal on the image of the person part for which the area occupied in the captured image is specified in the specifying step Editing method.
撮影ブースを有する筐体と、
前記撮影ブース内の人物を撮影して撮影画像を取得する撮影手段と、
前記撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段と
を備えたことを特徴とする人物撮影装置。
A housing having a photography booth;
Photographing means for photographing a person in the photographing booth to obtain a photographed image;
A person photographing apparatus comprising: detecting means for detecting positions of body parts other than the face of the person in the photographing booth.
前記検出手段は、前記撮影ブース内の人物の身体が有する三次元形状を測定した結果に基づいて、前記身体パーツの位置を検出する請求項10に記載の人物撮影装置。   The person photographing apparatus according to claim 10, wherein the detecting unit detects a position of the body part based on a result of measuring a three-dimensional shape of a person's body in the photographing booth. 前記撮影ブース内の人物の身体までの距離を計測することで前記三次元形状を測定する請求項11に記載の人物撮影装置。   The person photographing device according to claim 11, wherein the three-dimensional shape is measured by measuring a distance to a human body in the photographing booth. 前記検出手段は、赤外線カメラによって前記撮影ブース内の人物の身体までの距離を計測する請求項12に記載の人物撮影装置。   The person photographing apparatus according to claim 12, wherein the detecting unit measures a distance to a person's body in the photographing booth with an infrared camera. 前記検出手段が検出した前記身体パーツの位置を示す身体パーツ位置情報を、前記撮影画像とともにサーバーにアップロードする通信手段をさらに備えた請求項10ないし13のいずれか一項に記載の人物撮影装置。   The person photographing apparatus according to claim 10, further comprising a communication unit that uploads body part position information indicating the position of the body part detected by the detecting unit to a server together with the captured image. 前記検出手段が求めた前記身体パーツの位置に基づいて、前記撮影手段が取得した前記撮影画像中の人物の身体に対して編集を行う編集手段をさらに備えた請求項10ないし13のいずれか一項に記載の人物撮影装置。   14. The apparatus according to claim 10, further comprising an editing unit that edits the body of a person in the captured image acquired by the imaging unit based on the position of the body part obtained by the detection unit. The person photographing device according to the item. 人物撮影装置に設けられた撮影ブース内の人物を撮影して撮影画像を取得する撮影工程と、
撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出工程と、
前記検出工程で求めた前記身体パーツの位置に基づいて、前記撮影工程で取得した前記撮影画像中の人物の身体に対して編集を行う編集工程と
を備えたことを特徴とする画像編集方法。
A shooting step of shooting a person in a shooting booth provided in the person shooting device and acquiring a shot image;
A detection step for detecting the position of body parts other than the face of the person in the shooting booth;
An image editing method comprising: an editing step of editing a person's body in the photographed image acquired in the photographing step based on the position of the body part obtained in the detection step.
JP2014150391A 2014-07-24 2014-07-24 Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method Ceased JP2016025603A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014150391A JP2016025603A (en) 2014-07-24 2014-07-24 Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014150391A JP2016025603A (en) 2014-07-24 2014-07-24 Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method

Publications (1)

Publication Number Publication Date
JP2016025603A true JP2016025603A (en) 2016-02-08

Family

ID=55271991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014150391A Ceased JP2016025603A (en) 2014-07-24 2014-07-24 Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method

Country Status (1)

Country Link
JP (1) JP2016025603A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107181670A (en) * 2017-05-18 2017-09-19 北京小米移动软件有限公司 image processing method, device and storage medium
KR20180001440A (en) * 2016-06-25 2018-01-04 김정태 Touch free photo booth for high throughput direct photo delivery
WO2022113301A1 (en) * 2020-11-27 2022-06-02 シミックホールディングス株式会社 Control device, computer program, non-transitory computer readable medium, data storage system, and storage device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004259034A (en) * 2003-02-26 2004-09-16 Atsushi Umoto Image correction system, image correction method, and counselling providing server
JP2011147000A (en) * 2010-01-15 2011-07-28 Nec Corp Mobile terminal
JP2013065156A (en) * 2011-09-16 2013-04-11 Kddi Corp Image analysis device and image evaluation apparatus
JP2013162451A (en) * 2012-02-08 2013-08-19 Tatsumi Denshi Kogyo Kk Game photographing apparatus, game photographing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004259034A (en) * 2003-02-26 2004-09-16 Atsushi Umoto Image correction system, image correction method, and counselling providing server
JP2011147000A (en) * 2010-01-15 2011-07-28 Nec Corp Mobile terminal
JP2013065156A (en) * 2011-09-16 2013-04-11 Kddi Corp Image analysis device and image evaluation apparatus
JP2013162451A (en) * 2012-02-08 2013-08-19 Tatsumi Denshi Kogyo Kk Game photographing apparatus, game photographing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180001440A (en) * 2016-06-25 2018-01-04 김정태 Touch free photo booth for high throughput direct photo delivery
CN107181670A (en) * 2017-05-18 2017-09-19 北京小米移动软件有限公司 image processing method, device and storage medium
WO2022113301A1 (en) * 2020-11-27 2022-06-02 シミックホールディングス株式会社 Control device, computer program, non-transitory computer readable medium, data storage system, and storage device

Similar Documents

Publication Publication Date Title
KR102664688B1 (en) Method for providing shoot mode based on virtual character and electronic device performing thereof
EP3096208B1 (en) Image processing for head mounted display devices
JP2021192250A (en) Real time 3d capture using monocular camera and method and system for live feedback
US8982229B2 (en) Storage medium recording information processing program for face recognition process
CN109219835A (en) The generation of the customization wearable article of 3 D-printing
CN109923851B (en) Printing system, server, printing method, and recording medium
CN112346572A (en) Method, system and electronic device for realizing virtual-real fusion
JP6563580B1 (en) Communication system and program
CN110148191A (en) The virtual expression generation method of video, device and computer readable storage medium
KR20200094915A (en) Exercise Posture Correction System and Correction Method using it
JP2016025603A (en) Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method
JP2022183213A (en) Head-mounted display
JP5874421B2 (en) Game shooting device, game shooting method and program
WO2021109764A1 (en) Image or video generation method and apparatus, computing device and computer-readable medium
Rudolph et al. TechnoSapiens: merging humans with technology in augmented reality
JP6880394B2 (en) Photographing game console and shooting method
JP5555924B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP6632298B2 (en) Information processing apparatus, information processing method and program
JP2019133276A (en) Image processing system and terminal
CN104156138B (en) Filming control method and imaging control device
JP2017034409A (en) Image processing system, image processing method and computer program
JP2016206465A (en) Photography amusement device
JP6371318B2 (en) Photography game machine and its control program
JP6853475B2 (en) Photo creation game console and display method
JP5998344B2 (en) Shooting game machine, shooting game machine control method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20181030