JP2016025603A - Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method - Google Patents
Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method Download PDFInfo
- Publication number
- JP2016025603A JP2016025603A JP2014150391A JP2014150391A JP2016025603A JP 2016025603 A JP2016025603 A JP 2016025603A JP 2014150391 A JP2014150391 A JP 2014150391A JP 2014150391 A JP2014150391 A JP 2014150391A JP 2016025603 A JP2016025603 A JP 2016025603A
- Authority
- JP
- Japan
- Prior art keywords
- person
- photographing
- captured image
- image
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Information Transfer Between Computers (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、人物撮影装置が人物を撮影してサーバーにアップロードした撮影画像に対して人物を構成するパーツの画像編集を実行するにあたって利用可能な技術に関する。 The present invention relates to a technique that can be used when performing image editing of parts constituting a person on a photographed image that a person photographing device has photographed a person and uploaded to a server.
従来、撮影ブース内の人物を撮影して撮影画像をユーザーに提供する人物撮影装置が知られている。また、かかる人物撮影装置では、特許文献1の写真シール機のように目や髪などの顔の特徴的なパーツを指定でき、ユーザーが撮影画像中に指定したパーツの編集を行って、編集後の撮影画像を提供するように構成されたものが一般的である。
2. Description of the Related Art Conventionally, a person photographing apparatus that photographs a person in a photographing booth and provides a photographed image to a user is known. Further, in such a person photographing apparatus, characteristic parts of the face such as eyes and hair can be designated as in the photo sticker of
ちなみに、特許文献1では、写真シールという形態で撮影画像をユーザーに提供している。しかしながら、近年では撮影画像のユーザーへの提供形態も多様化してきている。例えば特許文献2では、人物撮影装置(写真シール作成装置)で撮影された撮影画像は、人物撮影装置からサーバーにアップロードされ、ユーザーは携帯端末からサーバーにアクセスすることで撮影画像の提供を受ける。
Incidentally, in
ところで、サーバーを介して人物の撮影画像を提供する形態においては、携帯端末の操作によって、サーバーにアップロードされた撮影画像における人物パーツの編集を実行したいといったユーザーのニーズがある。ただし、かかる画像編集を行うためには、携帯端末に対するユーザーの操作に基づいて、編集対象となる人物パーツが撮影画像中に占める領域を的確に特定する必要がある。そこで、ユーザーが携帯端末にダウンロードした撮影画像上で指やペン等を用いて取り囲んだ領域を、編集対象となる人物パーツが撮影画像中に占める領域と特定する手法も考えられる。しかしながら、このようなマニュアル操作によって、編集対象となる人物パーツが撮影画像中に占める領域を的確に特定することは困難である。 By the way, in the form of providing a photographed image of a person via a server, there is a user's need to edit a person part in the photographed image uploaded to the server by operating a mobile terminal. However, in order to perform such image editing, it is necessary to accurately specify an area occupied by a human part to be edited in a captured image based on a user operation on the mobile terminal. In view of this, a method of specifying an area surrounded by a finger or pen on a captured image downloaded by the user to the mobile terminal as an area occupied by the person part to be edited in the captured image is also conceivable. However, it is difficult to accurately specify the area occupied by the person part to be edited in the captured image by such a manual operation.
また、撮影画像の提供態様のみならず、撮影画像に対する編集態様についてもユーザーのニーズが多様化してきており、例えば顔以外の身体に対して編集を行いたいとったニーズがある。しかしながら、撮影画像に写る人物の体型を的確に把握することができないために、撮影画像中の人物の身体に対する編集をニーズに応じた精度で行うことが難しい場合があった。 In addition to the manner of providing photographed images, user needs have been diversified not only with respect to the manner of editing of photographed images. However, since it is impossible to accurately grasp the body shape of a person shown in a captured image, it may be difficult to edit the body of the person in the captured image with accuracy according to needs.
本発明の第1態様は、上記の前者の課題に鑑みなされたものであり、サーバーにアップロードされた撮影画像における人物パーツの編集を携帯端末の操作によって行うにあたり、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定するのに資する技術の提供を目的(第1目的)とする。 The first aspect of the present invention has been made in view of the above-described problem, and when editing a human part in a captured image uploaded to a server by operating a mobile terminal, the human part to be edited is captured. The purpose (first purpose) is to provide a technique that contributes to accurately and simply specifying the area occupied in an image.
本発明の第2態様は、上記の後者の課題に鑑みなされたものであり、撮影画像に写る人物の体型を的確に把握することを可能とする技術の提供を目的(第2目的)とする。 The second aspect of the present invention has been made in view of the latter problem described above, and aims to provide a technique (second purpose) capable of accurately grasping the figure of a person appearing in a photographed image. .
上記した第1目的を達成するために、本発明の第1態様に係る人物撮影装置は、撮影ブースを有する筐体と、前記撮影ブース内の人物を撮影して撮影画像を取得する撮影手段と、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出するパーツ情報抽出手段と、前記撮影画像とともに前記パーツ情報を、携帯端末からアクセス可能なサーバーにアップロードする通信手段とを備えたことを特徴としている(請求項1)。 In order to achieve the first object described above, a person photographing apparatus according to the first aspect of the present invention includes a housing having a photographing booth, and photographing means for photographing a person in the photographing booth to obtain a photographed image. At least one human part of a person's eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, legs, joints is the captured image. A part information extracting unit that extracts part information indicating an area occupied from the captured image, and a communication unit that uploads the part information together with the captured image to a server accessible from a mobile terminal. (Claim 1).
また、前記通信手段は、インターネットに接続されたサーバーに前記撮影画像とともに前記パーツ情報をアップロードするように、人物撮影装置を構成しても良い(請求項2)。 The communication unit may be configured to upload the part information together with the captured image to a server connected to the Internet (claim 2).
また、クロマキーによる画像合成に使用可能なマスクを前記撮影画像に基づき生成するマスク生成手段をさらに備え、前記通信手段は、前記マスクも前記サーバーにアップロードするように、人物撮影装置を構成しても良い(請求項3)。 Further, the image forming apparatus may further include a mask generating unit that generates a mask that can be used for image synthesis using a chroma key based on the captured image, and the communication unit is configured to upload the mask to the server. Good (claim 3).
また、前記通信手段は、前記撮影手段の被写体である当該人物に特有の人物特定情報も前記サーバーにアップロードするように、人物撮影装置を構成しても良い(請求項4)。 The communication unit may be configured to upload the person specifying information unique to the person who is the subject of the photographing unit to the server (claim 4).
また、前記撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段をさらに備え、前記通信手段は、前記検出手段が検出した前記身体パーツの位置を示す身体パーツ位置情報も前記サーバーにアップロードするように、人物撮影装置を構成しても良い(請求項5)。 Further, the apparatus further comprises detection means for detecting a position of a body part other than the face of the person in the photographing booth, and the communication means also includes body part position information indicating the position of the body part detected by the detection means. The person photographing device may be configured so as to be uploaded.
上記した第1目的を達成するために、本発明の第1態様に係る撮影画像提供システムは、筐体に設けられた撮影ブース内の人物を撮影して撮影画像を取得するとともに、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出する人物撮影装置と、携帯端末からアクセス可能なサーバーとを備え、前記人物撮影装置は、前記撮影画像とともに前記パーツ情報を前記サーバーにアップロードする通信手段を有することを特徴としている(請求項6)。 In order to achieve the first object described above, the captured image providing system according to the first aspect of the present invention acquires a captured image by photographing a person in a photographing booth provided in a housing, and , Black eyes, white eyes, eyelashes, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, legs, joints in the captured image area A person photographing device that extracts part information indicating the photographed image from the photographed image and a server accessible from a mobile terminal, the person photographing device includes a communication unit that uploads the part information together with the photographed image to the server. (Claim 6).
上記した第1目的を達成するために、本発明の第1態様に係るサーバー用プログラムは、人物撮影装置の撮影手段により人物を撮影して取得した撮影画像、および、前記人物撮影装置のパーツ情報抽出手段により前記撮影画像から抽出した人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を、前記人物撮影装置から受信する撮影画像受信工程と、前記撮影画像をアクセス中の携帯端末に送信する撮影画像送信工程と、ユーザーによる前記携帯端末の操作により前記撮影画像中に指定した位置に対応する指定位置情報を前記携帯端末から受信する指定位置情報受信工程と、前記指定位置情報により指定される位置に対応する前記人物パーツが前記撮影画像中に占める領域を前記パーツ情報に基づいて特定する特定工程とをサーバーに実行させることを特徴としている(請求項7)。 In order to achieve the first object described above, a server program according to a first aspect of the present invention includes a photographed image obtained by photographing a person by photographing means of a person photographing device, and part information of the person photographing device. Human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, joints extracted from the photographed image by the extracting means A photographed image receiving step of receiving, from the person photographing device, part information indicating an area occupied by one person part in the photographed image, a photographed image transmitting step of transmitting the photographed image to the accessing mobile terminal, and a user A designated position information receiving step for receiving, from the portable terminal, designated position information corresponding to a position designated in the captured image by an operation of the portable terminal by the designated position information. That the person part corresponding to the position is characterized in that to execute a particular process on a server that identified based an area occupied in the captured image in the part information (claim 7).
上記した第1目的を達成するために、本発明の第1態様に係る携帯端末用プログラムは、人物撮影装置が撮影手段により人物を撮影してサーバーにアップロードした撮影画像にアクセスする撮影画像アクセス工程と、前記ユーザーによる携帯端末の操作により前記撮影画像中に指定した位置に対応する指定位置情報を取得する指定位置情報取得工程と、前記人物撮影装置がパーツ情報抽出手段により前記撮影画像から抽出して前記サーバーにアップロードした人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報にアクセスするパーツ情報アクセス工程と、前記指定位置情報により指定される位置に対応する前記人物パーツが前記撮影画像中に占める領域を前記パーツ情報に基づいて特定する特定工程とを、前記携帯端末に搭載されたコンピューターに実行させることを特徴としている(請求項8)。 In order to achieve the first object described above, the portable terminal program according to the first aspect of the present invention is a captured image access process in which a person photographing device photographs a person by photographing means and accesses a photographed image uploaded to a server. A specified position information acquisition step of acquiring specified position information corresponding to a position specified in the captured image by an operation of the mobile terminal by the user, and the person imaging device extracts the captured image from the captured image by a part information extraction unit. At least one of the eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, and joints uploaded to the server A part information access step for accessing part information indicating an area occupied by the part in the captured image, and a position specified by the specified position information. A specifying step of specifying on the basis of regions where the person part occupied in the captured image in the part information, is characterized in that to be executed by the onboard computer to the portable terminal (claim 8).
上記した第1目的を達成するために、本発明の第1態様に係る画像編集方法は、人物撮影装置に設けられた撮影ブース内の人物を撮影して撮影画像を取得する撮影工程と、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出するパーツ情報抽出工程と、前記撮影画像とともに前記パーツ情報を携帯端末によりアクセス可能なサーバーにアップロードするアップロード工程と、ユーザーによる前記携帯端末の操作に応じて前記サーバーにアップロードされた前記撮影画像にアクセスして、当該撮影画像中の前記携帯端末の操作により指定された位置を取得する位置取得工程と、前記位置取得工程で取得した位置に対応する前記人物パーツが前記撮影画像中に占める領域を、前記サーバーにアップロードされた前記パーツ情報に基づいて特定する特定工程と、前記特定工程で前記撮影画像中に占める領域が特定された前記人物パーツの画像に対して、ユーザーの前記携帯端末の操作に基づく所定の編集を施す編集工程とを備えたことを特徴としている(請求項9)。 In order to achieve the first object described above, an image editing method according to the first aspect of the present invention includes a photographing step of photographing a person in a photographing booth provided in a person photographing apparatus to obtain a photographed image, and a person At least one human part of the eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, joints in the captured image Depending on the operation of the portable terminal by the user, a parts information extracting step of extracting part information indicating the occupied area from the photographed image, an uploading step of uploading the part information together with the photographed image to a server accessible by the portable terminal, and A position acquisition step of accessing the captured image uploaded to the server and acquiring a position specified by an operation of the mobile terminal in the captured image; A specifying step of specifying an area occupied by the person part corresponding to the position acquired in the position acquisition step in the photographed image based on the part information uploaded to the server; and in the photographed image in the specification step An editing step of performing predetermined editing based on the user's operation of the portable terminal on the image of the person part in which the occupied area is specified (claim 9).
上記した第2目的を達成するために、本発明の第2態様に係る人物撮影装置は、撮影ブースを有する筐体と、前記撮影ブース内の人物を撮影して撮影画像を取得する撮影手段と、前記撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段とを備えたことを特徴としている(請求項10)。 In order to achieve the second object described above, a person photographing apparatus according to the second aspect of the present invention includes a housing having a photographing booth, and photographing means for photographing a person in the photographing booth to obtain a photographed image. And detecting means for detecting the position of body parts other than the face of the person in the photographing booth (claim 10).
また、前記検出手段は、前記撮影ブース内の人物の身体が有する三次元形状を測定した結果に基づいて、前記身体パーツの位置を検出するように、人物撮影装置を構成しても良い(請求項11)。 In addition, the person photographing apparatus may be configured to detect the position of the body part based on a result of measuring a three-dimensional shape of a person's body in the photographing booth (claim). Item 11).
また、前記撮影ブース内の人物の身体までの距離を計測することで前記三次元形状を測定するように、人物撮影装置を構成しても良い(請求項12)。 In addition, the person photographing apparatus may be configured to measure the three-dimensional shape by measuring a distance to a human body in the photographing booth (claim 12).
また、前記検出手段は、赤外線カメラによって前記撮影ブース内の人物の身体までの距離を計測するように、人物撮影装置を構成しても良い(請求項13)。 In addition, the person photographing device may be configured such that the detecting means measures the distance to the human body in the photographing booth by an infrared camera.
また、前記検出手段が検出した前記身体パーツの位置を示す身体パーツ位置情報を、前記撮影画像とともにサーバーにアップロードする通信手段をさらに備えるように、人物撮影装置を構成しても良い(請求項14)。 In addition, the person photographing apparatus may be configured to further include communication means for uploading body part position information indicating the position of the body part detected by the detecting means to a server together with the photographed image. ).
また、前記検出手段が求めた前記身体パーツの位置に基づいて、前記撮影手段が取得した前記撮影画像中の人物の身体に対して編集を行う編集手段をさらに備えるように、人物撮影装置を構成しても良い(請求項15)。 Further, the person photographing apparatus is configured to further include an editing unit that edits the body of the person in the photographed image acquired by the photographing unit based on the position of the body part obtained by the detecting unit. (Claim 15).
上記した第2目的を達成するために、本発明の第2態様に係る画像編集方法は、人物撮影装置に設けられた撮影ブース内の人物を撮影して撮影画像を取得する撮影工程と、撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出工程と、前記検出工程で求めた前記身体パーツの位置に基づいて、前記撮影工程で取得した前記撮影画像中の人物の身体に対して編集を行う編集工程とを備えたことを特徴としている(請求項16)。 In order to achieve the second object described above, an image editing method according to the second aspect of the present invention includes a photographing step of photographing a person in a photographing booth provided in a person photographing device to obtain a photographed image, and photographing. Based on the detection step of detecting the position of a body part other than the face of the person in the booth, and the position of the body part obtained in the detection step, the human body in the captured image acquired in the shooting step And an editing step for performing editing (claim 16).
ここで、サーバーにアップロードされたデータ(パーツ情報、撮影画像等)とは、サーバーにアップロードされてサーバーに存在するデータ、およびサーバーにアップロードされた後に他の装置(携帯端末等)に転送されたデータの両方を含むものとして取り扱う。また、携帯端末とは、携帯電話、スマートフォン、タブレット型のコンピューター、ノート型のコンピューター等の可搬型の端末を指す。身体とは人物の顔以外の部分を示し、身体パーツとは身体の一部を構成するパーツ、具体的には人物の顔以外の部分、具体的には、肩、腕、肘、手首、手、胸、腹、腰、足、膝、足首、腿、脛、足、各関節等を示す。 Here, the data uploaded to the server (part information, captured images, etc.) is the data uploaded to the server and existing on the server, and after being uploaded to the server, transferred to other devices (such as mobile terminals) Treat as containing both data. The portable terminal refers to a portable terminal such as a mobile phone, a smartphone, a tablet computer, or a notebook computer. The body means a part other than the person's face, and the body part means a part that constitutes a part of the body, specifically the part other than the person's face, specifically the shoulder, arm, elbow, wrist, hand. , Chest, abdomen, waist, legs, knees, ankles, thighs, shins, legs, joints, etc.
請求項1に係る人物撮影装置は、人物パーツが撮影画像中に占める領域を示すパーツ情報を撮影画像から抽出し、撮影画像とともにパーツ情報を携帯端末からアクセス可能なサーバーにアップロードする。そのため、サーバーにアップロードされた撮影画像を携帯端末の操作により編集する際に、サーバーにアップロードされたパーツ情報を用いることができる。したがって、ユーザーによる携帯端末の操作が指定する人物パーツが撮影画像中に占める領域をパーツ情報に基づき特定することができ、その結果、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。 The person photographing apparatus according to claim 1 extracts part information indicating an area occupied by a human part in the photographed image from the photographed image, and uploads the part information together with the photographed image to a server accessible from the portable terminal. Therefore, when editing a captured image uploaded to the server by operating the mobile terminal, the part information uploaded to the server can be used. Therefore, the area occupied by the human part specified by the user's operation of the mobile terminal in the captured image can be specified based on the part information, and as a result, the area occupied by the person part to be edited in the captured image can be accurately identified. It becomes possible to specify simply.
請求項2に係る人物撮影装置によれば、人物撮影装置および携帯端末からインターネットを介して簡便にサーバーへアクセスすることができる。 According to the person photographing device of the second aspect, it is possible to easily access the server from the person photographing device and the portable terminal via the Internet.
請求項3に係る人物撮影装置は、クロマキーによる画像合成に使用可能なマスクをサーバーにアップロードする。したがって、サーバーにアップロードされた撮影画像を携帯端末の操作により編集するにあたり、サーバーにアップロードされたマスクを用いることができる。よって、ユーザーは携帯端末の操作によってクロマキーによる画像合成を行うことができ、より充実した画像編集が可能となる。 According to a third aspect of the present invention, a human photographing apparatus uploads a mask that can be used for image composition using a chroma key to a server. Therefore, the mask uploaded to the server can be used to edit the captured image uploaded to the server by operating the mobile terminal. Therefore, the user can perform image composition using the chroma key by operating the portable terminal, and more complete image editing is possible.
請求項4に係る人物撮影装置は、撮影手段の被写体である人物に特有の人物特定情報をアップロードする。したがって、多数の人物の撮影画像がサーバーにアップロードされている状況においても、ユーザーは、人物特定情報に基づいて適切な人物の撮影画像にアクセスすることができる。 According to a fourth aspect of the present invention, the person photographing apparatus uploads the person specifying information specific to the person who is the subject of the photographing means. Therefore, even in a situation where captured images of a large number of persons are uploaded to the server, the user can access captured images of appropriate persons based on the person specifying information.
請求項5に係る人物撮影装置は、撮影ブース内の人物の顔以外の身体パーツの位置を検出手段により検出し、検出手段が検出した身体パーツの位置を示す身体パーツ位置情報もサーバーにアップロードする。したがって、サーバーにアップロードされた撮影画像を携帯端末の操作によって編集するにあたり、サーバーにアップロードされた身体パーツ位置情報を用いることができる。よって、ユーザーは携帯端末の操作によって例えば人物により近いアバターを作成するといったことができ、より充実した画像編集が可能となる。 The human photographing apparatus according to claim 5 detects the position of the body part other than the face of the person in the photographing booth by the detecting means, and uploads the body part position information indicating the position of the body part detected by the detecting means to the server. . Therefore, when editing the captured image uploaded to the server by operating the mobile terminal, the body part position information uploaded to the server can be used. Therefore, the user can create an avatar that is closer to the person, for example, by operating the mobile terminal, and more complete image editing is possible.
請求項6に係る撮影画像提供システムは、人物撮影装置とサーバーとを備える。そして、人物撮影装置は人物パーツが撮影画像中に占める領域を示すパーツ情報を撮影画像から抽出し、撮影画像とともにサーバーにアップロードする。そのため、サーバーにアップロードされた撮影画像を携帯端末の操作により編集する際に、サーバーにアップロードされたパーツ情報を用いることができる。したがって、ユーザーによる携帯端末の操作が指定する人物パーツが撮影画像中に占める領域をパーツ情報に基づき特定することができ、その結果、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。 A photographed image providing system according to a sixth aspect includes a person photographing device and a server. Then, the person photographing device extracts part information indicating an area occupied by the person parts in the photographed image from the photographed image, and uploads it to the server together with the photographed image. Therefore, when editing a captured image uploaded to the server by operating the mobile terminal, the part information uploaded to the server can be used. Therefore, the area occupied by the human part specified by the user's operation of the mobile terminal in the captured image can be specified based on the part information, and as a result, the area occupied by the person part to be edited in the captured image can be accurately identified. It becomes possible to specify simply.
請求項7に係るサーバー用プログラムによれば、サーバーは、人物パーツが撮影画像中に占める領域を示すパーツ情報を撮影画像と併せて人物撮影装置から受信する。そのため、サーバーにアップロードされた撮影画像を携帯端末の操作により編集する際に、サーバーにアップロードされたパーツ情報を用いることができる。具体的には、サーバーは、ユーザーによる携帯端末の操作により撮影画像中に指定した位置に対応する指定位置情報を携帯端末から受信し、指定位置情報により指定される位置に対応する人物パーツが撮影画像中に占める領域をパーツ情報に基づいて特定する。したがって、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。 According to the server program of the seventh aspect, the server receives the part information indicating the area occupied by the human part in the captured image together with the captured image from the person imaging device. Therefore, when editing a captured image uploaded to the server by operating the mobile terminal, the part information uploaded to the server can be used. Specifically, the server receives specified position information corresponding to the position specified in the captured image by the user's operation of the mobile terminal from the mobile terminal, and the human part corresponding to the position specified by the specified position information is captured. An area occupied in the image is specified based on the part information. Therefore, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image.
請求項8に係る携帯端末用プログラムによれば、人物撮影装置からサーバーにアップロードされた、撮影画像および人物パーツが撮影画像中に占める領域を示すパーツ情報に携帯端末からアクセスする。そして、編集対象となる人物パーツが撮影画像中に占める領域をパーツ情報に基づいて特定する。具体的には、ユーザーによる携帯端末の操作により撮影画像中に指定した位置に対応する指定位置情報を取得し、指定位置情報により指定される位置に対応する人物パーツが撮影画像中に占める領域をパーツ情報に基づいて特定する。したがって、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。 According to the portable terminal program of the eighth aspect, the portable terminal accesses part information indicating an area occupied by the photographed image and the person part in the photographed image uploaded from the person photographing device to the server. Then, an area occupied by the person part to be edited in the captured image is specified based on the part information. Specifically, the designated position information corresponding to the position designated in the photographed image is acquired by the operation of the mobile terminal by the user, and the area occupied by the human part corresponding to the position designated by the designated position information in the photographed image is determined. Identify based on parts information. Therefore, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image.
請求項9に係る画像編集方法によれば、人物パーツが撮影画像中に占める領域を示すパーツ情報を撮影画像から抽出し、撮影画像とともにパーツ情報を携帯端末からアクセス可能なサーバーにアップロードする。そのため、サーバーにアップロードされた撮影画像を携帯端末の操作により編集する際に、サーバーにアップロードされたパーツ情報を用いることができる。具体的には、ユーザーによる携帯端末の操作に応じてサーバーにアップロードされた撮影画像にアクセスして、当該撮影画像中の携帯端末により指定された位置を取得する。そして、取得した位置に対応する人物パーツが撮影画像中に占める領域を、サーバーにアップロードされたパーツ情報に基づいて特定する。したがって、編集対象となる人物パーツが撮影画像中に占める領域を的確かつ簡便に特定することが可能となる。しかも、このようにして撮影画像中に占める領域が的確に特定された人物パーツに対して編集が実行されるため、人物パーツの編集を高精度に実行することができる。 According to the image editing method of the ninth aspect, part information indicating an area occupied by a human part in a photographed image is extracted from the photographed image, and the part information is uploaded together with the photographed image to a server accessible from the mobile terminal. Therefore, when editing a captured image uploaded to the server by operating the mobile terminal, the part information uploaded to the server can be used. Specifically, the captured image uploaded to the server is accessed according to the operation of the mobile terminal by the user, and the position designated by the mobile terminal in the captured image is acquired. And the area | region which the person parts corresponding to the acquired position occupies in a picked-up image is specified based on the parts information uploaded to the server. Therefore, it is possible to accurately and easily specify the area occupied by the person part to be edited in the captured image. In addition, since the editing is performed on the person part in which the area occupied in the captured image is accurately specified in this way, the editing of the person part can be performed with high accuracy.
請求項10に係る人物撮影装置は、撮影ブース内の人物を撮影して撮影画像を取得する撮影手段の他に、撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段を備える。したがって、この検出手段によって人物の身体パーツの位置を検出することができ、撮影画像に写る人物の体型を的確に把握することが可能となっている。 According to a tenth aspect of the present invention, in addition to photographing means for photographing a person in a photographing booth and acquiring a photographed image, the human photographing apparatus includes detecting means for detecting the position of a body part other than the face of the person in the photographing booth. . Therefore, the position of the body part of the person can be detected by this detection means, and the body shape of the person shown in the captured image can be accurately grasped.
請求項11に係る人物撮影装置は、撮影ブース内の人物の身体が有する三次元形状を測定した結果に基づいて身体パーツの位置を検出する。その結果、身体パーツの位置をより高精度に検出することができる。 The person photographing device according to claim 11 detects the position of the body part based on the result of measuring the three-dimensional shape of the person's body in the photographing booth. As a result, the position of the body part can be detected with higher accuracy.
請求項12に係る人物撮影装置のように、撮影ブース内の人物の身体までの距離を計測することで、三次元形状を適切に測定することができる。 As in the person photographing apparatus according to the twelfth aspect, the three-dimensional shape can be appropriately measured by measuring the distance to the body of the person in the photographing booth.
請求項13に係る人物撮影装置のように、赤外線カメラを用いることで、撮影ブース内の人物の身体までの距離を適切に計測することができる。 By using an infrared camera as in the person photographing apparatus according to the thirteenth aspect, the distance to the person's body in the photographing booth can be appropriately measured.
請求項14に係る人物撮影装置は、検出手段が検出した身体パーツの位置を示す身体パーツ位置情報を、撮影画像とともにサーバーにアップロードする。したがって、サーバーにアップロードされた撮影画像を編集するのに際して、身体パーツ位置情報を用いることができる。その結果、撮影画像中の人物の身体に対する編集をニーズに応じた精度で行うことが可能となる。 According to the fourteenth aspect of the present invention, the body part position information indicating the position of the body part detected by the detecting means is uploaded to the server together with the photographed image. Therefore, the body part position information can be used when editing the captured image uploaded to the server. As a result, it becomes possible to edit the person's body in the captured image with accuracy according to the needs.
請求項15に係る人物撮影装置は、撮影画像中の人物の身体に対する編集を、検出手段が求めた身体パーツの位置に基づいて行う。したがって、撮影画像中の人物の身体に対する編集をニーズに応じた精度で行うことが可能となる。 According to a fifteenth aspect of the present invention, the person photographing device performs editing of the person's body in the photographed image based on the position of the body part obtained by the detecting means. Therefore, it becomes possible to edit the person's body in the captured image with accuracy according to the needs.
請求項16に係る画像編集方法は、撮影ブース内の人物を撮影して撮影画像を取得する撮影工程の他に、撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出工程を備える。したがって、この検出工程によって人物の身体パーツの位置を検出することができ、撮影画像に写る人物の体型を的確に把握することが可能となっている。さらに、撮影画像中の人物の身体に対する編集を、検出工程で求めた身体パーツの位置に基づいて行う(編集工程)。したがって、撮影画像中の人物の身体に対する編集をニーズに応じた精度で行うことが可能となっている。 The image editing method according to claim 16 includes a detection step of detecting a position of a body part other than the face of the person in the shooting booth, in addition to a shooting step of shooting a person in the shooting booth and acquiring a shot image. . Therefore, the position of the body part of the person can be detected by this detection step, and the body shape of the person shown in the captured image can be accurately grasped. Further, editing of the person's body in the photographed image is performed based on the position of the body part obtained in the detection process (editing process). Therefore, it is possible to edit the person's body in the captured image with accuracy according to the needs.
図1は、本発明を適用した写真シール払出装置の一例の外観を示す斜視図である。図2は、図1の写真シール払出装置が具備する電気的構成を模式的に示すブロック図である。なお、図1では、写真シール払出装置1の撮影ブース2内で撮影を行うユーザーから見て、後方から前方へ向かう前後方向をX軸とし、右方から左方へ向かう左右方向をY軸とするXY直交座標軸が示されている。この写真シール払出装置1は、装置本体10(筐体)に撮影ブース2、編集ブース3および印刷ブース4を形成した概略構成を備え、ユーザー(遊技者)は各ブース2、3、4のそれぞれにおいて撮影、編集および印刷を順番に行うことができる。
FIG. 1 is a perspective view showing an appearance of an example of a photographic sticker dispensing apparatus to which the present invention is applied. FIG. 2 is a block diagram schematically showing an electrical configuration of the photographic sticker dispensing apparatus of FIG. In FIG. 1, the front-rear direction from the rear to the front is the X-axis and the left-right direction from the right to the left is the Y-axis, as viewed from the user who takes pictures in the photographing
撮影ブース2の外壁には、受付モニター201およびスピーカー202が設けられている。受付モニター201は、撮影ブース2の占有状況、デモムービーあるいは宣伝広告等をユーザーに表示し、スピーカー202は、写真シール払出装置1の遊戯方法等を案内する音声を出力する。さらに、撮影ブース2の外壁には、受付モニター201の近傍にコイン受付部203(図2)が設けられている。そして、ユーザーは、所定の遊戯料金(例えば、400円)のコインを投入口に投入した後に、撮影ブース2内に移動して撮影を行うことができる。
A
撮影ブース2内では、後方(前後方向Xの矢印反対側)にクロマキーカーテン204が配置されるとともに、前方(前後方向Xの矢印側)に撮影装置21(撮影手段)および撮影部モニター22が配置されており、撮影装置21および撮影部モニター22が撮影ブース2内のユーザーに対向する。撮影装置21は、CCD(Charge Coupled
Device)カメラ等で構成され、クロマキーカーテン204を背景にして撮影ブース2内のユーザーの画像を撮影する。撮影部モニター22は、LCD(Liquid Crystal Display)等で構成され、撮影装置21が捉えた画像をユーザーに向けて表示する。したがって、ユーザーは、撮影装置21が捉えた画像を撮影部モニター22で確認しながら、撮影装置21による撮影を行うことができる。
In the photographing
Device) It is composed of a camera or the like, and takes images of users in the
また、撮影ブース2では、蛍光灯23、ストロボ発光部241およびストロボ制御装置242といった照明系が設けられている。蛍光灯23は、撮影ブース2内のユーザーを前方および上方から照らして、撮影装置21による撮影に必要な露光量を確保し、ストロボ発光部241は、撮影装置21が撮影を行う瞬間にユーザーを照らして、撮影時における影の発生を抑える。この際、ストロボ発光部241の発光タイミングや発光量は、ストロボ制御装置242によって制御される。
In the photographing
この撮影ブース2は、撮影装置21によって静止画の他に動画(ムービー)も撮影することができる。そこで、撮影ブース2は、動画撮影時にユーザーを照らすムービー用照明装置25や、動画撮影時に撮影ブース2内の音声を録音するムービー用音声録音装置26を有する。さらに、撮影ブース2は、静止画および動画の撮影手順の音声案内や、動画撮影時のBGM(Background Music)等を出力する撮影部スピーカー27を有する。
The
そして、ユーザーは、撮影ブース2で撮影した静止画の編集を編集ブース3で行うことができる。編集ブース3は、撮影ブース2より前後方向Xの前方に配置されており、編集モニター31、入力ペン32および編集部スピーカー33を有する。編集モニター31は、LCD等で構成され、編集対象となる静止画や編集内容を選択するためのボタンをユーザーに向けて表示する。入力ペン32は編集モニター31の近傍に用意されており、ユーザーは、入力ペン32により編集モニター31を操作することで所定の編集を静止画に施すことができる。また、編集部スピーカー33は、編集手順の音声案内や編集時のBGM等を出力する。
Then, the user can edit the still image shot at the
かかる編集ブース3では、静止画に対する文字や絵等の落書きを行える他、静止画中の人物パーツ(黒目、髪の毛、肌、顔等)毎に色、サイズ、形状等を変更するパーツ編集(メイク)を実行できる。すなわち、ユーザーは、編集モニター31において静止画(撮影画像IM)中の人物パーツに触れることで、パーツ編集の対象となる人物パーツを選択できる。さらに、ユーザーは、編集モニター31に表示されたボタンのうち所望の編集内容を示すボタンに触れることで、当該ボタンが示すパーツ編集を選択した人物パーツに実行できる。パーツ編集の具体的内容としては種々のものがあり、例えば静止画中の人物の黒目(瞳)の色を変更したり、黒目を大きくしたり、髪の毛の色を変更したり、肌の色や艶を変更したり、肌に化粧を施したり、顔のサイズを小さくしたりといったパーツ編集が可能である。
In this
こうして、編集ブース3で編集された静止画は、印刷ブース4で印刷されてユーザーに提供される。印刷ブース4は、編集ブース3より前後方向Xの前方に配置されており、印刷部モニター41、プリンター42、シール排出口43および印刷部スピーカー44を有する。印刷部モニター41は、LCD等で構成され、編集ブース3で編集された静止画をユーザーに向けて表示する。プリンター42は、インクジェット方式のプリンター等で構成され、印刷部モニター41に表示された静止画をシール台紙に印刷する。こうしてシール台紙に印刷された静止画は、シール排出口43から排出されてユーザーに提供される。また、印刷部スピーカー44は、印刷手順の音声案内や印刷時のBGM等を出力する。
Thus, the still image edited in the
図2に示すように、写真シール払出装置1は、撮影ブース2、編集ブース3および印刷ブース4の制御を司る主制御装置6を有する。主制御装置6は、CPU(Central Processing Unit)61、メモリー62およびHDD (Hard disk drive) 63で構成されたコンピューターである。CPU61は、主制御装置6における基本プログラムの他、撮影プログラム、編集プログラムおよび印刷プログラム等の各種プログラムを実行する。メモリー62は、フラッシュメモリー等の不揮発性メモリーおよびRAM(Random Access Memory)で構成されており、CPU61で実行される各種プログラムや画像データ等を書換可能に一時記憶する。HDD
63は、CPU61で実行される各種プログラムや撮影画像IM等の各種データを保存する。さらに、主制御装置6は、各スピーカー27、33、44による音声案内を制御する音声制御装置64も備える。
As shown in FIG. 2, the photo
63 stores various data such as various programs executed by the
かかる主制御装置6は、CPU61により撮影プログラムを実行することで、撮影ブース2での人物の撮影を実行して撮影画像IMを取得し、当該撮影画像IMをHDD63に保存する。また、主制御装置6は、CPU61により編集プログラムを実行することで、編集ブース3におけるユーザーの入力に従って撮影画像IMを編集する。この際、主制御装置6(マスク生成手段)は、人物をマスクする前景マスクとクロマキーカーテン204をマスクする背景マスクとを撮影画像IMから生成し、各マスクを用いて撮影画像IMにクロマキー合成を行うことで、ユーザーが指定した画像を背景とする人物の画像を生成する。
The
さらに、主制御装置6(パーツ情報抽出手段)は、編集プログラムに従って、撮影画像IMのパーツ編集に必要となるパーツ情報IPを撮影画像IMから抽出して、HDD63へ保存する。このパーツ情報IPは、パーツ編集の実行単位となる人物パーツ(黒目、髪の毛、顔等)それぞれが撮影画像IM中に占める領域(座標データ)を人物パーツ毎に示すデータであり、人物パーツと当該人物パーツの撮影画像IM中の領域とを対応付けて人物パーツ毎に管理する。そして、編集モニター31に表示された撮影画像IM中にユーザーがパーツ編集の対象となる位置を指定すると、CPU61は、ユーザーの指定位置に対応する人物パーツをパーツ情報IPに基づき特定し、当該人物パーツに所定のパーツ編集を行う。こうして、各人物パーツにパーツ編集を個別に行うことができる。
Further, main controller 6 (part information extracting means) extracts part information IP necessary for part editing of photographed image IM from photographed image IM in accordance with an editing program, and stores it in
また、写真シール払出装置1は、主制御装置6と撮影ブース2との信号の入出力を制御する入出力制御装置71と、主制御装置6から外部装置へデータを出力する通信装置73(通信手段)とを備える。写真シール払出装置1は、通信装置73によってインターネットに接続されており、インターネットを介して外部のサーバーにアップロードした撮影画像IMをユーザーの携帯端末9(携帯電話、スマートフォン、タブレット型のコンピューター、ノート型のコンピューター等)へ提供することができる(図3)。
The photo
図3は、インターネットを介した撮影画像の提供態様の一例を模式的に示す図である。図3に示すように、写真シール払出装置1はインターネットサーバー8とインターネットNを介して接続されており、写真シール払出装置1および携帯端末9からインターネットを介して簡便にインターネットサーバー8へアクセスすることができる。したがって、写真シール払出装置1は、インターネットNを介してインターネットサーバー8に撮影画像IM等のデータをアップロードすることができる。そして、ユーザーは、携帯端末9からインターネットNを介してインターネットサーバー8にアクセスすることで、撮影画像IMを携帯端末9にダウンロードして、撮影画像IMの提供を受けることができる。
FIG. 3 is a diagram schematically illustrating an example of a captured image providing mode via the Internet. As shown in FIG. 3, the photo
このように、写真シール払出装置1はインターネットサーバー8と協働して、ユーザーの携帯端末9へ撮影画像IMを提供する撮影画像提供システム100を構成する。さらに、本実施形態の撮影画像提供システム100は、インターネットサーバー8にアップロードされた撮影画像IMのパーツ編集を、ユーザーによる携帯端末9の操作によって実行できるように構成されている。
As described above, the photograph
図4は、インターネットサーバーの構成の一例を模式的に示すブロック図である。インターネットサーバー8は、コンピューター81、データベース82および通信装置83を有し、通信装置83によってインターネットNに接続されている。そして、インターネットサーバー8は、撮影画像IMとともにパーツ情報IPを、インターネットNを介して写真シール払出装置1から受信してデータベース82に保存する。また、コンピューター81にはサーバー用プログラムPSがインストールされており、インターネットサーバー8は、コンピューター81によりサーバー用プログラムPSを実行することで、撮影画像IMのパーツ編集に必要な各動作を実行する。
FIG. 4 is a block diagram schematically showing an example of the configuration of the Internet server. The
続いては、図5〜図7を用いて、以上の構成を具備する写真シール払出装置1、インターネットサーバー8および携帯端末9が実行するパーツ編集に関連する動作について説明する。ここで、図5は、写真シール払出装置が実行する撮影処理の一例を示すフローチャートであり、図6は、写真シール払出装置が実行するパーツ情報取得処理の一例を示すフローチャートであり、図7は、インターネットサーバーが実行するパーツ編集処理の一例を示すフローチャートである。
Next, operations related to part editing executed by the photo
図5の撮影処理が開始されると、写真シール払出装置1の主制御装置6は、撮影部モニター22に「撮影スタート」の旨を表示する(ステップS101)。そして、「撮影スタート」の表示から所定時間の経過後に、主制御装置6は撮影装置21により撮影ブース2内の人物を撮影することで撮影画像IMを取得し(ステップS102、撮影工程))、こうして取得した撮影画像IMをHDD63に保存する(ステップS103)。ステップS104では、主制御装置6は、撮影部モニター22に「撮影終了」の旨を表示して撮影処理を終了し、図6のパーツ情報取得処理を開始する。
When the photographing process of FIG. 5 is started, the
パーツ情報取得処理のステップS201(パーツ情報抽出工程)では、主制御装置6は撮影画像IMからパーツ情報IPを抽出する。例えば、人物パーツのうちの顔パーツのパーツ情報を抽出する場合には、先ず肌色部分を抽出し、続いて肌色部分の抽出結果に基づいて目(白目および黒目)の位置を抽出する。そして、目の位置を基点に眉毛、鼻、口の位置を抽出し、目、鼻、口の位置から顔の角度を抽出する。さらに、顔の角度を抽出した結果に基づいて、顔の輪郭や髪の毛を抽出する。ステップS201でのパーツ情報IPの抽出が完了すると、主制御装置6は、パーツ情報IPをHDD63に保存する(ステップS202)。こうしてHDD63に保存されたパーツ情報IPが上述の編集ブース3でのパーツ編集に用いられる。さらに、ステップS203(アップロード工程、撮影画像受信工程)において、主制御装置6は、パーツ情報IPを撮影画像IMとともにインターネットサーバー8へアップロードして、パーツ情報取得処理を終了する。こうしてインターネットサーバー8にアップロードされたパーツ情報IPは、図7のフローチャートに示すパーツ編集処理に用いられる。
In step S201 (part information extraction step) of the part information acquisition process, the
図7のフローチャートは、インターネットサーバー8のコンピューター81がサーバー用プログラムPSに従って動作することで実行され、ユーザーの携帯端末9の操作によりパーツ編集を行うことを可能とするものである。ステップS301では、インターネットサーバー8は、携帯端末9から撮影画像IMのダウンロードの要求があったか否かを判断する。そして、撮影画像IMのダウンロードの要求があった場合(ステップS301で「YES」の場合)は、インターネットサーバー8は、撮影画像IMを携帯端末9へダウンロードする(ステップS302、撮影画像送信工程)。これにより、ユーザーは、携帯端末9の画面において、撮影画像IMを確認することができる。
The flowchart of FIG. 7 is executed when the
ステップS303では、インターネットサーバー8は、携帯端末9から指定位置情報を受信したか否かを判断する。この指定位置情報は、ユーザーが携帯端末9の操作により撮影画像IM中に指定した位置を示す情報であり、具体的には、携帯端末9の表示画面に表示される撮影画像IM中でユーザーが指あるいはペンで触れた位置の座標データである。そして、携帯端末9は、ユーザーから指定位置情報の入力があると、当該指定位置情報をインターネットサーバー8に転送し、インターネットサーバー8は指定位置情報の受信を確認すると(ステップS303で「YES」)、ステップS304に進んで指定位置情報をコンピューター81に取得する(位置取得工程、指定位置情報受信工程)。
In step S <b> 303, the
ステップS305では、インターネットサーバー8は、指定位置情報により指定される位置に対応する人物パーツが撮影画像IMに占める領域をパーツ情報IPに基づいて特定する(特定工程)。具体的には、パーツ情報IPの示す各人物パーツが撮影画像IM中に占める領域のうち、指定位置情報に対応する位置を含むあるいは最も広く重複する対象領域を判別する。そして、当該対象領域が、ユーザーにより指定された人物パーツが撮影画像IM中に占める領域であると特定する。
In step S305, the
ステップS306では、インターネットサーバー8はステップS305で特定した人物パーツの領域に対して、ユーザーが携帯端末9の操作により指定したパーツ編集を行って、編集画像を生成する。具体的には、携帯端末9の画面に表示された各ボタンのうちからユーザーが所望の編集内容を示すボタンに指あるいはペンで触れると、当該ボタンに対応する編集を実行せよとのパーツ編集指令が携帯端末9からインターネットサーバー8へ送信される。これを受けて、インターネットサーバー8が当該パーツ編集指令に応じたパーツ編集を行って編集画像を生成する。続いてステップS307で、インターネットサーバー8は、編集画像を携帯端末9へダウンロードして、図7のパーツ編集処理を終了する。
In step S306, the
以上に説明したように、本実施形態によれば、写真シール払出装置1はパーツ情報IPを撮影画像IMから抽出し、撮影画像IMとともにパーツ情報IPを携帯端末9からアクセス可能なインターネットサーバー8にアップロードする。そのため、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集する際に、インターネットサーバー8にアップロードされたパーツ情報IPを用いることができる。したがって、ユーザーによる携帯端末9の操作が指定する人物パーツが撮影画像IM中に占める領域をパーツ情報IPに基づき特定することができる。こうして、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。
As described above, according to the present embodiment, the photograph
具体的には、インターネットサーバー8は、サーバー用プログラムPSに従って動作することで、ユーザーによる携帯端末9の操作により撮影画像IM中に指定した位置に対応する指定位置情報を携帯端末9から受信し、指定位置情報により指定される位置に対応する人物パーツが撮影画像IM中に占める領域をパーツ情報IPに基づいて特定する。これによって、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。
Specifically, the
しかも、本実施形態によれば、このようにして撮影画像IM中に占める領域が的確に特定された人物パーツに対して編集が実行される。そのため、人物パーツの編集を高精度に実行することが可能となっている。 In addition, according to the present embodiment, editing is performed on the person part in which the area occupied in the captured image IM is accurately specified in this way. Therefore, it is possible to execute the editing of the person parts with high accuracy.
続いては、本発明の実施形態の第1変形例について説明する。なお、上記実施形態と第1変形例との差異点は、人物の関節の位置を検出した結果に基づいてアバターの作成が可能となっている点である。したがって、以下では、この差異点を中心に説明を行い、上記実施形態との共通点については適宜説明を省略する。ただし、上記実施形態と共通する構成を備えることで、同様の効果を奏することは言うまでもない。 Then, the 1st modification of embodiment of this invention is demonstrated. The difference between the above embodiment and the first modification is that an avatar can be created based on the result of detecting the position of a person's joint. Therefore, in the following, description will be made focusing on this difference, and description of points in common with the above embodiment will be omitted as appropriate. However, it is needless to say that the same effect can be achieved by providing the configuration common to the above embodiment.
図8は、第1変形例にかかる写真シール払出装置が具備する電気的構成を模式的に示すブロック図である。図9は、第1変形例にかかる写真シール払出装置が実行する撮影処理の一例を示すフローチャートであり、図10は、第1変形例にかかる写真シール払出装置が実行するパーツ情報取得処理の一例を示すフローチャートであり、図11は、第1変形例にかかるインターネットサーバーが実行するパーツ編集処理の一例を示すフローチャートである。 FIG. 8 is a block diagram schematically showing the electrical configuration of the photographic sticker dispensing apparatus according to the first modification. FIG. 9 is a flowchart showing an example of a photographing process executed by the photo sticker dispensing apparatus according to the first modification, and FIG. 10 is an example of a part information acquisition process executed by the photo sticker dispensing apparatus according to the first modification. FIG. 11 is a flowchart showing an example of part editing processing executed by the Internet server according to the first modification.
第1変形例においては、図8に示すように、写真シール払出装置1の撮影ブース2は、センサー28を有する。このセンサー28は、赤外線照射部から撮影ブース2内の人物に赤外線を照射つつ赤外線カメラによって人物で反射された赤外線を検出することで、人物までの距離を測定する赤外線方式の測距センサーである。そして、主制御装置6は、撮影装置21により撮影ブース2内の人物を撮影するのと同時に、センサー28により人物までの距離を測定する。このセンサー28による測距結果IRは、人物の各部までの距離を示すものであり、換言すれば人物の三次元形状を示すものである。この測距結果IRは、入出力制御装置71を介してセンサー28から主制御装置6に出力されて、主制御装置6のHDD63に保存される。かかる第1変形例の構成を踏まえて、図9〜図11の説明を行う。
In the first modified example, as shown in FIG. 8, the
図9の撮影処理が開始されると、写真シール払出装置1の主制御装置6は、撮影部モニター22に「撮影スタート」の旨を表示する(ステップS401)。そして、「撮影スタート」の表示から所定時間の経過後に、主制御装置6は、撮影ブース2内の人物全体(全身)の撮影および測距を同時に行って撮影画像IMおよび測距結果IRを取得し(ステップS402)、これらをHDD63に保存する(ステップS403)。ステップS404では、主制御装置6は、撮影部モニター22に「撮影終了」の旨を表示して撮影処理を終了し、図10のパーツ情報取得処理を開始する。
When the photographing process of FIG. 9 is started, the
図10のパーツ情報取得処理では、主制御装置6は図6のステップS201、S202と同様にしてステップS501、S502を実行し、撮影画像IMから抽出したパーツ情報IPをHDD63に保存する。さらに、主制御装置6は、センサー28による測距結果IRから、人物全体の各関節の位置を示す関節位置情報IJを抽出する(ステップS503)。このように、主制御装置6とセンサー28とが協働して、人物の関節の位置を検出する「検出手段」として機能する。なお、関節位置情報IJの抽出は例えば、各関節の三次元形状を示すパターンにマッチする位置を、測距結果IRが示す人物の三次元形状のうちから抽出するパターンマッチングにより実行することができる。また、撮影画像IMおよび測距結果IRは同じ人物に対して同時に取得されているため、測距結果IRから抽出した関節位置情報IJは、撮影画像IMにおける人物全体の各関節の位置を示すこととなる。
In the part information acquisition process of FIG. 10, the
ステップS503での関節位置情報IJの抽出が完了すると、主制御装置6は、関節位置情報IJをHDD63に保存する。そして、主制御装置6は、撮影画像IMとともに、パーツ情報IPおよび関節位置情報IJをインターネットサーバー8にアップロードして(ステップS505)、パーツ情報取得処理を終了する。こうしてインターネットサーバー8にアップロードされたパーツ情報IPおよび関節位置情報IJは、図11のフローチャートに示す画像編集処理に用いられる。
When the extraction of the joint position information IJ in step S503 is completed, the
図11のフローチャートは、インターネットサーバー8のコンピューター81がサーバー用プログラムPSに従って動作することで実行され、ユーザーの携帯端末9の操作により画像編集を行うことを可能とするものである。図11のステップS601〜S606では、図7のステップS301〜S306と同様の動作が実行され、ユーザーによる携帯端末9の操作に基づいて撮影画像IMに対するパーツ編集が実行される。
The flowchart of FIG. 11 is executed when the
かかるパーツ編集が完了すると、インターネットサーバー8は、アバターを作成するか否かを判断する(ステップS607)。具体的には、携帯端末9の画面に表示された各ボタンのうちからユーザーがアバター作成を示すボタンに指あるいはペンで触れると、アバターを作成せよとのアバター作成指令が携帯端末9からインターネットサーバー8へ送信される。そこで、ステップS607では、インターネットサーバー8は携帯端末9からアバター作成指令を受信したか否かを判断する。そして、アバター作成指令を受信していない場合(ステップS607で「NO」の場合)は、インターネットサーバー8はステップS610へ進んで、編集画像、すなわちパーツ編集が施された撮影画像IMを携帯端末9へダウンロードする。
When such part editing is completed, the
一方、アバター作成指令を受信した場合(ステップS607で「YES」の場合)は、インターネットサーバー8はステップS608、S609を実行する。ステップS608では、アバターの各関節位置を関節位置情報IJに基づいて調整し、アバターの各関節位置を撮影画像IM中の人物の各関節位置に一致させる。ステップS609では、こうして関節位置が調整されたアバターの表面に、ステップS606でのパーツ編集が施された撮影画像IMを重ね合せる。そして、ステップS610においては、主制御装置6は、パーツ編集が施された撮影画像IMおよび人物のアバターのそれぞれを携帯端末9にダウンロードする。
On the other hand, when an avatar creation command is received (in the case of “YES” in step S607), the
以上に説明したように、第1変形例においても、パーツ情報IPが携帯端末9からアクセス可能なインターネットサーバー8にアップロードされる。そのため、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集する際に、パーツ情報IPを用いることができる。その結果、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。さらに、撮影画像IM中に占める領域が的確に特定された人物パーツに対して編集が実行されるため、人物パーツの編集を高精度に実行することが可能となっている。
As described above, also in the first modification, the part information IP is uploaded to the
また、第1変形例においては、撮影ブース2内の人物を撮影して撮影画像IMを取得する他に、撮影ブース2内の人物の関節(身体パーツ)の位置を検出する。このように人物の関節の位置を検出することができ、撮影画像IMに写る人物の体型を的確に把握することが可能となっている。
Further, in the first modification, in addition to capturing a photographed image IM by photographing a person in the photographing
しかも、検出した関節の位置を示す関節位置情報IJ(身体パーツ位置情報)を、撮影画像IMとともにインターネットサーバー8にアップロードする。したがって、インターネットサーバー8にアップロードされた撮影画像IMを編集するのに際して、関節位置情報IJを用いることができる。その結果、撮影画像IM中の人物の身体に対する編集をニーズに応じた精度で行うことが可能となる。
In addition, joint position information IJ (body part position information) indicating the position of the detected joint is uploaded to the
具体的には、検出した関節の位置に基づいてアバターの各関節位置を調整することで、人物の体型に応じてアバターの体型を調整してから、撮影画像IMをアバターに重ね合せる。こうして、撮影画像中の人物の身体をアバターに重ね合せるといった編集をアバターの体型を調整してから行うことで、例えばアバターの足の長さや身体全体のバランス等を、人物の体型に応じて適切化することができ、当該編集をユーザーのニーズに応じた精度で行うことが可能になっている。 Specifically, by adjusting each joint position of the avatar based on the detected joint position, the body shape of the avatar is adjusted according to the body shape of the person, and then the captured image IM is superimposed on the avatar. Thus, by editing the avatar's body shape so that the person's body in the captured image is superimposed on the avatar, for example, the length of the avatar's legs and the balance of the entire body are appropriate according to the person's body shape. Therefore, the editing can be performed with accuracy according to the user's needs.
すなわち、写真シール払出装置1は、撮影装置21の被写体である人物の関節の位置を検出し、検出した関節の位置を示す関節位置情報IJをインターネットサーバー8にアップロードする。したがって、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集するにあたり、インターネットサーバー8にアップロードされた関節位置情報IJを用いることができる。よって、ユーザーは、携帯端末9の操作によって人物により近いアバターを作成することができ、より充実した画像編集が可能となる。
That is, the photograph
この際、撮影ブース2内の人物の身体が有する三次元形状を測定した結果に基づいて、関節(身体パーツ)の位置が検出される。したがって、写真等の二次元の情報に基づく場合と比較して、関節の位置をより高精度に検出することが可能となっている。特に、三次元形状に基づく手法によれば、人物の関節が服で隠れているような場合でも、関節の位置を求めることが可能となる。なお、ここでは、測距により三次元形状を求める場合を例示したが、例えば位相シフト法等の他の手法により三次元形状を求めても構わない。
At this time, the position of the joint (body part) is detected based on the result of measuring the three-dimensional shape of the person's body in the
続いては、本発明の実施形態の第2変形例について説明する。なお、上記実施形態と第2変形例との差異点は、携帯端末9の操作に基づくパーツ編集処理を、インターネットサーバー8ではなく携帯端末9で行う点である。したがって、以下では、この差異点を中心に説明を行い、上記実施形態との共通点については適宜説明を省略する。ただし、上記実施形態と共通する構成を備えることで、同様の効果を奏することは言うまでもない。
Then, the 2nd modification of embodiment of this invention is demonstrated. The difference between the above embodiment and the second modification is that the part editing process based on the operation of the
図12は、第2変形例にかかるインターネットサーバーが具備する電気的構成を模式的に示すブロック図である。図13は、第2変形例にかかる携帯端末が具備する電気的構成を模式的に示すブロック図である。図14は、第2変形例にかかる携帯端末が実行するパーツ編集処理の一例を示すフローチャートである。 FIG. 12 is a block diagram schematically illustrating an electrical configuration of the Internet server according to the second modification. FIG. 13 is a block diagram schematically illustrating an electrical configuration of the mobile terminal according to the second modification. FIG. 14 is a flowchart illustrating an example of part editing processing executed by the mobile terminal according to the second modification.
携帯端末9は、コンピューター91および通信装置92を有し、通信装置92によってインターネットNに接続されている。この携帯端末9は、インターネットサーバー8のデータベース82に保存されているアプリケーションプログラムPA(携帯端末用プログラム)を、インターネットNを介してダウンロードしてコンピューター91にインストールする。そして、携帯端末9は、コンピューター91によりアプリケーションプログラムPAを実行することで、図14に示すパーツ編集処理を実行する。
The
ステップS701では、携帯端末9は、インターネットサーバー8から撮影画像IMおよびパーツ情報IPをダウンロードする(撮影画像アクセス工程、パーツ情報アクセス工程)。これにより、ユーザーは、携帯端末9の画面において、撮影画像IMを確認することができる。なお、撮影画像IMおよびパーツ情報IPは、上記実施形態と同様にして写真シール払出装置1からインターネットサーバー8に予めアップロードされたものである。
In step S701, the
ステップS702では、携帯端末9は、ユーザーからの指定位置情報の入力の有無を確認する。そして、指定位置情報の入力を確認すると(ステップS702で「YES」)、ステップS703に進んで指定位置情報をコンピューター91に取得する(指定位置情報取得工程)。ステップS704では、携帯端末9は、指定位置情報により指定される位置に対応する人物パーツが撮影画像IMに占める領域をパーツ情報IPに基づいて特定する(特定工程)。そして、ステップS705では、携帯端末9は、ステップS704で特定した人物パーツの領域に対して、ユーザーが携帯端末9の操作により指定したパーツ編集を行って、編集画像を生成する。続いて、ステップS706で、携帯端末9は、編集画像を保存して、図14のパーツ編集処理を終了する。
In step S <b> 702, the
以上に説明したように、第2変形例においても、パーツ情報IPが携帯端末9からアクセス可能なインターネットサーバー8にアップロードされる。そのため、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集する際に、パーツ情報IPを用いることができる。その結果、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。さらに、撮影画像IM中に占める領域が的確に特定された人物パーツに対して編集が実行されるため、人物パーツの編集を高精度に実行することが可能となっている。
As described above, also in the second modification, the part information IP is uploaded to the
具体的には、携帯端末9は、アプリケーションプログラムPAに従って動作することで、ユーザーによる操作により撮影画像IM中に指定した位置に対応する指定位置情報を取得し、指定位置情報により指定される位置に対応する人物パーツが撮影画像IM中に占める領域をパーツ情報IPに基づいて特定する。これによって、編集対象となる人物パーツが撮影画像IM中に占める領域を的確かつ簡便に特定することが可能となっている。
Specifically, the
なお、本発明は上記の例に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記の例では、人物パーツとして、黒目、髪の毛、顔が例示列挙されていた。しかしながら、人物パーツの例はこれらに限られず、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節のいずれかであっても良い。 The present invention is not limited to the above example, and various modifications other than those described above can be made without departing from the spirit of the present invention. For example, in the above example, black eyes, hair, and a face are listed as human parts. However, examples of human parts are not limited to these. Human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, Any of the joints may be used.
さらに、これに対応して、パーツ情報IPは、人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが撮影画像IM中に占める領域を示す情報であっても良い。 Correspondingly, parts information IP includes human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet. Information indicating an area occupied by at least one person part of the joint in the captured image IM may be used.
あるいは、パーツ情報IPは、パーツ編集のニーズが特に高いもの、例えば人物の目、黒目、肌、髪の毛の少なくとも1つの人物パーツが撮影画像IM中に占める領域を示す情報であっても良い。 Alternatively, the part information IP may be information indicating an area occupied in the photographed image IM by at least one person part having particularly high parts editing needs, for example, human eyes, black eyes, skin, and hair.
また、上記の例では、写真シール払出装置1は、撮影画像IMのクロマキー合成に用いるマスク(前景マスク、背景マスク)を取得していた。そこで、写真シール払出装置1がこれらマスクをインターネットサーバー8にアップロードするように構成しても良い。かかる構成では、インターネットサーバー8にアップロードされた撮影画像IMを携帯端末9の操作により編集するにあたり、インターネットサーバー8にアップロードされたマスクを用いることができる。よって、ユーザーは携帯端末9の操作によってクロマキーによる画像合成を行うことができ、より充実した画像編集が可能となる。
In the above example, the photographic
あるいは、写真シール払出装置1が、撮影装置21の被写体である人物に特有の人物特定情報(例えば、ユーザーの名前、ハンドルネーム、電話番号、メールアドレス等)をインターネットサーバー8にアップロードするように構成しても良い。かかる構成では、多数の人物の撮影画像IMがインターネットサーバー8にアップロードされている状況においても、ユーザーは、人物特定情報に基づいて適切な人物の撮影画像IMにアクセスすることができる。
Alternatively, the photo
また、上記の例では、撮影画像IMをシール台紙に印刷してユーザーに提供する写真シール払出装置1に本発明を適用した構成について説明した。しかしながら、本発明の適用範囲は写真シール払出装置1のような人物撮影装置に限られない。したがって、シール台紙に印刷した撮影画像IMをユーザーに提供する構成を具備しない人物撮影装置に本発明を適用しても構わない。
In the above example, the configuration in which the present invention is applied to the photo
また、上記の例では、静止画に対してパーツ編集を行う場合について説明した。しかしながら、動画を構成する各フレームに対して上記の静止画に対する処理と同様の処理を行うことで、動画に対しても本発明を適用することが可能である。 In the above example, the case where parts editing is performed on a still image has been described. However, the present invention can also be applied to a moving image by performing the same processing as that for the still image on each frame constituting the moving image.
また、上記の第1変形例では、関節位置情報IJに基づく編集と、パーツ情報IPに基づく編集とが撮影画像IMに対して行われていた。しかしながら、関節位置情報IJに基づく編集のみを行い、パーツ情報IPに基づく編集を行わないように構成しても構わない。 Further, in the first modified example, editing based on the joint position information IJ and editing based on the part information IP are performed on the captured image IM. However, only the editing based on the joint position information IJ may be performed, and the editing based on the part information IP may not be performed.
また、上記の第1変形例では、関節位置情報IJに基づく編集をインターネットサーバー8で行っていた。しかしながら、関節位置情報IJに基づく編集を写真シール払出装置1で行って、編集済みの撮影画像IMを写真シール払出装置1からインターネットサーバー8へアップロードするように構成しても構わない。
In the first modified example, editing based on the joint position information IJ is performed by the
また、第1変形例では、関節が身体パーツとして検出されていたが、身体パーツとして検出される対象は関節に限られない。したがって、肩、腕、肘、手首、手、胸、腹、腰、足、膝、足首、腿、脛、足、関節のうち少なくとも1つを身体パーツとして検出し、その検出結果に基づいて撮影画像IMを編集するように構成しても構わない。具体例を挙げると、かかる身体パーツの位置を検出した結果に基づいてアバターの該当する身体パーツの位置を調整してから、撮影画像IMをアバターに重ね合わせるといった編集を行うことができる。 In the first modification, the joint is detected as a body part, but the target to be detected as the body part is not limited to the joint. Therefore, at least one of shoulder, arm, elbow, wrist, hand, chest, abdomen, waist, foot, knee, ankle, thigh, shin, foot, and joint is detected as a body part, and shooting is performed based on the detection result. You may comprise so that the image IM may be edited. As a specific example, after adjusting the position of the corresponding body part of the avatar based on the result of detecting the position of the body part, editing such as superimposing the captured image IM on the avatar can be performed.
また、第1変形例では、身体パーツの位置を検出した結果に基づいてアバターの体型を調整していた。しかしながら、身体パーツの位置を検出した結果に基づいて、撮影画像IM中の人物の体型をアバターに合うように調整して、撮影画像IMをアバターに重ね合せても良い。 In the first modification, the body shape of the avatar is adjusted based on the result of detecting the position of the body part. However, based on the result of detecting the position of the body part, the body shape of the person in the captured image IM may be adjusted to match the avatar, and the captured image IM may be superimposed on the avatar.
また、第1変形例では、身体パーツの位置を検出した結果(関節位置情報IJ)をアバターの作成に用いた場合について説明した。しかしながら、身体パーツの位置を検出した結果の用途はこれに限られない。 In the first modification, the case where the result of detecting the position of the body part (joint position information IJ) is used to create the avatar has been described. However, the use of the result of detecting the position of the body part is not limited to this.
1…写真シール払出装置
10…装置本体
100…撮影画像提供システム
2…撮影ブース
21…撮影装置
204…クロマキーカーテン
28…センサー
3…編集ブース
4…印刷ブース
42…プリンター
6…主制御装置
73…通信装置
8…インターネットサーバー
81…コンピューター
82…データベース
83…通信装置
9…携帯端末
91…コンピューター
92…通信装置
IJ…関節位置情報
IM…撮影画像
IP…パーツ情報
IR…測距結果
N…インターネット
PS…サーバー用プログラム
PA…アプリケーションプログラム
DESCRIPTION OF
Claims (16)
前記撮影ブース内の人物を撮影して撮影画像を取得する撮影手段と、
人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出するパーツ情報抽出手段と、
前記撮影画像とともに前記パーツ情報を、携帯端末からアクセス可能なサーバーにアップロードする通信手段と
を備えたことを特徴とする人物撮影装置。 A housing having a photography booth;
Photographing means for photographing a person in the photographing booth to obtain a photographed image;
Human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, joints in the captured image Part information extracting means for extracting part information indicating the area occupied by
A person photographing apparatus comprising: a communication unit that uploads the part information together with the photographed image to a server accessible from a portable terminal.
前記通信手段は、前記マスクも前記サーバーにアップロードする請求項1または2に記載の人物撮影装置。 Mask generation means for generating a mask that can be used for image synthesis by chroma key based on the captured image,
The person photographing apparatus according to claim 1, wherein the communication unit uploads the mask to the server.
前記通信手段は、前記検出手段が検出した前記身体パーツの位置を示す身体パーツ位置情報も前記サーバーにアップロードする請求項1ないし4のいずれか一項に記載の人物撮影装置。 Further comprising detection means for detecting the position of body parts other than the face of the person in the shooting booth,
5. The person photographing apparatus according to claim 1, wherein the communication unit also uploads body part position information indicating the position of the body part detected by the detection unit to the server.
携帯端末からアクセス可能なサーバーと
を備え、
前記人物撮影装置は、前記撮影画像とともに前記パーツ情報を前記サーバーにアップロードする通信手段を有することを特徴とする撮影画像提供システム。 Take a picture of a person in the shooting booth provided in the housing and obtain a shot image, and also, the person's eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, A person photographing device that extracts part information indicating an area occupied by at least one person part of a neck, a torso, an arm, a hand, a foot, and a joint in the photographed image from the photographed image;
With a server accessible from a mobile device,
The photographed image providing system, wherein the person photographing device includes a communication unit that uploads the part information together with the photographed image to the server.
前記撮影画像をアクセス中の携帯端末に送信する撮影画像送信工程と、
ユーザーによる前記携帯端末の操作により前記撮影画像中に指定した位置に対応する指定位置情報を前記携帯端末から受信する指定位置情報受信工程と、
前記指定位置情報により指定される位置に対応する前記人物パーツが前記撮影画像中に占める領域を前記パーツ情報に基づいて特定する特定工程と
をサーバーに実行させることを特徴とするサーバー用プログラム。 A photographed image obtained by photographing a person with the photographing means of the person photographing device, and the eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose of the person extracted from the photographed image by the part information extracting means of the person photographing device Receiving from the person photographing device part information indicating an area occupied by at least one person part of the mouth, lips, cheeks, skin, hair, face, neck, torso, arm, hand, foot, and joint in the photographed image A captured image receiving process to perform,
A photographed image transmission step of transmitting the photographed image to the accessing mobile terminal;
A designated position information receiving step for receiving designated position information corresponding to a position designated in the captured image by an operation of the portable terminal by a user from the portable terminal;
A program for a server, which causes a server to execute a specifying step of specifying, based on the part information, an area occupied by the person part corresponding to a position specified by the specified position information in the captured image.
前記ユーザーによる携帯端末の操作により前記撮影画像中に指定した位置に対応する指定位置情報を取得する指定位置情報取得工程と、
前記人物撮影装置がパーツ情報抽出手段により前記撮影画像から抽出して前記サーバーにアップロードした人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報にアクセスするパーツ情報アクセス工程と、
前記指定位置情報により指定される位置に対応する前記人物パーツが前記撮影画像中に占める領域を前記パーツ情報に基づいて特定する特定工程と
を、前記携帯端末に搭載されたコンピューターに実行させることを特徴とする携帯端末用プログラム。 A photographed image access process in which the person photographing device photographs a person by photographing means and accesses a photographed image uploaded to the server;
A designated position information obtaining step for obtaining designated position information corresponding to a position designated in the captured image by an operation of the mobile terminal by the user;
The person's photographing device extracted from the photographed image by the parts information extracting means and uploaded to the server, the human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, A part information access step for accessing part information indicating an area occupied by at least one person part of a neck, a torso, an arm, a hand, a foot, and a joint in the captured image;
Causing the computer mounted on the portable terminal to execute a specific step of specifying, based on the part information, an area occupied by the person part corresponding to the position specified by the specified position information in the captured image. A portable terminal program characterized.
人物の目、黒目、白目、瞼、まつ毛、眉毛、鼻、口、唇、頬、肌、髪の毛、顔、首、胴体、腕、手、足、関節の少なくとも1つの人物パーツが前記撮影画像中に占める領域を示すパーツ情報を前記撮影画像から抽出するパーツ情報抽出工程と、
前記撮影画像とともに前記パーツ情報を携帯端末によりアクセス可能なサーバーにアップロードするアップロード工程と、
ユーザーによる前記携帯端末の操作に応じて前記サーバーにアップロードされた前記撮影画像にアクセスして、当該撮影画像中の前記携帯端末の操作により指定された位置を取得する位置取得工程と、
前記位置取得工程で取得した位置に対応する前記人物パーツが前記撮影画像中に占める領域を、前記サーバーにアップロードされた前記パーツ情報に基づいて特定する特定工程と、
前記特定工程で前記撮影画像中に占める領域が特定された前記人物パーツの画像に対して、ユーザーの前記携帯端末の操作に基づく所定の編集を施す編集工程と
を備えたことを特徴とする画像編集方法。 A shooting step of shooting a person in a shooting booth provided in the person shooting device and acquiring a shot image;
Human eyes, black eyes, white eyes, eyelids, eyelashes, eyebrows, nose, mouth, lips, cheeks, skin, hair, face, neck, torso, arms, hands, feet, joints in the captured image Part information extracting step for extracting part information indicating the area occupied by the photographed image,
Uploading the parts information together with the captured image to a server accessible by a mobile terminal,
A position acquisition step of accessing the captured image uploaded to the server according to an operation of the mobile terminal by a user and acquiring a position specified by the operation of the mobile terminal in the captured image;
A specifying step of specifying an area occupied by the person part corresponding to the position acquired in the position acquiring step in the captured image based on the part information uploaded to the server;
An editing step of performing predetermined editing based on an operation of the user's mobile terminal on the image of the person part for which the area occupied in the captured image is specified in the specifying step Editing method.
前記撮影ブース内の人物を撮影して撮影画像を取得する撮影手段と、
前記撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出手段と
を備えたことを特徴とする人物撮影装置。 A housing having a photography booth;
Photographing means for photographing a person in the photographing booth to obtain a photographed image;
A person photographing apparatus comprising: detecting means for detecting positions of body parts other than the face of the person in the photographing booth.
撮影ブース内の人物の顔以外の身体パーツの位置を検出する検出工程と、
前記検出工程で求めた前記身体パーツの位置に基づいて、前記撮影工程で取得した前記撮影画像中の人物の身体に対して編集を行う編集工程と
を備えたことを特徴とする画像編集方法。 A shooting step of shooting a person in a shooting booth provided in the person shooting device and acquiring a shot image;
A detection step for detecting the position of body parts other than the face of the person in the shooting booth;
An image editing method comprising: an editing step of editing a person's body in the photographed image acquired in the photographing step based on the position of the body part obtained in the detection step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014150391A JP2016025603A (en) | 2014-07-24 | 2014-07-24 | Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014150391A JP2016025603A (en) | 2014-07-24 | 2014-07-24 | Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016025603A true JP2016025603A (en) | 2016-02-08 |
Family
ID=55271991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014150391A Ceased JP2016025603A (en) | 2014-07-24 | 2014-07-24 | Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016025603A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107181670A (en) * | 2017-05-18 | 2017-09-19 | 北京小米移动软件有限公司 | image processing method, device and storage medium |
KR20180001440A (en) * | 2016-06-25 | 2018-01-04 | 김정태 | Touch free photo booth for high throughput direct photo delivery |
WO2022113301A1 (en) * | 2020-11-27 | 2022-06-02 | シミックホールディングス株式会社 | Control device, computer program, non-transitory computer readable medium, data storage system, and storage device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259034A (en) * | 2003-02-26 | 2004-09-16 | Atsushi Umoto | Image correction system, image correction method, and counselling providing server |
JP2011147000A (en) * | 2010-01-15 | 2011-07-28 | Nec Corp | Mobile terminal |
JP2013065156A (en) * | 2011-09-16 | 2013-04-11 | Kddi Corp | Image analysis device and image evaluation apparatus |
JP2013162451A (en) * | 2012-02-08 | 2013-08-19 | Tatsumi Denshi Kogyo Kk | Game photographing apparatus, game photographing method, and program |
-
2014
- 2014-07-24 JP JP2014150391A patent/JP2016025603A/en not_active Ceased
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259034A (en) * | 2003-02-26 | 2004-09-16 | Atsushi Umoto | Image correction system, image correction method, and counselling providing server |
JP2011147000A (en) * | 2010-01-15 | 2011-07-28 | Nec Corp | Mobile terminal |
JP2013065156A (en) * | 2011-09-16 | 2013-04-11 | Kddi Corp | Image analysis device and image evaluation apparatus |
JP2013162451A (en) * | 2012-02-08 | 2013-08-19 | Tatsumi Denshi Kogyo Kk | Game photographing apparatus, game photographing method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180001440A (en) * | 2016-06-25 | 2018-01-04 | 김정태 | Touch free photo booth for high throughput direct photo delivery |
CN107181670A (en) * | 2017-05-18 | 2017-09-19 | 北京小米移动软件有限公司 | image processing method, device and storage medium |
WO2022113301A1 (en) * | 2020-11-27 | 2022-06-02 | シミックホールディングス株式会社 | Control device, computer program, non-transitory computer readable medium, data storage system, and storage device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102664688B1 (en) | Method for providing shoot mode based on virtual character and electronic device performing thereof | |
EP3096208B1 (en) | Image processing for head mounted display devices | |
JP2021192250A (en) | Real time 3d capture using monocular camera and method and system for live feedback | |
US8982229B2 (en) | Storage medium recording information processing program for face recognition process | |
CN109219835A (en) | The generation of the customization wearable article of 3 D-printing | |
CN109923851B (en) | Printing system, server, printing method, and recording medium | |
CN112346572A (en) | Method, system and electronic device for realizing virtual-real fusion | |
JP6563580B1 (en) | Communication system and program | |
CN110148191A (en) | The virtual expression generation method of video, device and computer readable storage medium | |
KR20200094915A (en) | Exercise Posture Correction System and Correction Method using it | |
JP2016025603A (en) | Figure photographing device, photographed image provision system, server program, portable terminal program, and image editing method | |
JP2022183213A (en) | Head-mounted display | |
JP5874421B2 (en) | Game shooting device, game shooting method and program | |
WO2021109764A1 (en) | Image or video generation method and apparatus, computing device and computer-readable medium | |
Rudolph et al. | TechnoSapiens: merging humans with technology in augmented reality | |
JP6880394B2 (en) | Photographing game console and shooting method | |
JP5555924B2 (en) | Shooting game machine, shooting game machine control method, and computer program | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
JP2019133276A (en) | Image processing system and terminal | |
CN104156138B (en) | Filming control method and imaging control device | |
JP2017034409A (en) | Image processing system, image processing method and computer program | |
JP2016206465A (en) | Photography amusement device | |
JP6371318B2 (en) | Photography game machine and its control program | |
JP6853475B2 (en) | Photo creation game console and display method | |
JP5998344B2 (en) | Shooting game machine, shooting game machine control method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180517 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180626 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20181030 |