JP5983717B2 - Imaging apparatus, imaging method, and program thereof - Google Patents

Imaging apparatus, imaging method, and program thereof Download PDF

Info

Publication number
JP5983717B2
JP5983717B2 JP2014255099A JP2014255099A JP5983717B2 JP 5983717 B2 JP5983717 B2 JP 5983717B2 JP 2014255099 A JP2014255099 A JP 2014255099A JP 2014255099 A JP2014255099 A JP 2014255099A JP 5983717 B2 JP5983717 B2 JP 5983717B2
Authority
JP
Japan
Prior art keywords
image
user
foot
ankle
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014255099A
Other languages
Japanese (ja)
Other versions
JP2015100111A (en
Inventor
長谷川 光寛
光寛 長谷川
中原 隆彦
隆彦 中原
Original Assignee
辰巳電子工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 辰巳電子工業株式会社 filed Critical 辰巳電子工業株式会社
Priority to JP2014255099A priority Critical patent/JP5983717B2/en
Publication of JP2015100111A publication Critical patent/JP2015100111A/en
Application granted granted Critical
Publication of JP5983717B2 publication Critical patent/JP5983717B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影装置に関し、さらに詳しくは、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を写真等として出力する撮影置に関する。   The present invention relates to a photographing apparatus, and more particularly to a photographing apparatus that photographs a user with a camera and outputs a composite image generated based on the photographed image as a photograph or the like.

従来、利用者をカメラで撮影し、その撮影画像を写真シールや写真カード等として出力する撮影装置である遊戯用写真作成装置が知られている。このような遊戯用写真作成装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像(例えばフレーム画像やスタンプ画像など)から選択したり、タッチペンを用いて利用者が自由に描いたりできるように構成されているものが多い。利用者によるこのような操作は、撮影画像に対してなされるため、「落書き」と呼ばれる。   2. Description of the Related Art Conventionally, there is known an amusement photo creation device that is a photographing device that photographs a user with a camera and outputs the photographed image as a photo sticker or a photo card. Such a play photo creation device is highly playable or entertaining, and therefore, a variety of background images and foreground images (foreground images) prepared in advance according to the user's preference are combined with images to be synthesized. For example, a frame image or a stamp image is often selected, and a user can freely draw using a touch pen. Since such an operation by the user is performed on the photographed image, it is called “graffiti”.

このような遊戯用写真作成装置では、限定された撮影室内で撮影するため、カメラに広角レンズが使用されることが多い。この広角レンズは、樽型歪みと呼ばれる歪曲収差を生じることが知られており、このような歪曲収差により生じる撮影画像の変形を補正する手法には従来より様々な工夫がなされている。   In such an amusement photo creation apparatus, a wide-angle lens is often used for a camera in order to take a picture in a limited shooting room. This wide-angle lens is known to generate distortion called barrel distortion, and various techniques have been conventionally used for correcting the deformation of a captured image caused by such distortion.

例えば、特開2001−311993号公報には、カメラによりズームイン又はズームアウトを行った後に、撮影された使用者の画像をソフト的に歪補正するフォトブースの構成が開示されている。   For example, Japanese Patent Application Laid-Open No. 2001-311993 discloses a configuration of a photo booth that softly corrects a photographed user's image after zooming in or out using a camera.

特開2001−311993号公報JP 2001-311993 A

ここで、遊戯用写真作成装置における撮影室内で人物を撮影する際、人物の足部分が不自然に写ることがある。すなわち典型的には、遊戯用写真作成装置に設けられるカメラの位置は、通常立っている人物の前方近傍であって、当該人物の胸またはそれ以上の高さであり、その位置から人物を撮影すると、人物の足が不自然に短く写ることがある。   Here, when a person is photographed in the photographing room in the play photo creating apparatus, the person's foot portion may appear unnaturally. That is, typically, the position of the camera provided in the play photo creation device is usually near the front of a standing person and is at or above the chest of the person, and the person is photographed from that position. Then, a person's foot may appear unnaturally short.

また、立っている人物の足首からつま先までの部分は、地面に対してほぼ平行となっているのが通常である。そのため、この部分と、地面に対してほぼ垂直となっている足首から上の部分とで写り方が異なり、結果的に不自然に写ることがある。   Further, the part from the ankle to the toe of a standing person is usually substantially parallel to the ground. For this reason, the way in which this part and the part above the ankle that is substantially perpendicular to the ground are different, and as a result, it may appear unnatural.

このような不自然な写り方は、遊戯用写真作成装置において撮影された画像に対して、上記樽型歪みや幾何歪みなどを補正する周知の画像処理を行ったとしても、根本的な改善は望めない。   Even if such an unnatural image is subjected to known image processing for correcting the barrel distortion, geometric distortion, etc., on the image taken by the game photo creation device, the fundamental improvement is not achieved. I can't hope.

そこで、本発明では、撮影対象となる利用者の足部分が不自然に写らないよう画像補正を行う撮影装置、撮影方法、およびそのプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a photographing apparatus, a photographing method, and a program for performing image correction so that a foot portion of a user to be photographed is not unnaturally photographed.

本発明は、利用者を被写体として撮影し、撮影された撮影画像における被写体の足首から所定の上限位置までの範囲の像が鉛直方向に拡大するように、当該撮影画像に対して変形処理を行うものである。また、本発明は、利用者を被写体として撮影し、撮影された撮影画像に含まれる被写体の足の曲がりの検出を行い、その検出結果に基づいて、当該撮影画像に対して変形処理を行うものである。
The present invention, a user is photographed as the subject, so that the image ranging photographed upper limit position of the ankle or et predetermined subject in the captured image is enlarged in the vertical direction, deformation processing on the captured image Is to do. In addition, the present invention captures a user as a subject, detects bending of the foot of the subject included in the captured image, and performs deformation processing on the captured image based on the detection result. It is.

なお、本発明に関連する構成としては以下のようなものが考えられる。
第1の構成は、被写体である利用者を含む像を撮影する撮影手段と、前記撮影手段により得られる撮影画像を含む合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮影画像に含まれる前記利用者の足首近傍からつま先までの像を含むべき撮影画像の対応部分である足先画像を所定方向に縮小するように前記合成画像を生成する画像合成手段を備えることを特徴とする。
In addition, as a structure relevant to this invention, the following can be considered.
A first configuration is an automatic photo creation apparatus including a photographing unit that captures an image including a user who is a subject, and an output unit that outputs a composite image including a captured image obtained by the photographing unit as a photograph. ,
Image synthesis means for generating the synthesized image so as to reduce a toe image corresponding to a photographed image that should include an image from the vicinity of the user's ankle to the toe included in the photographed image in a predetermined direction; It is characterized by.

第2の構成は、第1の構成において、
前記画像合成手段は、前記利用者の足首近傍から所定の上限位置までの像を含むべき脚部画像を前記方向に拡大し、縮小された足先画像と拡大された脚部画像とが接するように前記合成画像を生成することを特徴とする。
The second configuration is the same as the first configuration,
The image composition means enlarges a leg image that should include an image from the vicinity of the user's ankle to a predetermined upper limit position in the direction so that the reduced foot image and the enlarged leg image are in contact with each other. And generating the composite image.

第3の構成は、第2の構成において、
前記画像合成手段は、前記撮影画像の左右方向に前記撮影画像の左端から右端までを結ぶ線分のうち、前記撮影画像において足首が写るべき予め定められた位置を含む線分を下辺とし、前記撮影画像において膝が写るべき予め定められた上限位置を含む線分を上辺とする矩形領域を前記脚部画像と定め、前記足先画像を前記撮影画像における下方向に縮小するとともに前記脚部画像を前記下方向に拡大することを特徴とする。
The third configuration is the second configuration,
The image compositing means has, as a lower side, a line segment including a predetermined position where an ankle should be captured in the captured image, among line segments connecting from the left end to the right end of the captured image in the left-right direction of the captured image, In the captured image, a rectangular area having a line segment including a predetermined upper limit position where the knee should be captured as an upper side is defined as the leg image, the foot image is reduced in the downward direction in the captured image, and the leg image is displayed. Is expanded in the downward direction.

第4の構成は、第2または第3の構成において、
前記画像合成手段は、前記撮影画像の左右方向に前記撮影画像の左端から右端までを結ぶ線分のうち、前記撮影画像において足首が写るべき予め定められた位置を含む線分を上辺とし、前記撮影画像の下端を含む線分または前記撮影画像において足先が写るべき予め定められた位置を含む線分を下辺とする矩形領域を前記足先画像と定め、前記足先画像を前記撮影画像における下方向に縮小するとともに前記脚部画像を前記下方向に拡大することを特徴とする。
The fourth configuration is the second or third configuration,
The image compositing means has, as an upper side, a line segment including a predetermined position where an ankle should appear in the photographed image among line segments connecting the left and right ends of the photographed image in the left-right direction of the photographed image, A rectangular region having a lower side of a line segment including the lower end of the captured image or a line segment including a predetermined position where the foot tip should be captured in the captured image is defined as the foot image, and the foot image is defined in the captured image. The image is reduced in the downward direction and the leg image is enlarged in the downward direction.

第5の構成は、第2から第4までのいずれか1つの構成において、
前記画像合成手段は、前記撮影画像における縮小前の前記足先画像の下端位置と前記縮小された足先画像の下端位置とを一致させ、かつ前記撮影画像における拡大前の前記脚部画像の上端位置と前記拡大された脚部画像の上端位置とを一致させるよう、前記足先画像を縮小し前記脚部画像を拡大することを特徴とする。
The fifth configuration is any one of the second to fourth configurations,
The image composition means matches the lower end position of the foot image before reduction in the captured image with the lower end position of the reduced foot image, and the upper end of the leg image before enlargement in the captured image. The foot image is reduced and the leg image is enlarged so that the position matches the upper end position of the enlarged leg image.

第6の構成は、第2の構成において、
前記脚部画像に前記利用者の顔の像が含まれるか否かを判定する顔検出手段をさらに備え、
前記画像合成手段は、前記顔検出手段によって前記顔の像が含まれないと判定される場合、前記脚部画像を前記方向に第1の拡大率で拡大し、前記顔検出手段によって前記顔の像が含まれると判定される場合、前記脚部画像を拡大しないか、または前記第1の拡大率よりも小さい第2の拡大率で前記脚部画像を前記方向に拡大することを特徴とする。
The sixth configuration is the second configuration,
Face detection means for determining whether or not the image of the user's face is included in the leg image;
The image composition means enlarges the leg image in the direction at a first magnification when the face detection means determines that the face image is not included, and the face detection means If it is determined that an image is included, the leg image is not enlarged, or the leg image is enlarged in the direction at a second enlargement factor smaller than the first enlargement factor. .

第7の構成は、第2の構成において、
前記撮影手段による撮影対象であって、所定の色を付された被撮影面を有する背景提示手段と、
前記撮影画像に含まれる前記被撮影面の像が占める領域の色に対応するクロマキーマスクを作成するマスク作成手段と、
前記マスク作成手段により作成されたクロマキーマスクを使用することによって前記利用者の像のみを含む利用者画像を抽出する利用者画像抽出手段と
をさらに備え、
前記画像合成手段は、前記利用者画像を含む前記合成画像と、所定の背景付加画像とを合成するクロマキー処理を行うことにより、新たな合成画像を生成することを特徴とする。
The seventh configuration is the second configuration,
A background presenting means that is a subject to be photographed by the photographing means and has a surface to be photographed with a predetermined color;
Mask creating means for creating a chroma key mask corresponding to the color of the area occupied by the image of the surface to be photographed included in the photographed image;
A user image extracting means for extracting a user image including only the user image by using the chroma key mask created by the mask creating means;
The image synthesizing unit generates a new synthesized image by performing a chroma key process for synthesizing the synthesized image including the user image and a predetermined background added image.

第8の構成は、第7の構成において、
前記利用者画像抽出手段により抽出される前記利用者画像に基づき、前記利用者の足首の位置を検出する足首検出手段をさらに備え、
前記画像合成手段は、前記足首検出手段により検出される足首の位置に基づき、前記足先画像および前記脚部画像を定めることを特徴とする。
The eighth configuration is the seventh configuration,
An ankle detection means for detecting the position of the user's ankle based on the user image extracted by the user image extraction means;
The image synthesizing unit determines the foot tip image and the leg image based on an ankle position detected by the ankle detection unit.

第9の構成は、第8の構成において、
前記画像合成手段は、前記撮影画像の左右方向に前記撮影画像の左端から右端までを結ぶ線分のうち、前記足首検出手段により検出される前記利用者の少なくとも1つの足首の位置に基づき算出される位置を含む線分を上辺とし、前記撮影画像の下端を含む線分または前記撮影画像において足先が写るべき予め定められた位置を含む線分を下辺とする矩形領域または当該矩形領域内に含まれる前記利用者画像の対応部分を前記足先画像と定め、前記足先画像を前記撮影画像における下方向に縮小するとともに前記脚部画像を前記下方向に拡大することを特徴とする。
The ninth configuration is the eighth configuration,
The image synthesizing unit is calculated based on a position of at least one ankle of the user detected by the ankle detection unit among line segments connecting the left end and the right end of the captured image in the left-right direction of the captured image. Within a rectangular area or a rectangular area having a line segment that includes a position where the tip of the image is taken as the upper side and a line segment that includes a predetermined position where the foottip is to be captured in the captured image as the lower side. The corresponding portion of the user image included is defined as the foot image, and the foot image is reduced in the downward direction in the captured image and the leg image is expanded in the downward direction.

第10の構成は、第8または第9の構成において、
前記利用者画像抽出手段により抽出される前記利用者画像に基づき、前記利用者の膝の位置を検出する膝検出手段をさらに備え、
前記画像合成手段は、前記撮影画像の左右方向に前記撮影画像の左端から右端までを結ぶ線分のうち、前記膝検出手段により検出される前記利用者の少なくとも1つの膝の位置に基づき算出される位置を含む線分を上辺とし、前記足首検出手段により検出される前記利用者の少なくとも1つの足首の位置に基づき算出される位置を含む線分を下辺とする矩形領域または当該矩形領域内に含まれる前記利用者画像の対応部分を前記脚部画像と定め、前記足先画像を前記撮影画像における下方向に縮小するとともに前記脚部画像を前記下方向に拡大することを特徴とする。
The tenth configuration is the eighth or ninth configuration,
Further comprising knee detecting means for detecting the position of the user's knee based on the user image extracted by the user image extracting means;
The image synthesizing unit is calculated based on a position of at least one knee of the user detected by the knee detecting unit among line segments connecting the left end and the right end of the captured image in the left-right direction of the captured image. A rectangular area having a line segment including a position calculated on the basis of the position of at least one ankle of the user detected by the ankle detection means as a lower side or within the rectangular area The corresponding portion of the user image included is defined as the leg image, and the foot image is reduced in the downward direction in the captured image, and the leg image is enlarged in the downward direction.

第11の構成は、第8の構成において、
前記足首検出手段は、前記利用者画像に基づき、一人以上の前記利用者の各足首の位置をそれぞれ検出し、
前記画像合成手段は、前記足首検出手段により検出される各足首の位置に基づき、前記各足首の像および当該各足首に対応する足先の像を含む前記利用者画像の対応部分を前記各足首に対応する足先画像と定めるとともに、前記各足首および当該各足首に対応する前記上限位置の像を含む前記利用者画像の対応部分を前記各足首に対応する脚部画像と定め、前記各足首に対応する縮小された足先画像と拡大された脚部画像とが前記各足首でそれぞれ接するように前記合成画像を生成することを特徴とする。
The eleventh configuration is the eighth configuration,
The ankle detection means detects the position of each ankle of one or more users based on the user image,
The image synthesizing unit determines a corresponding part of the user image including an image of each ankle and an image of a toe corresponding to each ankle based on the position of each ankle detected by the ankle detection unit. And corresponding portions of the user image including the images of the ankles and the upper limit position corresponding to the ankles are defined as leg images corresponding to the ankles. The composite image is generated such that the reduced foot image corresponding to the image and the enlarged leg image are in contact with each other at the respective ankles.

第12の構成は、第11の構成において、
前記利用者画像抽出手段により抽出される前記利用者画像に基づき、一人以上の前記利用者の各膝の位置をそれぞれ検出する膝検出手段をさらに備え、
前記画像合成手段は、前記膝検出手段により検出される前記各膝の位置を前記各足首に対応する前記上限位置として前記脚部画像を定めることを特徴とする。
The twelfth configuration is the eleventh configuration,
Based on the user image extracted by the user image extraction means, further comprising knee detection means for detecting the position of each knee of one or more users,
The image composition means defines the leg image with the position of each knee detected by the knee detection means as the upper limit position corresponding to each ankle.

第13の構成は、被写体である利用者を含む像を撮影する撮影ステップと、前記撮影ステップにより得られる撮影画像を含む合成画像を写真として出力する出力ステップとを備える自動写真作成方法であって、
前記撮影画像に含まれる前記利用者の足首近傍からつま先までの像を含むべき撮影画像の対応部分である足先画像を所定方向に縮小するように前記合成画像を生成する画像合成ステップを備えることを特徴とする。
A thirteenth configuration is an automatic photo creation method including a photographing step of photographing an image including a user who is a subject, and an output step of outputting a composite image including a photographed image obtained by the photographing step as a photograph. ,
An image compositing step for generating the composite image so as to reduce a toe image corresponding to a captured image that should include an image from the vicinity of the user's ankle to the toe included in the captured image in a predetermined direction. It is characterized by.

第14の構成は、コンピュータである自動写真作成装置に、
被写体である利用者を含む像を撮影する撮影ステップと、
前記撮影ステップにより得られる撮影画像を含む合成画像を写真として出力する出力ステップと、
前記撮影画像に含まれる前記利用者の足首近傍からつま先までの像を含むべき撮影画像の対応部分である足先画像を所定方向に縮小するように前記合成画像を生成する画像合成ステップとを実行させることを特徴とする、プログラムである。
In the fourteenth configuration, an automatic photo creation device, which is a computer,
A shooting step for shooting an image including a user as a subject;
An output step of outputting a composite image including a photographed image obtained by the photographing step as a photograph;
Executing an image composition step of generating the composite image so as to reduce a foot image corresponding to a captured image that should include an image from the vicinity of the user's ankle to the toe included in the captured image in a predetermined direction. It is a program characterized by making it carry out.

上記発明によれば、撮影対象となる利用者の足部分が不自然に写らないようにすることができる。   According to the above invention, it is possible to prevent the user's foot part to be photographed from being unnaturally captured.

また、上記第1の構成によれば、利用者の足首近傍からつま先までの像を含むべき撮影画像の対応部分である足先画像を所定方向に縮小するように合成画像を生成するので、撮影対象となる利用者の足部分が不自然に写らないように(不自然に長く見えないように)することができる。   According to the first configuration, the composite image is generated so that the foot image corresponding to the captured image that should include the image from the vicinity of the user's ankle to the toe is reduced in a predetermined direction. It is possible to prevent the target user's feet from appearing unnaturally (so as not to look unnaturally long).

上記第2の構成によれば、足先画像を所定方向に縮小するとともに、利用者の足首近傍から所定の上限位置までの像を含むべき脚部画像を方向に拡大し、縮小された足先画像と拡大された脚部画像とが接するように合成画像を生成するので、利用者の像の連続性を保ちつつ、撮影対象となる利用者の足部分が不自然に写らないように(不自然に長く見えないように)することができ、利用者の足をスタイル良く長く見せることができる。   According to the second configuration, the foot image is reduced in a predetermined direction, the leg image that should include an image from the vicinity of the user's ankle to the predetermined upper limit position is enlarged in the direction, and the reduced foot Since the composite image is generated so that the image and the enlarged leg image are in contact with each other, the continuity of the user's image is maintained and the foot portion of the user to be photographed is not unnaturally captured ( It can be seen naturally long), and the user's legs can be shown long in style.

上記第3の構成によれば、撮影画像において足首が写るべき予め定められた位置を含む線分を下辺とし、膝が写るべき予め定められた上限位置を含む線分を上辺とする矩形領域を脚部画像と定め、足先画像を下方向に縮小するとともに脚部画像を下方向に拡大するので、予め定められた位置を使用する簡易な構成により、利用者の足部分が不自然に写らないようにすることができる。特に限定された撮影室内での利用者の位置(例えば足首等の高さ)はほぼ一定であると言えるので、このような簡易な構成が可能となる。   According to the third configuration, the rectangular region including the line segment including the predetermined position where the ankle should be captured in the photographed image as the lower side and the line segment including the predetermined upper limit position where the knee should be captured as the upper side. Since it is defined as a leg image and the foot image is reduced downward and the leg image is expanded downward, the user's foot part is unnaturally reflected by a simple configuration using a predetermined position. Can not be. In particular, it can be said that the position of the user (for example, the height of the ankle etc.) in the limited photographing room is almost constant, and thus such a simple configuration is possible.

上記第4の構成によれば、足首が写るべき予め定められた位置を含む線分を上辺とし、撮影画像の下端を含む線分または足先が写るべき予め定められた位置を含む線分を下辺とする矩形領域を足先画像と定め、足先画像を下方向に縮小するとともに脚部画像を下方向に拡大するので、予め定められた位置を使用する簡易な構成により、利用者の足部分が不自然に写らないようにすることができる。また同様に、特に限定された撮影室内での利用者の位置(例えば足首等の高さ)はほぼ一定であると言えるので、このような簡易な構成が可能となる。   According to the fourth configuration, a line segment including a predetermined position where the ankle should be captured is an upper side, and a line segment including the lower end of the photographed image or a line segment including a predetermined position where the foot tip is to be captured The rectangular area as the lower side is defined as the foot image, and the foot image is reduced downward and the leg image is enlarged downward, so that the user's foot can be obtained with a simple configuration using a predetermined position. You can prevent the part from appearing unnatural. Similarly, it can be said that the position of the user (for example, the height of an ankle etc.) in a particularly limited photographing room is almost constant, and thus such a simple configuration is possible.

上記第5の構成によれば、縮小前の足先画像の下端位置と縮小された足先画像の下端位置とを一致させ、かつ拡大前の脚部画像の上端位置と拡大された脚部画像の上端位置とを一致させるので、利用者の像の連続性を簡単に保つことができ、利用者の足部分が不自然に写らないようにすることができる。   According to the fifth configuration, the lower end position of the foot image before reduction and the lower end position of the reduced foot image are matched, and the upper end position of the leg image before enlargement is enlarged. Therefore, the continuity of the user's image can be easily maintained, and the user's foot can be prevented from appearing unnaturally.

上記第6の構成によれば、顔検出手段によって脚部画像に利用者の顔の像が含まれると判定される場合、脚部画像を拡大しないか、または第1の拡大率よりも小さい第2の拡大率で脚部画像を拡大するので、撮影対象となる利用者の足部分が不自然に写らないように(不自然に長く見えないように)しつつ、撮影画像に写る利用者の顔が変形するような違和感を解消または低減することができる。   According to the sixth configuration, when the face detection unit determines that the image of the user's face is included in the leg image, the leg image is not enlarged or is smaller than the first enlargement factor. Since the leg image is magnified at an enlargement ratio of 2, the user's foot part to be photographed is not unnaturally photographed (so as not to look unnaturally long), and The uncomfortable feeling that the face is deformed can be eliminated or reduced.

上記第7の構成によれば、被撮影面の像が占める領域の色に対応するクロマキーマスクを作成し、作成されたクロマキーマスクを使用することによって利用者の像のみを含む利用者画像を抽出し、利用者画像を含む合成画像と、所定の背景付加画像とを合成するので、遊戯性の高い合成画像が得られるとともに、抽出された利用者画像を使用することにより容易に足先画像を縮小し脚部画像を拡大することができる。   According to the seventh configuration, the chroma key mask corresponding to the color of the area occupied by the image of the imaged surface is generated, and the user image including only the user image is extracted by using the generated chroma key mask. Since the synthesized image including the user image and the predetermined background added image are synthesized, a highly playable synthesized image can be obtained, and the foot image can be easily obtained by using the extracted user image. The leg image can be enlarged by reducing the size.

上記第8の構成によれば、利用者画像に基づき、利用者の足首の位置を検出し、検出される足首の位置に基づき、足先画像および脚部画像を定めるので、利用者の実際の足首の位置に基づき、正確な範囲の足先画像を得ることができる。よって、より正確に利用者の足部分が不自然に写らないようにすることができる。   According to the eighth configuration, the position of the user's ankle is detected based on the user image, and the foot image and the leg image are determined based on the detected position of the ankle. Based on the position of the ankle, an accurate range of foot image can be obtained. Therefore, it is possible to prevent the user's foot portion from appearing unnaturally more accurately.

上記第9の構成によれば、利用者画像に基づき検出した利用者の少なくとも1つの足首の位置に基づき定められる矩形領域または当該矩形領域内に含まれる利用者画像の対応部分を足先画像と定めるので、予め定められた足首の位置に基づく場合よりも正確な範囲の足先画像を得ることができる。よって、より正確に利用者の足部分が不自然に写らないようにすることができる。   According to the ninth configuration, a rectangular area determined based on the position of at least one ankle of the user detected based on the user image or a corresponding part of the user image included in the rectangular area is defined as a foot image. Therefore, it is possible to obtain a toe image in a more accurate range than when based on a predetermined ankle position. Therefore, it is possible to prevent the user's foot portion from appearing unnaturally more accurately.

上記第10の構成によれば、利用者画像に基づき検出した利用者の少なくとも1つの膝の位置に基づき定められる矩形領域または当該矩形領域内に含まれる利用者画像の対応部分を脚部画像と定めるので、予め定められた膝の位置に基づく場合よりも正確な範囲の脚部画像を得ることができる。よって、より正確に利用者の足部分が不自然に写らないようにすることができる。   According to the tenth configuration, a rectangular area determined based on the position of at least one knee of the user detected based on the user image or a corresponding portion of the user image included in the rectangular area is defined as a leg image. Therefore, a leg image in a more accurate range than that based on a predetermined knee position can be obtained. Therefore, it is possible to prevent the user's foot portion from appearing unnaturally more accurately.

上記第11の構成によれば、利用者画像に基づき一人以上の利用者の各足首の位置をそれぞれ検出し、各足首の位置に基づき足先画像を定めるとともに、各足首に対応する脚部画像を定めるので、各利用者の各足の位置が異なっている場合であっても、それぞれの足首位置に応じた足先画像を得ることができ、それぞれの足先画像について適宜に縮小することができる。よって、漏れなく、より確実に利用者の足部分が不自然に写らないようにすることができる。   According to the eleventh configuration, the position of each ankle of one or more users is detected based on the user image, the foot image is determined based on the position of each ankle, and the leg image corresponding to each ankle Therefore, even if the position of each foot of each user is different, a foot image corresponding to each ankle position can be obtained, and each foot image can be appropriately reduced. it can. Therefore, it is possible to prevent the user's foot portion from being unnaturally captured without leakage.

上記第12の構成によれば、利用者画像に基づき一人以上の利用者の各膝の位置をそれぞれ検出し、各膝の位置に基づき脚部画像を定めるので、各利用者の各足の位置が異なっている場合であっても、それぞれの足首位置に応じた足先画像およびそれぞれの膝位置に応じた脚部画像を得ることができる。よって、漏れなく、より確実かつ正確に利用者の足部分が不自然に写らないようにすることができる。   According to the twelfth configuration, the position of each knee of one or more users is detected based on the user image, and the leg image is determined based on the position of each knee. Even if they are different from each other, it is possible to obtain foot images corresponding to the respective ankle positions and leg images corresponding to the respective knee positions. Therefore, it is possible to prevent the user's foot portion from appearing unnaturally and more reliably and accurately.

上記第13の構成によれば、装置発明である上記第1の発明の効果と同様の効果を方法において奏することができる。   According to the thirteenth configuration, an effect similar to the effect of the first invention as the device invention can be achieved in the method.

上記第14の構成によれば、装置発明である上記第1の発明の効果と同様の効果をプログラムにおいて奏することができる。   According to the fourteenth configuration, an effect similar to the effect of the first invention as the device invention can be achieved in the program.

本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。It is a figure which shows the external appearance of the photo production apparatus for games which is an automatic photo production apparatus which concerns on one Embodiment of this invention. 上記実施形態における撮影ユニットの正面図である。It is a front view of the imaging unit in the embodiment. 上記実施形態における編集ユニットの正面図である。It is a front view of the edit unit in the said embodiment. 上記実施形態における出力ユニットの正面図である。It is a front view of the output unit in the said embodiment. 上記実施形態における撮影操作用タッチパネルの表示構成を示す模式図である。It is a schematic diagram which shows the display structure of the touchscreen for imaging operations in the said embodiment. 上記実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。It is a block diagram which shows the structure which looked at the principal part of the photo production apparatus for play concerning the said embodiment from the functional surface. 上記実施形態における撮影処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the imaging | photography process in the said embodiment. 上記実施形態における落書き編集処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the graffiti edit process in the said embodiment. 上記実施形態において、カメラ位置近傍から見た利用者U1,U2と背景との位置関係を簡略に示す図である。In the said embodiment, it is a figure which shows simply the positional relationship of user U1, U2 and the background seen from the camera position vicinity. 上記実施形態において、撮影室側面方向から見た利用者Uと背景との位置関係を簡略に示す図である。In the said embodiment, it is a figure which shows simply the positional relationship of the user U and the background seen from the imaging | photography room side surface direction. 上記実施形態において、撮影画像における予め定められた足首位置および膝位置を示す図である。In the said embodiment, it is a figure which shows the predetermined ankle position and knee position in a picked-up image. 上記実施形態において、脚バランス処理の第1の態様による処理の結果得られる画像を示す図である。In the said embodiment, it is a figure which shows the image obtained as a result of the process by the 1st aspect of a leg balance process. 上記実施形態における撮影画像における検出された各利用者の足首位置および膝位置と、対応する足先画像および脚部画像を示す図である。It is a figure which shows the ankle position and knee position of each user which were detected in the picked-up image in the said embodiment, and a corresponding foot tip image and leg part image. 上記実施形態における、脚バランス処理の第3の態様における処理後の各利用者の足首位置および膝位置と、対応する足先画像および脚部画像を含む利用者画像を示す図である。It is a figure which shows the user image containing the ankle position and knee position of each user after the process in the 3rd aspect of the leg balance process in the said embodiment, and a corresponding foot tip image and leg part image. 上記実施形態において、図13に示す例とは異なる撮影画像における検出された各利用者の足首位置および膝位置と、対応する足先画像および脚部画像を示す図である。In the said embodiment, it is a figure which shows the ankle position and knee position of each user which were detected in the picked-up image different from the example shown in FIG. 13, and a corresponding foot tip image and leg part image.

以下、添付図面を参照しつつ本発明の一実施形態について説明する。
<1.全体構成>
図1は、本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。より詳細には、図1(a)は、この遊戯用写真作成装置を横から見た外観側面図であり、図1(b)は、上から見た外観平面図である。この遊戯用写真作成装置は、利用者が入る撮影室2と、利用者を撮影し背景画像および前景画像の選択を受け付ける撮影ユニット3と、利用者による落書き(描画操作)を含む編集操作を受け付け撮影画像に合成した合成画像を生成する編集ユニット4と、合成画像を出力する出力ユニット5とを備えている。図2は、撮影ユニット3の正面図であり、図3は、編集ユニット4の正面図であり、図4は、出力ユニット5の正面図である。以下、図1から図4を参照しつつ、本実施形態に係る遊戯用写真作成装置の全体構成について説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
<1. Overall configuration>
FIG. 1 is a diagram showing an appearance of a game photo creation device that is an automatic photo creation device according to an embodiment of the present invention. More specifically, FIG. 1 (a) is an external side view of the play photo creation apparatus as viewed from the side, and FIG. 1 (b) is an external plan view as viewed from above. This play photo creation device accepts a shooting room 2 where a user enters, a shooting unit 3 that takes a picture of the user and receives selection of a background image and a foreground image, and an editing operation including graffiti (drawing operation) by the user. An editing unit 4 that generates a combined image combined with the photographed image and an output unit 5 that outputs the combined image are provided. FIG. 2 is a front view of the photographing unit 3, FIG. 3 is a front view of the editing unit 4, and FIG. 4 is a front view of the output unit 5. Hereinafter, the overall configuration of the game photo creation device according to the present embodiment will be described with reference to FIGS. 1 to 4.

撮影室2は、略直方体形状であって、撮影ユニット3は、内部に入る利用者から見て前の面である撮影室2の前面に沿って配置されている。なお、撮影室2の左右両側面の一部には、それぞれ利用者が出入りするための開口部と、当該開口部の一部または全部を覆う遮光カーテンとが設けられている。また、撮影室2の内部に入る利用者から見て後ろの面である背面にはクロマキー合成処理のための単一の色(ここでは青色または緑色)が付されている。なお、これらの色は床面等にも付されているものとする。   The photographing room 2 has a substantially rectangular parallelepiped shape, and the photographing unit 3 is arranged along the front surface of the photographing room 2 which is a front surface when viewed from the user entering the inside. Note that an opening for a user to enter and exit, and a light-shielding curtain that covers a part or all of the opening are provided on a part of each of the left and right side surfaces of the photographing room 2. In addition, a single color (in this case, blue or green) for chroma key composition processing is attached to the rear surface, which is the rear surface as viewed from the user who enters the photographing room 2. These colors are also attached to the floor surface.

撮影ユニット3は、利用者を撮影する撮像手段としてのカメラ10と、当該カメラ10の上下左右の位置に配置され閃光を発するストロボ11、12、13L、13R、14と、当該カメラ10の下方に配置され利用者からの操作の受け付けや撮影画像の表示等を行う撮影操作用タッチパネル20とを備えている。   The photographing unit 3 includes a camera 10 as an imaging unit for photographing a user, strobes 11, 12, 13 L, 13 R, and 14 that are arranged at the top, bottom, left, and right positions of the camera 10, and below the camera 10. It is provided with a shooting operation touch panel 20 that is arranged and receives operations from a user, displays shot images, and the like.

カメラ10は、典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラであって、利用者を撮影し、その撮影画像を表す画像信号を出力する。なお、ここでのカメラ10は広角レンズを使用しており、撮影画像には樽型歪みが生じているものとする。ストロボ11〜14は、撮影のための充分な光を得るために利用者に向かって閃光を発する。撮影操作用タッチパネル20は、撮影の際に利用者による各種操作を受け付けるための操作画面を提供するとともに、上記画像信号に基づく画像をリアルタイムで表示するように構成されている。   The camera 10 is typically a digital camera that generates a digital image signal using a CCD (Charge Coupled Device), captures a user, and outputs an image signal representing the captured image. Here, the camera 10 uses a wide-angle lens, and it is assumed that barrel-shaped distortion occurs in the captured image. The flashes 11 to 14 emit a flash toward the user in order to obtain sufficient light for photographing. The shooting operation touch panel 20 is configured to provide an operation screen for accepting various operations by the user during shooting, and to display an image based on the image signal in real time.

図5は、撮影操作用タッチパネル20の表示構成を示す模式図である。図5に示すように、撮影操作用タッチパネル20には、リアルタイムで撮影画像を表示するためのリアルタイムプレビュー領域201と、ポーズの見本を表示するためのポーズ見本表示領域202と、撮影によって得られる落書き対象画像を表示するための落書き対象画像表示領域203とが含まれている。   FIG. 5 is a schematic diagram showing a display configuration of the touch panel 20 for shooting operation. As shown in FIG. 5, the shooting operation touch panel 20 has a real-time preview area 201 for displaying a shot image in real time, a pose sample display area 202 for displaying a pose sample, and a graffiti obtained by shooting. A graffiti target image display area 203 for displaying the target image is included.

また撮影ユニット3は、コンピュータを中心に構成され各部の制御等を行う制御装置、I/O制御装置、および編集ユニット4と通信を行うためのネットワークアダプタ等を内蔵している。また、撮影ユニット3は、前面下方にコイン投入口26を備えている。   The photographing unit 3 is built around a computer and incorporates a control device for controlling each part, an I / O control device, a network adapter for communicating with the editing unit 4, and the like. The photographing unit 3 includes a coin insertion slot 26 at the lower front side.

編集ユニット4は、撮影ユニット3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置、および撮影ユニット3等と通信を行うためのネットワークアダプタ等を内蔵している。また、編集ユニット4は、図1(b)に示すように、2組の利用者がプレイ可能なように2つのユニット4a、4bに分かれている。そのうちの一方のユニット4aには、落書き領域や落書きのためのメニュー、ツール等を表示する領域を含みGUI(Graphical User Interface)表示手段として機能する編集操作用タッチパネル400と、当該編集操作用タッチパネル400に対する操作に使用されるポインティングデバイスとしての4つのタッチペン49L1、49L2、49R1、49R2とが設けられている。なお、他方のユニット4bについても同様の構成となっている。ここで図1(a)において手前に見えるユニット4aを「落書きブースA」と呼び、その反対側(図では裏側)のユニット4bを「落書きブースB」と呼ぶ。   The editing unit 4 is configured around a computer similar to the photographing unit 3, and includes a control device that controls each part and the like, and a network adapter that communicates with the photographing unit 3 and the like. Further, as shown in FIG. 1B, the editing unit 4 is divided into two units 4a and 4b so that two sets of users can play. One of the units 4a includes an editing operation touch panel 400 that includes a graffiti area, an area for displaying a menu for graffiti, a tool, and the like and functions as a GUI (Graphical User Interface) display means, and the editing operation touch panel 400 Four touch pens 49L1, 49L2, 49R1, and 49R2 are provided as pointing devices used for the operation on the. The other unit 4b has the same configuration. Here, the unit 4a seen in the foreground in FIG. 1A is referred to as “graffiti booth A”, and the unit 4b on the opposite side (the back side in the figure) is referred to as “graffiti booth B”.

本実施形態における編集操作用タッチパネル400は、各ユニット4a、4bにおいて典型的にはそれぞれ2人の利用者が同時に落書きを行えるような表示構成となっている。なお、本説明においては、左側の利用者が使用する構成要素には「L」を含む参照符号を付し、右側の利用者が使用する構成要素には「R」を含む参照符号を付している。   The touch panel 400 for editing operation in the present embodiment has a display configuration in which each of the units 4a and 4b typically allows two users to simultaneously doodle. In this description, components used by the user on the left side are given reference signs including “L”, and components used by the user on the right side are assigned reference signs including “R”. ing.

また、本実施形態における編集操作用タッチパネル400に表示される表示画面は、典型的には2人の利用者の操作に適するよう、左右に2分割されて表示されている。以下では、この表示画面のうちの左側の操作画面を左操作画面といい、右側の操作画面を右操作画面という。   In addition, the display screen displayed on the editing operation touch panel 400 in the present embodiment is typically divided into two parts on the left and right sides so as to be suitable for the operation of two users. Hereinafter, the left operation screen of the display screen is referred to as a left operation screen, and the right operation screen is referred to as a right operation screen.

さらに、編集操作用タッチパネル400は、4つのタッチペン49L1、49L2、49R1、49R2による操作位置を同時に検出可能に構成されており、かつ、検出される各操作位置が、49L1、49L2、49R1、49R2のうちのいずれの操作に対応するのかも検出可能となっている。例えば、編集操作用タッチパネル400として静電容量方式のタッチパネルを使用した場合には、このような複数の操作位置の同時検出と操作されたタッチペンの識別とが可能である。   Further, the editing operation touch panel 400 is configured to be able to simultaneously detect the operation positions of the four touch pens 49L1, 49L2, 49R1, and 49R2, and the detected operation positions are those of 49L1, 49L2, 49R1, and 49R2. It is possible to detect which of these operations is supported. For example, when a capacitive touch panel is used as the editing operation touch panel 400, simultaneous detection of such a plurality of operation positions and identification of the operated touch pen are possible.

なお、左操作画面用の2つのタッチペン(以下「左画面用ペン」という)49L1、49L2、または右操作画面用の2つのタッチペン(以下「右画面用ペン」という)49R1、49R2は、それぞれが同時に使用(入力操作)できるが、これをできないように、すなわち先にアクティブとなり(先に操作入力が受け付けられ)継続的にアクティブとなっているタッチペンのみが操作入力可能となるように制御してもよい。このように制御すれば描画レスポンスを高速に保つことができる。   Two touch pens for left operation screen (hereinafter referred to as “left screen pen”) 49L1 and 49L2, or two touch pens for right operation screen (hereinafter referred to as “right screen pen”) 49R1 and 49R2, respectively. Although it can be used (input operation) at the same time, it is controlled so that only the touch pen that is active first (operation input is accepted first) and is continuously active can be input. Also good. By controlling in this way, the drawing response can be maintained at high speed.

また、上記タッチペンの数には特に限定がなく、またタッチペンに代えて、同時に座標検出可能な周知のポインティングデバイス(例えばトラックボールやカーソルキー、カメラ画像に基づく位置判定など)を入力操作手段として使用してもよい。   The number of touch pens is not particularly limited, and instead of the touch pen, a known pointing device capable of simultaneously detecting coordinates (for example, position determination based on a trackball, cursor keys, camera images, etc.) is used as an input operation means. May be.

出力ユニット5は、図4に示すように、典型的には携帯電話端末に内蔵される赤外線通信ポートにより、例えばデコメール(登録商標)画像等の素材画像や撮影画像に落書きをした合成画像などを利用者の携帯電話端末に転送する際に利用者によって操作される出力操作用タッチパネル30と、出力操作用タッチパネル30の下方に配置され上記素材画像等を赤外線信号として携帯電話端末に向けて直接送信するための赤外線通信ポート(非接触通信ポート)31と、上記通信の際に必要な操作方法や効果音などを音声によって利用者に知らせるスピーカ32とを備えている。また、出力ユニット5は、前面下方に、編集ユニット4で編集操作が行われた合成画像を印刷した写真シールや写真カード等を取り出す取出口33を備えている。   As shown in FIG. 4, the output unit 5 typically has a material image such as a Deco-mail (registered trademark) image or a composite image in which a photographed image is doodled by an infrared communication port built in a mobile phone terminal. Output operation touch panel 30 that is operated by the user when the user is transferred to the user's mobile phone terminal, and the material image or the like that is arranged below the output operation touch panel 30 is directly directed to the mobile phone terminal as an infrared signal. An infrared communication port (non-contact communication port) 31 for transmission and a speaker 32 for notifying the user of operation methods and sound effects necessary for the communication are provided. Further, the output unit 5 includes an outlet 33 for taking out a photo sticker, a photo card, or the like on which a composite image that has been edited by the editing unit 4 is printed.

出力操作用タッチパネル30は、利用者が合成画像を印刷された写真シールを携帯電話端末でも見たい場合に、上記赤外線通信機能(またはその他の近接無線通信機能)を備えた携帯電話端末に送信するのに必要な各種操作を受け付けるための操作画面を提供するように構成されていている。   When the user wants to view the photo sticker on which the composite image is printed on the mobile phone terminal, the output operation touch panel 30 transmits the photo sticker to the mobile phone terminal having the infrared communication function (or other proximity wireless communication function). It is configured to provide an operation screen for accepting various operations necessary for this.

このような出力ユニット5も、撮影ユニット3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置および編集ユニット4等と通信を行うためのネットワークアダプタ等を内蔵しているほか、合成画像を写真シール等として印刷するネットワークプリンタ35を備えている。   Such an output unit 5 is also configured around a computer similar to the photographing unit 3, and includes a control device for controlling each part, a network adapter for communicating with the editing unit 4, etc. A network printer 35 for printing an image as a photo sticker or the like is provided.

以上のような構成において、利用者は、撮影室2において撮影を行った後、編集ユニット4の落書きブースAまたは落書きブースBの編集操作用タッチパネル400を使用することにより、撮影画像に基づいて生成された落書き対象画像に対して落書きを行う。そして、利用者は、落書きによって生成された合成画像をネットワークプリンタによって印刷したり、赤外線通信機能を有する携帯電話端末に画像を送信し、携帯電話端末で受信した画像を端末画面に表示させたりする。   In the configuration as described above, after shooting in the shooting room 2, the user uses the graffiti booth A of the editing unit 4 or the touch panel 400 for the editing operation of the graffiti booth B to generate based on the shot image. Graffiti is performed on the graffiti target image. Then, the user prints the composite image generated by the graffiti by the network printer, transmits the image to the mobile phone terminal having the infrared communication function, and displays the image received by the mobile phone terminal on the terminal screen. .

<2.機能的構成>
図6は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。図6に示されるようにこの遊戯用写真作成装置は、機能的には、主として利用者を撮影する処理(撮影処理)を行うための撮影処理部7と、主として落書き対象画像に対する利用者の落書き操作に応じて当該落書き対象画像の編集処理を行うための編集処理部8と、編集処理が行われた落書き対象画像を写真シール等として出力したり、赤外線通信を利用して携帯電話端末に出力したりする処理(出力処理)を行う出力処理部9とから構成されている。
<2. Functional configuration>
FIG. 6 is a block diagram showing the configuration of the main part of the play photo creating apparatus according to the present embodiment as seen from the functional aspect. As shown in FIG. 6, this game photo creation device functionally has a shooting processing unit 7 for mainly performing a process of shooting a user (shooting process), and a user's graffiti mainly for a graffiti target image. Edit processing unit 8 for editing the graffiti target image according to the operation, and output the graffiti target image subjected to the editing process as a photo sticker or the like, or output it to a mobile phone terminal using infrared communication And an output processing unit 9 that performs processing (output processing).

撮影処理部7は、第1の制御部70と、撮像部71と、第1の表示・操作部72と、I/O制御部73と、照明部74と、第1の通信部75とによって構成されている。編集処理部8は、第2の制御部80と、第2の表示・操作部81、82と、第2の通信部83とによって構成されている。出力処理部9は、第3の制御部90と、第3の表示・操作部91と、印刷出力部92と、音声出力部93と、非接触通信部94と、第3の通信部95とによって構成されている。ネットワークアダプタである第1、第2および第3の通信部75、83、95は、LAN(Local Area Network)であるネットワーク6を介してそれぞれ相互に通信可能となっている。   The imaging processing unit 7 includes a first control unit 70, an imaging unit 71, a first display / operation unit 72, an I / O control unit 73, an illumination unit 74, and a first communication unit 75. It is configured. The edit processing unit 8 includes a second control unit 80, second display / operation units 81 and 82, and a second communication unit 83. The output processing unit 9 includes a third control unit 90, a third display / operation unit 91, a print output unit 92, an audio output unit 93, a non-contact communication unit 94, and a third communication unit 95. It is constituted by. The first, second, and third communication units 75, 83, and 95 that are network adapters can communicate with each other via a network 6 that is a LAN (Local Area Network).

撮像部71は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(撮影画像)を表す画像信号を出力する。この画像信号は第1の制御部70に入力されて、その内部のメモリに撮影画像データとして一時的に記憶される。また、この撮影画像データは撮影画像信号として第1の制御部70から第1の表示・操作部72に供給され、当該撮影画像信号に基づく撮影画像がリアルタイムに表示される。   The imaging unit 71 corresponds to the camera 10 configured using an imaging element such as a CCD, and captures an image in real time and outputs an image signal representing the image (captured image). This image signal is input to the first control unit 70 and temporarily stored as photographed image data in its internal memory. The captured image data is supplied as a captured image signal from the first control unit 70 to the first display / operation unit 72, and a captured image based on the captured image signal is displayed in real time.

第1の表示・操作部72は、撮影操作用タッチパネル20に相当し、撮影画像に合成されるべき背景画像および前景画像を選択する操作や、出力されるべき写真のレイアウトを決定するための利用者の操作やシャッター操作等を受け付ける。これらの操作を示す信号は、操作信号として第1の制御部70に入力される。ここで、利用者を撮影するための(選択された撮影メニューに対応する)所定の処理が開始されると、第1の表示・操作部72に利用者のための案内が表示され、その後の第1の制御部70からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にストロボ11〜14から閃光が放たれる。そのとき、利用者の撮影画像を表す信号として撮像部71から出力される画像信号が第1の制御部70に入力され、第1の制御部70内のメモリまたは補助記憶装置としてのハードディスク装置等に撮影画像データとして格納される。   The first display / operation unit 72 corresponds to the shooting operation touch panel 20 and is used for selecting a background image and a foreground image to be combined with a shot image and determining a layout of a photo to be output. The user's operation and shutter operation are accepted. Signals indicating these operations are input to the first control unit 70 as operation signals. Here, when a predetermined process for photographing the user (corresponding to the selected photographing menu) is started, guidance for the user is displayed on the first display / operation unit 72, and thereafter Based on an instruction from the first control unit 70, a flash is emitted from the flashes 11 to 14 in the shooting direction of the camera 10 after a predetermined time of about several seconds. At that time, an image signal output from the imaging unit 71 as a signal representing a photographed image of the user is input to the first control unit 70, a memory in the first control unit 70, a hard disk device as an auxiliary storage device, or the like. Stored as captured image data.

照明部74は、カメラ10の上下左右の位置に配置されたストロボ11、12、13L、13R、14に相当し、第1の制御部70からの指示に基づきI/O制御部73によって点灯/消灯および調光が制御される。I/O制御部73は、撮影ユニット3に内蔵されるI/O制御装置に相当し、第1の制御部70からの指示に基づき、照明部74を制御する。また、後述のコイン検出部(不図示)からの検出信号等の入力信号を第1の制御部70へ転送する。第1の通信部75は、撮影ユニット3に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The illumination unit 74 corresponds to the strobes 11, 12, 13 L, 13 R, and 14 disposed at the top, bottom, left, and right positions of the camera 10, and is turned on / off by the I / O control unit 73 based on an instruction from the first control unit 70. Turning off and dimming are controlled. The I / O control unit 73 corresponds to an I / O control device built in the photographing unit 3, and controls the illumination unit 74 based on an instruction from the first control unit 70. Further, an input signal such as a detection signal from a coin detection unit (not shown) described later is transferred to the first control unit 70. The first communication unit 75 corresponds to a network adapter built in the photographing unit 3 and functions as an interface for data transmission / reception via the network 6.

第1の制御部70は、撮影ユニット3に内蔵され、CPU、メモリ、フレームバッファ、タイマー、補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号等に基づき各部を制御するために、上述のように各部に指示を出す。また撮影された画像に基づいて落書き対象画像を生成する。生成された落書き対象画像はフレームバッファに書き込まれることにより、第1の表示・操作部72に表示される。さらに、第1の制御部70は、落書き対象画像に所定の背景画像や前景画像を描画した画像である合成画像を生成する。この落書き対象画像には、詳しくは後述するようにマスクの作成に使用されるキー色となる背景色が付されており、周知のクロマキー合成処理の手法に基づき、利用者の像のみを含む撮影画像部分を抽出し、当該撮影画像部分が背景画像中に嵌め込まれるように合成する。なお、撮影画像または利用者の像のみを含む撮影画像部分に対して後述する各種補正処理がなされる。このように生成された合成画像はフレームバッファに書き込まれることにより第1の表示・操作部72に表示される。こうして撮影および合成画像の生成が終了すると、生成された合成画像は利用者の入力操作に応じて適宜選択された後、第1の通信部75を介して、編集ユニット4に対応する第2の制御部80へ送られる。   The first control unit 70 is built in the photographing unit 3 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device and the like, and is stored in a predetermined memory stored in an internal memory. When the CPU executes the program, an instruction is given to each unit as described above in order to control each unit based on the operation signal or the like input as described above. A graffiti target image is generated based on the photographed image. The generated graffiti target image is written in the frame buffer and displayed on the first display / operation unit 72. Further, the first control unit 70 generates a composite image that is an image in which a predetermined background image or foreground image is drawn on the graffiti target image. As will be described in detail later, this graffiti target image has a background color that is a key color used to create a mask, and based on the well-known chroma key composition processing method, the image includes only the user's image. An image part is extracted and synthesized so that the photographed image part is inserted into the background image. Various correction processes described later are performed on a captured image portion including only the captured image or the user image. The composite image generated in this way is displayed on the first display / operation unit 72 by being written in the frame buffer. When the shooting and the generation of the composite image are completed in this way, the generated composite image is appropriately selected according to the input operation of the user, and then the second corresponding to the editing unit 4 via the first communication unit 75. It is sent to the control unit 80.

上記の構成要素の他、撮影ユニット3におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に撮影ユニット3に設けられており、第1の制御部70は、コイン検出部での検出結果に基づき、利用者に所定時間だけ撮影や背景画像および前景画像の選択や落書き等、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部による検出動作やその検出結果に基づく第1の制御部70による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。   In addition to the above-described components, the photographing unit 3 is further provided with a coin detection unit (not shown) for detecting coins inserted into the coin insertion slot 26 in the photographing unit 3, and the first control unit 70 includes Based on the detection result of the coin detection unit, each unit is controlled so as to allow the user to play with the present photo creation device, such as shooting, selection of the background image and foreground image, and graffiti for a predetermined time. Since the detection operation by the coin detection unit and the control operation by the first control unit 70 based on the detection result are the same as those of the conventional game photo creation device and are well known, detailed description thereof will be omitted.

第2の制御部80は、編集ユニット4に内蔵され、CPU、メモリ、フレームバッファ、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、落書き編集処理に関する全体の制御を行う。また、第2の制御部80は、第1の制御部70から送られてきた撮影画像に対する落書き処理を行うための操作信号に基づき、落書き対象画像に所定画像を描画した画像である合成画像を生成する。生成された合成画像は利用者の指示に応じて対応する第2の表示・操作部81、82に表示される。上記のような合成画像の生成が終了すると、当該合成画像は出力ユニット5に送られる。なお、印刷出力部92が別の合成画像を出力中である場合には、その旨が表示されるとともに終了を待って送られる。   The second control unit 80 is a built-in editing unit 4 and corresponds to a control device that is configured around a computer including a CPU, a memory, a frame buffer, an auxiliary storage device, and the like, and is a predetermined program stored in an internal memory. Is executed by the CPU to perform overall control related to the graffiti editing process. In addition, the second control unit 80 generates a composite image that is an image obtained by drawing a predetermined image on the graffiti target image based on an operation signal for performing graffiti processing on the captured image sent from the first control unit 70. Generate. The generated composite image is displayed on the corresponding second display / operation unit 81 or 82 in accordance with a user instruction. When the generation of the composite image as described above is completed, the composite image is sent to the output unit 5. If the print output unit 92 is outputting another composite image, a message to that effect is displayed and sent after waiting for completion.

第2の表示・操作部81、82は、主として落書きのためのGUI表示手段として機能する編集操作用タッチパネル400に相当し、タッチペンを用いた利用者の操作を受け付ける。第2の通信部83は、編集ユニット4に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The second display / operation units 81 and 82 correspond to the editing operation touch panel 400 that mainly functions as a GUI display unit for graffiti, and accepts a user's operation using a touch pen. The second communication unit 83 corresponds to a network adapter built in the editing unit 4 and functions as an interface for data transmission / reception via the network 6.

第3の制御部90は、出力ユニット5に内蔵され、CPU、メモリ、フレームバッファ、タイマー、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、出力処理に関する全体の制御を行う。第3の制御部90は、第2の制御部80から送られてきた合成画像を合成画像データとしてメモリに格納する。印刷出力部92は出力ユニットに内蔵されるネットワークプリンタ35に相当し、メモリに格納された複数の合成画像データを(適宜にレイアウトした)写真シール(または写真カード)として印刷する。印刷された写真シール等は、出力ユニット5の正面下方に設けられた取出口33から取り出される。   The third control unit 90 is built in the output unit 5 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device, and the like, and is stored in an internal memory. When the CPU executes a predetermined program, overall control relating to output processing is performed. The third control unit 90 stores the composite image sent from the second control unit 80 in the memory as composite image data. The print output unit 92 corresponds to the network printer 35 built in the output unit, and prints a plurality of composite image data stored in the memory as a photo sticker (or photo card) (appropriately laid out). The printed photo sticker or the like is taken out from an outlet 33 provided at the lower front of the output unit 5.

また、第3の制御部90は、編集ユニット4から送られてきた合成画像に基づいて写真シール等の印刷処理を開始すると同時に、利用者が作成した合成画像のデータを携帯電話端末にダウンロードできるように、利用者の入力操作を受け付けるための操作画面を第3の表示・操作部91に表示する。この第3の表示・操作部91は出力操作用タッチパネル30に相当し、受け付けた入力操作を操作信号として第3の制御部90に入力する入力手段として機能する。   Further, the third control unit 90 can start printing processing such as a photo sticker based on the composite image sent from the editing unit 4 and simultaneously download the composite image data created by the user to the mobile phone terminal. As described above, an operation screen for accepting a user's input operation is displayed on the third display / operation unit 91. The third display / operation unit 91 corresponds to the output operation touch panel 30 and functions as an input unit that inputs the received input operation to the third control unit 90 as an operation signal.

第3の制御部90は、入力された操作信号に基づき、利用者の携帯電話端末に画像データを送信するように非接触通信部94に対して指示を出す。非接触通信部94は赤外線通信ポート31に相当する。上記画像データは、非接触通信部94から非接触通信方式の赤外線信号として利用者の携帯電話端末に直接送信される。第3の通信部95は、出力ユニット5に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   Based on the input operation signal, the third control unit 90 issues an instruction to the non-contact communication unit 94 to transmit image data to the user's mobile phone terminal. The non-contact communication unit 94 corresponds to the infrared communication port 31. The image data is directly transmitted from the non-contact communication unit 94 to the user's mobile phone terminal as a non-contact communication infrared signal. The third communication unit 95 corresponds to a network adapter built in the output unit 5 and functions as an interface for data transmission / reception via the network 6.

ここで、第3の制御部90は、上記入力操作が行われていない間、補助記憶装置に予め記憶されているデモ画像(デモンストレーション用の画像)やミニゲームの画像等をフレームバッファに書き込むことにより第3の表示・操作部91に表示する。また音声出力部93は、スピーカ32に相当する。音声出力部93は、第3の表示・操作部91に表示される操作画面と連動して入力操作方法を利用者に説明し、また第3の表示・操作部91にデモ画像やミニゲームが表示されているときに楽曲や効果音等を流す。   Here, the third control unit 90 writes a demo image (demonstration image) or a mini game image stored in advance in the auxiliary storage device in the frame buffer while the input operation is not performed. Is displayed on the third display / operation unit 91. The audio output unit 93 corresponds to the speaker 32. The audio output unit 93 explains the input operation method to the user in conjunction with the operation screen displayed on the third display / operation unit 91, and the third display / operation unit 91 displays a demo image or a mini game. Play music, sound effects, etc. when displayed.

ここで、各制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるDVD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのDVD−ROMが補助記憶装置として制御装置内に内蔵されたDVD−ROM駆動装置に装着され、そのDVD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。また、上記所定プログラムは、DVD−ROM以外の記録媒体(CD−ROM等)や通信回線を介して提供されてもよい。そして、本遊戯用写真作成装置の起動のための操作がなされると、ハードディスク装置にインストールされた所定プログラムは、制御装置内のメモリに転送されてそこに一時的に格納され、制御装置内のCPUによって実行される。これにより、制御装置による上記各部の制御処理が実現される。   Here, the predetermined program executed in each control device is provided by, for example, a DVD-ROM which is a recording medium on which the program is recorded. That is, a DVD-ROM as a recording medium for the predetermined program is attached to a DVD-ROM driving device built in the control device as an auxiliary storage device, and the predetermined program is read from the DVD-ROM as an auxiliary storage device. Installed on the hard disk drive. The predetermined program may be provided via a recording medium (CD-ROM or the like) other than a DVD-ROM or a communication line. Then, when an operation for starting the present photo creating device is performed, the predetermined program installed in the hard disk device is transferred to the memory in the control device and temporarily stored therein, It is executed by the CPU. Thereby, the control process of each part by the control device is realized.

なお、上記第1から第3までの制御部70,80,90は、異なるユニットに内蔵される異なるコンピュータを含む装置に相当するものとして説明したが、このような構成は一例であって、上記第1から第3までの制御部70,80,90は、2つ以下または4つ以上の装置により実現されてもよい。この場合には各装置において、それぞれ実現されるべき機能に応じたプログラムが実行される。また、撮影ユニット3、編集ユニット4、および出力ユニット5についても、2つ以下または4つ以上のユニットにより構成されてもよい。   The first to third control units 70, 80, 90 have been described as corresponding to devices including different computers built in different units, but such a configuration is an example, and The first to third control units 70, 80, 90 may be realized by two or less devices or four or more devices. In this case, a program corresponding to the function to be realized is executed in each device. In addition, the photographing unit 3, the editing unit 4, and the output unit 5 may be configured by two or less units or four or more units.

<3.遊戯用写真作成装置における処理手順>
上述したように、この遊戯用写真作成装置には、撮影ユニット3と編集ユニット4と出力ユニット5とが含まれている。撮影ユニット3では撮影処理が行われ、編集ユニット4では後述する落書き編集処理が行われ、出力ユニット5では出力処理が行われる。なお、或る利用者が撮影ユニット3でプレイしている時に他の利用者は編集ユニット4でプレイし、さらに他の利用者は出力ユニット5で合成画像を出力することができるように構成されている。すなわち、この遊戯用写真作成装置は、撮影処理と落書き編集処理と出力処理とを並行して行うことができる。以下に、撮影処理、落書き編集処理、および出力処理の手順の概要について説明する。
<3. Processing procedure in a photo creation device for play>
As described above, the play photo creating apparatus includes the photographing unit 3, the editing unit 4, and the output unit 5. The photographing unit 3 performs photographing processing, the editing unit 4 performs later-described graffiti editing processing, and the output unit 5 performs output processing. It should be noted that when a certain user is playing with the photographing unit 3, another user can play with the editing unit 4, and yet another user can output a composite image with the output unit 5. ing. In other words, this game photo creation device can perform shooting processing, graffiti editing processing, and output processing in parallel. Below, the outline | summary of the procedure of an imaging | photography process, graffiti edit processing, and an output process is demonstrated.

<3.1 撮影処理>
図7は、本実施形態における撮影処理の手順を示すフローチャートである。この遊戯用写真作成装置が使用されていない時(プレイが行われていない時)には、撮影操作用タッチパネル20にはデモ画像が表示されている。デモ画像の表示中に利用者がコイン投入口26にコインを投入すると、プレイが開始される(ステップS100)。
<3.1 Shooting process>
FIG. 7 is a flowchart showing the procedure of the photographing process in the present embodiment. When the play photo creation device is not used (when no play is performed), a demonstration image is displayed on the shooting operation touch panel 20. When the user inserts a coin into the coin insertion slot 26 while displaying the demo image, play is started (step S100).

プレイが開始されると、第1の制御部70は、利用者による撮影モードの選択を受け付ける(ステップS110)。ステップS110では、例えば画質(具体的にはコントラストが高いくっきりとした画質、柔らかなふんわりとした画質、または透明感のあるクールな画質のうちのいずれか)を選択し、明るさを選択し、自動で撮影するか手動で撮影するかを選択し、自動で撮影する場合には撮影用テーマの選択が行われる。この場合、第1の制御部70は、予め用意された複数の撮影用テーマの中から1つ以上の撮影用テーマを利用者に選択させるための画面を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者の選択操作に基づいて選択情報を取得し、選択された撮影用テーマに基づいて、撮影の際に使用するフレームと背景との組み合わせを決定する。また手動で撮影する場合は、上記フレームと背景とを利用者が自由に決定する。その後、処理はステップS120に進み、撮影が行われる。この撮影により、撮影画像データが第1の制御部70のメモリに格納される。   When the play is started, the first control unit 70 accepts selection of a shooting mode by the user (step S110). In step S110, for example, image quality (specifically, one of clear image quality with high contrast, soft image quality with softness, or cool image quality with transparency) is selected, brightness is selected, Whether to shoot automatically or manually is selected. When shooting automatically, a shooting theme is selected. In this case, the first control unit 70 displays on the shooting operation touch panel 20 a screen for allowing the user to select one or more shooting themes from a plurality of shooting themes prepared in advance. The selection operation by the person is accepted. Then, the first control unit 70 acquires selection information based on a user's selection operation, and determines a combination of a frame and a background to be used for shooting based on the selected shooting theme. When shooting manually, the user can freely determine the frame and background. Thereafter, the process proceeds to step S120, and photographing is performed. By this shooting, the shot image data is stored in the memory of the first control unit 70.

ステップS130では、撮影画像に基づいて生成された落書き対象画像(撮影画像を含む画像)が、撮影操作用タッチパネル20に表示される。詳しくは、ステップS130の処理が行われる都度、図5に示した撮影操作用タッチパネル20の落書き対象画像表示領域203に落書き対象画像が順次追加表示される。その後、処理はステップS140に進み、第1の制御部70は、予め定められた枚数の撮影が終了したか否かを判定する。判定の結果、当該枚数の撮影が終了していれば処理はステップS150に進み、当該枚数の撮影が終了していなければステップS120に戻る。なお、実際には撮影のための制限時間(例えば3分)が設けられる。   In step S <b> 130, a graffiti target image (an image including a captured image) generated based on the captured image is displayed on the capturing operation touch panel 20. Specifically, each time the process of step S130 is performed, graffiti target images are additionally displayed sequentially in the graffiti target image display area 203 of the photographing operation touch panel 20 shown in FIG. Thereafter, the process proceeds to step S140, and the first control unit 70 determines whether or not a predetermined number of images have been taken. As a result of the determination, if the number of images has been shot, the process proceeds to step S150. If the number of images has not been shot, the process returns to step S120. In practice, a time limit for photographing (for example, 3 minutes) is provided.

ステップS150では、複数の落書き対象画像の中から実際の落書き対象となる画像の(利用者による)選択が行われる。具体的には、第1の制御部70は、落書きおよび印刷に使用する画像を利用者に選択させるために、落書き対象画像の一覧を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。ステップS150の終了後、処理はステップS160に進む。   In step S150, an image to be actually graffitied is selected (by the user) from a plurality of graffiti subject images. Specifically, the first control unit 70 displays a list of graffiti target images on the shooting operation touch panel 20 in order to allow the user to select an image to be used for graffiti and printing, and performs a selection operation by the user. Accept. After step S150 ends, the process proceeds to step S160.

ステップS160では、選択された落書き対象となる画像に対して周知の歪曲収差、典型的には広角レンズを使用するカメラ10によって生じる樽型歪みを解消するための補正処理が行われる。この補正処理は、例えば方形の画像を糸巻き型に変形するような縮小変形処理を行うものである。このような補正処理は周知であるので詳しい説明は省略する。また、ここで幾何学歪み、例えば立位姿勢の利用者に対してカメラの撮影位置が比較的高いことから生じる(足が短く見えるような)歪みを補正する処理を行ってもよい。ステップS160の終了後、処理はステップS170に進む。   In step S160, a correction process is performed on the selected image to be graffitied to eliminate known distortion, typically barrel distortion caused by the camera 10 using a wide-angle lens. In this correction process, for example, a reduction deformation process is performed such that a square image is deformed into a pincushion shape. Since such correction processing is well known, detailed description thereof is omitted. Further, here, a process of correcting geometric distortion, for example, distortion caused by a relatively high shooting position of the camera for a user in a standing posture (such as a leg that looks short) may be performed. After step S160 ends, the process proceeds to step S170.

ステップS170では、歪曲収差が補正された落書き対象となる画像に対してクロマキー合成処理が行われる。このクロマキー合成処理は、一般的にはクロマキーマスクを作成する処理と、背景画像を合成する処理とを含む。クロマキーマスクとは、例えば周知の合成マスク(アルファチャネル)であって、対象となる撮影画像のうちのキー色(ここでは青色または緑色)を有する領域、すなわち撮影室2の背面の像が占める領域を透明とし、それ以外の領域を非透明とするためのデータである。この合成マスクは一般的には対象となる画像の画素毎に0(完全透明)または255(完全非透明)の透過度を示す値αが設定される。このようなクロマキーマスクを使用することにより、撮影画像の非透明領域(α=255)に相当する背景画像の領域は隠され(マスクされ)、その透明領域(α=0)に相当する背景画像の領域は見えるように合成される。そのため、あたかも対象となる撮影画像の非透明領域の部分が切り取られ、切り取られた当該部分が上記背景画像に対して貼り付けられたような合成画像が得られる。このようなクロマキー処理によって遊戯性の高い写真作成を行うことができる。なお、この背景画像は撮影中に利用者によって適宜選択されるが、後述する落書き処理中に利用者の選択操作に応じて選ばれてもよい。   In step S170, a chroma key composition process is performed on the image to be graffiti corrected for distortion. This chroma key composition process generally includes a process for creating a chroma key mask and a process for composing a background image. The chroma key mask is, for example, a well-known composite mask (alpha channel), and an area having a key color (in this case, blue or green) in a target photographed image, that is, an area occupied by an image on the back of the photographing room 2. Is data for making transparent and making other areas non-transparent. In this composite mask, a value α indicating transparency of 0 (completely transparent) or 255 (completely non-transparent) is generally set for each pixel of the target image. By using such a chroma key mask, the background image region corresponding to the non-transparent region (α = 255) of the photographed image is hidden (masked), and the background image corresponding to the transparent region (α = 0). This area is synthesized so that it can be seen. Therefore, a composite image can be obtained as if a non-transparent area portion of the target captured image is cut out and the cut-out portion is pasted on the background image. With such chroma key processing, it is possible to create a photo with high playability. The background image is appropriately selected by the user during shooting, but may be selected according to the user's selection operation during the graffiti process described later.

ステップS180では、クロマキー合成処理がなされた落書き対象画像に対して、撮影対象となる利用者の足部分が不自然に写らないよう、本実施形態の特徴的な処理である脚バランス補正処理が行われる。なお、この上記落書き対象画像に変えて、撮影画像そのものに対して脚バランス補正処理を行ってもよいし、クロマキー合成前の上記透明領域に対応する利用者の像のみを含む撮影画像部分(以下「利用者画像」という)に対して脚バランス補正処理を行ってもよい。この脚バランス処理は、複数の処理態様が考えられ、それらの処理内容は詳しく後述する。そして、第1の制御部70は、以上のように補正された画像を実際の落書き対象画像として第2の制御部80に送る。ステップS180の終了後、処理はステップS190に進む。   In step S180, a leg balance correction process, which is a characteristic process of the present embodiment, is performed on the graffiti target image that has been subjected to the chroma key composition process so that the foot portion of the user to be photographed does not appear unnatural. Is called. Instead of the graffiti target image, a leg balance correction process may be performed on the photographed image itself, or a photographed image portion including only the user image corresponding to the transparent area before the chroma key composition (hereinafter referred to as a “compressed image”). Leg balance correction processing may be performed on the “user image”. The leg balance process may have a plurality of processing modes, and details of the process will be described later. Then, the first control unit 70 sends the image corrected as described above to the second control unit 80 as an actual graffiti target image. After step S180 ends, the process proceeds to step S190.

ステップS190では、案内画面の表示が行われる。具体的には、第1の制御部70は、利用者を編集ユニット4のいずれか(4aまたは4b)に導くための画面を撮影操作用タッチパネル20に表示する。これにより、撮影処理が終了する。   In step S190, a guidance screen is displayed. Specifically, the first control unit 70 displays a screen for guiding the user to any one of the editing units 4 (4 a or 4 b) on the photographing operation touch panel 20. Thereby, the photographing process is completed.

<3.2 落書き編集処理>
図8は、本実施形態における落書き編集処理の手順を示すフローチャートである。第2の制御部80が所定のプログラムに基づき図8に示すように動作することで、この落書き編集処理が実現される。この処理では、上述した撮影処理の終了後、第2の制御部80は、ネットワーク(LAN)6を介して第1の制御部70から送られる落書き対象画像(図7のステップS150で利用者によって選択され、ステップS160,S170で補正された画像)を取得する(ステップS200)。その後、タイマー46が所定の時間(具体的には、落書きを許可する時間)に設定され、カウントダウンが開始される(ステップS210)。
<3.2 Graffiti editing process>
FIG. 8 is a flowchart showing the procedure of graffiti editing processing in the present embodiment. The graffiti editing process is realized by the second control unit 80 operating as shown in FIG. 8 based on a predetermined program. In this process, after the above-described shooting process ends, the second control unit 80 sends the graffiti target image sent from the first control unit 70 via the network (LAN) 6 (by the user in step S150 in FIG. 7). The image selected and corrected in steps S160 and S170) is acquired (step S200). Thereafter, the timer 46 is set to a predetermined time (specifically, a time during which graffiti is permitted), and a countdown is started (step S210).

タイマー46のカウントダウン開始後、編集ユニット4を構成するユニット4a,4bのそれぞれの編集操作用タッチパネル400において、落書き編集操作画面が表示され、利用者による落書き操作(描画操作)が受け付けられる(ステップS232〜S236)。なおこの落書き編集処理時において、編集ユニット4では、撮影画像に基づく落書き対象画像に対する編集操作の他に、デコメール画像等の素材画像を作成するための編集操作が受け付けられてもよい。   After the count-down of the timer 46 is started, a graffiti editing operation screen is displayed on the editing operation touch panel 400 of each of the units 4a and 4b constituting the editing unit 4, and a graffiti operation (drawing operation) by the user is accepted (step S232). ~ S236). At the time of this graffiti editing process, the editing unit 4 may accept an editing operation for creating a material image such as a decomail image in addition to an editing operation on the graffiti target image based on the photographed image.

具体的には、編集操作画面内のボタンやツールなどの1つをタッチペンでタッチすると、その座標値が入力され(S232)、対応する落書き画面処理(S234)が行われる。その後ステップS236においてタイマー46の残り時間が0になる(または利用者が終了させる操作を行う)ことにより落書きが終了したかが判定され、終了していない場合(S236においてNoの場合)にはステップS232に戻り、落書きが終了するまで処理が繰り返され、落書きが終了した場合(S236においてYesの場合)には、処理はステップS240に進む。   Specifically, when one of the buttons and tools in the editing operation screen is touched with the touch pen, the coordinate value is input (S232), and the corresponding graffiti screen processing (S234) is performed. Thereafter, in step S236, it is determined whether the graffiti has ended by the remaining time of the timer 46 becoming zero (or performing an operation to be ended by the user), and if not completed (in the case of No in S236), step Returning to S232, the process is repeated until the graffiti is completed, and when the graffiti is completed (Yes in S236), the process proceeds to step S240.

ステップS240では、出力される写真の分割パターンの選択が行われる。具体的には、第2の制御部80は、予め用意された複数の分割パターンの中からいずれかの分割パターンを利用者に選択させるための画面を編集操作用タッチパネル400に表示し、利用者による選択操作を受け付ける。そして、第2の制御部80は、利用者の選択操作に基づいて、選択情報を取得する。ステップS240の処理が終了した後、ステップS250の処理に進む。   In step S240, the division pattern of the photo to be output is selected. Specifically, the second control unit 80 displays on the editing operation touch panel 400 a screen for allowing the user to select one of the plurality of division patterns prepared in advance, and the user can select the division pattern. The selection operation by is accepted. And the 2nd control part 80 acquires selection information based on a user's selection operation. After the process of step S240 is complete | finished, it progresses to the process of step S250.

ステップS250では、案内画面の表示が行われる。具体的には、第2の制御部80は、利用者を出力ユニット5に導くための画面を編集操作用タッチパネル400に表示する。これにより、落書き編集処理が終了する。落書き編集処理が終了すると、出力ユニット5において、編集ユニット4から送られてきた合成画像に基づいて写真シール等の印刷処理が開始されることなどについては前述した通りである。   In step S250, a guidance screen is displayed. Specifically, the second control unit 80 displays a screen for guiding the user to the output unit 5 on the editing operation touch panel 400. Thereby, the graffiti editing process ends. As described above, when the graffiti editing process is completed, the output unit 5 starts a printing process such as a photo sticker based on the composite image sent from the editing unit 4.

以上のような処理のうち、前述したようにステップS180における脚バランス補正処理が特徴的な内容となっており、複数の処理態様が考えられる。以下、順に具体的に説明する。なお、この脚バランス補正処理(S180)は、第1の制御部70によって、撮影終了直後に行われるが、第2の制御部80によって行われてもよいし、落書き操作中に例えば利用者の指示に応じて行われる構成であってもよい。   Among the processes described above, as described above, the leg balance correction process in step S180 has a characteristic content, and a plurality of processing modes can be considered. Hereinafter, it demonstrates concretely in order. The leg balance correction process (S180) is performed by the first control unit 70 immediately after the end of shooting, but may be performed by the second control unit 80, or may be performed by, for example, the user during the graffiti operation. The configuration may be performed in response to an instruction.

<3.3 脚バランス処理の具体的な内容>
<3.3.1 第1の処理態様>
図9は、カメラ位置近傍から見た利用者U1,U2と背景との位置関係を簡略に示す図であり、図10は、撮影室側面方向から見た利用者Uと背景との位置関係を簡略に示す図である。
<3.3 Specific contents of leg balance processing>
<3.3.1 First Processing Mode>
FIG. 9 is a diagram simply showing the positional relationship between the users U1 and U2 and the background viewed from the vicinity of the camera position, and FIG. 10 shows the positional relationship between the user U and the background viewed from the side of the photographing room. It is a figure shown simply.

図9に示されるように、利用者U1,U2は、撮影室2内部のクロマキー色を付された背面110を背にして、クロマキー色が付された床面120の上に立っている。背面(背景)110および床面120のうち、カメラ10により撮影される撮影範囲101は点線で示されている。ここで利用者U1,U2は並んで立っており、背面からその足首までの距離はほぼ同一であるものとする。したがって、図10では、利用者U1,U2を特に区別せず利用者Uとして示している。   As shown in FIG. 9, the users U1 and U2 are standing on the floor surface 120 with the chroma key color with the back surface 110 with the chroma key color inside the photographing room 2 as the back. Of the back surface (background) 110 and the floor surface 120, the photographing range 101 photographed by the camera 10 is indicated by a dotted line. Here, it is assumed that the users U1 and U2 are standing side by side, and the distance from the back to the ankle is almost the same. Therefore, in FIG. 10, the users U1 and U2 are shown as the user U without being particularly distinguished.

図10を参照すれば分かるように、カメラ10の画角に応じて、(利用者Uを含む)点線で囲まれた領域内の対象物がカメラ10により撮影されることになるが、立位姿勢の利用者Uの足首からつま先までは、床面120に対して平行に位置することになる。そしてカメラ10から足首までの図中では一点鎖線で示される線分と床面120とのなす角が45度より大きい場合には、カメラ10により撮影された利用者Uの足首からつま先までの部分の長さは、実際の長さよりも長く写ることになる。また、上記角度が45度以下である場合であっても、人物写真を見るときの仮想的な(または心理的な)視点位置は、実際のカメラの位置よりも人物から離れた位置に置かれることが多い。特に、カメラ10の撮影位置が床面から高い位置にあることによって足が短く見える(写る)ことを防止するため、前述したステップS160において歪曲収差補正とともに幾何学歪み補正等を行う場合には、実際のカメラの位置よりも離れた(やや下方の)位置に仮想的な視点が置かれることが多い。そのため、上記角度に関わらず、撮影画像に含まれる利用者Uの足首からつま先までの長さが不自然に長く伸びているように感じられることがある。   As can be seen from FIG. 10, depending on the angle of view of the camera 10, an object within a region surrounded by a dotted line (including the user U) is photographed by the camera 10. The user's U from the ankle to the toe is positioned parallel to the floor surface 120. If the angle between the line segment indicated by the alternate long and short dash line and the floor 120 in the figure from the camera 10 to the ankle is greater than 45 degrees, the portion from the ankle to the toe of the user U photographed by the camera 10 The length of is longer than the actual length. Even when the angle is 45 degrees or less, the virtual (or psychological) viewpoint position when viewing a portrait is placed at a position farther from the person than the actual camera position. There are many cases. In particular, in order to prevent the foot from appearing short (photographed) due to the shooting position of the camera 10 being high from the floor, when performing geometric distortion correction and the like in step S160 described above, In many cases, a virtual viewpoint is placed at a position farther (a little below) from the actual camera position. For this reason, it may be felt that the length from the ankle to the toe of the user U included in the captured image is unnaturally extended regardless of the angle.

そこで、ステップ180に示される脚バランス処理の第1の態様では、利用者Uの足首からつま先までを含む画像部分(以下「足先画像」という)を下方向に縮小するとともに、利用者Uの膝から足首までを含む画像部分(以下「脚部画像」という)を下方向に拡大することにより、上記不自然な見え方を解消する。   Therefore, in the first aspect of the leg balance process shown in Step 180, the image portion including the ankle to the toe of the user U (hereinafter referred to as “foot image”) is reduced downward, and the user U's The above-mentioned unnatural appearance is eliminated by enlarging an image portion including the knee to the ankle (hereinafter referred to as “leg image”) downward.

なお、利用者Uの足首からつま先までの長さを、不自然に長く伸びていると感じられない程度に縮小し、上記脚部画像を拡大する処理を行わない構成も考えられる。この構成によって、撮影対象となる利用者の足部分が不自然に写らないように(不自然に長く見えないように)することができる。ただし、この拡大処理だけでは、足首からつま先までの長さのみを縮小すると、その部分だけが小さくなったことによる違和感を生じることがある。また、ステップS160において幾何学歪み補正等を行うことにより、足が短く見えないよう補正する処理がなされる場合であっても、足首からつま先までの長さだけを縮小すると、足が全体として短く見える(写る)ことがある。さらに利用者Uの膝から足首まで長さを伸ばすように脚部画像を拡大することにより、利用者Uのスタイルが(実際よりも)良く見える効果も得られる。そのため、上記足先画像の縮小とともに、上記脚部画像の拡大を合わせて行うのが好適である。   A configuration in which the length from the ankle to the toe of the user U is reduced to such an extent that it is not felt that the user U is unnaturally extended, and the process of enlarging the leg image is not considered. With this configuration, it is possible to prevent the foot portion of the user to be photographed from appearing unnaturally (so as not to look unnaturally long). However, with this enlargement process alone, if only the length from the ankle to the toe is reduced, there may be a sense of incongruity due to the reduction in only that part. In addition, even if a process for correcting the leg so that it does not appear short by performing geometric distortion correction or the like in step S160, if only the length from the ankle to the toe is reduced, the leg is shortened as a whole. It may be visible. Further, by enlarging the leg image so as to extend the length from the knee of the user U to the ankle, an effect of making the user U's style look better (than actual) can be obtained. For this reason, it is preferable that the leg image is enlarged together with the reduction of the foot image.

また、利用者Uの膝付近から足首付近までの長さを伸ばすようにすることは、スタイルよく見せるために好適であるが、たとえば利用者Uの太ももや足の付け根、または腰付近(若しくはそれより上の所定位置)から足首付近までの長さを伸ばすようにしても全体としてスタイルよく見せることはできる。そのため、脚部画像は、上記のように膝付近から足首付近を含む画像部分に限られるわけではなく、およそ利用者Uの足の全部または一部を含む画像部分であればよい。   In addition, it is preferable to extend the length from the vicinity of the user U's knee to the vicinity of the ankle in order to make it look good, but for example, the user's U thigh, the base of the foot, or the vicinity of the waist (or that) Even if the length from an upper predetermined position) to the vicinity of the ankle is extended, the overall appearance can be improved. Therefore, the leg image is not limited to the image portion including the vicinity of the knee to the vicinity of the ankle as described above, and may be an image portion including approximately all or a part of the foot of the user U.

ここで第1の処理態様では、利用者Uの足首位置および膝位置は、予め定められた位置に決定される。すなわち、利用者が立位姿勢をとる場合、手や肘の位置は様々に変化するため、予め定めることは不可能に近い。しかし、平均的な身長の利用者の足首や膝の位置のうち、カメラ10から見て左右方向における(立ち)位置を予め定めることは困難であっても、カメラ10から見て上下方向における(立ち)位置を予め定めることは比較的容易である。なぜなら、限定された撮影室2内で背面を背にする利用者は、当該背面からほぼ等しい距離を空けて立つことが多く、したがって、足を大きく振り上げるなどの姿勢を取らない限り、利用者Uの足首位置および膝位置は、ほぼ一定の位置(高さ)になるからである。そこで、撮影画像における利用者Uの足首位置および膝位置であると(比較的高い確度で)推測される予め定められた足首位置および膝位置に基づき、上記足先画像の縮小と脚部画像の拡大とを行う。以下、図11および図12を参照して、この第1の処理態様の内容について説明する。   Here, in the first processing mode, the ankle position and the knee position of the user U are determined to be predetermined positions. That is, when the user takes a standing posture, the positions of the hands and elbows change variously, so it is almost impossible to determine in advance. However, among the positions of the ankles and knees of the average height user, it is difficult to predetermine the (standing) position in the left-right direction as viewed from the camera 10, but in the vertical direction as viewed from the camera 10 ( It is relatively easy to predetermine the standing position. This is because a user who faces the back in the limited shooting room 2 often stands at an approximately equal distance from the back, and therefore, unless he takes a posture such as swinging his leg up, This is because the ankle position and knee position of U are substantially constant positions (heights). Therefore, based on a predetermined ankle position and knee position that is estimated (with relatively high accuracy) as the ankle position and knee position of the user U in the photographed image, the reduction of the foot image and the leg image are performed. Enlarge and do. Hereinafter, the contents of the first processing mode will be described with reference to FIGS. 11 and 12.

なお、以下において足首や膝、足先などの位置とは、撮影画像(または利用者画像など)における上下方向(Y軸方向)の位置(すなわち左右方向(X軸方向)の位置を考慮しない位置)を指す。   In the following, the positions of ankles, knees, toes, and the like are positions that do not consider the position in the vertical direction (Y-axis direction) (that is, the position in the horizontal direction (X-axis direction)) in the captured image (or user image) ).

図11は、撮影画像における予め定められた足首位置および膝位置を示す図である。図11では、撮影範囲101に等しいものとして撮影画像111の範囲(外周)を点線で示している。前述のように、利用者Uの足首位置および膝位置は、ほぼ一定の位置(高さ)になるので、このことに基づき予め定められる膝位置は図中では線分Paとして示され、足首位置は図中では線分Pbとして示されている。   FIG. 11 is a diagram illustrating a predetermined ankle position and knee position in a captured image. In FIG. 11, the range (outer periphery) of the photographed image 111 is indicated by a dotted line as being equivalent to the photographing range 101. As described above, since the ankle position and the knee position of the user U are substantially constant positions (heights), the knee position determined in advance based on this is shown as a line segment Pa in the drawing, and the ankle position Is shown as a line segment Pb in the figure.

したがって、脚部画像は、利用者U1,U2の足首位置を含むであろうと推測され、かつ利用者U1,U2の膝位置を含むであろうと推測される画像領域、すなわち線分Paを上辺とし線分Pbを下辺とし、これら上辺および下辺と撮影画像の左端(左辺)および右端(右辺)とで囲まれた領域と定めることができる。   Therefore, the leg image is assumed to include the ankle positions of the users U1 and U2 and is assumed to include the knee positions of the users U1 and U2, that is, the line segment Pa is the upper side. The line segment Pb is taken as the lower side, and it can be defined as an area surrounded by these upper and lower sides and the left end (left side) and right end (right side) of the photographed image.

また、足先画像は、利用者U1,U2の足首位置を含むであろうと推測され、かつ利用者U1,U2の足先位置を含むであろうと推測される画像領域、すなわち線分Pbを上辺とし撮影画像の下端(下辺)を下辺とし、これらと撮影画像の左端(左辺)および右端(右辺)とで囲まれた領域と定めることができる。   In addition, it is estimated that the foot image includes the ankle positions of the users U1 and U2, and the image area that is estimated to include the foot positions of the users U1 and U2, that is, the line segment Pb is the upper side. The lower end (lower side) of the photographed image is the lower side, and it can be defined as a region surrounded by these and the left end (left side) and right end (right side) of the photographed image.

ここで、足先画像の下辺を撮影画像の下端(下辺)と一致させる場合には、利用者U1,U2の足先位置を含む可能性が極めて高いが、実際の足先位置は撮影画像の下端から離れた上方であることが多い。すなわち、前述のように、限定された撮影室2内で背面を背にする利用者は、当該背面からほぼ等しい位置に立つことが多く、したがって、利用者Uの足首位置および膝位置と同様に、足先位置もほぼ一定の位置(高さ)になる。よって、線分Pa,Pbと同様に足先位置を含むべき線分を設定することが可能であるので、この足先位置を含むべき線分を、撮影画像の下端に代えて、足先画像の下辺とすることもできる。   Here, in the case where the lower side of the foot image is matched with the lower end (lower side) of the captured image, the possibility of including the foot position of the users U1 and U2 is very high, but the actual foot position is the position of the captured image. Often above the lower end. That is, as described above, a user who faces the back in the limited imaging room 2 often stands at a substantially equal position from the back, and therefore, similarly to the ankle position and knee position of the user U. The toe position is also substantially constant (height). Therefore, since it is possible to set a line segment that should include the foot position as in the case of the line segments Pa and Pb, the line segment that should include the foot position is replaced with the lower end of the captured image, and the foot image It can also be the lower side.

次に、以上のようにして決定される足先画像および脚部画像は、利用者の像の一部であるため、利用者の像としての連続性が保たれるように縮小または拡大されなければならない。そこで、脚部画像は、線分Paである上辺を固定して下方へ拡大し、足先画像は、撮影画像の下端(または足先位置を含むべき線分)である下辺を固定して下方へ縮小するとともに、拡大された脚部画像の下辺と縮小された足先画像の上辺とが接するように画像変形処理を行う。この処理により得られる画像が脚バランス処理の第1の処理態様により最終的に得られる画像となる。   Next, since the foot image and the leg image determined as described above are part of the user's image, they must be reduced or enlarged so as to maintain continuity as the user's image. I must. Therefore, the leg image is fixed with the upper side, which is the line segment Pa, expanded downward, and the foot image is fixed, with the lower side, which is the lower end of the captured image (or the line segment that should include the foot position), fixed downward. And the image transformation process is performed so that the lower side of the enlarged leg image and the upper side of the reduced foot image touch each other. An image obtained by this processing is an image finally obtained by the first processing mode of the leg balance processing.

図12は、脚バランス処理の第1の態様による処理の結果得られる画像を示す図である。図12に示されるように、脚部画像は拡大の前後でその上辺(ここでは線分Pa)の位置に変化はなく、足先画像は拡大の前後で下辺(ここでは撮影画像の下辺)の位置に変化はなく、上記画像変形処理により拡大された脚部画像と縮小された足先画像とが接する辺(図中では線分Pcとして示されている)の位置が線分Pbの位置から下方へ移動している。   FIG. 12 is a diagram illustrating an image obtained as a result of the processing according to the first aspect of the leg balance processing. As shown in FIG. 12, the leg image has no change in the position of the upper side (here, line segment Pa) before and after enlargement, and the foot image has the lower side (here, the lower side of the photographed image) before and after enlargement. There is no change in the position, and the position of the side (shown as line segment Pc in the figure) where the leg image expanded by the image deformation process and the reduced foot image are in contact with the position of the line segment Pb It is moving downward.

具体的には、足先画像は下方へ0.8倍(もちろんそれ以外の倍率であってもよい)に縮小されており、脚部画像は縮小された足先画像と接する位置まで拡大されている。このように、撮影画像における縮小前の足先画像の下端位置と縮小された足先画像の下端位置とを一致させ、かつ撮影画像における拡大前の脚部画像の上端位置と拡大された脚部画像の上端位置とを一致させるよう、足先画像を縮小し脚部画像を拡大すれば、画像変形処理後の利用者の像の連続性が保たれるとともに、利用者Uの足首からつま先までが不自然に長く見える(写る)状態を解消でき、利用者U1,U2の足をスタイル良く長く見せることができる。ここで足先画像を縮小する程度(縮小率)が決定されると、画像変形の前後で撮影画像の大きさが変わらない限り、脚部画像を拡大する程度(拡大率)は自ずと定まるが、画像変形の前後で撮影画像の大きさが変わるように構成されてもよく、上記縮小率と無関係に上記拡大率が定められてもよい。   Specifically, the toe image is reduced downward by a factor of 0.8 (or any other magnification, of course), and the leg image is enlarged to a position that contacts the reduced foot image. Yes. In this way, the lower end position of the foot image before reduction in the photographed image matches the lower end position of the reduced foot image, and the upper end position of the leg image before enlargement in the photograph image and the enlarged leg portion If the foot image is reduced and the leg image is enlarged so as to match the upper end position of the image, the continuity of the image of the user after the image transformation processing is maintained, and from the ankle to the toe of the user U Can be unnaturally long (photographed), and the legs of the users U1 and U2 can be shown long in a good style. Here, when the degree of reduction of the foot image (reduction ratio) is determined, the degree of enlargement of the leg image (enlargement ratio) is naturally determined as long as the size of the captured image does not change before and after image deformation. The size of the photographed image may be changed before and after the image deformation, and the enlargement ratio may be determined regardless of the reduction ratio.

なお、上記足先画像は、線分Pbを上辺、撮影画像の下端または足先位置を含むべき線分を下辺とする撮影画像の矩形領域部分であり、脚部画像は、線分Paを上辺、線分Pbを下辺とする撮影画像の矩形領域部分であるものとして説明したが、これらの矩形領域に含まれる(クロマキー処理によって抽出された)利用者画像部分であってもよい。撮影画像に対して上記画像変形処理を行った後にクロマキー処理を行う場合と、クロマキー処理後の利用者画像に対して上記画像変形処理を行う場合とで変わりはないからである。   The foot image is a rectangular region portion of the photographed image with the line segment Pb as the upper side and the lower end of the photographed image or the line segment that should include the foot tip position as the lower side, and the leg image has the line segment Pa as the upper side. Although described as being a rectangular area portion of the captured image with the line segment Pb as the lower side, it may be a user image portion (extracted by chroma key processing) included in these rectangular areas. This is because there is no difference between the case where the chroma key process is performed after the image deformation process is performed on the photographed image and the case where the image deformation process is performed on the user image after the chroma key process.

また前述したように、脚部画像は、利用者Uの膝近傍から足首近傍までを含むものでなくてもよいので、例えば一般的な利用者Uの腰近傍から足首近傍までを含む撮影画像部分が脚部画像であってもよい。この場合には、図11における線分Paの位置が(一般的な利用者の)膝位置(膝の高さ)ではなく、腰位置(腰の高さ)となる。そのため、一般的な利用者より相当に背が低い利用者(典型的には子供)や、しゃがんだ姿勢の利用者などが撮影対象に含まれている場合、上記画像変形処理により脚部画像を拡大すると違和感を生じる合成画像が生成されることがある。特に、線分Pa,Pbの間に利用者の顔部分が位置することにより、脚部画像に顔の像が含まれる場合、画像の拡大によって顔の形が変形してしまうため、特に違和感を生じることになる。   Further, as described above, the leg image does not have to include the vicinity of the user U's knees to the vicinity of the ankles, and therefore, for example, a captured image portion including the vicinity of the waist of the general user U to the vicinity of the ankles. May be a leg image. In this case, the position of the line segment Pa in FIG. 11 is not the knee position (knee height) (of the general user) but the waist position (waist height). For this reason, when a user who is considerably shorter than a general user (typically a child) or a user in a squatting position is included in the shooting target, the leg image is converted by the above image deformation process. When the image is enlarged, a composite image that produces a feeling of strangeness may be generated. In particular, when the face portion of the user is located between the line segments Pa and Pb, and the face image is included in the leg image, the shape of the face is deformed by the enlargement of the image, so that the user is particularly uncomfortable. Will occur.

そこで、ステップ180に示される脚バランス処理の第1の態様における変形例として、脚部画像に利用者Uの顔の像が含まれる場合には、脚部画像を下方向に一切拡大しないか、または拡大する程度(拡大率)を小さくする構成が考えられる。このように構成すれば、顔が変形するような違和感を解消または低減することができる。具体的には、第1の制御部70は、脚部画像である線分Pa,Pbの間の撮影画像中に、人物の顔の像が含まれているか否かを周知のパターン認識などの手法に基づく顔認識処理により判定し、当該顔認識処理によって顔の像が含まれていると判定されない場合には、上記第1の態様と同一の処理を行い、含まれていると判定される場合には、脚部画像を下方向に一切拡大しないか、または拡大率を小さく設定した後に拡大し、足首画像を縮小する。そうすれば、利用者Uの足首からつま先までが不自然に長く見える状態を解消しつつ、撮影画像に写る利用者の顔が変形するような違和感を解消または低減することができる。なお、上記顔認識には顔検出用LSIチップなどのハードウェアを使用してもよい。そうすればソフトウェア処理の場合よりも顔検出を高速化することができる。   Therefore, as a modification of the first aspect of the leg balance process shown in step 180, if the leg image includes an image of the face of the user U, the leg image is not enlarged at all downward, Or the structure which makes small the grade (magnification ratio) to enlarge can be considered. If comprised in this way, the uncomfortable feeling that a face deform | transforms can be eliminated or reduced. Specifically, the first control unit 70 uses a well-known pattern recognition or the like to determine whether or not a captured image between the line segments Pa and Pb that are leg images includes a human face image. If it is determined by face recognition processing based on the technique and it is not determined that a face image is included by the face recognition processing, the same processing as in the first aspect is performed and it is determined that it is included. In this case, the leg image is not enlarged at all in the downward direction, or is enlarged after setting the enlargement ratio to be small, and the ankle image is reduced. In this way, it is possible to eliminate or reduce the uncomfortable feeling that the user's face appears in the captured image is deformed while eliminating the state in which the ankle to toe of the user U looks unnaturally long. For the face recognition, hardware such as a face detection LSI chip may be used. Then, the face detection can be speeded up as compared with the case of software processing.

以上のような上記脚バランス処理の第1の態様における画像変形処理は、ステップS160における歪曲収差補正や、ステップS170におけるクロマキー合成処理を前提にするものではないため、これらの処理を省略してもよいし、これらの処理の間や前に行ってもよい。また、ステップS160における歪曲収差補正と同時に行う構成であってもよい。   Since the image deformation process in the first aspect of the leg balance process as described above is not based on the distortion aberration correction in step S160 or the chroma key composition process in step S170, these processes may be omitted. It may be performed during or before these processes. Moreover, the structure performed simultaneously with distortion aberration correction in step S160 may be sufficient.

さらにステップS170におけるクロマキー合成処理を画像変形処理と関連付け、このクロマキー合成処理により得られる利用者画像に基づき、利用者U1,U2の(実際の)足首位置および膝位置を検出する構成も考えられる。そうすれば、正確な足首位置および膝位置が得られるので、利用者Uの足首からつま先までが不自然に長く見える状態をより確実に解消でき、また利用者U1,U2の足をよりスタイル良く長く見せることができる。以下、上記利用者画像を利用した脚バランス処理の第2の態様について説明する。   Further, a configuration in which the chroma key composition process in step S170 is associated with the image deformation process and the (actual) ankle position and knee position of the users U1 and U2 are detected based on the user image obtained by the chroma key composition process is also conceivable. By doing so, an accurate ankle position and knee position can be obtained, so that it is possible to more reliably eliminate the state where the ankle to toe of the user U looks unnaturally long, and the legs of the users U1 and U2 can be improved in style. Can show long. Hereinafter, a second aspect of the leg balance process using the user image will be described.

<3.3.2 第2の処理態様>
この第2の処理態様では、上記第1の処理態様とは異なり、利用者画像に基づき、利用者U1,U2の実際の足首位置および膝位置を検出する。この足首位置および膝位置を検出する方法としては、周知のパターンマッチングに基づく画像認識手法など、様々な方法が考えられる。
<3.3.2 Second Processing Mode>
In the second processing mode, unlike the first processing mode, the actual ankle position and knee position of the users U1 and U2 are detected based on the user image. As a method for detecting the ankle position and the knee position, various methods such as an image recognition method based on a well-known pattern matching can be considered.

例えば、各利用者に対応する利用者画像の上下方向の長さ(具体的には頭の上端から足先までの長さ)に基づき、足首位置および膝位置を算出してもよい。なぜなら、人間の足首位置および膝位置は、身長に対して所定の割合で定まる位置にあることが多いからである。   For example, the ankle position and the knee position may be calculated based on the vertical length of the user image corresponding to each user (specifically, the length from the upper end of the head to the toes). This is because the human ankle position and knee position are often located at a predetermined ratio with respect to height.

また、利用者画像の左右方向の幅から(典型的には最も幅が大きい位置で)腰の位置を検出し、当該腰の位置(および足先位置など)を上記上下方向の長さとともに判断対象とすることにより、足首位置および膝位置を算出してもよい。腰の位置から足の長さが定まることが多いからである。   In addition, the waist position is detected from the width in the left-right direction of the user image (typically at the position where the width is the largest), and the waist position (and the position of the toe, etc.) is determined together with the vertical length. By setting the target, the ankle position and the knee position may be calculated. This is because the length of the foot is often determined from the position of the waist.

さらに、利用者画像の形状を解析することにより、当該利用者画像のそれぞれの足部分に対応する画像における足先からの最初の屈曲位置を足首位置とし、二番目の屈曲位置を膝位置として検出してもよい。   Furthermore, by analyzing the shape of the user image, the first bending position from the toe in the image corresponding to each foot part of the user image is detected as the ankle position, and the second bending position is detected as the knee position. May be.

さらにまた、様々な姿勢をとる利用者を撮影することにより得られる数多くの利用者画像の画像パターンとその足首位置および膝位置とを対応付けて予め記憶しておき、上記クロマキー処理により得られる利用者画像とその形状が近似する画像パターンを検索し、当該画像パターンに対応する足首位置および膝位置を、本両者画像における足首位置および膝位置として検出してもよい。   Furthermore, the image patterns of many user images obtained by photographing users with various postures and their ankle positions and knee positions are stored in advance in association with each other, and the use obtained by the chroma key process is used. An image pattern that approximates the person image and its shape may be searched, and the ankle position and knee position corresponding to the image pattern may be detected as the ankle position and knee position in the both images.

以上のようにして足首位置および膝位置を検出すれば、上記第1の処理態様における線分Pa,Pbを設定することができるので、上記第1の処理態様と同様に画像変形処理を行うことにより、同様に利用者Uの足首からつま先までが不自然に長く見える状態を解消でき、利用者U1,U2の足をスタイル良く長く見せることができる。   If the ankle position and the knee position are detected as described above, the line segments Pa and Pb in the first processing mode can be set. Therefore, the image deformation processing is performed in the same manner as in the first processing mode. Accordingly, the state where the ankle to the toe of the user U appear to be unnaturally long can be solved, and the legs of the users U1 and U2 can be shown long in a good style.

なお、本第2の処理態様においても第1の処理態様と同様に、上記足先画像および脚部画像は、撮影画像の矩形領域部分である必要はなく、これらの矩形領域に含まれる(クロマキー処理によって抽出された)利用者画像部分であってもよい。   In the second processing mode, as in the first processing mode, the toe image and the leg image need not be a rectangular area portion of the captured image, and are included in these rectangular areas (chroma key). It may be a user image portion (extracted by processing).

また、第1の態様における変形例と同様に、脚部画像に利用者Uの顔の像が含まれる場合には、脚部画像を下方向に一切拡大しないか、または拡大する程度(拡大率)を小さくしてもよい。このように構成すれば、顔が変形するような違和感を解消または低減することができる。   Similarly to the modification in the first aspect, when the leg image includes an image of the face of the user U, the leg image is not enlarged at all or is not enlarged (magnification rate). ) May be reduced. If comprised in this way, the uncomfortable feeling that a face deform | transforms can be eliminated or reduced.

ここで、上記第2の処理態様では、利用者U1,U2の各足首位置および各膝位置は、それぞれ同一かまたはほぼ変わらない位置にあるものとして説明したが、これらが異なる場合には、全ての位置を平均化したり、最も異なる1つを除いて平均化したり、または代表的な1つの位置に基づいて決定するなど様々な手法などが考えられる。   Here, in the second processing mode, the ankle positions and the knee positions of the users U1 and U2 have been described as being at the same or substantially unchanged positions. Various methods are conceivable, such as averaging the positions of the two, averaging except the most different one, or determining based on one representative position.

もっとも、さらに正確な画像変形処理を行うためには、利用者U1,U2の各足首位置および各膝位置を個別に検出した上で、個別に(すなわち各利用者の片足ずつについて)画像変形処理を行う必要がある。そこでこのように個別の画像変形処理を行う、脚バランス処理の第3の態様について、図13および図14を参照して説明する。   However, in order to perform a more accurate image deformation process, the ankle position and the knee position of the users U1 and U2 are individually detected and then individually (that is, for each user's one leg). Need to do. Therefore, a third aspect of leg balance processing in which individual image deformation processing is performed in this way will be described with reference to FIGS. 13 and 14.

<3.3.3 第3の処理態様>
図13は、撮影画像における検出された各利用者の足首位置および膝位置と、対応する足先画像および脚部画像を示す図である。図中では、利用者U2の左足(図では右側の足)がややカメラ位置から後方(撮影室2の背面に近づく方向)に置かれており、その結果、利用者U2の左足の足首の位置(高さ)が利用者U1の両足首の位置および利用者U2の右足の足首の位置(高さ)とは異なっている。なお、このような違いは説明を簡単にするための例示であって、各利用者の各足首の位置および各膝の位置は、いずれか一箇所以上が異なっていればよく、実際には全て同一であってもよい。
<3.3.3 Third Processing Mode>
FIG. 13 is a diagram illustrating the detected ankle position and knee position of each user in the captured image, and the corresponding foot tip image and leg image. In the figure, the left foot (the right foot in the figure) of the user U2 is placed slightly behind the camera position (in the direction approaching the back of the photographing room 2), and as a result, the position of the ankle of the left foot of the user U2 (Height) is different from the position of both ankles of the user U1 and the position (height) of the ankle of the right foot of the user U2. In addition, such a difference is an example for simplifying the explanation, and the position of each ankle and the position of each knee of each user may be different at any one or more, and in fact all It may be the same.

また図中では、利用者U1,U2の膝位置(を含む線分の位置)はhaとして示され、利用者U1の両足首および利用者U2の右足の足首の位置(を含む線分の位置)はhbとして示され、利用者U2の左足の足首の位置(を含む線分の位置)はhdとして示されている。   Also, in the figure, the knee positions of user U1 and U2 (including the position of the line segment) are indicated as ha, and the position of the line segment including (including the position of both ankles of user U1 and the ankle of the right foot of user U2) ) Is shown as hb, and the position of the ankle of the left foot of the user U2 (including the position of the line segment) is shown as hd.

さらに、この第3の処理態様では、足先の位置も検出される構成であって、利用者U1の両足の足先および利用者U2の右足の足先の位置(を含む線分の位置)はhcとして示され、利用者U2の左足の足先の位置(を含む線分の位置)はheとして示されている。

Further, in the third processing mode, the positions of the toes are also detected, and the positions of the toes of both feet of the user U1 and the toes of the right foot of the user U2 (including the position of the line segment). Is indicated as hc, and the position (including the position of the line segment) of the tip of the left foot of the user U2 is indicated as he.

なお、足先の位置は利用者画像の各下端であるため容易に検出することができ、足首および膝の位置は、各種画像認識手法により検出することができることは前述したとおりである。   As described above, the position of the toe can be easily detected because it is at each lower end of the user image, and the positions of the ankle and knee can be detected by various image recognition methods.

ここで、クロマキー処理に基づき生成される利用者画像のうち、利用者U1の右足(図では左側の足)における脚部画像A11aは、膝位置haを上限とし足首位置hbを下限とする利用者画像部分であり、足先画像A11bは、足首位置hbを上限とし足先位置hcを下限とする利用者画像部分である。そして、足先画像A11bを足先位置hcに向かって下方向へ0.8倍に縮小するとともに、脚部画像A11aを縮小後の足先画像A11bと接するように足先位置hcに向かって下方向へ拡大する。   Here, among the user images generated based on the chroma key process, the leg image A11a on the right foot (left foot in the figure) of the user U1 is a user having the knee position ha as the upper limit and the ankle position hb as the lower limit. The toe image A11b is a user image part having an ankle position hb as an upper limit and a foot position hc as a lower limit. Then, the toe image A11b is reduced 0.8 times downward toward the toe position hc, and the leg image A11a is lowered toward the toe position hc so as to be in contact with the reduced toe image A11b. Magnify in the direction.

また、利用者U1の左足における脚部画像A12aおよび足先画像A12bと、利用者U2の右足における脚部画像A21aおよび足先画像A21bとについては、上記利用者U1の右足における脚部画像A11aおよび足先画像A11bと同一の足首位置および膝位置であるので、同一の拡大縮小処理が行われる。   Further, regarding the leg image A12a and the toe image A12b on the left foot of the user U1, and the leg image A21a and the toe image A21b on the right foot of the user U2, the leg image A11a on the right foot of the user U1 and Since the ankle position and knee position are the same as those of the foot tip image A11b, the same enlargement / reduction process is performed.

さらに、利用者U2の左足における脚部画像A22aは、膝位置haを上限とし足首位置hdを下限とする利用者画像部分であり、足先画像A22bは、足首位置hdを上限とし足先位置heを下限とする利用者画像部分である。この足首位置hdおよび足先位置heは、上記足首位置hbおよび足先位置hcとは異なるので、足先画像A22bを足先位置heに向かって下方向へ0.8倍に縮小するとともに、脚部画像A22aを縮小後の足先画像A22bと接するように足先位置heに向かって下方向へ拡大する。この画像変形処理における縮小率は他と同じであっても、(脚部画像A22aおよび足先画像A22bにおけるそれぞれ上下方向の長さが他と異なることにより)画像変形後の足首位置は、上記第1の処理態様による場合とは異なる。   Further, the leg image A22a on the left foot of the user U2 is a user image part with the knee position ha as the upper limit and the ankle position hd as the lower limit, and the foot image A22b has the ankle position hd as the upper limit and the foot position he. Is a user image portion with a lower limit of. Since the ankle position hd and the toe position he are different from the ankle position hb and the toe position hc, the toe image A22b is reduced 0.8 times downward toward the toe position he and The partial image A22a is expanded downward toward the foottip position he so as to contact the reduced foottip image A22b. Even if the reduction rate in this image deformation process is the same as the others, the ankle position after the image deformation is the above-mentioned position (because the vertical lengths of the leg image A22a and the toe image A22b are different from each other). This is different from the case of the first processing mode.

図14は、上記画像変形処理後の各利用者の足首位置および膝位置と、対応する足先画像および脚部画像を含む利用者画像を示す図である。図14に示されるように、上記画像変形後の利用者U1の両足首および利用者U2の右足首の位置は、ともに足首位置hfであるが、利用者U2の左足首の位置は、足首位置hgであり、各利用者の各足毎に正確に足首位置が検出され、個別に適切な画像変形処理がなされている。すなわち、或る足首の位置が他の足首の位置とは異なる場合に、一律に上記画像変形処理を行うと、当該足首を含む脚部画像または足先画像の変形が適切なものではなくなることがある。本第3の処理態様によれば、このような不都合を解消することができ、各足に対して漏れなくより確実に、利用者Uのその他の足首からつま先までが不自然に長く見える状態を適切に解消することができ、また利用者U1,U2の足をよりスタイル良く長く見せることができる。   FIG. 14 is a diagram illustrating a user image including an ankle position and a knee position of each user after the image deformation process and a corresponding foot image and leg image. As shown in FIG. 14, the positions of both ankles of the user U1 and the right ankle of the user U2 after the image deformation are both ankle positions hf, but the position of the left ankle of the user U2 is the ankle position. hg, the ankle position is accurately detected for each foot of each user, and appropriate image transformation processing is individually performed. That is, when the position of a certain ankle is different from the positions of other ankles, if the above-described image deformation process is performed uniformly, the deformation of the leg image or the toe image including the ankle may not be appropriate. is there. According to the third processing mode, such inconvenience can be solved, and a state in which the other ankle to toe of the user U looks unnaturally long without leaking more reliably to each foot. It can be solved appropriately, and the legs of the users U1 and U2 can be shown longer in a better style.

なお、ここでは説明の便宜のために、拡大または縮小の方向は下方向であるように説明したが、これは通常、立位姿勢の利用者の各足は、床に対して垂直に伸びるためである。したがって、利用者の足毎に伸びる方向(例えば脚部画像および足先画像に含まれる最も離れた2点を結ぶ線分に沿った方向等)を算出し、足毎に算出された伸びる方向へ上記画像変形処理における拡大および縮小を行う構成であってもよい。また、各足における脚部画像と足先画像とについて個別にそれぞれの伸びる方向を算出し、拡大または縮小を行う構成であってもよい。   Here, for convenience of explanation, the explanation has been made such that the direction of enlargement or reduction is downward, but this is usually because each leg of a user in a standing posture extends perpendicularly to the floor. It is. Therefore, a direction extending for each foot of the user (for example, a direction along a line segment connecting the two most distant points included in the leg image and the toe image) is calculated, and the direction extending for each foot is calculated. It may be configured to perform enlargement and reduction in the image deformation process. Moreover, the structure which calculates each extending direction separately about the leg part image and foot image in each leg | foot, and performs expansion or reduction may be sufficient.

また、以上では画像変形処理を各足において必ず行うものとして説明したが、例えば図15に示されるように足を大きく振り上げている場合など、足首から足先が床に対して平行またはほぼ平行になっていない場合(典型的には足先を床面から離して伸ばしている場合)、この足首からつま先までの足先画像に対して画像変形処理を行うと、かえって違和感を生じる場合も考えられる。   In the above description, it has been described that the image deformation process is always performed on each foot. However, for example, when the foot is swung up largely as shown in FIG. 15, the toes are parallel or substantially parallel to the floor. If it is not (typically when the toes are extended away from the floor surface), if image deformation processing is performed on the toe image from the ankle to the toes, it may be uncomfortable. .

図15は、図13に示す例とは異なる撮影画像における検出された各利用者の足首位置および膝位置と、対応する足先画像および脚部画像を示す図である。この図15に示されるように、利用者U1,U2の膝位置ha、利用者U1の両足首および利用者U2の右足の足首位置hbおよび足先位置hcは、図13に示される場合と同一であるが、利用者U2の左足の足首位置hiおよび足先位置hjは、図13に示される場合よりもさらに上方にあって足先を伸ばす形(すなわち膝から足先までがほぼ同一直線上にある形)となっている。   FIG. 15 is a diagram illustrating an ankle position and a knee position of each user detected in a captured image different from the example illustrated in FIG. 13, and a corresponding foot tip image and leg image. As shown in FIG. 15, knee positions ha of users U1 and U2, both ankles of user U1 and ankle positions hb and toe positions hc of the right foot of user U2 are the same as those shown in FIG. However, the ankle position hi and the toe position hj of the left foot of the user U2 are further upward than the case shown in FIG. 13 and extend the toes (that is, from the knee to the toes are almost on the same straight line). In the form).

したがって、各足毎に適切な方向に拡大および縮小を行う第2の処理態様における画像変形処理を各足に対して行う場合、実際に伸びているはずの利用者U2の左足における足先の画像が縮小されるため、かえって違和感を生じることがある。そこで、例えば、同一の利用者U(ここでは利用者U2)の他方の足(ここでは右足)における足首位置よりも、当該足(ここでは左足)の足先位置が上である場合、当該足先は通常は床面から離れているため、床面と平行でなく伸ばされているものとして、当該足における脚部画像および足先画像に対しては、上記画像変形処理を行わないようにする。   Therefore, when the image deformation process in the second processing mode in which enlargement and reduction are performed in an appropriate direction for each foot is performed on each foot, the image of the foot tip on the left foot of the user U2 that should actually be stretched Is reduced, which may cause a sense of incongruity. Therefore, for example, when the foot position of the foot (here, the left foot) is above the ankle position of the other foot (here, the right foot) of the same user U (here, the user U2), the foot Since the tip is usually away from the floor surface, it is assumed that the tip is not parallel to the floor surface and is stretched, so that the image deformation process is not performed on the leg image and the foot image on the foot. .

そうすれば、不自然に長く見えていない(すなわち実際に長く見えるべき)足首からつま先までを縮小することなく、利用者Uのその他の足首からつま先までが不自然に長く見える状態を適切に解消することができ、また利用者U1,U2の足をよりスタイル良く長く見せることができる。   In this way, the user U's other ankles to toes appear to be unnaturally long without shrinking from ankles to toes that do not look unnaturally long (ie, should actually look long). It is also possible to make the legs of the users U1 and U2 look longer in style.

<4.効果>
以上のように本実施形態によれば、足先画像は下方に縮小され、脚部画像は縮小された足先画像と接する位置まで拡大されるので、利用者の像の連続性を保ちつつ、撮影対象となる利用者の足部分が不自然に写らないように(不自然に長く見えないように)することができ、利用者の足をスタイル良く長く見せることができる。
<4. Effect>
As described above, according to the present embodiment, the foot image is reduced downward, and the leg image is enlarged to a position in contact with the reduced foot image, while maintaining the continuity of the user's image, It is possible to prevent the foot portion of the user to be photographed from appearing unnaturally (so as not to look unnaturally long), and to make the user's foot look long in style.

3…撮影ユニット
4…編集ユニット
5…出力ユニット
6…ネットワーク(LAN)
10…カメラ
20…撮影操作用タッチパネル
30…出力操作用タッチパネル
35…ネットワークプリンタ
31…非接触通信ポート(赤外線ポート)
32…スピーカ
49L1、49L2…左画面用タッチペン
49R1、49R2…右画面用タッチペン
70…第1の制御部
72…第1の表示・操作部(撮影操作用タッチパネル)
80…第2の制御部(GUI制御装置)
81、82…第2の表示・操作部(編集操作用タッチパネル)
90…第3の制御部
91…第3の表示・操作部(出力操作用タッチパネル)
92…印刷出力部(ネットワークプリンタ)
101…撮影範囲
110…背面
400…編集操作用タッチパネル
U、U1、U2 …利用者
3 ... Shooting unit 4 ... Editing unit 5 ... Output unit 6 ... Network (LAN)
DESCRIPTION OF SYMBOLS 10 ... Camera 20 ... Touch panel for photography operation 30 ... Touch panel for output operation 35 ... Network printer 31 ... Non-contact communication port (infrared port)
32 ... Speaker 49L1, 49L2 ... Left screen touch pen 49R1, 49R2 ... Right screen touch pen 70 ... First control unit 72 ... First display / operation unit (touch panel for photographing operation)
80 ... 2nd control part (GUI control apparatus)
81, 82: Second display / operation unit (touch panel for editing operation)
90 ... third control unit 91 ... third display / operation unit (touch panel for output operation)
92 ... Print output section (network printer)
101 ... shooting range 110 ... back surface 400 ... touch panel for editing operation U, U1, U2 ... user

Claims (7)

利用者を被写体として撮影する撮影手段と、
前記撮影手段によって撮影された撮影画像における前記被写体の足首から所定の上限位置までの範囲の像が鉛直方向に拡大するように、当該撮影画像に対して変形処理を行う変形処理手段と、
を備える撮影装置。
Photographing means for photographing a user as a subject;
As the image of the range to the upper limit position ankles or these predetermined the subject in the photographed image taken is expanded in the vertical direction by the imaging means, and deformation processing means for performing a modification process on the captured image,
An imaging device comprising:
前記変形処理手段は、前記撮影画像の左右方向に前記撮影画像の左端から右端までを結ぶ線分のうち、前記足首の位置を含む線分を下辺とし、前記上限位置を含む線分を上辺とする矩形領域である脚部画像を下方向に拡大することを特徴とする、請求項1に記載の撮影装置。 The deformation processing means uses a line segment including the ankle position as a lower side and a line segment including the upper limit position as an upper side among line segments connecting the left end and the right end of the captured image in the left-right direction of the captured image. The imaging device according to claim 1, wherein a leg image, which is a rectangular area, is enlarged downward. 前記変形処理手段は、前記被写体が複数である場合、前記被写体ごとに、当該被写体の状態に応じた変形処理を行うことを特徴とする、請求項1に記載の撮影装置。   The photographing apparatus according to claim 1, wherein when there are a plurality of subjects, the deformation processing unit performs deformation processing according to the state of the subject for each subject. 利用者を被写体として撮影する撮影手段と、Photographing means for photographing a user as a subject;
前記撮影手段によって撮影された撮影画像に対して、当該撮影画像に含まれる被写体の足を長く見せるための変形処理を行う変形処理手段と、Deformation processing means for performing a deformation process for making the subject's foot included in the captured image look longer with respect to the captured image captured by the imaging means;
を備え、With
前記変形処理手段は、前記撮影画像に含まれる被写体の足の曲がりの検出を行い、その検出結果に基づいて、前記撮影画像に対して前記変形処理を行うことを特徴とする、撮影装置。The photographing apparatus according to claim 1, wherein the deformation processing unit detects a bending of a foot of a subject included in the photographed image, and performs the deformation process on the photographed image based on the detection result.
利用者を被写体として撮影する撮影ステップと、
前記撮影ステップにおいて撮影された撮影画像における前記被写体の足首から所定の上限位置までの範囲の像が鉛直方向に拡大するように、当該撮影画像に対して変形処理を行う変形処理ステップと、
を備える撮影方法。
A shooting step for shooting a user as a subject;
As the image of the range to the upper limit position of the ankle or et predetermined the subject in the images picked up in the imaging step is enlarged in the vertical direction, and deformation processing step of performing deformation processing on the captured image,
A photographing method comprising:
コンピュータである撮影装置に、
利用者を被写体として撮影する撮影ステップと、
前記撮影ステップにおいて撮影された撮影画像における前記被写体の足首から所定の上限位置までの範囲の像が鉛直方向に拡大するように、当該撮影画像に対して変形処理を行う変形処理ステップとを実行させる、プログラム。
To the imaging device that is a computer,
A shooting step for shooting a user as a subject;
As the image of the range to the upper limit position of the ankle or et predetermined the subject in the images picked up in the imaging step is enlarged in the vertical direction, and deformation processing step of performing deformation processing on the captured image A program to be executed.
コンピュータに、On the computer,
人物を被写体として含む撮影画像に対して、当該撮影画像に含まれる被写体の足を長く見せるための変形処理を行う変形処理ステップ、A deformation processing step for performing a deformation process on a captured image including a person as a subject to make the subject's foot included in the captured image look longer;
を実行させ、And execute
前記変形処理ステップでは、前記撮影画像に含まれる被写体の足の曲がりの検出を行い、その検出結果に基づいて、前記撮影画像に対して前記変形処理を行うことを特徴とする、プログラム。In the deformation processing step, a bending of a foot of a subject included in the photographed image is detected, and the deformation process is performed on the photographed image based on the detection result.
JP2014255099A 2014-12-17 2014-12-17 Imaging apparatus, imaging method, and program thereof Active JP5983717B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014255099A JP5983717B2 (en) 2014-12-17 2014-12-17 Imaging apparatus, imaging method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014255099A JP5983717B2 (en) 2014-12-17 2014-12-17 Imaging apparatus, imaging method, and program thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011030894A Division JP5668514B2 (en) 2011-02-16 2011-02-16 Automatic photo creation device

Publications (2)

Publication Number Publication Date
JP2015100111A JP2015100111A (en) 2015-05-28
JP5983717B2 true JP5983717B2 (en) 2016-09-06

Family

ID=53376449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014255099A Active JP5983717B2 (en) 2014-12-17 2014-12-17 Imaging apparatus, imaging method, and program thereof

Country Status (1)

Country Link
JP (1) JP5983717B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6687839B2 (en) * 2016-03-18 2020-04-28 フリュー株式会社 Photo creation game machine and display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3608715B2 (en) * 1998-08-31 2005-01-12 日立ソフトウエアエンジニアリング株式会社 Image composition apparatus and image composition method
JP2002214688A (en) * 2001-01-17 2002-07-31 Make Softwear:Kk Photograph automatic vending machine
JP2009251633A (en) * 2008-04-01 2009-10-29 Seiko Epson Corp Image processor, image processing method and program
JP5131086B2 (en) * 2008-08-19 2013-01-30 辰巳電子工業株式会社 Automatic photo creation device, image processing device, image processing method, and image processing program
JP5397751B2 (en) * 2009-03-19 2014-01-22 株式会社ニコン Camera and image correction method

Also Published As

Publication number Publication date
JP2015100111A (en) 2015-05-28

Similar Documents

Publication Publication Date Title
JP5782873B2 (en) Game shooting device, game shooting method and program
JP2007240887A (en) Automatic photographing device and method thereof
JP5668514B2 (en) Automatic photo creation device
JP2018182469A (en) Photographic game machine, control method of photographic game machine, and control program of photographic game machine
JP5874421B2 (en) Game shooting device, game shooting method and program
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP5555924B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP5750961B2 (en) Game shooting device, game shooting method, and program
JP5983717B2 (en) Imaging apparatus, imaging method, and program thereof
JP3859693B1 (en) Automatic photography apparatus and method
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP6245529B2 (en) Game shooting device, game shooting method and program
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP6614386B2 (en) Image processing apparatus, image processing method, and program
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP7074994B2 (en) Photographing game console and image processing method
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP6090369B2 (en) Game shooting device, game shooting method and program
JP2005236888A (en) Photograph seal vending machine, and picture editing method
JP5998344B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP5967283B2 (en) Photo shooting game machine, its control method and control program
JP6614374B2 (en) Photography game machine, control method and program
JP2013003412A (en) Automatic photograph creation device, automatic photograph creation method and program
JP5887752B2 (en) Photography game device, photography game method, and photography game program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R150 Certificate of patent or registration of utility model

Ref document number: 5983717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250