JP2014002445A - Image process device, method and program - Google Patents

Image process device, method and program Download PDF

Info

Publication number
JP2014002445A
JP2014002445A JP2012135651A JP2012135651A JP2014002445A JP 2014002445 A JP2014002445 A JP 2014002445A JP 2012135651 A JP2012135651 A JP 2012135651A JP 2012135651 A JP2012135651 A JP 2012135651A JP 2014002445 A JP2014002445 A JP 2014002445A
Authority
JP
Japan
Prior art keywords
area
image
subject
region
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012135651A
Other languages
Japanese (ja)
Other versions
JP5582171B2 (en
Inventor
真吾 ▲浜▼口
Shingo Hamaguchi
Junichi Kobayashi
潤一 小林
Akiko Tsuji
亜季子 辻
Takaaki Ito
隆彰 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2012135651A priority Critical patent/JP5582171B2/en
Publication of JP2014002445A publication Critical patent/JP2014002445A/en
Application granted granted Critical
Publication of JP5582171B2 publication Critical patent/JP5582171B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a highly satisfactory image for a user.SOLUTION: An image process device comprises: a photographing image acquisition part that acquires a photographing image captured by photographing a subject as a user; a movement area setting part that sets a part of a subject area in the photographing image to a movement area in which the part thereof is caused to move in a direction toward an inner side of the subject area; and an area movement process part that moves an area set in the movement area in the direction toward the inner side of the subject area in the photographing image and outputs the photographing image in which the movement area is moved in the direction toward the inner side of the subject area. The present invention is applicable to, for example, a photographic seal preparation device capable of photographing an entire body of the subject.

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、利用者にとって満足度の高い画像を提供することができるようにする画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus and method, and a program, and more particularly, to an image processing apparatus and method, and a program capable of providing an image with a high degree of satisfaction for a user.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。   There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.

写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷して排出するという流れになる。   The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on a sticker sheet and discharged.

近年は、編集作業後、編集済み画像がシール紙に印刷されるまでの待ち時間に行われる事後接客において、シール紙に印刷される撮影画像や編集済み画像をサーバに送信・保存し、利用者が所有する携帯端末からそのサーバにアクセスし、保存された画像を取得することで、利用者は、携帯端末上で、撮影画像や編集済み画像を利用することができるようになっている。   In recent years, after editing work, during the waiting time until the edited image is printed on the sticker paper, the photographed image or edited image to be printed on the sticker paper is transmitted and stored to the server at the customer service. By accessing the server from the mobile terminal owned by the user and acquiring the stored image, the user can use the captured image or the edited image on the mobile terminal.

このような一連のゲームの流れの中で、利用者に提供される画像における被写体の見栄えを良くするために、撮影画像に対して、様々な画像処理を行うことが提案されている。   In order to improve the appearance of the subject in the image provided to the user in such a series of game flows, it has been proposed to perform various image processing on the captured image.

例えば、撮影画像を一定間隔で格子状に区切り、各格子内の部分画像の縦または横の拡大/縮小倍率を変えて合成することにより、被写体の体型を補正するようにした写真シール機がある(例えば、特許文献1参照)。   For example, there is a photo sticker that corrects the body shape of a subject by dividing a photographed image into a grid at regular intervals and combining the partial images in each grid by changing the vertical or horizontal enlargement / reduction magnification. (For example, refer to Patent Document 1).

また、写真シール機以外の分野でも、入力画像における人物領域の面積を、入力画像上の被写体の体軸に対する法線方向に圧縮するとともに、入力画像における背景領域の面積を、法線方向に拡張することで、画像における人物の容姿をスリムにする技術が提案されている(例えば、特許文献2参照)。   Also in fields other than photo stickers, the area of the human area in the input image is compressed in the normal direction with respect to the body axis of the subject on the input image, and the area of the background area in the input image is expanded in the normal direction. Thus, a technique for slimming the appearance of a person in an image has been proposed (see, for example, Patent Document 2).

特開2000−267156号公報JP 2000-267156 A 特開2011−18199号公報JP 2011-18199 A

しかしながら、上述した特許文献1,2によれば、画像において被写体は全体的に細くなるものの、決して利用者が満足するバランスのとれた体型になるとは限らなかった。   However, according to Patent Documents 1 and 2 described above, although the subject is generally thin in the image, it is not always a well-balanced body shape that satisfies the user.

本発明は、このような状況に鑑みてなされたものであり、利用者にとってより満足度の高い画像を提供することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to provide an image with higher satisfaction for the user.

本発明の一側面の画像処理装置は、被写体を撮影して得られた撮影画像を取得する撮影画像取得手段と、前記撮影画像における被写体領域の少なくとも一部を、前記被写体領域の内側に向かう方向に移動させる移動領域に設定する移動領域設定手段と、前記撮影画像において、前記移動領域に設定された領域を、前記被写体領域の内側に向かう方向に移動する領域移動処理手段と、前記移動領域が前記被写体領域の内側に向かう方向に移動した前記撮影画像を出力する出力手段を備える。   An image processing apparatus according to an aspect of the present invention includes a captured image acquisition unit that acquires a captured image obtained by capturing a subject, and a direction in which at least a part of the subject region in the captured image is directed toward the inside of the subject region. A moving area setting means for setting a moving area to be moved, an area moving processing means for moving the area set as the moving area in the captured image in a direction toward the inside of the subject area, and the moving area. Output means for outputting the photographed image moved in a direction toward the inside of the subject area.

前記移動領域設定手段には、前記撮影画像における前記被写体領域の、前記背景領域との境界近傍の領域を、前記移動領域に設定させることができる。   The moving area setting means can set an area in the vicinity of the boundary between the subject area and the background area in the captured image as the moving area.

前記撮影画像に基づいて、前記撮影画像の前記被写体領域を透過させる被写体マスク画像を生成する被写体マスク画像生成手段と、前記被写体マスク画像に対してぼかし処理を施し、ぼかし被写体マスク画像を生成するぼかし処理手段と、前記ぼかし被写体マスク画像の画素値から、前記ぼかし被写体マスク画像の勾配画像を生成する勾配画像生成部とをさらに設け、前記移動領域設定部には、前記勾配画像において勾配のある領域に対応する前記撮影画像の領域の少なくとも一部を、前記移動領域に設定させることができる。   Based on the captured image, subject mask image generation means for generating a subject mask image that transmits the subject region of the captured image, and blur processing that performs a blurring process on the subject mask image to generate a blurred subject mask image A processing unit and a gradient image generation unit that generates a gradient image of the blurred subject mask image from the pixel value of the blurred subject mask image are further provided, and the moving region setting unit includes a region having a gradient in the gradient image. At least a part of the area of the captured image corresponding to can be set as the movement area.

前記移動領域設定手段には、前記撮影画像における前記被写体領域の略全ての領域を、前記移動領域に設定させることができる。   The movement area setting means can set almost all areas of the subject area in the captured image as the movement area.

前記撮影画像に基づいて、前記撮影画像の前記被写体領域以外の領域をマスクする被写体マスク画像を生成する被写体マスク画像生成手段と、前記被写体マスク画像に対して距離変換処理を施し、距離変換画像を生成する距離変換画像生成手段と、前記距離変換画像の画素値から、前記距離変換画像の勾配画像を生成する勾配画像生成手段とをさらに設け、前記移動領域設定手段には、前記勾配画像において勾配のある領域に対応する前記撮影画像の領域の少なくとも一部を、前記移動領域に設定させることができる。距離変換処理によれば、被写体領域において背景領域から距離の遠い部分、すなわち骨格が抽出され、その骨格に向かって被写体領域の略全ての領域が移動されるので、撮影画像において、被写体の骨格を保ちつつ、被写体を全体的に細くすることが可能となる。   Based on the captured image, subject mask image generation means for generating a subject mask image that masks an area other than the subject area of the captured image, and a distance conversion process is performed on the subject mask image, and a distance converted image is obtained. Distance conversion image generation means for generating, and gradient image generation means for generating a gradient image of the distance conversion image from the pixel values of the distance conversion image are further provided, and the moving region setting means includes a gradient in the gradient image. At least a part of the area of the captured image corresponding to a certain area can be set as the movement area. According to the distance conversion process, a portion of the subject area that is far from the background region, that is, a skeleton is extracted, and almost all the region of the subject area is moved toward the skeleton. It is possible to make the subject as a whole thin while maintaining it.

前記撮影画像に基づいて、前記撮影画像の前記被写体領域の顔領域をマスクする顔マスク画像を生成する顔マスク画像生成手段をさらに設け、前記移動領域設定手段には、前記顔マスク画像に基づいて、前記被写体領域のうちの顔を除いた前記所定の領域を、前記移動領域に設定させることができる。   Further provided is a face mask image generating means for generating a face mask image for masking a face area of the subject area of the photographed image based on the photographed image, and the moving area setting means is based on the face mask image. The predetermined area excluding the face in the subject area can be set as the moving area.

前記移動領域設定手段には、前記撮影画像における前記被写体領域の下半身の領域を、前記移動領域に設定させることができる。   The movement area setting means can set a lower body area of the subject area in the captured image as the movement area.

前記撮影画像に基づいて、前記撮影画像の前記被写体領域以外の領域をマスクする被写体マスク画像を生成する被写体マスク画像生成手段と、前記被写体マスク画像から、前記被写体領域の重心位置を算出する重心算出手段と、前記撮影画像の、前記重心位置から前記被写体領域の足に向かって所定幅の帯領域を設定した帯領域マスク画像を生成する帯領域マスク画像生成手段とをさらに設け、前記移動領域設定手段には、前記帯領域マスク画像において前記帯領域に対応する前記撮影画像の領域の少なくとも一部を、前記移動領域に設定させることができる。   Based on the captured image, subject mask image generating means for generating a subject mask image for masking an area other than the subject area of the captured image, and calculating the center of gravity of the subject area from the subject mask image Means for generating a band area mask image in which a band area of a predetermined width is set from the position of the center of gravity of the photographed image toward the foot of the subject area, and the moving area setting is provided. The means can set at least a part of the area of the photographed image corresponding to the band area in the band area mask image as the moving area.

前記領域移動処理手段には、前記撮影画像において、前記移動領域に設定された領域を、前記被写体の内側に向かう方向に移動するとともに、前記移動領域に設定された領域より内側にある領域を前記移動領域の移動方向に縮小し、前記移動領域に設定された領域より外側にある領域を前記移動領域の移動方向に拡大させることができる。   In the captured image, the area movement processing means moves the area set as the moving area in a direction toward the inside of the subject, and sets an area inside the area set as the moving area to the inside. The moving area can be reduced in the moving direction, and an area outside the area set as the moving area can be enlarged in the moving direction of the moving area.

本発明の一側面の画像処理方法は、前記画像処理装置が、被写体を撮影して得られた撮影画像を取得し、前記撮影画像における被写体領域の少なくとも一部を、前記被写体領域の内側に向かう方向に移動させる移動領域に設定し、前記撮影画像において、前記移動領域に設定された領域を、前記被写体領域の内側に向かう方向に移動し、前記移動領域が前記被写体領域の内側に向かう方向に移動した前記撮影画像を出力するステップを含む。   In the image processing method according to one aspect of the present invention, the image processing apparatus acquires a captured image obtained by capturing a subject, and at least a part of the subject region in the captured image is directed toward the inside of the subject region. A moving area to be moved in the direction, and in the captured image, the area set as the moving area is moved in a direction toward the inside of the subject area, and the moving area is in a direction toward the inside of the subject area. Outputting the moved photographed image.

本発明の一側面のプログラムは、コンピュータに、被写体を撮影して得られた撮影画像を取得し、前記撮影画像における被写体領域の少なくとも一部を、前記被写体領域の内側に向かう方向に移動させる移動領域に設定し、前記撮影画像において、前記移動領域に設定された領域を、前記被写体領域の内側に向かう方向に移動し、前記移動領域が前記被写体領域の内側に向かう方向に移動した前記撮影画像を出力するステップを含む処理を実行させる。   A program according to an aspect of the present invention is a program that causes a computer to acquire a captured image obtained by capturing a subject, and to move at least a part of the subject region in the captured image in a direction toward the inside of the subject region. The captured image in which the region set as the moving region is moved in the direction toward the inside of the subject region, and the moving region is moved in the direction toward the inside of the subject region. The process including the step of outputting is executed.

本発明の一側面においては、被写体を撮影して得られた撮影画像が取得され、撮影画像における被写体領域の少なくとも一部が、被写体領域の内側に向かう方向に移動させる移動領域に設定され、撮影画像において、移動領域に設定された領域が、被写体領域の内側に向かう方向に移動され、移動領域が被写体領域の内側に向かう方向に移動した撮影画像が出力される。   In one aspect of the present invention, a photographed image obtained by photographing a subject is acquired, and at least a part of the subject region in the photographed image is set as a moving region that moves in a direction toward the inside of the subject region. In the image, the region set as the moving region is moved in the direction toward the inside of the subject region, and a captured image in which the moving region is moved in the direction toward the inside of the subject region is output.

本発明によれば、利用者にとってより満足度の高い画像を提供することが可能となる。   According to the present invention, it is possible to provide an image with higher satisfaction for the user.

本発明の一実施の形態に係る写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photograph sticker production apparatus which concerns on one embodiment of this invention. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集部の構成例を示す図である。It is a figure which shows the structural example of an edit part. 事後接客部の構成例を示す図である。It is a figure which shows the structural example of a customer service part after the fact. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of a control part. 写真シール作成ゲーム処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of photograph sticker creation game processing. 画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of an image processing apparatus. 被写体痩身処理について説明するフローチャートである。It is a flowchart explaining a subject slimming process. 図12の被写体痩身処理において生成される画像について説明する図である。It is a figure explaining the image produced | generated in the subject slimming process of FIG. 顔マスク画像生成処理について説明するフローチャートである。It is a flowchart explaining a face mask image generation process. 顔マスク画像の生成について説明する図である。It is a figure explaining the production | generation of a face mask image. 顔マスク画像が乗算された勾配画像を示す図である。It is a figure which shows the gradient image by which the face mask image was multiplied. 領域移動処理について説明する図である。It is a figure explaining area movement processing. 領域移動処理の詳細について説明する図である。It is a figure explaining the detail of an area | region movement process. 被写体痩身処理の結果を示す図である。It is a figure which shows the result of a subject slimming process. 画像処理装置の他の機能構成例を示すブロック図である。It is a block diagram which shows the other function structural example of an image processing apparatus. 被写体脚長処理について説明するフローチャートである。It is a flowchart explaining a subject leg length process. 被写体マスク画像の重心位置の算出について説明する図である。It is a figure explaining calculation of the gravity center position of a photographic subject mask image. 帯領域マスク画像の生成について説明する図である。It is a figure explaining the production | generation of a belt area | region mask image. 被写体脚長処理の結果を示す図である。It is a figure which shows the result of a subject leg length process. 画像処理装置のさらに他の機能構成例を示すブロック図である。It is a block diagram which shows the further another function structural example of an image processing apparatus. 被写体痩身処理について説明するフローチャートである。It is a flowchart explaining a subject slimming process. 図26の被写体痩身処理において生成される画像について説明する図である。It is a figure explaining the image produced | generated in the subject slimming process of FIG. 顔マスク画像が乗算された勾配画像を示す図である。It is a figure which shows the gradient image by which the face mask image was multiplied. 被写体痩身処理の結果を示す図である。It is a figure which shows the result of a subject slimming process.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

[写真シール作成装置の外観構成]
図1は、画像生成装置としての写真シール作成装置1の外観の構成例を示す斜視図である。
[External structure of photo sticker creation device]
FIG. 1 is a perspective view showing a configuration example of the appearance of a photo sticker creating apparatus 1 as an image generating apparatus.

写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるし、複数人であることもある。   The photo sticker creating apparatus 1 is a game machine that allows a user to perform operations such as shooting and editing as a game and receives a price from the user instead of providing a shot image or an edited image. The photo sticker creating apparatus 1 is installed in a store such as a game center. There may be one user or a plurality of users.

写真シール作成装置1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した編集対象の画像に対して、背景や前景の画像となる合成用画像や手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。   A user who plays in the game provided by the photo sticker creating apparatus 1 pays the price, takes a picture of himself as a subject, and selects an image to be edited selected from the shot images obtained by shooting. Editing is performed using an editing function for synthesizing a background image or foreground image, a handwritten line drawing, or a stamp image, thereby making the photographed image rich and colorful. The user receives the sticker sheet on which the edited image is printed and ends the series of games.

図1に示すように、写真シール作成装置1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。   As shown in FIG. 1, the photo sticker creating apparatus 1 mainly includes a photographing unit 11, an editing unit 12, and a subsequent customer service unit 13. The photographing unit 11 and the editing unit 12 are installed in contact with each other, and the editing unit 12 and the subsequent customer service unit 13 are installed in contact with each other.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影処理が行われる。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The photographing unit 21 and the background unit 22 are installed with a predetermined distance apart, and photographing processing is performed in a photographing space that is a space formed between the photographing unit 21 and the background unit 22.

撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に臨む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42Bにより構成される。   The photographing unit 21 is a device that allows a user to perform photographing processing. The photographing unit 21 enters the photographing space and is located in front of the user who is performing the photographing process. The front panel 41 of the photographing unit 21 that constitutes a surface facing the photographing space in front is provided with a touch panel monitor used by the user during photographing processing. When the left side is the left side and the right side is the right side as viewed from the user in the imaging space, the left side of the imaging unit 21 is configured by the side panel 42A, and the right side is configured by the side panel 42B.

背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bより横幅の狭い板状の部材である側面パネル52B(図示せず)から構成される。   The background unit 22 is attached to the left end of the rear panel 51 and the rear panel 51, which are plate-like members positioned on the rear side of the user who is performing the photographing process facing the front, and is a plate having a narrower width than the side panel 42A. The side panel 52A (not shown) is a plate-like member that is attached to the right end of the rear panel 51 and is narrower than the side panel 42B.

撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって連結される。   The side panel 42A constituting the left side surface of the photographing unit 21 and the side panel 52A of the background unit 22 are provided on substantially the same plane, and their upper portions are connected by a connecting part 23A that is a plate-like member. Further, the side panel 42B constituting the right side surface of the photographing unit 21 and the side panel 52B of the background portion 22 are provided on substantially the same plane, and their upper portions are connected by a connecting portion 23B which is a plate-like member.

撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。図示されないが、撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。   An opening formed by being surrounded by the side panel 42 </ b> A of the photographing unit 21, the connecting part 23 </ b> A, and the side panel 52 </ b> A of the background part 22 becomes an entrance G <b> 1 of the photographing space. Although not shown, an opening formed by being surrounded by the side panel 42B of the photographing unit 21, the connecting part 23B, and the side panel 52B of the background 22 is also an entrance G2 of the photographing space.

背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Bに支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用される巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。   The background curtain unit 25 is provided above the background portion 22 so as to be supported by the back panel 51, the side panel 52A, and the side panel 52B. The background curtain unit 25 stores a plurality of winding-type background curtains having different colors or patterns and used for the background. The background curtain unit 25 operates in conjunction with photographing by a camera or the like provided in the photographing unit 21. At the time of photographing, for example, the curtain of the color selected by the user is lowered and the other curtains are wound up.

なお、背景カーテンユニット25に収納される背景カーテンとしては、複数枚のカーテンを1枚のクロマキ用のカーテンとして使用する昇降式カーテンを用意してもよい。また、クロマキ用のカーテンを予め撮影空間の背面となる背面パネル51に張り付けるとともに、合成用の背景画像を複数種類用意し、撮影処理や編集処理において、利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。   In addition, as a background curtain accommodated in the background curtain unit 25, you may prepare the raising / lowering curtain which uses several curtains as one curtain for curtains. In addition, a black curtain is pasted on the rear panel 51, which is the back of the shooting space, and a plurality of background images for synthesis are prepared, and the background image desired by the user is captured in the shooting process and editing process. It may be possible to synthesize it into parts.

撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the background curtain unit 25 is formed above the photographing space, and the ceiling strobe unit 24 covers the part of the opening. Provided. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. A fluorescent lamp is provided inside the strobe constituting the ceiling strobe unit 24, and also functions as illumination of the photographing space.

編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。   The editing unit 12 is a device that allows a user to perform editing processing, which is processing for editing an image obtained by shooting processing. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface thereof is in contact with the back surface of the front panel 41 of the photographing unit 21. The editing unit 12 is provided with a configuration such as a tablet built-in monitor used by the user during editing processing.

図1に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front-side configuration, the editing unit 12 is used for editing processing on the front side and the back side so that two sets of users can perform editing processing simultaneously. Each configuration is provided.

編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集処理に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。支持部73Aの上面にはカーテンレール26を支持する支持部75が設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図2)が設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and is composed of a surface 71 that is substantially parallel to the side panel 42A, and a slope 72 formed above the surface 71. The configuration used is provided on the slope 72. On the left side of the slope 72, a support portion 73A that has a columnar shape and supports one end of the lighting device 74 is provided. A support portion 75 that supports the curtain rail 26 is provided on the upper surface of the support portion 73A. A support portion 73 </ b> B (FIG. 2) that supports the other end of the lighting device 74 is also provided on the right side of the slope 72.

編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above is a U-shape. One end of the rails 26A and 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and both ends of the remaining one rail 26C are joined to the other end.

カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. The space in front of the editing unit 12 and the space in front of the back of the editing unit 12 surrounded by the curtain attached to the curtain rail 26 are editing spaces in which the user performs editing processing.

図2は、写真シール作成装置1を別の角度から見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 as seen from another angle.

事後接客部13は事後接客処理を利用者に行わせる装置である。事後接客処理には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する処理、ミニゲームを利用者に行わせる処理、アンケートに答えさせる処理などが含まれる。   The subsequent customer service unit 13 is a device that allows the user to perform the subsequent customer service process. Subsequent customer service processing includes processing for transmitting a photographed image or edited image to a mobile terminal such as a mobile phone, processing for allowing a user to play a mini game, processing for answering a questionnaire, and the like.

図2に示すように、事後接客部13は、所定の厚さを有する板状の筐体をその一部として有しており、残りの部分は編集部12の左側面と一体に設けられる。事後接客部13の正面には、事後接客処理時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者が事後接客処理を行う事後接客空間となる。   As shown in FIG. 2, the post-service unit 13 has a plate-shaped housing having a predetermined thickness as a part thereof, and the remaining part is provided integrally with the left side surface of the editing unit 12. On the front side of the post-service unit 13, there are provided a tablet built-in monitor used by the user at the time of post-service processing, a discharge port through which sticker paper on which a photographed image or an edited image is printed is discharged. The space in front of the front-end customer service unit 13 becomes a rear-end customer service space where a user waiting for printing on the sticker paper to perform post-service processing.

ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。   Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

写真シール作成装置1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理を行う。   The user of the photo sticker creating apparatus 1 is formed between the photographing part 21 and the background part 22 from the entrance G1 as indicated by the white arrow # 1 or from the entrance G2 as indicated by the white arrow # 2. The photographing space A1 is entered, and photographing processing is performed using a camera or a touch panel monitor provided in the photographing unit 21.

撮影処理を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。   The user who has finished the shooting process exits the shooting space A1 and moves to the editing space A2-1 using the doorway G1 as indicated by the white arrow # 3, or moves to the editing space A2-1 as indicated by the white arrow # 4. To leave the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is moved is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty space of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing processing. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing processing at the same time.

編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客処理を行う。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客処理を行う。   After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. During printing of the image, the user who has finished the editing process moves from the editing space A2-1 to the subsequent customer service space A3 as indicated by the white arrow # 5 if the editing process has been performed in the editing space A2-1. Then, the customer service is processed after the fact. In addition, when the editing process is completed in the editing space A2-2, the user who has finished the editing process moves from the editing space A2-2 to the post-service area A3 as indicated by the white arrow # 6. Post service processing is performed in the customer service space A3.

画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the post-service section 13 and finishes a series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

[撮影部の構成]
図4は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。
[Configuration of shooting section]
FIG. 4 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured by attaching a front panel 41, a side panel 42A, and a side panel 42B to a base unit 43 having a box shape.

正面パネル41は撮影空間A1で撮影処理を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影処理を行う利用者の左側、右側に位置する。   The front panel 41 is positioned in front of the user who performs the shooting process in the shooting space A1, and the side panel 42A and the side panel 42B are positioned on the left side and the right side of the user who performs the shooting process in the shooting space A1, respectively.

正面パネル41のほぼ中央には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、正面ストロボ92、およびタッチパネルモニタ93から構成される。   An imaging / display unit 81 is provided in the approximate center of the front panel 41. The photographing / display unit 81 includes a camera 91, a front strobe 92, and a touch panel monitor 93.

カメラ91は、CCD(Charge Coupled Device)などの撮像素子により構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像は、タッチパネルモニタ93にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。   The camera 91 is configured by an image sensor such as a CCD (Charge Coupled Device), and photographs a user in the photographing space A1. The moving image captured by the camera 91 is displayed on the touch panel monitor 93 in real time. An image captured by the camera 91 at a predetermined timing such as when a user gives an instruction to shoot is saved as a photographic image (still image).

カメラ91を囲むように発光面が設けられた正面ストロボ92は、他のストロボと同様にカメラ91による撮影に合わせて発光し、被写体としての利用者の顔付近を正面から照射する。   The front strobe 92 provided with a light emitting surface so as to surround the camera 91 emits light in accordance with the photographing by the camera 91 like other strobes, and irradiates the vicinity of the user's face as a subject from the front.

カメラ91の下側に設けられたタッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ93には、適宜、撮影結果としての静止画像や、背景等の画像が合成された後の動画像が表示される。   A touch panel monitor 93 provided on the lower side of the camera 91 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 93 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUI (Graphical User Interface) images and accepts a user's selection operation through the touch panel. ing. On the touch panel monitor 93, a still image as a photographing result and a moving image after an image such as a background is combined are displayed as appropriate.

正面パネル41には、撮影・表示ユニット81の位置を基準として、上方に上ストロボ82が設置される。また、左方に左ストロボ83が設置され、右方に右ストロボ84が設置される。   On the front panel 41, an upper strobe 82 is installed on the upper side with respect to the position of the photographing / display unit 81. A left strobe 83 is installed on the left side and a right strobe 84 is installed on the right side.

上ストロボ82は、利用者を上前方から照射する。左ストロボ83は、利用者を左前方から照射し、右ストロボ84は、利用者を右前方から照射する。   The upper strobe 82 irradiates the user from the upper front. The left strobe 83 irradiates the user from the left front, and the right strobe 84 irradiates the user from the right front.

ベース部43には利用者の足元を照射する足元ストロボ86も設けられる。上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ86の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光させる蛍光灯の数が調整されることによって、撮影空間A1内の明るさが、利用者が行っている撮影処理の内容に応じて適宜調整される。   The base unit 43 is also provided with a foot strobe 86 that irradiates the user's foot. Fluorescent lamps are provided inside the upper strobe 82, the left strobe 83, the right strobe 84, and the foot strobe 86, and together with the fluorescent lights inside the strobe constituting the ceiling strobe unit 24, the inside of the photographing space A1. Used as lighting. By adjusting the light emission amount of each fluorescent lamp, or by adjusting the number of fluorescent lamps to emit light, the brightness in the shooting space A1 depends on the content of the shooting process performed by the user. Adjust as appropriate.

足元ストロボ86の右側には、利用者がお金を投入する硬貨投入返却口87が設けられる。   On the right side of the foot strobe 86, a coin insertion / return port 87 through which a user inserts money is provided.

ベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影処理を行う利用者が手荷物等を置くための荷物置き場として用いられる。正面パネル41の例えば天井付近には、撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。   Spaces 43A and 43B formed on the left and right sides of the upper surface of the base portion 43 are used as a luggage storage place for a user who performs a photographing process to place baggage and the like. For example, near the ceiling of the front panel 41, a speaker for outputting sound such as guidance sound for shooting processing, BGM (Back Ground Music), and sound effects is also provided.

[背景部の構成]
図5は、背景部22の撮影空間A1側の構成例を示す図である。
[Configuration of the background]
FIG. 5 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。   As described above, the background curtain unit 25 is provided above the back panel 51. Near the center of the background curtain unit 25, a back center strobe 101 that irradiates a user who is performing a photographing process in the photographing space A1 from the rear center is attached.

背面パネル51の上方であって、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の上方であって、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。   A rear left strobe 102 that irradiates a user who is performing a photographing process in the photographing space A1 from the left rear is provided above the rear panel 51 and on the doorway G1 side. Further, a rear right strobe 103 that irradiates a user who is performing a photographing process in the photographing space A1 from the right rear is provided above the rear panel 51 and on the entrance / exit G2 side.

[編集部の構成]
図6は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。
[Configuration of editorial department]
FIG. 6 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided at substantially the center of the slope 72. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。   The tablet built-in monitor 131 is configured by superimposing a tablet capable of operation input using the touch pen 132A or 132B on a monitor such as an LCD. On the tablet built-in monitor 131, for example, an editing screen that is a screen used for editing a captured image selected as an image to be edited is displayed. When two people perform editing work simultaneously, the touch pen 132A is used by one user, and the touch pen 132B is used by the other user.

編集部12の左側には事後接客部13が設けられる。   On the left side of the editing unit 12, a post-service unit 13 is provided.

[事後接客部の構成]
図7は、事後接客部13の正面側の構成例を示す図である。
[Composition of the customer service department]
FIG. 7 is a diagram illustrating a configuration example of the front side of the post-service unit 13.

事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161は、利用者の指などによって操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、ミニゲームなどの事後接客処理に用いられる画面が表示される。   A monitor 161 with a built-in tablet is provided at the upper center of the post-service section 13. The tablet built-in monitor 161 is configured by superimposing a tablet capable of operation input with a user's finger or the like on a monitor such as an LCD. On the tablet built-in monitor 161, a screen used for post-service processing such as a mini game is displayed.

タブレット内蔵モニタ161の下にはスピーカ162が設けられ、スピーカ162の下にはシール紙排出口163が設けられる。   A speaker 162 is provided below the tablet built-in monitor 161, and a sticker paper discharge port 163 is provided below the speaker 162.

スピーカ162は、事後接客処理の案内音声、BGM、効果音等の音を出力する。   The speaker 162 outputs sound such as guidance voice, background music, and sound effects for the post-service processing.

シール紙排出口163には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。   In the sticker paper outlet 163, sticker paper on which an image created by the user of the editing space A2-1 is edited or printed by the user of the editing space A2-2 is edited. The sticker paper on which the created image is printed is discharged. A printer is provided inside the editing unit 12, and printing of images is performed by the printer.

[写真シール作成装置の内部構成]
次に、写真シール作成装置1の内部構成について説明する。図8は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
[Internal configuration of photo sticker creation device]
Next, the internal configuration of the photo sticker creating apparatus 1 will be described. FIG. 8 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The overlapping description will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、および事後接客部210の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in a ROM (Read Only Memory) 206 and a storage unit 202, and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. The control unit 201 is also connected with each configuration of the photographing unit 208, the editing unit 209, and the post-service unit 210.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 includes a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。   A communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 201.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. Computer programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、背景制御部222、照明装置223、カメラ91、タッチパネルモニタ93、およびスピーカ224から構成される。   The imaging unit 208 includes a coin processing unit 221, a background control unit 222, a lighting device 223, a camera 91, a touch panel monitor 93, and a speaker 224 that are configured to perform imaging processing in the imaging space A1.

硬貨処理部221は、硬貨投入返却口87に対する硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion / return port 87. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that to the control unit 201.

背景制御部222は、制御部201より供給される背景制御信号に従って背景カーテンユニット25に収納されている背景カーテンの上げ下ろしを行う。背景カーテンの選択が利用者により手動で行われるようにしてもよい。   The background control unit 222 raises and lowers the background curtain stored in the background curtain unit 25 according to the background control signal supplied from the control unit 201. The background curtain may be manually selected by the user.

照明装置223は、撮影空間A1内の各ストロボの内部に設けられる蛍光灯であり、制御部201より供給される照明制御信号に従って発光する。上述したように、撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21に設けられる上ストロボ82、左ストロボ83、右ストロボ84、足元ストロボ86と、背景部22に設けられる背面中央ストロボ101、背面左ストロボ102,背面右ストロボ103が設けられている。   The illumination device 223 is a fluorescent lamp provided inside each strobe in the imaging space A1, and emits light according to an illumination control signal supplied from the control unit 201. As described above, in the shooting space A 1, in addition to the strobe of the ceiling strobe unit 24, the upper strobe 82, the left strobe 83, the right strobe 84, the foot strobe 86 and the background unit 22 provided in the photographing unit 21 are provided. A back center strobe 101, a back left strobe 102, and a back right strobe 103 are provided.

また、照明装置223は、制御部201による制御に従って発光量を調整することによって、利用者が行っている撮影作業の段階に応じて撮影空間A1内の明るさを調整する。   Further, the lighting device 223 adjusts the brightness in the shooting space A1 according to the stage of the shooting work performed by the user by adjusting the light emission amount according to the control by the control unit 201.

カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。   The camera 91 shoots according to the control by the control unit 201 and outputs an image obtained by the shooting to the control unit 201.

編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。   The editing unit 209A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 231 provided on the front side of the editing unit 12 as a configuration for performing editing processing in the editing space A2-1. The editing unit 209B has the same configuration as the editing unit 209A, and performs editing processing in the editing space A2-2.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen according to control by the control unit 201, and detects a user operation on the editing screen. A signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、スピーカ162、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。   The subsequent customer service unit 210 includes a tablet built-in monitor 161 that is configured to perform the subsequent customer service in the subsequent customer service space A3, a speaker 162, a printer 241 that is configured to perform the printing process, and a sticker sheet unit 242.

プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口163に排出する。   The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the sticker paper unit 242 attached to the printer 241 and discharges it to the sticker paper discharge port 163.

[制御部の構成]
次に、制御部201について説明する。図9は、制御部201がROM206などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。
[Configuration of control unit]
Next, the control unit 201 will be described. FIG. 9 shows a configuration example of functional blocks realized by the control unit 201 executing a program stored in the ROM 206 or the like.

制御部201は、写真シール作成ゲームを開始する際に投入される代金に関する処理や利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部301、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部302、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部303、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部304を有する。   The control unit 201 performs a process related to a charge input when starting the photo sticker creation game and a process related to a photographing work process of the photo sticker creation game such as photographing a user group. An editing processing unit 302 that performs processing related to the editing work process of the photo sticker creation game such as graffiti editing, a printing processing unit 303 that performs processing related to the printing process of the photo sticker creation game such as printing of sticker paper, and editing work. A post-service processing unit 304 is provided for performing processing related to the post-service process of the photo sticker creation game that serves the finished user group.

つまり、制御部201は、写真シール作成ゲームの各工程に関する処理の制御を行う。   That is, the control unit 201 controls processing related to each process of the photo sticker creation game.

[写真シール作成装置の動作]
次に、図10のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の処理について説明する。
[Operation of photo sticker creation device]
Next, processing of the photo sticker creating apparatus 1 that provides a photo sticker creating game will be described with reference to the flowchart of FIG.

ステップS1において、写真シール作成装置1の撮影処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。   In step S1, the imaging processing unit 301 of the photo sticker creating apparatus 1 determines whether or not a predetermined amount of coins has been inserted based on a signal supplied from the coin processing unit 221 until it is determined that the coins have been inserted. stand by.

ステップS1において、硬貨が投入されたと判定された場合、ステップS2において、撮影処理部301は、撮影部208を制御し、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ93にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影する撮影処理を行う。撮影処理では、例えば、利用者の全身を撮影する全身撮影と、利用者の顔または上半身を撮影するアップ撮影とが行われる。   If it is determined in step S1 that a coin has been inserted, in step S2, the imaging processing unit 301 controls the imaging unit 208 to display a moving image of the subject captured by the camera 91 on the touch panel monitor 93 in a live view. Then, a photographing process for photographing a user in the photographing space A1 as a subject is performed. In the photographing process, for example, whole body photographing for photographing the whole body of the user and up photographing for photographing the user's face or upper body are performed.

ステップS3において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。   In step S3, the imaging processing unit 301 guides the user in the imaging space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a screen on the touch panel monitor 93 of the photographing unit 208 or by outputting sound from the speaker 224.

ステップS4において、編集処理部302は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御し、編集処理を行う。具体的には、編集処理部302は、編集対象画像として選択された撮影画像に合成する合成用画像を利用者に選択させ、選択された合成用画像を撮影画像に合成させ、得られた合成画像に対して、利用者による編集操作に従って編集を行う。   In step S4, the editing processing unit 302 controls the editing unit 209 corresponding to the editing space of the editing space A2-1 and the editing space A2-2 that is the destination of the user who has finished the shooting process, Edit processing. Specifically, the editing processing unit 302 causes the user to select a synthesis image to be synthesized with the captured image selected as the editing target image, synthesizes the selected synthesis image with the captured image, and obtains the obtained synthesis. The image is edited according to the editing operation by the user.

ステップS5において、編集処理部302は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。   In step S5, the editing processing unit 302 guides the user who has finished the editing process in the editing space A2-1 or the editing space A2-2 to move to the post-service space A3. The guidance of the movement to the post-service space A3 is performed by displaying a screen on the tablet built-in monitor 131 or by outputting sound from the speaker 231.

ステップS6において、印刷処理部303は、利用者により選択された画像をプリンタ241に出力してシール紙に印刷させる印刷処理を行う(開始する)。   In step S <b> 6, the print processing unit 303 performs (starts) a print process in which the image selected by the user is output to the printer 241 and printed on a sticker sheet.

また、タブレット内蔵モニタ161に表示される、事後接客処理の開始ボタンが選択されると、ステップS7において、事後接客処理部304は、印刷終了待機中の利用者に対する事後接客処理を行う。具体的には、事後接客処理部304は、撮影画像や編集済みの画像を携帯端末に送信する携帯送信ゲーム処理を事後接客処理として行い、携帯端末の電子メールアドレスを直接入力することで画像を携帯端末に送信するか、非接触型ICと通信することで画像を携帯端末に送信するかを利用者に選択させる送信方法の選択画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。   Further, when the post-service processing start button displayed on the tablet built-in monitor 161 is selected, in step S7, the post-service processing unit 304 performs post-service processing for a user who is waiting for completion of printing. Specifically, the post-service processing unit 304 performs a mobile transmission game process for transmitting a captured image or an edited image to the mobile terminal as the post-service processing, and directly inputs the e-mail address of the mobile terminal. Display on the tablet built-in monitor 161 a selection screen for a transmission method that allows a user to select whether to transmit an image to a portable terminal by transmitting to a portable terminal or by communicating with a non-contact type IC. The image is transmitted according to the operation by the user.

印刷が終了すると、ステップS8において、事後接客処理部304は、印刷が終了した旨をタブレット内蔵モニタ161に表示させ、プリンタ241は、画像が印刷されたシール紙をシール紙排出口163に排出し、処理を終了させる。   When printing is completed, in step S8, the customer service processing unit 304 displays that the printing is completed on the tablet built-in monitor 161, and the printer 241 discharges the sticker paper on which the image is printed to the sticker paper discharge port 163. The process is terminated.

また、写真シール作成装置1は、撮影画像に対して所定の画像処理を行うことによって、撮影画像における被写体の見栄えを良くすることができる。   In addition, the photo sticker creating apparatus 1 can improve the appearance of the subject in the captured image by performing predetermined image processing on the captured image.

[画像処理装置の機能構成例]
ここで、図11を参照して、撮影画像における被写体の見栄えを良くする画像処理を行う画像処理装置の機能構成例について説明する。図11の画像処理装置は、例えば、上述の写真シール機1の撮影処理部301において実現される。
[Functional configuration example of image processing apparatus]
Here, a functional configuration example of an image processing apparatus that performs image processing for improving the appearance of a subject in a captured image will be described with reference to FIG. The image processing apparatus shown in FIG. 11 is realized, for example, in the photographing processing unit 301 of the photographic sticker 1 described above.

図11の画像処理装置は、撮影画像取得部411、被写体マスク画像生成部412、ぼかし処理部413、勾配画像生成部414、顔マスク画像生成部415、移動領域設定部416、および領域移動処理部417から構成される。   The image processing apparatus in FIG. 11 includes a captured image acquisition unit 411, a subject mask image generation unit 412, a blur processing unit 413, a gradient image generation unit 414, a face mask image generation unit 415, a movement region setting unit 416, and a region movement processing unit. 417.

撮影画像取得部411は、カメラ91により撮影された画像である撮影画像を取得し、被写体マスク画像生成部412、顔マスク画像生成部415、および領域移動処理部417に供給する。   The captured image acquisition unit 411 acquires a captured image that is an image captured by the camera 91 and supplies the captured image to the subject mask image generation unit 412, the face mask image generation unit 415, and the region movement processing unit 417.

被写体マスク画像生成部412は、撮影画像取得部411から供給される撮影画像から、その撮影画像において被写体の領域である被写体領域と、被写体領域以外の背景の領域である背景領域とを分け、被写体領域の画素を白画素とし、背景領域の画素を黒画素とする2値化処理を施した被写体マスク画像を生成する。生成された被写体マスク画像は、ぼかし処理部413に供給される。被写体マスク画像生成部412が生成する被写体マスク画像は、被写体領域以外の領域、すなわち背景領域をマスクするマスク画像である。   The subject mask image generation unit 412 separates a subject region that is a subject region in the photographed image and a background region that is a background region other than the subject region from the photographed image supplied from the photographed image acquisition unit 411, A subject mask image is generated that has undergone binarization processing in which the pixels in the region are white pixels and the pixels in the background region are black pixels. The generated subject mask image is supplied to the blur processing unit 413. The subject mask image generated by the subject mask image generation unit 412 is a mask image that masks a region other than the subject region, that is, the background region.

ぼかし処理部413は、被写体マスク画像生成部412から供給される被写体マスク画像に対して、ぼかし効果のあるフィルタ処理を施し、その結果得られたぼかし被写体マスク画像を、勾配画像生成部414に供給する。   The blurring processing unit 413 performs a filtering process having a blurring effect on the subject mask image supplied from the subject mask image generating unit 412, and supplies the resulting blurred subject mask image to the gradient image generating unit 414. To do.

勾配画像生成部414は、ぼかし処理部413から供給されるぼかし被写体マスク画像の画素値から、勾配画像を生成し、移動領域設定部416に供給する。勾配画像は、所定の方向に対する、ぼかし被写体マスク画像の画素値の変化の度合を示す画像である。   The gradient image generation unit 414 generates a gradient image from the pixel value of the blurred subject mask image supplied from the blur processing unit 413 and supplies the gradient image to the movement region setting unit 416. The gradient image is an image indicating the degree of change in the pixel value of the blurred subject mask image with respect to a predetermined direction.

顔マスク画像生成部415は、撮影画像取得部411から供給される撮影画像から、その撮影画像において被写体の顔の領域である顔領域と、顔領域以外の領域とを分け、顔領域以外の領域の画素を白画素とし、顔領域の画素を黒画素とする2値化処理を施した顔マスク画像を生成する。生成された顔マスク画像は、移動領域設定部416に供給される。顔マスク画像生成部415が生成する顔マスク画像は、顔領域をマスクするマスク画像である。   The face mask image generation unit 415 divides a face area, which is the face area of the subject in the photographed image, from a photographed image supplied from the photographed image acquisition unit 411, and an area other than the face area. The face mask image is generated by performing binarization processing with the white pixels as white pixels and the pixels in the face area as black pixels. The generated face mask image is supplied to the movement area setting unit 416. The face mask image generated by the face mask image generation unit 415 is a mask image that masks the face area.

移動領域設定部416は、勾配画像生成部414から供給される勾配画像と、顔マスク画像生成部415から供給される顔マスク画像とに基づいて、撮影画像における被写体領域の少なくとも一部を、被写体領域の内側に向かう方向に移動させる移動領域に設定し、その移動領域を表す情報を、領域移動処理部417に供給する。   Based on the gradient image supplied from the gradient image generation unit 414 and the face mask image supplied from the face mask image generation unit 415, the movement area setting unit 416 converts at least a part of the subject area in the captured image to the subject. The movement area to be moved in the direction toward the inner side of the area is set, and information representing the movement area is supplied to the area movement processing unit 417.

領域移動処理部417は、移動領域設定部416から供給される情報に基づいて、撮影画像取得部411から供給される撮影画像において移動領域に設定された領域を、被写体の内側に向かう方向に所定の移動量だけ移動し、その結果をタッチパネルモニタ93に供給する。タッチパネルモニタ93は、領域移動処理部417から供給された画像を、撮影結果としての静止画像として出力(表示)する。出力された撮影画像は、編集処理部302による編集処理の対象となる。   Based on the information supplied from the movement area setting unit 416, the area movement processing unit 417 determines the area set as the movement area in the captured image supplied from the captured image acquisition unit 411 in a direction toward the inside of the subject. And the result is supplied to the touch panel monitor 93. The touch panel monitor 93 outputs (displays) the image supplied from the area movement processing unit 417 as a still image as a photographing result. The output captured image is a target of editing processing by the editing processing unit 302.

[被写体痩身処理について]
次に、図12のフローチャートを参照して、図11の画像処理装置によって実行される、撮影画像における被写体の見栄えを良くする被写体痩身処理について説明する。
[Subject slimming process]
Next, the subject slimming process for improving the appearance of the subject in the captured image, which is executed by the image processing apparatus in FIG. 11, will be described with reference to the flowchart in FIG.

ステップS11において、撮影画像取得部411は、カメラ91により撮影された画像である撮影画像を取得する。具体的には、背景カーテンユニット25に収納されている背景カーテンを背景として、その壁面の前に立っている人物を撮影した撮影画像が取得される。なお、取得される撮影画像は、全身撮影が行われることにより得られた全身画像とする。   In step S <b> 11, the captured image acquisition unit 411 acquires a captured image that is an image captured by the camera 91. Specifically, a photographed image obtained by photographing a person standing in front of the wall surface with the background curtain stored in the background curtain unit 25 as a background is acquired. Note that the acquired captured image is a whole body image obtained by performing whole body imaging.

ステップS12において、被写体マスク画像生成部412は、撮影画像取得部411により取得された撮影画像に対して、クロマキ処理や肌領域の検出処理などを行うことによって、撮影画像において被写体領域と背景領域とを分け、2値化処理を施した被写体マスク画像を生成する。   In step S <b> 12, the subject mask image generation unit 412 performs a chroma process, a skin region detection process, and the like on the captured image acquired by the captured image acquisition unit 411, so that the subject region and the background region are detected in the captured image. The subject mask image subjected to binarization processing is generated.

具体的には、図13の左から1番目に示されるような、背景画像等の合成用画像が合成されていない画像であって、背景の色がクロマキ用のカーテンの色である撮影画像431が、撮影画像取得部411により取得された場合、被写体マスク画像生成部412は、撮影画像431に対して、被写体領域の画素の画素値を(R,G,B)=(255,255,255)とし(すなわち、被写体領域の画素を白画素とし)、背景領域の画素の画素値を(R,G,B)=(0,0,0)とした(すなわち、背景領域の画素を黒画素とした)、図13の左から2番目に示される被写体マスク画像432を生成する。被写体マスク画像432において、被写体領域と背景領域との境界では、画素値の変化量は大きい。   Specifically, as shown first from the left in FIG. 13, a captured image 431 in which a synthesis image such as a background image is not synthesized, and the background color is the color of the curtain for chromach. Is acquired by the captured image acquisition unit 411, the subject mask image generation unit 412 sets the pixel value of the pixel in the subject region to (R, G, B) = (255,255,255) for the captured image 431 (ie, , Subject area pixel is white pixel), background area pixel value is (R, G, B) = (0,0,0) (that is, background area pixel is black pixel), A subject mask image 432 shown second from the left in FIG. 13 is generated. In the subject mask image 432, the amount of change in the pixel value is large at the boundary between the subject region and the background region.

ステップS13において、ぼかし処理部413は、例えば、ローパスフィルタ(Low Pass Filter)を用いて、被写体マスク画像生成部412から供給される被写体マスク画像432をぼかすぼかし処理を施す。その結果、図13の左から3番目に示されるぼかし被写体マスク画像433が得られ、勾配画像生成部414に供給される。図13のぼかし被写体マスク画像433において、被写体領域と背景領域との境界では、画素値の変化量が平滑化される。なお、このぼかし処理におけるぼかしの度合によって、後述する移動領域の幅を調整することができる。   In step S13, the blurring processing unit 413 performs blurring processing for blurring the subject mask image 432 supplied from the subject mask image generating unit 412 using, for example, a low-pass filter. As a result, a blurred subject mask image 433 shown third from the left in FIG. 13 is obtained and supplied to the gradient image generation unit 414. In the blurred subject mask image 433 in FIG. 13, the change amount of the pixel value is smoothed at the boundary between the subject region and the background region. Note that the width of the moving area, which will be described later, can be adjusted by the degree of blurring in this blurring process.

ステップS14において、勾配画像生成部414は、ぼかし処理部413から供給されるぼかし被写体マスク画像の画素値から、X方向(図13中、水平右方向)の勾配画像、および、Y方向(図13中、垂直下方向)の勾配画像を生成する。   In step S14, the gradient image generation unit 414 determines the gradient image in the X direction (horizontal right direction in FIG. 13) and the Y direction (FIG. 13) from the pixel value of the blurred subject mask image supplied from the blur processing unit 413. A gradient image in the middle and vertical direction is generated.

具体的には、まず、勾配画像生成部414は、ぼかし被写体マスク画像433において、例えば、画素値が(R,G,B)=(128,128,128)より小さい画素(すなわち、黒画素)の画素値を(R,G,B)=(128,128,128)として、ぼかし被写体マスク画像433の背景領域をグレーにする。次に、勾配画像生成部414は、例えば、Sobelフィルタを用いて、ぼかし被写体マスク画像433に対して、X方向に空間1次微分を施すことで、図13の左から4番目上段に示されるX方向勾配画像434Xを生成するとともに、Y方向に空間1次微分を施すことで、図13の左から4番目下段に示されるY方向勾配画像434Yを生成する。   Specifically, first, the gradient image generation unit 414 sets pixel values of pixels (that is, black pixels) whose pixel values are smaller than (R, G, B) = (128,128,128) in the blurred subject mask image 433, for example. As (R, G, B) = (128, 128, 128), the background area of the blurred subject mask image 433 is made gray. Next, the gradient image generation unit 414 performs spatial first-order differentiation in the X direction on the blurred subject mask image 433 using, for example, a Sobel filter, and is shown in the fourth upper stage from the left in FIG. An X-direction gradient image 434X is generated, and a spatial first-order differentiation is performed in the Y direction to generate a Y-direction gradient image 434Y shown in the fourth lower stage from the left in FIG.

図13のX方向勾配画像434Xにおいて、黒く示される領域(黒領域)は、ぼかし被写体マスク画像433において画素値のX方向に対する変化の傾き(勾配)が正である領域を示しており、白く示される領域(白領域)は、ぼかし被写体マスク画像433において画素値のX方向に対する変化の傾き(勾配)が負である領域を示している。   In the X-direction gradient image 434X in FIG. 13, a region (black region) shown in black indicates a region in which the gradient (gradient) of change in the pixel value with respect to the X direction is positive in the blurred subject mask image 433, and is shown in white. The region to be displayed (white region) indicates a region where the gradient (gradient) of the change in the pixel value with respect to the X direction in the blurred subject mask image 433 is negative.

また、図13のY方向勾配画像434Yにおいて、黒領域は、ぼかし被写体マスク画像433において画素値のY方向に対する変化の傾き(勾配)が正である領域を示しており、白領域は、ぼかし被写体マスク画像433において画素値のY方向に対する変化の傾き(勾配)が負である領域を示している。   In the Y-direction gradient image 434Y of FIG. 13, the black region indicates a region in which the gradient (gradient) of the change in the pixel value with respect to the Y direction is positive in the blurred subject mask image 433, and the white region indicates the blurred subject. In the mask image 433, an area in which the gradient (gradient) of the change of the pixel value with respect to the Y direction is negative is shown.

つまり、図13のX方向勾配画像434XおよびY方向勾配画像434Yにおいて、黒領域および白領域は、ぼかし被写体マスク画像433において画素値の勾配がある領域であり、それ以外の領域は、ぼかし被写体マスク画像433において画素値の勾配がない領域を示している。   That is, in the X-direction gradient image 434X and the Y-direction gradient image 434Y of FIG. 13, the black region and the white region are regions having a gradient of pixel values in the blurred subject mask image 433, and the other regions are the blurred subject mask. In the image 433, a region having no pixel value gradient is shown.

図12のフローチャートに戻り、ステップS15において、顔マスク画像生成部415は、顔マスク画像生成処理を実行し、顔マスク画像を生成する。   Returning to the flowchart of FIG. 12, in step S15, the face mask image generation unit 415 executes a face mask image generation process to generate a face mask image.

ここで、図14のフローチャートを参照して、顔マスク画像生成処理の詳細について説明する。   Here, the details of the face mask image generation processing will be described with reference to the flowchart of FIG.

ステップS31において、顔マスク画像生成部415は、撮影画像取得部411により取得された撮影画像に対して、顔認識処理を行う。   In step S <b> 31, the face mask image generation unit 415 performs face recognition processing on the captured image acquired by the captured image acquisition unit 411.

ステップS32において、顔マスク画像生成部415は、撮影画像に対する顔認識処理の結果に基づいて、撮影画像における被写体の顔領域をマスクする顔マスク画像を生成する。   In step S <b> 32, the face mask image generation unit 415 generates a face mask image that masks the face area of the subject in the photographed image based on the result of face recognition processing on the photographed image.

具体的には、図15の左から1番目に示されるように、撮影画像431に対して顔認証処理が行われ、その結果として、矩形の顔領域f1,f2が得られた場合、顔マスク画像生成部415は、顔領域f1,f2に内接する円(または楕円)を求め、図15の左から2番目に示されるような顔マスク画像451を生成する。顔マスク画像451においては、顔領域f1から顔マスクm1が設定され、顔領域f2から顔マスクm2が設定される。   Specifically, as shown first from the left in FIG. 15, when face authentication processing is performed on the captured image 431 and, as a result, rectangular face regions f1 and f2 are obtained, a face mask is obtained. The image generation unit 415 obtains a circle (or an ellipse) inscribed in the face regions f1 and f2, and generates a face mask image 451 as shown second from the left in FIG. In the face mask image 451, the face mask m1 is set from the face area f1, and the face mask m2 is set from the face area f2.

図14のフローチャートに戻り、ステップS33において、顔マスク画像生成部415は、例えば、ローパスフィルタを用いて、顔マスク画像451をぼかすぼかし処理を施す。その結果、図15の左から3番目に示される、顔マスクm1’,m2’にぼかし処理が施されたぼかし顔マスク画像452が得られ、移動領域設定部416に供給される。ステップS33の後、処理は、図12のフローチャートのステップS15に戻る。   Returning to the flowchart of FIG. 14, in step S <b> 33, the face mask image generation unit 415 performs a blurring process for blurring the face mask image 451 using, for example, a low-pass filter. As a result, a blurred face mask image 452 obtained by performing the blurring process on the face masks m1 ′ and m2 ′ shown third from the left in FIG. 15 is obtained and supplied to the moving region setting unit 416. After step S33, the process returns to step S15 in the flowchart of FIG.

ステップS16において、移動領域設定部416は、勾配画像生成部414から供給される勾配画像に、顔マスク画像生成部415から供給されるぼかし顔マスク画像を乗算する。その結果、図16の左側に示される、被写体の顔に対応する領域から黒領域および白領域が削除されたX方向勾配画像471Xと、図16の右側に示される、被写体の顔に対応する領域から黒領域および白領域が削除されたY方向勾配画像471Yとが得られる。   In step S <b> 16, the moving area setting unit 416 multiplies the gradient image supplied from the gradient image generation unit 414 by the blurred face mask image supplied from the face mask image generation unit 415. As a result, an X-direction gradient image 471X in which the black region and the white region are deleted from the region corresponding to the subject's face shown on the left side of FIG. 16, and the region corresponding to the subject's face shown on the right side of FIG. A Y-direction gradient image 471Y from which the black area and the white area are deleted is obtained.

ここで、撮影画像において、X方向勾配画像471XおよびY方向勾配画像471Yにおける黒領域および白領域に対応する領域は、被写体領域と背景領域との境界を含む領域となる。   Here, in the captured image, regions corresponding to the black region and the white region in the X-direction gradient image 471X and the Y-direction gradient image 471Y are regions including the boundary between the subject region and the background region.

このようにして得られるX方向勾配画像471XおよびY方向勾配画像471Yに基づいて、移動領域設定部416は、撮影画像において、黒領域および白領域の少なくとも一部に対応する領域、具体的には、被写体領域と背景領域との境界近傍の領域を、被写体領域の内側に向かう方向に移動させる移動領域に設定し、その移動領域を表す情報を、領域移動処理部417に供給する。ここで、被写体領域の内側に向かう方向とは、被写体領域において背景領域から離れる方向をいう。   Based on the X-direction gradient image 471X and the Y-direction gradient image 471Y obtained in this way, the moving area setting unit 416, in the captured image, an area corresponding to at least a part of the black area and the white area, specifically, Then, a region near the boundary between the subject region and the background region is set as a moving region that moves in the direction toward the inside of the subject region, and information representing the moving region is supplied to the region movement processing unit 417. Here, the direction toward the inside of the subject area refers to a direction away from the background area in the subject area.

ステップS17において、領域移動処理部417は、移動領域設定部416から供給される情報に基づいて、撮影画像において、勾配画像の黒領域および白領域に対応する領域の画像のうち、被写体領域と背景領域との境界近傍の領域の画像を、被写体の内側に向かう方向に所定の移動量だけ移動する。   In step S <b> 17, the area movement processing unit 417 determines, based on the information supplied from the movement area setting unit 416, the subject area and the background of the image corresponding to the black area and the white area of the gradient image in the captured image. An image in a region near the boundary with the region is moved by a predetermined movement amount in a direction toward the inside of the subject.

図17は、撮影画像において、X方向勾配画像471Xの黒領域の一部に対応する領域を示す図である。図17において、線aと線a’とで挟まれる領域が、X方向勾配画像471Xの黒領域の一部に対応する領域であり、線bは、撮影画像における被写体領域と背景領域との境界を示している。このように、撮影画像において、X方向勾配画像471Xの黒領域に対応する領域は、境界を挟んで、被写体側と背景側とに跨っている。   FIG. 17 is a diagram illustrating an area corresponding to a part of the black area of the X-direction gradient image 471X in the captured image. In FIG. 17, an area sandwiched between the line a and the line a ′ is an area corresponding to a part of the black area of the X-direction gradient image 471X, and the line b is the boundary between the subject area and the background area in the captured image. Is shown. Thus, in the captured image, the region corresponding to the black region of the X-direction gradient image 471X straddles the subject side and the background side across the boundary.

図17の例では、撮影画像において、線aと線a’とで挟まれる領域(黒領域に対応する領域)のうち、線b(被写体領域と背景領域との境界)近傍の領域が、移動領域に設定されており、領域移動処理部417は、移動領域の画像を、X方向(図17中、水平右方向)に移動する。   In the example of FIG. 17, in the captured image, an area in the vicinity of the line b (the boundary between the subject area and the background area) among the areas sandwiched between the line a and the line a ′ (area corresponding to the black area) is moved. The area movement processing unit 417 moves the image of the movement area in the X direction (horizontal right direction in FIG. 17).

続いて、ステップS18において、領域移動処理部417は、撮影画像において、勾配画像の黒領域および白領域に対応する領域の画像のうち、移動した領域の画像より外側の領域の画像を拡大し、移動した領域の画像より内側の領域の画像を縮小する。   Subsequently, in step S18, the region movement processing unit 417 enlarges the image of the region outside the image of the moved region among the images of the region corresponding to the black region and the white region of the gradient image in the captured image, The image in the area inside the image of the moved area is reduced.

すなわち、図17の例では、撮影画像において、線aと線a’とで挟まれる領域(黒領域に対応する領域)のうち、X方向(図17中、右方向)に移動した領域と線aとで挟まれる領域を、X方向(水平方向)に拡大し、X方向に移動した領域と線a’とで挟まれる領域を、X方向(水平方向)に縮小する。   That is, in the example of FIG. 17, in the captured image, an area and a line moved in the X direction (right direction in FIG. 17) among areas sandwiched between the line a and the line a ′ (area corresponding to the black area). A region sandwiched between a and a is expanded in the X direction (horizontal direction), and a region sandwiched between the region moved in the X direction and the line a ′ is contracted in the X direction (horizontal direction).

ここで、図18を参照して、図17で説明した領域の移動および拡大/縮小の処理について、より詳細に説明する。   Here, with reference to FIG. 18, the movement and enlargement / reduction processing of the area described in FIG. 17 will be described in more detail.

図18Aは、X方向勾配画像471Xによって移動領域に設定されている、線b(被写体領域と背景領域との境界)近傍の画素ブロックを表している。ここで、画素ブロックは、N×N個の画素の集まりであり、Nは任意の整数とする。図18では、X方向(水平方向)に並ぶ画素ブロックの1列に注目するものとする。すなわち、図18Aでは、線bを中心とした2の画素ブロックが、移動領域に設定されている。   FIG. 18A shows a pixel block in the vicinity of a line b (a boundary between the subject area and the background area) set as a movement area by the X-direction gradient image 471X. Here, the pixel block is a collection of N × N pixels, where N is an arbitrary integer. In FIG. 18, attention is paid to one column of pixel blocks arranged in the X direction (horizontal direction). That is, in FIG. 18A, two pixel blocks centered on the line b are set in the movement region.

図18Bは、移動領域に設定された画素ブロックの移動の様子を表している。図18Bでは、図18Aにおける移動領域の画素ブロックが、所定の移動量(例えば、3画素ブロック分)だけ、X方向(図中水平右方向)に移動されている。これにより、線b(被写体領域と背景領域との境界)が、図中右方向、すなわち被写体の内側に移動されることになる。   FIG. 18B shows a state of movement of the pixel block set in the movement area. In FIG. 18B, the pixel blocks in the movement region in FIG. 18A are moved in the X direction (horizontal right direction in the figure) by a predetermined movement amount (for example, three pixel blocks). As a result, the line b (the boundary between the subject region and the background region) is moved in the right direction in the drawing, that is, inside the subject.

図18Cは、移動領域以外の画素ブロックの拡大/縮小の様子を表している。図18Cでは、網かけで示される移動領域の画素ブロックより外側(図中左側)の画素ブロックが、X方向(水平方向)に拡大され、網かけで示される移動領域の画素ブロックより内側(図中右側)の画素ブロックが、X方向(水平方向)に縮小される。なお、拡大される画素ブロックについて、その拡大率は背景側(線a側)および移動領域の画素ブロック側(線b側)から離れる程ほど大きくなる。また、縮小される画素ブロックについて、その縮小率は被写体側(線a’側)および移動領域の画素ブロック側(線b側)から離れる程ほど大きくなる。   FIG. 18C shows a state of enlargement / reduction of pixel blocks other than the moving region. In FIG. 18C, the pixel block outside (left side in the figure) outside the pixel block in the moving area shown by shading is enlarged in the X direction (horizontal direction) and inside the pixel block in the moving area shown by shading (see FIG. 18C). The middle right pixel block is reduced in the X direction (horizontal direction). The enlargement ratio of the pixel block to be enlarged increases as the distance from the background side (line a side) and the pixel block side (line b side) of the moving region increases. Further, the reduction ratio of the pixel block to be reduced increases as the distance from the subject side (line a ′ side) and the pixel block side (line b side) of the moving region increases.

なお、図17および図18の例では、撮影画像において、X方向勾配画像471Xの黒領域に対応する領域の移動および拡大/縮小の処理について説明したが、X方向勾配画像471Xの白領域に対応する領域においては、移動領域の画素ブロックは、−X方向(水平左方向)に移動される。また、移動領域の画素ブロックより外側(右側)の画素ブロックは、X方向(水平方向)に拡大され、移動領域の画素ブロックより内側(左側)の画素ブロックは、X方向(水平方向)に縮小される。   In the example of FIGS. 17 and 18, the movement and enlargement / reduction processing of the region corresponding to the black region of the X-direction gradient image 471X in the captured image has been described. However, the processing corresponds to the white region of the X-direction gradient image 471X. In the area to be moved, the pixel block in the moving area is moved in the −X direction (horizontal left direction). Also, the pixel block outside (right side) of the pixel block in the moving area is enlarged in the X direction (horizontal direction), and the pixel block inside (left side) of the pixel block in the moving area is reduced in the X direction (horizontal direction). Is done.

さらに、Y方向勾配画像471Yの黒領域に対応する領域においては、移動領域の画素ブロックは、Y方向(垂直下方向)に移動される。また、移動領域の画素ブロックより外側(上側)の画素ブロックは、Y方向(垂直方向)に拡大され、移動領域の画素ブロックより内側(下側)の画素ブロックは、Y方向(垂直方向)に縮小される。   Further, in the area corresponding to the black area of the Y-direction gradient image 471Y, the pixel block in the moving area is moved in the Y direction (vertically downward). Further, the pixel block outside (upper) from the pixel block in the moving area is enlarged in the Y direction (vertical direction), and the pixel block inside (lower) from the pixel block in the moving area is expanded in the Y direction (vertical direction). Reduced.

また、Y方向勾配画像471Yの白領域に対応する領域においては、移動領域の画素ブロックは、−Y方向(垂直上方向)に移動される。また、移動領域の画素ブロックより外側(下側)の画素ブロックは、Y方向(垂直方向)に拡大され、移動領域の画素ブロックより内側(上側)の画素ブロックは、Y方向(垂直方向)に縮小される。   In the region corresponding to the white region of the Y-direction gradient image 471Y, the pixel block in the moving region is moved in the −Y direction (vertical upward direction). In addition, the pixel block outside (lower) the pixel block in the moving area is enlarged in the Y direction (vertical direction), and the pixel block inside (upper) from the pixel block in the moving area is expanded in the Y direction (vertical direction). Reduced.

このようにして、撮影画像431において、顔を除いた被写体の背景との境界部分が、被写体の内側に向かう方向(背景から離れる方向)に移動することで、図19に示されるような、被写体の身体がひとまわり小さく(細く)なった撮影画像491が、タッチパネルモニタ93に表示される。   In this way, in the captured image 431, the boundary portion of the subject excluding the face moves in the direction toward the inside of the subject (the direction away from the background), so that the subject as shown in FIG. A captured image 491 in which the body is slightly smaller (thinned) is displayed on the touch panel monitor 93.

なお、ステップS17における領域の移動の処理と、ステップS18における領域の拡大/縮小の処理とは、同時に(並列に)行われるようにしてもよい。   Note that the area movement process in step S17 and the area enlargement / reduction process in step S18 may be performed simultaneously (in parallel).

以上の処理によれば、撮影画像における顔を除いた被写体領域と背景領域との境界近傍の領域が、被写体領域の内側に向かう方向に移動されるようになるので、撮影画像において、顔を除いた被写体の身体がひとまわり小さく(細く)なる。これにより、顔が小さくなり過ぎたり、背が高くなり過ぎたりせず、華奢に見えてかわいさのある自然な全身画像が得られるようになり、利用者にとってより満足度の高い画像を提供することが可能となる。   According to the above processing, the area in the vicinity of the boundary between the subject area and the background area excluding the face in the photographed image is moved in the direction toward the inside of the subject area. The subject's body becomes smaller (thinner). This makes it possible to obtain a natural whole body image that looks cute and cute without making the face too small or too tall, and provides a more satisfying image for the user. It becomes possible.

以上においては、撮影画像において、被写体の身体をひとまわり小さくすることで、被写体の見栄えを良くするようにしたが、以下においては、被写体の脚を長くすることで、被写体の見栄えを良くするようにする例について説明する。   In the above, the subject's body is made smaller in the captured image to improve the appearance of the subject, but in the following, the subject's appearance is improved by making the subject's legs longer. An example will be described.

[画像処理装置の他の機能構成例]
図20は、被写体の脚を長くすることで、撮影画像における被写体の見栄えを良くする画像処理を行う画像処理装置の機能構成例を示している。
[Another functional configuration example of the image processing apparatus]
FIG. 20 shows an example of the functional configuration of an image processing apparatus that performs image processing for improving the appearance of a subject in a captured image by lengthening the leg of the subject.

図20の画像処理装置は、撮影画像取得部511、被写体マスク画像生成部512、重心算出部513、帯領域マスク画像生成部514、移動領域設定部515、および領域移動処理部516から構成される。   The image processing apparatus in FIG. 20 includes a captured image acquisition unit 511, a subject mask image generation unit 512, a center of gravity calculation unit 513, a band area mask image generation unit 514, a movement area setting unit 515, and an area movement processing unit 516. .

なお、図20の画像処理装置において、撮影画像取得部511および被写体マスク画像生成部512は、図11の画像処理装置における撮影画像取得部411および被写体マスク画像生成部412とそれぞれ同様の機能を有するので、その説明は省略する。   In the image processing apparatus of FIG. 20, the captured image acquisition unit 511 and the subject mask image generation unit 512 have the same functions as the captured image acquisition unit 411 and the subject mask image generation unit 412 in the image processing apparatus of FIG. Therefore, the description is omitted.

重心算出部513は、被写体マスク画像生成部512から供給される被写体マスク画像から、被写体領域の重心位置を算出し、その重心位置を表す位置情報(座標)を、帯領域マスク画像生成部514に供給する。   The center-of-gravity calculation unit 513 calculates the position of the center of gravity of the subject area from the subject mask image supplied from the subject mask image generation unit 512, and sends position information (coordinates) representing the position of the center of gravity to the band region mask image generation unit 514. Supply.

帯領域マスク画像生成部514は、重心算出部513から供給される位置情報を用いて、撮影画像において、被写体領域の重心位置から被写体領域の脚に向かって所定幅の帯領域を設定した帯領域マスク画像を生成し、移動領域設定部515に供給する。   The band area mask image generation unit 514 uses the position information supplied from the centroid calculation unit 513 to set a band area having a predetermined width from the centroid position of the subject area toward the leg of the subject area in the photographed image. A mask image is generated and supplied to the movement area setting unit 515.

移動領域設定部515は、帯領域マスク画像生成部514から供給される帯領域マスク画像に基づいて、撮影画像における被写体領域の少なくとも一部を、被写体領域の内側に向かう方向に移動させる移動領域に設定し、その移動領域を表す情報を、領域移動処理部516に供給する。   Based on the band area mask image supplied from the band area mask image generation unit 514, the movement area setting unit 515 is a movement area that moves at least a part of the subject area in the captured image in a direction toward the inside of the subject area. The information indicating the movement area is set and supplied to the area movement processing unit 516.

領域移動処理部516は、移動領域設定部515から供給される情報に基づいて、撮影画像取得部511から供給される撮影画像において移動領域に設定された領域を、被写体の内側に向かう方向に移動し、タッチパネルモニタ93に供給する。タッチパネルモニタ93は、領域移動処理部417から供給された画像を、撮影結果としての静止画像として出力(表示)する。   Based on the information supplied from the movement area setting unit 515, the area movement processing unit 516 moves the area set as the movement area in the captured image supplied from the captured image acquisition unit 511 in the direction toward the inside of the subject. And supplied to the touch panel monitor 93. The touch panel monitor 93 outputs (displays) the image supplied from the area movement processing unit 417 as a still image as a photographing result.

[被写体脚長処理について]
次に、図21のフローチャートを参照して、図20の画像処理装置によって実行される、撮影画像の被写体の見栄えを良くする被写体脚長処理について説明する。
[Subject leg length processing]
Next, the subject leg length process for improving the appearance of the subject of the captured image, which is executed by the image processing apparatus of FIG. 20, will be described with reference to the flowchart of FIG.

なお、図21のフローチャートにおけるステップS111,S112の処理は、図12のフローチャートにおけるステップS11,S12の処理と同様であるので、その説明は省略する。   Note that the processing of steps S111 and S112 in the flowchart of FIG. 21 is the same as the processing of steps S11 and S12 in the flowchart of FIG.

すなわち、ステップS113において、重心算出部513は、被写体マスク画像生成部512から供給される被写体マスク画像から、被写体領域の重心位置を算出し、その重心位置を表す位置情報(座標)を、帯領域マスク画像生成部514に供給する。   That is, in step S113, the center-of-gravity calculation unit 513 calculates the position of the center of gravity of the subject area from the subject mask image supplied from the subject mask image generation unit 512, and obtains position information (coordinates) representing the position of the center of gravity as the band region. This is supplied to the mask image generation unit 514.

具体的には、図22の左側に示されるような被写体マスク画像531が、被写体マスク画像生成部512により生成された場合、重心算出部513は、所定の計算式を用いて、図22の右側に示されるように、被写体マスク画像531の被写体領域(白画素の領域)の重心位置の座標g(gx,gy)を算出する。   Specifically, when the subject mask image 531 as shown on the left side of FIG. 22 is generated by the subject mask image generation unit 512, the centroid calculation unit 513 uses a predetermined calculation formula to calculate the right side of FIG. As shown in FIG. 4, the coordinates g (gx, gy) of the center of gravity of the subject area (white pixel area) of the subject mask image 531 are calculated.

なお、図22のように、被写体が複数人数である場合、被写体それぞれの被写体領域について重心位置を算出し、その平均を最終的な重心位置とする。また、重心位置は、Y方向(垂直方向)についてのみ算出されるようにしてもよい。   As shown in FIG. 22, when there are a plurality of subjects, the centroid position is calculated for each subject area of the subject, and the average is set as the final centroid position. Further, the barycentric position may be calculated only in the Y direction (vertical direction).

ステップS114において、帯領域マスク画像生成部514は、重心算出部513から供給される位置情報を用いて、撮影画像において、被写体領域の重心位置から被写体領域の脚に向かって所定幅の帯領域を設定した帯領域マスク画像を生成し、移動領域設定部515に供給する。   In step S114, the band area mask image generation unit 514 uses the position information supplied from the center of gravity calculation unit 513 to generate a band area having a predetermined width from the position of the center of gravity of the subject area toward the leg of the subject area. A set band area mask image is generated and supplied to the movement area setting unit 515.

具体的には、まず、帯領域マスク画像生成部514は、図23の左から1番目に示されるような、撮影画像と同サイズで黒領域のみの黒領域画像551を用意する。次に、帯領域マスク画像生成部514は、図23の左から2番目に示されるように、被写体マスク画像531の被写体領域の重心位置の座標g(gx,gy)を黒領域画像551上に設定し、座標g(gx,gy)から被写体領域の脚、すなわち、図中下側に向かって所定幅の帯領域(白領域)を設定した帯領域マスク画像552を生成する。帯領域マスク画像552において、帯領域(白領域)とその他の領域との境界では、画素値の変化量は大きい。   Specifically, first, the band area mask image generation unit 514 prepares a black area image 551 having the same size as the photographed image and only the black area as shown first from the left in FIG. Next, the band area mask image generation unit 514 puts the coordinates g (gx, gy) of the center of gravity of the subject area of the subject mask image 531 on the black area image 551 as shown in the second from the left in FIG. A band area mask image 552 is set, in which a band area (white area) having a predetermined width is set from the coordinates g (gx, gy) to the legs of the subject area, that is, the lower side in the figure. In the band area mask image 552, the amount of change in pixel value is large at the boundary between the band area (white area) and other areas.

ステップS115において、移動領域設定部515は、例えば、ローパスフィルタを用いて、帯領域マスク画像生成部514から供給される帯領域マスク画像552をぼかすぼかし処理を施す。さらに、移動領域設定部515は、ぼかし処理を施した帯領域マスク画像552において、例えば、画素値が(R,G,B)=(128,128,128)より小さい画素(すなわち、黒画素)の画素値を(R,G,B)=(128,128,128)として、ぼかし処理を施した帯領域マスク画像552の黒領域をグレーにする。その結果、図23の左から3番目に示されるぼかし帯領域マスク画像553が得られる。図23のぼかし帯領域マスク画像553において、帯領域(白領域)とその他の領域との境界では、画素値の変化量が平滑化される。なお、このぼかし処理におけるぼかしの度合によって、移動領域の幅を調整することができる。   In step S115, the moving area setting unit 515 performs a blurring process for blurring the band area mask image 552 supplied from the band area mask image generation unit 514 using, for example, a low-pass filter. Further, the moving area setting unit 515, for example, in the band area mask image 552 that has been subjected to the blurring process, sets the pixel value of a pixel (that is, a black pixel) whose pixel value is smaller than (R, G, B) = (128,128,128). As (R, G, B) = (128,128,128), the black region of the band region mask image 552 subjected to the blurring process is made gray. As a result, a blurred band region mask image 553 shown third from the left in FIG. 23 is obtained. In the blurred band region mask image 553 of FIG. 23, the amount of change in pixel value is smoothed at the boundary between the band region (white region) and other regions. Note that the width of the moving region can be adjusted according to the degree of blurring in this blurring process.

そして、移動領域設定部515は、撮影画像において、図23に示されるぼかし帯領域マスク画像553の破線aおよび破線a’で挟まれる、画素値が所定の値(例えば、(R,G,B)=(128,128,128))より大きい領域、すなわち一定の色より白に近い領域(以下、単に白領域という)の少なくとも一部に対応する領域、具体的には、被写体領域の下半身の領域を、被写体領域の内側に向かう方向に移動させる移動領域に設定し、その移動領域を表す情報を、領域移動処理部516に供給する。ここで、被写体領域の内側に向かう方向とは、被写体領域の重心位置に向かう方向をいう。   Then, the moving area setting unit 515 has a predetermined pixel value (for example, (R, G, B) sandwiched between the broken line a and the broken line a ′ of the blurred band area mask image 553 shown in FIG. ) = (128,128,128)) larger area, that is, an area corresponding to at least a part of an area closer to white than a certain color (hereinafter simply referred to as a white area), specifically, an area of the lower half of the subject area. A movement area to be moved in the direction toward the inside of the area is set, and information representing the movement area is supplied to the area movement processing unit 516. Here, the direction toward the inside of the subject area refers to the direction toward the center of gravity of the subject area.

ステップS116において、領域移動処理部516は、移動領域設定部515から供給される情報に基づいて、撮影画像において、ぼかし帯領域マスク画像の白領域に対応する領域の画像のうち、帯領域の中心線近傍の画像を被写体の上側に移動する。   In step S116, the area movement processing unit 516, based on the information supplied from the movement area setting unit 515, the center of the band area in the image corresponding to the white area of the blurred band area mask image in the captured image. Move the image near the line above the subject.

具体的には、図24の右側に示されるように、撮影画像431において、ぼかし帯領域マスク画像553の白領域に対応する破線aと破線a’とで挟まれる領域のうち、その領域のY方向の中心線b近傍の領域が、移動領域に設定されており、領域移動処理部516は、移動領域の画像を、−Y方向(図24中、垂直上方向)に移動する。   Specifically, as shown on the right side of FIG. 24, in the captured image 431, among the areas sandwiched between the broken line a and the broken line a ′ corresponding to the white area of the blurred band area mask image 553, The area near the direction center line b is set as a movement area, and the area movement processing unit 516 moves the image of the movement area in the −Y direction (vertical upward direction in FIG. 24).

続いて、ステップS117において、領域移動処理部516は、撮影画像において、ぼかし帯領域マスク画像の白領域に対応する領域の画像のうち、移動した領域の画像より下側の領域の画像を拡大し、移動した領域の画像より上側の領域の画像を縮小する。   Subsequently, in step S117, the region movement processing unit 516 enlarges the image of the region below the image of the moved region in the captured image in the region corresponding to the white region of the blurred band region mask image. The image in the region above the moved region image is reduced.

すなわち、図24の例では、撮影画像において、破線aと破線a’とで挟まれる領域(白領域に対応する領域)のうち、−Y方向(図24中、垂直上方向)に移動した領域と破線aとで挟まれる領域を、Y方向(垂直方向)に拡大し、−Y方向に移動された領域と破線a’とで挟まれる領域を、Y方向(垂直方向)に縮小する。   That is, in the example of FIG. 24, in the captured image, an area moved in the −Y direction (vertical upward direction in FIG. 24) among areas sandwiched between the broken line a and the broken line a ′ (area corresponding to the white area). And the area between the broken line a is expanded in the Y direction (vertical direction), and the area between the area moved in the −Y direction and the broken line a ′ is reduced in the Y direction (vertical direction).

なお、図24で説明した領域の移動および拡大/縮小の処理の詳細は、図18を参照して説明した処理と基本的に同様である。   The details of the area movement and enlargement / reduction processing described with reference to FIG. 24 are basically the same as the processing described with reference to FIG.

このようにして、撮影画像431において、被写体の腰から腿の部分が被写体の内側に向かう方向(上方向)に移動することで、図24に示されるような、被写体の脚が長く、かつ胴が短くなった撮影画像571が、タッチパネルモニタ93に表示される。   In this way, in the captured image 431, the leg of the subject moves in the direction (upward) from the waist to the inside of the subject (upward), so that the subject's legs are long and the torso as shown in FIG. A captured image 571 in which is shortened is displayed on the touch panel monitor 93.

以上の処理によれば、撮影画像における被写体領域の下半身、具体的には腰から腿の領域が、被写体領域の内側に向かう方向(上方向)に移動されるようになるので、撮影画像において、被写体の脚が長くかつ胴が短くなる。これにより、被写体のスタイルの良い全身画像が得られるようになり、利用者にとってより満足度の高い画像を提供することが可能となる。   According to the above process, the lower half of the subject area in the captured image, specifically, the waist to thigh area is moved in the direction toward the inside of the subject area (upward). The subject's legs are long and the torso is short. As a result, a full-body image with a good subject style can be obtained, and an image with a higher degree of satisfaction for the user can be provided.

なお、撮影画像に対して顔認識処理を施すことで、撮影画像において、ぼかし帯領域マスク画像553の白領域に対応する破線aと破線a’とで挟まれる領域に、被写体の顔が含まれる場合には、領域の移動および拡大/縮小の処理を行わないようにすることもできる。これにより、撮影時に、被写体である利用者が屈んでいる場合に、撮影画像において、被写体の顔が著しく変形してしまうことを避けることができる。   Note that, by performing face recognition processing on the captured image, the face of the subject is included in the captured image in a region sandwiched between the broken line a and the broken line a ′ corresponding to the white region of the blurred band region mask image 553. In some cases, it is possible not to perform the process of area movement and enlargement / reduction. Thereby, when a user who is a subject is bent at the time of photographing, it is possible to avoid the subject's face from being significantly deformed in the photographed image.

また、以上においては、被写体領域の腰から腿の領域に対して、領域の移動および拡大/縮小の処理が行われるようにしたが、被写体領域の足元(つま先近傍)の領域に対して、領域の移動および拡大/縮小の処理が行われるようにしてもよい。具体的には、被写体領域のつま先近傍の領域を移動領域として上側に移動させるとともに、移動領域より下側の領域を拡大させ、移動領域より上側の領域を縮小させる。これにより、被写体の足(靴)が小さくなった撮影画像が得られるようになる。   Further, in the above, the region movement and enlargement / reduction processing is performed on the waist to thigh region of the subject region, but the region of the subject region at the foot (near the toe) The movement and enlargement / reduction processing may be performed. Specifically, the area near the toe of the subject area is moved upward as a moving area, the area below the moving area is enlarged, and the area above the moving area is reduced. As a result, a captured image in which the foot (shoes) of the subject is small can be obtained.

また、被写体が2人等の複数人数の場合、それぞれの身長や立ち位置によって、Y方向(垂直方向)のつま先の位置が異なる場合があるので、それぞれの被写体の足の位置を検出するようにして、それぞれの足元が含まれるような、斜めの帯領域を設定した帯領域マスク画像が生成されるようにしてもよい。   In addition, when there are a plurality of subjects such as two people, the positions of the toes in the Y direction (vertical direction) may differ depending on the height and standing position of each subject. Therefore, the positions of the feet of each subject are detected. Thus, a band area mask image in which an oblique band area is set so that each step is included may be generated.

なお、上述の処理においては、撮影時に、被写体である利用者が片足を上げて、片足立ちをしているような場合、床に着いている足と上げている足とで大きさが異なってしまうので、例えば、撮影画像における被写体の足のY方向の位置が所定の距離より離れている場合には、領域の移動および拡大/縮小の処理が行われないようにしてもよい。   In the above-described processing, when the user who is the subject raises one foot and stands on one foot during shooting, the size of the foot that is on the floor and the foot that is raised are different. Therefore, for example, when the position of the foot of the subject in the captured image is more than a predetermined distance, the region movement and enlargement / reduction processing may not be performed.

また、図23を参照して説明したように、帯領域を、被写体マスク画像531の被写体領域の重心位置を基準として設定した場合、被写体領域の腹近傍の領域は確実に移動するものの、腰や脚の付け根近傍の領域は移動しない可能性がある。そこで、帯領域を、被写体領域の重心位置より脚側(Y方向)に所定の距離だけ移動した位置を基準として設定することで、腰や脚の付け根近傍の領域を確実に移動させるようにしてもよい。これにより、撮影画像において、より確実に、被写体の脚を長くかつ胴を短くすることができる。   In addition, as described with reference to FIG. 23, when the band region is set based on the position of the center of gravity of the subject region of the subject mask image 531, the region near the belly of the subject region moves reliably, but the waist region The region near the base of the leg may not move. Therefore, the belt region is set with reference to the position moved by a predetermined distance from the center of gravity of the subject region to the leg side (Y direction), so that the region near the base of the waist and legs is surely moved. Also good. Thereby, in the captured image, the leg of the subject can be lengthened and the trunk can be shortened more reliably.

また、以上においては、撮影画像の移動領域を、ぼかし帯領域マスク画像において画素値が所定の値より大きい領域(破線aおよび破線a’で挟まれる領域)の少なくとも一部に対応する領域とするようにしたが、帯領域マスク画像における帯領域の幅を広くすることで、破線aおよび破線a’で挟まれる領域を広くし、撮影画像において移動および拡大/縮小の処理がされる領域を広げるようにしてもよい。これにより、移動および拡大/縮小の処理が施された領域と、それ以外の領域との差をなだらかにすることができ、より自然な撮影画像が得られるようになる。   In the above, the moving area of the captured image is an area corresponding to at least a part of an area where the pixel value is larger than a predetermined value (an area between the broken line a and the broken line a ′) in the blurred band area mask image. However, by increasing the width of the band area in the band area mask image, the area sandwiched between the broken line a and the broken line a ′ is widened, and the area to be moved and enlarged / reduced in the captured image is widened. You may do it. As a result, the difference between the area subjected to the movement and enlargement / reduction processing and the other area can be smoothed, and a more natural captured image can be obtained.

さらに、帯領域マスク画像における帯領域の幅を広くせずに、帯領域マスク画像に対するぼかし処理におけるぼかしの度合を強める(ぼかしの幅を広くする)ことによっても、上述と同様の効果を得ることができる。   Further, the same effect as described above can be obtained by increasing the degree of blurring in the blurring process for the band area mask image (increasing the width of the blur) without increasing the width of the band area in the band area mask image. Can do.

なお、図12の被写体痩身処理と図21の被写体脚長処理とは、撮影画像毎に、いずれかの処理が行われるようにしてもよいし、1枚の撮影画像に対してそれぞれの処理が行われるようにしてもよい。   The subject slimming process in FIG. 12 and the subject leg length process in FIG. 21 may be performed for each captured image, or each process may be performed for one captured image. You may be made to be.

[画像処理装置のさらに他の機能構成例]
次に、図25を参照して、撮影画像における被写体の見栄えを良くする画像処理を行う画像処理装置のさらに他の機能構成例について説明する。
[Another functional configuration example of the image processing apparatus]
Next, still another functional configuration example of the image processing apparatus that performs image processing for improving the appearance of a subject in a captured image will be described with reference to FIG.

図25の画像処理装置は、撮影画像取得部611、被写体マスク画像生成部612、距離変換画像生成部613、勾配画像生成部614、顔マスク画像生成部615、移動領域設定部616、および領域移動処理部617から構成される。   The image processing apparatus in FIG. 25 includes a captured image acquisition unit 611, a subject mask image generation unit 612, a distance conversion image generation unit 613, a gradient image generation unit 614, a face mask image generation unit 615, a movement region setting unit 616, and region movement. The processing unit 617 is configured.

なお、図25の画像処理装置において、撮影画像取得部611、被写体マスク画像生成部612、勾配画像生成部614、顔マスク画像生成部615、移動領域設定部616、および領域移動処理部617は、図11の画像処理装置における撮影画像取得部411、被写体マスク画像生成部412、勾配画像生成部414、顔マスク画像生成部415、移動領域設定部416、および領域移動処理部417とそれぞれ基本的に同様の機能を有するので、その説明は省略する。   25, the captured image acquisition unit 611, the subject mask image generation unit 612, the gradient image generation unit 614, the face mask image generation unit 615, the movement region setting unit 616, and the region movement processing unit 617 include Basically, the captured image acquisition unit 411, the subject mask image generation unit 412, the gradient image generation unit 414, the face mask image generation unit 415, the movement area setting unit 416, and the area movement processing unit 417 in the image processing apparatus of FIG. Since it has the same function, its description is omitted.

距離変換画像生成部613は、被写体マスク画像生成部412から供給される被写体マスク画像に対して距離変換処理を施し、その結果得られた距離変換画像を、勾配画像生成部614に供給する。   The distance conversion image generation unit 613 performs distance conversion processing on the subject mask image supplied from the subject mask image generation unit 412, and supplies the distance conversion image obtained as a result to the gradient image generation unit 614.

[被写体痩身処理について]
次に、図26のフローチャートを参照して、図25の画像処理装置によって実行される、撮影画像の被写体の見栄えを良くする被写体痩身処理について説明する。
[Subject slimming process]
Next, the subject slimming process for improving the appearance of the subject of the photographed image, which is executed by the image processing apparatus of FIG. 25, will be described with reference to the flowchart of FIG.

なお、図26のフローチャートにおけるステップS211およびS212の処理は、図12のフローチャートにおけるステップS11およびS12の処理と同様であるので、その説明は省略する。   Note that the processing in steps S211 and S212 in the flowchart in FIG. 26 is the same as the processing in steps S11 and S12 in the flowchart in FIG.

すなわち、ステップS211およびS212においては、図27の左から1番目に示されるような撮影画像631が取得され、図27の左から2番目に示される被写体マスク画像632が生成される。   That is, in steps S211 and S212, a captured image 631 as shown first from the left in FIG. 27 is acquired, and a subject mask image 632 shown second from the left in FIG. 27 is generated.

ステップS213において、距離変換画像生成部613は、被写体マスク画像生成部612から供給される被写体マスク画像632に対して距離変換処理を施す。具体的には、距離変換画像生成部613は、被写体マスク画像632の被写体領域の各画素(白画素)について、最も近い背景領域の画素(黒画素)からの距離を求め、その距離を画素値とした画像を生成する。その結果、図27の左から3番目に示される距離変換画像633が得られ、勾配画像生成部614に供給される。図27の距離変換画像633においては、背景領域から離れている画素ほど白色に近い(画素値の大きい)画素となる。一般に、距離変換処理によれば、物体の骨格抽出を行うことができる。すなわち、距離変換画像633は、2人の被写体の骨格を表した画像ということができる。   In step S213, the distance conversion image generation unit 613 performs a distance conversion process on the subject mask image 632 supplied from the subject mask image generation unit 612. Specifically, the distance conversion image generation unit 613 obtains the distance from the pixel (black pixel) in the closest background region for each pixel (white pixel) in the subject region of the subject mask image 632, and calculates the distance as a pixel value. An image is generated. As a result, a distance conversion image 633 shown third from the left in FIG. 27 is obtained and supplied to the gradient image generation unit 614. In the distance conversion image 633 in FIG. 27, the pixels that are farther from the background area are closer to white (the pixel value is larger). In general, according to the distance conversion process, the skeleton of an object can be extracted. That is, the distance conversion image 633 can be said to be an image representing the skeletons of two subjects.

ステップS214において、勾配画像生成部614は、距離変換画像生成部613から供給される距離変換画像の画素値から、X方向の勾配画像およびY方向の勾配画像を生成する。具体的には、勾配画像生成部614は、例えば、Sobelフィルタを用いて、距離変換画像633に対して、X方向に空間1次微分を施すことで、図27の左から4番目上段に示されるX方向勾配画像634Xを生成するとともに、Y方向に空間1次微分を施すことで、図27の左から4番目下段に示されるY方向勾配画像634Yを生成する。   In step S214, the gradient image generation unit 614 generates an X-direction gradient image and a Y-direction gradient image from the pixel values of the distance conversion image supplied from the distance conversion image generation unit 613. Specifically, the gradient image generation unit 614 performs spatial first-order differentiation in the X direction on the distance conversion image 633 using, for example, a Sobel filter, so that the gradient image generation unit 614 is shown in the fourth upper stage from the left in FIG. X direction gradient image 634X is generated, and spatial first order differentiation is performed in the Y direction to generate a Y direction gradient image 634Y shown in the fourth lower row from the left in FIG.

図27のX方向勾配画像634Xにおいても、黒領域は、距離変換画像633において画素値のX方向に対する変化の傾き(勾配)が正である領域を示しており、白領域は、距離変換画像633において画素値のX方向に対する変化の傾き(勾配)が負である領域を示している。   Also in the X-direction gradient image 634X of FIG. 27, the black region indicates a region in which the gradient (gradient) of the change of the pixel value with respect to the X direction is positive in the distance conversion image 633, and the white region indicates the distance conversion image 633. In FIG. 6, the region in which the gradient (gradient) of the change of the pixel value with respect to the X direction is negative is shown.

また、図27のY方向勾配画像634Yにおいても、黒領域は、距離変換画像633において画素値のY方向に対する変化の傾き(勾配)が正である領域を示しており、白領域は、距離変換画像633において画素値のY方向に対する変化の傾き(勾配)が負である領域を示している。   In the Y-direction gradient image 634Y of FIG. 27, the black area indicates an area in which the gradient (gradient) of the change in the pixel value with respect to the Y direction is positive in the distance conversion image 633, and the white area indicates the distance conversion. In the image 633, an area in which the gradient (gradient) of the change of the pixel value with respect to the Y direction is negative is shown.

つまり、図27のX方向勾配画像634XおよびY方向勾配画像634Yにおいて、黒領域および白領域は、距離変換画像633において画素値の勾配がある領域であり、それ以外の領域は、距離変換画像633において画素値の勾配がない領域を示している。   That is, in the X-direction gradient image 634X and the Y-direction gradient image 634Y in FIG. 27, the black region and the white region are regions having pixel value gradients in the distance conversion image 633, and the other regions are the distance conversion image 633. In FIG. 6, a region without a gradient of pixel values is shown.

図26のフローチャートに戻り、ステップS215において、顔マスク画像生成部615は、顔マスク画像生成処理を実行し、顔マスク画像を生成する。なお、ステップS215においては、図14のフローチャートを参照して説明した顔マスク画像生成処理が実行されるので、その説明は省略する。   Returning to the flowchart of FIG. 26, in step S215, the face mask image generation unit 615 executes a face mask image generation process to generate a face mask image. In step S215, the face mask image generation process described with reference to the flowchart of FIG. 14 is executed, and thus the description thereof is omitted.

ステップS216において、移動領域設定部616は、勾配画像生成部614から供給される勾配画像に、顔マスク画像生成部615から供給されるぼかし顔マスク画像を乗算する。その結果、図28の左側に示される、被写体の顔に対応する領域から黒領域および白領域が削除されたX方向勾配画像651Xと、図28の右側に示される、被写体の顔に対応する領域から黒領域および白領域が削除されたY方向勾配画像651Yとが得られる。   In step S <b> 216, the moving region setting unit 616 multiplies the gradient image supplied from the gradient image generation unit 614 by the blurred face mask image supplied from the face mask image generation unit 615. As a result, an X-direction gradient image 651X in which the black region and the white region are deleted from the region corresponding to the subject's face shown on the left side of FIG. 28, and the region corresponding to the subject's face shown on the right side of FIG. A Y-direction gradient image 651Y from which the black area and the white area are deleted is obtained.

ここで、撮影画像において、X方向勾配画像651XおよびY方向勾配画像651Yにおける黒領域および白領域に対応する領域は、被写体領域の略全てを含む領域となる。   Here, in the captured image, the regions corresponding to the black region and the white region in the X-direction gradient image 651X and the Y-direction gradient image 651Y are regions including substantially all of the subject region.

このようにして得られるX方向勾配画像651XおよびY方向勾配画像651Yにおいて、移動領域設定部616は、撮影画像において、黒領域および白領域の少なくとも一部に対応する領域、具体的には、被写体領域の略全ての領域を、被写体の内側(骨格)に向かう方向に移動させる移動領域に設定し、その移動領域を表す情報を、領域移動処理部617に供給する。   In the X-direction gradient image 651X and the Y-direction gradient image 651Y obtained in this way, the moving area setting unit 616 includes, in the captured image, an area corresponding to at least a part of the black area and the white area, specifically, the subject. Substantially all of the areas are set as moving areas that move in the direction toward the inside (skeleton) of the subject, and information representing the moving areas is supplied to the area movement processing unit 617.

ステップS217において、領域移動処理部617は、移動領域設定部616から供給される情報に基づいて、撮影画像において、勾配画像の黒領域および白領域に対応する領域の画像のうち、境界近傍の画像を被写体の内側に向かう方向に移動する。   In step S217, based on the information supplied from the movement region setting unit 616, the region movement processing unit 617 is an image in the vicinity of the boundary among the images of the regions corresponding to the black region and the white region of the gradient image in the captured image. Is moved in the direction toward the inside of the subject.

より詳細には、このとき、撮影画像において、X方向勾配画像651Xの黒領域のうち、X方向の縁部分を除く領域に対応する領域が、移動領域に設定されており、領域移動処理部617は、移動領域の画像を、X方向(図28中、水平右方向)に移動する。また、撮影画像において、X方向勾配画像651Xの白領域のうち、X方向の縁部分を除く領域に対応する領域が、移動領域に設定されており、領域移動処理部617は、移動領域の画像を、−X方向(図28中、水平左方向)に移動する。   More specifically, at this time, in the captured image, an area corresponding to an area excluding an edge portion in the X direction among black areas of the X-direction gradient image 651X is set as a movement area. Moves the image of the moving area in the X direction (horizontal right direction in FIG. 28). In the captured image, an area corresponding to an area excluding an edge portion in the X direction is set as a movement area among white areas of the X-direction gradient image 651X, and the area movement processing unit 617 displays an image of the movement area. Are moved in the -X direction (horizontal left direction in FIG. 28).

同様に、撮影画像において、Y方向勾配画像651Yの黒領域のうち、Y方向の縁部分を除く領域に対応する領域が、移動領域に設定されており、領域移動処理部617は、移動領域の画像を、Y方向(図28中、垂直下方向)に移動する。また、撮影画像において、Y方向勾配画像651Yの白領域のうち、Y方向の縁部分を除く領域に対応する領域が、移動領域に設定されており、領域移動処理部617は、移動領域の画像を、−Y方向(図28中、垂直上方向)に移動する。   Similarly, in the captured image, an area corresponding to an area excluding an edge portion in the Y direction is set as a movement area in the black area of the Y-direction gradient image 651Y, and the area movement processing unit 617 sets the movement area. The image is moved in the Y direction (vertically downward in FIG. 28). In the captured image, an area corresponding to an area excluding an edge portion in the Y direction is set as a movement area in the white area of the Y-direction gradient image 651Y, and the area movement processing unit 617 displays the image of the movement area. Are moved in the -Y direction (vertically upward in FIG. 28).

続いて、ステップS218において、領域移動処理部617は、撮影画像において、勾配画像の黒領域および白領域に対応する領域の画像のうち、移動した領域の画像より外側の領域の画像を拡大し、移動した領域の画像より内側の領域の画像を縮小する。   Subsequently, in step S218, the region movement processing unit 617 enlarges the image of the region outside the image of the moved region among the images of the region corresponding to the black region and the white region of the gradient image in the captured image, The image in the area inside the image of the moved area is reduced.

より詳細には、領域移動処理部617は、撮影画像において、X方向勾配画像651Xの黒領域に対応する領域のうち、移動領域より外側の領域をX方向(水平方向)に拡大し、移動領域より内側の領域をX方向(水平方向)に縮小する。また、領域移動処理部617は、撮影画像において、X方向勾配画像651Xの白領域に対応する領域のうち、移動領域より外側の領域をX方向(水平方向)に拡大し、移動領域より内側の領域をX方向(水平方向)に縮小する。   More specifically, the area movement processing unit 617 expands the area outside the moving area in the X direction (horizontal direction) in the captured image, in the area corresponding to the black area of the X-direction gradient image 651X. The inner area is reduced in the X direction (horizontal direction). In addition, the region movement processing unit 617 enlarges a region outside the moving region in the X direction (horizontal direction) among the regions corresponding to the white region of the X-direction gradient image 651X in the captured image, and moves the region inside the moving region. The area is reduced in the X direction (horizontal direction).

同様に、領域移動処理部617は、撮影画像において、Y方向勾配画像651Yの黒領域に対応する領域のうち、移動領域より外側の領域をY方向(垂直方向)に拡大し、移動領域より内側の領域をY方向(垂直方向)に縮小する。また、領域移動処理部617は、撮影画像において、Y方向勾配画像651Yの白領域に対応する領域のうち、移動領域より外側の領域をY方向(垂直方向)に拡大し、移動領域より内側の領域をY方向(垂直方向)に縮小する。   Similarly, the area movement processing unit 617 enlarges the area outside the moving area in the Y direction (vertical direction) among the areas corresponding to the black area of the Y-direction gradient image 651Y in the captured image, and moves the area inside the moving area. Is reduced in the Y direction (vertical direction). In addition, the area movement processing unit 617 enlarges an area outside the moving area in the Y direction (vertical direction) among areas corresponding to the white area of the Y-direction gradient image 651Y in the captured image, and moves the area inside the moving area. The area is reduced in the Y direction (vertical direction).

このようにして、撮影画像631において、顔を除いた被写体の略全ての部分が、被写体の内側に向かう方向(背景から離れる方向)に移動することで、図29に示されるような、被写体の身体が全体的に小さく(細く)なった撮影画像671が、タッチパネルモニタ93に表示される。   In this way, in the captured image 631, almost all the part of the subject excluding the face moves in the direction toward the inside of the subject (the direction away from the background), so that the subject as shown in FIG. A captured image 671 in which the body is entirely small (thinned) is displayed on the touch panel monitor 93.

以上の処理によれば、撮影画像における顔を除いた被写体領域の略全ての領域が、被写体領域の内側に向かう方向に移動されるようになるので、撮影画像において、顔を除いた被写体の身体が全体的に小さく(細く)なる。これにより、特に、腰のくびれが強調された、スタイルの良い全身画像が得られ、結果として、利用者にとってより満足度の高い画像を提供することが可能となる。   According to the above processing, almost all of the subject area excluding the face in the photographed image is moved in the direction toward the inside of the subject area. Therefore, in the photographed image, the body of the subject excluding the face Becomes smaller (thinner) as a whole. As a result, it is possible to obtain a whole body image with a good style, in which the waistline is particularly emphasized, and as a result, it is possible to provide an image that is more satisfactory for the user.

特に、距離変換処理により、被写体領域において背景領域から距離の遠い部分、すなわち骨格を抽出し、その骨格に向かって被写体領域の略全ての領域を移動させるようにしたので、撮影画像において、被写体の骨格を保ちつつ、被写体を全体的に細くすることが可能となる。   In particular, the distance conversion process extracts a portion of the subject area that is far from the background region, that is, a skeleton, and moves almost all of the subject area toward the skeleton. It is possible to make the subject as a whole thin while maintaining the skeleton.

なお、図26の被写体痩身処理と図21の被写体脚長処理とは、撮影画像毎に、いずれかの処理が行われるようにしてもよいし、1枚の撮影画像に対してそれぞれの処理が行われるようにしてもよい。   The subject slimming process in FIG. 26 and the subject leg length process in FIG. 21 may be performed for each captured image, or each process may be performed for one captured image. You may be made to be.

さらに、図12の被写体痩身処理を施した撮影画像に、図26の被写体痩身処理をさらに施すようにしてもよい。これにより、撮影画像において、被写体を自然にかつ確実にスタイル良くすることが可能となる。   Furthermore, the subject slimming process of FIG. 26 may be further performed on the photographed image subjected to the subject slimming process of FIG. This makes it possible to improve the subject naturally and surely in the captured image.

なお、上述した処理において、被写体マスク画像生成の際、被写体の衣服や所持品に、クロマキ用の背景カーテンと略同じの色が含まれている場合、被写体マスク画像においては、その部分は黒画素となってしまうが、黒画素の領域の面積が所定の面積より小さく、かつ、周囲が全て白画素であるような場合には、その黒画素を白画素に置き換えるようにしてもよい。   In the above-described processing, when the subject mask image is generated, if the subject's clothes or personal belongings include substantially the same color as the blackboard background curtain, the portion of the subject mask image is a black pixel. However, when the area of the black pixel area is smaller than a predetermined area and all the surroundings are white pixels, the black pixels may be replaced with white pixels.

また、上述した処理は、撮影により得られた静止画像としての撮影画像に対して行われるものとしたが、カメラ91に取り込まれ、タッチパネルモニタ93に動画像としてライブビュー表示されるライブビュー画像に対して行われるようにしてもよい。   In addition, the above-described processing is performed on a captured image as a still image obtained by shooting. However, a live view image captured by the camera 91 and displayed as a moving image on the touch panel monitor 93 is displayed. It may also be performed on the other hand.

なお、上述した処理において行われる画像処理(勾配画像の生成、距離変換、重心位置の算出等)については、例えば、「“新編 画像解析ハンドブック” 東京大学出版会」や、「“ディジタル画像処理” 財団法人 画像情報教育振興協会」に開示されている方法を用いることにより行うことが可能である。   As for the image processing (gradient image generation, distance conversion, center of gravity position calculation, etc.) performed in the above-described processing, for example, ““ New Image Analysis Handbook ”The University of Tokyo Press” or ““ Digital Image Processing ” This can be done by using the method disclosed in the “Image Information Education Promotion Association”.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   By the way, the above-described series of processes can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図8に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 8, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the apparatus main body, and is a magnetic disk (flexible disk) on which the program is recorded. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 205 made of semiconductor memory, etc., but also pre-installed in the main unit The ROM 206 that stores the program and the hard disk included in the storage unit 202 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、テレホンカードなどのカード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, printing on a predetermined size of paper or film, poster paper, a card such as a telephone card, or a cloth such as a T-shirt. You may make it do.

1 写真シール作成装置
11 撮影ユニット
12 編集部
13 事後接客部
201 制御部
208 撮影部
209 編集部
210 事後接客部
301 撮影処理部
302 編集処理部
303 印刷処理部
304 事後接客処理部
411 撮影画像取得部
412 被写体マスク画像生成部
413 ぼかし処理部
414 勾配画像生成部
415 顔マスク画像生成部
416 移動領域設定部
417 領域移動処理部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 11 Shooting unit 12 Editing part 13 Subsequent customer service part 201 Control part 208 Imaging | photography part 209 Editing part 210 Subsequent customer service part 301 Shooting process part 302 Edit process part 303 Print process part 304 Post customer service process part 411 Photographed image acquisition part 412 Subject mask image generation unit 413 Blur processing unit 414 Gradient image generation unit 415 Face mask image generation unit 416 Movement region setting unit 417 Region movement processing unit

Claims (11)

被写体を撮影して得られた撮影画像を取得する撮影画像取得手段と、
前記撮影画像における被写体領域の少なくとも一部を、前記被写体領域の内側に向かう方向に移動させる移動領域に設定する移動領域設定手段と、
前記撮影画像において、前記移動領域に設定された領域を、前記被写体領域の内側に向かう方向に移動する領域移動処理手段と、
前記移動領域が前記被写体領域の内側に向かう方向に移動した前記撮影画像を出力する出力手段と
を備える画像処理装置。
Photographed image acquisition means for acquiring a photographed image obtained by photographing a subject;
Moving region setting means for setting a moving region for moving at least a part of the subject region in the captured image in a direction toward the inside of the subject region;
An area movement processing means for moving an area set as the movement area in a direction toward the inside of the subject area in the captured image;
An image processing apparatus comprising: an output unit that outputs the captured image in which the moving area moves in a direction toward the inside of the subject area.
前記移動領域設定手段は、前記撮影画像における前記被写体領域の、前記背景領域との境界近傍の領域を、前記移動領域に設定する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the moving area setting unit sets an area in the vicinity of a boundary between the subject area and the background area in the captured image as the moving area.
前記撮影画像に基づいて、前記撮影画像の前記被写体領域を透過させる被写体マスク画像を生成する被写体マスク画像生成手段と、
前記被写体マスク画像に対してぼかし処理を施し、ぼかし被写体マスク画像を生成するぼかし処理手段と、
前記ぼかし被写体マスク画像の画素値から、前記ぼかし被写体マスク画像の勾配画像を生成する勾配画像生成部とをさらに備え、
前記移動領域設定部は、前記勾配画像において勾配のある領域に対応する前記撮影画像の領域の少なくとも一部を、前記移動領域に設定する
請求項2に記載の画像処理装置。
Subject mask image generation means for generating a subject mask image that transmits the subject region of the photographed image based on the photographed image;
Blur processing means for performing blur processing on the subject mask image and generating a blurred subject mask image;
A gradient image generation unit that generates a gradient image of the blurred subject mask image from the pixel value of the blurred subject mask image;
The image processing apparatus according to claim 2, wherein the moving region setting unit sets at least a part of the region of the captured image corresponding to a region having a gradient in the gradient image as the moving region.
前記移動領域設定手段は、前記撮影画像における前記被写体領域の略全ての領域を、前記移動領域に設定する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the movement area setting unit sets substantially all areas of the subject area in the captured image as the movement area.
前記撮影画像に基づいて、前記撮影画像の前記被写体領域以外の領域をマスクする被写体マスク画像を生成する被写体マスク画像生成手段と、
前記被写体マスク画像に対して距離変換処理を施し、距離変換画像を生成する距離変換画像生成手段と、
前記距離変換画像の画素値から、前記距離変換画像の勾配画像を生成する勾配画像生成手段とをさらに備え、
前記移動領域設定手段は、前記勾配画像において勾配のある領域に対応する前記撮影画像の領域の少なくとも一部を、前記移動領域に設定する
請求項4に記載の画像処理装置。
Subject mask image generation means for generating a subject mask image for masking an area other than the subject area of the photographed image based on the photographed image;
Distance conversion image generation means for performing a distance conversion process on the subject mask image and generating a distance conversion image;
Gradient image generation means for generating a gradient image of the distance conversion image from the pixel value of the distance conversion image,
The image processing apparatus according to claim 4, wherein the moving region setting unit sets at least a part of the region of the captured image corresponding to a region having a gradient in the gradient image as the moving region.
前記撮影画像に基づいて、前記撮影画像の前記被写体領域の顔領域をマスクする顔マスク画像を生成する顔マスク画像生成手段をさらに備え、
前記移動領域設定手段は、前記顔マスク画像に基づいて、前記被写体領域のうちの顔を除いた前記所定の領域を、前記移動領域に設定する
請求項1乃至5のいずれかに記載の画像処理装置。
A face mask image generating unit configured to generate a face mask image for masking a face area of the subject area of the photographed image based on the photographed image;
The image processing according to claim 1, wherein the moving area setting unit sets the predetermined area excluding the face in the subject area as the moving area based on the face mask image. apparatus.
前記移動領域設定手段は、前記撮影画像における前記被写体領域の下半身の領域を、前記移動領域に設定する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the moving area setting unit sets a lower body area of the subject area in the captured image as the moving area.
前記撮影画像に基づいて、前記撮影画像の前記被写体領域以外の領域をマスクする被写体マスク画像を生成する被写体マスク画像生成手段と、
前記被写体マスク画像から、前記被写体領域の重心位置を算出する重心算出手段と、
前記撮影画像の、前記重心位置から前記被写体領域の足に向かって所定幅の帯領域を設定した帯領域マスク画像を生成する帯領域マスク画像生成手段とをさらに備え、
前記移動領域設定手段は、前記帯領域マスク画像において前記帯領域に対応する前記撮影画像の領域の少なくとも一部を、前記移動領域に設定する
請求項7に記載の画像処理装置。
Subject mask image generation means for generating a subject mask image for masking an area other than the subject area of the photographed image based on the photographed image;
Centroid calculating means for calculating the centroid position of the subject area from the subject mask image;
A band area mask image generating means for generating a band area mask image in which a band area of a predetermined width is set from the center of gravity position of the captured image toward the foot of the subject area;
The image processing apparatus according to claim 7, wherein the movement area setting unit sets at least a part of the area of the captured image corresponding to the band area in the band area mask image as the movement area.
前記領域移動処理手段は、前記撮影画像において、前記移動領域に設定された領域を、前記被写体の内側に向かう方向に移動するとともに、前記移動領域に設定された領域より内側にある領域を前記移動領域の移動方向に縮小し、前記移動領域に設定された領域より外側にある領域を前記移動領域の移動方向に拡大する
請求項1乃至8のいずれかに記載の画像処理装置。
The area movement processing means moves the area set as the moving area in the captured image in a direction toward the inside of the subject and moves the area inside the area set as the moving area. The image processing apparatus according to claim 1, wherein the image processing apparatus reduces in the moving direction of the area and expands an area outside the area set as the moving area in the moving direction of the moving area.
画像処理装置の画像処理方法において、
前記画像処理装置が、
被写体を撮影して得られた撮影画像を取得し、
前記撮影画像における被写体領域の少なくとも一部を、前記被写体領域の内側に向かう方向に移動させる移動領域に設定し、
前記撮影画像において、前記移動領域に設定された領域を、前記被写体領域の内側に向かう方向に移動し、
前記移動領域が前記被写体領域の内側に向かう方向に移動した前記撮影画像を出力する
ステップを含む画像処理方法。
In the image processing method of the image processing apparatus,
The image processing apparatus is
Get a shot image obtained by shooting the subject,
Setting at least a part of the subject area in the captured image as a moving area that moves in a direction toward the inside of the subject area;
In the captured image, the region set as the moving region is moved in a direction toward the inside of the subject region,
An image processing method including a step of outputting the captured image in which the moving area moves in a direction toward the inside of the subject area.
コンピュータに、
被写体を撮影して得られた撮影画像を取得し、
前記撮影画像における被写体領域の少なくとも一部を、前記被写体領域の内側に向かう方向に移動させる移動領域に設定し、
前記撮影画像において、前記移動領域に設定された領域を、前記被写体領域の内側に向かう方向に移動し、
前記移動領域が前記被写体領域の内側に向かう方向に移動した前記撮影画像を出力する
ステップを含む処理を実行させるためのプログラム。
On the computer,
Get a shot image obtained by shooting the subject,
Setting at least a part of the subject area in the captured image as a moving area that moves in a direction toward the inside of the subject area;
In the captured image, the region set as the moving region is moved in a direction toward the inside of the subject region,
A program for executing a process including a step of outputting the captured image in which the moving area moves in a direction toward the inside of the subject area.
JP2012135651A 2012-06-15 2012-06-15 Image processing apparatus and method, and program Active JP5582171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012135651A JP5582171B2 (en) 2012-06-15 2012-06-15 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012135651A JP5582171B2 (en) 2012-06-15 2012-06-15 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2014002445A true JP2014002445A (en) 2014-01-09
JP5582171B2 JP5582171B2 (en) 2014-09-03

Family

ID=50035597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012135651A Active JP5582171B2 (en) 2012-06-15 2012-06-15 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5582171B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898118A (en) * 2018-07-04 2018-11-27 腾讯科技(深圳)有限公司 A kind of video data handling procedure, device and storage medium
JP2020534611A (en) * 2018-05-31 2020-11-26 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Image processing methods, devices and computer storage media
JP2020535533A (en) * 2018-05-31 2020-12-03 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. Image processing methods and devices, electronic devices and storage media
JP2021503663A (en) * 2018-05-31 2021-02-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Image processing methods and devices, electronic devices and storage media
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US11388291B2 (en) 2013-03-14 2022-07-12 Apple Inc. System and method for processing voicemail
US11410268B2 (en) 2018-05-31 2022-08-09 Beijing Sensetime Technology Development Co., Ltd Image processing methods and apparatuses, electronic devices, and storage media

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10340282A (en) * 1997-04-11 1998-12-22 Toray Ind Inc Device and method for virtual try-on of clothes and clothes manufacturing device
JP2004110383A (en) * 2002-09-18 2004-04-08 Namco Ltd Image forming system, its program and information storage medium
JP2010055257A (en) * 2008-08-27 2010-03-11 Seiko Epson Corp Image processing device, image processing method, and image processing program
JP2010056726A (en) * 2008-08-27 2010-03-11 Seiko Epson Corp Image processor, image processing method and image processing program
JP2011259053A (en) * 2010-06-07 2011-12-22 Olympus Imaging Corp Image processing apparatus and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10340282A (en) * 1997-04-11 1998-12-22 Toray Ind Inc Device and method for virtual try-on of clothes and clothes manufacturing device
JP2004110383A (en) * 2002-09-18 2004-04-08 Namco Ltd Image forming system, its program and information storage medium
JP2010055257A (en) * 2008-08-27 2010-03-11 Seiko Epson Corp Image processing device, image processing method, and image processing program
JP2010056726A (en) * 2008-08-27 2010-03-11 Seiko Epson Corp Image processor, image processing method and image processing program
JP2011259053A (en) * 2010-06-07 2011-12-22 Olympus Imaging Corp Image processing apparatus and image processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US11388291B2 (en) 2013-03-14 2022-07-12 Apple Inc. System and method for processing voicemail
JP2020534611A (en) * 2018-05-31 2020-11-26 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Image processing methods, devices and computer storage media
JP2020535533A (en) * 2018-05-31 2020-12-03 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. Image processing methods and devices, electronic devices and storage media
JP2021503663A (en) * 2018-05-31 2021-02-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Image processing methods and devices, electronic devices and storage media
US11216904B2 (en) 2018-05-31 2022-01-04 Beijing Sensetime Technology Development Co., Ltd. Image processing method and apparatus, electronic device, and storage medium
US11288796B2 (en) 2018-05-31 2022-03-29 Beijing Sensetime Technology Development Co., Ltd. Image processing method, terminal device, and computer storage medium
US11410268B2 (en) 2018-05-31 2022-08-09 Beijing Sensetime Technology Development Co., Ltd Image processing methods and apparatuses, electronic devices, and storage media
JP7150845B2 (en) 2018-05-31 2022-10-11 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド Image processing method and apparatus, electronic equipment and storage medium
JP7160911B2 (en) 2018-05-31 2022-10-25 北京市商▲湯▼科技▲開▼▲発▼有限公司 Image processing method and apparatus, electronic equipment and storage medium
CN108898118A (en) * 2018-07-04 2018-11-27 腾讯科技(深圳)有限公司 A kind of video data handling procedure, device and storage medium

Also Published As

Publication number Publication date
JP5582171B2 (en) 2014-09-03

Similar Documents

Publication Publication Date Title
JP5582171B2 (en) Image processing apparatus and method, and program
JP5574031B2 (en) Image processing apparatus and method, and program
JP5488526B2 (en) Image processing apparatus and image processing method
JP6659980B2 (en) Photo sticker making device, photo sticker making method, and program
JP5447183B2 (en) Photo sticker creation apparatus and method, and program
JP2015045809A (en) Image processor, image processing method and program
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP5472767B2 (en) Image processing apparatus and image processing method
JP5569502B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2017121044A (en) Photo seal producing apparatus and image processing method
JP2015210397A (en) Photographic seal creation device
JP2017229013A (en) Game machine for forming photograph and display method
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP5621875B1 (en) Imaging apparatus and method, and program
JP5120508B1 (en) Photo sticker creation apparatus and method, and program
JP6201397B2 (en) Photo sticker creation apparatus and method, and program
JP5737790B2 (en) Image processing apparatus and method, and program
JP2016075913A (en) Photographing device
JP6646202B2 (en) Photo sticker making device and display method
JP5482948B2 (en) Image processing apparatus and image processing method
JP6048754B2 (en) Photo sticker creation apparatus, image editing method, and program
JP5924544B2 (en) Image processing apparatus, image processing method, and program
JP5545507B2 (en) Image processing apparatus, image processing method, and program
JP6671015B2 (en) Photo sticker making apparatus and image processing method
JP2017139715A (en) Photo sticker creation device and photographing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140515

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140630

R150 Certificate of patent or registration of utility model

Ref document number: 5582171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250