JP5472410B2 - Automatic photo creation device, image processing device, image processing method, and image processing program - Google Patents

Automatic photo creation device, image processing device, image processing method, and image processing program Download PDF

Info

Publication number
JP5472410B2
JP5472410B2 JP2012201219A JP2012201219A JP5472410B2 JP 5472410 B2 JP5472410 B2 JP 5472410B2 JP 2012201219 A JP2012201219 A JP 2012201219A JP 2012201219 A JP2012201219 A JP 2012201219A JP 5472410 B2 JP5472410 B2 JP 5472410B2
Authority
JP
Japan
Prior art keywords
face
image
user
reference line
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012201219A
Other languages
Japanese (ja)
Other versions
JP2013031208A (en
JP2013031208A5 (en
Inventor
聡 辰巳
光寛 長谷川
Original Assignee
辰巳電子工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 辰巳電子工業株式会社 filed Critical 辰巳電子工業株式会社
Priority to JP2012201219A priority Critical patent/JP5472410B2/en
Publication of JP2013031208A publication Critical patent/JP2013031208A/en
Publication of JP2013031208A5 publication Critical patent/JP2013031208A5/ja
Application granted granted Critical
Publication of JP5472410B2 publication Critical patent/JP5472410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Description

本発明は、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を出力する自動写真作成装置および画像処理装置に関する。   The present invention relates to an automatic photo creation apparatus and an image processing apparatus that capture a user with a camera and output a composite image generated based on the captured image.

従来より、利用者をカメラで撮影し、その撮影画像を写真シール(あるいは写真カード等)として出力する遊戯用写真作成装置が知られている。このような遊戯用写真作成装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像から選択したり、タッチペンやライトペン等のペン型入力手段を用いて利用者が自由に描いたりできるように構成されているものが多い。利用者によるこのような行為は、撮影画像に対してなされるため、「落書き」と呼ばれる。   2. Description of the Related Art Conventionally, there is known a photo creation device for a game in which a user is photographed with a camera and the photographed image is output as a photo sticker (or a photo card). Such a play photo creation device is highly playable or entertaining, and therefore, an image to be combined with a photographed image is prepared from a variety of background images and foreground images prepared in advance according to the user's preference. Many are configured so that a user can freely select and draw using a pen-type input means such as a touch pen or a light pen. Since such an action by the user is performed on the photographed image, it is called “graffiti”.

ところで、利用者にとっては、いわゆる「写真写り」の良い写真シールが得られることが好ましい。特に近年、「小顔(こがお)」という言葉が流行していることから把握されるように、多くの女性が「顔を小さく見せたい」と感じており、比較的顔が大きく写っている写真シールよりも比較的顔が小さく写っている写真シールの方が利用者には喜ばれる。そこで、特許文献1には、撮影画像に対して補正を施すことを可能にした自動写真作成装置の発明が開示されている。この自動写真作成装置によれば、利用者からの指示に基づいて、撮影画像に対して頬を細くする処理や顔を小さくする処理が施される。   By the way, it is preferable for the user to obtain a so-called “photographing” good photo sticker. In particular, as the word “small face (kogao)” has become popular in recent years, many women feel that they want to make their faces look smaller, and their faces appear relatively large. Users are more pleased with photo stickers that have a relatively smaller face than photo stickers. Therefore, Patent Document 1 discloses an invention of an automatic photo creation apparatus that can correct a captured image. According to this automatic photo creation device, processing for narrowing the cheek and processing for reducing the face are performed on the captured image based on an instruction from the user.

特開2005−277772号公報JP 2005-277772 A

ところが、上記特許文献1に開示された自動写真作成装置によると、撮影画像中の顔を小さくするための操作を利用者自身が行わなければならないので、不慣れな利用者にとっては操作負担が大きい。また、写真シールに自分の顔が小さく写っていることに対する利用者の喜びは、「顔を小さくする処理が施された」という認識があるときよりもそのような認識がないときの方が大きくなると考えられる。   However, according to the automatic photo creation apparatus disclosed in Patent Document 1, the user himself has to perform an operation for reducing the face in the photographed image. In addition, the joy of the user that his / her face appears small on the photo sticker is greater when there is no such recognition than when there is a recognition that “the process of reducing the face has been applied” It is considered to be.

そこで、本発明は、利用者に操作負担を課すことなく、かつ、(顔を小さくする処理が施されたことを)利用者に意識させることなく、本来よりも利用者の顔が小さく写った(利用者が小顔に写った)写真シールを出力することのできる自動写真作成装置を提供することを目的とする。   Therefore, the present invention makes the user's face appear smaller than the original without imposing an operation burden on the user and without making the user aware of the fact that the process of reducing the face has been performed. It is an object of the present invention to provide an automatic photo creation device capable of outputting a photo sticker (a user's small face).

本発明は、所定の撮影領域における被写体である利用者を撮影し、撮影画像に基づいて生成される落書き対象画像を含む合成画像を出力する自動写真作成装置および画像処理装置に関するものである。撮影画像における利用者の顔を検出し、落書き対象画像における利用者の顔の輪郭が撮影画像における利用者の顔の輪郭よりも小さくなるように、撮影画像に基づいて落書き対象画像を生成する。その際、撮影画像における利用者の両目の位置に基づいて、利用者の顔を構成する画素を移動させる。より好適には、撮影画像における利用者の顔を右半分と左半分に分けるような線を第2の基準線に設定し、利用者の両目の位置よりも顎側にある画素を第2の基準線に向けて移動させる。 The present invention relates to an automatic photo creation device and an image processing device for photographing a user who is a subject in a predetermined photographing region and outputting a composite image including a graffiti target image generated based on the photographed image. A user's face in the captured image is detected, and a graffiti target image is generated based on the captured image so that the contour of the user's face in the graffiti target image is smaller than the contour of the user's face in the captured image. At that time, the pixels constituting the user's face are moved based on the positions of both eyes of the user in the captured image . More preferably, a line that divides the user's face in the captured image into a right half and a left half is set as the second reference line, and pixels on the chin side of the user's eyes are positioned in the second reference line. Move toward the reference line.

本発明によれば、撮影画像における利用者の顔が検出され、利用者の顔の輪郭を小さくする小顔処理が施されることにより落書き対象画像が生成される。そして、その落書き対象画像を含む合成画像が出力される。ここで、撮影画像に基づいて落書き対象画像が生成される際、利用者の顔の画素データの座標は、当該利用者の顔を縦半分に分けるような線に近づくように移動させられる。このため、落書き対象画像中の利用者の顔については、本来よりも横幅が短くなる。これにより、本来よりも顔が細く写った写真を利用者に提供することができる。
According to the present invention, a user's face is detected in a photographed image, and a small face process for reducing the contour of the user's face is performed to generate a graffiti target image. Then, a composite image including the graffiti target image is output. Here, when the graffiti target image is generated based on the photographed image, the coordinates of the pixel data of the user's face are moved so as to approach a line that divides the user's face into half halves . For this reason, the width of the user's face in the graffiti target image is shorter than the original . As a result, it is possible to provide the user with a photograph whose face is thinner than the original.

本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。It is a figure which shows the external appearance of the photo production apparatus for games which is an automatic photo production apparatus which concerns on one Embodiment of this invention. 上記実施形態における撮影ユニットの正面図である。It is a front view of the imaging unit in the embodiment. 上記実施形態における編集ユニットの正面図である。It is a front view of the edit unit in the said embodiment. 上記実施形態において、撮影操作用タッチパネルの画面構成を示す模式図である。In the said embodiment, it is a schematic diagram which shows the screen structure of the touchscreen for imaging operations. 上記実施形態において、編集操作用タッチパネルの画面構成を示す模式図である。In the said embodiment, it is a schematic diagram which shows the screen structure of the touch panel for edit operations. 上記実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。It is a block diagram which shows the structure which looked at the principal part of the photo production apparatus for play concerning the said embodiment from the functional surface. 上記実施形態における撮影処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the imaging | photography process in the said embodiment. 上記実施形態における編集処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the edit process in the said embodiment. 上記実施形態における小顔処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the small face process in the said embodiment. 上記実施形態において、小顔処理について説明するための図である。In the said embodiment, it is a figure for demonstrating a small face process. 上記実施形態において、小顔処理について説明するための図である。In the said embodiment, it is a figure for demonstrating a small face process. 上記実施形態において、小顔処理について説明するための図である。In the said embodiment, it is a figure for demonstrating a small face process. 上記実施形態において、小顔処理について説明するための図である。In the said embodiment, it is a figure for demonstrating a small face process. 上記実施形態の変形例における撮影処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the imaging | photography process in the modification of the said embodiment. 上記変形例における明るさ補償処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the brightness compensation process in the said modification. 上記変形例において、RGB色空間からLab色空間へのデータの変換に用いられる式である。In the modified example, the equation is used for conversion of data from the RGB color space to the Lab color space. 上記変形例において、補正前の明るさと補正後の明るさとの関係を規定したトーンカーブを示す図である。In the said modification, it is a figure which shows the tone curve which prescribed | regulated the relationship between the brightness before correction | amendment, and the brightness after correction | amendment.

以下、添付図面を参照しつつ本発明の一実施形態について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

<1.全体構成>
図1は、本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。より詳細には、図1(a)は、この遊戯用写真作成装置を横から見た外観側面図であり、図1(b)は、上から見た外観平面図である。この遊戯用写真作成装置は、利用者Uが入る撮影室2と、利用者Uを撮影し背景画像および前景画像の選択を受け付ける撮影ユニット3と、利用者Uによる落書き(描画操作)を含む編集操作を受け付け撮影画像に合成した合成画像を生成する編集ユニット4とを備えている。図2は、撮影ユニット3の正面図であり、図3は、編集ユニット4の正面図である。以下、図1から図3を参照しつつ、本実施形態における遊戯用写真作成装置の全体構成について説明する。
<1. Overall configuration>
FIG. 1 is a diagram showing an appearance of a game photo creation device that is an automatic photo creation device according to an embodiment of the present invention. More specifically, FIG. 1 (a) is an external side view of the play photo creation apparatus as viewed from the side, and FIG. 1 (b) is an external plan view as viewed from above. This play photo creation device includes a shooting room 2 in which a user U enters, a shooting unit 3 that takes a picture of the user U and accepts selection of a background image and a foreground image, and editing including graffiti (drawing operation) by the user U And an editing unit 4 that receives an operation and generates a synthesized image synthesized with the photographed image. FIG. 2 is a front view of the photographing unit 3, and FIG. 3 is a front view of the editing unit 4. Hereinafter, the overall configuration of the game photo creation device according to the present embodiment will be described with reference to FIGS. 1 to 3.

撮影室2は、略直方体形状であって、撮影ユニット3は、内部に入る利用者Uから見て前の面である撮影室2の前面に沿って配置される。なお、撮影室2左右両側面の一部には、それぞれ利用者Uが出入りするための開口部と、当該開口部の一部または全部を覆う遮光カーテンとが設けられている。また、撮影室2の内部に入る利用者Uから見て後ろの面である背面には電動ロールカーテン装置25が備えられている。この電動ロールカーテン装置25にはクロマキー合成処理のための単一の色(ここでは青色または緑色)が付されたロールカーテンが収納されており、撮影の開始とともに当該ロールカーテンが展開され終了とともに巻き取られる。なお、電動ロールカーテン装置25は、クロマキー合成処理が行われない場合、所定の模様や風景などがそれぞれ描かれた複数のロールカーテンを適宜展開し巻き取る構成であってもよい。また、撮影室2の床面が撮影対象となる場合には、当該床面にも上記単一の色が付される。   The photographing room 2 has a substantially rectangular parallelepiped shape, and the photographing unit 3 is arranged along the front surface of the photographing room 2 which is a front surface when viewed from the user U entering the inside. In addition, an opening for allowing the user U to enter and exit and a light-shielding curtain that covers a part or all of the opening are provided in part of the left and right sides of the imaging room 2. In addition, an electric roll curtain device 25 is provided on the rear surface, which is the rear surface when viewed from the user U entering the inside of the photographing room 2. The electric roll curtain device 25 stores a roll curtain with a single color (in this case, blue or green) for chroma key composition processing. The roll curtain is unfolded at the start of photographing and rolled up at the end. Taken. The electric roll curtain device 25 may be configured to appropriately unfold and wind up a plurality of roll curtains each depicting a predetermined pattern, landscape, etc., when the chroma key composition process is not performed. Further, when the floor surface of the photographing room 2 is a subject to be photographed, the single color is also given to the floor surface.

撮影ユニット3は、利用者Uを撮影する撮像手段としてのカメラ10と、当該カメラ10の上下左右の適宜の位置に配置され閃光を発する照明手段としてのストロボ11,12,13L,13R,14と、当該カメラ10の下方に配置され利用者Uからの操作の受け付けや撮影画像の表示等を行う撮影操作用タッチパネル20とを備えている。   The photographing unit 3 includes a camera 10 as an imaging unit that photographs the user U, and strobes 11, 12, 13L, 13R, and 14 as illumination units that are arranged at appropriate positions on the top, bottom, left, and right of the camera 10 and emit flash light. And a photographing operation touch panel 20 that is disposed below the camera 10 and receives an operation from the user U and displays a photographed image.

カメラ10は、典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラであって、利用者Uを撮影し、その撮影画像を表す画像信号を出力する。ストロボ11〜14は、撮影のための充分な光を得るために利用者Uに向かって閃光を発する。撮影操作用タッチパネル20は、撮影の際に利用者Uによる各種操作を受け付けるための操作画面を提供するとともに、上記画像信号に基づく画像をリアルタイムで表示するように構成されている。図4は、撮影操作用タッチパネル20の画面構成を示す模式図である。図4に示すように、撮影操作用タッチパネル20には、リアルタイムで撮影画像を表示するためのリアルタイムプレビュー領域201と、ポーズの見本を表示するためのポーズ見本表示領域202と、撮影によって得られる落書き対象画像を表示するための落書き対象画像表示領域203とが含まれている。   The camera 10 is typically a digital camera that generates a digital image signal using a CCD (Charge Coupled Device), images the user U, and outputs an image signal representing the captured image. The flashes 11 to 14 emit a flash toward the user U in order to obtain sufficient light for photographing. The shooting operation touch panel 20 is configured to provide an operation screen for accepting various operations by the user U during shooting, and to display an image based on the image signal in real time. FIG. 4 is a schematic diagram illustrating a screen configuration of the shooting operation touch panel 20. As shown in FIG. 4, the shooting operation touch panel 20 has a real-time preview area 201 for displaying a shot image in real time, a pose sample display area 202 for displaying a pose sample, and a graffiti obtained by shooting. A graffiti target image display area 203 for displaying the target image is included.

また撮影ユニット3は、コンピュータを中心に構成され各部の制御等を行う制御装置、I/O制御装置、および編集ユニット4と通信を行うためのネットワークアダプタなどを内蔵しているほか、合成画像を写真シール(または写真カード)として出力する出力手段としてのネットワークプリンタ35を備えている。さらに、撮影ユニット3は、前面下方にコイン投入口26を、側面に写真シールの取出口28をそれぞれ備えている。   In addition, the photographing unit 3 is configured mainly by a computer and incorporates a control device that controls each part, an I / O control device, a network adapter that communicates with the editing unit 4, and the like. A network printer 35 is provided as output means for outputting as a photo sticker (or photo card). Further, the photographing unit 3 is provided with a coin insertion slot 26 on the lower front side and a photo sticker outlet 28 on the side.

編集ユニット4は、撮影ユニット3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置および撮影ユニット3等と通信を行うためのネットワークアダプタなどを内蔵している。また、編集ユニット4は、図1(b)に示すように、2組の利用者Uがプレイ可能なように2つのユニット4a、4bに分かれている。そのうちの一方のユニット4aには、落書き領域や落書きのためのメニュー、ツール等を表示する領域を含む編集操作用タッチパネル400と、当該編集操作用タッチパネル400に対する操作に使用されるタッチペン49L、49Rとが設けられている。なお、他方のユニット4bについても同様の構成となっている。ここで図1(a)において手前に見えるユニット4aを「落書きブースA」と呼び、その反対側(図では裏側)のユニット4bを「落書きブースB」と呼ぶ。   The editing unit 4 is configured around a computer similar to the photographing unit 3 and includes a control device that controls each part and the like, and a network adapter that communicates with the photographing unit 3 and the like. The editing unit 4 is divided into two units 4a and 4b so that two sets of users U can play as shown in FIG. One unit 4a includes an editing operation touch panel 400 including a graffiti area, an area for displaying a menu for graffiti, a tool, and the like, and touch pens 49L and 49R used for operations on the editing operation touch panel 400. Is provided. The other unit 4b has the same configuration. Here, the unit 4a seen in the foreground in FIG. 1A is referred to as “graffiti booth A”, and the unit 4b on the opposite side (the back side in the figure) is referred to as “graffiti booth B”.

本実施形態における編集操作用タッチパネル400は、各ユニット4a、4bにおいてそれぞれ2人の利用者Uが同時に落書きを行えるような画面構成となっている。なお、本説明においては、左側の利用者Uが使用する構成要素には「L」を含む参照符号を付し、右側の利用者Uが使用する構成要素には「R」を含む参照符号を付している。   The editing operation touch panel 400 according to the present embodiment has a screen configuration in which each of the units 4a and 4b allows two users U to simultaneously perform graffiti. In this description, components used by the left user U are given reference signs including “L”, and components used by the right user U are assigned reference signs including “R”. It is attached.

図5は、編集操作用タッチパネル400の画面構成を示す模式図である。この編集操作用タッチパネル400には、左右の利用者Uそれぞれが使用する構成要素として、撮影画像に基づいて生成された複数の落書き対象画像から選択された画像を表示し(仮想的な)落書きを行える領域である落書き領域41L、41Rと、利用者Uが落書きを行うためのツールすなわち(選択された)落書き対象画像に対する編集指示のためのツールの集合であって使用可能に表示したものとしてのパレット42L、42Rと、それらパレット42L、42Rに含まれるツールの種類を切り替えるためのモード選択ボタン群44L、44Rと、パレット42L、42Rに含まれうるツール以外で落書きに関する操作を行うためのボタン群45L、45Rとが含まれている。パレット42L、42Rにはタブ43L、43Rが設けられており、タブを切り替えることによって多種類のアイテムの表示、選択が可能となっている。また、編集操作用タッチパネル400には、左右の利用者が共通に使用する構成要素として、落書き時間の残り時間を表示するためのタイマー46と、編集用の複数の落書き対象画像を落書き候補画像として小さく一覧表示した画像群である候補画像サムネイル47と、タブやアイテムなどの選択が行われたときに当該選択されたものについての使用説明などを表示するためのガイド画面表示領域48とが含まれている。   FIG. 5 is a schematic diagram showing a screen configuration of the editing operation touch panel 400. The editing operation touch panel 400 displays an image selected from a plurality of graffiti target images generated based on the photographed image as a component used by each of the left and right users U, and displays a (virtual) graffiti. Graffiti areas 41L and 41R, which can be performed, and tools for the user U to perform graffiti, that is, a set of tools for editing instructions for the (selected) graffiti target image, and displayed as usable Pallets 42L, 42R, mode selection buttons 44L, 44R for switching the types of tools included in the palettes 42L, 42R, and buttons for performing operations related to graffiti other than tools that can be included in the palettes 42L, 42R 45L, 45R. The pallets 42L and 42R are provided with tabs 43L and 43R, and various types of items can be displayed and selected by switching the tabs. Further, the editing operation touch panel 400 includes a timer 46 for displaying the remaining graffiti time as components commonly used by the left and right users, and a plurality of editing graffiti target images as graffiti candidate images. A candidate image thumbnail 47, which is a group of images displayed in a small list, and a guide screen display area 48 for displaying usage instructions for the selected item when a tab or item is selected are included. ing.

なお、図5に示す編集操作用タッチパネル400において、モード選択ボタン群44L、44Rによって、パレットモードを例えば「ペン」、「スタンプ」、「フレーム」、および「背景」のいずれかに切り替えることができる。また、ボタン群45L、45Rによって、例えば「らくがき終了」、「らくがき全消去」、「一つ戻る」、「消しゴム」、「背景消しゴム」、「太いペン」、「中ぐらいのペン」、および「細いペン」というような機能が提供される。   In the editing operation touch panel 400 shown in FIG. 5, the palette mode can be switched to, for example, “pen”, “stamp”, “frame”, and “background” by the mode selection buttons 44L and 44R. . Further, the button groups 45L and 45R, for example, “end of graffiti”, “erase all of graffiti”, “return one”, “eraser”, “background eraser”, “thick pen”, “medium pen”, and “ A function called “thin pen” is provided.

以上のような構成において、利用者は、撮影室2において撮影を行った後、編集ユニット4の落書きブースAまたは落書きブースBの編集操作用タッチパネル400を使用することにより、撮影画像に基づいて生成された落書き対象画像に対して落書きを行う。そして、落書きによって生成された合成画像をネットワークプリンタ35から印刷出力する。   In the configuration as described above, after shooting in the shooting room 2, the user uses the graffiti booth A of the editing unit 4 or the touch panel 400 for the editing operation of the graffiti booth B to generate based on the shot image. Graffiti is performed on the graffiti target image. The composite image generated by graffiti is printed out from the network printer 35.

<2.機能的構成>
図6は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。この遊戯用写真作成装置は、機能的には、主として利用者Uを撮影する処理(撮影処理)を行うための撮影処理部7と、主として落書き対象画像に対する利用者Uの落書き操作に応じて当該落書き対象画像の編集処理を行うための編集処理部8と、印刷出力を行う出力処理部9とから構成されている。撮影処理部7は、第1の制御部70と撮像部71と第1の表示・操作部72とI/O制御部73と照明部74と第1の通信部75とによって構成されている。編集処理部8は、第2の制御部80と第2の表示・操作部81、82と第2の通信部83とによって構成されている。出力処理部9は、出力部90によって構成されている。ネットワークアダプタである第1および第2の通信部75,83とネットワークプリンタ35である出力部90とは、LAN(Local Area Network)などのネットワーク6を介してそれぞれ相互に通信可能となっている。
<2. Functional configuration>
FIG. 6 is a block diagram showing the configuration of the main part of the play photo creating apparatus according to the present embodiment as seen from the functional aspect. Functionally, the game photo creation device has a shooting processing unit 7 for mainly performing a process of shooting the user U (shooting process), and mainly according to the graffiti operation of the user U on the graffiti target image. An editing processing unit 8 for performing an editing process on the graffiti target image and an output processing unit 9 for performing printing output are included. The imaging processing unit 7 includes a first control unit 70, an imaging unit 71, a first display / operation unit 72, an I / O control unit 73, an illumination unit 74, and a first communication unit 75. The edit processing unit 8 includes a second control unit 80, second display / operation units 81 and 82, and a second communication unit 83. The output processing unit 9 is configured by an output unit 90. The first and second communication units 75 and 83 that are network adapters and the output unit 90 that is the network printer 35 can communicate with each other via a network 6 such as a LAN (Local Area Network).

撮像部71は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(撮影画像)を表す画像信号を出力する。この画像信号は第1の制御部70に入力されて、その内部のメモリに撮影画像データとして一時的に記憶される。また、この撮影画像データは撮影画像信号として第1の制御部70から第1の表示・操作部72に供給され、当該撮影画像信号に基づく撮影画像がリアルタイムに表示される。   The imaging unit 71 corresponds to the camera 10 configured using an imaging element such as a CCD, and captures an image in real time and outputs an image signal representing the image (captured image). This image signal is input to the first control unit 70 and temporarily stored as photographed image data in its internal memory. The captured image data is supplied as a captured image signal from the first control unit 70 to the first display / operation unit 72, and a captured image based on the captured image signal is displayed in real time.

第1の表示・操作部72は、撮影操作用タッチパネル20に相当し、撮影画像に合成されるべき背景画像および前景画像を選択する操作や、出力されるべき写真のレイアウトを決定するための利用者Uの操作やシャッター操作等を受け付ける。これらの操作を示す信号は、操作信号として第1の制御部70に入力される。ここで、利用者Uを撮影するための(選択された撮影メニューに対応する)所定の処理が開始されると、第1の表示・操作部72に利用者Uのための案内が表示され、その後の第1の制御部70からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にストロボ11〜14から閃光が放たれる。そのとき、利用者Uの撮影画像を表す信号として撮像部71から出力される画像信号が第1の制御部70に入力され、第1の制御部70内のメモリまたは補助記憶装置としてのハードディス装置等に撮影画像データとして格納される。また、この撮影画像データに対して後述する小顔処理が施されることによって落書き対象画像が生成される。   The first display / operation unit 72 corresponds to the shooting operation touch panel 20 and is used for selecting a background image and a foreground image to be combined with a shot image and determining a layout of a photo to be output. The operation of the person U and the shutter operation are accepted. Signals indicating these operations are input to the first control unit 70 as operation signals. Here, when a predetermined process (corresponding to the selected shooting menu) for shooting the user U is started, guidance for the user U is displayed on the first display / operation unit 72, Thereafter, based on an instruction from the first control unit 70, a flash is emitted from the flashes 11 to 14 in the shooting direction of the camera 10 after a predetermined time of about several seconds has elapsed. At that time, an image signal output from the imaging unit 71 as a signal representing a captured image of the user U is input to the first control unit 70, and a hard disk as a memory or an auxiliary storage device in the first control unit 70. It is stored as captured image data in a device or the like. In addition, a graffiti target image is generated by performing small face processing described later on the captured image data.

照明部74は、カメラ10の上下左右の適宜の位置に配置されたストロボ11,12,13L,13R,14に相当し、第1の制御部70からの指示に基づきI/O制御部73によって点灯/消灯および調光が制御される。I/O制御部73は、撮影ユニット3に内蔵されるI/O制御装置に相当し、第1の制御部70からの指示に基づき、照明部74を制御する。また、後述のコイン検出部(不図示)からの検出信号等の入力信号を第1の制御部70へ転送する。第1の通信部75は、撮影ユニット3に内蔵されるネットワークアダプタに相当し、データ送受信の際のインタフェースとして機能する。   The illumination unit 74 corresponds to the strobes 11, 12, 13 L, 13 R, and 14 disposed at appropriate positions on the top, bottom, left, and right of the camera 10, and is controlled by the I / O control unit 73 based on an instruction from the first control unit 70. Lighting / extinguishing and dimming are controlled. The I / O control unit 73 corresponds to an I / O control device built in the photographing unit 3, and controls the illumination unit 74 based on an instruction from the first control unit 70. Further, an input signal such as a detection signal from a coin detection unit (not shown) described later is transferred to the first control unit 70. The first communication unit 75 corresponds to a network adapter built in the photographing unit 3 and functions as an interface for data transmission / reception.

第1の制御部70は、撮影ユニット3に内蔵され、CPUや、メモリ、フレームバッファ、タイマー、補助記憶装置などを含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号等に基づき各部を制御するために、上述のように各部に指示を出す。また撮影された画像に基づいて落書き対象画像が生成され、生成された落書き対象画像はフレームバッファに書き込まれることにより、第1の表示・操作部72に表示される。さらに、第1の制御部70は、落書き対象画像に所定の背景画像や前景画像を描画した画像である合成画像を生成する。生成された合成画像はフレームバッファに書き込まれることにより第1の表示・操作部72に表示される。こうして撮影および合成画像の生成が終了すると、生成された合成画像は利用者Uの操作入力に応じて適宜選択された後、第1の通信部75を介して、編集ユニット4に対応する第2の制御部80へ送信される。   The first control unit 70 is built in the photographing unit 3 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device, and the like, and is stored in an internal memory. When the CPU executes the predetermined program, an instruction is issued to each unit as described above in order to control each unit based on the operation signal or the like input as described above. A graffiti target image is generated based on the photographed image, and the generated graffiti target image is written in the frame buffer and displayed on the first display / operation unit 72. Further, the first control unit 70 generates a composite image that is an image in which a predetermined background image or foreground image is drawn on the graffiti target image. The generated composite image is displayed on the first display / operation unit 72 by being written in the frame buffer. When the shooting and generation of the composite image are completed in this way, the generated composite image is appropriately selected according to the operation input of the user U, and then the second corresponding to the editing unit 4 via the first communication unit 75. To the control unit 80.

上記の構成要素の他、撮影ユニット3におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に撮影ユニット3に設けられており、第1の制御部70は、コイン検出部での検出結果に基づき、利用者Uに所定時間だけ撮影や背景画像および前景画像の選択や落書きなど、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部やその検出結果に基づく第1の制御部70による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。   In addition to the above-described components, the photographing unit 3 is further provided with a coin detection unit (not shown) for detecting coins inserted into the coin insertion slot 26 in the photographing unit 3, and the first control unit 70 includes Based on the detection result of the coin detection unit, each unit is controlled so as to allow the user U to play with the present photo creation device, such as shooting, selection of background images and foreground images, and graffiti for a predetermined time. Since the control operation by the coin control unit and the first control unit 70 based on the detection result is the same as that of the conventional game photo creation device and is well known, detailed description thereof will be omitted.

第2の制御部80は、編集ユニット4に内蔵され、CPU、メモリ、フレームバッファ、および補助記憶装置などを含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、編集処理に関する全体の制御を行う。また、第2の制御部80は、第1の制御部70から送られてきた合成画像に対する落書き処理を行うための操作信号に基づき、当該合成画像に所定画像を描画した画像である合成画像を生成する。生成された合成画像は対応する第2の表示・操作部81,82に表示される。上記のような画像合成が終了すると、当該合成画像は出力部90に送信される。なお、出力部90が別の合成画像を出力中である場合には、その旨が表示されるとともに終了を待って送信される。   The second control unit 80 is a built-in editing unit 4 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, an auxiliary storage device, etc., and a predetermined program stored in the internal memory Is executed by the CPU to perform overall control related to the editing process. The second control unit 80 also displays a composite image that is an image obtained by drawing a predetermined image on the composite image based on an operation signal for performing graffiti processing on the composite image sent from the first control unit 70. Generate. The generated composite image is displayed on the corresponding second display / operation unit 81, 82. When the image composition as described above is completed, the composite image is transmitted to the output unit 90. If the output unit 90 is outputting another composite image, a message to that effect is displayed and transmitted after waiting for completion.

第2の表示・操作部81、82は、落書きのための編集操作用タッチパネル400に相当し、タッチペンを用いた利用者Uの操作を受け付ける。第2の通信部83は、編集ユニット4に内蔵されるネットワークアダプタに相当し、データ送受信の際のインタフェースとして機能する。   The second display / operation units 81 and 82 correspond to the editing operation touch panel 400 for graffiti, and accept the operation of the user U using the touch pen. The second communication unit 83 corresponds to a network adapter built in the editing unit 4 and functions as an interface for data transmission / reception.

出力部90は、撮影ユニット3に内蔵されるネットワークプリンタ35に相当し、第2の制御部80から受け取った利用者Uの落書きに応じて画像処理された画像データの表す画像を写真シール(または写真カード)として出力する。出力された写真シール等は、撮影ユニット3の側面に設けられた取出口28から取り出される。   The output unit 90 corresponds to the network printer 35 incorporated in the photographing unit 3, and displays an image represented by image data image-processed according to the graffiti of the user U received from the second control unit 80 as a photo sticker (or Output as a photo card. The outputted photo sticker or the like is taken out from an outlet 28 provided on the side surface of the photographing unit 3.

なお、制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるDVD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのDVD−ROMが制御装置内に補助記憶装置として内蔵されたDVD−ROM駆動装置に装着され、そのDVD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。また、上記所定プログラムは、DVD−ROM以外の記録媒体(CD−ROM等)や通信回線を介して提供されてもよい。そして、本遊戯用写真作成装置の起動のための所定操作がなされると、ハードディスク装置にインストールされた所定プログラムは、制御装置内のメモリに転送されてそこに一時的に格納され、制御装置内のCPUによって実行される。これにより、制御装置による上記各部の制御処理が実現される。   The predetermined program executed in the control device is provided by, for example, a DVD-ROM that is a recording medium on which the program is recorded. That is, a DVD-ROM as a recording medium for the predetermined program is mounted on a DVD-ROM driving device built in the control device as an auxiliary storage device, and the predetermined program is read from the DVD-ROM as an auxiliary storage device. Installed on the hard disk drive. The predetermined program may be provided via a recording medium (CD-ROM or the like) other than a DVD-ROM or a communication line. Then, when a predetermined operation for starting the game photo creation device is performed, the predetermined program installed in the hard disk device is transferred to the memory in the control device and temporarily stored therein, The CPU is executed. Thereby, the control process of each part by the control device is realized.

<3.遊戯用写真作成装置における処理手順>
上述したように、この遊戯用写真作成装置には撮影ユニット3と編集ユニット4とが含まれている。撮影ユニット3では撮影処理が行われ、編集ユニット4では編集処理が行われる。なお、或る利用者Uが編集ユニット4でプレイしている時に他の利用者Uは撮影ユニット3でプレイすることができるように構成されている。すなわち、この遊戯用写真作成装置は、撮影処理と編集処理とを並行して行うことができる。以下に、撮影処理と編集処理の処理手順の概要について説明する。
<3. Processing procedure in a photo creation device for play>
As described above, the photo creation device for play includes the photographing unit 3 and the editing unit 4. The photographing unit 3 performs photographing processing, and the editing unit 4 performs editing processing. It should be noted that when a certain user U is playing with the editing unit 4, another user U can play with the photographing unit 3. That is, this game photo creation device can perform the shooting process and the editing process in parallel. The outline of the processing procedure of the photographing process and the editing process will be described below.

<3.1 撮影処理>
図7は、本実施形態における撮影処理の処理手順を示すフローチャートである。この遊戯用写真作成装置が利用されていない時(プレイが行われていない時)には、撮影操作用タッチパネル20にはデモ画像(デモンストレーション用の画像)が表示されている。デモ画像の表示中に利用者Uがコイン投入口26にコインを投入すると、プレイが開始される(ステップS100)。
<3.1 Shooting process>
FIG. 7 is a flowchart showing a processing procedure of the photographing process in the present embodiment. When the game photo creation device is not used (when play is not being performed), a demonstration image (demonstration image) is displayed on the shooting operation touch panel 20. When the user U inserts a coin into the coin insertion slot 26 during the display of the demo image, play is started (step S100).

プレイが開始されると、第1の制御部70は、利用者Uによる撮影モードの選択を受け付ける(ステップS110)。なお、本実施形態においては、撮影モードとして、利用者Uにとって自動的に撮影が行われる「オート撮影モード」と、背景等を利用者Uが選択する「こだわり撮影モード」とが用意されているものとして説明する。ステップS110では、第1の制御部70は、いずれかのモードを利用者Uに選択させるための画面を撮影操作用タッチパネル20に表示し、利用者Uによる選択操作を受け付ける。そして、第1の制御部70は、利用者Uがいずれのモードを選択したのかを判定する。判定の結果、オート撮影モードが選択されていればステップS120に進み、こだわり撮影モードが選択されていればステップS130に進む。   When the play is started, the first control unit 70 accepts the selection of the shooting mode by the user U (step S110). In this embodiment, an “auto shooting mode” in which shooting is automatically performed for the user U and a “discretion shooting mode” in which the user U selects a background and the like are prepared as shooting modes. It is explained as a thing. In step S <b> 110, the first control unit 70 displays a screen for causing the user U to select one of the modes on the shooting operation touch panel 20 and accepts a selection operation by the user U. Then, the first control unit 70 determines which mode the user U has selected. As a result of the determination, if the auto shooting mode is selected, the process proceeds to step S120, and if the discreet shooting mode is selected, the process proceeds to step S130.

ステップS120では、撮影用テーマの選択が行われる。具体的には、第1の制御部70は、予め用意された複数の撮影用テーマの中からいずれか(1または複数)の撮影用テーマを利用者Uに選択させるための画面を撮影操作用タッチパネル20に表示し、利用者Uによる選択操作を受け付ける。そして、第1の制御部70は、利用者Uの選択操作に基づいて選択情報を取得し、選択された撮影用テーマに基づいて、撮影の際に使用するフレームと背景との組み合わせを決定する。その後、ステップS121に進み、撮影が行われる。この撮影により、撮影画像データが第1の制御部70のメモリに格納される。   In step S120, a shooting theme is selected. Specifically, the first control unit 70 displays a screen for allowing the user U to select one (or a plurality) of shooting themes from a plurality of shooting themes prepared in advance. It displays on the touch panel 20 and receives selection operation by the user U. And the 1st control part 70 acquires selection information based on selection operation of user U, and determines the combination of the frame and background used at the time of photography based on the selected photography theme. . Thereafter, the process proceeds to step S121, and photographing is performed. By this shooting, the shot image data is stored in the memory of the first control unit 70.

撮影の終了後、ステップS123に進み、第1の制御部70のメモリに格納された撮影画像データに基づいて、顔検出処理が行われる。顔検出処理とは、撮影画像から利用者Uの顔の部分を表している領域を検出するための処理すなわち利用者Uの顔の輪郭を検出する処理のことである。本実施形態においては、公知の顔検出処理を用いて、撮影画像から利用者Uの顔の輪郭が検出される。例えば、特開平8−63597号公報に開示されているように、各画素のRGB値から明度,色相,彩度,色度などの色の特徴量を求め、その特徴量に基づいて対象画素が肌色であるか否かを判定し、肌色と判定された画素から成る画像に対してエッジ抽出を行ってエッジ画像を取得し、当該エッジ画像と予め用意された複数の顔テンプレートとをマッチングすることにより利用者Uの顔の輪郭を検出することができる。また、特開2000−48184号公報に開示されているように、肌色領域の検出後、当該肌色領域の射影分布を求め、その射影分布から顔領域候補を抽出し、当該顔領域候補についての領域の縦横比や当該顔領域候補が予め用意された顔パターンと一致するか否かなどを考慮して利用者Uの顔の輪郭を検出することもできる。さらに、特許第4121026号公報に開示されているように、水平方向および垂直方向のエッジの大きさから算出される勾配ベクトルに基づく特徴量と顔の識別のために予め用意された参照データとに基づいて識別ポイントを求め、当該識別ポイントに基づいて利用者Uの顔を検出するようにしても良い。顔検出処理の終了後、ステップS125に進む。   After the photographing is completed, the process proceeds to step S123, and face detection processing is performed based on the photographed image data stored in the memory of the first control unit 70. The face detection process is a process for detecting an area representing a part of the face of the user U from the captured image, that is, a process for detecting the contour of the face of the user U. In the present embodiment, the contour of the face of the user U is detected from the captured image using a known face detection process. For example, as disclosed in JP-A-8-63597, color feature values such as brightness, hue, saturation, and chromaticity are obtained from the RGB values of each pixel, and the target pixel is determined based on the feature values. It is determined whether or not the skin color, and edge extraction is performed on the image composed of pixels determined to be the skin color to acquire the edge image, and the edge image and a plurality of face templates prepared in advance are matched. Thus, the contour of the face of the user U can be detected. Further, as disclosed in Japanese Patent Laid-Open No. 2000-48184, after detecting a skin color area, a projection distribution of the skin color area is obtained, a face area candidate is extracted from the projection distribution, and an area for the face area candidate is extracted. The contour of the face of the user U can be detected in consideration of the aspect ratio and whether the face area candidate matches a face pattern prepared in advance. Further, as disclosed in Japanese Patent No. 4121026, the feature amount based on the gradient vector calculated from the size of the edge in the horizontal direction and the vertical direction, and reference data prepared in advance for face identification are used. An identification point may be obtained based on the identification point, and the face of the user U may be detected based on the identification point. After the face detection process ends, the process proceeds to step S125.

ステップS125では、小顔処理が行われる。小顔処理とは、最終的に出力される写真シールにおける利用者Uの顔が実際の撮影画像における利用者Uの顔よりも相対的に小さくなるように、撮影画像から当該撮影画像に含まれている利用者Uの顔の輪郭を小さくすることによって落書き対象画像を生成する処理のことである。なお、小顔処理についての詳しい説明は後述する。小顔処理の終了後、ステップS127に進む。   In step S125, small face processing is performed. The small face processing is included in the captured image from the captured image so that the face of the user U in the finally output photo sticker is relatively smaller than the face of the user U in the actual captured image. This is a process of generating a graffiti target image by reducing the contour of the face of the user U who is currently on. A detailed description of the small face processing will be described later. After the small face processing ends, the process proceeds to step S127.

ステップS127では、小顔処理によって撮影画像に基づいて生成された落書き対象画像が、撮影操作用タッチパネル20に表示される。詳しくは、ステップS127の処理が行われる都度、図4に示した撮影操作用タッチパネル20の落書き対象画像表示領域203に落書き対象画像が順次表示される。その後、ステップS129に進み、第1の制御部70は、予め定められた枚数の撮影が終了したか否かを判定する。判定の結果、当該枚数の撮影が終了していればステップS140に進み、当該枚数の撮影が終了していなければステップS121に戻る。   In step S127, the graffiti target image generated based on the photographed image by the small face processing is displayed on the photographing operation touch panel 20. Specifically, each time the process of step S127 is performed, the graffiti target images are sequentially displayed in the graffiti target image display area 203 of the touch panel for photographing operation 20 illustrated in FIG. Thereafter, the process proceeds to step S129, and the first control unit 70 determines whether or not a predetermined number of images have been taken. As a result of the determination, if the number of images has been shot, the process proceeds to step S140. If the number of images has not been shot, the process returns to step S121.

ステップS130では、利用者Uによって、フレームと背景との組み合わせが選択される。具体的には、第1の制御部70は、予め用意された複数のフレームの中からいずれかのフレームを利用者Uに選択させるための画面、および予め用意された複数の背景の中からいずれかの背景を利用者Uに選択させるための画面を撮影操作用タッチパネル20に表示し、利用者Uによる選択操作を受け付ける。そして、第1の制御部70は、利用者Uの選択操作に基づいて、選択情報を取得する。その後、ステップS131に進み、撮影が行われる。この撮影により、撮影画像データが第1の制御部70のメモリに格納される。   In step S130, the user U selects a combination of a frame and a background. Specifically, the first control unit 70 selects any one of a screen for causing the user U to select one of a plurality of frames prepared in advance and a plurality of backgrounds prepared in advance. A screen for allowing the user U to select the background is displayed on the touch panel 20 for photographing operation, and a selection operation by the user U is accepted. And the 1st control part 70 acquires selection information based on user U's selection operation. Thereafter, the process proceeds to step S131, and photographing is performed. By this shooting, the shot image data is stored in the memory of the first control unit 70.

撮影の終了後、顔検出処理(ステップS133)および小顔処理(ステップS135)が行われ、それらの処理によって生成された落書き対象画像が撮影操作用タッチパネル20に表示される(ステップS137)。なお、ステップS133、ステップS135、およびステップS137における処理の詳細については、それぞれ上述したステップS123、ステップS125、およびステップS127と同様であるので、説明を省略する。ステップS137の終了後、ステップS139に進み、第1の制御部70は、プレイの開始から或いは撮影モードが選択されてから所定の時間が経過しているか否かの判定を行う。判定の結果、所定の時間が経過していればステップS140に進み、所定の時間が経過していなければステップS130に戻る。   After shooting, face detection processing (step S133) and small face processing (step S135) are performed, and the graffiti target image generated by these processings is displayed on the shooting operation touch panel 20 (step S137). Note that the details of the processing in step S133, step S135, and step S137 are the same as those in step S123, step S125, and step S127, respectively, and thus description thereof is omitted. After the end of step S137, the process proceeds to step S139, and the first control unit 70 determines whether or not a predetermined time has elapsed since the start of play or since the shooting mode was selected. As a result of the determination, if the predetermined time has elapsed, the process proceeds to step S140, and if the predetermined time has not elapsed, the process returns to step S130.

ステップS140では、小顔処理で生成された複数の落書き対象画像の中から実際の落書き対象となる画像の(利用者Uによる)選択が行われる。具体的には、第1の制御部70は、落書きおよび印刷に使用する画像を利用者Uに選択させるために、落書き対象画像の一覧を撮影操作用タッチパネル20に表示し、利用者Uによる選択操作を受け付ける。そして、第1の制御部70は、利用者Uによって選択された画像を実際の落書き対象画像として第2の制御部80に転送する。ステップS140の終了後、ステップS150に進む。ステップS150では、案内画面の表示が行われる。具体的には、第1の制御部70は、利用者Uを編集ユニット4のいずれか(4aまたは4b)に導くための画面を撮影操作用タッチパネル20に表示する。これにより、撮影処理が終了する。   In step S140, an image (by the user U) that is an actual graffiti target is selected from a plurality of graffiti target images generated by the small face processing. Specifically, the first control unit 70 displays a list of graffiti target images on the shooting operation touch panel 20 and allows the user U to select the image to be used for graffiti and printing. Accept the operation. Then, the first control unit 70 transfers the image selected by the user U to the second control unit 80 as an actual graffiti target image. After step S140 ends, the process proceeds to step S150. In step S150, a guidance screen is displayed. Specifically, the first control unit 70 displays a screen for guiding the user U to any one of the editing units 4 (4 a or 4 b) on the photographing operation touch panel 20. Thereby, the photographing process is completed.

なお、本実施形態においては、上記ステップS123,S133によって顔検出手段(顔検出ステップ)が実現され、上記ステップS125,S135によって小顔処理手段(小顔処理ステップ)が実現されている。   In the present embodiment, the face detection means (face detection step) is realized by steps S123 and S133, and the small face processing means (small face processing step) is realized by steps S125 and S135.

<3.2 編集処理>
図8は、本実施形態における編集処理の処理手順を示すフローチャートである。上述した撮影処理の終了後、第2の制御部80は、ネットワーク6を介して第1の制御部70から送られる落書き対象画像(図8のステップS140で利用者Uによって選択された画像)を取得する(ステップS200)。その後、タイマー46が所定の時間(利用者Uに落書きを許可する時間)に設定され、カウントダウンが開始される(ステップS210)。
<3.2 Editing process>
FIG. 8 is a flowchart showing a processing procedure of editing processing in the present embodiment. After the photographing process described above is completed, the second control unit 80 selects the graffiti target image (the image selected by the user U in step S140 in FIG. 8) sent from the first control unit 70 via the network 6. Obtain (step S200). Thereafter, the timer 46 is set to a predetermined time (time for allowing the user U to doodle) and the countdown is started (step S210).

タイマー46のカウントダウン開始後、編集ユニット4では、利用者Uによる落書き操作(描画操作)が受け付けられる(ステップS220)。利用者Uに落書きを許可する残り時間が60秒になると、第2の制御部80は、落書き時間を延長するか否かを判定する(ステップS230)。落書き時間を延長するか否かは、次にこのユニット4aまたは4bでプレイすることになる利用者Uが撮影室2にいるか否か(撮影ユニット3で撮影処理が行われているか否か)によって判定される。その結果、落書き時間を延長する旨の判定がなされると、ステップS240に進む。一方、落書き時間を延長しない旨の判定がなされると、ステップS250に進む。ステップS240では、タイマーが所定の時間(利用者Uに更に落書きを許可する時間)に設定され、再度カウントダウンが開始される。ステップS240の終了後、ステップS250に進む。   After the timer 46 starts counting down, the editing unit 4 accepts a graffiti operation (drawing operation) by the user U (step S220). When the remaining time for allowing the user U to doodle is 60 seconds, the second control unit 80 determines whether or not to extend the doodle time (step S230). Whether or not to extend the graffiti time depends on whether or not the user U who will play next in the unit 4a or 4b is in the shooting room 2 (whether or not the shooting process is performed in the shooting unit 3). Determined. As a result, if it is determined to extend the graffiti time, the process proceeds to step S240. On the other hand, if it is determined that the graffiti time is not extended, the process proceeds to step S250. In step S240, the timer is set to a predetermined time (time for allowing the user U to further doodle), and the countdown is started again. After step S240 ends, the process proceeds to step S250.

ステップS250では、ステップS220と同様、編集ユニット4で利用者Uによる落書き操作が受け付けられる。落書き時間が0になる(終了する)と、出力される写真の分割パターンの選択が行われる(ステップS260)。具体的には、第2の制御部80は、予め用意された複数の分割パターンの中からいずれかの分割パターンを利用者Uに選択させるための画面を編集操作用タッチパネル400に表示し、利用者Uによる選択操作を受け付ける。そして、第2の制御部80は、利用者Uの選択操作に基づいて、選択情報を取得する。ステップS260の終了後、ステップS270に進む。   In step S250, as in step S220, the editing unit 4 accepts a graffiti operation by the user U. When the graffiti time reaches 0 (ends), the division pattern of the output photo is selected (step S260). Specifically, the second control unit 80 displays on the editing operation touch panel 400 a screen for allowing the user U to select one of the plurality of division patterns prepared in advance, and uses the division pattern. The selection operation by the person U is received. Then, the second control unit 80 acquires selection information based on the selection operation of the user U. After step S260 ends, the process proceeds to step S270.

ステップS270では、第2の制御部80は、落書き終了済みの落書き対象画像である合成画像を所定のサーバに登録するか否かの判定を行う。具体的には、第2の制御部80は、合成画像を所定のサーバに登録するか否かを利用者Uに選択させるための画面を編集操作用タッチパネル400に表示し、利用者Uによる選択操作を受け付ける。そして、第2の制御部80は、利用者Uがいずれを選択したのか判定する。判定の結果、サーバに登録する旨の選択が行われていればステップS280に進み、サーバに登録しない旨の選択が行われていればステップS290に進む。   In step S270, the second control unit 80 determines whether or not to register a composite image, which is a graffiti target image for which graffiti has been completed, in a predetermined server. Specifically, the second control unit 80 displays on the editing operation touch panel 400 a screen for allowing the user U to select whether or not to register the composite image in a predetermined server, and the user U selects the screen. Accept the operation. Then, the second control unit 80 determines which user U has selected. If it is determined that registration to the server has been selected, the process proceeds to step S280, and if selection to not register to the server has been performed, the process proceeds to step S290.

ステップS280では、所定のサーバへの合成画像の画像データの送信が行われる。ステップS280の終了後、ステップS290に進む。ステップS290では、案内画面の表示が行われる。具体的には、第2の制御部80は、利用者Uを写真シールの取出口28に導くための画面を編集操作用タッチパネル400に表示する。これにより、編集処理が終了する。   In step S280, the image data of the composite image is transmitted to a predetermined server. After step S280 ends, the process proceeds to step S290. In step S290, a guidance screen is displayed. Specifically, the second control unit 80 displays a screen for guiding the user U to the photo sticker outlet 28 on the editing operation touch panel 400. Thereby, the editing process ends.

<3.3 小顔処理>
図9は、本実施形態における小顔処理の処理手順を示すフローチャートである。まず、第1の制御部70は、上述した顔検出処理の結果に基づき、撮影画像に何人の顔が含まれているかの情報(以下「人数データ」という。)を取得する(ステップS300)。この小顔処理においては、その人数データに基づいて、ステップS310からステップS340までの処理が人数分の回数だけ繰り返される。例えば撮影画像に3人の顔が含まれていれば、ステップS310からステップS340までの処理が3回繰り返され、当該3人の利用者Uの顔が順次に処理対象とされる。
<3.3 Small face processing>
FIG. 9 is a flowchart showing a processing procedure of small face processing in the present embodiment. First, the first control unit 70 acquires information (hereinafter referred to as “number data”) indicating how many faces are included in the captured image based on the result of the face detection process described above (step S300). In this small face processing, the processing from step S310 to step S340 is repeated as many times as the number of people based on the number of people data. For example, if the photographed image includes three faces, the processing from step S310 to step S340 is repeated three times, and the faces of the three users U are sequentially processed.

ステップS310では、第1の制御部70は、撮影画像中の処理対象とされている利用者Uの顔の輪郭のうち目から下の部分を当該撮影画像から抽出する(抽出されたデータを以下「抽出輪郭データ」という。)。その後、ステップS320に進み、第1の制御部70は、抽出輪郭データの座標の変換を行う。この変換は、変換後の利用者Uの顔の輪郭が変換前の利用者Uの顔の輪郭よりも小さくなるように行われる。これにより、例えば、図10(a)に示すような利用者Uの顔の輪郭が図10(b)に示すような形状に変形させられる。   In step S310, the first control unit 70 extracts, from the captured image, a portion below the eyes from the outline of the face of the user U that is the processing target in the captured image (the extracted data is described below). "Extracted contour data"). Then, it progresses to step S320 and the 1st control part 70 performs the conversion of the coordinate of extraction outline data. This conversion is performed so that the contour of the face of the user U after conversion is smaller than the contour of the face of the user U before conversion. Thereby, for example, the contour of the face of the user U as shown in FIG. 10A is deformed into a shape as shown in FIG.

ステップS320の終了後、ステップS330に進み、第1の制御部70は、利用者Uの顔の輪郭を変形させたことに伴い、利用者Uの首の部分のデータの座標を変換する。これにより、変換後のデータに基づく利用者Uの首の長さは、変換前のデータに基づく利用者Uの首の長さよりも長くなる。ステップS330の終了後、ステップS340に進み、第1の制御部70は、人数分の処理が終了したか否かの判定を行う。判定の結果、人数分の処理が終了していれば小顔処理は終了し、人数分の処理が終了していなければステップS310に戻る。   After the end of step S320, the process proceeds to step S330, and the first control unit 70 converts the coordinates of the data of the neck portion of the user U in accordance with the transformation of the contour of the user U's face. Thereby, the length of the neck of the user U based on the data after conversion becomes longer than the length of the neck of the user U based on the data before conversion. After step S330 is completed, the process proceeds to step S340, and the first control unit 70 determines whether or not the process for the number of people is completed. As a result of the determination, if the processing for the number of people is completed, the small face processing is completed. If the processing for the number of people is not completed, the process returns to step S310.

ところで、上記小顔処理において、撮影画像中の利用者Uの顔は例えば以下のようにして縮小される。まず、撮影画像において利用者Uの右目および左目の所定の位置を通過する直線が第1の基準線とされる。これについては、図11に示すように、右目および左目の最上部を通過する直線51を第1の基準線としても良いし、右目および左目の中心を通過する直線52を第1の基準線としても良いし、右目および左目の最下部を通過する直線53を第1の基準線としても良い。そして、利用者Uの顔の輪郭を形成する画素データのうち第1の基準線よりも当該利用者Uの顎側に位置する画素データが上述の抽出輪郭データとされる。また、図11に示すように、撮影画像において利用者Uの額の中心と顎の中心とを通過する直線55が第2の基準線とされる。そして、第1の基準線や第2の基準線を考慮して抽出輪郭データの座標の変換(移動)が行われる。   By the way, in the small face processing, the face of the user U in the captured image is reduced as follows, for example. First, a straight line passing through predetermined positions of the right eye and the left eye of the user U in the captured image is set as the first reference line. As shown in FIG. 11, a straight line 51 passing through the uppermost portions of the right eye and the left eye may be used as the first reference line, and a straight line 52 passing through the centers of the right eye and the left eye is used as the first reference line. Alternatively, the straight line 53 passing through the lowermost part of the right eye and the left eye may be used as the first reference line. Of the pixel data forming the contour of the face of the user U, the pixel data located on the chin side of the user U with respect to the first reference line is the extracted contour data. Also, as shown in FIG. 11, a straight line 55 that passes through the center of the forehead of the user U and the center of the jaw in the captured image is taken as the second reference line. Then, the transformation (movement) of the coordinates of the extracted contour data is performed in consideration of the first reference line and the second reference line.

以下、利用者Uの右目および左目の最下部を通過する直線53が第1の基準線とされたものと仮定して抽出輪郭データの座標の変換例(第1〜第3の変換例)を説明する。第1の変換例では、図12(a)に示すように、抽出輪郭データの各画素の座標が第1の基準線寄りに移動させられる。これにより、図11に示すような撮影画像は図13(a)に示すような画像に変換される。第2の変換例では、図12(b)に示すように、抽出輪郭データの各画素の座標が第1の基準線寄りかつ第2の基準線寄りに移動させられ、その際、第1の基準線寄りに移動させられる距離と第2の基準線寄りに移動させられる距離とは等しくされる。これにより、図11に示すような撮影画像は図13(b)に示すような画像に変換される。第3の変換例では、図12(c)に示すように、抽出輪郭データの各画素の座標が第1の基準線寄りかつ第2の基準線寄りに移動させられ、その際、第2の基準線寄りに移動させられる距離は第1の基準線寄りに移動させられる距離よりも長くされる。これにより、図11に示すような撮影画像は図13(c)に示すような画像に変換される。以上のように、抽出輪郭データの座標の変換の仕方は様々なものが考えられる。   Hereinafter, assuming that the straight line 53 passing through the lowermost part of the right eye and the left eye of the user U is the first reference line, the coordinate conversion examples (first to third conversion examples) of the extracted contour data are shown. explain. In the first conversion example, as shown in FIG. 12A, the coordinates of each pixel of the extracted contour data are moved closer to the first reference line. Thereby, the captured image as shown in FIG. 11 is converted into an image as shown in FIG. In the second conversion example, as shown in FIG. 12B, the coordinates of each pixel of the extracted contour data are moved closer to the first reference line and closer to the second reference line. The distance moved closer to the reference line is equal to the distance moved closer to the second reference line. As a result, the photographed image as shown in FIG. 11 is converted into an image as shown in FIG. In the third conversion example, as shown in FIG. 12C, the coordinates of each pixel of the extracted contour data are moved closer to the first reference line and closer to the second reference line. The distance moved closer to the reference line is made longer than the distance moved closer to the first reference line. Thereby, the captured image as shown in FIG. 11 is converted into an image as shown in FIG. As described above, there are various ways of converting the coordinates of the extracted contour data.

<4.効果>
以上のように、本実施形態によると、撮影によって得られた撮影画像に対して利用者Uの顔の輪郭を小さくする処理(小顔処理)が施され、それによって生成された画像が落書き対象画像とされる。そして、当該落書き対象画像に落書きが施された画像が出力される。小顔処理においては、撮影画像において利用者Uの右目および左目の所定の位置を通過する直線を第1の基準線としたときに、撮影画像において利用者Uの顔の輪郭を形成する画素データのうち第1の基準線よりも利用者Uの顎側に位置する画素データの座標が第1の基準線寄りに移動させられる。このため、本来よりも目から顎までの距離が短く写った写真を利用者Uに提供することができる。
<4. Effect>
As described above, according to the present embodiment, processing (small face processing) for reducing the contour of the face of the user U is performed on the captured image obtained by capturing, and the image generated thereby is a graffiti target. It is an image. Then, an image in which graffiti is applied to the graffiti target image is output. In the small face processing, pixel data that forms the contour of the face of the user U in the captured image when a straight line passing through predetermined positions of the right eye and left eye of the user U in the captured image is used as the first reference line. Of these, the coordinates of the pixel data located closer to the chin side of the user U than the first reference line are moved closer to the first reference line. Therefore, it is possible to provide the user U with a photograph in which the distance from the eyes to the chin is shorter than the original.

また、本実施形態によれば、小顔処理において、利用者Uの顔の輪郭のうち両目の所定位置よりも顎側の部分については上方(頭部寄り)かつ中心寄りに移動させられる(第2の変換例)。このため、落書き対象画像中の利用者Uの顔については、目から顎までの距離が本来の距離よりも短くなるとともに、目よりも顎側の部分が本来よりも細くなる。これにより、本来よりも目から顎までの距離が短く、かつ、目よりも顎側の部分が本来よりも細く写った写真を利用者Uに提供することができる。   Further, according to the present embodiment, in the small face processing, the portion of the user U's face that is closer to the chin than the predetermined position of both eyes is moved upward (close to the head) and close to the center (first). 2 conversion example). For this reason, with respect to the face of the user U in the graffiti target image, the distance from the eyes to the chin becomes shorter than the original distance, and the portion on the chin side of the eyes becomes thinner than the original. Accordingly, a photograph in which the distance from the eyes to the chin is shorter than the original and the portion closer to the chin than the eyes is thinner than the original can be provided to the user U.

また、本実施形態によれば、小顔処理において、利用者の顔の輪郭のうち両目の所定位置よりも顎側の部分については上方(頭部寄り)かつ中心寄りに移動させられるところ、上方への移動距離よりも中心方向への移動距離の方が大きくなるように輪郭の移動が行われる(第3の変換例)。このため、落書き対象画像中の利用者Uの顔については、目から顎までの距離が本来の距離よりも短くなるとともに、目よりも顎側の部分が本来よりもかなり細くなる。これにより、本来よりも目から顎までの距離が短く、かつ、目よりも顎側の部分が本来よりもかなり細く写った写真を利用者に提供することができる。   Further, according to the present embodiment, in the small face processing, the portion of the user's face contour that is closer to the chin than the predetermined position of both eyes is moved upward (close to the head) and close to the center. The contour is moved so that the moving distance in the center direction becomes larger than the moving distance to (the third conversion example). For this reason, as for the face of the user U in the graffiti target image, the distance from the eyes to the chin becomes shorter than the original distance, and the portion on the chin side of the eyes becomes considerably thinner than the original. Accordingly, it is possible to provide the user with a photograph in which the distance from the eyes to the jaw is shorter than the original and the portion on the jaw side of the eye is much thinner than the original.

以上のように、小顔処理の施し方(抽出輪郭データの座標の変換の仕方)については様々なものを適用することができる(図13(a)〜(c)を参照)。このため、「本来よりも目から顎までの距離が短く写った写真」、「本来よりも目から顎までの距離が短く、かつ、目よりも顎側の部分が本来よりも細く写った写真」、「本来よりも目から顎までの距離が短く、かつ、目よりも顎側の部分が本来よりも著しく細く写った写真」など様々な変換手法により利用者Uの顔を小さくした写真を当該利用者Uに提供することができる。   As described above, various methods can be applied to the small face processing method (how to convert the coordinates of the extracted contour data) (see FIGS. 13A to 13C). For this reason, "Photos with a shorter distance from the eyes to the jaw than the original", "Photos with a shorter distance from the eyes to the jaw than the original, and a portion closer to the jaw than the eyes. ”,“ Photos in which the distance from the eyes to the chin is shorter than the original, and the part on the chin side of the eyes is much thinner than the original ”, etc. It can be provided to the user U.

<5.変形例>
以下、上記実施形態の変形例について説明する。図14は、本変形例における撮影処理の処理手順を示すフローチャートである。本変形例においては、顔検出処理(ステップS123,ステップS133)と小顔処理(ステップS125,ステップS135)との間のタイミングで、明るさ補償処理(ステップS124,ステップS134)が行われる。ここで、明るさ補償処理とは、撮影画像において利用者Uの顔の明るさが予め定められた目標とする明るさよりも暗い場合に、小顔処理によって生成される落書き対象画像中の利用者Uの顔を明るくする処理のことである。
<5. Modification>
Hereinafter, modifications of the embodiment will be described. FIG. 14 is a flowchart showing the processing procedure of the photographing process in the present modification. In this modification, brightness compensation processing (step S124, step S134) is performed at the timing between the face detection processing (step S123, step S133) and the small face processing (step S125, step S135). Here, the brightness compensation process is a user in the graffiti target image generated by the small face process when the brightness of the face of the user U is darker than a predetermined target brightness in the captured image. It is a process to brighten U's face.

図15は、本変形例における明るさ補償処理の処理手順を示すフローチャートである。明るさ補償処理の開始後、まず、第1の制御部70は、顔検出処理によって検出された利用者Uの顔の輪郭内の画素データについて、RGB色空間からLab色空間へのデータの変換を行う(ステップS400)。なお、この変換については、例えば特開2008−99148号公報に開示されているように図16に示す式を用いて行うことができる。   FIG. 15 is a flowchart showing a processing procedure of brightness compensation processing in the present modification. After the start of the brightness compensation process, first, the first control unit 70 converts data from the RGB color space to the Lab color space for the pixel data in the contour of the user U's face detected by the face detection process. Is performed (step S400). This conversion can be performed using the equation shown in FIG. 16 as disclosed in, for example, Japanese Patent Laid-Open No. 2008-99148.

次に、ステップS410に進み、第1の制御部70は、Lab色空間に変換されたデータに基づいて、利用者Uの顔の輪郭内の画素データのうち肌色のデータの抽出を行う。本変形例においては、a値およびb値が18以上かつ25以下となる画素データが肌色のデータであると判断される。次に、ステップS420に進み、第1の制御部70は、ステップS410で抽出した肌色のデータについての明るさ(L値)の平均値を算出する。   Next, proceeding to step S410, the first control unit 70 extracts skin color data from the pixel data in the contour of the face of the user U based on the data converted into the Lab color space. In this modification, it is determined that the pixel data in which the a value and the b value are 18 or more and 25 or less is skin color data. Next, proceeding to step S420, the first control unit 70 calculates an average value of brightness (L value) for the skin color data extracted at step S410.

次に、ステップS430に進み、第1の制御部70は、ステップS420で算出された平均値と予め定められた(明るさの)目標値との差を算出する。その後、ステップS440に進み、第1の制御部70は、ステップS430で算出された(平均値と目標値との)差を補償するように、画素データ中の明るさを示すデータに変換を施す。この変換については、例えば、補正前の明るさと補正後の明るさとの関係を規定した図17に示すようなトーンカーブに従って行うことができる。ステップS440が終了すると、明るさ補償処理が終了する。   Next, proceeding to step S430, the first control unit 70 calculates a difference between the average value calculated in step S420 and a predetermined (brightness) target value. Thereafter, the process proceeds to step S440, and the first control unit 70 converts the data indicating the brightness in the pixel data so as to compensate for the difference (between the average value and the target value) calculated in step S430. . This conversion can be performed, for example, according to a tone curve as shown in FIG. 17 that defines the relationship between the brightness before correction and the brightness after correction. When step S440 ends, the brightness compensation process ends.

本変形例によれば、撮影画像中の利用者Uの顔の肌色部分が目標とする明るさよりも暗い場合に、落書き対象画像の生成の際に当該肌色部分の明るさが補償される。このため、利用者Uの顔色が比較的黒い場合であっても、明るさが補償された落書き対象画像に基づいて写真が生成されるので、写真中の利用者Uの顔は鮮明となる。また、撮影の際に光量が不充分であっても、落書き対象画像の生成の際に利用者Uの顔の肌色部分の明るさが補償されるので、写真中の利用者Uの顔は鮮明となる。   According to this modification, when the skin color portion of the face of the user U in the captured image is darker than the target brightness, the brightness of the skin color portion is compensated when the graffiti target image is generated. For this reason, even if the face color of the user U is relatively black, the photograph is generated based on the graffiti target image whose brightness is compensated, so the face of the user U in the photograph becomes clear. Further, even when the amount of light is insufficient at the time of shooting, the brightness of the skin color portion of the user U's face is compensated when generating the graffiti target image, so that the face of the user U in the photograph is clear It becomes.

また、本変形例によれば、Lab色空間に変換されたデータに基づいて、利用者Uの顔の輪郭内の画素データから肌色のデータが抽出される。Lab色空間による色の表現は人の視角に近いため、効果的に撮影画像中の利用者Uの顔の肌色部分の明るさが補償される。   Further, according to the present modification, skin color data is extracted from the pixel data within the contour of the face of the user U based on the data converted into the Lab color space. Since the color expression in the Lab color space is close to the human viewing angle, the brightness of the skin color portion of the face of the user U in the captured image is effectively compensated.

なお、本変形例においては小顔処理の前に明るさ補償処理が行われる構成としているが、本発明はこれに限定されず、小顔処理の後に明るさ補償処理が行われる構成としても良い。また、本変形例においてはRGB色空間のデータをLab色空間のデータに変換することによって得られるa値およびb値に基づいて各画素データが肌色であるか否かの判断が行われているが、本発明はこれに限定されず、他の手法により肌色の部分の抽出が行われても良い。さらに、本変形例においては肌色のデータについての明るさの平均値と目標値との差を補償するようにデータの変換が行われているが、本発明はこれに限定されず、明るさの中央値あるいはヒストグラムに基づき決定される値(例えば最頻値)と目標値との差を補償するようにデータの変換が行われても良い。   In this modification, the brightness compensation process is performed before the small face process. However, the present invention is not limited to this, and the brightness compensation process may be performed after the small face process. . Further, in this modification, it is determined whether or not each pixel data is a skin color based on the a value and the b value obtained by converting the RGB color space data into the Lab color space data. However, the present invention is not limited to this, and the skin color portion may be extracted by other methods. Furthermore, in this modification, data conversion is performed so as to compensate for the difference between the average brightness value and the target value for the skin color data. However, the present invention is not limited to this, and Data conversion may be performed so as to compensate for a difference between a median value or a value determined based on a histogram (for example, a mode value) and a target value.

<6.その他>
上記実施形態においては1つの撮影画像につき1つの落書き対象画像が生成されることを前提に説明しているが、本発明はこれに限定されない。1つの撮影画像につき複数の落書き対象画像(例えば、図13(a)〜(c)に示すような3つの画像)を生成し、それらの画像のうちの1つを利用者Uが選択するための手段(落書き対象画像選択手段)を備える構成にしても良い。この場合、利用者Uによる操作が介在することになるが、利用者Uの好みの応じて縮小された顔が写った写真シールを当該利用者Uに提供することができる。
<6. Other>
Although the above embodiment has been described on the assumption that one graffiti target image is generated for one captured image, the present invention is not limited to this. In order to generate a plurality of graffiti target images (for example, three images as shown in FIGS. 13A to 13C) for one captured image, and the user U selects one of these images. The above-mentioned means (graffiti target image selection means) may be provided. In this case, an operation by the user U is involved, but a photo sticker showing a reduced face according to the preference of the user U can be provided to the user U.

2…撮影室
3…撮影ユニット
4…編集ユニット
10…カメラ
11〜14…ストロボ
20…撮影操作用タッチパネル
51〜53…第1の基準線
55…第2の基準線
70…第1の制御部
71…撮像部(カメラ)
72…第1の表示・操作部(撮影操作用タッチパネル)
73…I/O制御部(I/O制御装置)
74…照明部(ストロボ)
75,83…第1および第2の通信部(ネットワークアダプタ)
80…第2の制御部
81,82…第2の表示・操作部(編集操作用タッチパネル)
400…編集操作用タッチパネル
U…利用者
DESCRIPTION OF SYMBOLS 2 ... Shooting room 3 ... Shooting unit 4 ... Editing unit 10 ... Camera 11-14 ... Strobe 20 ... Shooting operation touch panel 51-53 ... 1st reference line 55 ... 2nd reference line 70 ... 1st control part 71 ... Imaging part (camera)
72. First display / operation unit (touch panel for photographing operation)
73 ... I / O control unit (I / O control device)
74 ... Lighting section (strobe)
75, 83 ... 1st and 2nd communication part (network adapter)
80 ... second control unit 81, 82 ... second display / operation unit (touch panel for editing operation)
400 ... Touch panel for editing operation U ... User

Claims (12)

所定の撮影領域における被写体である利用者を撮影する撮像手段と、前記撮像手段により得られる撮影画像に基づいて生成される落書き対象画像を含む合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮影画像における利用者の顔を検出する顔検出手段と、
前記落書き対象画像における利用者の顔の輪郭が前記撮影画像における利用者の顔の輪郭よりも小さくなるように、前記撮影画像に基づいて前記落書き対象画像を生成する小顔処理手段と
を備え、
前記小顔処理手段は、
前記撮影画像における利用者の右目および左目の所定の位置を通過する直線を第1の基準線に設定するとともに前記撮影画像における利用者の顔を右半分と左半分に分けるような線を第2の基準線に設定し、
前記撮影画像における利用者の顔として検出された範囲のうちの前記第1の基準線よりも顎側にある範囲の画素を抽出画素群として抽出し、当該抽出画素群に含まれる画素を前記第2の基準線に向けて移動させることを特徴とする、自動写真作成装置。
An automatic photograph provided with an imaging means for photographing a user who is a subject in a predetermined photographing area, and an output means for outputting a composite image including a graffiti target image generated based on a photographed image obtained by the imaging means as a photograph A creation device,
Face detection means for detecting a user's face in the captured image;
Small face processing means for generating the graffiti target image based on the captured image so that the contour of the user's face in the graffiti target image is smaller than the contour of the user's face in the captured image;
The small face processing means includes
A straight line passing through predetermined positions of the user's right eye and left eye in the photographed image is set as a first reference line, and a line that divides the user's face in the photographed image into a right half and a left half is second. Set to the reference line
Of the range detected as the user's face in the photographed image, a pixel in a range that is on the chin side of the first reference line is extracted as an extraction pixel group, and pixels included in the extraction pixel group are An automatic photo creation apparatus, characterized by being moved toward a reference line .
前記小顔処理手段は、前記抽出画素群に含まれる画素を前記第1の基準線に向けて移動させることを特徴とする、請求項1に記載の自動写真作成装置。2. The automatic photo creation apparatus according to claim 1, wherein the small face processing means moves a pixel included in the extracted pixel group toward the first reference line. 前記小顔処理手段は、前記抽出画素群に含まれる画素を前記撮影画像における利用者の両目の位置に基づいて移動させることを特徴とする、請求項1または2に記載の自動写真作成装置。3. The automatic photo creation apparatus according to claim 1, wherein the small face processing unit moves pixels included in the extracted pixel group based on positions of both eyes of the user in the captured image. 前記顔検出手段によって検出された利用者の顔の輪郭に含まれる領域のうちの肌色の領域の明るさを示す値と所定の目標値との差に基づいて、前記小顔処理手段によって生成される前記落書き対象画像における利用者の顔の輪郭に含まれる領域のうちの肌色の領域についての明るさの補償を行う明るさ補償手段を更に備えることを特徴とする、請求項1からまでのいずれか1項に記載の自動写真作成装置。 Generated by the small face processing means based on a difference between a predetermined target value and a value indicating the brightness of the skin color area among the areas included in the contour of the user's face detected by the face detecting means. that said further comprising: a brightness compensating means for compensating the brightness of skin color region among the regions included in the contour of the face of the user in the graffiti image of the claims 1 to 3 The automatic photo creation apparatus of any one of Claims. 前記明るさ補償手段は、前記顔検出手段によって検出された利用者の顔の輪郭に含まれる領域の画素データのRGB値をLab値に変換したときのa値およびb値に基づいて、利用者の顔の輪郭に含まれる領域から肌色の領域を検出することを特徴とする、請求項に記載の自動写真作成装置。 The brightness compensator is based on the a and b values obtained by converting the RGB values of the pixel data of the region included in the contour of the user's face detected by the face detector into Lab values. 5. The automatic photo creation apparatus according to claim 4 , wherein a skin color area is detected from an area included in the contour of the face. 撮影画像に含まれる人物の顔を検出する顔検出手段と、
前記撮影画像に含まれる人物の顔の輪郭を小さくした二次画像を前記撮影画像に基づいて生成する小顔処理手段と
を備え、
前記小顔処理手段は、
前記撮影画像における人物の右目および左目の所定の位置を通過する直線を第1の基準線に設定するとともに前記撮影画像における人物の顔を右半分と左半分に分けるような線を第2の基準線に設定し、
前記撮影画像における人物の顔として検出された範囲のうちの前記第1の基準線よりも顎側にある範囲の画素を抽出画素群として抽出し、当該抽出画素群に含まれる画素を前記第2の基準線に向けて移動させることを特徴とする、画像処理装置。
Face detection means for detecting a human face included in the photographed image;
A small-face processing unit that generates a secondary image based on the captured image with a small outline of the face of the person included in the captured image;
The small face processing means includes
A straight line passing through predetermined positions of the right and left eyes of the person in the photographed image is set as a first reference line, and a line that divides the human face in the photographed image into a right half and a left half is a second reference. Set to line,
Of the range detected as a human face in the photographed image, a pixel in a range located on the chin side of the first reference line is extracted as an extraction pixel group, and pixels included in the extraction pixel group are extracted from the second pixel. An image processing apparatus, wherein the image processing apparatus is moved toward a reference line .
撮影画像に含まれる人物の顔を検出する顔検出ステップと、
前記撮影画像に含まれる人物の顔の輪郭を小さくした二次画像を前記撮影画像に基づいて生成する小顔処理ステップと
を備え、
前記小顔処理ステップでは、
前記撮影画像における人物の右目および左目の所定の位置を通過する直線が第1の基準線に設定されるとともに前記撮影画像における人物の顔を右半分と左半分に分けるような線第2の基準線に設定され
前記撮影画像における人物の顔として検出された範囲のうちの前記第1の基準線よりも顎側にある範囲の画素が抽出画素群として抽出され、当該抽出画素群に含まれる画素が前記第2の基準線に向けて移動させられることを特徴とする、画像処理方法。
A face detection step for detecting a human face included in the captured image;
A small-face processing step for generating a secondary image based on the captured image with a small outline of the face of the person included in the captured image;
In the small face processing step,
A straight line passing through predetermined positions of the right eye and the left eye of the person in the photographed image is set as the first reference line, and a line dividing the person's face in the photographed image into a right half and a left half is a second line. Set to the reference line,
Of the range detected as the person's face in the captured image, pixels in a range that is on the chin side of the first reference line are extracted as an extraction pixel group, and pixels included in the extraction pixel group are the second pixel. An image processing method characterized by being moved toward a reference line .
撮影画像に含まれる人物の顔を検出する顔検出ステップと、
前記撮影画像に含まれる人物の顔の輪郭を小さくした二次画像を前記撮影画像に基づいて生成する小顔処理ステップと
をコンピュータに実行させる画像処理プログラムであって、
前記小顔処理ステップでは、
前記撮影画像における人物の右目および左目の所定の位置を通過する直線が第1の基準線に設定されるとともに前記撮影画像における人物の顔を右半分と左半分に分けるような線第2の基準線に設定され
前記撮影画像における人物の顔として検出された範囲のうちの前記第1の基準線よりも顎側にある範囲の画素が抽出画素群として抽出され、当該抽出画素群に含まれる画素が前記第2の基準線に向けて移動させられることを特徴とする、画像処理プログラム。
A face detection step for detecting a human face included in the captured image;
An image processing program for causing a computer to execute a small face processing step for generating a secondary image in which a contour of a human face included in the photographed image is reduced based on the photographed image,
In the small face processing step,
A straight line passing through predetermined positions of the right eye and the left eye of the person in the photographed image is set as the first reference line, and a line dividing the person's face in the photographed image into a right half and a left half is a second line. Set to the reference line,
Of the range detected as the person's face in the captured image, pixels in a range that is on the chin side of the first reference line are extracted as an extraction pixel group, and pixels included in the extraction pixel group are the second pixel. An image processing program which is moved toward a reference line .
所定の撮影領域における被写体である利用者を撮影する撮像手段と、前記撮像手段により得られる撮影画像に基づいて生成される落書き対象画像を含む合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、An automatic photograph provided with an imaging means for photographing a user who is a subject in a predetermined photographing area, and an output means for outputting a composite image including a graffiti target image generated based on a photographed image obtained by the imaging means as a photograph A creation device,
前記撮影画像における利用者の顔を検出する顔検出手段と、Face detection means for detecting a user's face in the captured image;
前記落書き対象画像における利用者の顔の輪郭が前記撮影画像における利用者の顔の輪郭よりも小さくなるように、前記撮影画像に基づいて前記落書き対象画像を生成する小顔処理手段とSmall face processing means for generating the graffiti target image based on the captured image so that the contour of the user's face in the graffiti target image is smaller than the contour of the user's face in the captured image;
を備え、With
前記小顔処理手段は、The small face processing means includes
前記撮影画像における利用者の右目および左目の所定の位置を通過する直線を第1の基準線に設定し、A straight line passing through a predetermined position of the user's right eye and left eye in the captured image is set as a first reference line,
前記撮影画像における利用者の顔として検出された範囲のうちの前記第1の基準線よりも顎側にある範囲の画素を抽出画素群として抽出し、当該抽出画素群に含まれる画素を移動させることを特徴とする、自動写真作成装置。Of the range detected as the user's face in the captured image, the pixels in the range on the chin side of the first reference line are extracted as an extracted pixel group, and the pixels included in the extracted pixel group are moved. An automatic photo creation device characterized by that.
撮影画像に含まれる人物の顔を検出する顔検出手段と、Face detection means for detecting a human face included in the photographed image;
前記撮影画像に含まれる人物の顔の輪郭を小さくした二次画像を前記撮影画像に基づいて生成する小顔処理手段とSmall face processing means for generating a secondary image in which the contour of the face of the person included in the photographed image is reduced based on the photographed image;
を備え、With
前記小顔処理手段は、The small face processing means includes
前記撮影画像における人物の右目および左目の所定の位置を通過する直線を第1の基準線に設定し、A straight line passing through a predetermined position of the right eye and left eye of the person in the photographed image is set as a first reference line,
前記撮影画像における人物の顔として検出された範囲のうちの前記第1の基準線よりも顎側にある範囲の画素を抽出画素群として抽出し、当該抽出画素群に含まれる画素を移動させることを特徴とする、画像処理装置。Extracting, as an extracted pixel group, pixels in a range that is located on the chin side of the first reference line in a range detected as a human face in the captured image, and moving the pixels included in the extracted pixel group An image processing apparatus.
撮影画像に含まれる人物の顔を検出する顔検出ステップと、A face detection step for detecting a human face included in the captured image;
前記撮影画像に含まれる人物の顔の輪郭を小さくした二次画像を前記撮影画像に基づいて生成する小顔処理ステップとA small face processing step for generating a secondary image based on the photographed image, wherein the contour of the face of the person included in the photographed image is reduced;
を備え、With
前記小顔処理ステップでは、In the small face processing step,
前記撮影画像における人物の右目および左目の所定の位置を通過する直線が第1の基準線に設定され、A straight line passing through predetermined positions of the right eye and left eye of the person in the captured image is set as the first reference line,
前記撮影画像における人物の顔として検出された範囲のうちの前記第1の基準線よりも顎側にある範囲の画素が抽出画素群として抽出され、当該抽出画素群に含まれる画素が移動させられることを特徴とする、画像処理方法。Of the range detected as the person's face in the photographed image, the pixels in the range located on the chin side of the first reference line are extracted as the extraction pixel group, and the pixels included in the extraction pixel group are moved. An image processing method.
撮影画像に含まれる人物の顔を検出する顔検出ステップと、A face detection step for detecting a human face included in the captured image;
前記撮影画像に含まれる人物の顔の輪郭を小さくした二次画像を前記撮影画像に基づいて生成する小顔処理ステップとA small face processing step for generating a secondary image based on the photographed image, wherein the contour of the face of the person included in the photographed image is reduced;
をコンピュータに実行させる画像処理プログラムであって、An image processing program for causing a computer to execute
前記小顔処理ステップでは、In the small face processing step,
前記撮影画像における人物の右目および左目の所定の位置を通過する直線が第1の基準線に設定され、A straight line passing through predetermined positions of the right eye and left eye of the person in the captured image is set as the first reference line,
前記撮影画像における人物の顔として検出された範囲のうちの前記第1の基準線よりも顎側にある範囲の画素が抽出画素群として抽出され、当該抽出画素群に含まれる画素が移動させられることを特徴とする、画像処理プログラム。Of the range detected as the person's face in the photographed image, the pixels in the range located on the chin side of the first reference line are extracted as the extraction pixel group, and the pixels included in the extraction pixel group are moved. An image processing program.
JP2012201219A 2012-09-13 2012-09-13 Automatic photo creation device, image processing device, image processing method, and image processing program Active JP5472410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012201219A JP5472410B2 (en) 2012-09-13 2012-09-13 Automatic photo creation device, image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012201219A JP5472410B2 (en) 2012-09-13 2012-09-13 Automatic photo creation device, image processing device, image processing method, and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008210240A Division JP5131086B2 (en) 2008-08-19 2008-08-19 Automatic photo creation device, image processing device, image processing method, and image processing program

Publications (3)

Publication Number Publication Date
JP2013031208A JP2013031208A (en) 2013-02-07
JP2013031208A5 JP2013031208A5 (en) 2013-06-27
JP5472410B2 true JP5472410B2 (en) 2014-04-16

Family

ID=47787728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012201219A Active JP5472410B2 (en) 2012-09-13 2012-09-13 Automatic photo creation device, image processing device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5472410B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3855939B2 (en) * 2003-01-31 2006-12-13 ソニー株式会社 Image processing apparatus, image processing method, and photographing apparatus
JP3801147B2 (en) * 2003-02-03 2006-07-26 オムロンエンタテインメント株式会社 PHOTOGRAPHING APPARATUS, PHOTOGRAPHING APPARATUS CONTROL METHOD, PHOTOGRAPHING APPARATUS CONTROL PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE SAME
JP4403497B2 (en) * 2004-03-24 2010-01-27 フリュー株式会社 Photo sticker vending machine, photo sticker creation method, and program

Also Published As

Publication number Publication date
JP2013031208A (en) 2013-02-07

Similar Documents

Publication Publication Date Title
JP5782873B2 (en) Game shooting device, game shooting method and program
JP5131086B2 (en) Automatic photo creation device, image processing device, image processing method, and image processing program
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP5299553B2 (en) Automatic photo creation device, image processing device, image processing method, and image processing program
JP5472410B2 (en) Automatic photo creation device, image processing device, image processing method, and image processing program
JP3859693B1 (en) Automatic photography apparatus and method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP6245529B2 (en) Game shooting device, game shooting method and program
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP6614386B2 (en) Image processing apparatus, image processing method, and program
JP5895394B2 (en) Game shooting device, game shooting method, and game shooting program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP2008294695A (en) Device and method for automatic photograph creation
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP6090369B2 (en) Game shooting device, game shooting method and program
JP5887752B2 (en) Photography game device, photography game method, and photography game program
JP6982230B2 (en) Photographing game console and image processing method
JP2012185306A (en) Automatic photograph production apparatus
JP5967283B2 (en) Photo shooting game machine, its control method and control program
JP6614374B2 (en) Photography game machine, control method and program
JP2018064220A (en) Photograph preparation game machine and display method
JP6041024B1 (en) Photo sticker creation apparatus and display method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Ref document number: 5472410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250