JP5013203B2 - Photo sticker creation apparatus and method, and program - Google Patents

Photo sticker creation apparatus and method, and program Download PDF

Info

Publication number
JP5013203B2
JP5013203B2 JP2008000682A JP2008000682A JP5013203B2 JP 5013203 B2 JP5013203 B2 JP 5013203B2 JP 2008000682 A JP2008000682 A JP 2008000682A JP 2008000682 A JP2008000682 A JP 2008000682A JP 5013203 B2 JP5013203 B2 JP 5013203B2
Authority
JP
Japan
Prior art keywords
image
subject
user
photo sticker
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008000682A
Other languages
Japanese (ja)
Other versions
JP2009164904A (en
Inventor
忠雄 早川
潤一 小林
真吾 ▲浜▼口
克彦 田村
亜季子 辻
千晶 新里
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2008000682A priority Critical patent/JP5013203B2/en
Publication of JP2009164904A publication Critical patent/JP2009164904A/en
Application granted granted Critical
Publication of JP5013203B2 publication Critical patent/JP5013203B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)

Description

本発明は、写真シール作成装置および方法、並びにプログラムに関し、特に、より楽しみながら利用者が撮影を行うことができるようにした写真シール作成装置および方法、並びにプログラムに関する。   The present invention relates to a photo sticker creation apparatus and method, and a program, and more particularly, to a photo sticker creation apparatus and method, and a program that allow a user to take a picture while having more enjoyment.

娯楽(遊戯)施設等に設置される従来の写真シール作成装置により提供される1回のゲームは、被写体の撮影、撮影画像に対する編集(落書き)、編集が施された編集画像もしくは撮影画像のシール紙への印刷、という流れで終了する。   One game provided by a conventional photo sticker creation device installed in an amusement (playing) facility, etc., is to shoot a subject, edit a photographed image (doodle), edit edited image or sticker of a photographed image. The process ends with printing on paper.

このような写真シール作成装置においては、利用者自身が写っている撮影画像に対して様々な編集を行うことができるようになされているが、編集を行う以前に、編集の対象となる撮影画像自体が利用者の好みに応じた画像でなければ満足のいかないまま編集を行うことになってしまう。すなわち、編集を楽しむことができず、さらには、ゲームに対しての満足度が欠けてしまう。   In such a photo sticker creation apparatus, various edits can be performed on a captured image in which the user himself / herself is photographed, but the captured image to be edited before editing is performed. If the image itself is not according to the user's preference, editing will be performed without satisfaction. That is, editing cannot be enjoyed, and further, satisfaction with the game is lacking.

そこで、近年、満足のいく撮影画像を得ることができるようにするためや、利用者が面白みのある撮影作業を行うことができるようにするために、様々な手法で撮影を行ったり、様々な撮影画像を取得したりすることができるような写真シール作成装置が開発されている。   Therefore, in recent years, various methods have been used to capture satisfactory captured images, and to enable users to perform interesting shooting operations. A photo sticker creating apparatus capable of acquiring a photographed image has been developed.

例えば、撮影時に、利用者が選択した前景画像や背景画像と、カメラによって取り込んだ被写体の動画像を合成し、その合成画像をライブビュー表示させるような写真シール作成装置がある。利用者は、前景画像や背景画像に合成された自分の画像を見ながら、撮影を行うことができる。   For example, there is a photo sticker creation apparatus that combines a foreground image or background image selected by a user with a moving image of a subject captured by a camera at the time of shooting, and displays the combined image in a live view. The user can take a picture while viewing his / her own image combined with the foreground image and the background image.

特許文献1には、撮影した画像のうちの被写体の領域以外の領域に背景画像を合成し、その合成画像に前景画像をさらに合成することによって得られた画像をライブビュー表示させる技術が開示されている。   Patent Document 1 discloses a technique for combining a background image with a region other than a subject region in a photographed image and displaying an image obtained by further combining a foreground image with the composite image for live view display. ing.

特許文献2には、1度撮影された撮影画像のうちの利用者により指定された領域に、取り込み中の被写体の動画像を合成してライブビュー表示させる技術が開示されている。   Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for synthesizing a moving image of a subject being captured and displaying it in a live view in an area designated by a user among photographed images taken once.

特許文献3には、撮影した画像から被写体の特定部位を検出し、検出した特定部位の位置に基づいて、所定のオブジェクトなどの前景となる動画像を合成して表示させる技術が開示されている。   Patent Document 3 discloses a technique for detecting a specific part of a subject from a photographed image and combining and displaying a foreground moving image such as a predetermined object based on the detected position of the specific part. .

特許文献4には、フレーム画像を動画像として表示し、利用者の指定に応じてフレーム画像を静止させることによって、利用者が、自身が写っている被写体画像と好みのフレーム画像を合成させることができるようにした技術が開示されている。   In Patent Document 4, a frame image is displayed as a moving image, and the frame image is stopped in accordance with a user's designation so that the user can synthesize a subject image in which he / she is photographed and a preferred frame image. A technology that can perform the above is disclosed.

特許文献5,6には、被写体の動画像を表示し、表示した動画像に対してタッチペンなどを用いて編集を行うことができるようにした技術が開示されている。   Patent Documents 5 and 6 disclose a technique in which a moving image of a subject is displayed, and the displayed moving image can be edited using a touch pen or the like.

特開2004−320077号公報JP 2004-320077 A 特開2007−241199号公報JP 2007-241199 A 特開2000−92481号公報JP 2000-92481 A 特開平10−282571号公報Japanese Patent Laid-Open No. 10-282571 特開2002−94906号公報JP 2002-94906 A 特開2002−125176号公報JP 2002-125176 A

しかしながら、特許文献1に開示されている技術によれば、被写体の画像に合成するのに用いられる合成用画像(前景画像・背景画像)は静止画であるため、そのような静止画である合成用画像と合成された自分の画像を見ることができるとしても、撮影作業は面白みに欠けたものとなる。   However, according to the technique disclosed in Patent Document 1, since the composition image (foreground image / background image) used to compose the subject image is a still image, such a still image is composed. Even if you can see your own image combined with the work image, the shooting work is not interesting.

また、特許文献2に開示されている技術によれば、撮影を2回行ったり、動画像を合成する領域を指定したりする必要があることから、利用者にとって操作が複雑となり、操作性が低下してしまう。   Further, according to the technique disclosed in Patent Document 2, since it is necessary to perform shooting twice or to specify a region for synthesizing a moving image, the operation becomes complicated for the user and the operability is improved. It will decline.

特許文献3に開示されている技術によれば、例えば指検知に応じて前景画像を合成する場合、撮影画像に指が写っていないときには(撮影時に提示される、撮影ポーズのサンプル画像と違うときには)、前景画像が表示されないことになってしまい、このようなとき、面白みに欠けてしまうことになる。   According to the technique disclosed in Patent Document 3, for example, when a foreground image is synthesized in response to finger detection, when a finger is not captured in a captured image (when it is different from a sample image of a capturing pose presented at the time of capturing) ), The foreground image will not be displayed, and in such a case, it will be uninteresting.

特許文献4に開示されている技術によれば、静止画のフレーム画像を取得する際に、動画像であるフレーム画像の状態が好みの状態になっているタイミングと撮影のタイミングが合わなければ、利用者が意図するフレーム画像が得られず、結果として、合成画像は満足のいかない画像となる。   According to the technique disclosed in Patent Document 4, when acquiring a frame image of a still image, if the timing of the frame image that is a moving image does not match the timing of shooting, The frame image intended by the user cannot be obtained, and as a result, the composite image becomes an unsatisfactory image.

特許文献5,6に開示されている技術によれば、動画像を見ながら編集を行うことができるが、その編集を行うにはタッチペンなどを操作する必要があることから、利用者にとって操作が複雑となり、操作性が低下してしまう。   According to the techniques disclosed in Patent Documents 5 and 6, editing can be performed while watching a moving image. However, since it is necessary to operate a touch pen or the like to perform the editing, the operation is difficult for the user. It becomes complicated and the operability deteriorates.

このように、従来の技術によれば、利用者にとって操作が複雑であるために操作性が低下することになったり、面白みに欠け、満足のいかない撮影画像を提供することになってしまったりしている。従って、ゲームに対しての利用者の満足度も低下せざるを得ない状況になっている。   As described above, according to the conventional technology, since the operation is complicated for the user, the operability is deteriorated, or the photographed image that is not interesting and is not satisfactory is provided. doing. Therefore, the user's satisfaction with the game is inevitably lowered.

ライブビュー表示によって撮影作業時に利用者に提示される動画像は、面白みのあるものであることが好ましい。   It is preferable that the moving image presented to the user during the shooting operation by live view display is interesting.

本発明はこのような状況に鑑みてなされたものであり、より楽しみながら利用者が撮影を行うことができるようにするものである。   The present invention has been made in view of such a situation, and enables a user to take a picture while having more fun.

本発明の一側面の写真シール作成装置は、利用者を被写体として撮影し、撮影して得られた画像に対して利用者に編集を行わせ、撮影して得られた前記画像または編集済みの画像をシールシートに印刷して写真シールを作成し、作成した写真シールを利用者に提供する写真シール作成装置において、利用者が被写体として映る動画像を取り込む撮影手段と、前記撮影手段により取り込まれた動画像を構成する時系列順に並ぶ静止画像であるそれぞれのフレームに基づいて被写体の領域と背景とを分けるマスク画像を作成する作成手段と、前記作成手段により作成されたマスク画像の差分に基づいて、所定の期間毎に被写体が動いた範囲を検出する動き検出手段と、前記動き検出手段により検出された範囲に応じて、撮影画像の前景となる前景画像の画素の濃度を調整し、各画素の濃度を調整した前記前景画像を前記撮影手段により取り込まれた動画像を構成するそれぞれのフレームに映る被写体の前景として合成する合成手段と、前記合成手段により合成されることによって得られた合成動画像を、編集の対象とする画像の撮影中に表示させる表示制御手段とを備える。   According to another aspect of the present invention, there is provided a photo sticker creating apparatus that photographs a user as a subject, causes the user to edit the image obtained by photographing, and the image obtained by photographing or the edited image. In a photo sticker creating apparatus that prints an image on a sticker sheet to create a photo sticker and provides the created photo sticker to a user, a photographing unit that captures a moving image that the user shows as a subject, and the photographing unit captures the moving image Creating means for creating a mask image that separates a subject area and a background based on respective frames that are still images arranged in time-series order that constitute a moving image, and based on a difference between the mask images created by the creating means A motion detection unit that detects a range in which the subject has moved every predetermined period, and a foreground that is a foreground of a captured image according to the range detected by the motion detection unit A synthesizing unit that adjusts the density of the pixels of the image and synthesizes the foreground image in which the density of each pixel is adjusted as a foreground of a subject appearing in each frame constituting the moving image captured by the photographing unit; Display control means for displaying a synthesized moving image obtained by synthesizing during imaging of an image to be edited.

前記合成手段には、前記前景画像の画素のうち、前記動き検出手段により検出された範囲と同じ範囲内の画素の濃度を上げるように調整させることができる。   The synthesizing means can be adjusted to increase the density of pixels in the same range as the range detected by the motion detecting means among the pixels of the foreground image.

前記合成手段には、さらに、前記前景画像の画素のうち、前記動き検出手段により検出された範囲と同じ範囲内の画素以外の画素の濃度を下げるように調整させることができる。   The synthesizing means may be further adjusted so as to lower the density of pixels in the foreground image other than the pixels within the same range as the range detected by the motion detecting means.

前記作成手段は、クロマキ処理や肌色領域の検出処理などによって被写体の領域を検出し、マスク画像を作成する手段とすることができる。   The creating means can be a means for creating a mask image by detecting an area of a subject by a chroma processing or a skin color area detecting process.

利用者は、自分の動きに応じて柄や文字などが浮かび上がったり消えたりする前景画像が合成された合成動画像を見ながら撮影を行うことができる。また、利用者は、煩雑な操作を行うことなくそのような合成動画像を表示させることができる。   A user can take a picture while watching a synthesized moving image in which a foreground image in which a pattern or a character rises or disappears according to his / her movement is synthesized. Further, the user can display such a synthesized moving image without performing a complicated operation.

すなわち、利用者はより簡単に、かつ楽しみながら撮影を行うことができ、それにより満足感を得ることができる。   That is, the user can more easily and enjoy shooting, thereby obtaining satisfaction.

本発明の一側面の写真シール作成方法またはプログラムは、利用者が被写体として映る動画像を取り込み、取り込んだ動画像を構成する時系列順に並ぶ静止画像であるそれぞれのフレームに基づいて被写体の領域と背景とを分けるマスク画像を作成し、作成したマスク画像の差分に基づいて、所定の期間毎に被写体が動いた範囲を検出し、検出した範囲に応じて、撮影画像の前景となる前景画像の画素の濃度を調整し、各画素の濃度を調整した前記前景画像を、取り込んだ動画像を構成するそれぞれのフレームに映る被写体の前景として合成し、合成することによって得られた合成動画像を、編集の対象とする画像の撮影中に表示させるステップを含む。   According to another aspect of the present invention, there is provided a photo sticker creation method or program that captures a moving image that is captured by a user as a subject, and sets the region of the subject based on each frame that is a still image arranged in chronological order that constitutes the captured moving image. A mask image that separates the background is created, and based on the difference between the created mask images, a range of movement of the subject is detected every predetermined period, and the foreground image that is the foreground of the captured image is detected according to the detected range. The foreground image in which the density of each pixel is adjusted and the density of each pixel is adjusted is synthesized as the foreground of the subject appearing in each frame constituting the captured moving image, and the synthesized moving image obtained by synthesizing is combined. A step of displaying the image to be edited during shooting.

本発明の一側面においては、利用者が被写体として映る動画像が取り込まれ、取り込まれた動画像を構成する時系列順に並ぶ静止画像であるそれぞれのフレームに基づいて被写体の領域と背景とを分けるマスク画像が作成される。また、作成されたマスク画像の差分に基づいて、所定の期間毎に被写体が動いた範囲が検出され、検出された範囲に応じて撮影画像の前景となる前景画像の画素の濃度が調整される。さらに、各画素の濃度が調整された前記前景画像が、取り込んだ動画像を構成するそれぞれのフレームに映る被写体の前景として合成され、合成されることによって得られた合成動画像が、編集の対象とする画像の撮影中に表示される。   In one aspect of the present invention, a moving image that is captured as a subject by a user is captured, and the region and background of the subject are separated based on each frame that is a still image arranged in chronological order that constitutes the captured moving image. A mask image is created. Further, based on the difference between the created mask images, a range in which the subject has moved is detected every predetermined period, and the pixel density of the foreground image that is the foreground of the captured image is adjusted according to the detected range. . Further, the foreground image in which the density of each pixel is adjusted is synthesized as the foreground of the subject appearing in each frame constituting the captured moving image, and the synthesized moving image obtained by synthesizing is synthesized. Displayed during shooting of the image.

本発明によれば、利用者はより楽しみながら撮影を行うことができる。   According to the present invention, the user can take a picture while having more fun.

図1は、本発明を適用した写真シール作成装置の一実施の形態を示す図である。   FIG. 1 is a diagram showing an embodiment of a photo sticker creating apparatus to which the present invention is applied.

図1に示される写真シール作成装置1は、撮影や編集等の作業の娯楽性を高め、それらの作業を利用者にゲーム(遊戯サービス)として行わせ、その撮影・編集した画像を、写真シールやデータとして利用者に提供する代わりに、利用者より代金を受け取るゲーム装置(遊戯サービス提供装置)である。写真シール作成装置1は、通常、ゲームセンタや観光地の店舗等に設置される。   The photo sticker creating apparatus 1 shown in FIG. 1 enhances the amusement of work such as shooting and editing, allows the user to perform such work as a game (play service), and takes the shot / edited images as photo stickers. It is a game device (play service providing device) that receives money from the user instead of providing it to the user as data. The photo sticker creating apparatus 1 is usually installed in a game center or a store in a sightseeing spot.

写真シール作成装置1が実行する写真シール作成ゲームにおいて、利用者は、ゲームの代金を投入し、写真シール作成装置1に設けられたカメラを用いて自分自身等を撮影し、その撮影画像に対して、ペン画像入力やスタンプ画像入力等の編集機能(落書き編集機能)を用いて編集を行い、撮影画像を彩り豊かなものにデザインする。そしてゲーム終了後、利用者は、編集した画像が印刷された写真シール等を成果物として受け取る。   In the photo sticker creating game executed by the photo sticker creating device 1, the user inputs the price of the game, shoots himself / herself using the camera provided in the photo sticker creating device 1, and the photographed image is taken. Then, editing is performed using an editing function (doodle editing function) such as pen image input or stamp image input, and the photographed image is designed to be rich and colorful. After the game ends, the user receives a photo sticker or the like on which the edited image is printed as a product.

後に詳述するように、写真シール作成装置1においては、一連の写真シール作成ゲームのうちの撮影作業時に、被写体である利用者の動きがカメラにより取り込まれた動画像から検出され、ライブビュー表示される動画像全体のうちの、動きが検出された範囲に絵柄などが合成されるようになされている。   As will be described in detail later, in the photo sticker creating apparatus 1, during the shooting work in a series of photo sticker creating games, the movement of the user as the subject is detected from the moving image captured by the camera, and the live view display is performed. In the entire moving image, a pattern or the like is synthesized in a range where the motion is detected.

動きに応じて異なる範囲に絵柄などが表示されるため、利用者は、自分の動きに応じて変化してライブビュー表示される動画像を見ながら、撮影を楽しむことができる。   Since a pattern or the like is displayed in a different range according to the movement, the user can enjoy shooting while watching a moving image displayed in a live view that changes according to his / her movement.

写真シール作成装置1の筐体10は、図1に示されるように、事前接客ユニット11、撮影ユニット12、編集ユニット13、および天井ストロボユニット14の4つのユニットに大きく分けられる。   As shown in FIG. 1, the housing 10 of the photo sticker creating apparatus 1 is roughly divided into four units: a pre-service unit 11, a photographing unit 12, an editing unit 13, and a ceiling strobe unit 14.

事前接客ユニット11は、写真シール作成ゲームの受け付けを行ったり、写真シール作成ゲームの流れや遊び方等を映像や音声で案内(説明)するコンテンツ(デモンストレーション)を出力したりするユニットである。   The pre-service unit 11 is a unit that accepts a photo sticker creation game and outputs content (demonstration) that guides (explains) the flow and play of the photo sticker creation game with video and audio.

撮影ユニット12は、被写体(利用者等)を撮影する機能を有しており、後述する内部の空間(撮影空間)において被写体の撮影が行われる。この撮影ユニット12は、大きく、前方ユニット12Aと後方ユニット12Bの2つに分けられる。   The photographing unit 12 has a function of photographing a subject (such as a user), and the subject is photographed in an internal space (photographing space) described later. The photographing unit 12 is roughly divided into two units, a front unit 12A and a rear unit 12B.

前方ユニット12Aは、撮影空間の前方とされる側のユニットであり、撮影空間の利用者の撮影に関する処理を行ったり、利用者の写真シール作成ゲームに関する操作を受け付けたりする。後方ユニット12Bは、撮影空間の後方とされる側のユニットであり、前方ユニット12Aによる利用者の撮影の際に、背景の役割を果たすユニットである。この後方ユニット12Bの内部は、空洞(空間)となっており、利用者が撮影を行う際に利用される空間(後述する撮影空間)の一部として構成される。この後方ユニット12Bの内部には、例えば、背景に利用する可動式のカーテン(背景カーテン)や利用者がポーズをとるために利用するステージ等が設けられるようにしてもよい。   The front unit 12A is a unit on the front side of the shooting space, and performs processing related to shooting of the user in the shooting space and accepts operations related to the user's photo sticker creation game. The rear unit 12B is a unit on the side that is the rear side of the shooting space, and is a unit that plays the role of the user when the front unit 12A takes a picture. The interior of the rear unit 12B is a cavity (space), and is configured as a part of a space (photographing space described later) used when the user performs photographing. Inside the rear unit 12B, for example, a movable curtain (background curtain) used for the background, a stage used for the user to pose, and the like may be provided.

編集ユニット13は、利用者が撮影画像に対する落書き編集等を行うための構成(例えば、モニタ、タッチパネル、およびタッチペン等)が設けられている。1つの筺体からなる編集ユニット13は、2組の利用者が同時に編集作業を行うことができるように、2つの面のそれぞれに、落書き編集等を行うための構成が設けられている。すなわち、写真シール作成装置1は、複数の写真シール作成ゲームを並列的に実行することができる。編集ユニット13は、写真シール作成ゲームのプレイの回転率を向上させるために、それらの複数組の利用者が同時に落書き編集を行うことができるように、2つの落書き編集等を行うための構成が設けられている。   The editing unit 13 is provided with a configuration (for example, a monitor, a touch panel, and a touch pen) for the user to perform graffiti editing or the like on the captured image. The editing unit 13 composed of one frame is provided with a configuration for performing graffiti editing or the like on each of the two surfaces so that two sets of users can perform editing work simultaneously. That is, the photo sticker creation apparatus 1 can execute a plurality of photo sticker creation games in parallel. The editing unit 13 has a configuration for performing two graffiti editing and the like so that a plurality of sets of users can simultaneously perform graffiti editing in order to improve the rotation rate of the photo sticker creation game. Is provided.

撮影空間の上方に設けられる天井ストロボユニット14は、撮影タイミングに合わせて撮影空間内に向けてストロボ発光するフラッシュを内蔵する。この天井ストロボユニット14は、さらに内部に蛍光灯が配置されており、撮影空間(撮影空間内の利用者)を常時照らす照明としても機能する。撮影空間は、後述するように簡易的に閉鎖的な空間として構成される。従って、外部より光が進入しづらく、暗くなりがちで利用者の操作性が低下する恐れがある。天井ストロボユニット14が、その照明により撮影空間を明るく照らすことにより、そのような恐れを回避し、操作性を向上させることができる。なお、このような照明は前方ユニット12Aや後方ユニット12Bにも設けられている。   The ceiling strobe unit 14 provided above the photographing space incorporates a flash that emits strobe light toward the photographing space in accordance with the photographing timing. The ceiling strobe unit 14 further includes a fluorescent lamp, and functions as illumination that constantly illuminates the photographing space (the user in the photographing space). The photographing space is simply configured as a closed space as will be described later. Therefore, it is difficult for light to enter from the outside, and the user's operability may be deteriorated because it tends to be dark. The ceiling strobe unit 14 illuminates the shooting space with the illumination, thereby avoiding such a fear and improving operability. Such illumination is also provided in the front unit 12A and the rear unit 12B.

図2は、図1の写真シール作成装置1を、編集ユニット13側より見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 of FIG. 1 as viewed from the editing unit 13 side.

編集ユニット13は、図2に示されるように、前方ユニット12Aの、後方ユニット12B側の面(つまり、撮影空間側の面)と反対の面に隣接して設置される。編集ユニット13の、前方ユニット12Aに直交する2つの側面には、利用者が撮影画像に対する落書き編集等を行うための第1編集インタフェース13Aと第2編集インタフェース13Bがそれぞれ設けられている。つまり、編集ユニット13には、写真シール作成ゲームを行う複数組の利用者が、前方ユニット12Aと後方ユニット12Bを結ぶ方向と直交する向きに、編集ユニット13を挟んで対向する状態で編集作業を行うことができるように、2つの編集インタフェースが設けられている。これらの編集インタフェースの構成の詳細については後述する。   As shown in FIG. 2, the editing unit 13 is installed adjacent to the surface of the front unit 12A opposite to the surface on the rear unit 12B side (that is, the surface on the imaging space side). A first editing interface 13A and a second editing interface 13B are provided on two side surfaces of the editing unit 13 that are orthogonal to the front unit 12A. That is, the editing unit 13 allows a plurality of sets of users who perform the photo sticker creation game to perform editing operations with the editing unit 13 facing each other in a direction orthogonal to the direction connecting the front unit 12A and the rear unit 12B. Two editing interfaces are provided so that this can be done. Details of the configuration of these editing interfaces will be described later.

また、編集ユニット13の、撮影ユニット12と対向する面には、写真シール作成ゲームがプレイされることにより作成された写真シールが排出されて利用者に提供される写真シール排出部13Cが設けられている。   Also, on the surface of the editing unit 13 that faces the photographing unit 12, a photo sticker discharge unit 13C that is provided to the user by discharging the photo sticker created by playing the photo sticker making game is provided. ing.

図3は、写真シール作成装置1の設置例を示す外観図である。   FIG. 3 is an external view showing an installation example of the photo sticker creating apparatus 1.

写真シール作成装置1がゲームセンタ等に設置される場合、例えば図3に示されるように、撮影ユニット12や編集ユニット13を囲むように、カーテン21が設けられ、撮影作業が行われる撮影空間や編集作業が行われる編集空間等を簡易的に囲み、各空間の閉鎖性を向上させている。つまり、カーテン21は、例えば、各空間内の環境を安定させることにより、高画質な撮影や編集画面の見易さ等に寄与したり、各空間外からの視界を遮断し、利用者が外部からの視線を意識せずに撮影や編集等の作業を行うことができるようにしたりする。   When the photo sticker creating apparatus 1 is installed in a game center or the like, for example, as shown in FIG. 3, a curtain 21 is provided so as to surround the photographing unit 12 and the editing unit 13, and a photographing space where photographing work is performed or The editing space where the editing work is performed is simply enclosed, and the closeability of each space is improved. In other words, for example, the curtain 21 stabilizes the environment in each space, thereby contributing to high-quality shooting, easy viewing of the editing screen, etc., or blocking the field of view from outside each space, It is possible to perform operations such as shooting and editing without being aware of the line of sight.

このカーテン21の外側の面は、通常、広告を掲載する場所として利用され、設置場所において注目度が高まるように、写真シール作成装置1の機種名や機種のイメージを表す派手なデザイン画が印刷される。   The outer surface of the curtain 21 is usually used as a place for posting advertisements, and a flashy design image representing the model name and model image of the photo sticker creating apparatus 1 is printed so as to attract attention at the installation location. Is done.

以上のような写真シール作成装置1は、利用者の各組に対して、それぞれ、写真シール作成ゲームをプレイさせる。写真シール作成装置1は、複数の写真シール作成ゲームを同時に進行させることができる。つまり、写真シール作成装置1は、同時に複数の組に写真シール作成ゲームをプレイさせることができる。このとき、各組の利用者は、写真シール作成装置1に設けられた複数の空間を移動しながら、写真シール作成ゲームの各作業を行い、ゲームを進行させる。   The photo sticker creating apparatus 1 as described above causes each set of users to play a photo sticker creating game. The photo sticker creating apparatus 1 can simultaneously execute a plurality of photo sticker creating games. That is, the photo sticker creating apparatus 1 can cause a plurality of sets to play a photo sticker creating game at the same time. At this time, each group of users performs each work of the photo sticker creation game while moving through a plurality of spaces provided in the photo sticker creation device 1, and advances the game.

写真シール作成ゲームの流れと、それに伴う空間の移動について、図4を参照して説明する。   The flow of the photo sticker creation game and the accompanying movement of the space will be described with reference to FIG.

図4は、写真シール作成装置1を上から見た平面図である。   FIG. 4 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

図4に示されるように、利用者は、事前接客ユニット11前方周辺の領域である事前接客領域31において、事前接客ユニット11に代金を投入することで写真シール作成ゲームを開始する(利用者A)。利用者は、図中点線で示される、前方ユニット12Aと後方ユニット12Bとの間に形成される、撮影作業を行う撮影空間32が使用中で無ければ、事前接客ユニット11の横付近より入場する(利用者B)。もし、前の組の利用者が撮影空間32を使用中であれば(撮影作業中であれば)、利用者は、事前接客領域31において待機する(事前接客ユニット11が待機を指示する)。   As shown in FIG. 4, the user starts the photo sticker creation game by charging the pre-service unit 11 in the pre-service area 31, which is the area around the front of the pre-service unit 11 (user A). ). The user enters from the side of the pre-serving unit 11 if the shooting space 32 for performing the shooting operation, which is formed between the front unit 12A and the rear unit 12B and is indicated by the dotted line in the drawing, is not in use. (User B). If the previous group of users is using the shooting space 32 (if shooting is in progress), the user waits in the pre-service area 31 (the pre-service unit 11 instructs the standby).

なお、事前接客ユニット11は、点線で示されるように前方ユニット12Aの反対側に設けることも可能であり、この場合、利用者は、その事前接客ユニット11のある方から写真シール作成ゲームを開始し(利用者A')、事前接客終了後、上述した側と反対側より撮影空間32に入場する(利用者B)。   The pre-service unit 11 can also be provided on the opposite side of the front unit 12A as indicated by the dotted line. In this case, the user starts the photo sticker creation game from the one with the pre-service unit 11 Then (user A ′), after the pre-service, the user enters the shooting space 32 from the side opposite to the above side (user B).

撮影空間32に入場した利用者(利用者B)は、前方ユニット12Aの正面に設けられたカメラやモニタを利用して自分自身等を撮影させる撮影作業を行う。   A user (user B) who enters the shooting space 32 performs a shooting operation of shooting himself or herself using a camera or monitor provided in front of the front unit 12A.

撮影作業が終了すると利用者は、得られた撮影画像の中から編集・印刷を行うためにキープするキープ画像を選択し、表示された移動案内に従って、撮影作業を行った撮影空間32から、図中点線で示される、編集作業を行う編集空間へと移動する。   When the photographing work is completed, the user selects a keep image to be kept for editing and printing from the obtained photographed images, and follows the displayed movement guide from the photographing space 32 where the photographing work is performed. Move to the editing space indicated by the dotted line.

編集ユニット13の、前方ユニット12Aから見て左側(第1編集インタフェース13Aの前方)に第1編集空間33Aが設けられ、右側(第2編集インタフェース13Bの前方)に第2編集空間33Bが設けられている。つまり、この写真シール作成装置1においては、第1編集空間33Aの利用者(利用者C)および第2編集空間33Bの利用者(利用者C')の、合計2組の利用者が同時に編集作業を行うことができる。撮影空間32の利用者(利用者B)は、この2つの編集空間のうち、空いている方に案内される。第1編集空間33Aまたは第2編集空間33Bに移動すると、利用者は、落書き編集作業を行う。以下において、第1編集空間33Aと第2編集空間33Bとを区別する必要の無い場合、編集空間33と称する。   A first editing space 33A is provided on the left side of the editing unit 13 as viewed from the front unit 12A (in front of the first editing interface 13A), and a second editing space 33B is provided on the right side (in front of the second editing interface 13B). ing. That is, in this photo sticker creation apparatus 1, a total of two sets of users, the user (user C) of the first editing space 33A and the user (user C ') of the second editing space 33B, simultaneously edit. Work can be done. A user (user B) of the shooting space 32 is guided to a free one of the two editing spaces. When the user moves to the first editing space 33A or the second editing space 33B, the user performs a graffiti editing work. Hereinafter, when it is not necessary to distinguish the first editing space 33A and the second editing space 33B, they are referred to as an editing space 33.

その後、落書き編集が終了すると、利用者(利用者Cまたは利用者C')は、次に、印刷設定作業を行い、分割数等の設定を行う。そして印刷が開始されると、利用者は、その印刷中にミニゲームを行う。そして、印刷が終了すると、写真シール排出部13C前方の印刷物受取領域34に移動し(利用者D)、排出された写真シール紙を受け取り、写真シール作成ゲームを終了する。   Thereafter, when the graffiti editing is completed, the user (user C or user C ′) next performs print setting work and sets the number of divisions and the like. When printing is started, the user plays a mini game during the printing. Then, when printing is completed, it moves to the printed matter receiving area 34 in front of the photo sticker discharge unit 13C (user D), receives the discharged photo sticker paper, and ends the photo sticker creation game.

次に、各ユニットの構成について説明する。   Next, the configuration of each unit will be described.

図5は、事前接客ユニット11の構成例を示す図である。   FIG. 5 is a diagram illustrating a configuration example of the advance customer service unit 11.

図5に示されるように、事前接客ユニット11には、利用者が投入する写真シール作成ゲームの代金を受け付けたり、お釣り等を利用者に返却したりする硬貨投入返却口41、写真シール作成ゲームやその遊戯方法の案内やデモンストレーション画面等を表示するモニタ42、および、モニタ42に表示される画像に対応する音声や、効果音等を出力するスピーカ43が設けられている。   As shown in FIG. 5, the customer service unit 11 accepts a price for a photo sticker creation game inserted by the user, returns a change to the user, etc., and a photo sticker creation game. And a monitor 42 for displaying a guide or demonstration screen of the game method and a speaker 43 for outputting sound corresponding to the image displayed on the monitor 42, sound effects, and the like.

モニタ42に表示される画像やスピーカ43より出力される音声は、筐体10(カーテン21に囲まれる領域の外)の外部に向けて出力されるため、写真シール作成ゲームを行う前の、利用者となる予定の人の写真シール作成ゲームの遊戯方法についての理解を深めるだけでなく、写真シール作成装置1の周囲に居る、写真シール作成ゲームを行っていない人間に対しての宣伝(勧誘)効果も有する。   Since the image displayed on the monitor 42 and the sound output from the speaker 43 are output to the outside of the housing 10 (outside the area surrounded by the curtain 21), use before the photo sticker creation game is performed. In addition to deepening the understanding of how to play the photo sticker creation game of the person who is going to be a photographer, advertisement (invitation) to the people around the photo sticker creation device 1 who are not playing the photo sticker creation game It also has an effect.

また、利用者が硬貨投入返却口41に写真シール作成ゲームをプレイするために所定の代金を投入すると、撮影空間32が空いている場合には、モニタ42に、利用者を撮影空間32に誘導する案内画面が表示され、それに対応する音声がスピーカ43より出力される。また、撮影空間32が使用中である場合には、モニタ42に、利用者にその場(事前接客領域31)において待機させるように促す案内画面が表示され、それに対応する音声がスピーカ43より出力される。   When the user inserts a predetermined price into the coin insertion / return slot 41 to play the photo sticker creation game, the user is directed to the monitor 42 on the monitor 42 when the shooting space 32 is free. A guidance screen is displayed, and a sound corresponding to the guidance screen is output from the speaker 43. When the shooting space 32 is in use, a guidance screen is displayed on the monitor 42 to prompt the user to stand by on the spot (pre-service area 31), and the corresponding sound is output from the speaker 43. Is done.

なお、上述したように、事前接客ユニット11は、図5に示されるように、前方ユニット12Aの右側に設置してもよいし、図1に示されるように、前方ユニット12Aの左側に設置してもよい。   As described above, the pre-service unit 11 may be installed on the right side of the front unit 12A as shown in FIG. 5, or on the left side of the front unit 12A as shown in FIG. May be.

図6は、前方ユニット12Aの構成例を示す図である。   FIG. 6 is a diagram illustrating a configuration example of the front unit 12A.

図6に示される正面12A−1は、撮影空間32内に面する側面であり、撮影作業を行う利用者にとって前方に位置する面である。つまり、利用者は、撮影空間32において、基本的にこの正面12A−1に向かって(前方ユニット12A側を向いて)撮影作業を行う。   A front surface 12A-1 shown in FIG. 6 is a side surface facing the imaging space 32, and is a surface positioned in front of the user who performs the imaging operation. That is, the user basically performs a photographing operation in the photographing space 32 toward the front surface 12A-1 (facing the front unit 12A side).

この正面12A−1には、撮影空間32内の被写体を撮影するカメラ51、例えば、カメラ51により光電変換されてリアルタイムに(即時)取得されている(撮り込まれている)取得画像や撮影結果である撮影画像、撮影作業に関する案内、および、背景画像の選択等を行うGUI(Graphical User Interface)画像の表示等、撮影作業に関する表示を行うとともに、画面上に重畳されたタッチパネルにより利用者の指示を受け付けるタッチパネルモニタ52、撮影空間32内を照明したり、カメラ51による撮影タイミングに合わせてフラッシュ光を発光したりする照明装置53−1乃至照明装置53−8、撮影作業中の利用者の手荷物等を置くための荷物置場54−1および荷物置場54−2、並びに、撮影作業に関する案内や効果音等の音声が出力されるスピーカ55−1およびスピーカ55−2が設けられている。   On the front surface 12A-1, a camera 51 that shoots a subject in the shooting space 32, for example, an acquired image or a shooting result obtained (photographed) in real time (immediately) after being photoelectrically converted by the camera 51. In addition to displaying images related to shooting operations, such as GUI images for shooting images, guidance regarding shooting operations, and GUI (Graphical User Interface) images for selecting background images, etc., and user instructions via a touch panel superimposed on the screen Touch panel monitor 52 that illuminates, illumination device 53-1 to illumination device 53-8 that illuminates the imaging space 32 or emits flash light in accordance with the imaging timing of the camera 51, and baggage of the user during the imaging operation For example, the luggage storage area 54-1 and the luggage storage area 54-2 for placing the sound, etc. Speakers 55-1 and a speaker 55-2 is provided is.

カメラ51は、CCD(Charge Coupled Device)を利用した撮像素子等により構成され、写真シール作成ゲームの撮影作業の工程において、撮影空間32内の利用者を撮影する。なお、カメラ51として、CCDの代わりに、例えばCMOS(Complementary Metal Oxide Semiconductor)センサを用いたカメラを使用してもよい。もちろん、これら以外にも、利用者を撮影し、デジタル画像データを得られるものであればどのようなカメラを用いるようにしてもよい。また、カメラ51の個数も設置位置も任意である。   The camera 51 is configured by an imaging device using a CCD (Charge Coupled Device) or the like, and photographs a user in the shooting space 32 in the shooting process of the photo sticker creation game. For example, a camera using a CMOS (Complementary Metal Oxide Semiconductor) sensor may be used as the camera 51 instead of the CCD. Of course, any camera other than these may be used as long as the user can be photographed and digital image data can be obtained. Further, the number of cameras 51 and the installation position are arbitrary.

タッチパネルモニタ52はLCD(Liquid Crystal Display)等により構成され、カメラ51の取得画像、撮影画像に合成する合成用画像、撮影結果として保存される撮影画像、または撮影作業の手順を案内する案内画像等、撮影作業に関する画像を表示するモニタである。このタッチパネルモニタ52の画面上には無色透明のタッチパネル(例えば、感圧式や電磁誘導式等)が重畳されており、例えば利用者の指等でタップすることによりその位置情報(利用者の指示)を入力することができる。   The touch panel monitor 52 is configured by an LCD (Liquid Crystal Display) or the like, and includes an acquired image of the camera 51, a composite image to be combined with the captured image, a captured image stored as a captured result, or a guide image that guides the procedure of the capturing operation. This is a monitor that displays an image relating to a shooting operation. A colorless and transparent touch panel (for example, a pressure-sensitive type or an electromagnetic induction type) is superimposed on the screen of the touch panel monitor 52. For example, the position information (user instruction) is obtained by tapping with a user's finger or the like. Can be entered.

照明装置53−1乃至照明装置53−8は、複数の、蛍光灯およびストロボ発光可能な照明装置により構成され、撮影空間32を明るくし、操作性や安全性を確保するために、撮影空間32を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングに対応するタイミングでストロボ発光し、撮影される利用者に光を多様な角度から照射する。以下において、照明装置53−1乃至照明装置53−8を互いに区別して説明する必要の無い場合、照明装置53と称する。   The illuminating devices 53-1 to 53-8 are configured by a plurality of illuminating devices that can emit fluorescent light and strobe light, and in order to brighten the photographic space 32 and ensure operability and safety, the photographic space 32 is provided. In order to improve the image quality of the photographed image, the flash is emitted at a timing corresponding to the photographing timing, and the user who is photographed is irradiated with light from various angles. Hereinafter, the lighting devices 53-1 to 53-8 are referred to as the lighting devices 53 when it is not necessary to distinguish them from each other for explanation.

荷物置場54−1および荷物置場54−2は、撮影時における利用者の手荷物の置き場所として利用する棚である。荷物置場54−1および荷物置場54−2は、いずれも、撮影の邪魔にならないような位置、すなわち、利用者が撮影ポーズをとるのに邪魔にならず、かつ、照明装置53の光の照射の妨げとならない位置に設けられている。利用者は、手荷物を荷物置場54−1または荷物置場54−2に置くことにより、より快適に撮影作業を行うことができる。以下において、荷物置場54−1および荷物置場54−2を互いに区別して説明する必要のない場合、単に荷物置場54と称する。   The luggage storage area 54-1 and the luggage storage area 54-2 are shelves that are used as storage locations for the user's baggage at the time of photographing. Both the luggage storage area 54-1 and the luggage storage area 54-2 do not interfere with shooting, that is, do not interfere with the user taking a shooting pose, and the illumination device 53 emits light. It is provided at a position that does not interfere with The user can perform photographing work more comfortably by placing the baggage in the luggage storage area 54-1 or the luggage storage area 54-2. Hereinafter, when it is not necessary to distinguish between the luggage storage area 54-1 and the luggage storage area 54-2, they are simply referred to as the luggage storage area 54.

スピーカ55−1およびスピーカ55−2は、写真シール作成ゲームの撮影作業における案内音声、BGM(Back Ground Music)、効果音等の音声を適宜出力する。スピーカ55−1およびスピーカ55−2を互いに区別する必要のない場合、スピーカ55と称する。なお、スピーカ55の数および設置位置は任意である。   The speaker 55-1 and the speaker 55-2 appropriately output sound such as guidance sound, BGM (Back Ground Music), and sound effects in the shooting work of the photo sticker creation game. When it is not necessary to distinguish the speaker 55-1 and the speaker 55-2 from each other, they are referred to as a speaker 55. Note that the number and installation positions of the speakers 55 are arbitrary.

次に、編集ユニット13の構成について説明する。   Next, the configuration of the editing unit 13 will be described.

図7は、編集ユニット13の、撮影ユニット12側から見て左側面の構成例(第1編集空間33A側の構成例)を示す図である。   FIG. 7 is a diagram showing a configuration example of the left side of the editing unit 13 when viewed from the photographing unit 12 side (configuration example on the first editing space 33A side).

図7において、この左側面には、第1編集インタフェース13Aが設けられている。その上側には、カーテン21等で仕切られているために暗くなる第1編集空間33Aを照らすための照明装置61が設けられている。この照明装置61により、写真シール作成装置1は、利用者の編集作業効率の低下を抑制し、第1編集空間33Aの安全性を向上させることができる。なお、図7の例においては、編集ユニット13の、照明装置61が設けられている第1編集インタフェース13Aの上側の部分が、第2編集空間33B側に貫通しており、照明装置61は、第1編集空間33Aと第2編集空間33Bとで共有している。つまり、照明装置61は、第1編集空間33Aだけでなく第2編集空間33Bも照明し、安全性を向上させる。なお、この照明装置61の設置位置および個数は任意である。   In FIG. 7, a first editing interface 13A is provided on the left side surface. On the upper side, an illuminating device 61 is provided for illuminating the first editing space 33A that is darkened because it is partitioned by the curtain 21 or the like. The illuminating device 61 allows the photo sticker creating apparatus 1 to suppress a reduction in the user's editing work efficiency and improve the safety of the first editing space 33A. In the example of FIG. 7, the upper portion of the editing unit 13 on the first editing interface 13 </ b> A where the lighting device 61 is provided penetrates to the second editing space 33 </ b> B side. The first editing space 33A and the second editing space 33B are shared. That is, the illumination device 61 illuminates not only the first editing space 33A but also the second editing space 33B, thereby improving safety. Note that the installation position and the number of the illumination devices 61 are arbitrary.

第1編集インタフェース13Aには、タブレット内蔵モニタ62、2本のタッチペン(タッチペン63−1およびタッチペン63−2)、並びに、スピーカ64が設けられている。   The first editing interface 13A is provided with a tablet built-in monitor 62, two touch pens (touch pen 63-1 and touch pen 63-2), and a speaker 64.

タブレット内蔵モニタ62は、撮影空間における撮影作業により得られた撮影画像を編集するためのGUI画像(落書き編集入力画面)等を表示する。   The tablet built-in monitor 62 displays a GUI image (doodle editing input screen) and the like for editing a photographed image obtained by photographing work in the photographing space.

タブレット内蔵モニタ62は、タッチペン63−1またはタッチペン63−2により位置情報を入力可能なタブレットと、画像を表示可能なLCD等の表示デバイスを有するモニタである。ここでは、タブレットは、例えば、感圧式や電磁誘導式の入力デバイスであり、無色透明で、表示デバイスの表示画面上に重畳されて設置されている。つまり、タブレット内蔵モニタ62は、表示デバイスにより単にGUI画像等を表示するだけでなく、タブレットにより利用者からの入力操作を受け付ける。   The tablet built-in monitor 62 is a monitor having a tablet capable of inputting position information with the touch pen 63-1 or the touch pen 63-2 and a display device such as an LCD capable of displaying an image. Here, the tablet is, for example, a pressure-sensitive type or electromagnetic induction type input device, is colorless and transparent, and is installed so as to be superimposed on the display screen of the display device. That is, the tablet built-in monitor 62 not only displays a GUI image or the like by the display device but also accepts an input operation from the user by the tablet.

このタブレット内蔵モニタ62の左右近傍には、画面上に重畳されたタッチパネルに対応するタッチペン63−1とタッチペン63−2が左右1本ずつ所定のアタッチメントにより編集ユニット13に着脱可能に固定されており、同じ組の2人の利用者が、これらのタッチペンをそれぞれ使用することにより、同時に、写真シール作成作業の編集作業の工程をプレイすることができるようになされている。なお、以下において、タッチペン63−1およびタッチペン63−2を互いに区別して説明する必要のない場合、単にタッチペン63と称する。   Touch pens 63-1 and 63-2 corresponding to the touch panel superimposed on the screen are detachably fixed to the editing unit 13 by a predetermined attachment near the left and right of the tablet built-in monitor 62. By using these touch pens, two users in the same group can play the editing process of the photo sticker creation process at the same time. In the following description, the touch pen 63-1 and the touch pen 63-2 are simply referred to as the touch pen 63 when it is not necessary to distinguish them from each other.

そのタッチペン63は、編集ユニット13内部に設置されたシステムと有線(または無線)により電気的にも接続されている。タッチペン63は、タブレット内蔵モニタ62の表示デバイスの表示画面上に重畳された無色透明のタブレットと連携して動作する。利用者がこれらのタッチペン63を操作して、そのタブレットをタップする(タッチペン63とタブレット内蔵モニタ62の表示画面を接触(または近接)させる)ことにより、これらは、利用者からの入力を受け付ける入力手段として動作する。なお、タッチペン63の設置本数、設置位置、及び形状等は任意である。   The touch pen 63 is also electrically connected to a system installed in the editing unit 13 by wire (or wireless). The touch pen 63 operates in cooperation with a colorless and transparent tablet superimposed on the display screen of the display device of the tablet built-in monitor 62. When the user operates these touch pens 63 and taps the tablet (the touch pen 63 and the display screen of the tablet built-in monitor 62 are brought into contact (or close proximity)), these are inputs that accept input from the user. Acts as a means. The number of touch pens 63 to be installed, the installation position, the shape, and the like are arbitrary.

スピーカ64は、例えば、案内音声、効果音、またはBGM等、写真シール作成ゲームの編集作業に関する音声を出力する。なお、スピーカ64の設置個数、デザイン、および形状等は任意である。   The speaker 64 outputs, for example, sound related to editing work of the photo sticker creation game, such as guidance sound, sound effects, or BGM. The number, design, shape, etc. of the speakers 64 are arbitrary.

なお、編集ユニット13の第2編集空間33B側の構成も、図7に示される第1編集空間33A側の構成と基本的に同様であるので、その説明については省略する。以下においては、図7に示される構成例は、編集ユニット13の第2編集空間33B側の構成を説明する場合にも適用する。   Note that the configuration of the editing unit 13 on the second editing space 33B side is basically the same as the configuration of the first editing space 33A side shown in FIG. In the following, the configuration example shown in FIG. 7 is also applied to the case where the configuration of the editing unit 13 on the second editing space 33B side is described.

図8は、編集ユニット13の、写真シール排出部13Cの構成例を示す図である。   FIG. 8 is a diagram illustrating a configuration example of the photo sticker discharge unit 13 </ b> C of the editing unit 13.

図8に示されるように、写真シール排出部13Cには、第1編集空間33Aにおいて編集作業を行った利用者が作成した写真シール(つまり、第1編集インタフェース13Aが操作されて作成された写真シール)と、第2編集空間33Bにおいて編集作業を行った利用者が作成した写真シール(つまり、第2編集インタフェース13Bが操作されて作成された写真シール)が排出される写真シール排出口71が設けられている。   As shown in FIG. 8, the photo sticker discharging unit 13C has a photo sticker created by a user who has performed editing work in the first editing space 33A (that is, a photo created by operating the first editing interface 13A). And a photo sticker discharge port 71 through which a photo sticker created by a user who has performed editing work in the second editing space 33B (that is, a photo sticker created by operating the second editing interface 13B) is discharged. Is provided.

編集ユニット13内部には、プリンタが設置されており、第1編集インタフェース13Aまたは第2編集インタフェース13Bが操作されて作成された印刷用の画像は、そのプリンタによりシール紙に印刷される。プリンタより出力された写真シールは、この写真シール排出口71より排出される。   A printer is installed inside the editing unit 13, and a printing image created by operating the first editing interface 13A or the second editing interface 13B is printed on sticker paper by the printer. The photo sticker output from the printer is discharged from the photo sticker discharge port 71.

次に、写真シール作成装置1の内部の構成について説明する。   Next, the internal configuration of the photo sticker creating apparatus 1 will be described.

図9は、写真シール作成装置1のハードウエア構成例を示すブロック図である。以上において説明した部分と同じ部分については、同じ番号を付し、その説明を省略する。   FIG. 9 is a block diagram illustrating a hardware configuration example of the photo sticker creating apparatus 1. The same parts as those described above are denoted by the same reference numerals and description thereof is omitted.

図9において、写真シール作成装置1は、写真シール作成装置1の装置全体を制御する処理部である制御装置101を有しており、その制御装置101には、記憶部102、通信部103、ドライブ104、ROM(Read Only Memory)106、RAM(Random Access Memory)107、事前接客部111、撮影部112、編集部113、およびプリンタ114がそれぞれ所定のバスを介して接続される。   In FIG. 9, the photo sticker creating apparatus 1 includes a control device 101 that is a processing unit that controls the entire apparatus of the photo sticker creating device 1. The control device 101 includes a storage unit 102, a communication unit 103, A drive 104, a ROM (Read Only Memory) 106, a RAM (Random Access Memory) 107, a pre-serving section 111, a photographing section 112, an editing section 113, and a printer 114 are respectively connected via a predetermined bus.

記憶部102は、例えばハードディスクやフラッシュメモリ等のような不揮発性の記憶媒体を有しており、制御装置101より供給される各種設定情報をその記憶媒体に保存したり、記憶媒体に記録されている設定情報を読み出して制御装置101に供給したりする。なお、この記憶媒体は、情報を記憶することができるものであれば、どのようなものであってもよい。   The storage unit 102 has a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control device 101 in the storage medium or is recorded in the storage medium. The setting information is read out and supplied to the control device 101. Note that this storage medium may be anything as long as it can store information.

通信部103は、例えばインターネットや公衆電話回線網等のような外部のネットワーク(図示せず)を介して、または単に通信ケーブル(図示せず)を介して、他の通信装置(図示せず)に接続され、制御装置101に制御されて、例えば利用者の携帯型電話機、利用者のパーソナルコンピュータ、または中央管理サーバ等のような他の通信装置と通信を行う。例えば、通信部103は、制御装置101より供給される送信情報を他の通信装置に送信したり、他の通信装置より供給された受信情報を制御装置101に供給したりする。   The communication unit 103 is connected to another communication device (not shown) via an external network (not shown) such as the Internet or a public telephone line network, or simply via a communication cable (not shown). And is controlled by the control device 101 to communicate with other communication devices such as a user's mobile phone, a user's personal computer, or a central management server. For example, the communication unit 103 transmits transmission information supplied from the control device 101 to another communication device, or supplies reception information supplied from another communication device to the control device 101.

ドライブ104には、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク、および、半導体メモリなどのリムーバブルメディア105が適宜装着され、それらから読み出されたコンピュータプログラムやデータが、必要に応じて制御装置101に供給され、記憶部102等に保存されたり、インストールされたりする。   The drive 104 includes a removable medium such as a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk, and a semiconductor memory. The computer program and data read out from the computer 105 and the data read from them are supplied to the control device 101 as needed, and stored or installed in the storage unit 102 or the like.

ROM106には、制御装置101において実行されるプログラムやデータが予め格納されており、ROM106は、制御装置101の指示に基づいて、プログラムやデータを制御装置101に供給する。RAM107は、制御装置101が処理するデータやプログラムを一時的に保持する。   The ROM 106 stores programs and data executed in the control device 101 in advance, and the ROM 106 supplies the programs and data to the control device 101 based on instructions from the control device 101. The RAM 107 temporarily holds data and programs processed by the control device 101.

事前接客部111は、事前接客ユニット11を用いて、撮影前の利用者に対する接客処理を行う。例えば、事前接客部111は、写真シール作成ゲームのデモンストレーション画面を表示したり、写真シール作成ゲームの代金(硬貨)の投入を受け付けたり、撮影空間32内への移動案内を行ったり、撮影空間32が使用中の場合、利用者を待機させたりする。事前接客部111は、上述したモニタ42およびスピーカ43の他に、硬貨処理部121を有する。硬貨処理部121は、硬貨投入返却口41に硬貨が投入されると、利用者による写真シール作成装置1の代金支払いに関する処理(ゲーム参加受け付け等)を行い、課金処理や、移動又は待機案内等をモニタ42及びスピーカ43に行わせたりする。   The prior customer service unit 111 uses the prior customer service unit 11 to perform customer service for a user before photographing. For example, the pre-service section 111 displays a demonstration screen of a photo sticker creation game, accepts the insertion of a price (coin) for the photo sticker creation game, guides movement into the shooting space 32, or takes the shooting space 32. When the is in use, the user is made to wait. The customer service unit 111 includes a coin processing unit 121 in addition to the monitor 42 and the speaker 43 described above. When a coin is inserted into the coin insertion / return port 41, the coin processing unit 121 performs processing related to payment for the photo sticker creation device 1 by the user (game participation acceptance, etc.), charging processing, movement or standby guidance, etc. Is performed by the monitor 42 and the speaker 43.

撮影部112は、撮影ユニット12に関するブロックであり、背景カーテン131、照明装置53、カメラ51、タッチパネルモニタ52、およびスピーカ55を有する。   The photographing unit 112 is a block related to the photographing unit 12 and includes a background curtain 131, a lighting device 53, a camera 51, a touch panel monitor 52, and a speaker 55.

背景カーテン131は、写真シール作成ゲームの撮影作業の工程において、背景として用いられる複数の昇降式カーテンとその制御を行う制御部を有するユニットである。例えば、カーテンには色、模様、絵柄などが異なる多種類のカーテンがある。昇降式のカーテンではなく、吊下げ式のカーテンが用意されるようにしてもよい。   The background curtain 131 is a unit having a plurality of elevating curtains used as a background and a control unit for controlling the curtains used as a background in the process of shooting a photo sticker creation game. For example, there are many types of curtains with different colors, patterns, patterns, and the like. Instead of an elevating curtain, a hanging curtain may be prepared.

照明装置53は、制御装置101より供給される照明制御信号に基づいて、点灯したり、消灯したり、またはフラッシュ光を発光したりする。   The lighting device 53 is turned on, turned off, or emits flash light based on the lighting control signal supplied from the control device 101.

カメラ51は、制御装置101に制御されて、写真シール作成ゲームの撮影作業の工程において、撮影空間32内の被写体(利用者)の撮影を行う。例えば、カメラ51は、制御装置101の制御の下、動画像を取りこみ、その取得した動画像データを制御装置101に供給する。また、カメラ51は、制御装置101より供給されるシャッタ制御信号に基づいて、メカシャッタを動作させる等して、撮影画像(静止画像)の取得を行い、取得した静止画像データを制御装置101に供給する。   The camera 51 is controlled by the control device 101 to shoot a subject (user) in the shooting space 32 in the shooting work process of the photo sticker creation game. For example, the camera 51 captures a moving image under the control of the control device 101 and supplies the acquired moving image data to the control device 101. Further, the camera 51 acquires a captured image (still image) by operating a mechanical shutter based on a shutter control signal supplied from the control device 101, and supplies the acquired still image data to the control device 101. To do.

タッチパネルモニタ52は撮影画像表示部132を有しており、制御装置101より供給されるRGB信号に基づく画像をその撮影画像表示部132に表示する。また、タッチパネルモニタ52は、その撮影画像表示部132の表面に重畳された、無色透明のタッチパネル(図示せず)も有している。利用者が、自分自身の指等を用いてこのタッチパネルにタップ(接触または近接)すると、タッチパネルモニタ52は、その位置情報を制御装置101に供給する。制御装置101は、その位置情報を解析し、表示画像に対して利用者が入力した情報や指示を特定し、受け付ける。   The touch panel monitor 52 has a captured image display unit 132, and displays an image based on the RGB signal supplied from the control device 101 on the captured image display unit 132. The touch panel monitor 52 also includes a colorless and transparent touch panel (not shown) superimposed on the surface of the captured image display unit 132. When the user taps (contacts or approaches) the touch panel with his / her finger or the like, the touch panel monitor 52 supplies the position information to the control device 101. The control device 101 analyzes the position information, identifies and accepts information and instructions input by the user with respect to the display image.

スピーカ55は、例えば、制御装置101より供給される音声信号の音声(撮影作業の案内音声、効果音、またはBGM等)を出力する。   The speaker 55 outputs, for example, sound of a sound signal supplied from the control device 101 (shooting work guidance sound, sound effect, BGM, or the like).

編集部113は、編集ユニット13に関するブロックであり、第1編集インタフェース13Aに対応する第1編集部113Aと、第2編集インタフェース13Bに対応する第2編集部113Bよりなる。第1編集部113Aおよび第2編集部113Bは互いに同一の構成を有しており、以下の説明は、第1編集部113Aについて行うが、第2編集部113Bにも適用可能である。   The editing unit 113 is a block related to the editing unit 13, and includes a first editing unit 113A corresponding to the first editing interface 13A and a second editing unit 113B corresponding to the second editing interface 13B. The first editing unit 113A and the second editing unit 113B have the same configuration, and the following description is given with respect to the first editing unit 113A, but is also applicable to the second editing unit 113B.

第1編集部113Aは、図7を参照して説明したように、タブレット内蔵モニタ62、タッチペン63−1およびタッチペン63−2、並びに、スピーカ64を有する。   As described with reference to FIG. 7, the first editing unit 113 </ b> A includes the tablet built-in monitor 62, the touch pen 63-1 and the touch pen 63-2, and the speaker 64.

タブレット内蔵モニタ62はLCD等の表示デバイスよりなる編集用モニタ141と、編集用モニタ141の表示画面上に重畳された無色透明のタブレット142により構成される。タブレット内蔵モニタ62は、制御装置101より供給されるRGB信号に対応する、編集入力用のGUIや撮像画像等、編集に関する画像を、編集用モニタ141に表示する。また、利用者が、タッチペン63−1またはタッチペン63−2を操作してタブレット142にタップ(接触または近接)すると、タブレット内蔵モニタ62は、その位置情報を制御装置101に供給する。制御装置101は、その位置情報を解析し、表示画像(GUI等)に対して利用者が入力した情報や指示を特定し、受け付ける。つまり、撮影画像(撮影画像を用いて作成された合成画像)に対する編集入力は、これらの構成を用いて行われる。   The tablet built-in monitor 62 includes an editing monitor 141 composed of a display device such as an LCD and a colorless and transparent tablet 142 superimposed on the display screen of the editing monitor 141. The tablet built-in monitor 62 displays on the editing monitor 141 an image relating to editing, such as an editing input GUI and a captured image, corresponding to the RGB signal supplied from the control device 101. When the user operates the touch pen 63-1 or the touch pen 63-2 and taps (contacts or approaches) the tablet 142, the tablet built-in monitor 62 supplies the position information to the control device 101. The control device 101 analyzes the position information, identifies and accepts information and instructions input by the user on the display image (GUI or the like). That is, editing input for a captured image (a composite image created using the captured image) is performed using these configurations.

スピーカ64は、制御装置101より供給される音声信号の音声(編集作業の案内音声、効果音、またはBGM等の、写真シール作成ゲームの編集作業の工程に関する音声)を出力する。   The speaker 64 outputs the sound of the sound signal supplied from the control device 101 (the sound related to the editing work process of the photo sticker creation game, such as the editing work guidance sound, the sound effect, or the BGM).

プリンタ114は、編集部113により行われた編集作業結果をシール紙に印刷する2つのヘッド(ヘッド151およびヘッド152)を有する。プリンタ114は、制御装置101より第1編集部113Aにより行われた編集作業結果を取得すると、シール紙ユニット161よりシール紙162を取得し、ヘッド151において、編集作業結果をシール紙162に印刷する。また、プリンタ114は、制御装置101より第2編集部113Bにより行われた編集作業結果を取得すると、シール紙ユニット161よりシール紙162を取得し、ヘッド152において、編集作業結果をシール紙162に印刷する。   The printer 114 has two heads (a head 151 and a head 152) that print the result of editing work performed by the editing unit 113 on sticker paper. When the printer 114 obtains the result of editing work performed by the first editing unit 113A from the control device 101, the printer 114 obtains the sticker paper 162 from the sticker paper unit 161 and prints the result of editing work on the sticker paper 162 in the head 151. . Further, when the printer 114 acquires the result of the editing work performed by the second editing unit 113B from the control device 101, the printer 114 acquires the sticker paper 162 from the sticker paper unit 161, and the editing result is converted into the sticker paper 162 by the head 152. Print.

プリンタ114は、印刷を終了すると、その印刷されたシール紙162を写真シールとして写真シール排出口71より排出し、利用者に提供する。   When the printing is finished, the printer 114 discharges the printed sticker paper 162 as a photo sticker from the photo sticker discharge port 71 and provides it to the user.

図10は、制御装置101の機能構成例を示すブロック図である。   FIG. 10 is a block diagram illustrating a functional configuration example of the control device 101.

図10には、撮影作業を行っている利用者に対してライブビュー表示によって提示する合成動画像の作成に関する機能構成が示されている。図10に示される構成の他に、撮影処理を行う構成、編集処理を行う構成、印刷処理を行う構成などが制御装置101においては実現される。   FIG. 10 shows a functional configuration related to creation of a composite moving image to be presented by a live view display to a user who is performing a shooting operation. In addition to the configuration shown in FIG. 10, a configuration for performing photographing processing, a configuration for performing editing processing, a configuration for performing printing processing, and the like are realized in the control apparatus 101.

図10に示される構成のうちの少なくとも一部は、制御装置101により所定のプログラムが実行されることによって実現される。   At least a part of the configuration shown in FIG. 10 is realized by executing a predetermined program by the control device 101.

図10に示されるように、制御装置101においては、マスク画像作成部201、差分抽出部202、合成部203、および表示制御部204が実現される。利用者が撮影作業を開始したとき、利用者が被写体として映っている動画像の撮影が開始され、撮影された動画像がカメラ51からマスク画像作成部201と合成部203に供給される。カメラ51により撮影された動画像を時間軸に並べた場合、その動画像は静止画が連続していると考えることができる。   As shown in FIG. 10, in the control apparatus 101, a mask image creation unit 201, a difference extraction unit 202, a synthesis unit 203, and a display control unit 204 are realized. When the user starts the shooting operation, shooting of a moving image in which the user appears as a subject is started, and the shot moving image is supplied from the camera 51 to the mask image creating unit 201 and the combining unit 203. When moving images taken by the camera 51 are arranged on the time axis, it can be considered that the moving images are continuous still images.

マスク画像作成部201は、カメラ51から供給された動画像を構成する時系列順に並ぶ静止画像であるそれぞれのフレームを対象としてクロマキ処理や肌色領域の検出処理などを行うことによって、被写体の領域と背景の領域とを分けるデータであるマスク画像を作成する。例えば、カメラ51から供給される動画像には、クロマキ用のカーテンが被写体の背景として映っており、それぞれのフレームを対象としてクロマキ処理を行うことができるようになされている。   The mask image creation unit 201 performs a chroma process, a skin color area detection process, and the like on each frame, which is a still image arranged in time series constituting the moving image supplied from the camera 51, to thereby determine the area of the subject. A mask image, which is data that separates the background area, is created. For example, in the moving image supplied from the camera 51, a chroma curtain is reflected as the background of the subject, and the chroma processing can be performed for each frame.

図11は、カメラ51により撮影された動画像の例を示す図である。   FIG. 11 is a diagram illustrating an example of a moving image captured by the camera 51.

図11の例においては、カメラ51により撮影された動画像を構成するフレームとしてフレームf1乃至f3が示されている。横方向は時間方向を表す。 In the example of FIG. 11, frames f 1 to f 3 are shown as frames constituting a moving image taken by the camera 51. The horizontal direction represents the time direction.

フレームf1において、被写体の体はフレームの中心を基準とすると若干右側にあり、被写体の右腕は斜めに下げた状態になっている。また、フレームf2,f3おいて、被写体の体はフレームf1における位置と同じ位置にあり、それぞれ、被写体の右腕は水平に向けた状態、斜めに上げた状態になっている。 In the frame f 1 , the body of the subject is slightly on the right side with respect to the center of the frame, and the right arm of the subject is tilted downward. Further, in the frames f 2 and f 3 , the body of the subject is at the same position as the position in the frame f 1 , and the right arm of the subject is in a horizontally oriented state or in a state in which the subject is raised obliquely.

すなわち、図11は、カメラ51に体の正面を向けている利用者が、撮影作業中に、右腕を斜め下から斜め上に動かした場合の例を示している。   That is, FIG. 11 shows an example in which the user who is facing the front of the body to the camera 51 moves the right arm from obliquely downward to obliquely during photographing.

このようなフレームから構成される動画像がカメラ51から供給された場合、マスク画像作成部201においては、図12に示されるようなマスク画像が作成される。マスク画像の縦横の画素数は、カメラ51により撮影された動画像を構成するそれぞれのフレームの縦横の画素数と同じであるものとする。   When a moving image composed of such frames is supplied from the camera 51, the mask image creating unit 201 creates a mask image as shown in FIG. The number of vertical and horizontal pixels of the mask image is the same as the number of vertical and horizontal pixels of each frame constituting the moving image captured by the camera 51.

図12のマスク画像m1乃至m3は、それぞれ、図11のフレームf1乃至f3から作成されたマスク画像であり、黒く塗りつぶされている領域が被写体の領域を表す。マスク画像全体の画素のうち、黒く塗りつぶされている領域に対応する画素の画素値はRGB=(0,0,0)で表され、それ以外の領域に対応する画素の画素値はRGB=(255,255,255)で表される。 The mask images m 1 to m 3 in FIG. 12 are mask images created from the frames f 1 to f 3 in FIG. 11, respectively, and a black area represents a subject area. Among the pixels of the entire mask image, the pixel value of the pixel corresponding to the blacked area is represented by RGB = (0, 0, 0), and the pixel value of the pixel corresponding to the other area is RGB = ( 255, 255, 255).

マスク画像作成部201は、このようにして作成したマスク画像を差分抽出部202に出力する。   The mask image creation unit 201 outputs the mask image created in this way to the difference extraction unit 202.

差分抽出部202は、マスク画像作成部201から供給されたマスク画像に基づいて、所定の期間内に被写体が動いた範囲を抽出する。   The difference extraction unit 202 extracts a range in which the subject has moved within a predetermined period based on the mask image supplied from the mask image creation unit 201.

図13は、差分抽出部202により抽出される範囲の例を示す図である。   FIG. 13 is a diagram illustrating an example of a range extracted by the difference extraction unit 202.

例えば、図12のマスク画像m1乃至m3がマスク画像作成部201により作成された場合、差分抽出部202においては、それぞれのマスク画像の差分が求められ、マスク画像間で差分のある、図13に斜線を付して示す範囲A1が、被写体が動いた範囲として抽出される。なお、被写体の手を認識する機能が制御装置101に搭載されている場合、手の動いた範囲だけが、被写体が動いた範囲として抽出されるようにしてもよい。 For example, when the mask images m 1 to m 3 in FIG. 12 are created by the mask image creation unit 201, the difference extraction unit 202 obtains a difference between the mask images, and there is a difference between the mask images. A range A 1 indicated by hatching 13 is extracted as a range in which the subject has moved. When the control device 101 has a function for recognizing the hand of the subject, only the range in which the hand has moved may be extracted as the range in which the subject has moved.

差分抽出部202は、被写体が動いた範囲を表す情報を合成部203に出力する。   The difference extraction unit 202 outputs information representing the range in which the subject has moved to the synthesis unit 203.

合成部203は、ライブビュー表示させる動画像を構成するフレームの全画素に対応するカウント値を保持するための作業領域を有している。カウント値は被写体の画像に対して合成する前景画像の各画素の濃度を表す値であり、設定されたカウント値に応じた濃度を有するものになるように、前景画像の各画素の濃度が調整される。ライブビュー表示させる動画像を構成する各フレームの縦横の画素数、カメラ51により撮影された動画像を構成する各フレームの縦横の画素数、前景画像の縦横の画素数は同じ画素数であるものとする。   The synthesizing unit 203 has a work area for holding count values corresponding to all pixels of a frame constituting a moving image to be displayed in live view. The count value is a value representing the density of each pixel of the foreground image to be combined with the subject image, and the density of each pixel of the foreground image is adjusted so as to have a density corresponding to the set count value. Is done. The number of vertical and horizontal pixels of each frame constituting a moving image to be displayed in live view, the number of vertical and horizontal pixels of each frame constituting the moving image taken by the camera 51, and the number of vertical and horizontal pixels of the foreground image are the same. And

図14は、前景画像の例を示す図である。   FIG. 14 is a diagram illustrating an example of the foreground image.

図14は、ハート柄が全体に並べられた前景画像の例を示している。前景画像は、静止画像であってもよいし、動画像であってもよい。また、柄(画像)を表示するものだけでなく、文字を表示するものであってもよい。   FIG. 14 shows an example of a foreground image in which heart patterns are arranged on the whole. The foreground image may be a still image or a moving image. Moreover, not only a pattern (image) but also a character may be displayed.

例えば、撮影作業の開始時である初期状態では作業領域のカウント値は全て0として設定される。カウント値が全て0であるため、初期状態においては、合成動画像上では前景画像は見えずに、カメラ51により撮影された動画像がそのまま見えることになる。   For example, all the count values of the work area are set to 0 in the initial state at the start of the photographing work. Since all the count values are 0, in the initial state, the foreground image is not seen on the synthesized moving image, and the moving image taken by the camera 51 is seen as it is.

また、合成部203は、差分抽出部202から供給された情報に基づいて、作業領域の全カウント値のうち、被写体が動いた範囲と同じ範囲内の前景画像の画素に対応するカウント値を増加させ、一方、被写体の動きがなかった範囲(静止していた範囲)と同じ範囲内の前景画像の画素に対応するカウント値を減少させる。この結果、連続して動きがある範囲内の前景画像の画素に対応するカウント値は一定値を超えることになる。   Further, based on the information supplied from the difference extraction unit 202, the synthesis unit 203 increases the count value corresponding to the pixels of the foreground image within the same range as the range in which the subject has moved among all the count values in the work area. On the other hand, the count value corresponding to the pixels of the foreground image within the same range as the range where the subject has not moved (the range where the subject is stationary) is decreased. As a result, the count value corresponding to the pixels of the foreground image within a range where there is continuous movement exceeds a certain value.

合成部203は、カウント値に応じて各画素の濃度を調整した前景画像を、カメラ51により撮影された動画像に重ねることによって合成し、合成して得られた合成動画像を表示制御部204に出力する。カウント値が一定値を超えた前景画像の画素だけが、合成画像上で視認可能な濃度を有するように調整されるようにしてもよい。   The synthesizing unit 203 synthesizes the foreground image in which the density of each pixel is adjusted according to the count value by superimposing the foreground image on the moving image captured by the camera 51, and displays the synthesized moving image obtained by synthesizing the display control unit 204. Output to. Only the pixels of the foreground image whose count value exceeds a certain value may be adjusted so as to have a density that is visible on the composite image.

図15は、カメラ51により撮影された動画像を構成する1フレームの例を示す図である。   FIG. 15 is a diagram illustrating an example of one frame constituting a moving image captured by the camera 51.

例えば、図15に示されるようなフレームを含む動画像がカメラ51から供給されるとともに、図13に示されるような範囲A1が差分抽出部202により抽出され、範囲A1と同じ範囲内の前景画像の画素の濃度が、合成画像上で視認可能な濃度を有するように調整された場合、図16に示されるような1フレームの合成画像が合成部203により作成される。 For example, a moving image including a frame as shown in FIG. 15 is supplied from the camera 51, and a range A 1 as shown in FIG. 13 is extracted by the difference extraction unit 202 and is within the same range as the range A 1. When the pixel density of the foreground image is adjusted so as to have a density that can be visually recognized on the synthesized image, a synthesized image of one frame as shown in FIG.

図16の例においては、範囲A1と同じ範囲の前景画像(ハート柄)が、図15の画像からクロマキ処理などによって抽出された被写体の領域の前景として合成されている。図16に点線で示す範囲A1は、斜線を付して示す図13の範囲A1と同じ範囲を表す。 In the example of FIG. 16, the foreground image (heart pattern) in the same range as the range A 1 is synthesized as the foreground of the subject region extracted from the image of FIG. A range A 1 indicated by a dotted line in FIG. 16 represents the same range as the range A 1 in FIG. 13 indicated by hatching.

被写体の動きに応じてカウント値が更新され、前景画像の各画素の濃度が調整されるため、合成動画像上では、被写体が動いた範囲と同じ範囲の前景画像が浮かび上がって見え、反対に、被写体が静止していた範囲と同じ範囲の前景画像が徐々に消えていくように見えることになる。   Since the count value is updated according to the movement of the subject and the density of each pixel of the foreground image is adjusted, the foreground image in the same range as the subject moved appears on the synthesized moving image, The foreground image in the same range as the range where the subject was stationary appears to disappear gradually.

これにより、ぞうきんで窓を拭くような真似をすることで柄や文字などを浮かび上がらせることのできる機能が実現される。以下、このように、体を動かしている範囲で画像や文字を浮かび上がらせる機能を「ぞうきん」機能という。   Thereby, the function which can make a pattern, a character, etc. appear by imitating like wiping a window with a elephant is realized. In the following, the function that makes an image or a character appear within the range in which the body is moving is referred to as a “zokin” function.

図10の説明に戻り、表示制御部204は、合成部203から供給された合成動画像を撮影空間32にあるタッチパネルモニタ52の撮影画像表示部132に表示させる。利用者は、ライブビュー表示される合成動画像を見ながら撮影作業を行うことができる。   Returning to the description of FIG. 10, the display control unit 204 displays the synthesized moving image supplied from the synthesizing unit 203 on the captured image display unit 132 of the touch panel monitor 52 in the imaging space 32. The user can perform the shooting operation while watching the synthesized moving image displayed in the live view.

ここで、以上のような構成を有する写真シール作成装置1の処理について説明する。   Here, processing of the photo sticker creating apparatus 1 having the above-described configuration will be described.

はじめに、図17のフローチャートを参照して、写真シール作成ゲームの流れについて説明する。   First, the flow of the photo sticker creation game will be described with reference to the flowchart of FIG.

写真シール作成ゲームを行う利用者は、最初に、事前接客領域31において、事前接客ユニット11の硬貨投入返却口41にコインを投入し、ゲームの代金を支払う。硬貨処理部121は、硬貨投入を受け付け、起動信号を制御装置101に供給する。   A user who performs a photo sticker creation game first inserts a coin into the coin insertion / return port 41 of the pre-service unit 11 in the pre-service area 31 and pays for the game. The coin processing unit 121 accepts coin insertion and supplies an activation signal to the control device 101.

ステップS1において、制御装置101は、その起動信号に基づいて、代金が投入されたか否かを判定し、正当な代金が投入されたと判定した場合、ステップS2に進む。代金を投入した利用者は、事前接客部111のモニタ42に表示される案内デモ画面などに従って撮影空間32に移動し、撮影作業を開始する。   In step S1, the control device 101 determines whether or not a price has been inserted based on the activation signal, and proceeds to step S2 if it is determined that a valid price has been inserted. The user who has entered the price moves to the shooting space 32 according to a guidance demonstration screen displayed on the monitor 42 of the advance customer service section 111 and starts shooting work.

ステップS2において、制御装置101は、撮影部112の各部を制御し、撮影空間32内において行われる、写真シール作成ゲームの撮影作業に関する処理である撮影処理を実行する。撮影処理については図18のフローチャートを参照して説明する。   In step S <b> 2, the control device 101 controls each unit of the photographing unit 112 and executes a photographing process that is a process related to the photographing work of the photo sticker creation game performed in the photographing space 32. The photographing process will be described with reference to the flowchart of FIG.

ステップS3において、制御装置101は、撮影作業を終えた撮影空間32内の利用者に対して、画像や音声によって第1編集空間33Aまたは第2編集空間33Bへの移動を促す移動案内処理を行う。   In step S <b> 3, the control device 101 performs a movement guidance process that prompts the user in the shooting space 32 who has finished the shooting operation to move to the first editing space 33 </ b> A or the second editing space 33 </ b> B by an image or sound. .

ステップS4において、制御装置101は、編集空間33に移動した利用者に対して、写真シール作成ゲームの編集作業に関する処理である編集処理を行う。   In step S <b> 4, the control device 101 performs editing processing, which is processing related to editing work of the photo sticker creation game, on the user who has moved to the editing space 33.

編集処理が終了すると、ステップS5において、制御装置101は、プリンタ114を制御し、編集作業により得られた編集済み画像をシール紙に印刷する印刷処理を行う。   When the editing process is completed, in step S5, the control device 101 controls the printer 114 to perform a printing process for printing the edited image obtained by the editing work on a sticker sheet.

ステップS6において、制御装置101は、印刷終了待機中の利用者に対してミニゲームや画像転送等のサービスを提供する事後接客処理を行う。   In step S <b> 6, the control apparatus 101 performs post-service processing for providing services such as a mini game and image transfer to a user who is waiting for completion of printing.

事後接客処理が終了すると、ステップS7において、制御装置101は、編集空間33の利用者を印刷物受取領域34に移動させる移動案内を行う。   When the subsequent customer service process is completed, in step S7, the control device 101 performs movement guidance for moving the user of the editing space 33 to the printed material receiving area.

印刷処理が終了すると、ステップS8において、制御装置101は、プリンタ114を制御し、印刷済みのシール紙を写真シール排出口71より排出させ、写真シール作成ゲーム処理を終了する。   When the printing process is completed, in step S8, the control device 101 controls the printer 114 to discharge the printed sticker paper from the photo sticker discharge port 71, and the photo sticker creation game process is finished.

次に、図18のフローチャートを参照して、図17のステップS2において行われる撮影処理について説明する。   Next, with reference to the flowchart of FIG. 18, the imaging process performed in step S2 of FIG. 17 will be described.

ステップS11において、制御装置101は、カメラ51により取り込まれた動画像を撮影画像表示部132に表示させ、ライブビューを開始する。   In step S <b> 11, the control device 101 causes the captured image display unit 132 to display the moving image captured by the camera 51 and starts live view.

ステップS12において、制御装置101は、タッチパネルモニタ52に対する利用者の入力に応じて、カメラ51の写り、明るさを調整する。   In step S <b> 12, the control device 101 adjusts the image and brightness of the camera 51 in accordance with a user input to the touch panel monitor 52.

ステップS13において、制御装置101は、ぞうきん機能の開始が利用者により指示されたか否かを判定する。タッチパネルモニタ52には、ぞうきん機能の開始を指示するときに操作されるボタンが表示される。   In step S13, the control apparatus 101 determines whether or not the user has instructed the start of the elephant function. The touch panel monitor 52 displays a button operated when instructing the start of the elephant function.

タッチパネルモニタ52に表示されたボタンが操作されたことから、ぞうきん機能の開始が指示されたとステップS13において判定した場合、ステップS14において、制御装置101の合成部203は、各画素の濃度を調整した前景画像を、カメラ51から供給された動画像に映る被写体の前景として合成し、合成して得られた合成動画像を表示制御部204に出力する。図18の処理と並行して行われる、前景画像の各画素の濃度を調整するぞうきん機能の処理については図19のフローチャートを参照して説明する。   If the button displayed on the touch panel monitor 52 has been operated and it is determined in step S13 that the start of the elephant function has been instructed, in step S14, the combining unit 203 of the control device 101 has adjusted the density of each pixel. The foreground image is combined as the foreground of the subject shown in the moving image supplied from the camera 51, and the combined moving image obtained by combining is output to the display control unit 204. The processing of the elder function for adjusting the density of each pixel of the foreground image, which is performed in parallel with the processing of FIG. 18, will be described with reference to the flowchart of FIG.

ステップS15において、表示制御部204は、合成部203から供給された合成動画像を撮影画像表示部132に表示させる。これにより、撮影画像表示部132には、図16に示されるような画像からなる合成動画像が表示される。   In step S <b> 15, the display control unit 204 causes the captured image display unit 132 to display the combined moving image supplied from the combining unit 203. As a result, a synthesized moving image composed of images as shown in FIG. 16 is displayed on the captured image display unit 132.

撮影を開始することが指示された場合、または、ステップS13においてぞうきん機能の開始が指示されていないと判定した場合、ステップS16において、制御装置101は、タッチパネルモニタ52にカウントダウンインジケータを表示させる。   When it is instructed to start photographing, or when it is determined in step S13 that the start of the elephant function is not instructed, the control device 101 displays a countdown indicator on the touch panel monitor 52 in step S16.

カウントダウンインジケータにより表される撮影までの残り時間が0秒になったとき、ステップS17において、制御装置101は撮影を行い、撮影のタイミングにおける合成動画像の1フレームを撮影画像として保存する。   When the remaining time until shooting represented by the countdown indicator becomes 0 second, in step S17, the control device 101 performs shooting and stores one frame of the synthesized moving image at the shooting timing as a shot image.

ステップS18において、制御装置101は、あらかじめ定められた回数だけ撮影を行ったか否かを判定し、撮影を行っていない、すなわち、撮影可能回数が残っていると判定した場合、ステップS13に戻り、それ以降の処理を繰り返す。   In step S18, the control device 101 determines whether or not shooting has been performed a predetermined number of times, and if it is determined that shooting has not been performed, that is, that the number of possible shots remains, the process returns to step S13. The subsequent processing is repeated.

一方、ステップS18において、あらかじめ定められた回数だけ撮影を行ったと判定した場合、ステップS19において、制御装置101は、複数の撮影画像の中から編集対象画像(キープ画像)とする画像を利用者に選択させ、選択された撮影画像を保存する。その後、図17のステップS2に戻り、それ以降の処理が行われる。   On the other hand, if it is determined in step S18 that shooting has been performed a predetermined number of times, in step S19, the control device 101 gives the user an image to be edited (keep image) from among a plurality of shot images. Select and save the selected captured image. Thereafter, the process returns to step S2 in FIG. 17, and the subsequent processing is performed.

次に、図19のフローチャートを参照して、ぞうきん機能の処理について説明する。   Next, processing of the elephant function will be described with reference to the flowchart of FIG.

ステップS31において、制御装置101の合成部203は、前景画像の各画素に対応する作業領域のカウント値を全て0として設定する。   In step S31, the composition unit 203 of the control apparatus 101 sets all the count values of the work areas corresponding to the pixels of the foreground image as 0.

ステップS32において、マスク画像作成部201は、カメラ51から供給された動画像を構成するそれぞれのフレームを対象としてクロマキなど処理を行い、マスク画像を作成する。マスク画像作成部201は、作成したマスク画像を差分抽出部202に出力する。   In step S <b> 32, the mask image creation unit 201 creates a mask image by performing a process such as chroma for each frame constituting the moving image supplied from the camera 51. The mask image creation unit 201 outputs the created mask image to the difference extraction unit 202.

ステップS33において、差分抽出部202は、マスク画像間の差分を求め、被写体が動いた範囲を抽出する。差分抽出部202は、被写体が動いた範囲を表す情報を合成部203に出力する。   In step S33, the difference extraction unit 202 obtains a difference between the mask images and extracts a range in which the subject has moved. The difference extraction unit 202 outputs information representing the range in which the subject has moved to the synthesis unit 203.

ステップS34において、合成部203は、差分抽出部202から供給された情報に基づいて、被写体が動いた範囲と同じ範囲内の前景画像の画素に対応するカウント値を増加させ、それ以外の前景画像の画素に対応するカウント値を減少させることによって、カウント値を更新させる。   In step S <b> 34, based on the information supplied from the difference extraction unit 202, the synthesis unit 203 increases the count value corresponding to the foreground image pixels in the same range as the range in which the subject has moved, and other foreground images. The count value is updated by decreasing the count value corresponding to the pixel.

ステップS35において、合成部203は、更新したカウント値に応じて、前景画像の各画素の濃度を調整し、ステップS32以降の処理を繰り返す。ステップS32以降の処理は、ぞうきん機能によるライブビュー表示を行っている間、繰り返される。   In step S35, the composition unit 203 adjusts the density of each pixel of the foreground image according to the updated count value, and repeats the processing from step S32 onward. The processing after step S32 is repeated while the live view display by the elephant function is being performed.

以上の処理により、利用者は、自分が体を動かしたり止めたりすることに応じて浮かび上がったり消えたりする前景画像を見ながら、より楽しんで撮影を行うことができる。   Through the above processing, the user can enjoy shooting while looking at the foreground image that rises and disappears according to his / her own movement and stoppage.

以上においては、初期状態の前景画像が透明であり、ライブビュー表示される合成動画像上では前景画像は見えないものとしたが、半透明の部分を少なくとも一部に含む画像が前景画像として用いられるようにしてもよい。半透明の部分に重なる利用者の体の部分は、合成動画像上では、いわば磨りガラス越しに見たようなものになる。   In the above, the foreground image in the initial state is transparent, and the foreground image is not visible on the synthesized moving image displayed in the live view. However, an image including at least a part of the translucent portion is used as the foreground image. You may be made to do. The part of the user's body that overlaps the translucent part looks like it was seen through the polished glass on the composite video.

図20は、撮影作業中にライブビュー表示される合成動画像を構成する1フレームの例を示す図である。   FIG. 20 is a diagram illustrating an example of one frame constituting a synthesized moving image displayed in live view during a shooting operation.

図20に示されるフレーム全体のうち、斜線を付して示す範囲A11は半透明の領域である。範囲A11以外の前景画像の領域は透明の領域であり、この領域と重なる被写体の頭付近ははっきりと合成動画像上で見えることになる。図20に示されるフレームも、合成部203により作成されたものである。 In the entire frame shown in FIG. 20, a range A 11 indicated by hatching is a semi-transparent region. The area of the foreground image other than the range A 11 is a transparent area, and the vicinity of the head of the subject overlapping this area can be clearly seen on the synthesized moving image. The frame shown in FIG. 20 is also created by the synthesis unit 203.

図20の例においては、範囲A11内に円R1が表示されている。撮影作業中、例えば、「円の範囲で手を動かしてね」などの案内が音声や画面表示によって利用者に対して提示される。 In the example of FIG. 20, a circle R 1 is displayed in the range A 11 . During the photographing operation, for example, guidance such as “Move your hand within a circle” is presented to the user by voice or screen display.

この案内を確認した利用者が左手などを動かすことにより、円R1に対応する範囲内で被写体が動いたことがカメラ51により撮影された動画像に基づいて上述したようにして抽出された場合、動きの抽出された部分からキャラクタなどの所定の画像が徐々に表示される(隠れていた画像が徐々に現れる)。最終的に、円R1に対応する範囲内全体に渡って動きが抽出された場合、図21に示されるように、半透明であった領域A11は透明の領域として表示が切り替えられるとともに、円R1が表示されていた位置にはキャラクタの画像である画像P1全体が表示される。すなわち、円R1は、その部分に何かしらの画像が隠れていることを表している。 When the user who has confirmed this guidance moves the left hand or the like, the fact that the subject has moved within the range corresponding to the circle R 1 is extracted as described above based on the moving image taken by the camera 51. A predetermined image such as a character is gradually displayed from the extracted part of the motion (the hidden image gradually appears). Finally, when movement is extracted over the entire range corresponding to the circle R 1 , as shown in FIG. 21, the display of the translucent area A 11 is switched as a transparent area, The entire image P 1 that is the character image is displayed at the position where the circle R 1 was displayed. That is, the circle R 1 represents that some image is hidden in the portion.

なお、円R1に対応する範囲内全体に渡って動きが抽出された場合に画像P1の全体が表示されるのではなく、図22に斜線を付して示すような、隠れている画像P1の所定の範囲に対応する部分で動きが抽出された場合に画像P1の全体が表示されるようにしてもよい。画像P1として図22に示されるような豚の顔の画像が用意されている場合、これにより、利用者は、例えば豚の顔の片耳以外の部分に対応する範囲で手を動かすだけで豚の顔の全体を表示させることができる。 Note that when the motion is extracted over the entire range corresponding to the circle R 1 , the entire image P 1 is not displayed, but a hidden image as shown by hatching in FIG. entire image P 1 may also be displayed when the motion is extracted at the portion corresponding to the predetermined range of P 1. When the image of the pig's face as shown in FIG. 22 is prepared as the image P 1 , this allows the user to move the hand within a range corresponding to a portion other than one ear of the pig's face, for example. The entire face can be displayed.

また、カメラ51により撮影された動画像を構成する各フレームを対象として被写体の顔の検出が行われ、その顔の範囲上で被写体の動きが抽出された場合であっても、顔の範囲には前景画像が表示されないようにしてもよい。   Even when the face of the subject is detected for each frame constituting the moving image taken by the camera 51 and the movement of the subject is extracted on the face range, May not display the foreground image.

図20の例においては、前景画像が半透明の領域を一部に含むものとしたが、全体が透明になっているようにしてもよい。全体が透明になっている場合、ライブビュー表示される合成動画像上では、キャラクタなどの画像がどこに隠れているのかが分からないため、図23に示されるように、白抜き矢印などでその部分が指定されるようにしてもよい。図23において、点線で示す範囲A11は透明の領域である。また、点線で示す円R1も実際に表示されるものではない。 In the example of FIG. 20, the foreground image includes a semi-transparent region in part, but the whole may be transparent. When the whole is transparent, it is not known where the image of the character or the like is hidden on the synthesized moving image displayed in the live view. Therefore, as shown in FIG. May be specified. In FIG. 23, a range A 11 indicated by a dotted line is a transparent region. Also, the circle R 1 indicated by the dotted line is not actually displayed.

また、被写体が体を動かした範囲と同じ範囲内の前景画像の画素の濃度が上がるのではなく、異なる範囲内の前景画像の画素の濃度が上がるようにしてもよい。   Further, the density of the pixels of the foreground image within a different range may be increased instead of increasing the density of the pixels of the foreground image within the same range as the range in which the subject moves the body.

図24は合成動画像を構成する1フレームの例を示す図である。   FIG. 24 is a diagram showing an example of one frame constituting the synthesized moving image.

図24は、合成動画像上では見えないほど、前景画像の各画素の濃度が低い状態を示している。このような状態において、図24の白抜き矢印で示す範囲で利用者が手を動かし、そのことが抽出された場合、上述した方法によればこの白抜き矢印で示す範囲と同じ範囲に前景画像の柄などが見えるようになるが、この例においては、図25に示されるように、手を動かした範囲とは異なる、被写体の外側の範囲A21に前景画像の柄が見えるように表示される。動きが抽出された位置とマスク画像(顔マスク)から検出された顔の位置を結ぶ線の延長線上の位置に前景画像の柄が表示されるようにすることにより、被写体が前景画像によって隠れてしまうのを防ぐことができる。 FIG. 24 shows a state where the density of each pixel of the foreground image is so low that it cannot be seen on the synthesized moving image. In such a state, when the user moves his hand in the range indicated by the white arrow in FIG. 24 and this is extracted, the foreground image is displayed in the same range as the white arrow according to the method described above. In this example, as shown in FIG. 25, the pattern of the foreground image is displayed in a range A 21 outside the subject, which is different from the range where the hand is moved. The The foreground image is hidden by the foreground image by displaying the pattern of the foreground image at a position on the extended line of the line connecting the position where the motion is extracted and the position of the face detected from the mask image (face mask). Can be prevented.

被写体が動いた範囲を抽出する方法として、カメラ51により撮影された動画像から複数のマスク画像が作成され、マスク画像における被写体の領域内の画素の色差分がそれぞれのマスク画像間で求められ、色差分のある範囲が、被写体が動いた範囲として抽出されるようにしてもよい。時間軸上にそれぞれのマスク画像を並べた場合、n−1番目のマスク画像における被写体の領域内の色と、n番目のマスク画像における被写体の領域内の色の差分が求められ、色差分のある範囲が、被写体が動いた範囲として抽出されることになる。   As a method of extracting the range in which the subject has moved, a plurality of mask images are created from the moving image captured by the camera 51, and the color difference of the pixels in the region of the subject in the mask image is obtained between the respective mask images. A range having a color difference may be extracted as a range in which the subject has moved. When the mask images are arranged on the time axis, the difference between the color in the subject area in the (n−1) th mask image and the color in the subject area in the nth mask image is obtained, and the color difference A certain range is extracted as a range in which the subject has moved.

次に、被写体の動いた範囲を抽出し、抽出した範囲に応じて異なる動画像を撮影作業中にライブビュー表示させる他の機能について説明する。   Next, another function for extracting a moving range of a subject and displaying a live image different in accordance with the extracted range during a shooting operation will be described.

この機能の開始時、カメラ51により撮影された動画像を構成するフレームから抽出された被写体の領域の画素の濃度は、ライブビュー表示される合成動画像上から見えないような濃度(透明)に調整される。   At the start of this function, the density of the pixels in the subject area extracted from the frame constituting the moving picture taken by the camera 51 is set to a density (transparent) that cannot be seen from the synthesized moving picture displayed in the live view. Adjusted.

この状態で、被写体が動いた範囲が上述したようにして抽出された場合、被写体が動いた範囲と同じ範囲内の画素の濃度を上げ、それ以外の画素の濃度を下げるように、カメラ51により撮影された動画像の各フレームから抽出された被写体の領域の各画素の濃度が合成部203により調整される。これにより、動きに応じて被写体の姿が現れたり消えたりするような動画像が作成され、ライブビュー表示されることになる。   In this state, when the range in which the subject has moved is extracted as described above, the camera 51 increases the density of pixels within the same range as the range in which the subject has moved, and decreases the density of other pixels. The density of each pixel in the subject area extracted from each frame of the captured moving image is adjusted by the synthesis unit 203. As a result, a moving image in which the appearance of the subject appears or disappears according to the motion is created and displayed in live view.

すなわち、この機能は、前景画像の各画素の濃度を調整することによってある画像が表示されたり消えたりするようにするものではなく、カメラ51により撮影された動画像の各フレームから抽出された被写体の領域の各画素の濃度を調整することによって、被写体の姿が表示されたり消えたりするようにするものである。   That is, this function does not cause an image to be displayed or disappeared by adjusting the density of each pixel of the foreground image, but the subject extracted from each frame of the moving image captured by the camera 51. By adjusting the density of each pixel in this area, the appearance of the subject is displayed or disappears.

以下、このようにして被写体の姿を合成動画像上で表示させたり消したりする機能を「透明人間」機能という。   Hereinafter, the function of displaying or erasing the subject on the synthesized moving image in this way is referred to as a “transparent human” function.

図26は、カメラ51により撮影された動画像の他の例を示す図である。   FIG. 26 is a diagram illustrating another example of a moving image captured by the camera 51.

図26の例においては、カメラ51により撮影された動画像を構成するフレームとしてフレームf11乃至f13が示されている。横方向は時間方向を表す。 In the example of FIG. 26, frames f 11 to f 13 are shown as frames constituting a moving image photographed by the camera 51. The horizontal direction represents the time direction.

フレームf11において、被写体の体はフレームの中心を基準とすると左側にあり、フレームf12において、被写体の体はフレームのほぼ中心にある。フレームf13において、被写体の体はフレームの中心を基準とすると右側にある。 In the frame f 11, the body of the subject is on the left when on the basis of the center of the frame, the frame f 12, the body of the subject is approximately in the center of the frame. In the frame f 13, the body of the subject is on the right when on the basis of the center of the frame.

図27は、図26の動画像に基づいてマスク画像作成部201により作成されるマスク画像の例を示す図である。   FIG. 27 is a diagram illustrating an example of a mask image created by the mask image creation unit 201 based on the moving image of FIG.

図27のマスク画像m11乃至m13は、それぞれ、図26のフレームf11乃至f13から作成されたマスク画像である。差分抽出部202においては、図27に示されるようなマスク画像間の差分が求められ、所定の期間内に被写体が動いた範囲が抽出される。 Mask images m 11 to m 13 in FIG. 27 are mask images created from the frames f 11 to f 13 in FIG. 26, respectively. The difference extraction unit 202 obtains a difference between mask images as shown in FIG. 27, and extracts a range in which the subject has moved within a predetermined period.

図28は、差分抽出部202により抽出される範囲の例を示す図である。   FIG. 28 is a diagram illustrating an example of a range extracted by the difference extraction unit 202.

例えば、図27のマスク画像m11乃至m13などに基づいて、マスク画像間で差分のある、図28に斜線を付して示す範囲A21が、被写体が動いた範囲として抽出される。図28に示されるような範囲A21が差分抽出部202により抽出された場合、合成部203においては、カウント値が更新されることによって、カメラ51により撮影された動画像を構成するフレームから抽出された被写体の領域の画素のうち、範囲A21と同じ範囲内の画素の濃度を上げ、それ以外の画素の濃度を下げるようにして動画像が作成される。ここでは、カウント値は、カメラ51により撮影された動画像を構成するフレームから抽出された被写体の領域の画素の濃度を表す。 For example, based on the mask images m 11 to m 13 in FIG. 27, a range A 21 indicated by hatching in FIG. 28 that is different between the mask images is extracted as a range in which the subject has moved. When the range A 21 as shown in FIG. 28 is extracted by the difference extraction unit 202, the synthesis unit 203 extracts the frame A constituting the moving image photographed by the camera 51 by updating the count value. A moving image is created by increasing the density of the pixels within the same range as the range A 21 among the pixels in the subject area and decreasing the density of the other pixels. Here, the count value represents the density of the pixels in the subject area extracted from the frame constituting the moving image photographed by the camera 51.

図29は、透明人間機能によってライブビュー表示される動画像を構成する1フレームの例を示す図である。   FIG. 29 is a diagram illustrating an example of one frame constituting a moving image displayed in live view by the transparent human function.

図29に示されるように、カメラ51により撮影された動画像を構成するフレームの中央に被写体が映っている場合、この被写体は点線で示す範囲A21の内側にいるから、被写体の領域の画素のうち、範囲A21と同じ範囲内の画素の濃度が上がることにより、被写体の全身が動画像上に表示されることになる。なお、図29に点線で示す範囲A21は動画像上に表示されるものではない。動画像上に表示されている被写体の姿は、所定の時間だけ被写体が静止していることが抽出された場合、カウント値が減算していくことに応じて徐々に消えていくことになる。 As shown in FIG. 29, when a subject is shown in the center of a frame constituting a moving image photographed by the camera 51, the subject is inside a range A 21 indicated by a dotted line. Among them, when the density of the pixels within the same range as the range A 21 increases, the whole body of the subject is displayed on the moving image. Note that a range A 21 indicated by a dotted line in FIG. 29 is not displayed on the moving image. When it is extracted that the subject is stationary for a predetermined time, the appearance of the subject displayed on the moving image gradually disappears as the count value is subtracted.

このように、動きに応じて姿が表示されたり消えたりするようにすることによっても、利用者は、より楽しみながら撮影作業を行うことができる。撮影のタイミングによっては、利用者は、自分の体の一部が消えているような画像を撮影し、編集対象の画像として選択することが可能になる。   In this way, the user can perform shooting work while having more enjoyment by making the appearance appear or disappear according to the movement. Depending on the timing of shooting, the user can take an image in which a part of his / her body has disappeared and select it as an image to be edited.

なお、ここでは、被写体の動いた範囲を抽出し、カメラ51により撮影された動画像を構成するフレームに映る被写体の領域の画素の濃度を調整することによって被写体の姿を動画像上で表示したり消したりするものとしたが、半透明の前景画像の濃度を被写体の動いた範囲に応じて調整することによって、被写体の姿を合成動画像上で表示したり消したりするようにしてもよい。この場合、半透明の前景画像の画素のうち、被写体の動いた範囲と同じ範囲内の画素は透明になり、被写体の姿が合成動画像上に表示されることになる。   It should be noted that here, the moving range of the subject is extracted, and the appearance of the subject is displayed on the moving image by adjusting the pixel density of the region of the subject appearing in the frame constituting the moving image captured by the camera 51. Although the density of the translucent foreground image is adjusted according to the range of movement of the subject, the appearance of the subject may be displayed or erased on the synthesized moving image. . In this case, among the pixels of the translucent foreground image, pixels within the same range as the range of movement of the subject are transparent, and the shape of the subject is displayed on the synthesized moving image.

以上においては、被写体が動いた範囲と同じ範囲内において前景画像が表示されたり、被写体の姿が表示されたりするものとしたが、反対に、動きのない範囲、すなわち被写体が静止している範囲と同じ範囲内において前景画像が表示されたり、被写体の姿が表示されたりするようにしてもよい。   In the above, it is assumed that the foreground image is displayed within the same range as the subject moved, or the subject is displayed, but on the contrary, the range where there is no movement, that is, the range where the subject is stationary. The foreground image may be displayed within the same range, or the appearance of the subject may be displayed.

図30は、カメラ51により撮影された動画像のさらに他の例を示す図である。   FIG. 30 is a diagram illustrating still another example of a moving image captured by the camera 51.

図30の例においては、カメラ51により撮影された動画像を構成するフレームとしてフレームf21乃至f23が示されている。横方向は時間方向を表す。 In the example of FIG. 30, frames f 21 to f 23 are shown as frames constituting a moving image taken by the camera 51. The horizontal direction represents the time direction.

フレームf21において、被写体の体はフレームの中心を基準とすると左側にあり、頭だけがフレームの中心にくるように体が傾けられている。フレームf22において、被写体の体はフレームのほぼ中心にある。フレームf23において、被写体の体はフレームの中心を基準とすると右側にあり、頭だけがフレームの中心にくるように体が傾けられている。頭の位置は、フレームf21乃至f23のいずれのフレームにおいてもほぼ同じ位置にある。 In the frame f 21 , the body of the subject is on the left side with respect to the center of the frame, and the body is tilted so that only the head is at the center of the frame. In the frame f 22, the body of the subject is approximately in the center of the frame. In the frame f 23, the body of the subject is on the right when on the basis of the center of the frame, the head only is the body is inclined such that the center of the frame. The position of the head is substantially the same in any of the frames f 21 to f 23 .

図31は、図30の動画像に基づいてマスク画像作成部201により作成されるマスク画像の例を示す図である。   FIG. 31 is a diagram illustrating an example of a mask image created by the mask image creation unit 201 based on the moving image of FIG.

図31のマスク画像m21乃至m23は、それぞれ、図30のフレームf21乃至f23から作成されたマスク画像である。差分抽出部202においては、図31に示されるようなマスク画像間の差分が求められ、所定の期間内に被写体が静止している範囲が抽出される。 The mask image m 21 to m 23 in FIG. 31, respectively, is a mask image created from the frame f 21 to f 23 of Figure 30. In the difference extraction unit 202, a difference between mask images as shown in FIG. 31 is obtained, and a range where the subject is stationary within a predetermined period is extracted.

図32は、差分抽出部202により抽出される範囲の例を示す図である。   FIG. 32 is a diagram illustrating an example of a range extracted by the difference extraction unit 202.

例えば、図31のマスク画像m21乃至m23に基づいて、マスク画像間で差分のない、図32に斜線を付して示す範囲A31が、被写体が静止していた範囲として抽出される。図32に示されるような範囲A31が差分抽出部202により抽出された場合、合成部203においては、カウント値が更新されることによって、カメラ51により撮影された動画像を構成するフレームから抽出された被写体の領域の画素のうち、範囲A31と同じ範囲内の画素の濃度を上げ、それ以外の画素の濃度を下げるようにして動画像が作成される。ここでも、カウント値は、カメラ51により撮影された動画像を構成するフレームから抽出された被写体の領域の画素の濃度を表す。 For example, based on the mask images m 21 to m 23 in FIG. 31, a range A 31 indicated by hatching in FIG. 32 that has no difference between the mask images is extracted as a range in which the subject is stationary. When the range A 31 as shown in FIG. 32 is extracted by the difference extraction unit 202, the synthesis unit 203 extracts the frame A constituting the moving image captured by the camera 51 by updating the count value. A moving image is created by increasing the density of the pixels within the same range as the range A 31 among the pixels of the subject area thus set and decreasing the density of the other pixels. Again, the count value represents the pixel density of the subject area extracted from the frame constituting the moving image taken by the camera 51.

図33は、カメラ51により撮影された動画像を構成する1フレームの例を示す図であり、図34は、透明人間機能によってライブビュー表示される動画像を構成する1フレームの例を示す図である。   FIG. 33 is a diagram showing an example of one frame constituting a moving image photographed by the camera 51, and FIG. 34 is a diagram showing an example of one frame constituting a moving image displayed in live view by the transparent human function. It is.

カメラ51により撮影された動画像を構成する図33のフレームに映る被写体の領域の画素のうち、範囲A31と同じ範囲内の画素の濃度が上がることにより、図34に示されるように被写体の頭だけが動画像上に表示されることになる。 34. As shown in FIG. 34, the density of the pixels in the same range as the range A 31 among the pixels in the subject area shown in the frame of FIG. 33 constituting the moving image taken by the camera 51 increases. Only the head is displayed on the moving image.

このように、静止している範囲に画像が表示されるようにすることによっても、利用者は、より楽しみながら撮影作業を行うことができる。   In this way, the user can also perform shooting work while having more enjoyment by displaying an image in a stationary range.

なお、ここでは、被写体の静止している範囲を抽出し、カメラ51により撮影された動画像を構成するフレームに映る被写体の領域内の画素の濃度を調整することによって被写体の姿を動画像上で表示したり消したりするものとしたが、半透明の前景画像の濃度を被写体の静止している範囲に応じて調整することによって、被写体の姿を合成動画像上で表示したり消したりするようにしてもよい。この場合、半透明の前景画像の画素のうち、被写体の静止している範囲と同じ範囲内の画素は透明になり、被写体の姿が合成動画像上に表示されることになる。   It should be noted that here, a stationary range of the subject is extracted, and the shape of the subject is displayed on the moving image by adjusting the density of pixels in the region of the subject appearing in the frame constituting the moving image captured by the camera 51. In this case, the density of the semi-transparent foreground image is adjusted according to the range where the subject is stationary, so that the subject's appearance is displayed or erased on the composite moving image. You may do it. In this case, among the pixels of the translucent foreground image, pixels within the same range as the range where the subject is stationary are transparent, and the appearance of the subject is displayed on the synthesized moving image.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどにインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. It can be installed on a general-purpose personal computer or the like.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図9に示されるリムーバブルメディア105に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供される。プログラムは、記憶部102やROM106に、あらかじめインストールしておくことができる。   The program to be installed is recorded on the removable medium 105 shown in FIG. 9 formed of an optical disc (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), semiconductor memory, or the like, or locally. It is provided via a wired or wireless transmission medium such as an area network, the Internet, or digital broadcasting. The program can be installed in advance in the storage unit 102 or the ROM 106.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

本発明を適用した写真シール作成装置の一実施の形態を示す斜視図である。It is a perspective view which shows one Embodiment of the photographic sticker production apparatus to which this invention is applied. 図1の写真シール作成装置の他の角度からの斜視図である。It is a perspective view from the other angle of the photograph sticker production apparatus of FIG. 図1の写真シール作成装置の設置例を示す斜視図である。It is a perspective view which shows the example of installation of the photograph sticker production apparatus of FIG. 利用者の空間移動を説明する図である。It is a figure explaining a user's space movement. 事前接客ユニットの構成例を示す図である。It is a figure which shows the structural example of a prior customer service unit. 前方ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of a front unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. 編集ユニットの他の側面の構成例を示す図である。It is a figure which shows the structural example of the other side of an edit unit. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of a control apparatus. カメラにより撮影された動画像の例を示す図である。It is a figure which shows the example of the moving image image | photographed with the camera. マスク画像の例を示す図である。It is a figure which shows the example of a mask image. 被写体の動きの範囲の例を示す図である。It is a figure which shows the example of the range of a to-be-photographed object's movement. 前景画像の例を示す図である。It is a figure which shows the example of a foreground image. カメラにより撮影された動画像を構成する1フレームの例を示す図である。It is a figure which shows the example of 1 frame which comprises the moving image image | photographed with the camera. 合成動画像を構成する1フレームの例を示す図である。It is a figure which shows the example of 1 frame which comprises a synthesized moving image. 写真シール作成ゲームの流れについて説明するフローチャートである。It is a flowchart explaining the flow of a photo sticker creation game. 図16のステップS2において行われる撮影処理について説明するフローチャートである。It is a flowchart explaining the imaging | photography process performed in step S2 of FIG. ぞうきん機能の処理について説明するフローチャートである。It is a flowchart explaining the process of an elephant function. 合成動画像を構成する1フレームの他の例を示す図である。It is a figure which shows the other example of 1 frame which comprises a synthetic | combination moving image. 合成動画像を構成する1フレームのさらに他の例を示す図である。It is a figure which shows the further another example of 1 frame which comprises a synthetic | combination moving image. 前景画像の他の例を示す図である。It is a figure which shows the other example of a foreground image. 合成動画像を構成する1フレームの例を示す図である。It is a figure which shows the example of 1 frame which comprises a synthesized moving image. 合成動画像を構成する1フレームの他の例を示す図である。It is a figure which shows the other example of 1 frame which comprises a synthetic | combination moving image. 合成動画像を構成する1フレームのさらに他の例を示す図である。It is a figure which shows the further another example of 1 frame which comprises a synthetic | combination moving image. カメラにより撮影された動画像の他の例を示す図である。It is a figure which shows the other example of the moving image image | photographed with the camera. マスク画像の他の例を示す図である。It is a figure which shows the other example of a mask image. 被写体の動きの範囲の例を示す図である。It is a figure which shows the example of the range of a to-be-photographed object's movement. 動画像を構成する1フレームの例を示す図である。It is a figure which shows the example of 1 frame which comprises a moving image. カメラにより撮影された動画像のさらに他の例を示す図である。It is a figure which shows the further another example of the moving image image | photographed with the camera. マスク画像のさらに他の例を示す図である。It is a figure which shows the further another example of a mask image. 被写体の動きの範囲の例を示す図である。It is a figure which shows the example of the range of a to-be-photographed object's movement. カメラにより撮影された動画像を構成する1フレームの例を示す図である。It is a figure which shows the example of 1 frame which comprises the moving image image | photographed with the camera. 動画像を構成する1フレームの例を示す図である。It is a figure which shows the example of 1 frame which comprises a moving image.

符号の説明Explanation of symbols

1 写真シール作成装置
12 撮影ユニット
13 編集ユニット
101 制御装置
201 マスク画像作成部
202 差分抽出部
203 合成部
204 表示制御部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 12 Imaging unit 13 Editing unit 101 Control apparatus 201 Mask image creation part 202 Difference extraction part 203 Composition part 204 Display control part

Claims (5)

利用者を被写体として撮影し、撮影して得られた画像に対して利用者に編集を行わせ、撮影して得られた前記画像または編集済みの画像をシールシートに印刷して写真シールを作成し、作成した写真シールを利用者に提供する写真シール作成装置において、
利用者が被写体として映る動画像を取り込む撮影手段と、
前記撮影手段により取り込まれた動画像を構成する時系列順に並ぶ静止画像であるそれぞれのフレームに基づいて被写体の領域と背景とを分けるマスク画像を作成する作成手段と、
前記作成手段により作成されたマスク画像の差分に基づいて、所定の期間毎に被写体が動いた範囲を検出する動き検出手段と、
前記動き検出手段により検出された範囲に応じて、撮影画像の前景となる前景画像の画素の濃度を調整し、各画素の濃度を調整した前記前景画像を前記撮影手段により取り込まれた動画像を構成するそれぞれのフレームに映る被写体の前景として合成する合成手段と、
前記合成手段により合成されることによって得られた合成動画像を、編集の対象とする画像の撮影中に表示させる表示制御手段と
を備える写真シール作成装置。
Take a picture of the user as a subject, let the user edit the image obtained by shooting, and create a photo sticker by printing the image obtained by shooting or the edited image on a sticker sheet In the photo sticker creation device that provides the user with the photo sticker created,
Photographing means for capturing a moving image reflected by the user as a subject;
Creating means for creating a mask image that separates the area of the subject from the background based on the respective frames that are still images arranged in chronological order constituting the moving image captured by the photographing means;
A motion detecting means for detecting a range in which the subject has moved every predetermined period based on the difference between the mask images created by the creating means;
According to the range detected by the motion detection means, the density of the pixels of the foreground image, which is the foreground of the photographed image, is adjusted, and the foreground image in which the density of each pixel is adjusted is taken as the moving image captured by the photography means. Compositing means for compositing as a foreground of a subject reflected in each frame constituting the;
A photo sticker creating apparatus comprising: display control means for displaying a synthesized moving image obtained by being synthesized by the synthesizing means during photographing of an image to be edited.
前記合成手段は、前記前景画像の画素のうち、前記動き検出手段により検出された範囲と同じ範囲内の画素の濃度を上げるように調整する
請求項1に記載の写真シール作成装置。
The photo sticker creating apparatus according to claim 1, wherein the synthesizing unit adjusts the density of pixels in the same range as the range detected by the motion detecting unit among the pixels of the foreground image.
前記合成手段は、さらに、前記前景画像の画素のうち、前記動き検出手段により検出された範囲と同じ範囲内の画素以外の画素の濃度を下げるように調整する
請求項2に記載の写真シール作成装置。
The photo sticker creation according to claim 2, wherein the synthesizing unit further adjusts the density of pixels in the foreground image other than the pixels within the same range as the range detected by the motion detecting unit. apparatus.
利用者を被写体として撮影し、撮影して得られた画像に対して利用者に編集を行わせ、撮影して得られた前記画像または編集済みの画像をシールシートに印刷して写真シールを作成し、作成した写真シールを利用者に提供する写真シール作成装置の写真シール作成方法において、
利用者が被写体として映る動画像を取り込み、
取り込んだ動画像を構成する時系列順に並ぶ静止画像であるそれぞれのフレームに基づいて被写体の領域と背景とを分けるマスク画像を作成し、
作成したマスク画像の差分に基づいて、所定の期間毎に被写体が動いた範囲を検出し、
検出した範囲に応じて、撮影画像の前景となる前景画像の画素の濃度を調整し、各画素の濃度を調整した前記前景画像を、取り込んだ動画像を構成するそれぞれのフレームに映る被写体の前景として合成し、
合成することによって得られた合成動画像を、編集の対象とする画像の撮影中に表示させる
ステップを含む写真シール作成方法。
Take a picture of the user as a subject, let the user edit the image obtained by shooting, and create a photo sticker by printing the image obtained by shooting or the edited image on a sticker sheet In the photo sticker creation method of the photo sticker creation device that provides the created photo sticker to the user,
A user captures a moving image that appears as a subject,
Create a mask image that separates the subject area and the background based on each frame that is a still image arranged in chronological order that constitutes the captured moving image,
Based on the difference between the created mask images, detect the range in which the subject moved every predetermined period,
According to the detected range, the density of the pixels of the foreground image that is the foreground of the captured image is adjusted, and the foreground of the subject that appears in each frame constituting the captured moving image is obtained by adjusting the density of each pixel. Synthesized as
A method for creating a photo sticker, comprising: displaying a synthesized moving image obtained by synthesizing during shooting of an image to be edited.
利用者を被写体として撮影し、撮影して得られた画像に対して利用者に編集を行わせ、撮影して得られた前記画像または編集済みの画像をシールシートに印刷して写真シールを作成し、作成した写真シールを利用者に提供する写真シール作成装置の処理をコンピュータに実行させるプログラムにおいて、
利用者が被写体として映る動画像を取り込み、
取り込んだ動画像を構成する時系列順に並ぶ静止画像であるそれぞれのフレームに基づいて被写体の領域と背景とを分けるマスク画像を作成し、
作成したマスク画像の差分に基づいて、所定の期間毎に被写体が動いた範囲を検出し、
検出した範囲に応じて、撮影画像の前景となる前景画像の画素の濃度を調整し、各画素の濃度を調整した前記前景画像を、取り込んだ動画像を構成するそれぞれのフレームに映る被写体の前景として合成し、
合成することによって得られた合成動画像を、編集の対象とする画像の撮影中に表示させる
ステップを含むプログラム。
Take a picture of the user as a subject, let the user edit the image obtained by shooting, and create a photo sticker by printing the image obtained by shooting or the edited image on a sticker sheet In a program for causing a computer to execute the processing of the photo sticker creating apparatus that provides the user with the photo sticker created,
A user captures a moving image that appears as a subject,
Create a mask image that separates the subject area and the background based on each frame that is a still image arranged in chronological order that constitutes the captured moving image,
Based on the difference between the created mask images, detect the range in which the subject moved every predetermined period,
According to the detected range, the density of the pixels of the foreground image that is the foreground of the captured image is adjusted, and the foreground of the subject that appears in each frame constituting the captured moving image is obtained by adjusting the density of each pixel. Synthesized as
A program including a step of displaying a synthesized moving image obtained by synthesizing during shooting of an image to be edited.
JP2008000682A 2008-01-07 2008-01-07 Photo sticker creation apparatus and method, and program Expired - Fee Related JP5013203B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008000682A JP5013203B2 (en) 2008-01-07 2008-01-07 Photo sticker creation apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008000682A JP5013203B2 (en) 2008-01-07 2008-01-07 Photo sticker creation apparatus and method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012064796A Division JP5338935B2 (en) 2012-03-22 2012-03-22 Image photographing and editing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2009164904A JP2009164904A (en) 2009-07-23
JP5013203B2 true JP5013203B2 (en) 2012-08-29

Family

ID=40966985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008000682A Expired - Fee Related JP5013203B2 (en) 2008-01-07 2008-01-07 Photo sticker creation apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5013203B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5618531B2 (en) * 2009-12-17 2014-11-05 キヤノン株式会社 Imaging apparatus, image processing apparatus, and image processing method
JP6801246B2 (en) * 2016-06-14 2020-12-16 大日本印刷株式会社 Printing equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2985879B1 (en) * 1998-06-30 1999-12-06 オムロン株式会社 People image processing device
JP4214010B2 (en) * 2003-02-03 2009-01-28 辰巳電子工業株式会社 Automatic photo creation device
JP5076911B2 (en) * 2008-01-07 2012-11-21 フリュー株式会社 Image photographing and editing apparatus and method, and program

Also Published As

Publication number Publication date
JP2009164904A (en) 2009-07-23

Similar Documents

Publication Publication Date Title
JP4919031B2 (en) Photo sticker creation apparatus and method, and program
JP5304233B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP4715964B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
US20150206310A1 (en) Image generating apparatus and image generating method
JP5456984B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5540417B2 (en) Photo sticker creation apparatus, control method therefor, and program
JP5447183B2 (en) Photo sticker creation apparatus and method, and program
JP5488526B2 (en) Image processing apparatus and image processing method
JP5309979B2 (en) Photo sticker creating apparatus and method, and program
JP5304751B2 (en) Image creating apparatus and method, and program
JP5152587B2 (en) Photo sticker creation apparatus and method, and program
JP5115528B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5076911B2 (en) Image photographing and editing apparatus and method, and program
JP5041246B2 (en) Photo sticker creating apparatus and method, and program
JP5963030B2 (en) Image processing apparatus, image processing method, and program
JP5013203B2 (en) Photo sticker creation apparatus and method, and program
JP5818273B2 (en) Image processing apparatus, image processing method, and program
JP4702496B2 (en) Photo sticker creation apparatus and method, and program
JP5338935B2 (en) Image photographing and editing apparatus and method, and program
JP6201397B2 (en) Photo sticker creation apparatus and method, and program
JP6820478B2 (en) Imaging device
JP5354257B2 (en) Photo sticker creating apparatus and method, and program
JP5353685B2 (en) Photo sticker creation apparatus, control method, and program
JP2008052121A (en) Photographic sticker forming apparatus, method, and program
JP7575657B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM, REGION SPECIFICATION MODEL, AND MODEL GENERATION METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5013203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees