JP6493587B1 - Imaging apparatus, image processing method, and image processing program - Google Patents

Imaging apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6493587B1
JP6493587B1 JP2018051822A JP2018051822A JP6493587B1 JP 6493587 B1 JP6493587 B1 JP 6493587B1 JP 2018051822 A JP2018051822 A JP 2018051822A JP 2018051822 A JP2018051822 A JP 2018051822A JP 6493587 B1 JP6493587 B1 JP 6493587B1
Authority
JP
Japan
Prior art keywords
image
range
acquired
user
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018051822A
Other languages
Japanese (ja)
Other versions
JP2019134396A (en
Inventor
建 佐藤
建 佐藤
米田 宗弘
宗弘 米田
辰巳 聡
聡 辰巳
Original Assignee
辰巳電子工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 辰巳電子工業株式会社 filed Critical 辰巳電子工業株式会社
Priority to JP2018051822A priority Critical patent/JP6493587B1/en
Application granted granted Critical
Publication of JP6493587B1 publication Critical patent/JP6493587B1/en
Publication of JP2019134396A publication Critical patent/JP2019134396A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

【課題】生成される画像の範囲をユーザに合わせることができる、撮影装置、画像処理方法、及び画像処理プログラムを提供する。【解決手段】本発明に係る第1の撮影装置は、被写体を撮影する撮影部と、表示部と、制御部と、を備え、前記制御部は、前記撮影部で取得された原画像から、画像範囲の異なる複数の撮影範囲候補画像を生成する画像生成部と、前記原画像から被写体に関する被写体情報を算出し、当該被写体情報に基づいて前記複数の撮影範囲候補画像の中から、一の撮影範囲候補画像を、初期候補画像として選択する選択部と、を備えている。【選択図】図9An imaging apparatus, an image processing method, and an image processing program capable of adjusting a range of a generated image to a user are provided. A first image capturing apparatus according to the present invention includes an image capturing unit that captures an image of a subject, a display unit, and a control unit, wherein the control unit is configured based on an original image acquired by the image capturing unit. An image generation unit that generates a plurality of shooting range candidate images having different image ranges, and subject information about the subject is calculated from the original image, and one shooting is performed from the plurality of shooting range candidate images based on the subject information. A selection unit that selects a range candidate image as an initial candidate image. [Selection] Figure 9

Description

本発明は、撮影装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to a photographing apparatus, an image processing method, and an image processing program.

従来、利用者をカメラで撮影することで得られた撮影画像を写真印刷シートとして出力したり、ネットワークを介して外部の装置に送信したりすることができる遊戯用撮影装置が知られている。このような遊戯用撮影装置では、写真の見栄えを良くするために、種々の編集作業が行えるようになっている。例えば、特許文献1には、目の大きさの変更、明るさの変更、落書きの追加等の編集が可能な遊戯用撮影装置が提案されている。   2. Description of the Related Art Conventionally, there is known an amusement photographing apparatus that can output a photographed image obtained by photographing a user with a camera as a photographic print sheet or send it to an external device via a network. In such a game photographing apparatus, various editing operations can be performed in order to improve the appearance of photographs. For example, Patent Document 1 proposes a shooting apparatus for games that allows editing such as changing the size of eyes, changing brightness, and adding graffiti.

特開2017−038344号公報JP 2017-0383344 A

ところで、上記のような装置で撮影を行う場合には、カメラによる撮影範囲に依存して生成される画像の範囲が予め決まっているため、ユーザは、その撮影範囲内に入って撮影を行う必要がある。しかしながら、撮影に適した範囲は、被写体の数、身長などによるため、一意的に決めることはできない。そのため、従来の遊戯用撮影装置では、予め決められた撮影範囲にしたがうように、ユーザが立ち位置やポーズを変える必要があった。なお、このような問題は、遊戯用撮影装置に限られず、例えば、証明写真機を含む撮影装置全般に生じ得る問題である。   By the way, when shooting with the apparatus as described above, since the range of the image generated depending on the shooting range by the camera is determined in advance, the user needs to enter the shooting range and perform shooting. There is. However, the range suitable for shooting depends on the number of subjects, height, etc., and cannot be determined uniquely. For this reason, the conventional game shooting apparatus requires the user to change the standing position and pose so as to follow a predetermined shooting range. Note that such a problem is not limited to the game shooting apparatus, and may be a problem that may occur in general shooting apparatuses including an ID camera.

本発明は、上記問題を解決するためになされたものであり、生成される画像の範囲をユーザに合わせることができる、撮影装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a photographing apparatus, an image processing method, and an image processing program capable of matching a range of a generated image to a user. .

本発明に係る第1の撮影装置は、被写体を撮影する撮影部と、表示部と、制御部と、を備え、前記制御部は、前記撮影部で取得された原画像から、画像範囲の異なる複数の撮影範囲候補画像を生成する画像生成部と、前記原画像から被写体に関する被写体情報を算出し、当該被写体情報に基づいて前記複数の撮影範囲候補画像の中から、一の撮影範囲候補画像を、初期候補画像として選択する選択部と、を備えている。   A first photographing apparatus according to the present invention includes a photographing unit that photographs a subject, a display unit, and a control unit, and the control unit has a different image range from an original image acquired by the photographing unit. An image generation unit that generates a plurality of shooting range candidate images; and subject information about the subject is calculated from the original image, and one shooting range candidate image is selected from the plurality of shooting range candidate images based on the subject information. A selection unit that selects the initial candidate image.

本発明に係る第2の撮影装置は、被写体を撮影する撮影部と、表示部と、制御部と、入力部と、を備え、前記制御部は、前記撮影部で取得された原画像から、所定の画像範囲を有する、ユーザ取得画像を生成する画像生成部と、前記ユーザ取得画像に合成する候補となる複数の合成用画像を、前記表示部に表示する表示制御部と、を備え、前記入力部は、前記表示部に表示された複数の合成用画像から、一の合成用画像の選択を受け付け、前記画像生成部は、選択された合成用画像に基づいて、前記画像範囲を決定し、当該決定された画像範囲に基づいて、前記原画像から前記ユーザ取得画像を生成する。   A second imaging device according to the present invention includes an imaging unit that captures an image of a subject, a display unit, a control unit, and an input unit, wherein the control unit is configured based on an original image acquired by the imaging unit, An image generation unit that generates a user-acquired image having a predetermined image range; and a display control unit that displays a plurality of compositing images to be combined with the user-acquired image on the display unit, The input unit accepts selection of one composition image from the plurality of composition images displayed on the display unit, and the image generation unit determines the image range based on the selected composition image. The user-acquired image is generated from the original image based on the determined image range.

本発明に係る第1の画像処理方法は、被写体を含む原画像を取得するステップと、前記原画像から、画像範囲の異なる複数の撮影範囲候補画像を生成するステップと、前記原画像から被写体に関する被写体情報を算出し、当該被写体情報に基づいて前記複数の撮影範囲候補画像の中から、一の撮影範囲候補画像を、初期候補画像として選択するステップと、を備えている。   The first image processing method according to the present invention includes a step of acquiring an original image including a subject, a step of generating a plurality of shooting range candidate images having different image ranges from the original image, and a subject relating to the subject from the original image. Calculating subject information, and selecting one shooting range candidate image as an initial candidate image from the plurality of shooting range candidate images based on the subject information.

本発明に係る第2の画像処理方法は、被写体を含む原画像を取得するステップと、前記原画像から、所定の画像範囲を有する、ユーザ取得画像を生成するステップと、前記ユーザ取得画像に合成する候補となる複数の合成用画像を、表示するステップと、表示された前記複数の合成用画像から、一の合成用画像の選択を受け付けるステップと、選択された前記合成用画像に基づいて、画像範囲を決定し、当該決定された画像範囲に基づいて、前記原画像から前記ユーザ取得画像を生成するステップと、を備えている。   A second image processing method according to the present invention includes a step of acquiring an original image including a subject, a step of generating a user acquired image having a predetermined image range from the original image, and a synthesis with the user acquired image A step of displaying a plurality of images for composition to be candidates, a step of accepting selection of one image for composition from the displayed plurality of images for composition, and based on the selected image for composition, Determining an image range, and generating the user acquired image from the original image based on the determined image range.

本発明に係る第1の画像処理プログラムは、コンピュータに、被写体を含む原画像を取得するステップと、前記原画像から、画像範囲の異なる複数の撮影範囲候補画像を生成するステップと、前記原画像から被写体に関する被写体情報を算出し、当該被写体情報に基づいて前記複数の撮影範囲候補画像の中から、一の撮影範囲候補画像を、初期候補画像として選択するステップと、を実行させる。   A first image processing program according to the present invention includes a step of acquiring an original image including a subject in a computer, a step of generating a plurality of shooting range candidate images having different image ranges from the original image, and the original image Subject information about the subject is calculated from the subject, and a step of selecting one shooting range candidate image as an initial candidate image from the plurality of shooting range candidate images based on the subject information is executed.

本発明に係る第2の画像処理プログラムは、コンピュータに、被写体を含む原画像を取得するステップと、前記原画像から、所定の画像範囲を有する、ユーザ取得画像を生成するステップと、前記ユーザ取得画像に合成する候補となる複数の合成用画像を、表示するステップと、表示された前記複数の合成用画像から、一の合成用画像の選択を受け付けるステップと、選択された前記合成用画像に基づいて、画像範囲を決定し、当該決定された画像範囲に基づいて、前記原画像から前記ユーザ取得画像を生成するステップと、を実行させる。   The second image processing program according to the present invention includes a step of acquiring an original image including a subject in a computer, a step of generating a user acquired image having a predetermined image range from the original image, and the user acquisition Displaying a plurality of compositing images that are candidates for compositing with the image; receiving a selection of one compositing image from the displayed plurality of compositing images; and selecting the compositing image And determining an image range, and generating the user-acquired image from the original image based on the determined image range.

また、本発明に係る他の撮影装置は、被写体を撮影する撮影部と、
前記撮影部で取得された原画像の第1の範囲の画像である第1被写体画像及び、前記原画像の、前記第1の範囲とは異なる第2の範囲の画像である第2被写体画像の少なくともいずれかを生成する画像生成部と、
前記撮影部で取得された原画像から被写体に関する被写体情報を算出し、前記被写体情報に基づいて前記第1の範囲及び前記第2の範囲のうちのいずれが適当かを判定する判定部と、を備える。
In addition, another imaging device according to the present invention includes an imaging unit for imaging an object,
A first subject image that is an image of a first range of an original image acquired by the photographing unit, and a second subject image that is an image of a second range different from the first range of the original image. An image generation unit for generating at least one of them,
A determination unit that calculates subject information related to a subject from the original image acquired by the photographing unit and determines which one of the first range and the second range is appropriate based on the subject information; Prepare.

この撮影装置では、第1の範囲と第2の範囲に係る画像を生成できるが、これ以上の数の範囲を設定することもできる。また、ここでいう第1の範囲、第2の範囲は、例えば、3以上の範囲を設定した場合、生成の順序などに関わらず、そのうちのいずれか2つの範囲を意味するものである。したがって、3以上の範囲のうちの、いずれか2つの範囲について、上述した判定部によりいずれが適当であるかが判定されるように構成されていればよい。   In this photographing apparatus, an image related to the first range and the second range can be generated, but a larger number of ranges can be set. In addition, the first range and the second range referred to here mean, for example, when three or more ranges are set, any two of them are defined regardless of the generation order. Accordingly, it is only necessary that any two of the three or more ranges are determined by the determination unit described above as appropriate.

また、本発明に係る他の撮影装置は、撮影部で取得した原画像における所定範囲の画像である被写体画像を生成する画像生成部と、
複数の合成用画像を表示する表示部と、
前記表示部に表示された複数の合成用画像の中から、前記撮影部によって得られる被写体画像と合成する合成用画像を決定する制御部と、を備え、
前記画像生成部は、前記制御部により決定された合成用画像に基づいて、前記所定範囲を決定する。
Further, another imaging apparatus according to the present invention includes an image generation unit that generates a subject image that is an image in a predetermined range in the original image acquired by the imaging unit;
A display unit for displaying a plurality of compositing images;
A control unit that determines a synthesis image to be synthesized with a subject image obtained by the photographing unit from among a plurality of synthesis images displayed on the display unit;
The image generation unit determines the predetermined range based on the synthesis image determined by the control unit.

本発明によれば、生成される画像の範囲をユーザに合わせることができる。   According to the present invention, the range of the generated image can be adjusted to the user.

本発明の一実施形態に係る撮影装置(カーテンなし)の外観を示す斜視図である。It is a perspective view which shows the external appearance of the imaging device (without curtain) which concerns on one Embodiment of this invention. 図1Aの撮影装置(カーテンあり)の外観を示す斜視図である。It is a perspective view which shows the external appearance of the imaging device (with a curtain) of FIG. 1A. 図1の撮影装置の撮影ユニットの一例を例示する。An example of the imaging unit of the imaging apparatus of FIG. 1 is illustrated. 図1の撮影装置のハードウェア構成の一例を例示する。2 illustrates an example of a hardware configuration of the imaging apparatus in FIG. 1. 図1の撮影装置のソフトウェア構成の一例を例示する。An example of a software configuration of the photographing apparatus in FIG. 1 is illustrated. 撮影の依頼を受け付けるための処理手順の一例を例示する。An example of a processing procedure for accepting a shooting request is illustrated. ユーザの撮影する処理手順の一例を例示する。An example of a processing procedure taken by a user is illustrated. 全身撮影におけるユーザ取得画像の画像範囲を説明する図である。It is a figure explaining the image range of the user acquisition image in whole body photography. 全身撮影を行う画面である。This is a screen for whole body photography. アップ撮影のために、全身撮影に基づくユーザ取得画像の画像範囲を説明する図である。It is a figure explaining the image range of the user acquisition image based on whole body photography for up photography. アップ撮影におけるユーザ取得画像の画像範囲を説明する図である。It is a figure explaining the image range of the user acquisition image in up photography. アップ撮影におけるユーザ取得画像の画像範囲の設定画面である。It is a setting screen of the image range of the user acquisition image in up photography. アップ撮影を行う画面である。This is a screen for shooting up. 大きくする画像を選択する画面である。This is a screen for selecting an image to be enlarged. アップ撮影におけるユーザ取得画像の画像範囲の設定を説明する図である。It is a figure explaining the setting of the image range of the user acquisition image in up photography. アップ撮影におけるユーザ取得画像の画像範囲の設定画面である。It is a setting screen of the image range of the user acquisition image in up photography. 合成用画像の例を示す図である。It is a figure which shows the example of the image for a synthesis | combination. ユーザ取得画像と合成用画像とを合成した画像の例を示す図である。It is a figure which shows the example of the image which synthesize | combined the user acquisition image and the image for a synthesis | combination.

<1.撮影装置の概要>
以下、本実施形態に係る撮影装置について説明する。図1Aは、本実施形態に係る撮影装置100からカーテン13を取り除いた状態を示す斜視図、図1Bは、図1Aにおいてカーテン13を取り付けた状態を示す斜視図である。
<1. Overview of photographic equipment>
Hereinafter, the photographing apparatus according to the present embodiment will be described. FIG. 1A is a perspective view showing a state in which the curtain 13 is removed from the photographing apparatus 100 according to the present embodiment, and FIG. 1B is a perspective view showing a state in which the curtain 13 is attached in FIG. 1A.

図1A及び図1Bに示されるとおり、撮影装置100は、直方体状の筐体1を備えており、この筐体1の側面には、内部の撮影空間10に通じる出入口11が形成されている。この出入口11の上縁にはカーテンレール12が取り付けられており、このカーテンレール12には、カーテン13が取り付けられている。これにより、利用者が撮影を行う際には、カーテン13を閉じることで、撮影空間10を外部から見えないようにすると共に、外部から余計な光が撮影空間10に入らないようにすることができる。筐体1の内装において、後述するカメラ32が配置される面とは反対側の面(背面)等の撮影範囲には、クロマキー合成処理のための単一の色(例えば、青色、緑色等)が付される。単一の色が付される範囲は、撮影範囲の一部であってもよいし、全体であってもよい。   As shown in FIG. 1A and FIG. 1B, the photographing apparatus 100 includes a rectangular parallelepiped housing 1, and an entrance / exit 11 leading to an internal photographing space 10 is formed on a side surface of the housing 1. A curtain rail 12 is attached to the upper edge of the entrance 11, and a curtain 13 is attached to the curtain rail 12. Thereby, when the user performs photographing, the curtain 13 is closed so that the photographing space 10 cannot be seen from the outside and extra light from the outside does not enter the photographing space 10. it can. In the interior of the housing 1, there is a single color (for example, blue, green, etc.) for chroma key composition processing in a photographing range such as a surface (back surface) opposite to a surface on which a camera 32 described later is disposed. Is attached. The range to which a single color is assigned may be a part of the shooting range or the entire range.

筐体1の外壁の出入口11付近には、受付ユニット2が設けられている。受付ユニット2は、撮影装置100による写真撮影の依頼を受け付けるように構成される。一方、筐体1の内部(撮影空間10)において、撮影時に利用者が存在すべき位置の前方には、撮影ユニット3が設けられている。撮影ユニット3は、撮影空間10内の利用者を撮影し、得られた画像の編集を受け付け、編集された画像をプリントするように構成される。各ユニット(2、3)の構成の詳細は後述する。   A reception unit 2 is provided near the entrance / exit 11 of the outer wall of the housing 1. The accepting unit 2 is configured to accept a request for taking a picture by the photographing apparatus 100. On the other hand, a photographing unit 3 is provided inside the housing 1 (the photographing space 10) in front of a position where the user should be present during photographing. The photographing unit 3 is configured to photograph a user in the photographing space 10, accept editing of the obtained image, and print the edited image. Details of the configuration of each unit (2, 3) will be described later.

<2.撮影装置のハードウェア構成>
次に、図2及び図3を更に用いて、本実施形態に係る撮影装置100のハードウェア構成について説明する。図2は、本実施形態に係る撮影装置100の撮影ユニット3を例示する。図3は、撮影装置100のハードウェア構成の一例を模式的に例示する。
<2. Hardware configuration of photographing apparatus>
Next, the hardware configuration of the image capturing apparatus 100 according to the present embodiment will be described with further reference to FIGS. 2 and 3. FIG. 2 illustrates the photographing unit 3 of the photographing apparatus 100 according to the present embodiment. FIG. 3 schematically illustrates an example of the hardware configuration of the imaging apparatus 100.

図3に示すように、本実施形態に係る撮影装置100は、受付ユニット2、撮影ユニット3、制御部5、記憶部6、通信インタフェース7、及びドライブ8が電気的に接続されたコンピュータである。なお、図3では、通信インタフェースを「通信I/F」と記載している。   As shown in FIG. 3, the photographing apparatus 100 according to the present embodiment is a computer in which a reception unit 2, a photographing unit 3, a control unit 5, a storage unit 6, a communication interface 7, and a drive 8 are electrically connected. . In FIG. 3, the communication interface is described as “communication I / F”.

制御部5は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。記憶部6は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部5で実行されるプログラム61等の各種データを記憶する。   The control unit 5 includes a central processing unit (CPU), a random access memory (RAM), a read only memory (ROM), and the like, and controls each component according to information processing. The storage unit 6 is an auxiliary storage device such as a hard disk drive or a solid state drive, and stores various data such as a program 61 executed by the control unit 5.

プログラム61は、写真撮影の依頼の受け付け、受け付けた依頼に応じた写真撮影、印刷を行うための処理を撮影装置100に実行させるためのプログラムである。この他、記憶部6には、各処理過程で利用される画面データ等が記憶される。詳細は後述する。   The program 61 is a program for causing the photographing apparatus 100 to execute processing for accepting a photography request and taking a photograph and printing according to the accepted request. In addition, the storage unit 6 stores screen data used in each process. Details will be described later.

通信インタフェース7は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。通信インタフェース7の種類は、撮影装置100の設置場所等に応じて適宜選択されてよい。撮影装置100は、通信インタフェース7を介して、外部サーバ等とデータ通信を行うことができる。   The communication interface 7 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. The type of the communication interface 7 may be appropriately selected according to the installation location of the photographing apparatus 100 or the like. The imaging apparatus 100 can perform data communication with an external server or the like via the communication interface 7.

ドライブ8は、例えば、CD(Compact Disk)ドライブ、DVD(Digital Versatile Disk)ドライブ等であり、記憶媒体(不図示)に記憶されたプログラムを読み込みための装置である。ドライブ8の種類は、記憶媒体の種類に応じて適宜選択されてよい。プログラム61は、記憶媒体に記憶されていてもよい。   The drive 8 is, for example, a CD (Compact Disk) drive, a DVD (Digital Versatile Disk) drive, or the like, and is a device for reading a program stored in a storage medium (not shown). The type of the drive 8 may be appropriately selected according to the type of the storage medium. The program 61 may be stored in a storage medium.

記憶媒体は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、このプログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。この記憶媒体の一例として、例えば、CD、DVD、フラッシュメモリ等を挙げることができる。   The storage medium stores information such as a program by electrical, magnetic, optical, mechanical, or chemical action so that information such as a program recorded by a computer or other device or machine can be read. It is a medium. Examples of this storage medium include a CD, a DVD, a flash memory, and the like.

(受付ユニット)
受付ユニット2は、タッチパネルディスプレイ21、現金処理部22、カードリーダ23、及びスピーカ24を備えている。タッチパネルディスプレイ21は、筐体1の外側において、写真撮影を所望する利用者の目線範囲に入るように受付ユニット2本体のやや上方に配置される。タッチパネルディスプレイ21は、制御部5により制御されて、画面表示及び選択操作の受け付けを適宜行うことで、利用者からの撮影依頼に関する操作を受け付ける。このタッチパネルディスプレイ21の種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、タッチパネルディスプレイ21には、感圧式、赤外線式等のタイプを利用可能である。
(Reception unit)
The reception unit 2 includes a touch panel display 21, a cash processing unit 22, a card reader 23, and a speaker 24. The touch panel display 21 is disposed on the outside of the housing 1 slightly above the main body of the reception unit 2 so as to fall within the range of the line of sight of a user who desires to take a picture. The touch panel display 21 is controlled by the control unit 5 and accepts an operation related to a photographing request from a user by appropriately accepting a screen display and a selection operation. The type of the touch panel display 21 may not be particularly limited and may be appropriately selected according to the embodiment. For example, the touch panel display 21 can be of a pressure sensitive type, an infrared type, or the like.

現金処理部22は、紙幣検証器(Bill Validator)220、現金投入口221及び現金排出口222を備えており、各種センサにより紙幣検証器220又は現金投入口221に対する紙幣又は現金(コイン)の投入を検知する。図1A及び図1Bに示すように、現金投入口221は、タッチパネルディスプレイ21の下方近傍に配置されており、現金排出口222は、現金投入口221よりも下方に配置されている。   The cash processing unit 22 includes a bill validator 220, a cash insertion slot 221 and a cash discharge slot 222, and inserts bills or cash (coins) into the bill verification unit 220 or the cash insertion slot 221 by various sensors. Is detected. As shown in FIG. 1A and FIG. 1B, the cash inlet 221 is arranged near the lower part of the touch panel display 21, and the cash outlet 222 is arranged below the cash inlet 221.

現金処理部22は、撮影に要する金額以上の現金が投入されたことを検出した場合に、当該検知を表わす起動信号を制御部5に出力する。また、現金処理部22は、撮影のキャンセル及び撮影に要する金額分より多い金額分の現金が投入された際に、該当金額分の現金を現金排出口222に排出する。   When the cash processing unit 22 detects that cash more than the amount required for photographing has been inserted, the cash processing unit 22 outputs an activation signal indicating the detection to the control unit 5. The cash processing unit 22 discharges the corresponding amount of cash to the cash outlet 222 when the amount of cash greater than the amount required for cancellation of shooting and the amount of shooting is input.

カードリーダ23は、ICカード、クレジットカード等のカードの情報を読取可能に構成される。このカードリーダ23には、各種カードの情報を読取可能な公知のリーダが用いられてよい。本実施形態では、カードリーダ23は、現金投入口221の近傍に配置されている。カードリーダ23は、電子マネー、クレジットカード等による料金の支払いを受け付け、当該料金の支払いを受け付けた際には、そのことを表わす起動信号を制御部5に出力する。   The card reader 23 is configured to be able to read information of a card such as an IC card or a credit card. As the card reader 23, a known reader capable of reading information on various cards may be used. In the present embodiment, the card reader 23 is disposed in the vicinity of the cash slot 221. The card reader 23 accepts payment of charges by electronic money, a credit card or the like, and when accepting payment of the charges, outputs an activation signal indicating that to the control unit 5.

(撮影ユニット)
図1A、図1B、及び図3に示すとおり、撮影ユニット3は、タッチパネルディスプレイ31、カメラ32、照明ユニット33、スピーカ34、及びプリンタ35を備えている。タッチパネルディスプレイ31は、本発明の「表示部」の一例であり、カメラ32は、本発明の「撮影部」の一例である。
(Shooting unit)
As shown in FIGS. 1A, 1B, and 3, the photographing unit 3 includes a touch panel display 31, a camera 32, a lighting unit 33, a speaker 34, and a printer 35. The touch panel display 31 is an example of the “display unit” in the present invention, and the camera 32 is an example of the “imaging unit” in the present invention.

タッチパネルディスプレイ31は、撮影ユニット3本体の前面パネルの中央に配置されており、タッチパネルディスプレイ31の上方には、写真撮影に利用されるカメラ32が配置されている。制御部5は、カメラ32による撮影を制御する。また、制御部5は、タッチパネルディスプレイ31の表示及びタッチパネルディスプレイ31に対する入力を制御する。タッチパネルディスプレイ31及びカメラ32の種類は、実施の形態に応じて適宜選択されてよい。   The touch panel display 31 is disposed in the center of the front panel of the photographing unit 3 main body, and a camera 32 used for photographing is disposed above the touch panel display 31. The control unit 5 controls shooting by the camera 32. Further, the control unit 5 controls display on the touch panel display 31 and input to the touch panel display 31. The types of the touch panel display 31 and the camera 32 may be appropriately selected according to the embodiment.

具体的には、カメラ32は、制御部5による制御に従って撮影を行い、撮影によって得られた画像をRAM又は記憶部6に記憶する。本実施形態では、撮影時に利用者の位置が概ね決まっているため、撮影時の利用者とカメラ32との距離が概ね決まっている。そのため、本実施形態に係るカメラ32の焦点距離は一定である。しかしながら、カメラ32の構成は、このような例に限られなくてもよく、ズームレンズを備えるカメラ32の場合は、カメラ32の焦点距離は、必要に応じて制御部5によって適切になるように制御されてもよい。なお、焦点距離の調整は、ズームレンズの外筒をカメラ32の外部から力を加えて回す機構が必要となる。制御部5は、この機構を制御することによりズームレンズの外筒を回す量を調整する。   Specifically, the camera 32 performs imaging according to the control by the control unit 5 and stores an image obtained by the imaging in the RAM or the storage unit 6. In this embodiment, since the position of the user is generally determined at the time of shooting, the distance between the user and the camera 32 at the time of shooting is generally determined. Therefore, the focal length of the camera 32 according to the present embodiment is constant. However, the configuration of the camera 32 is not limited to such an example, and in the case of the camera 32 including a zoom lens, the focal length of the camera 32 is appropriately adjusted by the control unit 5 as necessary. It may be controlled. The adjustment of the focal length requires a mechanism that rotates the outer cylinder of the zoom lens by applying a force from the outside of the camera 32. The controller 5 adjusts the amount by which the outer cylinder of the zoom lens is rotated by controlling this mechanism.

タッチパネルディスプレイ31には、カメラ32により撮影された画像が表示される。制御部5は、所定のタイミングで、カメラ32により被写体(利用者)の静止画像を撮影する。また、カメラ32は、リアルタイムに画像を取り込んで、当該画像を表わすライブ映像用の画像信号を出力する。カメラ32から出力された画像信号は、制御部5のRAMに一時的に記憶されると共にタッチパネルディスプレイ31に送信される。これにより、タッチパネルディスプレイ31では、カメラ32により撮影された静止画像、当該画像信号に基づくライブ映像が表示される。   An image captured by the camera 32 is displayed on the touch panel display 31. The control unit 5 captures a still image of the subject (user) with the camera 32 at a predetermined timing. The camera 32 captures an image in real time and outputs an image signal for live video representing the image. The image signal output from the camera 32 is temporarily stored in the RAM of the control unit 5 and transmitted to the touch panel display 31. Thereby, on the touch panel display 31, a still image photographed by the camera 32 and a live video based on the image signal are displayed.

更に、タッチパネルディスプレイ31には、上記プログラム61に基づいて、撮影の案内を示す案内画面等が表示される。各画面では、選択操作等の操作入力が受け付けられる。制御部5は、各画面に対する操作入力を検知し、検知された操作入力に応じた処理を行う。   Further, on the touch panel display 31, based on the program 61, a guidance screen showing guidance for photographing is displayed. In each screen, an operation input such as a selection operation is accepted. The control part 5 detects the operation input with respect to each screen, and performs the process according to the detected operation input.

本実施形態では、タッチパネルディスプレイ31の両側には、各画面に対する操作入力を行うための操作デバイスとして、一対の電子ペン40が配置されている。各電子ペン40は、例えば、デジタイザを構成するペンである。これに応じて、タッチパネルディスプレイ31には、デジタイザを構成する公知のタッチパネルが積層されたディスプレイが用いられてよい。これにより、制御部5は、各電子ペン40を識別した上で、各電子ペン40による入力を検知することができる。   In the present embodiment, a pair of electronic pens 40 are arranged on both sides of the touch panel display 31 as operation devices for performing operation input on each screen. Each electronic pen 40 is a pen constituting a digitizer, for example. Accordingly, the touch panel display 31 may be a display in which a known touch panel constituting a digitizer is stacked. Thereby, the control part 5 can detect the input by each electronic pen 40, after identifying each electronic pen 40. FIG.

なお、各電子ペン40は、ケーブル41を介して、撮影ユニット3本体に連結されている。各ケーブル41の長さは、タッチパネルディスプレイ31の画面に各電子ペン40を接触可能に適宜決定されてよい。利用者は、各電子ペン40を利用することで、タッチパネルディスプレイ31に表示された各画面の操作を行うことができる。   Each electronic pen 40 is connected to the photographing unit 3 main body via a cable 41. The length of each cable 41 may be determined as appropriate so that each electronic pen 40 can contact the screen of the touch panel display 31. The user can operate each screen displayed on the touch panel display 31 by using each electronic pen 40.

照明ユニット33は、上部ストロボボックス331及び下部ストロボボックス332を備えている。図2に示すように、上部ストロボボックス331は、利用者側に向く曲面のカバー有しており、所定の取り付け部材を用いて、正面パネル(不図示)などに固定される。上部ストロボボックス331は内部に蛍光灯およびストロボ発光管を有し、正面上方から、利用者の顔付近にストロボ光を照射する。また、下部ストロボボックス332は、タッチパネルディスプレイ31の下側、写真プリントの取出口36の周囲に配置されている。下部ストロボボックス332の正面は垂直面を形成する板状部材により構成され、上面は急な斜面を形成する板状部材により構成される。板状部材は、乳白色のアクリル板などの透光性を有する板状部材である。下部ストロボボックス332もまた、内部に蛍光灯およびストロボ発光管を有する。また、各ストロボボックス(331、332)の蛍光灯は、制御部5により制御されて、電灯の発光量を調節することで、利用者の撮影処理の段階に応じて撮影空間10内の明るさを調節する。   The lighting unit 33 includes an upper strobe box 331 and a lower strobe box 332. As shown in FIG. 2, the upper strobe box 331 has a curved cover facing the user side, and is fixed to a front panel (not shown) or the like using a predetermined mounting member. The upper strobe box 331 includes a fluorescent lamp and a strobe arc tube inside, and irradiates strobe light near the user's face from the upper front. The lower strobe box 332 is disposed below the touch panel display 31 and around the photo print outlet 36. The front surface of the lower strobe box 332 is constituted by a plate-like member that forms a vertical surface, and the upper surface is constituted by a plate-like member that forms a steep slope. The plate member is a plate member having translucency such as a milky white acrylic plate. The lower strobe box 332 also has a fluorescent lamp and a strobe arc tube inside. In addition, the fluorescent lamps of the strobe boxes (331, 332) are controlled by the control unit 5 to adjust the amount of light emitted from the electric lamps, thereby adjusting the brightness in the shooting space 10 according to the stage of the user's shooting process. Adjust.

スピーカ34及びプリンタ35は、撮影ユニット3本体に内蔵されている。スピーカ34は、制御部5による制御に従って、写真撮影の案内等の音声出力を行う。また、プリンタ35は、制御部5による制御に従って、撮影された画像又は編集済みの画像をプリントし、プリントした画像を取出口36に排出する。   The speaker 34 and the printer 35 are built in the photographing unit 3 body. The speaker 34 outputs a sound such as a guide for taking a picture according to control by the control unit 5. In addition, the printer 35 prints the captured image or the edited image under the control of the control unit 5, and discharges the printed image to the outlet 36.

(その他)
なお、撮影装置100の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部5は、複数のプロセッサを含んでもよい。また、撮影装置100は、提供されるサービス専用に設計された情報処理装置の他、汎用のPC(Personal Computer)等であってもよい。
(Other)
Note that regarding the specific hardware configuration of the image capturing apparatus 100, it is possible to omit, replace, and add components as appropriate according to the embodiment. For example, the control unit 5 may include a plurality of processors. Further, the image capturing apparatus 100 may be a general-purpose PC (Personal Computer) or the like in addition to an information processing apparatus designed exclusively for the provided service.

<3.撮影装置のソフトウェア構成>
次に、図4を用いて、本実施形態に係る撮影装置100のソフトウェア構成の一例を説明する。図4は、本実施形態に係る撮影装置100のソフトウェア構成の一例を模式的に例示する。
<3. Software configuration of photographing device>
Next, an example of a software configuration of the photographing apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 4 schematically illustrates an example of the software configuration of the imaging apparatus 100 according to the present embodiment.

撮影装置100の制御部5は、記憶部6に記憶されたプログラム61をRAMに展開する。そして、制御部5は、RAMに展開されたプログラム61をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図4に示すように、本実施形態に係る撮影装置100の制御部5等は、ソフトウェアモジュールとして、受付部51、撮影処理部52、及び出力処理部55を備えるように構成される。   The control unit 5 of the photographing apparatus 100 expands the program 61 stored in the storage unit 6 in the RAM. The control unit 5 interprets and executes the program 61 expanded in the RAM by the CPU, and controls each component. Accordingly, as illustrated in FIG. 4, the control unit 5 and the like of the photographing apparatus 100 according to the present embodiment are configured to include a reception unit 51, a photographing processing unit 52, and an output processing unit 55 as software modules. .

受付部51は、撮影の依頼に関する操作画面を受付ユニット2のタッチパネルディスプレイ21に表示すると共に、当該タッチパネルディスプレイ21に対するタッチ操作による利用者の入力を受け付けて、その入力に応じた処理を実行する。これにより、受付部51は、利用者からの撮影の依頼、撮影、印刷に関する設定等を受け付ける。   The accepting unit 51 displays an operation screen related to a photographing request on the touch panel display 21 of the accepting unit 2, accepts a user input by a touch operation on the touch panel display 21, and executes a process according to the input. As a result, the accepting unit 51 accepts a request for photographing from the user, settings relating to photographing, printing, and the like.

撮影処理部52は、撮影の案内を示す案内画面等をタッチパネルディスプレイ31に表示させると共に、カメラ32による撮影処理を実施する。これにより、撮影処理部52は、利用者(被写体)の写る画像を取得する。また、この撮影処理部52の中に、本発明の画像生成部や選択部(判定部)が含まれている。画像生成部は、後述する種々の画像範囲のユーザ取得画像を生成し、選択部は、撮影に適した画像範囲を有するユーザ取得画像を選択する。出力処理部55は、最終的に得られた画像を紙媒体に印刷し、印刷した画像を取出口36から出力する。また、出力処理部55は、生成された画像と共に外部サーバに送信する。   The photographing processing unit 52 displays a guidance screen indicating photographing guidance on the touch panel display 31 and performs photographing processing by the camera 32. Thereby, the imaging processing unit 52 acquires an image in which the user (subject) is captured. The photographing processing unit 52 includes an image generation unit and a selection unit (determination unit) according to the present invention. The image generation unit generates user acquired images having various image ranges, which will be described later, and the selection unit selects a user acquired image having an image range suitable for shooting. The output processing unit 55 prints the finally obtained image on a paper medium, and outputs the printed image from the outlet 36. The output processing unit 55 transmits the generated image together with the external server.

撮影装置100の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、撮影装置100の各ソフトウェアモジュールがいずれも汎用のCPUにより実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のハードウェアプロセッサにより実現されてもよい。また、撮影装置100のソフトウェア構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。   Each software module of the photographing apparatus 100 will be described in detail in an operation example described later. In the present embodiment, an example is described in which each software module of the image capturing apparatus 100 is realized by a general-purpose CPU. However, some or all of the above software modules may be realized by one or a plurality of dedicated hardware processors. In addition, regarding the software configuration of the imaging apparatus 100, functions may be omitted, replaced, and added as appropriate according to the embodiment.

<4.撮影装置の動作例>
<4−1.撮影依頼の受け付けの処理手順>
次に、図5を用いて、本実施形態に係る撮影装置100による撮影依頼受付の処理手順について説明する。図5は、本実施形態に係る撮影装置100による撮影依頼受付の処理手順の一例を例示する。
<4. Example of operation of photographing apparatus>
<4-1. Procedure for accepting shooting requests>
Next, a processing procedure for accepting a photographing request by the photographing apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 5 illustrates an example of a processing procedure for accepting an imaging request by the imaging apparatus 100 according to the present embodiment.

撮影装置100の制御部5は、受付部51として動作し、図5に示す処理手順に従って、撮影依頼の受付処理を行う。例えば、制御部5は、受付処理を開始するまでの間、受付ユニット2のタッチパネルディスプレイ21に広告等のデモ画面を表示し、タッチパネルディスプレイ21に対してタッチ操作されたことに応じて、以下の受付処理を開始する。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。   The control unit 5 of the imaging apparatus 100 operates as the reception unit 51, and performs an imaging request reception process according to the processing procedure illustrated in FIG. For example, the control unit 5 displays a demonstration screen such as an advertisement on the touch panel display 21 of the reception unit 2 until the reception process is started, and in response to the touch operation on the touch panel display 21, the following Start the acceptance process. Note that the processing procedure described below is merely an example, and each processing may be changed as much as possible. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS100)
ステップS100では、制御部5は、使用言語の種類を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、日本語、英語、中国語、韓国語等の各言語に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、使用言語の選択を受け付ける。記憶部6には、各使用言語に応じた画面データが記憶されており、制御部5は、本ステップ100及び次のステップS102以降の処理において、選択された使用言語に応じた画面を表示するとともに、選択言語に対応する音声をスピーカ24から出力する。使用言語の選択が完了すると、制御部5は、次のステップS102に処理を進める。
(Step S100)
In step S <b> 100, the control unit 5 displays a screen for selecting the type of language used on the touch panel display 21. For example, the control unit 5 displays buttons corresponding to each language such as Japanese, English, Chinese, and Korean on the touch panel display 21 and causes the user to touch any button. Thereby, the control unit 5 accepts the selection of the language used. The storage unit 6 stores screen data corresponding to each language used, and the control unit 5 displays a screen corresponding to the selected language used in the processing after step 100 and the next step S102. At the same time, sound corresponding to the selected language is output from the speaker 24. When the selection of the language to be used is completed, the control unit 5 advances the processing to the next step S102.

(ステップS102)
ステップS102では、制御部5は、印刷枚数を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、1枚、2枚等の印刷枚数に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、印刷枚数の選択を受け付ける。印刷枚数の選択が完了すると、制御部5は、次のステップS104に処理を進める。
(Step S102)
In step S <b> 102, the control unit 5 displays a screen for selecting the number of prints on the touch panel display 21. For example, the control unit 5 displays buttons corresponding to the number of printed sheets such as one sheet, two sheets, and the like on the touch panel display 21 and makes the user touch any button. Thereby, the control unit 5 accepts selection of the number of printed sheets. When the selection of the number of prints is completed, the control unit 5 advances the processing to the next step S104.

(ステップS104)
ステップS104では、制御部5は、ステップS102の選択結果に基づく金額とともに、決済方法を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、クレジットカード、ICカード、現金等の各決済方法に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、決済方法の選択を受け付ける。決済方法の選択が完了すると、制御部5は、次のステップS106に処理を進める。
(Step S104)
In step S <b> 104, the control unit 5 displays a screen for selecting a payment method on the touch panel display 21 together with the amount based on the selection result in step S <b> 102. For example, the control unit 5 displays a button corresponding to each settlement method such as a credit card, an IC card, or cash on the touch panel display 21 and causes the user to touch any button. Thereby, the control part 5 receives selection of the payment method. When the selection of the settlement method is completed, the control unit 5 advances the processing to the next step S106.

(ステップS106)
ステップS106では、制御部5は、ステップS104で選択された決済方法に対応する決済画面をタッチパネルディスプレイ21に表示する。これにより、制御部5は、ステップS104で選択された決済方法による決済を受け付ける。
(Step S106)
In step S106, the control unit 5 displays a payment screen corresponding to the payment method selected in step S104 on the touch panel display 21. Thereby, the control part 5 receives the payment by the payment method selected in step S104.

現金での決済を選択した場合、利用者は、決済画面に指定された料金を現金投入口221に投入する。指定の料金(ステップS104の選択結果に基づく料金)分の現金又はそれ以上の現金が投入されると、現金処理部22は、上記起動信号を制御部5に出力する。他方、クレジットカード又はICカードでの決済を選択した場合、利用者は、対応するカードをカードリーダ23に読み込ませる。対応するカードを読み取ると、カードリーダ23は、上記起動信号を制御部5に出力する。制御部5は、これらの起動信号を受信した後、次のステップS108に処理を進める。   When cash settlement is selected, the user inserts the fee specified on the settlement screen into the cash slot 221. When cash corresponding to the designated fee (the fee based on the selection result in step S104) or more cash is inserted, the cash processing unit 22 outputs the activation signal to the control unit 5. On the other hand, when the payment with the credit card or the IC card is selected, the user causes the card reader 23 to read the corresponding card. When the corresponding card is read, the card reader 23 outputs the activation signal to the control unit 5. After receiving these activation signals, the control unit 5 proceeds to the next step S108.

(ステップS108)
ステップS108では、制御部5は、印刷するシールのデザインのテンプレート画像を選択させる画面をタッチパネルディスプレイ21に表示する。各デザインは、記憶部6に記憶されていてもよいし、ネットワークを介してNAS(Network Attached Storage)等の他の情報処理装置からダウンロードされてもよい。各デザインは、撮影された複数の画像が配置されるレイアウトが相違したり、シールに描かれている色、イラストなどが相違する。
(Step S108)
In step S <b> 108, the control unit 5 displays a screen for selecting a template image of a seal design to be printed on the touch panel display 21. Each design may be stored in the storage unit 6, or may be downloaded from another information processing apparatus such as a NAS (Network Attached Storage) via a network. Each design has a different layout in which a plurality of photographed images are arranged, and a color and an illustration drawn on the sticker are different.

制御部5は、例えば、各デザインのサムネイルをタッチパネルディスプレイ21に表示し、いずれかのサムネイルを利用者にタッチさせる。これにより、制御部5は、印刷するシールのデザインの選択を受け付ける。デザインの選択が完了すると、制御部5は、次のステップS110に処理を進める。   For example, the control unit 5 displays a thumbnail of each design on the touch panel display 21 and causes the user to touch any one of the thumbnails. Thereby, the control part 5 receives selection of the design of the seal | sticker to print. When the selection of the design is completed, the control unit 5 advances the processing to the next step S110.

(ステップS110)
ステップS110では、制御部5は、撮影された画像に合成される背景や前景のデザインを選択させる画面をタッチパネルディスプレイ21に表示する。各デザインは、記憶部6に記憶されていてもよいし、ネットワークを介してNAS(Network Attached Storage)等の他の情報処理装置からダウンロードされてもよい。各デザインは、クロマキー合成処理により被写体に係る画像の背景及び前景の少なくとも一方が含まれている。以下では、これを合成用画像と称することとする。
(Step S110)
In step S <b> 110, the control unit 5 displays on the touch panel display 21 a screen for selecting a background or foreground design to be combined with the captured image. Each design may be stored in the storage unit 6, or may be downloaded from another information processing apparatus such as a NAS (Network Attached Storage) via a network. Each design includes at least one of the background and foreground of the image related to the subject by the chroma key composition process. Hereinafter, this is referred to as a composition image.

制御部5は、例えば、各合成用画像のサムネイルをタッチパネルディスプレイ21に表示し、いずれかのサムネイルを利用者にタッチさせる。これにより、制御部5は、合成用画像の選択を受け付ける。合成用画像の選択が完了すると、制御部5は、次のステップS112に処理を進める。   For example, the control unit 5 displays thumbnails of the images for synthesis on the touch panel display 21 and makes the user touch any one of the thumbnails. Thereby, the control part 5 receives selection of the image for a synthesis | combination. When the selection of the composition image is completed, the control unit 5 advances the processing to the next step S112.

(ステップS112及びS114)
ステップS112では、制御部5は、撮影ユニット3が利用可能となるまでの間、撮影ユニット3による撮影の案内、広告等のデモ画面をタッチパネルディスプレイ21に表示する。
(Steps S112 and S114)
In step S <b> 112, the control unit 5 displays on the touch panel display 21 a demonstration screen for shooting guidance, advertisements, and the like by the shooting unit 3 until the shooting unit 3 becomes available.

本動作例に係る受付処理により撮影の依頼を行っている対象の利用者よりも前に、撮影装置100を利用する利用者が存在する場合、対象の利用者が本ステップS112に到達した時点で、前の利用者が未だ撮影ユニット3による撮影処理を行っている可能性がある。制御部5は、この前の利用者が撮影ユニット3を占有している間、対象の利用者を筐体1の外側で待機させるために、本ステップS112によりデモ画面を表示する。なお、前の利用者が存在せず、又は前の利用者の撮影が完了しており、撮影ユニット3が直ちに利用可能な場合には、制御部5は、本ステップS112の処理を省略してもよい。   When there is a user who uses the imaging apparatus 100 before the target user who has requested imaging in the reception process according to this operation example, when the target user reaches this step S112. There is a possibility that the previous user is still performing the photographing process by the photographing unit 3. While the previous user occupies the photographing unit 3, the control unit 5 displays a demonstration screen in this step S112 in order to make the target user stand by outside the casing 1. If there is no previous user or the previous user has completed shooting and the shooting unit 3 can be used immediately, the control unit 5 omits the process of step S112. Also good.

次のステップS114では、制御部5は、撮影空間10への移動案内をタッチパネルディスプレイ21に表示し、撮影の依頼を行っていた利用者に対して撮影空間10内に移動するように促す。これにより、制御部5は、本動作例に係る受付処理を終了する。   In the next step S <b> 114, the control unit 5 displays a moving guide to the shooting space 10 on the touch panel display 21 and prompts the user who has requested the shooting to move into the shooting space 10. Thereby, the control part 5 complete | finishes the reception process which concerns on this operation example.

なお、各ステップで表示される画面には、一つ前のステップに戻ったり、最初のステップS100に戻ったりするためのボタンが設けられてもよい。これにより、利用者は、受付処理を所望のステップに戻したり、撮影の依頼をキャンセルしたりすることができる。   The screen displayed at each step may be provided with a button for returning to the previous step or returning to the first step S100. Thus, the user can return the reception process to a desired step or cancel the shooting request.

<4−2.撮影の処理手順>
次に、図6を用いて、本実施形態に係る撮影装置100による撮影の処理手順について説明する。図6は、本実施形態に係る撮影装置100による撮影の処理手順の一例を例示する。
<4-2. Shooting procedure>
Next, a processing procedure of photographing by the photographing apparatus 100 according to the present embodiment will be described using FIG. FIG. 6 illustrates an example of a processing procedure of shooting by the shooting apparatus 100 according to the present embodiment.

撮影装置100の制御部5は、上記受付処理が完了したことに応じて、撮影処理部52として動作し、図6に示す撮影処理を開始する。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。   The control unit 5 of the imaging apparatus 100 operates as the imaging processing unit 52 in response to the completion of the reception process, and starts the imaging process illustrated in FIG. Note that the processing procedure described below is merely an example, and each processing may be changed as much as possible. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS200)
ステップS200では、制御部5は、撮影を開始するための画面をタッチパネルディスプレイ31に表示する。例えば、制御部5は、撮影プレイの開始を利用者に容認させるためのスタートボタンを含む画面をタッチパネルディスプレイ31に表示し、利用者に対して、一対の電子ペン40のいずれかにより当該スタートボタンをタッチさせる。これにより、制御部5は、撮影の開始を受け付けて、次のステップS202に処理を進める。なお、以下の処理では特に断りのない限り、いずれかの電子ペン40により、タッチパネルディスプレイ31をタッチすることで、撮影処理を進めることとする。したがって、以下では、「タッチ」との文言は、電子ペン40によるタッチを意味する。
(Step S200)
In step S <b> 200, the control unit 5 displays a screen for starting shooting on the touch panel display 31. For example, the control unit 5 displays a screen including a start button for allowing the user to start the shooting play on the touch panel display 31, and the user presses the start button with one of the pair of electronic pens 40. Touch. Thereby, the control part 5 receives the start of imaging | photography, and advances a process to following step S202. In the following process, unless otherwise specified, the touch panel display 31 is touched with any of the electronic pens 40 to advance the shooting process. Therefore, hereinafter, the term “touch” means a touch with the electronic pen 40.

(ステップS202)
ステップS202において、制御部5は、全身撮影を行うことの案内をタッチパネルディスプレイ31に表示した後、撮影を行う。例えば、カメラ32で全身の撮影を行うと、図7に示すような撮影画像(原画像)が生成される。しかしながら、撮影画像の周縁部は光学的に歪みが生じるおそれがあるため、周縁部を切り取り、ユーザが取得する画像の画像範囲を決定する。以下、この画像範囲に基づいて、ユーザが取得する画像を「ユーザ取得画像」と称することとする。例えば、図7の例では、点線がユーザ取得画像の輪郭となる。
(Step S202)
In step S <b> 202, the control unit 5 performs shooting after displaying guidance for performing whole body shooting on the touch panel display 31. For example, when the whole body is photographed by the camera 32, a photographed image (original image) as shown in FIG. 7 is generated. However, since the peripheral portion of the photographed image may be optically distorted, the peripheral portion is cut out and the image range of the image acquired by the user is determined. Hereinafter, an image acquired by the user based on the image range is referred to as a “user acquired image”. For example, in the example of FIG. 7, the dotted line is the contour of the user acquired image.

そして、図8に示すように、ライブ映像が表示された画面がタッチパネルディスプレイ31に表示される。このライブ画像は、ユーザ取得画像をクロマキー処理して抽出された被写体画像(あるいは撮影画像をクロマキー処理した後、ユーザ取得画像と対応するように周縁部を切り取った画像でもよい)と、ステップS110で選択された合成用画像とが合成された画像であり、以下、ユーザ取得合成画像と称することとする。ユーザは、ライブ映像を見ながら、適宜ポーズを取る。そして、カウントダウン72が行われた後、カメラ32により全身撮影が行われる。すなわち、ユーザ取得合成画像としての静止画が生成される。生成される静止画は、ライブ映像の表示範囲と同一の範囲の画像としてもよいし、当該ライブ映像の表示範囲に近似する範囲の画像としてもよい。ここでは、カウントダウンとともに、2回の撮影が行われる。生成された全身撮影に係る2枚のユーザ取得合成画像は、制御部5により、記憶部6に記憶される。なお、撮影回数は特には限定されず、2回以外でもよい。この点は、後述するアップ撮影でも同じである。   Then, as shown in FIG. 8, the screen on which the live video is displayed is displayed on the touch panel display 31. The live image may be a subject image extracted by performing chroma key processing on a user acquired image (or an image obtained by cutting a peripheral edge so as to correspond to the user acquired image after performing chroma key processing on a captured image), and in step S110. This is an image synthesized with the selected composition image, and is hereinafter referred to as a user-acquired composite image. The user pauses appropriately while watching the live video. Then, after the countdown 72 is performed, the whole body is photographed by the camera 32. That is, a still image as a user acquired composite image is generated. The generated still image may be an image in the same range as the display range of the live video, or may be an image in a range that approximates the display range of the live video. Here, two shots are taken along with the countdown. The generated two user-acquired composite images relating to the whole-body imaging are stored in the storage unit 6 by the control unit 5. Note that the number of times of photographing is not particularly limited, and may be other than twice. This is the same in up-shooting described later.

こうして全身撮影が行われると、これに続いて、顔付近が大きく写るように撮影を行うアップ撮影が行われるのであるが、本実施形態においては、アップ撮影におけるユーザ取得画像の画像範囲の初期設定を、全身撮影で取得された撮影画像(または、ユーザ取得画像)を用いて行う。以下、この設定方法について説明する。   When the whole body shooting is performed in this way, the up shooting is performed so that the vicinity of the face is enlarged, and in this embodiment, the initial setting of the image range of the user acquired image in the up shooting is performed. Is performed using a captured image (or a user acquired image) acquired by whole body imaging. Hereinafter, this setting method will be described.

本実施形態では、アップ撮影でのユーザ取得画像用に、3種類の画像範囲、つまり第1〜第3範囲の設定がなされている。図9に示すように、第1範囲は、大人を対象とした矩形状の画像範囲であり、撮影画像の上部に配置される。すなわち、この画像範囲には、主
として、大人の顔が含まれるように設定されている。第2範囲は、例えば、子供も含めるように設定された矩形状の画像範囲であり、身長が低い者も含むことができるように、第1範囲と大きさおよび縦横比は同じであるが、第1範囲よりも下側に配置されている。第3範囲は、子供と大人を含む多人数を含むことができるようにした画像範囲である。第3範囲の上下方向の位置は、上辺が第1範囲の上辺とほぼ一致し、下辺が第2範囲の下辺とほぼ一致する。第3範囲の縦横比は、第1範囲及び第2範囲の縦横比と同じとなっている。そのため、第3範囲の大きさは、第1範囲及び第2範囲の大きさよりも広くなっている。このような第1〜第3範囲により生成される画像が、本発明の撮影範囲候補画像に相当する。また、第1〜第3範囲により生成される画像のうちの、いずれか2つが、本発明の第1被写体画像及び第2被写体画像に相当する。
In the present embodiment, three types of image ranges, that is, first to third ranges are set for a user acquired image in up-shooting. As shown in FIG. 9, the first range is a rectangular image range intended for adults, and is arranged at the top of the captured image. That is, this image range is set so as to mainly include adult faces. The second range is, for example, a rectangular image range set to include children, and the size and aspect ratio are the same as the first range so that a person with a short height can also be included. It arrange | positions below the 1st range. The third range is an image range that can include a large number of people including children and adults. As for the vertical position of the third range, the upper side substantially coincides with the upper side of the first range, and the lower side substantially coincides with the lower side of the second range. The aspect ratio of the third range is the same as the aspect ratio of the first range and the second range. Therefore, the size of the third range is wider than the sizes of the first range and the second range. An image generated by such first to third ranges corresponds to a shooting range candidate image of the present invention. Further, any two of the images generated by the first to third ranges correspond to the first subject image and the second subject image of the present invention.

以上の3つの画像範囲は、次に説明するアップ撮影時にユーザが選択可能ではあるが、制御部5は、初期候補として、いずれかの画像範囲を予め設定しておく。この初期候補の決定方法は以下の通りである。   The above three image ranges can be selected by the user at the time of up-photographing described below, but the control unit 5 presets any one of the image ranges as an initial candidate. The method for determining this initial candidate is as follows.

まず、制御部5は、撮影画像から公知の顔認識技術で、撮影画像に含まれる被写体の顔を検出する。例えば、図9に示す全身撮影の撮影画像から、被写体の顔が認識されたとき、以下の基準で、初期候補の設定を行う。ここでの撮影画像とは、2回の全身撮影で取得された2枚の撮影画像及び2枚のユーザ取得画像のいずれか1枚の画像のことを指す。
(1) 認識された被写体画像の数が所定値N未満であり、認識された被写体の顔が、撮影画像内で基準線Lよりも上にしか存在しない場合には、第1範囲を初期候補とする。
(2) 認識された被写体画像の数が所定値N未満であり、認識された被写体の顔のうちの一つでも、撮影画像内で基準線Lよりも下に存在する場合には、第2範囲を初期候補とする。
(3) 認識された被写体の顔の数が、所定値N以上であれば、被写体の顔の位置にかかわらず、第3範囲を初期候補とする。
First, the control unit 5 detects a subject's face included in the captured image from the captured image using a known face recognition technique. For example, when the subject's face is recognized from the whole-body captured image shown in FIG. 9, initial candidates are set based on the following criteria. Here, the captured image refers to any one of two captured images and two user acquired images acquired by two whole body images.
(1) When the number of recognized subject images is less than the predetermined value N and the face of the recognized subject exists only above the reference line L in the captured image, the first range is set as an initial candidate. And
(2) If the number of recognized subject images is less than the predetermined value N and one of the recognized subject faces exists below the reference line L in the captured image, the second The range is the initial candidate.
(3) If the number of recognized subject faces is equal to or greater than a predetermined value N, the third range is set as an initial candidate regardless of the position of the subject face.

基準線Lは、種々の設定が可能であるが、例えば、撮影ブースの所定位置に立った場合の身長が135cmの人物(子供)を基準としたものとすることができる。すなわち、基準線Lよりも下に被写体の顔がある場合には、身長が135cm以下の人物が含まれていると判断することができる。第3範囲に係る被写体の顔の数は、例えば、N=5とすることができる。すなわち、5人以上の顔が検出された場合には、第3範囲を初期候補に設定することができる。そして、被写体の顔の数Nが5未満である場合には、上記(1)(2)の基準が優先される。なお、被写体の顔の数Nが0の場合は、一般的な範囲である第1範囲を初期候補とすることができる。   The reference line L can be set in various ways. For example, the reference line L may be based on a person (child) whose height is 135 cm when standing at a predetermined position in the photographing booth. That is, when the subject's face is below the reference line L, it can be determined that a person whose height is 135 cm or less is included. The number of faces of the subject related to the third range can be set to N = 5, for example. That is, when five or more faces are detected, the third range can be set as an initial candidate. If the number N of faces of the subject is less than 5, the above criteria (1) and (2) are prioritized. When the number N of the faces of the subject is 0, the first range that is a general range can be set as the initial candidate.

なお、初期候補として第3範囲を採用しない場合は、以下の基準で、初期候補の設定を行う。
(4) 認識された被写体の顔が、撮影画像内で基準線Lよりも上にしか存在しない場合、あるいは、顔の検出が失敗した場合には、第1範囲を初期候補とする。
(5) 認識された被写体の顔のうちの一つでも、撮影画像内で基準線Lよりも下に存在する場合には、第2範囲を初期候補とする。
If the third range is not adopted as the initial candidate, the initial candidate is set according to the following criteria.
(4) When the face of the recognized subject exists only above the reference line L in the captured image, or when face detection fails, the first range is set as an initial candidate.
(5) If even one of the recognized faces of the subject exists below the reference line L in the captured image, the second range is set as an initial candidate.

こうして、制御部5は、撮影画像から、アップ撮影におけるユーザ取得画像用の画像範囲の初期候補を決定し、記憶部6に記憶する。例えば、上記図9の例では、第2範囲が初期候補として設定され、次に説明するアップ撮影時の画像範囲となる。この処理は、上述したアップ撮影に係る処理と並行して行われる。なお、初期候補の決定を、1回目の全身撮影で取得された画像を用いて行う場合は、1回目の全身撮影で静止画像が取得された後に行うことができる。2回目の全身撮影で取得された画像を用いて行う場合は、2回目の全身撮影で静止画像が取得された後に行うことができる。1回目の全身撮影で得られた画像と、2回目の全身撮影で得られた画像のうち条件が良い方の画像(例えば、顔検出の成功率が高い方の画像)を用いて行う場合は、2回目の全身撮影で静止画像が取得された後に行うことができる。   In this way, the control unit 5 determines an initial candidate of the image range for the user acquired image in the up-shooting from the captured image and stores it in the storage unit 6. For example, in the example of FIG. 9 described above, the second range is set as an initial candidate, and becomes an image range at the time of up shooting described below. This process is performed in parallel with the process related to the up-shooting described above. Note that when the initial candidate is determined using an image acquired by the first whole body imaging, the initial candidate can be determined after the still image is acquired by the first whole body imaging. When performing using the image acquired by the 2nd whole body imaging | photography, it can carry out after a still image is acquired by the 2nd whole body imaging | photography. When using an image obtained by the first whole body imaging and an image having a better condition among the images obtained by the second whole body imaging (for example, an image having a higher face detection success rate) This can be done after the still image is acquired in the second whole body photographing.

(ステップS204及びS206)
次に、制御部5は、アップ撮影の処理を行う。すなわち、アップ撮影を行うことの案内をタッチパネルディスプレイ31に表示した後、画像範囲の設定を行う。すなわち、図10に示すように、アップ撮影の撮影画像(原画像)において、上述したように第2範囲が設定される。そして、第2範囲の画像が切り取られ、図11に示すような画面が、タッチパネルディスプレイ31に表示される。なお、図11に示す画面で示される画像は、上述した全身撮影時と同じく、ユーザ取得合成画像である。
(Steps S204 and S206)
Next, the control unit 5 performs an up shooting process. That is, after displaying guidance for performing up-shooting on the touch panel display 31, the image range is set. That is, as shown in FIG. 10, the second range is set as described above in the captured image (original image) of the up-shooting. Then, the image in the second range is cut out, and a screen as shown in FIG. 11 is displayed on the touch panel display 31. Note that the image shown on the screen shown in FIG. 11 is a user-acquired composite image, as in the case of whole body photography described above.

図11に示す画面には、ユーザ取得合成画像に対応するライブ映像78と、このライブ映像78が表示される領域の下方に第1〜第3範囲を選択するための3つの選択表示75と、が表示されている。3つの選択表示75は、第1〜第3範囲に対応する表示であり、第1範囲、第2範囲、及び第3範囲を、それぞれ示す表示として「立って撮影する」、「しゃがんで撮影する」、「グループで撮影する」と表示されている。   The screen shown in FIG. 11 includes a live video 78 corresponding to the user-acquired composite image, three selection displays 75 for selecting the first to third ranges below the area where the live video 78 is displayed, Is displayed. The three selection displays 75 are displays corresponding to the first to third ranges, and display the first range, the second range, and the third range, respectively, as “display standing” and “squatting and shooting”. ”And“ Shoot in groups ”are displayed.

そして、図11に示す画面に遷移したときには、これら3つの画像範囲のうち、ステップ202で決定された初期候補に対応するユーザ取得合成画像(初期候補画像)がライブ映像78として表示され、それに対応する選択表示75が強調されて表示される。強調とは、例えば、選択された選択表示の色やデザインを変えたり、枠を表示させるなどがある。図11の例では、初期候補として、第2範囲(しゃがんで撮影する)に対応するユーザ取得合成画像が表示されている。なお、図10の画面に先立って、3つの画像範囲を説明する画面を表示することもできる。   Then, when transitioning to the screen shown in FIG. 11, the user-acquired composite image (initial candidate image) corresponding to the initial candidate determined in step 202 is displayed as the live video 78 out of these three image ranges, and corresponding to it. The selection display 75 to be displayed is highlighted. Emphasis includes, for example, changing the color or design of the selected selection display, or displaying a frame. In the example of FIG. 11, a user-acquired composite image corresponding to the second range (capturing and shooting) is displayed as an initial candidate. Prior to the screen of FIG. 10, a screen explaining the three image ranges can be displayed.

そして、ユーザがいずれかの選択表示75をタッチすると、タッチされた選択表示75に対応するユーザ取得画像が、ライブ映像78として切り替え表示される。そして、選択を確定する場合には、OKボタン71をタッチする。したがって、OKボタン71がタッチされるまでは、いずれの画像範囲も選択することができる。また、所定時間内にOKボタン71がタッチされない場合には、その時点で選択されている画像範囲が、アップ撮影用の画像範囲として設定される。   When the user touches any selection display 75, the user acquired image corresponding to the touched selection display 75 is switched and displayed as a live video 78. Then, when confirming the selection, the OK button 71 is touched. Therefore, any image range can be selected until the OK button 71 is touched. If the OK button 71 is not touched within a predetermined time, the image range selected at that time is set as the image range for up shooting.

こうして、アップ撮影用のユーザ取得合成画像の範囲が決定されると、図12に示すように、選択された範囲に対応するライブ映像が表示された画面がタッチパネルディスプレイ31に表示される。そして、カウントダウン72が行われた後、カメラ32によりアップ撮影が行われる。すなわち、ユーザ取得合成画像としての静止画が生成される。なお、ここで生成する静止画像よりもライブ映像を低画質の画像とすることも可能であり、ライブ映像の表示に関する処理速度を向上させることができる。生成される静止画は、図12の画面にて表示されたライブ映像の表示範囲と同一の範囲の画像としてもよいし、当該ライブ映像の表示範囲に近似する範囲の画像としてもよい。ここでは、カウントダウンとともに、2回の撮影が行われる。生成されたアップ撮影に係る2枚のユーザ取得合成画像は、制御部5により、記憶部6に記憶される。   When the range of the user-acquired composite image for up-shooting is determined in this way, a screen on which live video corresponding to the selected range is displayed is displayed on the touch panel display 31, as shown in FIG. Then, after the countdown 72 is performed, the up shooting is performed by the camera 32. That is, a still image as a user acquired composite image is generated. Note that the live video can be a lower quality image than the still image generated here, and the processing speed related to the display of the live video can be improved. The generated still image may be an image in the same range as the display range of the live video displayed on the screen of FIG. 12, or may be an image in a range approximate to the display range of the live video. Here, two shots are taken along with the countdown. The generated two user-acquired composite images related to up-shooting are stored in the storage unit 6 by the control unit 5.

(ステップS208及びS210)
続いて、制御部5は、印刷されるシートの中で大きくする画像の選択を、ユーザに行わせる。すなわち、タッチパネルディスプレイ31には、図13に示すように、既に撮影した既に撮影したすべてのユーザ取得合成画像が表示され、この中から、シールの中で大きくする画像を選択する。そして、ユーザがいずれかの画像をタッチすると、タッチされた画像に選択枠79が表示される。そして、選択を確定する場合には、OKボタン71をタッチする。したがって、OKボタン71がタッチされるまでは、いずれの画像も選択することができる。これに続いて、制御部5は、ステップS108で選択されたテンプレート画像上に各ユーザ取得合成画像を配置してシート画像を生成する。テンプレート画像上のユーザ取得合成画像の配置位置は、ステップS212での選択結果に応じて決定される。次に、制御部5は、出力処理部55として動作し、プリンタ35を利用して決定されたシート画像を印刷シートに印刷する印刷処理を開始する。
(Steps S208 and S210)
Subsequently, the control unit 5 causes the user to select an image to be enlarged in the printed sheet. That is, as shown in FIG. 13, all the user-acquired composite images that have already been captured are displayed on the touch panel display 31, and an image to be enlarged in the sticker is selected from these images. When the user touches any image, a selection frame 79 is displayed on the touched image. Then, when confirming the selection, the OK button 71 is touched. Therefore, any image can be selected until the OK button 71 is touched. Subsequently, the control unit 5 generates a sheet image by arranging each user-acquired composite image on the template image selected in step S108. The arrangement position of the user acquired composite image on the template image is determined according to the selection result in step S212. Next, the control unit 5 operates as the output processing unit 55 and starts a printing process for printing the sheet image determined using the printer 35 on the print sheet.

(ステップS212及びS214)
続いて、制御部5は、印刷処理と並行してボーナス撮影の処理を行う。ステップS102の選択結果によって、印刷処理が完了するまでに必要な時間が異なる。1枚のシート画像を印刷するのに約90秒、2枚では約180秒の時間が必要となる。この時間を利用して、ボーナス撮影が行われる。ボーナス撮影の内容としては、上述のアップ撮影や全身撮影で取得可能な静止画や動画撮影等どのような撮影でもよい。
(Steps S212 and S214)
Subsequently, the control unit 5 performs a bonus photographing process in parallel with the printing process. The time required for completing the printing process differs depending on the selection result in step S102. It takes about 90 seconds to print one sheet image, and about 180 seconds for two sheets. Bonus shooting is performed using this time. The content of the bonus shooting may be any shooting such as still image or moving image shooting that can be acquired by the above-described up shooting or whole body shooting.

制御部5は、n(nは1以上の整数)回目のボーナス撮影が終了したことを検知すると、印刷処理の残り時間が所定時間以上か否かを判定する(ステップS214)。所定時間以上の場合は(ステップS214のYES)、n+1回目のボーナス撮影を行う(ステップS212)。所定時間未満の場合は(ステップS214のNO)、n+1回目のボーナス撮影は行わない。なお、ボーナス撮影が行われているときには、シート画像の印刷は既に始まっているため、ボーナス撮影で生成された画像は印刷されず、後述するようにサーバにアップロードして事後的にユーザが取得できるようにする。   When the control unit 5 detects that the n-th (n is an integer equal to or greater than 1) bonus shooting has been completed, the control unit 5 determines whether or not the remaining print processing time is equal to or longer than a predetermined time (step S214). If it is longer than the predetermined time (YES in step S214), the n + 1th bonus shooting is performed (step S212). If it is less than the predetermined time (NO in step S214), the (n + 1) th bonus shooting is not performed. Note that when the bonus shooting is performed, the printing of the sheet image has already started, so the image generated by the bonus shooting is not printed, and can be acquired later by uploading to the server as will be described later. Like that.

(ステップS216)
制御部5は、ステップS210で開始した印刷処理が完了したことに応じて、プリント処理が完了したことを示す案内をタッチパネルディスプレイ31に表示する。そして、制御部5は、シールを取出口36から排出する。ところで、シートを取出口36から取り忘れてしまう利用者がしばしば存在する。これを防止するための方法について以下に説明する。取出口36には、蓋が設けられているものと、蓋が設けられておらず、単に開口しているものがある。まずは、蓋が設けられているものについて説明する。この態様においては、蓋の開閉を検出する検出センサを設ける。そして、制御部5は、印刷処理完了後の所定時間内に蓋が開けられたか否かを検出する。蓋が開けられていない場合は、タッチパネルディスプレイ31およびスピーカ34を用いて、シートが排出されていることをユーザに通知するための画面表示および音声出力を行う。
(Step S216)
In response to the completion of the printing process started in step S <b> 210, the control unit 5 displays guidance on the touch panel display 31 indicating that the printing process has been completed. Then, the controller 5 removes the seal from the outlet 36. By the way, there are often users who forget to remove the sheet from the outlet 36. A method for preventing this will be described below. Some outlets 36 are provided with a lid, while others are not provided with a lid and are simply open. First, what is provided with a lid will be described. In this aspect, a detection sensor for detecting opening and closing of the lid is provided. Then, the control unit 5 detects whether or not the lid has been opened within a predetermined time after completion of the printing process. When the lid is not opened, the touch panel display 31 and the speaker 34 are used to perform screen display and audio output for notifying the user that the sheet has been discharged.

次のような方法でも同様の効果を得ることができる。まず、制御部5は、印刷終了後に、ディスプレイ31およびスピーカ34を用いて、シートが排出されていることをユーザに通知するための画面表示および音声出力を行う。続いて、取出口36の蓋の開閉を検出する。蓋が開いていることを検知すると、画面表示および音声出力を停止する。   The same effect can be obtained by the following method. First, after the printing is completed, the control unit 5 uses the display 31 and the speaker 34 to perform screen display and audio output for notifying the user that the sheet has been discharged. Subsequently, the opening / closing of the lid of the outlet 36 is detected. When it is detected that the lid is open, the screen display and audio output are stopped.

一方、蓋が設けられていないものの場合は、蓋の開閉を検知する代わりに、取出口36に手が入れられたか否かを検出するセンサを設け、それにより上記処理を行うようにしてもよい。   On the other hand, in the case where the lid is not provided, instead of detecting the opening / closing of the lid, a sensor for detecting whether or not a hand has been put in the outlet 36 may be provided, thereby performing the above processing. .

このとき、制御部5は、ステップS102で選択された枚数分のシールを印刷する。各画像を印刷したシールを取出口36から排出した後、制御部5は、利用者に対して、シールを取り出し、撮影空間10の外へ出るように促す案内をタッチパネルディスプレイ31に表示する。利用者は、当該案内に従って、プリントされたシールを取出口36から取り出し、撮影空間10から退出する。これにより、制御部5は、本動作例に係る撮影処理を
終了する。
At this time, the control unit 5 prints the number of stickers selected in step S102. After the sticker on which each image is printed is ejected from the outlet 36, the control unit 5 displays guidance on the touch panel display 31 urging the user to take out the sticker and go out of the imaging space 10. The user takes out the printed sticker from the outlet 36 according to the guide and exits the photographing space 10. Thereby, the control part 5 complete | finishes the imaging | photography process which concerns on this operation example.

<5.特徴>
以上のように、本実施形態によれば、アップ撮影において、ユーザの好みの画像範囲を設定することができる。例えば、被写体に子供が含まれる場合には、画像範囲を下方にずらしたユーザ取得画像を選択することができ、被写体が多人数である場合には、横方向に広いユーザ取得画像を選択することで、すべての被写体を含めることができる。したがって、ユーザの人数、身長等に合わせた画像を生成することができる。
<5. Features>
As described above, according to the present embodiment, the user's favorite image range can be set in up-shooting. For example, when the subject includes a child, a user acquired image whose image range is shifted downward can be selected. When the subject is a large number of people, a wide user acquired image can be selected in the horizontal direction. All subjects can be included. Therefore, it is possible to generate an image that matches the number of users, height, and the like.

また、ユーザ取得画像の画像範囲は、アップ撮影前に初期候補があらかじめ設定されている。この初期候補は、撮影画像から検出された被写体の顔の位置、顔の数から、撮影に最も適したものと制御部が判断したものである。したがって、例えば、アップ撮影時に、画像範囲の選択をユーザが忘れた場合であっても、適切な画像範囲によりアップ撮影を行うことができる。   Further, initial candidates are set in advance for the image range of the user acquired image before the up-shooting. This initial candidate is determined by the control unit as being most suitable for photographing from the face position and the number of faces of the subject detected from the photographed image. Therefore, for example, even when the user forgets to select an image range during up-shooting, up-shooting can be performed with an appropriate image range.

<6.変形例>
以上、本発明の一実施形態について説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<6. Modification>
As mentioned above, although one Embodiment of this invention was described, the above description is only the illustration of this invention in all the points. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. For example, the following changes are possible. In the following, the same reference numerals are used for the same components as in the above embodiment, and the description of the same points as in the above embodiment is omitted as appropriate. The following modifications can be combined as appropriate.

<6.1>
上記実施形態で示したユーザ取得画像の画像範囲は、一例であり、種々の大きさ、形状に設定することができる。また、画像範囲の候補として、2または4以上準備することもできる。さらに、上記実施形態では、アップ撮影時に画像範囲の選択が可能であったが、全身撮影時に同様の画像範囲の選択を行うようにすることもできる。
<6.1>
The image range of the user acquired image shown in the above embodiment is an example, and can be set to various sizes and shapes. Also, two or four or more image range candidates can be prepared. Furthermore, in the above embodiment, the image range can be selected at the time of up-shooting, but the same image range can be selected at the time of whole-body shooting.

<6.2>
また、上記実施形態のように、ユーザ取得画像の画像範囲を予め設定しておくほか、ユーザが設定できるようにすることもできる。例えば、アップ撮影において、ユーザ取得画像の画像範囲を設定する場合、図14に示すように、撮影画像の中にユーザ取得画像の基準画像範囲を設定しておく。そして、この基準画像範囲に基づいて、図15に示す画面において、ユーザが、ユーザ取得画像の画像範囲を設定できるようにする。すなわち、図14の上ボタン73、または下ボタン74をタッチすると、図14の撮影画像の中で基準画像範囲が上下に移動し、この範囲内のライブ映像が図15の画面に表示されるようになっている。一方、ズームアップボタン75、またはズームアウトボタン76をタッチすると、基準画像範囲が、図14に示す中心点を基準に拡大または縮小し、その範囲内のライブ映像77が図15の画面に表示されるようになっている。このとき、ズームアップ等のボタン73〜76をタッチしても、ライブ映像77の表示サイズは変更されない。なお、図14及び図15では、アップ撮影時の例を示したが、全身撮影に適用することもできる。また、中心点の位置は特には限定されず、適宜変更することができる。
<6.2>
In addition to setting the image range of the user acquired image in advance as in the above embodiment, the user can also set it. For example, when the image range of the user acquired image is set in up shooting, the reference image range of the user acquired image is set in the captured image as shown in FIG. Based on the reference image range, the user can set the image range of the user acquired image on the screen shown in FIG. That is, when the upper button 73 or the lower button 74 in FIG. 14 is touched, the reference image range moves up and down in the captured image in FIG. 14, and the live video in this range is displayed on the screen in FIG. It has become. On the other hand, when the zoom up button 75 or the zoom out button 76 is touched, the reference image range is enlarged or reduced with reference to the center point shown in FIG. 14, and a live video 77 within the range is displayed on the screen of FIG. It has become so. At this time, the display size of the live video 77 is not changed even if the zoom-up button 73 to 76 is touched. 14 and 15 show an example of up-shooting, but the present invention can also be applied to whole-body shooting. Further, the position of the center point is not particularly limited, and can be changed as appropriate.

<6.3>
画像範囲の選択の初期候補の設定は、全身撮影時に撮影画像を用いて行っているが、このような全身が写った撮影画像を用いることができるのであれば、初期候補の決定は、画像範囲の選択を行う前であれば、いつでも行うことができる。例えば、アップ撮影を先に行い、全身撮影をその後に行うように設定した場合、アップ撮影前に全身が映った撮影画像を取得し、初期候補を決定することができる。本実施形態に係る撮影装置では、全身撮影もアップ撮影も、カメラの撮影条件(焦点距離、画角など)を変えずに撮影を行っているため、いずれの撮影から取得されるユーザ取得画像も、全身が写った撮影画像からトリミングを行って生成される。したがって、上記のようにアップ撮影を先に行う場合でも、初期候補の設定は可能である。
<6.3>
The initial candidate for selection of the image range is set by using a captured image at the time of whole body imaging. If a captured image showing such a whole body can be used, the initial candidate is determined by the image range. This can be done at any time before making the selection. For example, when it is set that the up-shooting is performed first and the whole-body shooting is performed after that, a photographed image showing the whole body can be acquired before the up-shooting, and an initial candidate can be determined. In the photographing apparatus according to the present embodiment, since the whole body photographing and the up photographing are performed without changing the photographing conditions (focal length, angle of view, etc.) of the camera, the user acquired image obtained from any photographing is also available. The image is generated by performing trimming from a captured image showing the whole body. Therefore, the initial candidate can be set even when the up-shooting is performed first as described above.

しかしながら、全身撮影とアップ撮影でカメラの撮影条件が変る場合には、アップ撮影時に全身が写った撮影画像を取得することができない。したがって、この場合には、全身撮影を先に行って、その際に、全身が写った撮影画像から初期候補を決定する。あるいは、アップ撮影前に、初期候補を決定するための全身の撮影を別途行うこともでき、こうして取得した全身の画像から初期候補を決定することもできる。   However, when the shooting conditions of the camera change between whole body photography and up photography, it is not possible to acquire a photographed image showing the whole body during up photography. Therefore, in this case, whole body photography is performed first, and at that time, initial candidates are determined from a photographed image showing the whole body. Alternatively, whole body photography for determining an initial candidate can be separately performed before up-shooting, and the initial candidate can be determined from the whole body image thus obtained.

<6.4>
画像範囲の初期候補を決定するための条件は適宜設定することができる。上記実施形態では全身が写る撮影画像から、被写体の顔の位置、被写体の顔の数を本発明に係る被写体情報とし、これに基づいて、初期候補を決定しているが、被写体情報は、これ以外でもよい。例えば、被写体の人種から概ねの身長を特定し、画像範囲を決定してもよい。
<6.4>
Conditions for determining initial candidates for the image range can be set as appropriate. In the above embodiment, the position of the face of the subject and the number of faces of the subject are taken as subject information according to the present invention from the photographed image showing the whole body, and based on this, the initial candidate is determined. Other than that. For example, the image range may be determined by specifying an approximate height from the race of the subject.

また、ライブ映像から初期候補を決定することもできる。この場合、撮影を行う前のライブ映像から初期候補を決定することができる。例えば、4回の撮影が行われる場合、4回、初期候補をユーザの状態(被写体の顔の位置や顔の数等)に応じて自動的に変更することができる。   It is also possible to determine initial candidates from live video. In this case, the initial candidate can be determined from the live video before shooting. For example, when four times of shooting are performed, the initial candidate can be automatically changed four times according to the state of the user (the position of the face of the subject, the number of faces, etc.).

また、上記実施形態では、初期候補が決定された後に、図11に示すように、ユーザが任意に画像範囲を決定することができるが、この処理を省略することもできるすなわち、装置が決定した初期候補の画像範囲によりアップ撮影に係るユーザ取得画像(及びユーザ取得合成画像)を生成することもできる。   In the above embodiment, after the initial candidate is determined, as shown in FIG. 11, the user can arbitrarily determine the image range, but this process can be omitted, that is, the apparatus determines It is also possible to generate a user acquired image (and a user acquired composite image) related to up-shooting based on the initial candidate image range.

<6.5>
画像範囲を、合成用画像に基づいて決定することもできる。この点について、説明する。合成用画像は、被写体画像の前景及び背景の少なくとも一方を有するものであるが、例えば、図16(a)は被写体画像の背景を有する合成用画像を示している。一方、図16(b)は、被写体画像の前景を有する合成用画像を示している。すなわち、この合成用画像は、画像範囲の下辺に沿った波形のデザインを有している。しかしながら、この前景画像を合成用画像とした場合、被写体画像の位置によっては、図17(a)に示すように、被写体画像の一部が前景画像によって隠れてしまうおそれがある。特に身長の低い子供の場合は、この問題が生じる可能性がある。そこで、前景画像が含まれる合成用画像を選択した場合には、前景画像の位置によって、画像範囲を変更するように設定することができる。
<6.5>
The image range can also be determined based on the composition image. This point will be described. The composition image has at least one of the foreground and background of the subject image. For example, FIG. 16A shows a composition image having the background of the subject image. On the other hand, FIG. 16B shows a composition image having a foreground of the subject image. That is, the composition image has a waveform design along the lower side of the image range. However, when this foreground image is used as a composition image, depending on the position of the subject image, a part of the subject image may be hidden by the foreground image as shown in FIG. This problem can occur, especially for short children. Therefore, when a composition image including a foreground image is selected, the image range can be set to be changed depending on the position of the foreground image.

すなわち、上記実施形態では、アップ撮影時に3つの画像範囲を準備しているが、選択された合成用画像によって、予め決められている画像範囲を変更することができる。図17(a)は、一例として、第2範囲によるユーザ取得画像と合成用画像とを合成した画像を示しているが、例えば、図16(b)の合成用画像が選択された場合には、予め設定された第2範囲を、下方にずらすことができる。これにより、図17(b)に示すように、前景画像により被写体の一部が隠れるのを防止することができる。   That is, in the above embodiment, three image ranges are prepared at the time of up-shooting, but the predetermined image range can be changed by the selected composition image. FIG. 17A shows, as an example, an image obtained by synthesizing the user-acquired image and the synthesis image in the second range. For example, when the synthesis image in FIG. 16B is selected, The second range set in advance can be shifted downward. As a result, as shown in FIG. 17B, it is possible to prevent part of the subject from being hidden by the foreground image.

このように、第1〜第3範囲は、例えば、図9に示すような予め設定されている初期範囲以外に、選択された合成用画像に対応するように初期範囲からずらした調整画像範囲を準備することができる。なお、ずらす方向は上記のように、下方のみならず、上方、左右など、合成用画像に合わせて適宜設定することができる。例えば、合成用画像の上辺付近に前景が含まれる場合は、第2範囲を上方にずらし、合成用画像の右辺付近に前景が含まれる場合は、第2範囲を右方にずらす。ずらす量は、合成用画像を構成する該当の前景の縦幅あるいは横幅に応じて変更することもできる。上下にずらす場合は、前景の縦幅に応じてずらす量を決定し、左右にずらす場合は、前景の横幅に応じてずらす量を決定する。前景の横幅あるいは縦幅が長いほどずらす量を多くすることが好ましい。また、調整画像範囲は、単に初期範囲からずらしたものではなく、画像範囲の大きさや形状を合成用画像(前景および/または背景)に応じて変更してもよい。   As described above, the first to third ranges include, for example, an adjustment image range shifted from the initial range so as to correspond to the selected composition image other than the preset initial range as shown in FIG. Can be prepared. Note that, as described above, the shifting direction can be set as appropriate according to the image for synthesis, such as not only downward but also upward and left and right. For example, when the foreground is included near the upper side of the composition image, the second range is shifted upward, and when the foreground is included near the right side of the composition image, the second range is shifted to the right. The amount to be shifted can be changed according to the vertical width or horizontal width of the corresponding foreground constituting the compositing image. When shifting up and down, the amount of shifting is determined according to the vertical width of the foreground, and when shifting to the left and right, the amount of shifting is determined according to the width of the foreground. It is preferable to increase the amount of shift as the foreground width or height increases. Further, the adjusted image range is not simply shifted from the initial range, and the size and shape of the image range may be changed according to the composition image (foreground and / or background).

また、第1〜第3範囲のすべての画像範囲に対して、調整画像範囲を準備する必要はなく、例えば、調整が必要となる可能性が高い(身長の低い子供が写る可能性のある)第2範囲及び第3範囲のみ、調整画像範囲を準備しておくこともできる。また、図14に示すように、調整画像範囲をさらに調整することもできる。   Further, it is not necessary to prepare an adjustment image range for all the image ranges in the first to third ranges. For example, there is a high possibility that adjustment is necessary (a child with a short height may be captured). Only the second range and the third range can be prepared for the adjustment image range. Further, as shown in FIG. 14, the adjustment image range can be further adjusted.

<6.6>
上記実施形態では、ユーザ取得画像の画像範囲を選択させる画面(図11)において、ライブ映像を表示しているが、静止画を表示し、ここから画像範囲を選択させることもできる。静止画は、同じタイミングで画角の異なる複数の静止画像とすることもできるし、異なるタイミングで画角の異なる複数の静止画像とすることもできる。前者の場合は、一回の撮影で取得される原画から複数の異なる範囲の画像を抽出して複数の静止画像を得る。後者の場合は、複数回異なるトリミング範囲の撮影を行い複数の静止画像を得る。その後、撮影画面(図12)においては、選択した画像範囲に対応するライブ映像を表示した
上で、撮影を行うこともできる。
<6.6>
In the above embodiment, the live image is displayed on the screen (FIG. 11) for selecting the image range of the user acquired image. However, a still image can be displayed, and the image range can be selected from here. Still images can be a plurality of still images with different angles of view at the same timing, or can be a plurality of still images with different angles of view at different timings. In the former case, a plurality of still images are obtained by extracting a plurality of images in different ranges from the original image acquired by one shooting. In the latter case, a plurality of still images are obtained by photographing different trimming ranges a plurality of times. Then, on the shooting screen (FIG. 12), shooting can be performed after displaying a live video corresponding to the selected image range.

<6.7>
上記実施形態では、電子ペンにより、タッチパネルディスプレイ31をタッチすることで、入力を行っているが、指でタッチすることで入力を行ってよく、あるいは物理的なボタン等の入力部を設けて入力を行うこともできる。また、入力は、音声により行うこともできる。すなわち、ユーザが、操作指示を声を発することで行い、これを受信することで、制御部5が操作を行うこともできる。
<6.7>
In the above embodiment, input is performed by touching the touch panel display 31 with an electronic pen. However, input may be performed by touching with a finger, or an input unit such as a physical button is provided for input. Can also be done. Input can also be performed by voice. That is, the control unit 5 can also perform an operation by performing an operation instruction by uttering a voice and receiving the instruction.

<6.8>
上記実施形態では、撮影画像からユーザ取得画像のトリミングを行い、トリミング後の画像を選択画面(図11)に表示しているが、ユーザ取得画像の表示の態様はこれに限定されない。例えば、上記のようなトリミングを行うことなく、撮影画像の周囲をマスクし、ユーザ取得画像のみが表示されるように、撮影画像自体(またはその一部)を選択画面に表示することもできる。要するに、ユーザ取得画像で規定される画像範囲が画面に表示されればよい。なお、選択対象となるライブ映像としてユーザに見えている複数の画像の大きさは、すべて同じまたは略同一とすることができる。
<6.8>
In the above embodiment, the user-acquired image is trimmed from the captured image and the trimmed image is displayed on the selection screen (FIG. 11). However, the display mode of the user-acquired image is not limited to this. For example, the captured image itself (or a part thereof) can be displayed on the selection screen so that only the user-acquired image is displayed without masking the above-described trimming. In short, an image range defined by the user acquired image may be displayed on the screen. Note that the sizes of the plurality of images that are visible to the user as the live video to be selected can all be the same or substantially the same.

<6.9>
また、撮影画像から、トリミングやマスクによりユーザ取得画像を生成する以外に、例えば、物理的なカメラの向きの変更、あるいは光学的なズームアップ及びズームアウトにより、ユーザ取得画像の画像範囲を決めてもよい。すなわち、カメラによる撮影画像をユーザ取得画像とすることもできる。さらには、カメラの向きの変更、ズームアップ及びズームアウトと、トリミング及びマスクと、を混在してユーザ取得画像の画像範囲を設定することもできる。
<6.9>
In addition to generating a user-acquired image from a captured image by trimming or masking, the image range of the user-acquired image is determined by, for example, changing the orientation of a physical camera or optically zooming in and out. Also good. That is, an image captured by the camera can be used as a user acquired image. Furthermore, it is possible to set the image range of the user-acquired image by mixing camera orientation change, zoom-up and zoom-out, trimming and masking.

<6.10>
上記実施形態では、全身撮影とアップ撮影の2種類を行っているが、アップ撮影だけでもよい。
<6.10>
In the above embodiment, two types of whole body photographing and up photographing are performed, but only up photographing may be used.

<6.11>
上記実施形態に係る撮影装置では、出力処理部55が、シートの印刷を行うことで、ユーザ取得画像の出力を行っているが、シートや、ユーザ取得画像のデータを出力することもできる。この場合、電子データは、ユーザの携帯端末に直接送信したり、あるいは外部サーバに送信後、当該サーバからユーザがインターネットを介して取得することもできる。
<6.11>
In the photographing apparatus according to the above-described embodiment, the output processing unit 55 outputs a user acquired image by printing a sheet, but can output a sheet or data of a user acquired image. In this case, the electronic data can be directly transmitted to the user's portable terminal, or can be acquired from the server via the Internet after being transmitted to the external server.

<6.12>
上記実施形態に係る撮影装置においては、画像の編集を行うこともできる。すなわち、ユーザ取得画像やシートに対して、画像の編集作業を行うことができるようにしてもよい。
<6.12>
In the photographing apparatus according to the embodiment, an image can be edited. That is, an image editing operation may be performed on the user acquired image or sheet.

<6.13>
合成用画像が選択されなかった場合には、装置が自動で合成用画像を選択し、これを被写体画像に合成したユーザ取得合成画像を生成することもできる。
<6.13>
When the image for synthesis is not selected, the apparatus can automatically select the image for synthesis and generate a user-acquired composite image by combining it with the subject image.

<6.14>
上記実施形態では、ユーザ取得画像と合成用画像とを合成したユーザ取得合成画像をライブ映像または静止画として画面に表示しているが、合成用画像との合成前のユーザ取得画像を画面に表示することもできる。また、上記実施形態では、例えば、図11に示すように、複数の撮影範囲候補画像のうちの一つだけをライブ映像または静止画として画面に表示しているが、すべての撮影範囲候補画像を画面に表示して、その中から一つを選択させるようにしてもよい。
<6.14>
In the above embodiment, the user-acquired synthesized image obtained by synthesizing the user-acquired image and the image for synthesis is displayed on the screen as a live image or a still image. However, the user-acquired image before synthesis with the image for synthesis is displayed on the screen. You can also In the above embodiment, for example, as shown in FIG. 11, only one of a plurality of shooting range candidate images is displayed on the screen as a live image or a still image. However, all shooting range candidate images are displayed. You may make it display on a screen and make it select one from them.

<6.15>
上記実施形態では、初期候補に加え、他の画像範囲に係る画像も生成しているが、初期候補だけを生成することもできる。例えば、制御部が、第1〜第3範囲の中で、第2範囲が被写体に適した範囲であると制御部5が判断した場合、撮影画像(原画像)から抽出された第2範囲の画像に基づいてライブ映像または静止画(ユーザ取得合成画像)が生成される。このとき、第1範囲及び第3範囲に係るライブ映像または静止画は生成されない。
<6.15>
In the above embodiment, in addition to the initial candidates, images related to other image ranges are also generated, but only the initial candidates can be generated. For example, when the control unit 5 determines that the second range is a range suitable for the subject in the first to third ranges, the control unit 5 determines the second range extracted from the photographed image (original image). A live image or a still image (a user-acquired composite image) is generated based on the image. At this time, live video or still images related to the first range and the third range are not generated.

31…タッチパネルディスプレイ(入力部、表示部)
32…カメラ(撮影部)、
40…電子ペン(入力部)、
5…制御部、
61…プログラム
31 ... Touch panel display (input unit, display unit)
32 ... Camera (shooting unit),
40. Electronic pen (input unit),
5 ... control unit,
61 ... Program

Claims (3)

被写体を含む撮影画像を取得する撮影部と、
下部に所定の前景を有する第1合成用画像、及び前記第1合成用画像とは異なり、前記第1合成用画像の前記前景を含まない第2合成用画像を含む複数種類の合成用画像を記憶する記憶部と、
前記撮影画像から、その一部である第1取得画像または第2取得画像を抽出し、前記合成用画像と合成して合成画像を生成する画像生成部と、
を備え、
前記第1取得画像及び第2取得画像は、前記被写体を含み、
前記画像生成部は、
前記合成用画像が前記第1合成用画像である場合、前記第1合成用画像用に設定された範囲を前記撮影画像から抽出して前記第1取得画像を生成するとともに、当該第1取得画像と前記第1合成用画像とを合成し、
前記合成用画像が前記第2合成用画像である場合、前記第2合成用画像用に設定された範囲を前記撮影画像から抽出して前記第2取得画像を生成するとともに、当該第2取得画像と前記第2合成用画像とを合成し、
前記第1取得画像には、前記前景と対応するように、前記撮影画像における前記第2取得画像よりも下方の範囲が含まれている、撮影装置。
A shooting unit for acquiring a shot image including a subject;
The first synthetic image having a predetermined foreground at the bottom, and Unlike the first synthetic image, a plurality of types of combined images including the second synthetic image not including the foreground of the first synthesized image A storage unit for storing
An image generation unit that extracts a first acquired image or a second acquired image that is a part of the captured image and combines the extracted image with the image for synthesis;
With
The first acquired image and the second acquired image include the subject,
The image generation unit
When the composition image is the first composition image, a range set for the first composition image is extracted from the captured image to generate the first acquisition image, and the first acquisition image And the first image for synthesis,
When the composition image is the second composition image, a range set for the second composition image is extracted from the photographed image to generate the second acquisition image, and the second acquisition image And the second composition image,
The imaging device, wherein the first acquired image includes a range below the second acquired image in the captured image so as to correspond to the foreground .
被写体を含む撮影画像を取得するステップと、
下部に所定の前景を有する第1合成用画像、及び前記第1合成用画像とは異なり、前記第1合成用画像の前記前景を含まない第2合成用画像を含む複数種類の合成用画像のいずれかの選択を受け付けるステップと、
前記合成用画像として前記第1合成用画像が選択された場合、前記第1合成用画像用に設定された範囲を前記撮影画像から抽出して前記被写体を含む前記第1取得画像を生成するとともに、当該第1取得画像と前記第1合成用画像とを合成するステップと、
前記合成用画像として前記第2合成用画像が選択された場合、前記第2合成用画像用に設定された範囲を前記撮影画像から抽出して前記被写体を含む前記第2取得画像を生成するとともに、当該第2取得画像と前記第2合成用画像とを合成するステップと、
を備え、
前記第1取得画像には、前記前景と対応するように、前記撮影画像における前記第2取得画像よりも下方の範囲が含まれている、画像処理方法。
Obtaining a captured image including a subject;
The first synthetic image having a predetermined foreground at the bottom, and Unlike the first synthetic image, a plurality of types of combined images including the second synthetic image not including the foreground of the first synthesized image Accepting a selection of either
When the first composition image is selected as the composition image, a range set for the first composition image is extracted from the captured image to generate the first acquired image including the subject. Combining the first acquired image with the first composition image;
When the second composition image is selected as the composition image, a range set for the second composition image is extracted from the photographed image to generate the second acquired image including the subject. Combining the second acquired image and the second combining image;
With
The image processing method, wherein the first acquired image includes a range below the second acquired image in the captured image so as to correspond to the foreground .
コンピュータに、
被写体を含む撮影画像を取得するステップと、
下部に所定の前景を有する第1合成用画像、及び前記第1合成用画像とは異なり、前記第1合成用画像の前記前景を含まない第2合成用画像を含む複数種類の合成用画像のいずれかの選択を受け付けるステップと、
前記合成用画像として前記第1合成用画像が選択された場合、前記第1合成用画像用に設定された範囲を前記撮影画像から抽出して前記被写体を含む前記第1取得画像を生成するとともに、当該第1取得画像と前記第1合成用画像とを合成するステップと、
前記合成用画像として前記第2合成用画像が選択された場合、前記第2合成用画像用に設定された範囲を前記撮影画像から抽出して前記被写体を含む前記第2取得画像を生成するとともに、当該第2取得画像と前記第2合成用画像とを合成するステップと、
を備え、
前記第1取得画像には、前記前景と対応するように、前記撮影画像における前記第2取得画像よりも下方の範囲が含まれている、画像処理プログラム。
On the computer,
Obtaining a captured image including a subject;
The first synthetic image having a predetermined foreground at the bottom, and Unlike the first synthetic image, a plurality of types of combined images including the second synthetic image not including the foreground of the first synthesized image Accepting a selection of either
When the first composition image is selected as the composition image, a range set for the first composition image is extracted from the captured image to generate the first acquired image including the subject. Combining the first acquired image with the first composition image;
When the second composition image is selected as the composition image, a range set for the second composition image is extracted from the photographed image to generate the second acquired image including the subject. Combining the second acquired image and the second combining image;
With
The image processing program, wherein the first acquired image includes a range below the second acquired image in the captured image so as to correspond to the foreground .
JP2018051822A 2018-03-19 2018-03-19 Imaging apparatus, image processing method, and image processing program Active JP6493587B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018051822A JP6493587B1 (en) 2018-03-19 2018-03-19 Imaging apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018051822A JP6493587B1 (en) 2018-03-19 2018-03-19 Imaging apparatus, image processing method, and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018015978A Division JP2019134345A (en) 2018-01-31 2018-01-31 Photographing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP6493587B1 true JP6493587B1 (en) 2019-04-03
JP2019134396A JP2019134396A (en) 2019-08-08

Family

ID=65999163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018051822A Active JP6493587B1 (en) 2018-03-19 2018-03-19 Imaging apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6493587B1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4277504B2 (en) * 2002-10-15 2009-06-10 東洋製罐株式会社 Tube container with check valve
JP3444873B1 (en) * 2002-10-23 2003-09-08 株式会社メイクソフトウェア Photo vending machine, image input method, and image input program
JP4919031B2 (en) * 2006-08-25 2012-04-18 フリュー株式会社 Photo sticker creation apparatus and method, and program
JP5750961B2 (en) * 2011-03-22 2015-07-22 辰巳電子工業株式会社 Game shooting device, game shooting method, and program
JP2016058937A (en) * 2014-09-11 2016-04-21 辰巳電子工業株式会社 Image editing device for game, image editing method for game and computer program
JP6734629B2 (en) * 2015-03-26 2020-08-05 加賀デバイス株式会社 Photographing amusement machine and control program
JP6712047B2 (en) * 2016-05-25 2020-06-17 フリュー株式会社 Photo creation game machine and image generation method

Also Published As

Publication number Publication date
JP2019134396A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP7011206B2 (en) Amusement photography equipment, image processing equipment, and image processing methods
JP5018896B2 (en) PHOTOGRAPHIC PRINT DEVICE, PHOTOGRAPHIC PRINT DEVICE CONTROL METHOD, PHOTOGRAPHIC PRINT DEVICE CONTROL PROGRAM, AND COMPUTER READABLE RECORDING MEDIUM
JP4920175B2 (en) PHOTOGRAPHIC PRINT DEVICE, PHOTOGRAPHIC PRINT DEVICE CONTROL METHOD, PHOTOGRAPHIC PRINT DEVICE CONTROL PROGRAM, AND COMPUTER READABLE RECORDING MEDIUM
US9596376B2 (en) Photograph sticker creating apparatus, and a method of generating photograph sticker
JP5555924B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP6493587B1 (en) Imaging apparatus, image processing method, and image processing program
JP2023021174A (en) Imaging apparatus, imaging method, and imaging processing program
JP7014953B2 (en) Image processing device and image processing method
JP2019134345A (en) Photographing apparatus, image processing method, and image processing program
JP7021432B2 (en) Imaging equipment, image processing methods, and image processing programs
JP2004159158A (en) Method and device for providing photographic print
JP6582865B2 (en) Game shooting device, image editing method and program
JP2019012153A (en) Image acquisition system
JP2003107574A (en) Photography system
JP6201397B2 (en) Photo sticker creation apparatus and method, and program
JP6217013B2 (en) Photography game machine, photography game method and control program
JP5050746B2 (en) Photography editing method and photography editing apparatus
JP2006072611A (en) Picture print delivery device, method, and program
JP4317971B2 (en) Photo sticker vending machine, photo sticker creation method, and program
JP5998344B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP2020086109A (en) Imaging device, photographing game method, and photographing game method program
JP2002218454A (en) Automatic photograph vending machine
JP6468386B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
JP7009833B2 (en) Image printing system and image printing equipment
JP2022061920A (en) Photographing device, image forming method, image forming program, and photographing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180320

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180320

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R151 Written notification of patent or utility model registration

Ref document number: 6493587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250