JP7021432B2 - Imaging equipment, image processing methods, and image processing programs - Google Patents

Imaging equipment, image processing methods, and image processing programs Download PDF

Info

Publication number
JP7021432B2
JP7021432B2 JP2017170701A JP2017170701A JP7021432B2 JP 7021432 B2 JP7021432 B2 JP 7021432B2 JP 2017170701 A JP2017170701 A JP 2017170701A JP 2017170701 A JP2017170701 A JP 2017170701A JP 7021432 B2 JP7021432 B2 JP 7021432B2
Authority
JP
Japan
Prior art keywords
image
range
user
shooting
image range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017170701A
Other languages
Japanese (ja)
Other versions
JP2019045772A5 (en
JP2019045772A (en
Inventor
泰生 梶本
清範 山田
Original Assignee
辰巳電子工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 辰巳電子工業株式会社 filed Critical 辰巳電子工業株式会社
Priority to JP2017170701A priority Critical patent/JP7021432B2/en
Publication of JP2019045772A publication Critical patent/JP2019045772A/en
Publication of JP2019045772A5 publication Critical patent/JP2019045772A5/ja
Application granted granted Critical
Publication of JP7021432B2 publication Critical patent/JP7021432B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to a photographing device, an image processing method, and an image processing program.

従来、利用者をカメラで撮影することで得られた撮影画像を写真印刷シートとして出力したり、ネットワークを介して外部の装置に送信したりすることができる遊戯用撮影装置が知られている。このような遊戯用撮影装置では、写真の見栄えを良くするために、種々の編集作業が行えるようになっている。例えば、特許文献1には、目の大きさの変更、明るさの変更、落書きの追加等の編集が可能な遊戯用撮影装置が提案されている。 Conventionally, there are known amusement photography devices capable of outputting a photographed image obtained by photographing a user with a camera as a photograph printing sheet or transmitting the photographed image to an external device via a network. In such a play photography device, various editing operations can be performed in order to improve the appearance of the photograph. For example, Patent Document 1 proposes a game photographing device capable of editing such as changing the size of eyes, changing the brightness, and adding graffiti.

特開2017-038344号公報Japanese Unexamined Patent Publication No. 2017-038344

ところで、上記のような装置で撮影を行う場合には、カメラによる撮影範囲に依存して生成される画像の範囲が予め決まっているため、ユーザは、その撮影範囲内に入って撮影を行う必要がある。しかしながら、撮影に適した範囲は、被写体の数、身長などによるため、一意的に決めることはできない。そのため、従来の遊戯用撮影装置では、予め決められた撮影範囲にしたがうように、ユーザが立ち位置やポーズを変える必要があった。なお、このような問題は、遊戯用撮影装置に限られず、例えば、証明写真機を含む撮影装置全般に生じ得る問題である。 By the way, when shooting with the above-mentioned device, the range of the image generated depends on the shooting range of the camera is predetermined, so that the user needs to enter the shooting range and shoot. There is. However, the range suitable for shooting depends on the number of subjects, height, and the like, and cannot be uniquely determined. Therefore, in the conventional amusement shooting device, it is necessary for the user to change the standing position and the pose so as to follow a predetermined shooting range. It should be noted that such a problem is not limited to the amusement photography device, but may occur in all the photography devices including the ID photo machine, for example.

本発明は、上記問題を解決するためになされたものであり、生成される画像の範囲をユーザに合わせることができる、撮影装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a photographing device, an image processing method, and an image processing program capable of adjusting the range of generated images to a user. ..

本発明に係る撮影装置は、被写体を撮影する撮影部と、表示部と、複数の画像範囲の候補を、前記表示部に表示させる、制御部と、前記複数の候補の中から、一の候補の選択を受け付ける、入力部と、を備え、前記制御部は、選択された前記候補に基づいて、ユーザが取得する画像を生成するように構成されている。 The photographing apparatus according to the present invention is one candidate from the photographing unit for photographing a subject, the display unit, the control unit for displaying candidates for a plurality of image ranges on the display unit, and the plurality of candidates. The control unit includes an input unit that accepts the selection of the above, and the control unit is configured to generate an image to be acquired by the user based on the selected candidate.

本発明に係る画像処理方法は、前記撮影部は、前記被写体の全身を撮影する第1撮影モードと、前記被写体の顔を中心に撮影する第2撮影モードと、を備え、前記制御部は、前記第1撮影モード及び前記第2撮影モードのそれぞれにおいて、前記複数の画像候補を、前記表示部に表示させる、請求項1または2に記載の画像処理装置。 In the image processing method according to the present invention, the photographing unit includes a first photographing mode in which the whole body of the subject is photographed and a second photographing mode in which the face of the subject is mainly photographed. The image processing apparatus according to claim 1 or 2, wherein the plurality of image candidates are displayed on the display unit in each of the first shooting mode and the second shooting mode.

本発明に係る画像処理方法は、複数の画像範囲の候補を表示するステップと、前記複数の候補の中から、一の候補の選択を受け付けるステップと、選択された前記候補に基づいて、ユーザが取得する画像を生成するステップと、を備えている。 In the image processing method according to the present invention, a user can display a plurality of image range candidates, a step of accepting a selection of one candidate from the plurality of candidates, and a user based on the selected candidate. It has a step to generate an image to be acquired.

本発明に係る画像処理プログラムは、コンピュータに、複数の画像範囲の候補を表示するステップと、前記複数の候補の中から、一の候補の選択を受け付けるステップと、選択された前記候補に基づいて、ユーザが取得する画像を生成するステップと、を実行させる。 The image processing program according to the present invention is based on a step of displaying a plurality of image range candidates on a computer, a step of accepting the selection of one candidate from the plurality of candidates, and the selected candidate. , To generate the image to be acquired by the user, and to execute.

本発明によれば、生成される画像の範囲をユーザに合わせることができる。 According to the present invention, the range of the generated image can be adjusted to the user.

本発明の一実施形態に係る撮影装置(カーテンなし)の外観を示す斜視図である。It is a perspective view which shows the appearance of the photographing apparatus (without curtain) which concerns on one Embodiment of this invention. 図1Aの撮影装置(カーテンあり)の外観を示す斜視図である。It is a perspective view which shows the appearance of the photographing apparatus (with a curtain) of FIG. 1A. 図1の撮影装置の撮影ユニットの一例を例示する。An example of the photographing unit of the photographing apparatus of FIG. 1 is illustrated. 図1の撮影装置のハードウェア構成の一例を例示する。An example of the hardware configuration of the photographing apparatus shown in FIG. 1 is illustrated. 図1の撮影装置のソフトウェア構成の一例を例示する。An example of the software configuration of the photographing apparatus shown in FIG. 1 is illustrated. 撮影の依頼を受け付けるための処理手順の一例を例示する。An example of a processing procedure for accepting a shooting request will be illustrated. ユーザの撮影する処理手順の一例を例示する。An example of the processing procedure taken by the user is illustrated. 全身撮影におけるユーザ取得画像の画像範囲を説明する図である。It is a figure explaining the image range of the user acquisition image in the whole body photography. 全身撮影におけるユーザ取得画像の画像範囲の設定画面である。This is a screen for setting an image range of a user-acquired image in full-body photography. 全身撮影を行う画面である。This is a screen for full-body photography. アップ撮影におけるユーザ取得画像の画像範囲を説明する図である。It is a figure explaining the image range of the user acquired image in close-up photography. アップ撮影におけるユーザ取得画像の画像範囲の設定画面である。This is the screen for setting the image range of the user-acquired image in close-up shooting. アップ撮影を行う画面である。This is the screen for close-up shooting. アップ撮影におけるユーザ取得画像の画像範囲を説明する図である。It is a figure explaining the image range of the user acquired image in close-up photography. アップ撮影におけるユーザ取得画像の画像範囲の設定画面である。This is the screen for setting the image range of the user-acquired image in close-up shooting. 大きくする画像を選択する画面である。This is the screen for selecting the image to be enlarged. アップ撮影におけるユーザ取得画像の画像範囲の設定を説明する図である。It is a figure explaining the setting of the image range of the user acquired image in close-up photography. アップ撮影におけるユーザ取得画像の画像範囲の設定画面である。This is the screen for setting the image range of the user-acquired image in close-up shooting.

<1.撮影装置の概要>
以下、本実施形態に係る撮影装置について説明する。図1Aは、本実施形態に係る撮影装置100からカーテン13を取り除いた状態を示す斜視図、図1Bは、図1Aにおいてカーテン13を取り付けた状態を示す斜視図である。
<1. Overview of shooting equipment>
Hereinafter, the photographing apparatus according to the present embodiment will be described. 1A is a perspective view showing a state in which the curtain 13 is removed from the photographing apparatus 100 according to the present embodiment, and FIG. 1B is a perspective view showing a state in which the curtain 13 is attached in FIG. 1A.

図1A及び図1Bに示されるとおり、撮影装置100は、直方体状の筐体1を備えており、この筐体1の側面には、内部の撮影空間10に通じる出入口11が形成されている。この出入口11の上縁にはカーテンレール12が取り付けられており、このカーテンレール12には、カーテン13が取り付けられている。これにより、利用者が撮影を行う際には、カーテン13を閉じることで、撮影空間10を外部から見えないようにすると共に、外部から余計な光が撮影空間10に入らないようにすることができる。筐体1の内装において、後述するカメラ32が配置される面とは反対側の面(背面)等の撮影範囲には、クロマキー合成処理のための単一の色(例えば、青色、緑色等)が付される。単一の色が付される範囲は、撮影範囲の一部であってもよいし、全体であってもよい。 As shown in FIGS. 1A and 1B, the photographing apparatus 100 includes a rectangular parallelepiped housing 1, and an entrance / exit 11 leading to the internal photographing space 10 is formed on the side surface of the housing 1. A curtain rod 12 is attached to the upper edge of the doorway 11, and a curtain 13 is attached to the curtain rod 12. As a result, when the user takes a picture, the curtain 13 is closed so that the shooting space 10 cannot be seen from the outside and extra light does not enter the shooting space 10 from the outside. can. In the interior of the housing 1, a single color (for example, blue, green, etc.) for chroma key compositing processing is included in the shooting range such as the surface (rear surface) opposite to the surface on which the camera 32 is arranged, which will be described later. Is attached. The range to which a single color is applied may be a part or the whole of the shooting range.

筐体1の外壁の出入口11付近には、受付ユニット2が設けられている。受付ユニット2は、撮影装置100による写真撮影の依頼を受け付けるように構成される。一方、筐体1の内部(撮影空間10)において、撮影時に利用者が存在すべき位置の前方には、撮影ユニット3が設けられている。撮影ユニット3は、撮影空間10内の利用者を撮影し、得られた画像の編集を受け付け、編集された画像をプリントするように構成される。各ユニット(2、3)の構成の詳細は後述する。 A reception unit 2 is provided near the doorway 11 on the outer wall of the housing 1. The reception unit 2 is configured to receive a request for photography by the photographing device 100. On the other hand, in the inside of the housing 1 (shooting space 10), a shooting unit 3 is provided in front of a position where the user should be present at the time of shooting. The shooting unit 3 is configured to shoot a user in the shooting space 10, accept editing of the obtained image, and print the edited image. Details of the configuration of each unit (2, 3) will be described later.

<2.撮影装置のハードウェア構成>
次に、図2及び図3を更に用いて、本実施形態に係る撮影装置100のハードウェア構成について説明する。図2は、本実施形態に係る撮影装置100の撮影ユニット3を例示する。図3は、撮影装置100のハードウェア構成の一例を模式的に例示する。
<2. Hardware configuration of the shooting device>
Next, the hardware configuration of the photographing apparatus 100 according to the present embodiment will be described with reference to FIGS. 2 and 3. FIG. 2 illustrates the photographing unit 3 of the photographing apparatus 100 according to the present embodiment. FIG. 3 schematically illustrates an example of the hardware configuration of the photographing apparatus 100.

図3に示すように、本実施形態に係る撮影装置100は、受付ユニット2、撮影ユニット3、制御部5、記憶部6、通信インタフェース7、及びドライブ8が電気的に接続されたコンピュータである。なお、図3では、通信インタフェースを「通信I/F」と記載している。 As shown in FIG. 3, the photographing apparatus 100 according to the present embodiment is a computer to which the reception unit 2, the photographing unit 3, the control unit 5, the storage unit 6, the communication interface 7, and the drive 8 are electrically connected. .. In FIG. 3, the communication interface is described as "communication I / F".

制御部5は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。記憶部6は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部5で実行されるプログラム61等の各種データを記憶する。 The control unit 5 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and controls each component according to information processing. The storage unit 6 is, for example, an auxiliary storage device such as a hard disk drive or a solid state drive, and stores various data such as a program 61 executed by the control unit 5.

プログラム61は、写真撮影の依頼の受け付け、受け付けた依頼に応じた写真撮影、印刷を行うための処理を撮影装置100に実行させるためのプログラムである。この他、記憶部6には、各処理過程で利用される画面データ等が記憶される。詳細は後述する。 The program 61 is a program for causing the photographing apparatus 100 to execute a process for accepting a request for photography, taking a photograph in response to the received request, and printing. In addition, the storage unit 6 stores screen data and the like used in each processing process. Details will be described later.

通信インタフェース7は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。通信インタフェース7の種類は、撮影装置100の設置場所等に応じて適宜選択されてよい。撮影装置100は、通信インタフェース7を介して、外部サーバ等とデータ通信を行うことができる。 The communication interface 7 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. The type of the communication interface 7 may be appropriately selected depending on the installation location of the photographing apparatus 100 and the like. The photographing device 100 can perform data communication with an external server or the like via the communication interface 7.

ドライブ8は、例えば、CD(Compact Disk)ドライブ、DVD(Digital Versatile Disk)ドライブ等であり、記憶媒体(不図示)に記憶されたプログラムを読み込みための装置である。ドライブ8の種類は、記憶媒体の種類に応じて適宜選択されてよい。プログラム61は、記憶媒体に記憶されていてもよい。 The drive 8 is, for example, a CD (Compact Disk) drive, a DVD (Digital Versatile Disk) drive, or the like, and is a device for reading a program stored in a storage medium (not shown). The type of the drive 8 may be appropriately selected depending on the type of the storage medium. The program 61 may be stored in a storage medium.

記憶媒体は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、このプログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。この記憶媒体の一例として、例えば、CD、DVD、フラッシュメモリ等を挙げることができる。 The storage medium stores the information of the program or the like by electrical, magnetic, optical, mechanical or chemical action so that the information of the program or the like recorded by the computer or other device, the machine or the like can be read. It is a medium. As an example of this storage medium, for example, a CD, a DVD, a flash memory, or the like can be mentioned.

(受付ユニット)
受付ユニット2は、タッチパネルディスプレイ21、現金処理部22、カードリーダ23、及びスピーカ24を備えている。タッチパネルディスプレイ21は、筐体1の外側において、写真撮影を所望する利用者の目線範囲に入るように受付ユニット2本体のやや上方に配置される。タッチパネルディスプレイ21は、制御部5により制御されて、画面表示及び選択操作の受け付けを適宜行うことで、利用者からの撮影依頼に関する操作を受け付ける。このタッチパネルディスプレイ21の種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、タッチパネルディスプレイ21には、感圧式、赤外線式等のタイプを利用可能である。
(Reception unit)
The reception unit 2 includes a touch panel display 21, a cash processing unit 22, a card reader 23, and a speaker 24. The touch panel display 21 is arranged on the outside of the housing 1 slightly above the reception unit 2 main body so as to be within the line-of-sight range of the user who desires to take a picture. The touch panel display 21 is controlled by the control unit 5, and receives screen display and selection operations as appropriate to receive operations related to a shooting request from the user. The type of the touch panel display 21 is not particularly limited and may be appropriately selected according to the embodiment. For example, a pressure-sensitive type, an infrared type, or the like can be used for the touch panel display 21.

現金処理部22は、紙幣検証器(Bill Validator)220、現金投入口221及び現金排出口222を備えており、各種センサにより紙幣検証器220又は現金投入口221に対する紙幣又は現金(コイン)の投入を検知する。図1A及び図1Bに示すように、現金投入口221は、タッチパネルディスプレイ21の下方近傍に配置されており、現金排出口222は、現金投入口221よりも下方に配置されている。 The cash processing unit 22 includes a bill validator 220, a cash slot 221 and a cash discharge port 222, and inserts bills or cash (coins) into the bill verifier 220 or the cash slot 221 by various sensors. Is detected. As shown in FIGS. 1A and 1B, the cash input port 221 is arranged near the lower side of the touch panel display 21, and the cash discharge port 222 is arranged below the cash input port 221.

現金処理部22は、撮影に要する金額以上の現金が投入されたことを検出した場合に、当該検知を表わす起動信号を制御部5に出力する。また、現金処理部22は、撮影のキャンセル及び撮影に要する金額分より多い金額分の現金が投入された際に、該当金額分の現金を現金排出口222に排出する。 When the cash processing unit 22 detects that more cash than the amount required for shooting has been inserted, the cash processing unit 22 outputs an activation signal indicating the detection to the control unit 5. Further, when the cash processing unit 22 cancels the shooting and the amount of cash that is larger than the amount required for the shooting is inserted, the cash processing unit 22 discharges the cash corresponding to the corresponding amount to the cash discharge port 222.

カードリーダ23は、ICカード、クレジットカード等のカードの情報を読取可能に構成される。このカードリーダ23には、各種カードの情報を読取可能な公知のリーダが用いられてよい。本実施形態では、カードリーダ23は、現金投入口221の近傍に配置されている。カードリーダ23は、電子マネー、クレジットカード等による料金の支払いを受け付け、当該料金の支払いを受け付けた際には、そのことを表わす起動信号を制御部5に出力する。 The card reader 23 is configured to be able to read information on cards such as IC cards and credit cards. As the card reader 23, a known reader capable of reading information on various cards may be used. In the present embodiment, the card reader 23 is arranged in the vicinity of the cash slot 221. The card reader 23 accepts payment of charges by electronic money, credit card, etc., and when the payment of the charges is accepted, outputs an activation signal indicating that to the control unit 5.

(撮影ユニット)
図1A、図1B、及び図3に示すとおり、撮影ユニット3は、タッチパネルディスプレイ31、カメラ32、照明ユニット33、スピーカ34、及びプリンタ35を備えている。タッチパネルディスプレイ31は、本発明の「表示部」の一例であり、カメラ32は、本発明の「撮影部」の一例である。
(Shooting unit)
As shown in FIGS. 1A, 1B, and 3, the photographing unit 3 includes a touch panel display 31, a camera 32, a lighting unit 33, a speaker 34, and a printer 35. The touch panel display 31 is an example of the "display unit" of the present invention, and the camera 32 is an example of the "shooting unit" of the present invention.

タッチパネルディスプレイ31は、撮影ユニット3本体の前面パネルの中央に配置されており、タッチパネルディスプレイ31の上方には、写真撮影に利用されるカメラ32が配置されている。制御部5は、カメラ32による撮影を制御する。また、制御部5は、タッチパネルディスプレイ31の表示及びタッチパネルディスプレイ31に対する入力を制御する。タッチパネルディスプレイ31及びカメラ32の種類は、実施の形態に応じて適宜選択されてよい。 The touch panel display 31 is arranged in the center of the front panel of the main body of the photographing unit 3, and a camera 32 used for photography is arranged above the touch panel display 31. The control unit 5 controls shooting by the camera 32. Further, the control unit 5 controls the display of the touch panel display 31 and the input to the touch panel display 31. The types of the touch panel display 31 and the camera 32 may be appropriately selected according to the embodiment.

具体的には、カメラ32は、制御部5による制御に従って撮影を行い、撮影によって得られた画像をRAM又は記憶部6に記憶する。本実施形態では、撮影時に利用者の位置が概ね決まっているため、撮影時の利用者とカメラ32との距離が概ね決まっている。そのため、本実施形態に係るカメラ32の焦点距離は一定である。しかしながら、カメラ32の構成は、このような例に限られなくてもよく、ズームレンズを備えるカメラ32の場合は、カメラ32の焦点距離は、必要に応じて制御部5によって適切になるように制御されてもよい。なお、焦点距離の調整は、ズームレンズの外筒をカメラ32の外部から力を加えて回す機構が必要となる。制御部5は、この機構を制御することによりズームレンズの外筒を回す量を調整する。 Specifically, the camera 32 takes a picture under the control of the control unit 5, and stores the image obtained by the picture in the RAM or the storage unit 6. In the present embodiment, since the position of the user is generally determined at the time of shooting, the distance between the user and the camera 32 at the time of shooting is generally determined. Therefore, the focal length of the camera 32 according to the present embodiment is constant. However, the configuration of the camera 32 does not have to be limited to such an example, and in the case of the camera 32 provided with a zoom lens, the focal length of the camera 32 may be appropriately adjusted by the control unit 5 as necessary. It may be controlled. The adjustment of the focal length requires a mechanism for rotating the outer cylinder of the zoom lens by applying a force from the outside of the camera 32. The control unit 5 adjusts the amount of rotation of the outer cylinder of the zoom lens by controlling this mechanism.

タッチパネルディスプレイ31には、カメラ32により撮影された画像が表示される。制御部5は、所定のタイミングで、カメラ32により被写体(利用者)の静止画像を撮影する。また、カメラ32は、リアルタイムに画像を取り込んで、当該画像を表わすライブビュー用の画像信号を出力する。カメラ32から出力された画像信号は、制御部5のRAMに一時的に記憶されると共にタッチパネルディスプレイ31に送信される。これにより、タッチパネルディスプレイ31では、カメラ32により撮影された静止画像、当該画像信号に基づくライブ映像が表示される。 The image taken by the camera 32 is displayed on the touch panel display 31. The control unit 5 captures a still image of the subject (user) with the camera 32 at a predetermined timing. Further, the camera 32 captures an image in real time and outputs an image signal for live view representing the image. The image signal output from the camera 32 is temporarily stored in the RAM of the control unit 5 and transmitted to the touch panel display 31. As a result, the touch panel display 31 displays a still image taken by the camera 32 and a live image based on the image signal.

更に、タッチパネルディスプレイ31には、上記プログラム61に基づいて、撮影の案内を示す案内画面等が表示される。各画面では、選択操作等の操作入力が受け付けられる。制御部5は、各画面に対する操作入力を検知し、検知された操作入力に応じた処理を行う。 Further, the touch panel display 31 displays a guidance screen or the like showing shooting guidance based on the above program 61. Operation inputs such as selection operations are accepted on each screen. The control unit 5 detects the operation input for each screen and performs processing according to the detected operation input.

本実施形態では、タッチパネルディスプレイ31の両側には、各画面に対する操作入力を行うための操作デバイスとして、一対の電子ペン40が配置されている。各電子ペン40は、例えば、デジタイザを構成するペンである。これに応じて、タッチパネルディスプレイ31には、デジタイザを構成する公知のタッチパネルが積層されたディスプレイが用いられてよい。これにより、制御部5は、各電子ペン40を識別した上で、各電子ペン40による入力を検知することができる。 In the present embodiment, a pair of electronic pens 40 are arranged on both sides of the touch panel display 31 as operation devices for performing operation input for each screen. Each electronic pen 40 is, for example, a pen constituting a digitizer. Accordingly, as the touch panel display 31, a display on which known touch panels constituting the digitizer are laminated may be used. As a result, the control unit 5 can identify each electronic pen 40 and then detect the input by each electronic pen 40.

なお、各電子ペン40は、ケーブル41を介して、撮影ユニット3本体に連結されている。各ケーブル41の長さは、タッチパネルディスプレイ31の画面に各電子ペン40を接触可能に適宜決定されてよい。利用者は、各電子ペン40を利用することで、タッチパネルディスプレイ31に表示された各画面の操作を行うことができる。 Each electronic pen 40 is connected to the main body of the photographing unit 3 via a cable 41. The length of each cable 41 may be appropriately determined so that each electronic pen 40 can come into contact with the screen of the touch panel display 31. By using each electronic pen 40, the user can operate each screen displayed on the touch panel display 31.

照明ユニット33は、上部ストロボボックス331及び下部ストロボボックス332を備えている。図2に示すように、上部ストロボボックス331は、利用者側に向く曲面のカバー有しており、所定の取り付け部材を用いて、正面パネル(不図示)などに固定される。上部ストロボボックス331は内部に蛍光灯およびストロボ発光管を有し、正面上方から、利用者の顔付近にストロボ光を照射する。また、下部ストロボボックス332は、タッチパネルディスプレイ31の下側、写真プリントの取出口36の周囲に配置されている。下部ストロボボックス332の正面は垂直面を形成する板状部材により構成され、上面は急な斜面を形成する板状部材により構成される。板状部材は、乳白色のアクリル板などの透光性を有する板状部材である。下部ストロボボックス332もまた、内部に蛍光灯およびストロボ発光管を有する。また、各ストロボボックス(331、332)の蛍光灯は、制御部5により制御されて、電灯の発光量を調節することで、利用者の撮影処理の段階に応じて撮影空間10内の明るさを調節する。 The lighting unit 33 includes an upper strobe box 331 and a lower strobe box 332. As shown in FIG. 2, the upper strobe box 331 has a curved cover facing the user side, and is fixed to a front panel (not shown) or the like by using a predetermined mounting member. The upper strobe box 331 has a fluorescent lamp and a strobe arc tube inside, and irradiates the vicinity of the user's face with strobe light from above the front surface. Further, the lower strobe box 332 is arranged on the lower side of the touch panel display 31 and around the photographic print outlet 36. The front surface of the lower strobe box 332 is composed of a plate-shaped member forming a vertical surface, and the upper surface is composed of a plate-shaped member forming a steep slope. The plate-shaped member is a translucent plate-shaped member such as a milky white acrylic plate. The lower strobe box 332 also has a fluorescent lamp and a strobe arc tube inside. Further, the fluorescent lamps of each strobe box (331, 332) are controlled by the control unit 5, and by adjusting the amount of light emitted by the electric lamp, the brightness in the photographing space 10 is adjusted according to the stage of the photographing process of the user. To adjust.

スピーカ34及びプリンタ35は、撮影ユニット3本体に内蔵されている。スピーカ34は、制御部5による制御に従って、写真撮影の案内等の音声出力を行う。また、プリンタ35は、制御部5による制御に従って、撮影された画像又は編集済みの画像をプリントし、プリントした画像を取出口36に排出する。 The speaker 34 and the printer 35 are built in the main body of the photographing unit 3. The speaker 34 outputs voice such as guidance for taking a picture according to the control by the control unit 5. Further, the printer 35 prints the captured image or the edited image under the control of the control unit 5, and outputs the printed image to the outlet 36.

(その他)
なお、撮影装置100の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部5は、複数のプロセッサを含んでもよい。また、撮影装置100は、提供されるサービス専用に設計された情報処理装置の他、汎用のPC(Personal Computer)等であってもよい。
(others)
Regarding the specific hardware configuration of the photographing apparatus 100, it is possible to omit, replace, or add components as appropriate according to the embodiment. For example, the control unit 5 may include a plurality of processors. Further, the photographing apparatus 100 may be a general-purpose PC (Personal Computer) or the like, in addition to the information processing apparatus designed exclusively for the provided service.

<3.撮影装置のソフトウェア構成>
次に、図4を用いて、本実施形態に係る撮影装置100のソフトウェア構成の一例を説明する。図4は、本実施形態に係る撮影装置100のソフトウェア構成の一例を模式的に例示する。
<3. Software configuration of the shooting device>
Next, an example of the software configuration of the photographing apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 4 schematically illustrates an example of the software configuration of the photographing apparatus 100 according to the present embodiment.

撮影装置100の制御部5は、記憶部6に記憶されたプログラム61をRAMに展開する。そして、制御部5は、RAMに展開されたプログラム61をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示すように、本実施形態に係る撮影装置100は、ソフトウェアモジュールとして、受付部51、撮影処理部52、及び出力処理部55を備えるように構成される。 The control unit 5 of the photographing apparatus 100 expands the program 61 stored in the storage unit 6 into the RAM. Then, the control unit 5 controls each component by interpreting and executing the program 61 expanded in the RAM by the CPU. As a result, as shown in FIG. 5, the photographing apparatus 100 according to the present embodiment is configured to include a receiving unit 51, an imaging processing unit 52, and an output processing unit 55 as software modules.

受付部51は、撮影の依頼に関する操作画面を受付ユニット2のタッチパネルディスプレイ21に表示すると共に、当該タッチパネルディスプレイ21に対するタッチ操作による利用者の入力を受け付けて、その入力に応じた処理を実行する。これにより、受付部51は、利用者からの撮影の依頼、撮影、印刷に関する設定等を受け付ける。 The reception unit 51 displays an operation screen related to a shooting request on the touch panel display 21 of the reception unit 2, receives a user's input by a touch operation on the touch panel display 21, and executes a process according to the input. As a result, the reception unit 51 receives requests for shooting, shooting, settings related to printing, and the like from the user.

撮影処理部52は、撮影の案内を示す案内画面等をタッチパネルディスプレイ31に表示させると共に、カメラ32による撮影処理を実施する。これにより、撮影処理部52は、利用者(被写体)の写る画像を取得する。出力処理部55は、最終的に得られた画像を紙媒体に印刷し、印刷した画像を取出口36から出力する。また、出力処理部55は、生成された画像と共に外部サーバに送信する。 The shooting processing unit 52 displays a guidance screen or the like showing shooting guidance on the touch panel display 31, and performs shooting processing by the camera 32. As a result, the shooting processing unit 52 acquires an image in which the user (subject) is captured. The output processing unit 55 prints the finally obtained image on a paper medium, and outputs the printed image from the outlet 36. Further, the output processing unit 55 transmits the generated image to an external server together with the generated image.

撮影装置100の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、撮影装置100の各ソフトウェアモジュールがいずれも汎用のCPUにより実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のハードウェアプロセッサにより実現されてもよい。また、撮影装置100のソフトウェア構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。 Each software module of the photographing apparatus 100 will be described in detail in an operation example described later. In this embodiment, an example is described in which each software module of the photographing apparatus 100 is realized by a general-purpose CPU. However, some or all of the above software modules may be implemented by one or more dedicated hardware processors. Further, with respect to the software configuration of the photographing apparatus 100, the functions may be omitted, replaced, or added as appropriate according to the embodiment.

<4.撮影装置の動作例>
<4-1.撮影依頼の受け付けの処理手順>
次に、図5を用いて、本実施形態に係る撮影装置100による撮影依頼受付の処理手順について説明する。図5は、本実施形態に係る撮影装置100による撮影依頼受付の処理手順の一例を例示する。
<4. Operation example of the shooting device>
<4-1. Processing procedure for accepting shooting requests>
Next, with reference to FIG. 5, a processing procedure for receiving a shooting request by the shooting device 100 according to the present embodiment will be described. FIG. 5 illustrates an example of a processing procedure for receiving a shooting request by the shooting device 100 according to the present embodiment.

撮影装置100の制御部5は、受付部51として動作し、図5に示す処理手順に従って、撮影依頼の受付処理を行う。例えば、制御部5は、受付処理を開始するまでの間、受付ユニット2のタッチパネルディスプレイ21に広告等のデモ画面を表示し、タッチパネルディスプレイ21に対してタッチ操作されたことに応じて、以下の受付処理を開始する。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。 The control unit 5 of the photographing apparatus 100 operates as the receiving unit 51, and performs the acceptance processing of the imaging request according to the processing procedure shown in FIG. For example, the control unit 5 displays a demo screen such as an advertisement on the touch panel display 21 of the reception unit 2 until the reception process is started, and the following is performed according to the touch operation on the touch panel display 21. Start the reception process. The processing procedure described below is only an example, and each processing may be changed as much as possible. Further, with respect to the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS100)
ステップS100では、制御部5は、使用言語の種類を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、日本語、英語、中国語、韓国語等の各言語に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、使用言語の選択を受け付ける。記憶部6には、各使用言語に応じた画面データが記憶されており、制御部5は、本ステップ100及び次のステップS102以降の処理において、選択された使用言語に応じた画面を表示するとともに、選択言語に対応する音声をスピーカ24から出力する。使用言語の選択が完了すると、制御部5は、次のステップS102に処理を進める。
(Step S100)
In step S100, the control unit 5 displays a screen for selecting the type of language to be used on the touch panel display 21. For example, the control unit 5 displays buttons corresponding to each language such as Japanese, English, Chinese, and Korean on the touch panel display 21, and causes the user to touch any of the buttons. As a result, the control unit 5 accepts the selection of the language to be used. The storage unit 6 stores screen data corresponding to each language used, and the control unit 5 displays a screen corresponding to the selected language used in the processes of this step 100 and the next step S102 and subsequent steps. At the same time, the sound corresponding to the selected language is output from the speaker 24. When the selection of the language to be used is completed, the control unit 5 proceeds to the next step S102.

(ステップS102)
ステップS102では、制御部5は、印刷枚数を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、1枚、2枚等の印刷枚数に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、印刷枚数の選択を受け付ける。印刷枚数の選択が完了すると、制御部5は、次のステップS104に処理を進める。
(Step S102)
In step S102, the control unit 5 displays a screen for selecting the number of prints on the touch panel display 21. For example, the control unit 5 displays a button corresponding to the number of printed sheets such as one sheet and two sheets on the touch panel display 21, and causes the user to touch one of the buttons. As a result, the control unit 5 accepts the selection of the number of prints. When the selection of the number of prints is completed, the control unit 5 proceeds to the next step S104.

(ステップS104)
ステップS104では、制御部5は、ステップS102の選択結果に基づく金額とともに、決済方法を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、クレジットカード、ICカード、現金等の各決済方法に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、決済方法の選択を受け付ける。決済方法の選択が完了すると、制御部5は、次のステップS106に処理を進める。
(Step S104)
In step S104, the control unit 5 displays on the touch panel display 21 a screen for selecting a payment method together with the amount of money based on the selection result of step S102. For example, the control unit 5 displays buttons corresponding to each payment method such as a credit card, an IC card, and cash on the touch panel display 21, and causes the user to touch any of the buttons. As a result, the control unit 5 accepts the selection of the payment method. When the selection of the payment method is completed, the control unit 5 proceeds to the next step S106.

(ステップS106)
ステップS106では、制御部5は、ステップS104で選択された決済方法に対応する決済画面をタッチパネルディスプレイ21に表示する。これにより、制御部5は、ステップS104で選択された決済方法による決済を受け付ける。
(Step S106)
In step S106, the control unit 5 displays the payment screen corresponding to the payment method selected in step S104 on the touch panel display 21. As a result, the control unit 5 accepts payment by the payment method selected in step S104.

現金での決済を選択した場合、利用者は、決済画面に指定された料金を現金投入口221に投入する。指定の料金(ステップS104の選択結果に基づく料金)分の現金又はそれ以上の現金が投入されると、現金処理部22は、上記起動信号を制御部5に出力する。他方、クレジットカード又はICカードでの決済を選択した場合、利用者は、対応するカードをカードリーダ23に読み込ませる。対応するカードを読み取ると、カードリーダ23は、上記起動信号を制御部5に出力する。制御部5は、これらの起動信号を受信した後、次のステップS108に処理を進める。 When payment by cash is selected, the user inputs the charge specified on the payment screen into the cash slot 221. When cash for a specified charge (charge based on the selection result in step S104) or more cash is inserted, the cash processing unit 22 outputs the activation signal to the control unit 5. On the other hand, when payment by credit card or IC card is selected, the user causes the card reader 23 to read the corresponding card. When the corresponding card is read, the card reader 23 outputs the activation signal to the control unit 5. After receiving these activation signals, the control unit 5 proceeds to the next step S108.

(ステップS108)
ステップS108では、制御部5は、印刷するシールのデザインを選択させる画面をタッチパネルディスプレイ21に表示する。各デザインは、記憶部6に記憶されていてもよいし、ネットワークを介してNAS(Network Attached Storage)等の他の情報処理装置からダウンロードされてもよい。各デザインは、クロマキー合成処理により被写体に係る画像の背景として合成する背景デザイン、及びシール内に撮影画像を配置する配置デザインを規定する。
(Step S108)
In step S108, the control unit 5 displays a screen on the touch panel display 21 for selecting the design of the sticker to be printed. Each design may be stored in the storage unit 6 or may be downloaded from another information processing device such as NAS (Network Attached Storage) via a network. Each design defines a background design for compositing as a background of an image related to a subject by chroma key compositing processing, and an arrangement design for arranging a photographed image in a sticker.

制御部5は、例えば、各デザインのサムネイルをタッチパネルディスプレイ21に表示し、いずれかのサムネイルを利用者にタッチさせる。これにより、制御部5は、印刷するシールのデザインの選択を受け付ける。デザインの選択が完了すると、制御部5は、次のステップS112に処理を進める。 For example, the control unit 5 displays thumbnails of each design on the touch panel display 21 and causes the user to touch one of the thumbnails. As a result, the control unit 5 accepts the selection of the design of the sticker to be printed. When the design selection is completed, the control unit 5 proceeds to the next step S112.

(ステップS110及びS112)
ステップS110では、制御部5は、撮影ユニット3が利用可能となるまでの間、撮影ユニット3による撮影の案内、広告等のデモ画面をタッチパネルディスプレイ21に表示する。
(Steps S110 and S112)
In step S110, the control unit 5 displays a demo screen such as a shooting guide and an advertisement by the shooting unit 3 on the touch panel display 21 until the shooting unit 3 becomes available.

本動作例に係る受付処理により撮影の依頼を行っている対象の利用者よりも前に、撮影装置100を利用する利用者が存在する場合、対象の利用者が本ステップS110に到達した時点で、前の利用者が未だ撮影ユニット3による撮影処理を行っている可能性がある。制御部5は、この前の利用者が撮影ユニット3を占有している間、対象の利用者を筐体1の外側で待機させるために、本ステップS112によりデモ画面を表示する。なお、前の利用者が存在せず、又は前の利用者の撮影が完了しており、撮影ユニット3が直ちに利用可能な場合には、制御部5は、本ステップS110の処理を省略してもよい。 If there is a user who uses the photographing apparatus 100 before the target user who requests the photographing by the reception process according to this operation example, when the target user reaches the step S110. There is a possibility that the previous user is still performing the shooting process by the shooting unit 3. The control unit 5 displays a demo screen in this step S112 in order to make the target user stand by outside the housing 1 while the previous user occupies the photographing unit 3. If the previous user does not exist, or if the shooting of the previous user has been completed and the shooting unit 3 can be used immediately, the control unit 5 omits the process of this step S110. May be good.

次のステップS112では、制御部5は、撮影空間10への移動案内をタッチパネルディスプレイ21に表示し、撮影の依頼を行っていた利用者に対して撮影空間10内に移動するように促す。これにより、制御部5は、本動作例に係る受付処理を終了する。 In the next step S112, the control unit 5 displays a movement guide to the shooting space 10 on the touch panel display 21 and urges the user who has requested the shooting to move into the shooting space 10. As a result, the control unit 5 ends the reception process according to this operation example.

なお、各ステップで表示される画面には、一つ前のステップに戻ったり、最初のステップS100に戻ったりするためのボタンが設けられてもよい。これにより、利用者は、受付処理を所望のステップに戻したり、撮影の依頼をキャンセルしたりすることができる。 The screen displayed in each step may be provided with a button for returning to the previous step or returning to the first step S100. As a result, the user can return the reception process to a desired step or cancel the shooting request.

<4-2.撮影の処理手順>
次に、図6を用いて、本実施形態に係る撮影装置100による撮影の処理手順について説明する。図6は、本実施形態に係る撮影装置100による撮影の処理手順の一例を例示する。
<4-2. Shooting processing procedure>
Next, with reference to FIG. 6, a processing procedure for photographing by the photographing apparatus 100 according to the present embodiment will be described. FIG. 6 illustrates an example of a shooting processing procedure by the shooting device 100 according to the present embodiment.

撮影装置100の制御部5は、上記受付処理が完了したことに応じて、撮影処理部52として動作し、図6に示す撮影処理を開始する。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。 The control unit 5 of the photographing apparatus 100 operates as the photographing processing unit 52 in response to the completion of the reception process, and starts the photographing process shown in FIG. The processing procedure described below is only an example, and each processing may be changed as much as possible. Further, with respect to the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS200)
ステップS200では、制御部5は、撮影を開始するための画面をタッチパネルディスプレイ31に表示する。例えば、制御部5は、撮影プレイの開始を利用者に容認させるためのスタートボタンを含む画面をタッチパネルディスプレイ31に表示し、利用者に対して、一対の電子ペン40のいずれかにより当該スタートボタンをタッチさせる。これにより、制御部5は、撮影の開始を受け付けて、次のステップS202に処理を進める。なお、以下の処理では特に断りのない限り、いずれかの電子ペン40により、タッチパネルディスプレイ31をタッチすることで、撮影処理を進めることとする。したがって、以下では、「タッチ」との文言は、電子ペン40によるタッチを意味する。
(Step S200)
In step S200, the control unit 5 displays a screen for starting shooting on the touch panel display 31. For example, the control unit 5 displays a screen including a start button for allowing the user to start the shooting play on the touch panel display 31, and the start button is used by one of the pair of electronic pens 40 for the user. To touch. As a result, the control unit 5 accepts the start of shooting and proceeds to the next step S202. In the following processing, unless otherwise specified, the shooting process is advanced by touching the touch panel display 31 with any of the electronic pens 40. Therefore, in the following, the word "touch" means a touch by the electronic pen 40.

(ステップS202及びS204)
ステップS202において、制御部5は、全身撮影(第1撮影モード)を行うことの案内をタッチパネルディスプレイ31に表示した後、画像範囲の設定を行う。例えば、カメラ32で全身の撮影を行うと、図7に示すような撮影画像(原画)が生成される。しかしながら、撮影画像の周縁部は光学的に歪みが生じるおそれがあるため、周縁部を切り取り、ユーザが取得する画像の画像範囲を決定する。以下、この画像範囲に基づいて、ユーザが取得する画像を「ユーザ取得画像」と称することとする。
(Steps S202 and S204)
In step S202, the control unit 5 sets the image range after displaying the guidance for performing the whole body photographing (first photographing mode) on the touch panel display 31. For example, when the whole body is photographed by the camera 32, a photographed image (original image) as shown in FIG. 7 is generated. However, since the peripheral portion of the captured image may be optically distorted, the peripheral portion is cut off to determine the image range of the image acquired by the user. Hereinafter, the image acquired by the user based on this image range will be referred to as a "user acquired image".

図7の例では、全身撮影に際しての、ユーザ取得画像用の2つの画像範囲の候補を示している。すなわち、撮影画像の中で、標準的な範囲を示す矩形状の第1範囲と、この第1範囲よりも広い矩形状の第2範囲とが示されている。撮影空間10内でのユーザの立つ位置はほぼ同じであるため、第1範囲及び第2範囲の下辺の上下方向の位置は同じである。また、第1範囲及び第2範囲の縦横比は同じである。 In the example of FIG. 7, two image range candidates for a user-acquired image are shown for whole-body photography. That is, in the captured image, a rectangular first range showing a standard range and a rectangular second range wider than this first range are shown. Since the position where the user stands in the shooting space 10 is almost the same, the positions of the lower sides of the first range and the second range in the vertical direction are the same. Further, the aspect ratios of the first range and the second range are the same.

このように設定された第1範囲及び第2範囲は、図8に示す画面に表示される。図8の例では、図7で示した撮影画像から、第1範囲及び第2範囲を輪郭とする各画像、つまりユーザ取得画像がトリミングされて同時に表示されている。ここでは、第1範囲の画像が「標準」と称され、第2範囲の画像が「広め」と称されている。図8に示すように、「広め」は、範囲が広いため、大人数での撮影に適している。このとき、図8の画面に示される、第1範囲の画像及び第2範囲の画像は、カメラ32で撮影されているライブビューである。第1範囲の画像及び第2範囲の画像は、同じか略同じサイズで表示される。なお、図7は、ユーザ取得画像を説明するための図であり、タッチパネルディスプレイ31には表示されず、図8の画面がタッチパネルディスプレイ31に表示される。 The first range and the second range set in this way are displayed on the screen shown in FIG. In the example of FIG. 8, from the captured image shown in FIG. 7, each image having the first range and the second range as contours, that is, the user-acquired image is trimmed and displayed at the same time. Here, the image in the first range is referred to as "standard" and the image in the second range is referred to as "wide". As shown in FIG. 8, "wide" has a wide range and is suitable for shooting with a large number of people. At this time, the image of the first range and the image of the second range shown on the screen of FIG. 8 are live views taken by the camera 32. The image in the first range and the image in the second range are displayed in the same or substantially the same size. Note that FIG. 7 is a diagram for explaining a user-acquired image, and is not displayed on the touch panel display 31, but the screen of FIG. 8 is displayed on the touch panel display 31.

そして、ユーザが「標準」または「広め」のいずれかの画像をタッチすると、タッチされた画像に、選択中であることを示す選択枠78が表示される。そして、画像の選択を確定する場合には、OKボタン71をタッチする。したがって、OKボタン71がタッチされるまでは、「標準」または「広め」のいずれの画像も選択することができる。なお、図8の画面には、制限時間が設けられており、制限時間中にOKボタン71がタッチされなかった場合は、選択枠78が表示された画像を、ユーザが選択したものとして確定する。続いて、確定された画像に対応する範囲の静止画像を取得するための撮影を行う。 Then, when the user touches either a "standard" or "wide" image, a selection frame 78 indicating that the image is being selected is displayed on the touched image. Then, when confirming the selection of the image, the OK button 71 is touched. Therefore, either "standard" or "wide" images can be selected until the OK button 71 is touched. The screen of FIG. 8 has a time limit, and if the OK button 71 is not touched during the time limit, the image in which the selection frame 78 is displayed is confirmed as selected by the user. .. Subsequently, shooting is performed to acquire a still image in a range corresponding to the confirmed image.

こうして、全身撮影用のユーザ取得画像の範囲が決定されると、図9に示すように、選択された範囲に対応するライブビューが表示された画面がタッチパネルディスプレイ31に表示される。このライブビューは、図8に示された各ライブビューよりも大きいサイズで表示される。ユーザは、この範囲の中で、ライブビューを見ながら、適宜ポーズを取る。そして、カウントダウン72が行われた後、カメラ32により全身撮影が行われる。すなわち、ユーザ取得画像としての静止画が生成される。生成される静止画は、図8の画面にて表示されたライブビュー像の表示範囲と同一の範囲の画像としてもよいし、当該ライブビュー像の表示範囲に近似する範囲の画像としてもよい。ここでは、カウントダウンとともに、2回の撮影が行われる。 When the range of the user-acquired image for full-body photography is determined in this way, as shown in FIG. 9, a screen displaying the live view corresponding to the selected range is displayed on the touch panel display 31. This live view is displayed in a larger size than each live view shown in FIG. Within this range, the user poses as appropriate while watching the live view. Then, after the countdown 72 is performed, the whole body is photographed by the camera 32. That is, a still image as a user-acquired image is generated. The generated still image may be an image having the same range as the display range of the live view image displayed on the screen of FIG. 8, or an image having a range close to the display range of the live view image. Here, along with the countdown, two shots are taken.

(ステップS206及びS208)
次に、制御部5は、アップ撮影(第2撮影モード)の処理を行う。すなわち、アップ撮影を行うことの案内をタッチパネルディスプレイ31に表示した後、画像範囲の設定を行う。例えば、図10には、全身撮影で「標準」を選択したときの、ユーザ取得画像の3つの画像範囲の候補が示されている。3つの候補は、いずれも矩形状で同じ大きさであるが、上下方向の位置が相違している。ここでは、上下方向に上から下へ、第1範囲、第2範囲、及び第3範囲が示されている。
(Steps S206 and S208)
Next, the control unit 5 performs a close-up shooting (second shooting mode) process. That is, after displaying the guidance for performing close-up shooting on the touch panel display 31, the image range is set. For example, FIG. 10 shows three image range candidates for a user-acquired image when "standard" is selected for full-body imaging. The three candidates are all rectangular and have the same size, but their positions in the vertical direction are different. Here, the first range, the second range, and the third range are shown from top to bottom in the vertical direction.

このように設定された第1~第3範囲は、図11に示す選択画面に表示される。図11の例では、図10で示した撮影画像から、第1~第3範囲を輪郭とする各画像がトリミングされて同時に表示されている。ここでは、第1~第3範囲の画像が、左から右へ並ぶように配置されている。このとき、図11の画面に示される、第1~第3範囲の画像は、カメラ32で撮影されているライブビューである。これらの第1~第3範囲の画像は、同じか略同じサイズで表示される。なお、図10は、ユーザ取得画像を説明するための図であり、タッチパネルディスプレイ31には表示されず、図11の画面がタッチパネルディスプレイ31に表示される。 The first to third ranges set in this way are displayed on the selection screen shown in FIG. In the example of FIG. 11, each image having the first to third ranges as contours is trimmed from the captured image shown in FIG. 10 and displayed at the same time. Here, the images in the first to third ranges are arranged so as to be arranged from left to right. At this time, the images in the first to third ranges shown on the screen of FIG. 11 are live views taken by the camera 32. The images in the first to third ranges are displayed in the same or substantially the same size. Note that FIG. 10 is a diagram for explaining a user-acquired image, and is not displayed on the touch panel display 31, but the screen of FIG. 11 is displayed on the touch panel display 31.

そして、ユーザがいずれかの画像をタッチすると、タッチされた画像の周りに選択枠78が表示される。そして、選択を確定する場合には、OKボタン71をタッチする。したがって、OKボタン71がタッチされるまでは、いずれの画像も選択することができる。 Then, when the user touches any of the images, the selection frame 78 is displayed around the touched image. Then, when confirming the selection, the OK button 71 is touched. Therefore, any image can be selected until the OK button 71 is touched.

こうして、アップ撮影用のユーザ取得画像の範囲が決定されると、図12に示すように、選択された範囲に対応するライブビューが表示された画面がタッチパネルディスプレイ31に表示される。このライブビューは、図11に示された各ライブビューよりも大きいサイズで表示される。そして、カウントダウン72が行われた後、カメラ32によりアップ撮影が行われる。すなわち、ユーザ取得画像としての静止画が生成される。生成される静止画は、図12の画面にて表示されたライブビュー像の表示範囲と同一の範囲の画像としてもよいし、当該ライブビュー像の表示範囲に近似する範囲の画像としてもよい。ここでは、カウントダウンとともに、2回の撮影が行われる。 When the range of the user-acquired image for close-up shooting is determined in this way, as shown in FIG. 12, a screen displaying the live view corresponding to the selected range is displayed on the touch panel display 31. This live view is displayed in a larger size than each live view shown in FIG. Then, after the countdown 72 is performed, the camera 32 performs close-up shooting. That is, a still image as a user-acquired image is generated. The generated still image may be an image having the same range as the display range of the live view image displayed on the screen of FIG. 12, or an image having a range close to the display range of the live view image. Here, along with the countdown, two shots are taken.

ところで、上述した全身撮影において、ユーザ取得画像の範囲として「広め」を選択した場合には、多人数での撮影が想定されるため、アップ撮影におけるユーザ取得範囲も図10で示したものよりも広くなることが好ましい。そこで、図13に示すように、本実施形態においては、全身撮影で「広め」を選択したときには、図10で示した範囲よりも大きい、3つのユーザ取得画像の候補が設定される。3つのユーザ取得画像の候補は、いずれも矩形状で同じ大きさであるが、上下方向の位置が相違している。ここでは、上下方向に上から下へ、第1範囲、第2範囲、及び第3範囲が示されている。 By the way, in the above-mentioned full-body photography, when "wide" is selected as the range of the user-acquired image, it is assumed that the image is taken by a large number of people, so that the user acquisition range in the close-up photography is also larger than that shown in FIG. It is preferable to be wide. Therefore, as shown in FIG. 13, in the present embodiment, when "wide" is selected for whole body imaging, three user-acquired image candidates larger than the range shown in FIG. 10 are set. The three user-acquired image candidates are all rectangular and have the same size, but their positions in the vertical direction are different. Here, the first range, the second range, and the third range are shown from top to bottom in the vertical direction.

そして、上記と同様に、図14に示すように、これら3つの候補のライブビューが配置された画面が、タッチパネルディスプレイ31に表示される。これらの3つのライブビューは、上述したもの同様に、同じか略同じサイズで表示される。ユーザは、これらの中からいずれかを選択した後、図12に示すような画面の案内により、2回の撮影を行う。 Then, similarly to the above, as shown in FIG. 14, the screen on which the live views of these three candidates are arranged is displayed on the touch panel display 31. These three live views are displayed in the same or substantially the same size, similar to those described above. After selecting one of these, the user takes two shots by guiding the screen as shown in FIG. 12.

(ステップS210及びS212)
次に、制御部5は、ボーナス撮影の処理を行う。但し、ボーナス撮影は、撮影待ちをしているユーザがいないときに行われる。具体的には、制御部5は、受付ユニット2を操作しているユーザがいないと判断したときは(ステップS210のNO)、タッチパネルディスプレイ31に、ボーナス撮影用の画面を表示する。ボーナス撮影用の画面は、上述した図9の全身撮影用の画面が表示され、2回の撮影が行われる。但し、図12のアップ撮影用の画面を表示することもできるが、いずれにしても既に選択したユーザ取得画像の範囲が画面に表示される。一方、制御部5が、受付ユニット2を操作しているユーザがいると判断したときは(ステップS210のYES)、ボーナス撮影を行わない。なお、ボーナス撮影については、他の態様も可能であり、例えば、ユーザが受付ユニット2において操作している場合でも、受付ユニット2での操作が完了していない場合には、ボーナス撮影を行うこともできる。例えば、受付ユニット2での操作が始まっている場合でも、ステップS110のデモの表示が行われるまでは、ボーナス撮影を行なうことができる。
(Steps S210 and S212)
Next, the control unit 5 performs a bonus shooting process. However, bonus shooting is performed when there is no user waiting for shooting. Specifically, when the control unit 5 determines that there is no user operating the reception unit 2 (NO in step S210), the control unit 5 displays a screen for bonus shooting on the touch panel display 31. As the screen for bonus shooting, the screen for full-body shooting of FIG. 9 described above is displayed, and shooting is performed twice. However, although the screen for close-up shooting of FIG. 12 can be displayed, in any case, the range of the user-acquired image already selected is displayed on the screen. On the other hand, when the control unit 5 determines that there is a user operating the reception unit 2 (YES in step S210), the bonus shooting is not performed. In addition, regarding the bonus shooting, other modes are also possible. For example, even if the user is operating in the reception unit 2, if the operation in the reception unit 2 is not completed, the bonus shooting is performed. You can also. For example, even if the operation in the reception unit 2 has started, bonus shooting can be performed until the demo in step S110 is displayed.

(ステップS214)
続いて、制御部5は、印刷されるシートの中で大きくする画像の選択を、ユーザに行わせる。すなわち、タッチパネルディスプレイ31には、図15に示すように、既に撮影した既に撮影したすべてのユーザ取得画像が表示され、この中から、シールの中で大きくする画像を選択する。ボーナス撮影が行われた場合には、ユーザ取得画像の中に、ボーナス撮影で撮影された画像も含まれる。そして、ユーザがいずれかの画像をタッチすると、タッチされた画像に選択枠79が表示される。そして、選択を確定する場合には、OKボタン71をタッチする。したがって、OKボタン71がタッチされるまでは、いずれの画像も選択することができる。
(Step S214)
Subsequently, the control unit 5 causes the user to select an image to be enlarged in the printed sheet. That is, as shown in FIG. 15, the touch panel display 31 displays all the user-acquired images that have already been taken, and the image to be enlarged in the sticker is selected from these. When the bonus shooting is performed, the image taken by the bonus shooting is also included in the user-acquired image. Then, when the user touches any of the images, the selection frame 79 is displayed on the touched image. Then, when confirming the selection, the OK button 71 is touched. Therefore, any image can be selected until the OK button 71 is touched.

(ステップS216)
ステップS214では、制御部5は、出力処理部55として動作し、プリンタ35を利用して、シートのプリント処理を開始する。このシートには、ステップS108で選択されたデザインが施され、撮影した4枚または6枚の画像が表示される。そのうち、ステップS214で選択した1枚の画像は、他の画像よりも大きく表示される。
(Step S216)
In step S214, the control unit 5 operates as the output processing unit 55 and starts the sheet printing process using the printer 35. The design selected in step S108 is applied to this sheet, and four or six images taken are displayed. Among them, one image selected in step S214 is displayed larger than the other images.

また、制御部5は、ステップS210で開始したプリント処理が完了したことに応じて、プリント処理が完了したことを示す案内をタッチパネルディスプレイ31に表示する。そして、制御部5は、シールを取出口36から排出する。 Further, the control unit 5 displays on the touch panel display 31 a guide indicating that the print process is completed in response to the completion of the print process started in step S210. Then, the control unit 5 discharges the seal from the outlet 36.

このとき、制御部5は、ステップS102で選択された枚数分のシールを印刷する。各画像を印刷したシールを取出口36から排出した後、制御部5は、利用者に対して、シールを取り出し、撮影空間10の外へ出るように促す案内をタッチパネルディスプレイ31に表示する。利用者は、当該案内に従って、プリントされたシールを取出口36から取り出し、撮影空間10から退出する。これにより、制御部5は、本動作例に係る撮影処理を終了する。 At this time, the control unit 5 prints the number of stickers selected in step S102. After ejecting the sticker on which each image is printed from the outlet 36, the control unit 5 displays a guide on the touch panel display 31 urging the user to take out the sticker and go out of the photographing space 10. The user takes out the printed sticker from the outlet 36 and exits from the shooting space 10 according to the guidance. As a result, the control unit 5 ends the shooting process according to this operation example.

<5.特徴>
以上のように、本実施形態によれば、全身撮影及びアップ撮影において、ユーザの好みの画像範囲を設定することができる。したがって、例えば、被写体の人数が多い場合には、それに合わせてユーザ取得画像の範囲を大きくすることができる。また、アップ撮影においては、ユーザ取得画像の範囲を上下方向に調整可能であるため、例えば、子供のような背の低い被写体が含まれる場合には、範囲を下方にずらすことができるなど、被写体の身長に合わせてユーザ取得画像の範囲を調整することができる。したがって、ユーザの人数、身長等に合わせた画像を生成することができる。
<5. Features>
As described above, according to the present embodiment, the user's favorite image range can be set in the whole body shooting and the close-up shooting. Therefore, for example, when the number of subjects is large, the range of the user-acquired image can be increased accordingly. Further, in close-up shooting, the range of the user-acquired image can be adjusted in the vertical direction. Therefore, for example, when a short subject such as a child is included, the range can be shifted downward. The range of the user-acquired image can be adjusted according to the height of the user. Therefore, it is possible to generate an image according to the number of users, height, and the like.

<6.変形例>
以上、本発明の一実施形態について説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<6. Modification example>
Although one embodiment of the present invention has been described above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. For example, the following changes can be made. In the following, the same reference numerals will be used for the same components as those in the above embodiment, and the same points as in the above embodiment will be omitted as appropriate. The following modifications can be combined as appropriate.

<6.1>
上記実施形態で示したユーザ取得画像の画像範囲は、一例であり、種々の大きさ、形状に設定することができる。また、上記実施形態のように、ユーザ取得画像の画像範囲を予め設定しておくほか、ユーザが設定できるようにすることもできる。例えば、アップ撮影において、ユーザ取得画像の画像範囲を設定する場合、図16に示すように、撮影画像の中にユーザ取得画像の基準画像範囲を設定しておく。そして、この基準画像範囲に基づいて、図17に示す画面において、ユーザが、ユーザ取得画像の画像範囲を設定できるようにする。すなわち、図17の上ボタン73、または下ボタン74をタッチすると、図16の撮影画像の中で基準画像範囲が上下に移動し、この範囲内のライブビューが図17の画面に表示されるようになっている。一方、ズームアップボタン75、またはズームアウトボタン76をタッチすると、基準画像範囲が、図16に示す中心点を基準に拡大または縮小し、その範囲内のライブビュー77が図17の画面に表示されるようになっている。このとき、ズームアップ等のボタン73~76をタッチしても、ライブビュー77の表示サイズは変更されない。なお、図16及び図17では、アップ撮影時の例を示したが、全身撮影に適用することもできる。また、中心点の位置は特には限定されず、適宜変更することができる。
<6.1>
The image range of the user-acquired image shown in the above embodiment is an example, and can be set to various sizes and shapes. Further, as in the above embodiment, the image range of the user-acquired image can be set in advance, or can be set by the user. For example, when setting the image range of the user-acquired image in close-up photography, as shown in FIG. 16, the reference image range of the user-acquired image is set in the photographed image. Then, based on this reference image range, the user can set the image range of the user-acquired image on the screen shown in FIG. That is, when the upper button 73 or the lower button 74 of FIG. 17 is touched, the reference image range moves up and down in the captured image of FIG. 16, and the live view within this range is displayed on the screen of FIG. It has become. On the other hand, when the zoom-up button 75 or the zoom-out button 76 is touched, the reference image range is enlarged or reduced with reference to the center point shown in FIG. 16, and the live view 77 within the range is displayed on the screen of FIG. It has become so. At this time, even if the buttons 73 to 76 for zooming up or the like are touched, the display size of the live view 77 is not changed. Although FIGS. 16 and 17 show an example of close-up photography, it can also be applied to whole-body photography. Further, the position of the center point is not particularly limited and can be changed as appropriate.

<6.2>
上記実施形態では、ユーザ取得画像の画像範囲の候補の数は、特には限定されない。また、各候補の違いを画面(図8,図11,及び図14)に表示することもできる。例えば、図8では、標準、広めとの表示を施しているが、これ以外にライブビューの画像範囲の相違を示す表示を適宜施すことができる。
<6.2>
In the above embodiment, the number of candidates for the image range of the user-acquired image is not particularly limited. In addition, the difference between each candidate can be displayed on the screen (FIG. 8, FIG. 11, and FIG. 14). For example, in FIG. 8, the standard and wide display are provided, but in addition to this, a display indicating the difference in the image range of the live view can be appropriately provided.

<6.3>
上記実施形態では、ユーザ取得画像の画像範囲を選択させる画面(図8,図11,及び図14)において、ライブビューを表示しているが、静止画を表示し、ここから画像範囲を選択させることもできる。静止画は、同じタイミングで画角の異なる複数の静止画像とすることもできるし、異なるタイミングで画角の異なる複数の静止画像とすることもできる。前者の場合は、一回の撮影で取得される原画から複数の異なる範囲の画像を抽出して複数の静止画像を得る。後者の場合は、複数回異なるトリミング範囲の撮影を行い複数の静止画像を得る。その後、撮影画面(図9,図12)においては、選択した画像範囲に対応するライブビューを表示した上で、撮影を行うこともできる。
<6.3>
In the above embodiment, the live view is displayed on the screen (FIGS. 8, 11, and 14) for selecting the image range of the user-acquired image, but the still image is displayed and the image range is selected from here. You can also do it. The still image may be a plurality of still images having different angles of view at the same timing, or may be made into a plurality of still images having different angles of view at different timings. In the former case, a plurality of images in different ranges are extracted from the original image acquired in one shooting to obtain a plurality of still images. In the latter case, multiple still images are obtained by shooting different trimming ranges multiple times. After that, on the shooting screens (FIGS. 9 and 12), the live view corresponding to the selected image range can be displayed before shooting.

<6.4>
上記実施形態では、電子ペンにより、タッチパネルディスプレイ31をタッチすることで、入力を行っているが、指でタッチすることで入力を行ってよく、あるいは物理的なボタン等の入力部を設けて入力を行うこともできる。また、入力は、音声により行うこともできる。すなわち、ユーザが、操作指示を声を発することで行い、これを受信することで、制御部5が操作を行うこともできる。
<6.4>
In the above embodiment, input is performed by touching the touch panel display 31 with an electronic pen, but input may be performed by touching with a finger, or input by providing an input unit such as a physical button. Can also be done. The input can also be performed by voice. That is, the user can issue an operation instruction by uttering a voice, and the control unit 5 can perform the operation by receiving the operation instruction.

<6.5>
上記実施形態では、撮影画像からユーザ取得画像のトリミングを行い、トリミング後の画像を選択画面(図8,図11,及び図14)に表示しているが、ユーザ取得画像の表示の態様はこれに限定されない。例えば、上記のようなトリミングを行うことなく、撮影画像の周囲をマスクし、ユーザ取得画像のみが表示されるように、撮影画像自体(またはその一部)を選択画面に表示することもできる。要するに、ユーザ取得画像で規定される画像範囲が画面に表示されればよい。なお、選択対象となるライブビューとしてユーザに見えている複数の画像の大きさは、すべて同じまたは略同一とすることができる。
<6.5>
In the above embodiment, the user-acquired image is trimmed from the captured image, and the trimmed image is displayed on the selection screen (FIG. 8, FIG. 11, and FIG. 14). Not limited to. For example, the captured image itself (or a part thereof) can be displayed on the selection screen so that only the user-acquired image is displayed by masking the periphery of the captured image without performing the above trimming. In short, the image range defined by the user-acquired image may be displayed on the screen. It should be noted that the sizes of the plurality of images seen by the user as the live view to be selected can all be the same or substantially the same.

<6.6>
また、撮影画像から、トリミングやマスクによりユーザ取得画像を生成する以外に、例えば、物理的なカメラの向きの変更、あるいは光学的なズームアップ及びズームアウトにより、ユーザ取得画像の画像範囲を決めてもよい。すなわち、カメラによる撮影画像をユーザ取得画像とすることもできる。さらには、カメラの向きの変更、ズームアップ及びズームアウトと、トリミング及びマスクと、を混在してユーザ取得画像の画像範囲を設定することもできる。
<6.6>
In addition to generating a user-acquired image from the captured image by trimming or masking, the image range of the user-acquired image is determined by, for example, changing the physical orientation of the camera or optically zooming in and out. May be good. That is, the image taken by the camera can be used as the user-acquired image. Further, it is possible to set the image range of the user-acquired image by mixing the change of the direction of the camera, the zoom-up and the zoom-out, and the trimming and the mask.

<6.7>
上記実施形態では、全身撮影とアップ撮影の2種類を行っているが、いずれか一方でもよい。また、アップ撮影後に、撮影待ちをしているユーザがいない場合には、ボーナス撮影を行っているが、ボーナス撮影に代えて、撮影のやり直しを行うこともできる。すなわち、全身撮影またはアップ撮影の少なくとも1つを行い、既に撮影した全身撮影及びアップ撮影に係るユーザ取得画像と入れ替えることもできる。このとき、新たに生成したユーザ取得画像と、既に生成したユーザ取得画像とを比較し、既に生成したユーザ取得画像をそのまま維持することもできる。また、このようなボーナス撮影または撮影のやり直しを、撮影待ちのユーザの有無にかかわらず行ってもよいし、あるいは、全く行わないようにしてもよい。
<6.7>
In the above embodiment, two types of photography, full-body photography and close-up photography, are performed, but either one may be used. Further, after the close-up shooting, if there is no user waiting for the shooting, the bonus shooting is performed, but instead of the bonus shooting, the shooting can be redone. That is, at least one of full-body photography or close-up photography can be performed, and the image can be replaced with the user-acquired image related to the full-body photography and close-up photography that have already been taken. At this time, the newly generated user-acquired image can be compared with the already generated user-acquired image, and the already-generated user-acquired image can be maintained as it is. Further, such bonus shooting or re-shooting may be performed regardless of the presence or absence of a user waiting for shooting, or may not be performed at all.

<6.8>
上記実施形態では、ユーザ取得画像の画像範囲は、予め決定されたものであるが、被写体となるユーザに応じて決定することもできる。例えば、全身撮影の場合には、図7に示す撮影画像から公知の顔検出技術により、ユーザの顔を検知し、ユーザの顔がすべて含まれ、且つ全身がすべて含まれる範囲を第1範囲とすることができる。続いて、それよりも上方及び左右に広い範囲を第2範囲として設定することができる。
<6.8>
In the above embodiment, the image range of the user-acquired image is determined in advance, but it can also be determined according to the user who is the subject. For example, in the case of whole body photography, the user's face is detected from the photographed image shown in FIG. 7 by a known face detection technique, and the range in which the user's face is included and the whole body is included is defined as the first range. can do. Subsequently, a wider range above and to the left and right of it can be set as the second range.

また、アップ撮影の場合には、例えば、図10、図13、及び図16に示す撮影画像から顔検出を行い、検出されたすべての顔の高さ方向の平均値を、高さ方向の中心とした第2範囲を設定する。このとき、第2範囲の大きさ(形状)は予め設定しておく。次に、第2範囲の大きさを変更することなく、これを上下に所定距離だけずらした第1範囲及び第3範囲を設定する。こうして、アップ撮影時の第1~第3範囲を設定する。なお、第2範囲の設定方法は特には限定されず、上記のような平均値に限らず例えば、一番背の高いユーザの顔を中心としてもよいし、一番背の低いユーザの顔を中心としてもよい。 Further, in the case of close-up photography, for example, face detection is performed from the photographed images shown in FIGS. 10, 13, and 16, and the average value in the height direction of all the detected faces is set as the center in the height direction. The second range is set. At this time, the size (shape) of the second range is set in advance. Next, the first range and the third range are set by shifting the size of the second range up and down by a predetermined distance without changing the size of the second range. In this way, the first to third ranges at the time of close-up shooting are set. The method for setting the second range is not particularly limited, and is not limited to the average value as described above. For example, the face of the tallest user may be the center, or the face of the shortest user may be used. It may be the center.

さらに、顔検出等に基づいて、基準となる画像範囲を設定し、これを基準に他の範囲を設定することもできる。例えば、図11の例では、左側のユーザ取得画像は、被写体の上方にスペースが多すぎ、右側のユーザ取得画像は被写体の頭が切れている。したがって、真ん中のユーザ取得画像が、ユーザの位置と画像範囲とのバランスが取れた最適な範囲であると考えられるので、これをデフォルトの画像範囲として設定し、この画像範囲を拡大縮小したり、あるいは位置を変更することで、他の画像範囲を設定することもできる。 Further, it is also possible to set a reference image range based on face detection and the like, and set another range based on this. For example, in the example of FIG. 11, the user-acquired image on the left side has too much space above the subject, and the user-acquired image on the right side has the head of the subject cut off. Therefore, the user-acquired image in the middle is considered to be the optimum range in which the user's position and the image range are well-balanced. Alternatively, another image range can be set by changing the position.

<6.9>
上記実施形態に係る撮影装置では、出力処理部55が、シートの印刷を行うことで、ユーザ取得画像の出力を行っているが、シートや、ユーザ取得画像のデータを出力することもできる。この場合、電子データは、ユーザの携帯端末に直接送信したり、あるいは外部サーバに送信後、当該サーバからユーザがインターネットを介して取得することもできる。
<6.9>
In the photographing apparatus according to the above embodiment, the output processing unit 55 outputs the user-acquired image by printing the sheet, but it is also possible to output the data of the sheet or the user-acquired image. In this case, the electronic data may be transmitted directly to the user's mobile terminal, or may be transmitted to an external server and then acquired by the user from the server via the Internet.

<6.10>
上記実施形態に係る撮影装置においては、画像の編集を行うこともできる。すなわち、ユーザ取得画像やシートに対して、画像の編集作業を行うことができるようにしてもよい。
<6.10>
Images can also be edited in the photographing apparatus according to the above embodiment. That is, it may be possible to edit an image of a user-acquired image or sheet.

31…タッチパネルディスプレイ(入力部)、
32…カメラ(撮影部)、
40…電子ペン(入力部)、
5…制御部、
61…プログラム
31 ... Touch panel display (input section),
32 ... Camera (shooting section),
40 ... Electronic pen (input section),
5 ... Control unit,
61 ... Program

Claims (5)

被写体を撮影する撮影部と、
前記撮影部によって撮影された撮影画像から、所定の抽出範囲のユーザ取得画像を生成する、制御部と、
予め設定された複数の画像範囲の中から一の画像範囲を選択するための画面を表示する、表示部と、
を備え、
前記制御部は、選択された前記画像範囲に基づいて、前記ユーザ取得画像を生成するように構成され、
前記被写体の上半身を中心とした前記ユーザ取得画像を生成する場合、前記複数の前記画像範囲は、第1画像範囲と、前記第1画像範囲よりも低い子供用の第2画像範囲と、前記第1画像範囲よりも低い範囲を含み、且つ前記第2画像範囲よりも広い第3画像範囲と、を少なくとも含み、
前記撮影部は、前記被写体の上半身を中心とした前記ユーザ取得画像と、前記被写体の全身を含む前記ユーザ取得画像と、を生成するための通常撮影を、選択された前記画像範囲に対応する前記被写体のライブビュー画像を表示した上で、規定回数だけ実行し、
前記制御部は、前記規定回数の前記通常撮影が完了した後に、追加の撮影の機会を付与し、
当該追加の撮影の機会においては、前記画像範囲の選択を行うことなく、前記通常撮影で適用された前記画像範囲に対応する前記被写体のライブビュー画像を表示した上で前記追加の撮影を行い、前記通常撮影で適用された前記画像範囲に基づいて、前記ユーザ取得画像を生成するように構成されている、撮影装置。
The shooting unit that shoots the subject and
A control unit that generates a user-acquired image in a predetermined extraction range from the captured image captured by the photographing unit.
A display unit that displays a screen for selecting one image range from a plurality of preset image ranges, and
Equipped with
The control unit is configured to generate the user-acquired image based on the selected image range.
When generating the user-acquired image centered on the upper body of the subject, the plurality of the image ranges include a first image range, a second image range for children lower than the first image range, and the first image range. At least a third image range that includes a range lower than one image range and is wider than the second image range.
The photographing unit corresponds to the selected image range for normal photographing for generating the user-acquired image centered on the upper body of the subject and the user-acquired image including the whole body of the subject. After displaying the live view image of the subject, execute it a specified number of times,
The control unit provides an additional shooting opportunity after the predetermined number of times of the normal shooting is completed.
At the opportunity of the additional shooting , the live view image of the subject corresponding to the image range applied in the normal shooting is displayed without selecting the image range, and then the additional shooting is performed. An imaging device configured to generate the user-acquired image based on the image range applied in the normal imaging.
前記第3画像範囲は、前記第2画像範囲を全て含んでいる、請求項1に記載の撮影装置。 The photographing apparatus according to claim 1, wherein the third image range includes the entire second image range. 前記第1画像範囲、前記第2画像範囲、及び前記第3画像範囲は、縦横比が同じか略同じである、請求項1または2に記載の撮影装置。 The photographing apparatus according to claim 1 or 2, wherein the first image range, the second image range, and the third image range have the same or substantially the same aspect ratio. 被写体が写る撮影画像を取得するステップと、
予め設定された複数の画像範囲の中から一の画像範囲を選択するための画面を表示する、ステップと、
選択された前記画像範囲に基づいて、前記撮影画像から、所定の抽出範囲のユーザ取得画像を生成するステップと、
を備え、
前記被写体の上半身を中心とした前記ユーザ取得画像を生成する場合、前記複数の前記画像範囲は、第1画像範囲と、前記第1画像範囲よりも低い子供用の第2画像範囲と、前記第1画像範囲よりも低い範囲を含み、且つ前記第2画像範囲よりも広い第3画像範囲と、を少なくとも含み、
前記撮影画像を取得するステップでは、前記被写体の上半身を中心とした前記ユーザ取得画像と、前記被写体の全身を含む前記ユーザ取得画像と、を生成するための通常撮影を、選択された前記画像範囲に対応する前記被写体のライブビュー画像を表示した上で、規定回数だけ実行し、
前記規定回数の前記通常撮影が完了した後に、追加の撮影の機会を付与し、
当該追加の撮影の機会においては、前記画像範囲の選択を行うことなく、前記通常撮影で適用された前記画像範囲に対応する前記被写体のライブビュー画像を表示した上で前記追加の撮影を行い、前記通常撮影で適用された前記画像範囲に基づいて、前記ユーザ取得画像を生成するように構成されている、画像処理方法。
The steps to acquire the captured image of the subject and
A step to display a screen for selecting one image range from a plurality of preset image ranges, and
A step of generating a user-acquired image of a predetermined extraction range from the captured image based on the selected image range, and
Equipped with
When generating the user-acquired image centered on the upper body of the subject, the plurality of the image ranges include a first image range, a second image range for children lower than the first image range, and the first image range. At least a third image range that includes a range lower than one image range and is wider than the second image range.
In the step of acquiring the captured image, the image range selected for normal imaging for generating the user-acquired image centered on the upper body of the subject and the user-acquired image including the whole body of the subject. After displaying the live view image of the subject corresponding to, execute it a specified number of times.
After the specified number of times of the normal shooting is completed, an additional shooting opportunity is given.
At the opportunity of the additional shooting , the additional shooting is performed after displaying the live view image of the subject corresponding to the image range applied in the normal shooting without selecting the image range. An image processing method configured to generate the user-acquired image based on the image range applied in the normal shooting.
コンピュータに、
被写体が写る撮影画像を取得するステップと、
予め設定された複数の画像範囲の中から一の画像範囲を選択するための画面を表示する、ステップと、
選択された前記画像範囲に基づいて、前記撮影画像から、所定の抽出範囲のユーザ取得画像を生成するステップと、
を実行させ、
前記被写体の上半身を中心とした前記ユーザ取得画像を生成する場合、前記複数の前記画像範囲は、第1画像範囲と、前記第1画像範囲よりも低い子供用の第2画像範囲と、前記第1画像範囲よりも低い範囲を含み、且つ前記第2画像範囲よりも広い第3画像範囲と、を少なくとも含み、
前記撮影画像を取得するステップでは、前記被写体の上半身を中心とした前記ユーザ取得画像と、前記被写体の全身を含む前記ユーザ取得画像と、を生成するための通常撮影を、選択された前記画像範囲に対応する前記被写体のライブビュー画像を表示した上で、規定回数だけ実行し、
前記規定回数の前記通常撮影が完了した後に、追加の撮影の機会を付与し、
当該追加の撮影の機会においては、前記画像範囲の選択を行うことなく、前記通常撮影で適用された前記画像範囲に対応する前記被写体のライブビュー画像を表示した上で前記追加の撮影を行い、前記通常撮影で適用された前記画像範囲に基づいて、前記ユーザ取得画像を生成するように構成されている、画像処理プログラム。
On the computer
The steps to acquire the captured image of the subject and
A step to display a screen for selecting one image range from a plurality of preset image ranges, and
A step of generating a user-acquired image of a predetermined extraction range from the captured image based on the selected image range, and
To execute,
When generating the user-acquired image centered on the upper body of the subject, the plurality of the image ranges include a first image range, a second image range for children lower than the first image range, and the first image range. At least a third image range that includes a range lower than one image range and is wider than the second image range.
In the step of acquiring the captured image, the image range selected for normal imaging for generating the user-acquired image centered on the upper body of the subject and the user-acquired image including the whole body of the subject. After displaying the live view image of the subject corresponding to, execute it a specified number of times.
After the specified number of times of the normal shooting is completed, an additional shooting opportunity is given.
At the opportunity of the additional shooting , the additional shooting is performed after displaying the live view image of the subject corresponding to the image range applied in the normal shooting without selecting the image range. An image processing program configured to generate the user-acquired image based on the image range applied in the normal shooting.
JP2017170701A 2017-09-05 2017-09-05 Imaging equipment, image processing methods, and image processing programs Active JP7021432B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017170701A JP7021432B2 (en) 2017-09-05 2017-09-05 Imaging equipment, image processing methods, and image processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017170701A JP7021432B2 (en) 2017-09-05 2017-09-05 Imaging equipment, image processing methods, and image processing programs

Publications (3)

Publication Number Publication Date
JP2019045772A JP2019045772A (en) 2019-03-22
JP2019045772A5 JP2019045772A5 (en) 2020-11-12
JP7021432B2 true JP7021432B2 (en) 2022-02-17

Family

ID=65814258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170701A Active JP7021432B2 (en) 2017-09-05 2017-09-05 Imaging equipment, image processing methods, and image processing programs

Country Status (1)

Country Link
JP (1) JP7021432B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062791A (en) 2008-09-03 2010-03-18 Furyu Kk Photograph seal creating apparatus, method, and program
JP2010109651A (en) 2008-10-30 2010-05-13 Furyu Kk Sticker photo creation apparatus, method, and program
JP2011142534A (en) 2010-01-08 2011-07-21 Make Softwear:Kk Photography game machine, photography play method, and control program
JP2015012437A (en) 2013-06-28 2015-01-19 株式会社ニコン Digital camera
JP2015148777A (en) 2014-02-07 2015-08-20 フリュー株式会社 image processing apparatus and imaging method
JP2016174311A (en) 2015-03-17 2016-09-29 フリュー株式会社 Apparatus, method and program for image processing

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161234A (en) * 1996-11-28 1998-06-19 Konica Corp Portraiture photographing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062791A (en) 2008-09-03 2010-03-18 Furyu Kk Photograph seal creating apparatus, method, and program
JP2010109651A (en) 2008-10-30 2010-05-13 Furyu Kk Sticker photo creation apparatus, method, and program
JP2011142534A (en) 2010-01-08 2011-07-21 Make Softwear:Kk Photography game machine, photography play method, and control program
JP2015012437A (en) 2013-06-28 2015-01-19 株式会社ニコン Digital camera
JP2015148777A (en) 2014-02-07 2015-08-20 フリュー株式会社 image processing apparatus and imaging method
JP2016174311A (en) 2015-03-17 2016-09-29 フリュー株式会社 Apparatus, method and program for image processing

Also Published As

Publication number Publication date
JP2019045772A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP2013017127A (en) Automatic photograph creation device, automatic photograph creation method and program
JP6098879B2 (en) Image providing system, image providing method, and image providing apparatus
JP2023021174A (en) Imaging apparatus, imaging method, and imaging processing program
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP5555924B2 (en) Shooting game machine, shooting game machine control method, and computer program
US9807276B2 (en) Image processing apparatus having a display device for displaying a trimming range selection screen, and image processing method
JP7021432B2 (en) Imaging equipment, image processing methods, and image processing programs
JP7014953B2 (en) Image processing device and image processing method
JP6493587B1 (en) Imaging apparatus, image processing method, and image processing program
JP6245529B2 (en) Game shooting device, game shooting method and program
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP2019012153A (en) Image acquisition system
JP2004159158A (en) Method and device for providing photographic print
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP2019134345A (en) Photographing apparatus, image processing method, and image processing program
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP6201397B2 (en) Photo sticker creation apparatus and method, and program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP2016042641A (en) Photographing game device, image processing method, and image processing program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP6090369B2 (en) Game shooting device, game shooting method and program
JP2020086109A (en) Imaging device, photographing game method, and photographing game method program
JP5998344B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP2006162719A (en) Photographic sticker-vending machine and its method and program
JP6468386B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R151 Written notification of patent or utility model registration

Ref document number: 7021432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151