JP4403497B2 - Photo sticker vending machine, photo sticker creation method, and program - Google Patents

Photo sticker vending machine, photo sticker creation method, and program Download PDF

Info

Publication number
JP4403497B2
JP4403497B2 JP2004087834A JP2004087834A JP4403497B2 JP 4403497 B2 JP4403497 B2 JP 4403497B2 JP 2004087834 A JP2004087834 A JP 2004087834A JP 2004087834 A JP2004087834 A JP 2004087834A JP 4403497 B2 JP4403497 B2 JP 4403497B2
Authority
JP
Japan
Prior art keywords
image
correction
unit
live view
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004087834A
Other languages
Japanese (ja)
Other versions
JP2005277772A (en
Inventor
哲也 三輪
義弘 東
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2004087834A priority Critical patent/JP4403497B2/en
Publication of JP2005277772A publication Critical patent/JP2005277772A/en
Application granted granted Critical
Publication of JP4403497B2 publication Critical patent/JP4403497B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、写真シール販売機および写真シール作成方法、並びにプログラムに関し、特にユーザの好みに合わせた撮影を効率よく行うことができるようにした写真シール販売機および写真シール作成方法、並びにプログラムに関する。   The present invention relates to a photo sticker vending machine, a photo sticker creating method, and a program, and more particularly, to a photo sticker vending machine, a photo sticker creating method, and a program that can efficiently perform photographing according to user's preference.

従来、ユーザ(被写体)を撮影し、これを予め用意されたフレーム画像やハート型等のスタンプ画像と合成する編集処理を行い、シール紙に印刷し、ユーザに提供する写真シール販売機(例えば、プリント倶楽部(登録商標))が知られている。   Conventionally, a photo sticker vending machine (for example, a subject (subject)) is photographed and edited with a stamp image such as a frame image or a heart shape prepared in advance, printed on sticker paper, and provided to the user (for example, Print Club (registered trademark)) is known.

例えば、特許文献1に開示されている写真シール販売機では、編集処理において、予め設定されている画像補正パターンをユーザが選択することで、撮影された画像の縦横比を補正し、補正した画像をシール紙に印刷することができる。   For example, in the photo sticker vending machine disclosed in Patent Document 1, in the editing process, the user selects a preset image correction pattern, thereby correcting the aspect ratio of the captured image and correcting the image. Can be printed on sticker paper.

特開2000−267156号公報JP 2000-267156 A

しかしながら、特許文献1に開示されている写真シール販売機では、撮影後の編集処理において画像の補正を行うため、補正の結果、撮影画像に対して不満を解消できるほどの効果が得られない場合、撮影をやりなおすしかなく、撮影の効率が悪いという課題があった。   However, in the photo sticker vending machine disclosed in Patent Document 1, since the image is corrected in the editing process after shooting, the correction result does not provide an effect that can eliminate dissatisfaction with the shot image. However, there is a problem that the shooting efficiency is poor because the shooting must be performed again.

本発明は、このような状況に鑑みてなされたものであり、ユーザの好みに合わせた撮影を効率よく行うことができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to efficiently perform shooting according to user's preference.

本発明の写真シール販売機は、被写体を撮像する撮像手段と、撮像手段により撮像された被写体の画像を動画像としてリアルタイムで表示部に表示させるよう制御する表示制御手段と、被写体により入力される、表示制御手段により表示が制御された動画像に対する補正、および、動画像に対する補正を行う画像領域の範囲である補正範囲の指令を受け付ける受付手段と、受付手段により受け付けられた指令に基づいて、表示制御手段により表示が制御されている動画像の補正範囲を補正するとともに、複数の補正範囲が指令された場合、複数の補正範囲に対してそれぞれ個別に受付けられた指令に基づいて、動画像の複数の補正範囲をそれぞれ補正して、表示部に表示させるよう制御する補正手段と、表示部に表示されている動画像を、所定のタイミングで静止画像として保存する保存手段と、保存手段により保存された画像を編集する編集手段と、編集手段により編集された画像をシール紙に印刷する印刷手段とを備えることを特徴とする。 The photo sticker vending machine of the present invention is input by the subject, an imaging means for imaging the subject, a display control means for controlling the subject image captured by the imaging means to be displayed on the display unit in real time as a moving image. Based on the command received by the receiving unit, the receiving unit that receives the correction for the moving image whose display is controlled by the display control unit , and the correction range command that is the range of the image area to be corrected for the moving image , The correction range of the moving image whose display is controlled by the display control unit is corrected, and when a plurality of correction ranges are commanded, the moving image is based on the commands individually received for the plurality of correction ranges. by correcting a plurality of correction ranges, respectively, and correcting means for controlling so as to be displayed on the display unit, the moving image displayed on the display unit, where To the storage means at the timing to save as a still image, and editing means for editing the images stored by the storage means, characterized in that it comprises a printing unit for printing an image edited by the editing means to seal the paper.

この撮像手段は、例えば、CCD(Charge Coupled Device)、あるいはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子よりなる小型のカメラにより構成される。表示制御手段は、例えば、CPU(Central Processing Unit)が所定のプログラムを実行することで実現される。受付手段は、例えば、液晶ディスプレイ、タッチパネル、タッチペンおよびボタン等により構成される。補正手段は、例えばCPUが所定のプログラムを実行することで実現される。保存手段は、例えばCPUが所定のプログラムを実行することで実現される。また例えば、保存手段は、CPUがRAM(Random Access Memory)に所定のデータを記憶させることで実現される。編集手段は、例えば液晶ディスプレイ、タッチパネル、タッチペンおよびボタン等により構成される。また編集手段は、CPUが所定のプログラムを実行することで実現される。印刷手段は、例えばプリンタにより構成される。   This imaging means is constituted by a small camera made of an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The display control means is realized by, for example, a CPU (Central Processing Unit) executing a predetermined program. The accepting means is composed of, for example, a liquid crystal display, a touch panel, a touch pen, buttons, and the like. The correcting means is realized, for example, when the CPU executes a predetermined program. The storage means is realized, for example, when the CPU executes a predetermined program. Further, for example, the storage means is realized by the CPU storing predetermined data in a RAM (Random Access Memory). The editing means is composed of, for example, a liquid crystal display, a touch panel, a touch pen, buttons, and the like. The editing means is realized by the CPU executing a predetermined program. The printing means is constituted by a printer, for example.

すなわち、本発明の写真シール販売機においては、撮像された被写体の画像が動画像としてリアルタイムで表示部に表示させるよう制御され、被写体により入力される、表示が制御された動画像に対する補正、および、動画像に対する補正を行う画像領域の範囲である補正範囲の指令が受け付けられ、受け付けられた指令に基づいて、表示が制御されている動画像の補正範囲が補正されるとともに、複数の補正範囲が指令された場合、複数の補正範囲に対してそれぞれ個別に受付けられた指令に基づいて、動画像の複数の補正範囲がそれぞれ補正されて、表示部に表示させるよう制御される。そして、表示部に表示されている動画像が、所定のタイミングで静止画像として保存され、保存された画像が編集され、シール紙に印刷される。 That is, in the photo sticker vending machine of the present invention, the captured image of the subject is controlled to be displayed as a moving image in real time on the display unit , and the correction to the display-controlled moving image input by the subject , and A correction range command that is a range of an image area for performing correction on the moving image is received, and based on the received command, the correction range of the moving image whose display is controlled is corrected, and a plurality of correction ranges Is commanded, the plurality of correction ranges of the moving image are corrected based on commands individually received for the plurality of correction ranges, and are controlled to be displayed on the display unit. The moving image displayed on the display unit is stored as a still image at a predetermined timing, and the stored image is edited and printed on sticker paper.

従って、被写体の好みに合わせた撮影を効率よく行うことができる。また、被写体は、補正の結果画像(ライブビュー補正画像)を見ながら撮影を行うことができる。さらに、より、被写体の好みに合わせた補正を行うことができる。また、表示部に表示された動画像全体ではなく、動画像における被写体の特定部位だけを補正することができる。 Therefore, it is possible to efficiently perform shooting according to the preference of the subject. The subject can be photographed while viewing the correction result image (live view correction image). In addition, it is possible to perform correction according to the preference of the subject. Further, it is possible to correct not only the entire moving image displayed on the display unit but only a specific part of the subject in the moving image.

撮像手段により撮像された被写体の画像において、被写体の顔の位置を認識する認識手段をさらに備え、認識手段は、受付手段により動画像に対する補正の指令が受け付けられると、被写体の顔の位置を認識し、補正手段は、認識手段により被写体の顔として認識された範囲を補正範囲として、補正範囲の画像を、受付手段により受け付けられた指令に基づいて補正するとともに、認識手段により複数の被写体の顔の位置が認識された場合、複数の被写体の顔にそれぞれ対応する複数の補正範囲のうち受付手段により受け付けられた指令により選択された補正範囲の画像を、受付手段により受け付けられた指令に基づいて補正するものとすることができる。 Recognizing means for recognizing the position of the subject's face in the image of the subject imaged by the imaging means is further provided, and the recognizing means recognizes the position of the subject's face when the accepting means accepts a correction command for the moving image. The correction unit corrects an image in the correction range based on a command received by the receiving unit, with the range recognized as the subject's face by the recognition unit being corrected. When the position is recognized, the image of the correction range selected by the command received by the receiving unit among the plurality of correction ranges respectively corresponding to the faces of the plurality of subjects is based on the command received by the receiving unit. It can be corrected .

この認識手段は、例えば、CPUが所定のプログラムを実行することで実現される。   This recognition means is realized, for example, by the CPU executing a predetermined program.

これにより、被写体は、顔の位置を手動で入力せずともよく、操作入力を容易にすることができる。また、被写体からの補正の指令に基づいて、被写体の特定部位の位置を認識し、補正することができる。すなわち、被写体は、補正の指令を容易に行うことができる。   Thereby, the subject does not need to manually input the position of the face, and the operation input can be facilitated. Further, the position of the specific part of the subject can be recognized and corrected based on a correction command from the subject. That is, the subject can easily issue a correction command.

認識手段は、撮像手段により撮像された1人または複数人の被写体の画像に基づいて、被写体の人数をさらに認識し、認識手段により認識された被写体の人数に応じて、印刷手段により印刷されるシール紙の分割数を設定する分割設定手段を備えるものとすることができる。   The recognizing unit further recognizes the number of subjects based on the image of one or a plurality of subjects captured by the imaging unit, and is printed by the printing unit according to the number of subjects recognized by the recognizing unit. A division setting means for setting the number of divisions of the sticker paper can be provided.

この分割設定手段は、例えば、CPUが所定のプログラムを実行することで実現される。   This division setting means is realized, for example, when the CPU executes a predetermined program.

これにより、複数の被写体が1つのグループで撮影を行った場合にも、容易に写真シール紙を分け合うことができる。また、被写体の写真シールの分割数に対する満足度を向上させることができる。   Thereby, even when a plurality of subjects have photographed in one group, the photo sticker sheets can be easily shared. In addition, the degree of satisfaction with respect to the number of divisions of the photographic sticker of the subject can be improved.

本発明の写真シール作成方法およびプログラムは、被写体を撮像する撮像ステップと、撮像ステップの処理により撮像された被写体の画像を動画像としてリアルタイムで表示部に表示させるよう制御する第1の表示制御ステップと、被写体により入力される、第1の表示制御ステップの処理により表示が制御された動画像に対する補正、および、動画像に対する補正を行う画像領域の範囲である補正範囲の指令を受け付ける受付ステップと、受付ステップの処理により受け付けられた指令に基づいて、第1の表示制御ステップの処理により表示が制御されている動画像の補正範囲を補正するとともに、複数の補正範囲が指令された場合、複数の補正範囲に対してそれぞれ個別に受付けられた指令に基づいて、動画像の複数の補正範囲をそれぞれ補正する補正ステップと、補正ステップの処理により補正された動画像を、表示部に表示させるよう制御する第2の表示制御ステップと、表示部に表示されている動画像を、所定のタイミングで静止画像として保存する保存ステップと、保存ステップの処理により保存された画像を編集する編集ステップと、編集ステップの処理により編集された画像をシール紙に印刷する印刷ステップとを含むことを特徴とする。 An image sticker creating method and a program according to the present invention include an imaging step for imaging a subject, and a first display control step for controlling an image of the subject imaged by the processing of the imaging step to be displayed as a moving image on a display unit in real time. And a reception step for receiving a correction for the moving image whose display is controlled by the processing of the first display control step, which is input by the subject , and a correction range command that is a range of an image area for performing the correction for the moving image. The correction range of the moving image whose display is controlled by the process of the first display control step is corrected based on the command received by the process of the reception step, and when a plurality of correction ranges are commanded, A plurality of correction ranges of the moving image are respectively set on the basis of a command received individually for each correction range. A correction step of correcting, the moving image corrected by the processing of the correction step, a second display control step of controlling so as to be displayed on the display unit, the moving image displayed on the display unit, stationary at a predetermined timing A storage step for storing the image as an image; an editing step for editing the image stored by the processing of the storage step; and a printing step for printing the image edited by the processing of the editing step on sticker paper.

この撮像ステップの処理は、例えば、CPUからの信号に基づいて、CCD,CMOSなどの撮像素子よりなるカメラにより被写体を撮像する撮像ステップにより構成され、第1の表示制御ステップの処理は、例えば、CPUからの信号に基づいて、撮像された画像を動画像としてリアルタイムで表示部に表示させるよう制御するステップにより構成され、受け付けステップの処理は、例えば、CPUからの信号に基づいて、液晶ディスプレイに表示された画像に対して、タッチペンやボタンによって入力された、表示部に表示された動画像に対する補正、および、動画像に対する補正を行う画像領域の範囲である補正範囲の指令を受け付けるステップにより構成され、補正ステップの処理は、例えば、CPUからの信号に基づいて、受け付けられた補正の指令に基づいて動画像の補正範囲を補正するとともに、複数の補正範囲が指令された場合、複数の補正範囲に対してそれぞれ個別に受付けられた指令に基づいて、動画像の複数の補正範囲をそれぞれ補正するステップにより構成され、第2の表示制御ステップの処理は、例えば、CPUからの信号に基づいて、補正された動画像を表示部に表示させるよう制御するステップにより構成される。また、保存ステップの処理は、例えばCPUからの信号に基づいて、表示部に表示されている動画像をRAMや記憶部などに保存するステップにより構成され、編集ステップの処理は、例えばタッチペンやボタンにより受け付けられた編集の入力に基づいてCPUからの信号により画像を編集する編集ステップにより構成され、印刷ステップの処理は、例えばCPUからの信号に基づいて編集された画像をプリンタによって写真シールに印刷するステップから構成される。 The processing of this imaging step is composed of, for example, an imaging step of imaging a subject by a camera made of an imaging device such as a CCD or CMOS based on a signal from the CPU, and the processing of the first display control step is, for example, Based on the signal from the CPU, it is configured by a step of controlling the captured image to be displayed on the display unit in real time as a moving image, and the process of the accepting step is performed on the liquid crystal display based on the signal from the CPU, for example. Comprising a step of receiving a correction range command, which is a range of an image area for performing correction on the moving image displayed on the display unit and correction on the moving image, which is input by a touch pen or a button, with respect to the displayed image The processing of the correction step is based on the received correction command based on the signal from the CPU, for example. Step together to correct the correction range of the moving image, when a plurality of the correction range is instructed, based on the instruction accepted individually for a plurality of the correction range, it corrects the plurality of the correction range of the moving image, respectively The processing of the second display control step includes, for example, a step of controlling to display the corrected moving image on the display unit based on a signal from the CPU. Further, the processing of the saving step is configured by a step of saving the moving image displayed on the display unit in a RAM or a storage unit based on a signal from the CPU, for example, and the processing of the editing step is, for example, a touch pen or button Is composed of an editing step that edits an image with a signal from the CPU based on the editing input accepted by the printer, and the processing of the printing step is, for example, printing an image edited based on the signal from the CPU on a photo sticker by a printer It consists of steps to do.

すなわち、本発明の写真シール作成方法およびプログラムにおいては、撮像された被写体の画像が動画像としてリアルタイムで表示部に表示させるよう制御され、被写体により入力される、表示が制御された動画像に対する補正、および、動画像に対する補正を行う画像領域の範囲である補正範囲の指令が受け付けられ、受け付けられた指令に基づいて、表示が制御されている動画像の補正範囲が補正されるとともに、複数の補正範囲が指令された場合、複数の補正範囲に対してそれぞれ個別に受付けられた指令に基づいて、動画像の複数の補正範囲がそれぞれ補正され、補正された動画像が表示部に表示させるよう制御される。そして、表示部に表示されている動画像が、所定のタイミングで静止画像として保存され、保存された画像が編集され、シール紙に印刷される。 That is, in the photo sticker creation method and program of the present invention, the captured image of the subject is controlled to be displayed as a moving image in real time on the display unit, and correction is performed on the display-controlled moving image input by the subject. And a correction range command that is a range of an image region for correcting the moving image is received, and based on the received command, the correction range of the moving image whose display is controlled is corrected, When a correction range is commanded, a plurality of correction ranges of the moving image are corrected based on commands individually received for the plurality of correction ranges , and the corrected moving image is displayed on the display unit. Be controlled. The moving image displayed on the display unit is stored as a still image at a predetermined timing, and the stored image is edited and printed on sticker paper.

従って、被写体の好みに合わせた撮影を効率よく行うことができる。また、被写体は、
補正の結果画像(ライブビュー補正画像)を見ながら撮影を行うことができる。さらに、より、被写体の好みに合わせた補正を行うことができる。また、表示部に表示された動画像全体ではなく、動画像における被写体の特定部位だけを補正することができる。
Therefore, it is possible to efficiently perform shooting according to the preference of the subject. The subject is
Shooting can be performed while viewing the correction result image (live view correction image). In addition, it is possible to perform correction according to the preference of the subject. Further, it is possible to correct not only the entire moving image displayed on the display unit but only a specific part of the subject in the moving image.

本発明によれば、ユーザの好みに合わせた撮影を効率よく行うことができる。特に、本発明によれば、ユーザの指令に基づいて画像を補正し、撮影することができる。   According to the present invention, it is possible to efficiently perform shooting according to the user's preference. In particular, according to the present invention, an image can be corrected and photographed based on a user instruction.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

[第1の実施の形態]
図1は、本発明を適用した写真シール販売機の第1の実施の形態の外観の構成例を示す斜視図を示している。なお、図1は、説明の便宜上、内部が透視できるように表現されている。
[First Embodiment]
FIG. 1 is a perspective view showing a configuration example of the appearance of a first embodiment of a photo sticker vending machine to which the present invention is applied. Note that FIG. 1 is illustrated so that the inside can be seen through for convenience of explanation.

図1の写真シール販売機1は、ユーザ(利用者)により硬貨投入口41から所定の硬貨が投入されると、カメラ21により被写体であるユーザを撮影し、ユーザによりタッチペン23aまたは23bを用いて入力された入力信号に基づいて、撮影した画像(以下、撮影画像という)を編集し、その結果得られる画像(以下、編集画像という)をシール紙に印刷して写真シール紙排出口50から排出する。   In the photo sticker vending machine 1 in FIG. 1, when a predetermined coin is inserted from a coin insertion slot 41 by a user (user), the user as a subject is photographed by the camera 21, and the user uses the touch pen 23a or 23b. Based on the input signal, the photographed image (hereinafter referred to as “captured image”) is edited, and the resulting image (hereinafter referred to as “edited image”) is printed on sticker paper and discharged from the photo sticker paper discharge port 50. To do.

図1の写真シール販売機1は、主に筐体10、フレーム12、およびシート13により構成されている。   The photo sticker vending machine 1 shown in FIG. 1 mainly includes a housing 10, a frame 12, and a sheet 13.

図1の写真シール販売機1のフレーム12は、直方体に形成されており、その内側の一部に(図1においてフレーム12内の右奥の面に筐体10の背面(面10c)が接するように)筐体10を囲うように形成されている。図1においてフレーム12により形成される直方体の側面のうち、筐体10の背面10cが接する面に隣接する面であり、図中奥側の面は、シート13により構成される。また、上述したフレーム12により形成される直方体の各面のうち、シート13が設けられる面に対向する面(図中手前の面)は、ユーザが、フレーム12内の空間(撮影空間)に入退出するための入退出口14とされている。また、入退出口14には入退出用カーテン17が設けられている。   The frame 12 of the photo sticker vending machine 1 in FIG. 1 is formed in a rectangular parallelepiped, and the back surface (surface 10c) of the housing 10 is in contact with a part of the inside thereof (in FIG. 1, the right inner surface in the frame 12). As shown in FIG. Of the side faces of the rectangular parallelepiped formed by the frame 12 in FIG. 1, the face is adjacent to the face with which the rear face 10 c of the housing 10 is in contact, and the back face in the figure is constituted by the sheet 13. In addition, among the surfaces of the rectangular parallelepiped formed by the frame 12 described above, the surface opposite to the surface on which the seat 13 is provided (the front surface in the figure) is entered by the user into a space (imaging space) in the frame 12. It is set as an entrance / exit 14 for exiting. An entrance / exit curtain 17 is provided at the entrance / exit 14.

さらに、フレーム12により形成される直方体の各面のうち、筐体10の正面(面10a)と対向する面(図中手前の面)には、所定距離だけ離間して背景パネル15が設置され、その背景パネル15の図中奥側(右側)には、背景カーテン16が設けられている。なお、写真シール販売機1には、1以上の背景カーテン16が設けられ、撮影時には、背景カーテン16のうちの1つが閉じられる。ユーザは、フレーム12内における、筐体10と背景パネル15の間の空間を撮影空間として、自分自身を被写体として撮影作業を行う。   Further, among each surface of the rectangular parallelepiped formed by the frame 12, a background panel 15 is installed on a surface (front surface in the drawing) facing the front surface (surface 10 a) of the housing 10, separated by a predetermined distance. A background curtain 16 is provided on the back side (right side) of the background panel 15 in the figure. The photo sticker vending machine 1 is provided with one or more background curtains 16 and one of the background curtains 16 is closed at the time of photographing. The user performs a shooting operation using the space between the housing 10 and the background panel 15 in the frame 12 as a shooting space and himself as a subject.

写真シール販売機1の筐体10の面10aには、図中上側に、ユーザを撮影するための、CCD(Charge Coupled Device)、あるいはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子よりなる小型のカメラ21が設けられている。カメラ21の、図中下側にある画像表示部22は、撮影方法を案内する画像、後述するようにカメラ21により撮像されたユーザのライブビュー画像、またはカメラ21により撮像され、所定のタイミングで(撮影ボタンの押下に対応するタイミングで)保存された撮影画像等を表示する。また、画像表示部22は、表面に透明なタッチパネルが重畳された液晶ディスプレイなどよりなる。ユーザは、撮影位置から画像表示部22に表示されるライブビュー画像や後述するライブビュー補正画像(補正結果)を見ることができる。   On the upper surface 10a of the case 10 of the photo sticker vending machine 1, a small image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is used on the upper side in the figure to photograph the user. A camera 21 is provided. The image display unit 22 on the lower side in the figure of the camera 21 is an image for guiding a shooting method, a user's live view image captured by the camera 21 as described later, or captured by the camera 21 at a predetermined timing. A stored photographed image or the like is displayed (at a timing corresponding to pressing of the photographing button). The image display unit 22 includes a liquid crystal display with a transparent touch panel superimposed on the surface. The user can view a live view image displayed on the image display unit 22 and a live view corrected image (correction result) described later from the shooting position.

また、画像表示部22の図中左側には、タッチパネルに対応して動作し、ユーザによりライブビュー画像の補正や落書き編集等に利用されるタッチペン23aが設けられ、右側にはタッチペン23aと同様のタッチペン23bが設けられている。なお、以下において、タッチペン23aと23bを個々に区別する必要がない場合、単にタッチペン23と称する。ユーザは、タッチペン23を用いてカメラ21により撮像されたユーザのライブビュー画像を補正する指令を入力したり、撮像され、所定のタイミングで保存された画像である撮影画像に編集(落書き)の指令を入力することができる。画像表示部22は、タッチペン23により入力されたライブビュー画像を補正する指令に基づく補正後のライブビュー画像を表示したり、編集の指令に基づく編集された編集画像を表示する。   Further, on the left side of the image display unit 22, a touch pen 23a that operates corresponding to the touch panel and is used by the user for live view image correction, graffiti editing, and the like is provided, and the right side is similar to the touch pen 23a. A touch pen 23b is provided. In the following, when it is not necessary to distinguish the touch pens 23a and 23b from each other, they are simply referred to as the touch pen 23. The user inputs a command for correcting the user's live view image captured by the camera 21 using the touch pen 23, or edits (doodles) a captured image that is captured and stored at a predetermined timing. Can be entered. The image display unit 22 displays the corrected live view image based on the command for correcting the live view image input by the touch pen 23, or displays the edited image edited based on the editing command.

さらに、タッチペン23aの図中左側には、カメラ21により撮像された画像を保存するタイミングに合わせて発光する照明装置24aが設けられ、タッチペン23bの図中右側には、照明装置24aと同様の照明装置24bが設けられている。なお、照明装置24aと24bには、例えば拡散板が設けられており、照明装置24aと24bにより出射されたフラッシュ光は、拡散板で拡散され、被写体に照射される。なお、以下において、照明装置24aと24bを個々に区別する必要がない場合、単に照明装置24と称する。   Further, an illumination device 24a that emits light in accordance with the timing of storing an image captured by the camera 21 is provided on the left side of the touch pen 23a in the drawing, and illumination similar to the illumination device 24a is provided on the right side of the touch pen 23b in the drawing. A device 24b is provided. Note that the illuminating devices 24a and 24b are provided with, for example, a diffusing plate, and the flash light emitted from the illuminating devices 24a and 24b is diffused by the diffusing plate and applied to the subject. Hereinafter, when it is not necessary to distinguish the lighting devices 24a and 24b from each other, they are simply referred to as the lighting device 24.

筐体10の側面であり、面10bには、図中左側に硬貨投入口41と硬貨返却口42が設けられている。ユーザが所定の代金を硬貨投入口41に投入すると、撮影作業が開始される。硬貨投入口41に投入された代金のつり銭や確認できない硬貨が投入された場合、そのつり銭や確認できない硬貨は、硬貨返却口42から返却される。また、硬貨投入口41および硬貨返却口42の図中右側には、シール紙排出口50が設けられており、複数の編集画像が、シール紙に印刷され、写真シール紙として排出される。   The side surface of the housing 10 is provided with a coin insertion port 41 and a coin return port 42 on the left side in the drawing. When the user inserts a predetermined price into the coin slot 41, the shooting operation is started. When a change of coins inserted into the coin insertion slot 41 or a coin that cannot be confirmed is inserted, the change or a coin that cannot be confirmed is returned from the coin return slot 42. Further, a seal paper discharge port 50 is provided on the right side of the coin insertion port 41 and the coin return port 42 in the drawing, and a plurality of edited images are printed on the seal paper and discharged as photographic sticker paper.

なお、本明細書において「写真シール紙」は複数の編集画像が印刷されたシール紙を意味し、「写真シール」は、画像が印刷された個々のシールを意味する。   In this specification, “photo sticker paper” means sticker paper on which a plurality of edited images are printed, and “photo sticker” means individual stickers on which images are printed.

なお、写真シール販売機1に設けられている各種の部位(例えば、硬貨投入口41、硬貨返却口42、写真シール排出口50等)は、図1に示す場所に限定されない(例えば、硬貨投入口41と硬貨返却口42が、写真シール排出口50の下部にあってもよい)。   Various parts (for example, a coin slot 41, a coin return slot 42, a photograph sticker outlet 50, etc.) provided in the photo sticker vending machine 1 are not limited to the places shown in FIG. The mouth 41 and the coin return port 42 may be located below the photo sticker outlet 50).

図2は、図1の写真シール販売機1の第1の実施の形態の内部の構成例を示すブロック図である。   FIG. 2 is a block diagram showing an internal configuration example of the first embodiment of the photo sticker vending machine 1 of FIG.

写真シール販売機1の制御部101には、カメラ21、画像表示部22、照明装置24aおよび24b、硬貨処理部102、カーテン部103、操作入力部104、スピーカ105、通信部106、補正処理部107、プリンタユニット131、記憶部181、ROM(Read Only Memory)182、およびRAM(Random Access Memory)183が接続されており、各部は、制御部101により制御される。   The control unit 101 of the photo sticker vending machine 1 includes a camera 21, an image display unit 22, lighting devices 24a and 24b, a coin processing unit 102, a curtain unit 103, an operation input unit 104, a speaker 105, a communication unit 106, and a correction processing unit. 107, a printer unit 131, a storage unit 181, a ROM (Read Only Memory) 182, and a RAM (Random Access Memory) 183 are connected, and each unit is controlled by the control unit 101.

制御部101にはまた、必要に応じて、ドライブ191が接続される。ドライブ191には、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、および、半導体メモリなどのリムーバブルメディア192が適宜装着され、それらから読み出されたコンピュータプログラムやデータが、必要に応じて記憶部181にインストールされる。   A drive 191 is also connected to the control unit 101 as necessary. The drive 191 includes a magnetic disk (including a flexible disk), an optical disk (including a compact disk-read only memory (CD-ROM), a DVD (digital versatile disk)), and a magneto-optical disk (MD (mini-disk) (registered). In addition, a removable medium 192 such as a semiconductor memory is appropriately mounted, and computer programs and data read from the medium are installed in the storage unit 181 as necessary.

写真シール販売機1にインストールされ、写真シール販売機1によって実行可能な状態とされるプログラムを記録する記録媒体は、磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM、DVDを含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア192、またはプログラムが一時的もしくは永続的に格納されるROM182や、記憶部181などにより構成される。記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行うこともできる。   Recording media that are installed in the photo sticker vending machine 1 and record a program that can be executed by the photo sticker vending machine 1 are magnetic disks (including floppy disks), optical disks (including CD-ROMs and DVDs), It is composed of a magneto-optical disk (including MD (Mini-Disk)), a removable medium 192 made of a semiconductor memory or the like, a ROM 182 in which a program is temporarily or permanently stored, a storage unit 181 and the like. The program can be stored in a recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary.

写真シール販売機1では、制御部101が、ROM182にインストールされているプログラムを実行することにより、各種の処理を実行する。   In the photo sticker vending machine 1, the control unit 101 executes various processes by executing a program installed in the ROM 182.

カメラ21は、例えば、CCD,CMOS等の撮像素子により構成される。カメラ21は、制御部101の制御により、被写体(ユーザ)を撮像し、撮像の結果得られる画像をライブビュー画像(信号)として制御部101に供給する。ライブビュー画像は、カメラ21により撮像された画像よりなる動画像である。   The camera 21 is composed of an image sensor such as a CCD or CMOS, for example. The camera 21 images a subject (user) under the control of the control unit 101 and supplies an image obtained as a result of the imaging to the control unit 101 as a live view image (signal). The live view image is a moving image composed of an image captured by the camera 21.

画像表示部22は、例えば、表面に透明なタッチパネル121が積層された液晶ディスプレイにより構成される。画像表示部22は、制御部101から供給されるライブビュー画像信号(RGB信号)に基づいて、被写体の画像を動画像(ライブビュー画像)としてリアルタイムで表示する。ユーザは、タッチペン23を操作することで、例えば、画像表示部22に表示されたライブビュー画像の一部または全部を指定し、その指定した範囲において画像の補正を実行するよう指令する。画像表示部22は、補正処理部107を介して制御部101から供給される補正されたライブビュー画像信号(RGB信号)に基づいて、補正された被写体の画像をリアルタイムで表示する。また、画像表示部22は、制御部101から供給される撮影された画像(撮影画像)信号に基づいて、静止画である撮影画像を表示する。さらに、画像表示部22は、撮影画像とともに、画像編集用GUI(Graphical User Interface)等を表示する。ユーザは、タッチペン23を操作することにより、画像表示部22に表示された画像編集用GUIを利用して、画像表示部22に表示された撮影画像に対する編集入力作業を行う。   The image display unit 22 is configured by, for example, a liquid crystal display in which a transparent touch panel 121 is laminated on the surface. The image display unit 22 displays the subject image as a moving image (live view image) in real time based on the live view image signal (RGB signal) supplied from the control unit 101. By operating the touch pen 23, for example, the user designates part or all of the live view image displayed on the image display unit 22, and instructs to perform image correction within the designated range. The image display unit 22 displays the corrected subject image in real time based on the corrected live view image signal (RGB signal) supplied from the control unit 101 via the correction processing unit 107. The image display unit 22 displays a captured image that is a still image based on a captured image (captured image) signal supplied from the control unit 101. Further, the image display unit 22 displays an image editing GUI (Graphical User Interface) and the like together with the captured image. The user operates the touch pen 23 to perform an edit input operation on the captured image displayed on the image display unit 22 using the image editing GUI displayed on the image display unit 22.

照明装置24は、制御部101の制御により、筐体10の外部または内部を所定の明るさで照明するとともに、撮影画像が取得されるタイミングに合わせて、フラッシュ光を出射する。なお、照明装置24の表面には、例えば、拡散板が設けられており、照明装置24により出射されたフラッシュ光は、拡散板で拡散され、被写体に照射される。   Under the control of the control unit 101, the illumination device 24 illuminates the exterior or interior of the housing 10 with a predetermined brightness, and emits flash light in accordance with the timing at which a captured image is acquired. For example, a diffusion plate is provided on the surface of the illuminating device 24, and the flash light emitted from the illuminating device 24 is diffused by the diffusing plate and applied to the subject.

制御部101は、ROM182に記憶されているプログラムかデータ、または記憶部181に記憶され、RAM183にロードされたプログラムかデータにしたがって、写真シール販売機1全体の動作、処理を制御する。例えば、制御部101は、画像表示部22を制御し、画像表示部22にライブビュー画像を表示させたり、補正されたライブビュー画像を表示させる。   The control unit 101 controls the operation and processing of the entire photo sticker vending machine 1 according to the program or data stored in the ROM 182 or the program or data stored in the storage unit 181 and loaded into the RAM 183. For example, the control unit 101 controls the image display unit 22 to display a live view image on the image display unit 22 or display a corrected live view image.

硬貨処理部102は、例えば、図1の硬貨投入口41から投入された硬貨の金額を検出し、所定の代金が投入されたと判定した場合、起動信号を制御部101に供給する。また、硬貨処理部102は、例えば、硬貨投入口41から所定の代金より多い金額の硬貨が投入された場合、つり銭の金額を算出し、算出したつり銭の硬貨を硬貨返却口42に排出する処理を行う。   For example, the coin processing unit 102 detects the amount of coins inserted from the coin insertion port 41 of FIG. 1, and supplies an activation signal to the control unit 101 when determining that a predetermined price has been inserted. In addition, for example, when a coin having an amount larger than a predetermined price is inserted from the coin insertion slot 41, the coin processing unit 102 calculates the amount of change and discharges the calculated change coin to the coin return slot 42. I do.

カーテン部103は、制御部101の制御により、ユーザの所望の背景カーテン16を閉じる。例えば、ユーザは、画像表示部22に表示された複数の背景カーテンの種類から、タッチペン23を操作し、所望の背景カーテンを選択する。そして、ユーザの選択した背景カーテンを表すカーテン選択信号が、制御部101に供給され、制御部101は、カーテン部103を制御して、カーテン選択信号が表す背景カーテンを閉じる。   The curtain unit 103 closes the background curtain 16 desired by the user under the control of the control unit 101. For example, the user selects a desired background curtain by operating the touch pen 23 from a plurality of types of background curtains displayed on the image display unit 22. Then, a curtain selection signal representing the background curtain selected by the user is supplied to the control unit 101, and the control unit 101 controls the curtain unit 103 to close the background curtain represented by the curtain selection signal.

操作入力部104は、例えば、操作を入力するボタンなどにより構成されており、ユーザからの操作入力を受け付ける。操作入力部104は、操作入力を受け付けた場合、制御部101に、その操作入力を表す操作入力信号を供給する。   The operation input unit 104 includes, for example, a button for inputting an operation, and receives an operation input from the user. When the operation input unit 104 receives an operation input, the operation input unit 104 supplies an operation input signal representing the operation input to the control unit 101.

スピーカ105は、制御部101から供給された制御信号に基づく音声を出力する。通信部106は、制御部101の制御により、ネットワークを介しての通信処理を行う。例えば、通信部106は、インターネットを含む各種のネットワークを介して接続され、撮影画像または画像の画像データを蓄積し、配信する専用のサーバに、ユーザにより選択された画像データやユーザの携帯電話機などのメールアドレスを、アップロードする。サーバは、アップロードされた画像データを配信可能な状態で蓄積し、そのURL(Uniform Resource Locator)を、通信部106から取得したメールアドレスの携帯電話機等に送信する。URLを取得した携帯電話機は、そのURLにアクセスすることにより、画像データをダウンロードすることができる。このようにして、写真シール販売機1は、編集画像の画像データを印刷するだけでなく、撮影画像または編集画像の画像データを携帯電話機等に供給することができる。   The speaker 105 outputs sound based on the control signal supplied from the control unit 101. The communication unit 106 performs communication processing via the network under the control of the control unit 101. For example, the communication unit 106 is connected via various networks including the Internet, and stores image data or image data of an image and a dedicated server that distributes the image data selected by the user or the user's mobile phone. Upload your email address. The server accumulates the uploaded image data in a distributable state, and transmits the URL (Uniform Resource Locator) to a mobile phone or the like of the mail address acquired from the communication unit 106. The mobile phone that has obtained the URL can download the image data by accessing the URL. In this way, the photo sticker vending machine 1 can not only print the image data of the edited image but also supply the captured image or the image data of the edited image to a mobile phone or the like.

補正処理部107は、カメラ21により撮像されたユーザ(被写体)の画像が動画像(ライブビュー画像)としてリアルタイムで表示されており、ユーザがタッチペン23を用いてその画像に対して入力した場合、補正処理部107は、その操作入力に基づいてユーザの画像を補正する。例えば、補正処理部107は、制御部101を介して供給されるライブビュー画像を取得すると、画像表示部22に表示されたライブビュー画像に対するユーザからの操作に基づいて、ライブビュー画像に対して、ユーザの目を大きくしたり、あごを細くするなどの補正を行い、その補正結果のライブビュー画像を、制御部101を介して画像表示部22に供給する。これにより、画像表示部22には、補正されたライブビュー画像(以下、ライブビュー補正画像と称する)が表示される。   When the image of the user (subject) captured by the camera 21 is displayed in real time as a moving image (live view image) and the user inputs the image using the touch pen 23, the correction processing unit 107 The correction processing unit 107 corrects the user image based on the operation input. For example, when the correction processing unit 107 acquires the live view image supplied via the control unit 101, the correction processing unit 107 applies the live view image to the live view image based on a user operation on the live view image displayed on the image display unit 22. Then, correction such as increasing the eyes of the user or narrowing the chin is performed, and a live view image as a result of the correction is supplied to the image display unit 22 via the control unit 101. As a result, a corrected live view image (hereinafter referred to as a live view corrected image) is displayed on the image display unit 22.

タッチパネル121は、対応するタッチペン23からの入力を検出する。すなわちユーザは、画像表示部22に表示された選択ボタンをタッチペン23を用いて選択したり、画像表示部22に表示された撮影画像に対して、その上に落書きなどを行う。タッチペン23による入力データは、タッチパネル121により検出され、入力データとして制御部101に供給される。   The touch panel 121 detects an input from the corresponding touch pen 23. That is, the user selects a selection button displayed on the image display unit 22 by using the touch pen 23, or performs a graffiti on the captured image displayed on the image display unit 22. Input data from the touch pen 23 is detected by the touch panel 121 and supplied to the control unit 101 as input data.

プリンタユニット131は、IDタグリーダ/ライタ141とヘッダ部142から構成される。IDタグリーダ/ライタ141は、シール紙ユニット151に付加されているIDタグ161に記憶されている識別情報を接触、または非接触により読み出し、制御部101に通知する。制御部101は、IDタグリーダ/ライタ141から通知された識別情報に基づいて、装着されているシール紙ユニット151が、写真シール販売機1において使用可能なユニットであるか否かを判定し、使用可能なユニットであると判定したときのみ、その使用を可能にする。制御部101は、写真シール販売機1において使用可能とされるシール紙ユニット151の識別情報を管理している。   The printer unit 131 includes an ID tag reader / writer 141 and a header unit 142. The ID tag reader / writer 141 reads the identification information stored in the ID tag 161 attached to the sticker paper unit 151 by contact or non-contact, and notifies the control unit 101 of it. Based on the identification information notified from the ID tag reader / writer 141, the control unit 101 determines whether or not the attached sticker unit 151 is a unit that can be used in the photo sticker vending machine 1. The unit can be used only when it is determined that it is possible. The control unit 101 manages the identification information of the sticker unit 151 that can be used in the photo sticker vending machine 1.

これにより、写真シール販売機1に対応していない(純正のものでない)シール紙162が利用されるのを防止することができる。また、IDタグ161により、シール紙162の残量等も管理される。なお、シール紙ユニット151が純正のものであるか否かは、シール紙ユニット151にプリントされているバーコード、シールシートとセットで使用されるIC(Integrated Circuit)カードなどにより確認するようにしてもよいし、あるいは、シール紙ユニット151の寸法、形状などにより、機械的に装填可能とすることで確認するようにしてもよい。   Thereby, it is possible to prevent the use of the sticker paper 162 that is not compatible with the photo sticker vending machine 1 (not genuine). Further, the remaining amount of the sticker paper 162 is managed by the ID tag 161. Whether or not the sticker paper unit 151 is genuine is confirmed by a barcode printed on the sticker paper unit 151, an IC (Integrated Circuit) card used in combination with the sticker sheet, or the like. Alternatively, it may be confirmed by making it mechanically loadable depending on the size and shape of the sticker unit 151.

ヘッダ部142は、制御部101の制御により、シール紙ユニット151に予めセットしてあるシール紙162上に、編集画像(データ)を印刷する。なお、シール紙162は、例えばロール状に巻かれた状態で、シール紙ユニット151内に収められており、制御部101は、シール紙ユニット151を制御して、このロール状に巻かれたシール紙162から必要な長さ分だけ紙を引き出させ、ヘッダ部142に、その引き出された部分に印字させることにより、編集画像を印刷させる。制御部101は、編集画像が印刷された部分のシール紙162をロールから切り離し、シール紙排出口50から排出して、ユーザに提供する。   The header unit 142 prints an edited image (data) on a sticker sheet 162 set in advance in the sticker sheet unit 151 under the control of the control unit 101. Note that the sticker paper 162 is housed in the sticker paper unit 151 in a state of being wound in a roll shape, for example, and the control unit 101 controls the sticker paper unit 151 to seal the sticker wound in the roll shape. The paper is pulled out from the paper 162 by a necessary length, and the edited image is printed by causing the header portion 142 to print the drawn portion. The control unit 101 separates the part of the sticker paper 162 on which the edited image is printed from the roll, discharges it from the sticker paper outlet 50, and provides it to the user.

シール紙ユニット151は、写真シール販売機1から着脱可能になっており、内部にシール紙162を装填し、またIDタグリーダ/ライタ141が識別情報を読み取り可能な所定の位置に、IDタグ161が付加されている。IDタグ161は、例えば、ICタグ(制御タグ)、ICカードのメモリにより構成され、識別情報として固有のIDを記憶する。即ち、シール紙ユニット151に付加されているIDタグ161には、個々のシール紙ユニット151を識別する識別情報等を管理するIDが書き込まれている。なお、IDタグ161は、シール紙162と一体にし、分離付加とするようにしてもよい。   The sticker unit 151 is detachable from the photo sticker vending machine 1, is loaded with sticker paper 162, and the ID tag 161 is placed at a predetermined position where the ID tag reader / writer 141 can read the identification information. It has been added. The ID tag 161 includes, for example, an IC tag (control tag) and an IC card memory, and stores a unique ID as identification information. That is, the ID tag 161 attached to the sticker unit 151 is written with an ID for managing identification information for identifying the individual sticker unit 151. The ID tag 161 may be integrated with the sticker paper 162 and added separately.

記憶部181は、ハードディスクやフラッシュメモリ等により構成され、制御部101により制御されて写真シール販売機1のゲームにおける設定情報等のデータ、およびプログラム等を保存する。例えば、記憶部181は、シール紙162を印刷するために必要な選択画像の枚数等の設定情報を記憶する。   The storage unit 181 is configured by a hard disk, a flash memory, and the like, and is controlled by the control unit 101 to store data such as setting information in a game of the photo sticker vending machine 1 and a program. For example, the storage unit 181 stores setting information such as the number of selected images necessary for printing the sticker sheet 162.

ROM182には、例えば、制御部101により実行されるプログラムやデータが記憶される。RAM183には、制御部101の作業中のデータや、記憶部181によりロードされたプログラムやデータを記憶するとともに、各部においてユーザが行った選択、指示等を一時記憶する。   The ROM 182 stores, for example, programs executed by the control unit 101 and data. The RAM 183 stores data being worked on by the control unit 101, programs and data loaded by the storage unit 181, and temporarily stores selections, instructions, and the like made by the user in each unit.

ドライブ191は、リムーバブルメディア192へのデータの記録を制御するとともに、リムーバブルメディア192からのデータの再生を制御する。   The drive 191 controls the recording of data on the removable medium 192 and also controls the reproduction of data from the removable medium 192.

次に、図3のフローチャートを参照して、図2の制御部101が実行するゲーム処理の一例を説明する。   Next, an example of the game process executed by the control unit 101 in FIG. 2 will be described with reference to the flowchart in FIG.

ステップS11において、制御部101は、図2の硬貨処理部102からの、ゲーム処理を起動するための起動信号に基づいて、所定の代金の硬貨が硬貨投入口41から投入されたか否かを判定する。具体的には、硬貨処理部102は、硬貨投入口41から投入された硬貨の金額を検出し、所定の代金以上の硬貨が投入されると、ゲーム処理の起動を指令する起動信号を制御部101に供給する。そして、制御部101は、起動信号が供給されたか否かを判定することにより、所定の代金の硬貨が投入されたか否かを判定する。ステップS11において、所定の代金の硬貨が硬貨投入口41に投入されていないと判定された場合、制御部101は、所定の代金の硬貨が硬貨投入口41から投入されたと判定するまで待機する。   In step S11, the control unit 101 determines whether or not a coin of a predetermined price has been inserted from the coin insertion slot 41, based on an activation signal for activating the game process from the coin processing unit 102 of FIG. To do. Specifically, the coin processing unit 102 detects the amount of coins inserted from the coin insertion port 41, and when a coin of a predetermined price or more is inserted, the control unit sends an activation signal that instructs activation of the game process. 101. And the control part 101 determines whether the coin of the predetermined price was thrown in by determining whether the starting signal was supplied. In step S <b> 11, when it is determined that the coin of the predetermined price is not inserted into the coin insertion slot 41, the control unit 101 waits until it is determined that the coin of the predetermined price is inserted from the coin insertion slot 41.

ステップS11において、所定の代金の硬貨が硬貨投入口41から投入されたと判定された場合、ステップS12に進み、制御部101は、ユーザ(被写体)を撮影する撮影処理を行う。この撮影処理の詳細は、後述する図4のフローチャートを参照して説明する。   If it is determined in step S11 that a coin of a predetermined price has been inserted from the coin slot 41, the process proceeds to step S12, and the control unit 101 performs a shooting process for shooting the user (subject). Details of this photographing process will be described with reference to a flowchart of FIG. 4 described later.

ステップS13において、制御部101は、ステップS12の処理により撮影されて得られた撮影画像を編集する編集処理を行う。この編集処理の詳細は、後述する図14と図15のフローチャートを参照して説明する。   In step S13, the control unit 101 performs an editing process for editing the captured image obtained by the process in step S12. Details of this editing process will be described with reference to flowcharts shown in FIGS.

ステップS14において、制御部101は、ステップS13の処理により編集されて得られた編集画像をシール紙162に印刷する印刷処理を行い、処理を終了する。この印刷処理の詳細は、後述する図17のフローチャートを参照して説明する。   In step S14, the control unit 101 performs a printing process of printing the edited image obtained by editing in the process of step S13 on the sticker sheet 162, and ends the process. Details of this printing process will be described with reference to a flowchart of FIG.

次に、図4のフローチャートを参照して、図3のステップS12の撮影処理の一例を説明する。   Next, an example of the photographing process in step S12 in FIG. 3 will be described with reference to the flowchart in FIG.

ステップS31において、制御部101は、ライブビュー表示補正処理を実行する。ライブビュー表示補正処理は、制御部101からの制御に基づいて、補正処理部107が、カメラ21により撮像されたユーザのライブビュー画像をユーザからの画像を補正する指令に基づいて補正し、画像表示部22が、補正後の画像をライブビュー補正画像として表示する処理である。なお、この処理の詳細は、後述する図5のフローチャートを参照して説明する。   In step S31, the control unit 101 executes a live view display correction process. In the live view display correction processing, based on control from the control unit 101, the correction processing unit 107 corrects the user's live view image captured by the camera 21 based on a command for correcting the image from the user, The display unit 22 is a process of displaying the corrected image as a live view corrected image. Details of this processing will be described with reference to a flowchart of FIG. 5 described later.

ステップS32において、制御部101は、撮影が指令されたか否かを判定する。例えば、画像表示部22に表示されている撮影を行うためのボタン(後述する図6のボタン241)が、ユーザからのタッチペン23を介した操作入力により選択された場合に、制御部101は、撮影が指令されたと判定する。   In step S32, the control unit 101 determines whether shooting has been commanded. For example, when a button for performing shooting (button 241 in FIG. 6 described later) displayed on the image display unit 22 is selected by an operation input from the user via the touch pen 23, the control unit 101 It is determined that shooting has been commanded.

ステップS32において、撮影が指令されていないと判定された場合、処理はステップS33に進み、制御部101は、撮影待機時間が設定時間だけ経過したか否かを判定する。例えば、1回目のステップS33の処理における撮影待機時間は、ステップS31の処理を開始してからの時間を指し、2回目以降のステップS33の処理における撮影待機時間は、後述するステップS36の処理で撮影画像を保存した後からの時間を指す。すなわち、1枚の撮影のための時間が撮影待機時間である。設定時間は、1枚の撮影を行うために予め設定されている時間であり、例えば10秒である。この例の場合、制御部101は、撮影待機時間が10秒経過したか否かを判定する。ステップS33において、撮影待機時間が設定時間だけ経過していないと判定された場合、処理はステップS31に戻り、それ以降の処理が繰り返される。すなわち、撮影が指令されるか、撮影時間が設定時間だけ経過するまで、ライブビュー表示補正処理が実行される。   If it is determined in step S32 that shooting is not instructed, the process proceeds to step S33, and the control unit 101 determines whether or not the shooting standby time has elapsed for the set time. For example, the shooting standby time in the first process of step S33 indicates the time after the start of the process of step S31, and the shooting standby time in the second and subsequent processes of step S33 is the process of step S36 described later. This is the time after the shot image is saved. That is, the time for shooting one image is the shooting standby time. The set time is a time set in advance for shooting one image, and is, for example, 10 seconds. In the case of this example, the control unit 101 determines whether or not the shooting standby time has elapsed for 10 seconds. If it is determined in step S33 that the shooting standby time has not elapsed by the set time, the process returns to step S31, and the subsequent processes are repeated. That is, the live view display correction process is executed until shooting is commanded or until the shooting time has elapsed for the set time.

ステップS32において撮影が指令されたと判定された場合、またはステップS33において撮影待機時間が設定時間だけ経過したと判定された場合、処理はステップS34に進み、制御部101は、カウントダウンを行う。例えば、制御部101は、画像表示部22に「3」、「2」、「1」、「0」等のメッセージを順次表示させるようにしたり、画像表示部22への表示と同時にスピーカ105に、「3」、「2」、「1」、「0」等の音声を出力させるようにすることでカウントダウンを行う。   If it is determined in step S32 that shooting has been commanded, or if it is determined in step S33 that the shooting standby time has elapsed by the set time, the process proceeds to step S34, and the control unit 101 counts down. For example, the control unit 101 sequentially displays messages such as “3”, “2”, “1”, “0” on the image display unit 22, or simultaneously displays the messages on the image display unit 22 on the speaker 105. , “3”, “2”, “1”, “0”, and the like are output so that the countdown is performed.

ステップS35において、制御部101は、画像表示部22に表示されているライブビュー補正画像を静止画像として取り込む。具体的には、上述したステップS31の処理により、カメラ21により撮像され、表示されたライブビュー画像は、ユーザからのライブビュー画像を補正する指令に基づいて補正処理部107により補正され、ライブビュー補正画像として画像表示部22に表示されているので、制御部101は、ステップS32のカウントダウンが0となるタイミング(撮影のタイミング)で、画像表示部22に表示されているライブビュー補正画像(動画像)を静止画像として取り込む。なお、制御部101は、画像表示部22に表示されているライブビュー補正画像を静止画として取り込んでもよいし、補正処理部107により補正されたライブビュー補正画像を補正処理部107から取り込むようにしてもよい。また、ステップS31のライブビュー表示補正処理で補正が行われなかった場合(後述する図5のステップS63で補正が指令されなかった場合)、制御部101は、ライブビュー補正画像ではなく、ライブビュー画像を静止画像として取り込む。この場合においても、制御部101は、カメラ21から静止画像を取り込んでも良いし、画像表示部22に表示されたライブビュー画像から静止画像を取り込んでもよい。   In step S35, the control unit 101 captures the live view corrected image displayed on the image display unit 22 as a still image. Specifically, the live view image captured and displayed by the camera 21 by the process of step S31 described above is corrected by the correction processing unit 107 based on a command for correcting the live view image from the user, and the live view image is displayed. Since it is displayed on the image display unit 22 as a corrected image, the control unit 101 performs the live view correction image (moving image) displayed on the image display unit 22 at the timing (shooting timing) when the countdown in step S32 becomes zero. Image) as a still image. Note that the control unit 101 may capture the live view correction image displayed on the image display unit 22 as a still image, or capture the live view correction image corrected by the correction processing unit 107 from the correction processing unit 107. May be. When correction is not performed in the live view display correction process in step S31 (when correction is not instructed in step S63 in FIG. 5 to be described later), the control unit 101 is not a live view correction image, but a live view. Import an image as a still image. Also in this case, the control unit 101 may capture a still image from the camera 21 or may capture a still image from a live view image displayed on the image display unit 22.

ステップS36において、制御部101は、ステップS35の処理で取り込んだ静止画像(撮影のタイミングで画像表示部22に表示されていたライブビュー補正画像)を、撮影画像としてRAM183に保存する(記憶する)。ここまでのステップS31乃至ステップS36の処理で、1枚の撮影画像が保存された(撮影が行われた)ことになる。すなわち、カメラ21により撮像され、補正処理部107により補正されたライブビュー補正画像が所定のタイミングで保存されることで、撮影が行われる。   In step S36, the control unit 101 saves (stores) the still image captured in step S35 (the live view correction image displayed on the image display unit 22 at the shooting timing) in the RAM 183 as a captured image. . One shot image is stored (shooting has been performed) by the processing in steps S31 to S36 thus far. That is, shooting is performed by saving the live view corrected image captured by the camera 21 and corrected by the correction processing unit 107 at a predetermined timing.

ステップS37において、制御部101は、撮影画像が8枚保存されたか否かを判定する。例えば、制御部101は、ステップS31乃至ステップS36の処理が8回繰り返されたか否かによりこれを判定する。なお、制御部101は、RAM183に保存されている撮影画像の枚数が8枚であるか否かによりこれを判定してもよい。   In step S37, the control unit 101 determines whether eight captured images have been stored. For example, the control unit 101 determines this based on whether or not the processing from step S31 to step S36 has been repeated eight times. Note that the control unit 101 may determine this based on whether or not the number of photographed images stored in the RAM 183 is eight.

ステップS37において、まだ撮影画像が8枚保存されていない(すなわち、保存された撮影画像が8枚未満である)と判定された場合、処理はステップS38に進み、制御部101は、撮影処理時間が2分経過したか否かを判定する。撮影処理時間は、例えば、図4の撮影処理を開始してからの時間である。ここでは、撮影処理時間を2分としたが、これに限定されず、何分でもよい。   If it is determined in step S37 that eight captured images have not yet been stored (that is, the number of stored captured images is less than eight), the process proceeds to step S38, and the control unit 101 performs the photographing processing time. It is determined whether or not 2 minutes have passed. The imaging process time is, for example, the time after the imaging process in FIG. 4 is started. Here, the shooting processing time is 2 minutes, but is not limited to this and may be any number of minutes.

ステップS38において、撮影処理時間がまだ2分経過していないと判定された場合、またはステップS33において、撮影待機時間がまた設定時間だけ経過していないと判定された場合、処理はステップS31に戻り、それ以降の処理が繰り返される。すなわち、撮影画像が8枚保存されるか、撮影処理時間が2分経過するまで、繰り返し撮影が行われる。   If it is determined in step S38 that the shooting process time has not yet elapsed for 2 minutes, or if it is determined in step S33 that the shooting standby time has not elapsed for the set time, the process returns to step S31. The subsequent processing is repeated. That is, repeated shooting is performed until eight shot images are stored or until the shooting processing time has elapsed for 2 minutes.

ステップS37において、撮影画像が8枚保存されたと判定された場合、またはステップS38において、撮影処理時間が2分経過したと判定された場合、撮影処理は終了され、図3のステップS12に戻る。   If it is determined in step S37 that eight shot images have been stored, or if it is determined in step S38 that the shooting process time has passed 2 minutes, the shooting process is terminated, and the process returns to step S12 in FIG.

図4の処理をまとめると、以下のようになる。ユーザからのカメラ21により撮像された(ユーザの)ライブビュー画像への補正の指令に基づいて、ライブビュー画像が補正され、ライブビュー補正画像が表示される。そして、動画像であるライブビュー補正画像が所定のタイミング(撮影のタイミング)で静止画の撮影画像として保存されることで、撮影が行われる。   The processing of FIG. 4 is summarized as follows. The live view image is corrected based on a command for correction to the (view) live view image (of the user) captured by the camera 21 from the user, and the live view corrected image is displayed. Then, the live view correction image, which is a moving image, is stored as a still image captured image at a predetermined timing (capturing timing), thereby capturing an image.

これにより、ライブビュー画像ではなく、ライブビュー補正画像に対する静止画像を、撮影画像として保存することができるので、ユーザは、補正の結果の画像を見ながら撮影を行うことができ、もって、効率よく撮影を行うことができる。また、補正の結果の画像を撮影画像として保存するため、ユーザは、補正の結果の撮影画像に対する不満を解消することができる。このように、ユーザの好みに合わせた撮影を効率よく行うことができる。   As a result, a still image corresponding to the live view corrected image, not the live view image, can be stored as a captured image, so that the user can perform shooting while viewing the corrected image, thereby efficiently. Shooting can be performed. In addition, since the image of the correction result is stored as a captured image, the user can eliminate dissatisfaction with the captured image of the correction result. In this way, it is possible to efficiently perform shooting according to the user's preference.

次に、図5のフローチャートを参照して、図4のステップS31のライブビュー表示補正処理の一例を説明する。なお、この処理は、制御部101からの制御に基づいて各部が実行する処理である。   Next, an example of the live view display correction process in step S31 of FIG. 4 will be described with reference to the flowchart of FIG. This process is a process executed by each unit based on control from the control unit 101.

ステップS61において、カメラ21は、制御部101からの制御に基づいて、被写体(ユーザ)を撮像する。制御部101は、カメラ21により撮像された被写体の画像を動画像としてリアルタイムで画像表示部22に供給する。   In step S <b> 61, the camera 21 captures an image of the subject (user) based on the control from the control unit 101. The control unit 101 supplies the subject image captured by the camera 21 to the image display unit 22 in real time as a moving image.

そこで、ステップS62において、画像表示部22は、カメラ21により撮像された被写体の画像をライブビュー画像(動画像)とし、ライブビュー表示用画面を表示する。例えば、画像表示部22は、図6に示されるようなライブビュー表示用画像を表示する。   Therefore, in step S62, the image display unit 22 displays the live view display screen using the image of the subject captured by the camera 21 as a live view image (moving image). For example, the image display unit 22 displays a live view display image as shown in FIG.

図6のライブビュー表示用画面には、ライブビュー画像領域220、ライブビュー画像領域220に表示されるライブビュー画像221、コントラストを調整するためのボタン222、拡大・縮小を調整するためのボタン223、縦横比を調整するためのボタン224、補正を行う画像領域としてライブビュー画像221全体を選択するためのボタン225、ライブビュー画像221から補正を行う画像領域の範囲を指定するためのボタン226、直前の処理を元に戻すためのボタン227、および撮影を行うためのボタン241が表示されている。また、画面の上部に「ライブビュー表示中」というメッセージが表示されている。   The live view display screen of FIG. 6 includes a live view image area 220, a live view image 221 displayed in the live view image area 220, a button 222 for adjusting contrast, and a button 223 for adjusting enlargement / reduction. A button 224 for adjusting the aspect ratio, a button 225 for selecting the entire live view image 221 as an image area to be corrected, and a button 226 for designating a range of an image area to be corrected from the live view image 221. A button 227 for returning the immediately preceding process and a button 241 for performing shooting are displayed. In addition, the message “Live view is being displayed” is displayed at the top of the screen.

ライブビュー画像領域220には、カメラ21により撮像された画像であって、リアルタイムで動画像として表示されるライブビュー画像221が表示されている。ユーザは、タッチペン23を利用してボタン222を選択することで、コントラストの調整(補正)を指令する。具体的には、ユーザは、ボタン222上の右側を選択することで、ライブビュー画像221のうちの補正を行う画像領域の範囲の画像のコントラストを高く補正(調整)するよう指令し、ボタン222上の左側を選択することで、ライブビュー画像221のうちの補正を行う画像領域の範囲のコントラストを低く補正するよう指令する。   In the live view image area 220, a live view image 221 that is an image captured by the camera 21 and displayed as a moving image in real time is displayed. The user uses the touch pen 23 to select the button 222 to instruct contrast adjustment (correction). Specifically, by selecting the right side on the button 222, the user instructs to correct (adjust) the contrast of the image in the range of the image area to be corrected in the live view image 221, and press the button 222. By selecting the upper left side, a command is given to correct the contrast of the range of the image area to be corrected in the live view image 221 to be low.

また、ユーザは、タッチペン23を利用してボタン223を選択することで、拡大・縮小の調整(補正)を指令する。具体的には、ユーザは、ボタン223上の右側を選択することで、ライブビュー画像221のうちの補正を行う画像領域の範囲の画像を拡大する補正をするよう指令することができ、ボタン223上の左側を選択することで、ライブビュー画像221のうちの補正を行う画像領域の範囲の画像を縮小する補正をするよう指令する。   Further, the user uses the touch pen 23 to select the button 223 to instruct enlargement / reduction adjustment (correction). Specifically, by selecting the right side on the button 223, the user can instruct to perform correction for enlarging the image in the range of the image area to be corrected in the live view image 221. By selecting the upper left side, an instruction to reduce the image in the range of the image area to be corrected in the live view image 221 is instructed.

さらに、ユーザは、タッチペン23を利用してボタン224を選択することで、縦横比の調整(補正)を指令する。具体的には、ユーザは、ボタン224上の右側を選択することで、ライブビュー画像221のうちの補正を行う画像領域の範囲の画像を横広く補正するよう指令することができ、ボタン224上の左側を選択することで、ライブビュー画像221のうちの補正を行う画像領域の範囲の画像を縦広く補正をするよう指令する。   Furthermore, the user instructs adjustment (correction) of the aspect ratio by selecting the button 224 using the touch pen 23. Specifically, by selecting the right side on the button 224, the user can instruct the image of the range of the image area to be corrected in the live view image 221 to be corrected horizontally. Is selected from the live view image 221, the image in the range of the image area to be corrected is commanded to be corrected vertically wide.

また、ユーザは、タッチペン23を利用してボタン225を選択することで、補正を行う画像領域としてライブビュー画像221全体を選択するよう指令する。さらに、ユーザは、タッチペン23を利用してボタン226を選択することで、ライブビュー画像221から補正を行う画像領域の範囲を指定することができる。ユーザは、この2つのボタン225,226を選択することで、ライブビュー画像から補正を行う画像領域の範囲を選択することができる。   In addition, the user uses the touch pen 23 to select the button 225 to instruct to select the entire live view image 221 as an image area to be corrected. Further, the user can specify the range of the image area to be corrected from the live view image 221 by selecting the button 226 using the touch pen 23. The user can select the range of the image area to be corrected from the live view image by selecting these two buttons 225 and 226.

さらに、ユーザは、タッチペン23を利用してボタン227を選択することで、直前の処理を元に戻すことができる。例えば、ユーザによりボタン222の選択により、補正を行う画像領域の範囲の画像のコントラストが高く補正された後、ボタン227が選択された場合、そのコントラストの補正は元に戻され、コントラストを補正する前の画像に戻る。   Furthermore, the user can return to the previous process by selecting the button 227 using the touch pen 23. For example, when the button 227 is selected after the user has selected the button 222 and the contrast of the image in the range of the image area to be corrected is corrected to be high, the contrast correction is restored and the contrast is corrected. Return to the previous image.

ユーザは、ボタン225とボタン226を用いて、ライブビュー画像221のうちの補正を行う画像領域の範囲(一部または全体)を選択し、その後、ボタン222乃至224を選択することで、その選択した範囲の画像を補正するよう指令する。また、ユーザは、ボタン241を選択することで、撮影(ライブビュー画像を、所定のタイミングで静止画として保存する処理)を指令する。   The user uses the button 225 and the button 226 to select a range (part or whole) of the image area to be corrected in the live view image 221, and then selects the button 222 to 224 to select the image area. Command to correct the image in the specified range. In addition, by selecting the button 241, the user commands shooting (processing for saving a live view image as a still image at a predetermined timing).

図5に戻って、ステップS63において、制御部101は、ユーザにより補正が指令されたか否かを判定する。例えば、制御部101は、ボタン222乃至ボタン226(補正を指令するためのボタン)のうちのいずれかがユーザにより選択されたか否かにより、補正が指令されたか否かを判定する。   Returning to FIG. 5, in step S <b> 63, the control unit 101 determines whether correction is instructed by the user. For example, the control unit 101 determines whether correction is instructed based on whether any of the buttons 222 to 226 (buttons for instructing correction) is selected by the user.

ステップS63において、補正が指令された(例えば、図6のボタン222乃至226のうちのいずれかがユーザにより選択された)と判定された場合、処理はステップS64に進み、制御部101は、範囲指定が指令されたか否かを判定する。例えば、制御部101は、ユーザによるタッチペン23を介する操作によりボタン226が選択されたか否かにより、範囲指定が指令されたか否かを判定する。   If it is determined in step S63 that correction has been commanded (for example, any of the buttons 222 to 226 in FIG. 6 has been selected by the user), the process proceeds to step S64, and the control unit 101 sets the range. It is determined whether or not designation is instructed. For example, the control unit 101 determines whether or not range designation is instructed based on whether or not the button 226 is selected by an operation through the touch pen 23 by the user.

ステップS64において、範囲指定が指令された(例えば、ボタン226が選択されたと判定された場合)、処理はステップS65に進み、制御部101は、補正の範囲指定を行う。例えば、制御部101は、図7に示されるようなライブビュー表示用画面を画像表示部22に表示させ、補正の範囲指定の指令に基づいて、補正の範囲指定を行う。図7において、図6と対応する部分には同一の符号を付してあり、その説明は繰り返しになるので省略する。   In step S64, when range designation is commanded (for example, when it is determined that the button 226 is selected), the process proceeds to step S65, and the control unit 101 designates a correction range. For example, the control unit 101 displays a live view display screen as shown in FIG. 7 on the image display unit 22, and performs correction range designation based on a correction range designation command. In FIG. 7, parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and the description thereof is omitted to avoid repetition.

図7のライブビュー表示用画面には、ライブビュー画像221から補正を行う画像領域の範囲を選択するための範囲指定枠251が表示されている。ユーザは、タッチペン23を利用して、この範囲指定枠251の大きさを変更させり、移動させることで、補正を行う画像領域の範囲を指定することができる。ここで、画像領域の範囲の指定を行う方法の一例を、図8乃至図12を参照して説明する。   On the live view display screen in FIG. 7, a range designation frame 251 for selecting a range of an image area to be corrected from the live view image 221 is displayed. The user can specify the range of the image area to be corrected by changing the size of the range specifying frame 251 and moving it using the touch pen 23. Here, an example of a method for specifying the range of the image area will be described with reference to FIGS.

図8に示されるように、タッチペン23のペン先がタッチパネル121に接触(または近接)されている場合、制御部101は、タッチパネル121から検出され、画像表示部22を介して供給された入力データ(ユーザからのタッチペン23を介して供給された入力データ)を検出し、ユーザからの画像領域の範囲の指定を受け付ける。このとき、画像表示部22には、図7に示されるような、ライブビュー画像221の一部を選択するための範囲指定枠251が、ライブビュー画像221に重なるように表示されている。ユーザは、タッチペン23のペン先をタッチパネル121に接触させながら移動させることで、範囲指定枠251の大きさの変更を指定したり、範囲指定枠251の移動を指定する。例えば、ユーザは、図7の範囲指定枠251に外接する四角形の隅または四角形の辺をタッチペン23で選択し、移動させることにより、範囲指定枠251の大きさの変更を指定する。また、ユーザは、図7の範囲指定枠251の円形上をタッチペン23で選択し、移動させ、移動させることにより、範囲指定枠251の移動を指定する。   As shown in FIG. 8, when the pen tip of the touch pen 23 is in contact with (or close to) the touch panel 121, the control unit 101 detects the input data supplied from the touch panel 121 and supplied via the image display unit 22. (Input data supplied from the user via the touch pen 23) is detected, and designation of the range of the image area from the user is accepted. At this time, a range designation frame 251 for selecting a part of the live view image 221 as shown in FIG. 7 is displayed on the image display unit 22 so as to overlap the live view image 221. The user moves the pen tip of the touch pen 23 while touching the touch panel 121, thereby designating a change in the size of the range designation frame 251 or designating movement of the range designation frame 251. For example, the user designates a change in the size of the range designation frame 251 by selecting and moving a square corner or a side of the rectangle circumscribing the range designation frame 251 in FIG. 7 with the touch pen 23. Further, the user designates the movement of the range designation frame 251 by selecting the circle on the range designation frame 251 in FIG.

そして、図9に示されるように、タッチペン23のペン先がタッチパネル121から解放されている場合、制御部101は、ユーザからの画像領域の範囲の指定の決定を受け付ける。   Then, as illustrated in FIG. 9, when the pen tip of the touch pen 23 is released from the touch panel 121, the control unit 101 accepts a determination to specify the range of the image area from the user.

例えば、図8に示される状態で範囲指定枠251に外接する四角形の隅または四角形の辺がタッチペン23で選択されて、移動され(大きくなる方向に移動され)(図8)、タッチペン23のペン先がタッチパネル121から解放された場合(図9)、図10に示されるように、範囲指定枠251aは、範囲指定枠251bに示される大きさへ変更される。すなわち、範囲指定枠251の位置は変更されず、範囲指定枠251の大きさが変更されている。   For example, in the state shown in FIG. 8, a square corner or a side of the rectangle circumscribing the range specifying frame 251 is selected by the touch pen 23 and moved (moved in a larger direction) (FIG. 8). When the tip is released from the touch panel 121 (FIG. 9), as shown in FIG. 10, the range designation frame 251a is changed to the size shown in the range designation frame 251b. That is, the position of the range designation frame 251 is not changed, and the size of the range designation frame 251 is changed.

また、例えば、図8に示される状態で範囲指定枠251の円形上がタッチペン23で選択され、移動され(例えば、図中右上方向に移動され)(図8)、タッチペン23のペン先がタッチパネル121から解放された場合(図9)、図11に示されるように、範囲指定枠251aは、範囲指定枠251cに示される位置へ移動される。すなわち、範囲指定枠251の大きさは変更されず、位置が変更(移動)される。   Also, for example, in the state shown in FIG. 8, the circular top of the range designation frame 251 is selected and moved (for example, moved in the upper right direction in the figure) by the touch pen 23 (FIG. 8), and the pen tip of the touch pen 23 is the touch panel. When released from 121 (FIG. 9), as shown in FIG. 11, the range designation frame 251a is moved to the position indicated by the range designation frame 251c. That is, the size of the range designation frame 251 is not changed, and the position is changed (moved).

このようにして、図12に示されるように補正の範囲が決定される。すなわち、ライブビュー画像221から補正を行う画像領域の範囲として、ユーザの特定部位が選択される。なお、図12では、ライブビュー画像221の補正範囲の内部(すなわち、ライブビュー画像221の一部)のみしか表示していないが、実際には、補正範囲の外側の画像も含めたライブビュー画像221が、図7に示されるように表示される。   In this way, the correction range is determined as shown in FIG. That is, a specific part of the user is selected as the range of the image area to be corrected from the live view image 221. In FIG. 12, only the inside of the correction range of the live view image 221 (that is, a part of the live view image 221) is displayed, but actually, the live view image including an image outside the correction range. 221 is displayed as shown in FIG.

図5に戻って、ステップS65の処理の後、ステップS66において、制御部101は、ユーザからの補正項目の指定の指令を受け付ける。例えば、制御部101は、ユーザからのタッチペン23を介するボタン222乃至224のうちの指定の指令を受け付ける。   Returning to FIG. 5, after the process of step S <b> 65, in step S <b> 66, the control unit 101 accepts a correction item designation command from the user. For example, the control unit 101 receives a designation command from the buttons 222 to 224 via the touch pen 23 from the user.

ステップS67において、補正処理部107は、制御部101からの制御に基づいて、ステップS66の処理で指定された補正項目の指定に対する補正を、指定された範囲のライブビュー画像に対して行う。例えば、ステップS66の処理で、ボタン224の左側、すなわち、縦横比を縦長にする指定が行われた場合、補正処理部107は、縦長にする補正を、ステップS65の処理で指定された範囲のライブビュー画像に対して行う。例えば、図12に示されるように顔の画像のみが、補正範囲である場合、補正処理部107は、図12の顔の画像を縦長にするように画像に対して補正を行う。すなわち、補正処理部107は、ライブビュー画像から補正を行う画像領域の範囲として選択されたユーザの特定部位の画像を補正する。   In step S67, based on the control from the control unit 101, the correction processing unit 107 performs correction for the specification of the correction item specified in step S66 on the live view image in the specified range. For example, in the process of step S66, when the left side of the button 224, that is, when the aspect ratio is specified to be portrait, the correction processing unit 107 performs the correction to the portrait in the range specified by the process of step S65. Perform on live view images. For example, when only the face image is within the correction range as shown in FIG. 12, the correction processing unit 107 corrects the image so that the face image of FIG. That is, the correction processing unit 107 corrects the image of the specific part of the user selected as the range of the image area to be corrected from the live view image.

ステップS64において、範囲指定が選択されていないと判定された場合、すなわち、図6のボタン222乃至224が選択されたと判定された場合、ステップS68において、制御部101は、上述したステップS66の処理と同様に補正項目の指定の指令を受け付ける。   If it is determined in step S64 that the range designation is not selected, that is, if it is determined that the buttons 222 to 224 in FIG. 6 are selected, in step S68, the control unit 101 performs the processing in step S66 described above. In the same manner as described above, a correction item designation command is accepted.

ステップS69において、補正処理部107は、制御部101からの制御に基づいて、ステップS68の処理で受け付けた補正項目の指定(ボタン222乃至224のうちのいずれか1つのボタン)に対する補正を、ライブビュー画像に対して行う。このとき、ライブビュー画像221の全体、すなわち、ライブビュー画像領域220の中の全ての画像に対して画像の補正が行われる。例えばステップS68の処理で、補正項目の指定として、ボタン223の右側、すなわち、拡大する指定が行われた場合、補正処理部107は、拡大する補正を、ライブビュー画像221全体に対して行う。   In step S <b> 69, the correction processing unit 107 performs correction for the correction item designation (any one of the buttons 222 to 224) received in step S <b> 68 based on the control from the control unit 101. Perform on the view image. At this time, image correction is performed on the entire live view image 221, that is, on all images in the live view image area 220. For example, if the right side of the button 223, that is, enlargement designation is performed as the correction item designation in the process of step S68, the correction processing unit 107 performs the enlargement correction on the entire live view image 221.

ステップS67の処理の後、またはステップS69の処理の後、処理はステップS70に進み、制御部101は、ライブビュー画像を、ライブビュー補正画像に更新して表示する。例えばこの処理が、上述したステップS67の処理の後の場合、補正の範囲指定により選択された顔の画像が、縦長に補正され、ライブビュー補正画像として更新され、表示される。例えば、画像表示部22は、図13に示されるようなライブビュー補正画像291をライブビュー領域220に表示する。図13のライブビュー補正画像291は、図6のライブビュー画像221と比較して、顔が縦長になっている(頬の部分が痩せている)。すなわち、撮像され、動画像としてリアルタイムで表示されたライブビュー画像221のうち、補正の範囲の画像が、縦長に補正されて表示されている。このようにライブビュー画像221を補正することで、撮影前に、リアルタイムで画像を補正することができる。   After the process of step S67 or the process of step S69, the process proceeds to step S70, and the control unit 101 updates and displays the live view image as a live view corrected image. For example, when this processing is after the processing in step S67 described above, the face image selected by specifying the correction range is corrected to be vertically long, updated as a live view corrected image, and displayed. For example, the image display unit 22 displays a live view corrected image 291 as shown in FIG. The live view corrected image 291 in FIG. 13 has a vertically long face (the cheek portion is thin) compared to the live view image 221 in FIG. That is, of the live view image 221 that is captured and displayed in real time as a moving image, an image in a correction range is corrected to be displayed vertically. By correcting the live view image 221 in this way, the image can be corrected in real time before shooting.

ステップS63において、補正が指令されていないと判定された場合、またはステップS70の処理の後、処理は終了される。その後、処理は図4のステップS31に戻る。   If it is determined in step S63 that correction is not instructed, or after the process of step S70, the process is terminated. Thereafter, the process returns to step S31 in FIG.

図5の処理により、カメラ21により撮像されたユーザの画像がリアルタイムで動画像として表示されているライブビュー画像221を、ユーザからの指令に基づいて補正し、リアルタイムでライブビュー補正画像291として表示することができる。また、ユーザからのライブビュー画像221における補正の範囲の指定と、補正の指令に基づいて、指定された補正の範囲のライブビュー画像を、ユーザからの指令に基づいて補正し、ライブビュー補正画像291として表示することができる。このように、撮影前(画像が保存される前)に、補正されたライブビュー画像を表示するようにしたので、効率よく撮影を行うことができる。また、ユーザは、補正の結果の撮影画像に対する不満を解消することができる。   5, a live view image 221 in which a user image captured by the camera 21 is displayed as a moving image in real time is corrected based on a command from the user, and is displayed as a live view corrected image 291 in real time. can do. Further, based on the designation of the correction range in the live view image 221 from the user and the correction command, the live view image in the designated correction range is corrected based on the command from the user, and the live view corrected image is obtained. 291 can be displayed. Thus, since the corrected live view image is displayed before shooting (before the image is stored), shooting can be performed efficiently. Further, the user can eliminate dissatisfaction with the captured image as a result of the correction.

次に、図14と図15のフローチャートを参照して、図3のステップS13の編集処理の一例を説明する。   Next, an example of the editing process in step S13 in FIG. 3 will be described with reference to the flowcharts in FIGS.

ステップS81において、画像表示部22は、制御部101からの制御に基づいて、上述した図4のステップS36の処理によりRAM183に保存された撮影画像の一覧を、例えばサムネイル(縮小画像)で表示するとともに、「印刷する画像を選択してね」というメッセージを表示する。   In step S81, the image display unit 22 displays, for example, thumbnails (reduced images) of the list of photographed images stored in the RAM 183 by the process of step S36 in FIG. 4 described above based on the control from the control unit 101. At the same time, a message “Please select an image to print” is displayed.

ステップS82において、制御部101は、設定された枚数分だけ画像が選択されたか否かを判定する。具体的には、例えば、写真シール販売機1の製造元は、その製造時に、シール紙162を印刷するために必要な選択画像の枚数等の設定情報を記憶部181に記憶させておく。制御部101は、その設定情報に基づいて、設定された選択画像の枚数分だけ画像が選択されたか否かを判定する。例えば、設定情報として、選択画像の枚数は4枚であるという情報が記憶部181に記憶されている場合、制御部101は、4枚の画像が選択されたか否かを判定する。この選択は、例えば、画像表示部22に表示された画像に、ユーザがタッチペン23でタッチすることにより行われる。   In step S <b> 82, the control unit 101 determines whether images are selected for the set number of sheets. Specifically, for example, the manufacturer of the photo sticker vending machine 1 stores setting information such as the number of selected images necessary for printing the sticker paper 162 in the storage unit 181 at the time of manufacture. Based on the setting information, the control unit 101 determines whether or not images corresponding to the set number of selected images have been selected. For example, when information indicating that the number of selected images is four is stored in the storage unit 181 as setting information, the control unit 101 determines whether four images have been selected. This selection is performed, for example, when the user touches the image displayed on the image display unit 22 with the touch pen 23.

ステップS82において、設定された枚数分だけ撮影画像が選択されていないと判定された場合、ステップS83に進み、制御部101は、印刷画像選択時間(ステップS81の処理の後の時間)が設定時間(例えば、20秒)だけ経過したか否かを判定する。具体的には、制御部101は、図示せぬタイマを用いて、ステップS81で「印刷する画像を選択してね」というメッセージの表示が開始されてからの時間である印刷画像選択時間を計時し、その印刷画像選択時間が設定時間だけ経過したか否かを判定する。ステップS83において、まだ印刷画像選択時間が設定時間だけ経過していない(印刷画像選択時間が設定時間以下である)と判定された場合、制御部101は、ステップS82に戻り、上述した処理を繰り返す。   If it is determined in step S82 that the set number of photographed images have not been selected, the process advances to step S83, and the control unit 101 determines that the print image selection time (time after the processing in step S81) is the set time. It is determined whether (for example, 20 seconds) has elapsed. Specifically, the control unit 101 uses a timer (not shown) to count the print image selection time, which is the time since the start of the message “Please select an image to print” in step S81. Then, it is determined whether or not the print image selection time has passed for the set time. If it is determined in step S83 that the print image selection time has not yet elapsed for the set time (the print image selection time is equal to or less than the set time), the control unit 101 returns to step S82 and repeats the above-described processing. .

ステップS83において、印刷画像選択時間が設定時間(例えば、20秒)だけ経過したと判定された場合、ステップS84に進み、制御部101は、ランダムに設定枚数(例えば、4枚)の撮影画像を選択する。なお、制御部101は、ユーザにより1枚以上が選択されている場合には、設定枚数に足りない分だけ撮影画像をランダムに選択する。   If it is determined in step S83 that the print image selection time has elapsed for a set time (for example, 20 seconds), the process proceeds to step S84, and the control unit 101 randomly selects a set number (for example, 4) of captured images. select. Note that, when one or more images are selected by the user, the control unit 101 randomly selects a captured image as many as the set number.

ステップS82において、設定された枚数分だけ撮影画像が選択されたと判定された場合、またはステップS84の処理後は、ステップS85に進み、画像表示部22は、制御部101からの制御に基づいて、ステップS82またはステップS84で選択された設定枚数の画像(例えば、4枚の画像)をそれぞれ縮小した(サムネイル)画像とともに、「編集する画像を選択してね」といったメッセージを表示する。このとき、ユーザは、編集する1枚目の画像を、タッチペン23を用いて選択する。   If it is determined in step S82 that the set number of photographed images have been selected, or after the processing in step S84, the process proceeds to step S85, and the image display unit 22 is based on the control from the control unit 101. A message such as “Choose an image to edit” is displayed along with a thumbnail image of the set number of images (for example, four images) selected in step S82 or step S84. At this time, the user uses the touch pen 23 to select the first image to be edited.

ステップS86において、制御部101は、ユーザによる画像の選択とともに、画像の編集を受け付ける。具体的には、タッチパネル121は、タッチペン23からの入力座標を検出し、その入力座標を位置情報として制御部101に供給する。制御部101は、タッチパネル121より供給される位置情報と、画像表示部22に表示されているGUI画像や編集対象となる撮影画像等に基づいて、ユーザによる操作入力の内容を特定し、対応する処理(例えば、編集対象となる撮影画像上に落書き(スタンプ等を含む)を合成する処理)を行い、処理の結果得られる編集画像を画像表示部22の表示等に反映させる。即ち、ユーザは、画像表示部22に表示されたGUI画像をタッチペン23を用いて選択したり、画像表示部22に表示された撮影画像に対してその上に落書きなどを行うことができる。制御部101は、ユーザによる編集の対象となる画像の選択を受け付けた後、図16に示されるような画像編集画面を画像表示部22に表示させる。   In step S86, the control unit 101 accepts image editing together with image selection by the user. Specifically, the touch panel 121 detects input coordinates from the touch pen 23 and supplies the input coordinates to the control unit 101 as position information. The control unit 101 specifies the content of the operation input by the user based on the position information supplied from the touch panel 121, the GUI image displayed on the image display unit 22, the captured image to be edited, and the like. Processing (for example, processing for synthesizing graffiti (including a stamp or the like) on a captured image to be edited) is performed, and an edited image obtained as a result of the processing is reflected on the display of the image display unit 22 or the like. That is, the user can select a GUI image displayed on the image display unit 22 by using the touch pen 23 or can perform a graffiti on the captured image displayed on the image display unit 22. After accepting selection of an image to be edited by the user, the control unit 101 displays an image editing screen as shown in FIG. 16 on the image display unit 22.

図16は、画像表示部22に表示される画像編集画面の例を示す図である。画像編集画面は、基本的に、編集対象画像領域321および入力ツール選択部322から構成される。編集対象画像領域321には、撮影された画像が表示され、入力ツール選択部322には、様々な入力ツール(書き込みツール)を選択するとき操作されるボタンが表示され、ユーザは、この中から、タッチペン23を操作して入力ツールを選択する。   FIG. 16 is a diagram illustrating an example of an image editing screen displayed on the image display unit 22. The image editing screen basically includes an editing target image area 321 and an input tool selection unit 322. The image to be edited is displayed in the image area 321 to be edited, and the input tool selection unit 322 displays buttons that are operated when selecting various input tools (writing tools). The input tool is selected by operating the touch pen 23.

入力ツールには、例えば、手書き文字や図形を書き込むとき使用されるペンツール323や、設定された文字を入力するとき使用される文字ツール324、同一の文字や図形を入力するとき使用されるスタンプツール325、および、それらを消去したいときに使用する消しゴムツール326などがある。そして、ペンツール323が選択されたとき、ペンの太さを選択するウインドウや、ペンの種類(例えば、クレヨンのように、線の一部をかすれたように表示する「クレヨンペン」)、ペンの色(例えば、シアン、マゼンタ、イエローおよびブラックで表わされる色)を選択するウインドウが表示される。また、文字ツール324またはスタンプツール325が選択されたときも同様に、文字またはスタンプを選択するウインドウが表示される。図14のステップS86の処理では、制御部101は、図9に示されるような画像編集画面におけるユーザからのタッチペン23を介する編集の操作を受け付ける。   Examples of the input tool include a pen tool 323 used when writing handwritten characters and figures, a character tool 324 used when inputting set characters, and a stamp tool used when inputting the same characters and figures. 325, and an eraser tool 326 used to erase them. When the pen tool 323 is selected, a window for selecting the thickness of the pen, a pen type (for example, “crayon pen” that displays a part of a line as if it was crayoned like a crayon), A window for selecting a color (for example, a color represented by cyan, magenta, yellow, and black) is displayed. Similarly, when the character tool 324 or the stamp tool 325 is selected, a window for selecting a character or stamp is displayed. In the process of step S86 in FIG. 14, the control unit 101 accepts an editing operation from the user via the touch pen 23 on the image editing screen as shown in FIG.

ステップS87において、制御部101は、図4のステップS36の処理でRAM183に保存された撮影画像(データ)を、ステップS86で受け付けた結果得られる編集画像(データ)に更新する。なお、制御部101は、リアルタイムに撮影画像データを更新するようにしてもよい。また、制御部101は、編集画像を、撮影画像とは別に記憶しておき、編集のやり直しが可能となるようにすることもできる。   In step S87, the control unit 101 updates the captured image (data) stored in the RAM 183 in the process of step S36 in FIG. 4 to the edited image (data) obtained as a result of being received in step S86. Note that the control unit 101 may update the captured image data in real time. The control unit 101 can also store the edited image separately from the captured image so that the editing can be performed again.

ステップS88において、制御部101は、編集処理を開始してからの時間である編集時間が3分経過したか否かを判定する。具体的には、制御部101は、図示せぬタイマを用いて編集処理を開始してからの時間(ステップS81の処理を開始してからの時間)である編集時間を計時し、その編集時間が3分経過したか否かを判定する。ステップS88において、まだ編集時間が3分経過していない(編集時間が3分以下である)と判定された場合、ステップS86に戻り、再度ユーザに編集を行わせる。このとき、ユーザは、例えば、編集対象となる2枚目の画像をタッチペン23を用いて選択し、その画像に対して編集を行う。なおここでは、編集時間を3分としたが、これに限定されず、何分でもよい。   In step S88, the control unit 101 determines whether or not the editing time, which is the time since the editing process was started, has elapsed for 3 minutes. Specifically, the control unit 101 measures an editing time, which is a time after starting the editing process (time after starting the process of step S81) using a timer (not shown), and the editing time. It is determined whether or not 3 minutes have passed. If it is determined in step S88 that the editing time has not yet elapsed for 3 minutes (the editing time is 3 minutes or less), the process returns to step S86 to allow the user to edit again. At this time, for example, the user selects the second image to be edited using the touch pen 23 and edits the image. Although the editing time is 3 minutes here, it is not limited to this and may be any number of minutes.

なお、ステップS88の処理の前に、制御部101は、画像表示部22に終了ボタンのGUI画像を表示させ、その終了ボタンがユーザにより選択されたか否かの判定を行わせるようにしてもよい。この場合、終了ボタンがユーザにより選択されたと判定されたとき、制御部101は、編集時間によらず編集を終了させ、処理は、図15のステップS89に進む。一方、終了ボタンがユーザにより選択されていない場合、ステップS88に進み、制御部101は、上述した処理を行う。   Prior to the processing in step S88, the control unit 101 may cause the image display unit 22 to display a GUI image of the end button and determine whether or not the end button has been selected by the user. . In this case, when it is determined that the end button has been selected by the user, the control unit 101 ends the editing regardless of the editing time, and the process proceeds to step S89 in FIG. On the other hand, if the end button has not been selected by the user, the process proceeds to step S88, and the control unit 101 performs the above-described processing.

ステップS88において、編集時間が3分経過したと判定された場合、ステップS89に進み、画像表示部22は、制御部101からの制御に基づいて、「分割数を選択してね」というメッセージ(分割数の選択を促すメッセージであれば、これに限定されず、また、メッセージは音声出力してもよい)を表示する。   If it is determined in step S88 that the editing time has passed 3 minutes, the process proceeds to step S89, and the image display unit 22 displays a message “Please select the number of divisions” based on the control from the control unit 101 ( The message is not limited to this as long as it is a message prompting the selection of the number of divisions, and the message may be output by voice.

具体的には、例えば、写真シール販売機1の製造元は、その製造時に、設定情報として分割モード(例えば、8分割と16分割)を記憶部181に記憶させておく。制御部101は、その分割モードを読み出し、画像表示部22に表示させる。これにより、ユーザは、8分割と16分割のうち好きな分割モード(分割数)を選択することができる。   Specifically, for example, the manufacturer of the photo sticker vending machine 1 stores a division mode (for example, 8 divisions and 16 divisions) in the storage unit 181 as setting information at the time of manufacture. The control unit 101 reads the division mode and displays it on the image display unit 22. Thereby, the user can select a favorite division mode (number of divisions) among 8 divisions and 16 divisions.

ステップS90において、制御部101は、ユーザによる分割モードの選択を受け付け、ステップS91において、受け付けた分割モードを、RAM183に保存し(記憶させ)、編集処理を終了する。そして、処理は図2のステップS13に戻る。   In step S90, the control unit 101 accepts selection of a division mode by the user. In step S91, the control unit 101 saves (stores) the accepted division mode in the RAM 183, and ends the editing process. Then, the process returns to step S13 in FIG.

次に、図17のフローチャートを参照して、図3のステップS14の印刷処理の一例を説明する。   Next, an example of the printing process in step S14 in FIG. 3 will be described with reference to the flowchart in FIG.

ステップS111において、制御部101は、図15のステップS91でRAM183に記憶された分割モードを読み出す。   In step S111, the control unit 101 reads out the division mode stored in the RAM 183 in step S91 of FIG.

ステップS112において、制御部101は、ヘッダ部142を制御し、図14のステップS87において、RAM183に保存された編集画像データ(プリント画像)を、ステップS111で読み出された分割モードに基づいて印刷領域に割り当て、ステップS113に進む。   In step S112, the control unit 101 controls the header unit 142, and in step S87 of FIG. 14, the edited image data (print image) stored in the RAM 183 is printed based on the division mode read in step S111. The area is allocated, and the process proceeds to step S113.

ステップS113において、制御部101は、ヘッダ部142を制御し、編集画像をシール紙162に印刷して出力する。これにより、シール紙排出口50から写真シール紙が排出され、印刷処理が終了される。そして、処理は図3のステップS14に戻る。   In step S113, the control unit 101 controls the header unit 142 to print and output the edited image on the sticker sheet 162. Thus, the photo sticker paper is discharged from the sticker paper discharge port 50, and the printing process is completed. Then, the process returns to step S14 in FIG.

このように、撮像された画像がライブビュー画像として表示され、ユーザからの補正の指令に基づいてライブビュー画像が補正され、ライブビュー補正画像として表示され、所定のタイミングでライブビュー補正画像が静止画像として保存されることで撮影が行われる。そして、保存された静止画像である撮影画像が編集され、シール紙に印刷されることで、写真シール紙が排出される。   In this way, the captured image is displayed as a live view image, the live view image is corrected based on a correction command from the user, displayed as a live view corrected image, and the live view corrected image is stationary at a predetermined timing. Shooting is performed by saving as an image. Then, the photographed image, which is a stored still image, is edited and printed on the sticker sheet, whereby the photographic sticker sheet is discharged.

次に、本発明を適用した写真シール販売機1の他の構成例について説明する。   Next, another configuration example of the photo sticker vending machine 1 to which the present invention is applied will be described.

[第2の実施の形態]
図18は、写真シール販売機1の第2の実施の形態の内部の構成例を示すブロック図である。図中、図2と対応する部分については同一の符号を付してあり、その説明は繰り返しになるので省略する。
[Second Embodiment]
FIG. 18 is a block diagram illustrating an internal configuration example of the second embodiment of the photo sticker sales machine 1. In the figure, portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and the description thereof will be omitted because it is repeated.

図18と図2を比較するに、図18の構成例では、図2の構成例に加え、顔画像認識部351と分割数設定部352がさらに設けられている。   18 is compared with FIG. 2, in the configuration example of FIG. 18, in addition to the configuration example of FIG. 2, a face image recognition unit 351 and a division number setting unit 352 are further provided.

顔画像認識部351は、カメラ21により撮像された結果得られるライブビュー画像において、ユーザ(被写体)の顔の位置を認識する。また、顔画像認識部351は、ライブビュー画像におけるユーザの顔の位置だけでなく、目の位置、眉毛の位置、鼻の位置、および頬の位置などの、ユーザの特定部位の位置を認識する。さらに、顔画像認識部351は、ライブビュー画像から被写体の人数を認識する。すなわち、顔画像認識部351は、顔の認識とともに、撮像された1人または複数人のユーザ(被写体)の画像に基づいて、ユーザの人数を認識する。顔画像認識部351は、ライブビュー画像からユーザの顔の位置を認識することにより、被写体の人数を容易に認識することができる。   The face image recognition unit 351 recognizes the face position of the user (subject) in the live view image obtained as a result of being captured by the camera 21. Further, the face image recognition unit 351 recognizes not only the position of the user's face in the live view image but also the position of a specific part of the user, such as the position of the eyes, the position of the eyebrows, the position of the nose, and the position of the cheek. . Further, the face image recognition unit 351 recognizes the number of subjects from the live view image. That is, the face image recognition unit 351 recognizes the number of users based on the captured image of one or more users (subjects) together with the recognition of the face. The face image recognition unit 351 can easily recognize the number of subjects by recognizing the position of the user's face from the live view image.

分割数設定部352は、顔画像認識部351により認識された、被写体の人数に応じて、印刷するシール紙の分割数を設定する。具体的には、分割数設定部352は、被写体の人数に応じて、ユーザに提示する分割数の選択肢を設定する。例えば、分割数設定部352は、被写体の人数が2人である場合、出力する写真シール紙を2人で分けられるような分割数を複数求め、求めた複数の分割数を、ユーザに提示する分割数の選択肢として設定する。すなわち、顔画像認識部351により認識されたユーザの人数に基づいて、印刷されるシール紙の分割数(の選択肢)を設定する。   The division number setting unit 352 sets the division number of the sticker sheet to be printed according to the number of subjects recognized by the face image recognition unit 351. Specifically, the division number setting unit 352 sets options for the division number to be presented to the user according to the number of subjects. For example, when the number of subjects is two, the division number setting unit 352 obtains a plurality of division numbers so that the photo sticker sheet to be output can be divided by two people, and presents the obtained plurality of division numbers to the user. Set as an option for the number of divisions. That is, based on the number of users recognized by the face image recognition unit 351, the number of divisions (options) of the sticker sheet to be printed is set.

図18の写真シール販売機1の構成においては、基本的に、図2の写真シール販売機1の構成と同様の処理が実行される。以下に、図18の写真シール販売機1が実行する処理であって、図2の写真シール販売機1が実行する処理とは異なる処理について主に説明する。   In the configuration of the photo sticker vending machine 1 in FIG. 18, the same processing as that of the photo sticker vending machine 1 in FIG. 2 is basically executed. In the following, processing that is executed by the photo sticker vending machine 1 of FIG. 18 and that is different from the processing executed by the photo sticker vending machine 1 of FIG. 2 will be mainly described.

最初に、図19のフローチャートを参照して、ライブビュー表示補正処理の一例を説明する。この処理は、上述した図3のステップS12の詳細な処理である、図4の撮影処理のステップS31におけるライブビュー表示補正処理の詳細な処理の一例である。すなわち、図4のステップS31のライブビュー表示補正処理の詳細は、図2の写真シール販売機1の場合、上述した図5に示される処理で説明され、図18の写真シール販売機1の場合、図19に示される処理で説明される。なお、この処理は、図18の制御部101からの制御に基づいて各部が実行する処理である。   First, an example of the live view display correction process will be described with reference to the flowchart of FIG. This process is an example of a detailed process of the live view display correction process in step S31 of the photographing process in FIG. 4, which is a detailed process in step S12 in FIG. That is, the details of the live view display correction process in step S31 of FIG. 4 are explained in the case of the photo sticker sales machine 1 of FIG. This will be described with reference to the process shown in FIG. This process is a process executed by each unit based on the control from the control unit 101 in FIG.

ステップS141において、カメラ21は、制御部101からの制御に基づいて、被写体(ユーザ)を撮像する。制御部101は、カメラ21により撮像された被写体の画像を動画像としてリアルタイムで画像表示部22に供給する。   In step S <b> 141, the camera 21 captures an image of the subject (user) based on the control from the control unit 101. The control unit 101 supplies the subject image captured by the camera 21 to the image display unit 22 in real time as a moving image.

ステップS142において、画像表示部22は、カメラ21により撮像された被写体の画像をライブビュー画像(動画像)とし、ライブビュー表示用画面を表示する。例えば、画像表示部22は、図20に示されるようなライブビュー表示用画面を表示する。図中、図6と対応する部分については同一の符号を付してあり、その説明は繰り返しになるので省略する。   In step S142, the image display unit 22 displays the live view display screen using the image of the subject captured by the camera 21 as a live view image (moving image). For example, the image display unit 22 displays a live view display screen as shown in FIG. In the figure, portions corresponding to those in FIG. 6 are denoted by the same reference numerals, and the description thereof will be omitted because it will be repeated.

図20のライブビュー表示用画面には、ライブビュー画像領域220、ライブビュー画像221、直前の処理を元に戻すためのボタン227、および撮影を行うためのボタン241の他に、頬(ほほ)を細くするためのボタン381、顔を小さくするためのボタン382、および目を大きくするためのボタン382が表示されている。   In the live view display screen of FIG. 20, in addition to the live view image area 220, the live view image 221, the button 227 for returning the immediately preceding processing, and the button 241 for performing photographing, a cheek A button 381 for narrowing the face, a button 382 for reducing the face, and a button 382 for enlarging the eyes are displayed.

ユーザは、タッチペン23を利用してボタン381を選択することで、ライブビュー画像領域220に表示されているライブビュー画像221におけるユーザの頬を細くするよう指令する。また、ユーザは、タッチペン23を利用してボタン382を選択することで、ライブビュー画像領域220に表示されているライブビュー画像221のうちのユーザの顔を小さくするよう指令する。さらに、ユーザは、タッチペン23を利用してボタン383を選択することで、ライブビュー画像領域220に表示されているライブビュー画像221のうちのユーザの目を大きくするよう指令する。   The user uses the touch pen 23 to select the button 381 to instruct the user's cheek in the live view image 221 displayed in the live view image area 220 to be thin. In addition, the user selects the button 382 using the touch pen 23 to instruct the user's face in the live view image 221 displayed in the live view image area 220 to be reduced. Furthermore, the user selects the button 383 using the touch pen 23 to instruct to enlarge the user's eyes in the live view image 221 displayed in the live view image area 220.

図19に戻って、ステップS143において、制御部101は、ユーザにより補正が指令された(補正項目が指定された)か否かを判定する。例えば、制御部101は、ボタン381乃至383(補正を指令するためのボタン)のうちのいずれかがユーザに選択されたか否かにより、補正が指令されたか否かを判定する。   Returning to FIG. 19, in step S <b> 143, the control unit 101 determines whether correction is instructed by the user (a correction item is specified). For example, the control unit 101 determines whether correction has been commanded based on whether any of the buttons 381 to 383 (buttons for commanding correction) has been selected by the user.

ステップS143において、補正が指令された(例えば、図20のボタン381乃至383のうちのいずれかがユーザにより選択された)と判定された場合、処理はステップS144に進み、制御部101は、ユーザからの補正項目の指令を受け付ける。例えば、制御部101は、ユーザからのタッチペン23を介するボタン381乃至383のうちのいずれかの項目の補正の指令を受け付ける。   If it is determined in step S143 that correction has been commanded (for example, any of the buttons 381 to 383 in FIG. 20 is selected by the user), the process proceeds to step S144, and the control unit 101 determines that the user The correction item command from is accepted. For example, the control unit 101 receives a correction command for any item among the buttons 381 to 383 via the touch pen 23 from the user.

ステップS145において、顔画像認識部351は、制御部101からの制御に基づいて、ライブビュー画像においてユーザの顔の位置を認識する。また顔画像認識部351は、ライブビュー画像からユーザの人数を認識する。   In step S145, the face image recognition unit 351 recognizes the position of the user's face in the live view image based on the control from the control unit 101. The face image recognition unit 351 recognizes the number of users from the live view image.

ステップS146において、顔画像認識部351は、制御部101からの制御に基づいて、補正項目の指令に対する補正範囲を認識する。例えば、ステップS144において図20の頬を痩せさせるためのボタン381が補正項目の指令として受け付けられた場合、顔画像認識部351は、ステップS145の処理で認識した顔の位置から、頬の位置に対する範囲を補正範囲としてさらに認識する。また例えば、ステップS144において顔を小さくするためのボタン382が補正項目の指令として受け付けられた場合、顔画像認識部351は、ステップS145の処理で認識した顔の位置の範囲を補正範囲として認識する。さらに例えば、ステップS144において図20の目を大きくするためのボタン383補正項目の指令として受け付けられた場合、顔画像認識部351は、ステップS145の処理で認識した顔の位置から、目の位置に対する範囲を補正範囲としてさらに認識する。   In step S146, the face image recognition unit 351 recognizes the correction range for the correction item command based on the control from the control unit 101. For example, when the button 381 for thinning the cheek in FIG. 20 is accepted as a correction item command in step S144, the face image recognition unit 351 determines the position of the cheek from the face position recognized in the process of step S145. The range is further recognized as a correction range. For example, when the button 382 for reducing the face is accepted as a correction item command in step S144, the face image recognition unit 351 recognizes the range of the position of the face recognized in the process of step S145 as the correction range. . Further, for example, when the command of the button 383 correction item for enlarging the eye in FIG. 20 is accepted in step S144, the face image recognition unit 351 determines the position of the eye from the face position recognized in the process of step S145. The range is further recognized as a correction range.

ステップS147において、補正処理部107は、補正項目の指令に対する補正を、ステップS146の処理で認識された補正範囲の画像(ライブビュー画像)に対して行う。例えば、補正項目の指令が頬を痩せさせる指令(ボタン381)であった場合、補正処理部107は、ステップS146の処理で認識された頬の位置に対する範囲のライブビュー画像を縦長く(横幅を縮小して)補正する。また例えば、補正項目の指令が顔を小さくする指令(ボタン382)がであった場合、補正処理部107は、ステップS146の処理で認識された顔の位置に対する範囲のライブビュー画像を縮小して補正する。さらに例えば、補正項目の指令が目を大きくする指令(ボタン383)であった場合、補正処理部107は、ステップS146の処理で認識された目の位置に対する範囲のライブビュー画像を拡大して補正する。   In step S147, the correction processing unit 107 performs correction for the correction item command on the image (live view image) in the correction range recognized in the process of step S146. For example, when the correction item command is a command to make the cheeks thin (button 381), the correction processing unit 107 lengthens the live view image in the range with respect to the cheek position recognized in step S146 (the width is increased). Correct by reducing). Also, for example, when the correction item command is a command to reduce the face (button 382), the correction processing unit 107 reduces the live view image in the range with respect to the face position recognized in the process of step S146. to correct. Further, for example, when the correction item command is a command to enlarge the eyes (button 383), the correction processing unit 107 corrects by enlarging the live view image in the range with respect to the eye position recognized in the process of step S146. To do.

ステップS148において、制御部101は、ライブビュー画像を、ライブビュー補正画像に更新して表示する。具体的には、制御部101は、ステップS147の処理で補正処理部107により補正されたライブビュー画像をライブビュー補正画像とし、このライブビュー補正画像を図20のライブビュー画像領域220に表示するよう画像表示部22を制御する。   In step S148, the control unit 101 updates and displays the live view image as a live view corrected image. Specifically, the control unit 101 uses the live view image corrected by the correction processing unit 107 in step S147 as a live view correction image, and displays the live view correction image in the live view image region 220 in FIG. The image display unit 22 is controlled.

ステップS143において、補正が指令されていないと判定された場合、またはステップS148の処理の後、処理は終了される。その後、処理は図4のステップS31に戻る。   If it is determined in step S143 that correction is not instructed, or after the process of step S148, the process ends. Thereafter, the process returns to step S31 in FIG.

図19の処理をまとめると、以下のようになる。顔画像認識部351は、ユーザからの補正項目の指令に基づいて、ライブビュー画像においてユーザの顔の位置を認識するとともに、補正項目の指令に対する補正範囲を認識する。補正処理部107は、補正項目の指令に対する補正を、補正範囲の画像(ライブビュー画像)に対して施し、制御部101は、補正された結果の画像を、ライブビュー補正画像として更新し、表示させる。   The processing in FIG. 19 is summarized as follows. The face image recognition unit 351 recognizes the position of the user's face in the live view image and recognizes the correction range for the correction item command based on the correction item command from the user. The correction processing unit 107 performs correction for the correction item command on the image in the correction range (live view image), and the control unit 101 updates the corrected image as a live view correction image and displays it. Let

これにより、撮影前に、リアルタイムで画像を補正することができる。また、顔画像認識部351が、ユーザの特定部位(例えば、目や頬)を認識するため、ユーザは、ライブビュー画像における補正範囲を指定する必要がなく、容易にライブビュー画像を補正することができる。さらに、補正処理部107が補正項目の指令に対する補正を、顔画像認識部351が認識した補正範囲に対して行うため、ユーザは、ライブビュー画像において、倍率の指定や縦横比の指定などの複雑な指令をする必要がなく、効率よくライブビュー画像を補正することができる。また、ユーザは、補正の結果の撮影画像に対する不満を解消することができる。   Thereby, an image can be corrected in real time before photographing. In addition, since the face image recognition unit 351 recognizes a specific part of the user (for example, eyes or cheeks), the user does not need to specify a correction range in the live view image and can easily correct the live view image. Can do. Furthermore, since the correction processing unit 107 performs correction for the correction item command on the correction range recognized by the face image recognition unit 351, the user can perform complicated operations such as specifying magnification and aspect ratio in the live view image. Therefore, it is possible to correct the live view image efficiently. Further, the user can eliminate dissatisfaction with the captured image as a result of the correction.

なお、図19と図20の例では撮影されるユーザが1人である場合を例として記載したが、顔画像認識部351がユーザの人数を複数人認識した場合には、それぞれのユーザについて、順次、補正が行われるようにしてもよい。例えば、ステップS145の処理で顔画像認識部351によりユーザの人数が2人と認識された場合、画像表示部22には、図27に示されるようなライブビュー表示用画面が表示される。   19 and FIG. 20, the case where one user is photographed is described as an example. However, when the face image recognition unit 351 recognizes a plurality of users, for each user, Corrections may be performed sequentially. For example, when the number of users is recognized as two by the face image recognition unit 351 in the process of step S145, the image display unit 22 displays a live view display screen as shown in FIG.

図27においては、ライブビュー画像領域220に楕円形の選択サークル391,392が表示されている。この選択サークル391,392は、顔画像認識部351により認識されたユーザの顔画像である。また図27の例の場合、選択サークル391は実線で表示されており、選択サークル392は破線で表示されている(以下、実線の選択サークル391を、ハイライトされているものとして扱い、破線の選択サークル392を、ハイライトされていないものとして扱う)。この例の場合、ハイライトされている選択サークル391が、選択されているサークルである。また、図27にはハイライトされる選択サークルを左に移動するためのボタン384と、ハイライトされる選択サークルを右に移動するためのボタン385が表示されている。   In FIG. 27, elliptical selection circles 391 and 392 are displayed in the live view image area 220. The selection circles 391 and 392 are user face images recognized by the face image recognition unit 351. In the example of FIG. 27, the selection circle 391 is displayed as a solid line, and the selection circle 392 is displayed as a broken line (hereinafter, the solid selection circle 391 is treated as being highlighted, The selection circle 392 is treated as not highlighted). In this example, the selected circle 391 that is highlighted is the selected circle. FIG. 27 also shows a button 384 for moving the highlighted selection circle to the left and a button 385 for moving the highlighted selection circle to the right.

制御部101は、ステップS145の処理で顔画像認識部351により複数人のユーザの顔画像が認識された場合、補正するユーザの選択を受け付けるとともに、選択されたユーザの補正項目の指令を受け付ける。すなわち、ステップS144の処理を再び実行する。具体的には、最初に選択サークル391がハイライトされている場合、左側のユーザの補正項目の指令として、例えば、頬を痩せさせるためのボタン381が受け付けられる。次に、ハイライトされる選択サークルがボタン385の選択によって選択サークル392に切り替えられ、右側のユーザの補正項目の指令が受け付けられる。その後、ステップS146乃至ステップS148の処理により、それぞれのユーザの画像についてそれぞれ指令された補正項目に対する補正が施され、ライブビュー補正画像が表示される。   When the face image recognition unit 351 recognizes the face images of a plurality of users in the process of step S145, the control unit 101 accepts selection of the users to be corrected and accepts a command of correction items of the selected users. That is, the process of step S144 is executed again. Specifically, when the selection circle 391 is initially highlighted, for example, a button 381 for thinning the cheek is accepted as a correction item command for the user on the left side. Next, the highlighted selection circle is switched to the selection circle 392 by selecting the button 385, and the correction item command of the right user is accepted. Thereafter, by the processing from step S146 to step S148, the correction items instructed for each user image are corrected, and the live view corrected image is displayed.

なお、図27の例では、顔画像認識部351により2人のユーザが認識された場合について説明したが、3人のユーザが認識された場合には、3人のユーザの顔を選択カーソルで表示し、ハイライトされる選択サークルが、補正対象のサークルとすればよい。このことは、3人以上の複数のユーザの場合についても同様である。   In the example of FIG. 27, the case where two users are recognized by the face image recognition unit 351 has been described. However, when three users are recognized, the faces of the three users are selected with a selection cursor. The selected circle to be displayed and highlighted may be the circle to be corrected. The same applies to the case of three or more users.

次に、図21のフローチャートを参照して、編集処理の一例を説明する。この処理は、上述した図3のステップS13の編集処理の詳細な処理の一例である。すなわち、図3のステップS13の編集処理の詳細は、図2の写真シール販売機1の場合、上述した図14と図15に示される処理で説明され、図18の写真シール販売機1の場合、図21と図22に示される処理で説明される。なお、この処理は、図18の制御部101からの制御に基づいて各部が実行する処理である。   Next, an example of editing processing will be described with reference to the flowchart of FIG. This processing is an example of detailed processing of the editing processing in step S13 of FIG. 3 described above. That is, the details of the editing process in step S13 in FIG. 3 are described in the case of the photo sticker vending machine 1 in FIG. 2 by the processing shown in FIGS. 14 and 15 described above, and the case of the photo sticker vending machine 1 in FIG. The process shown in FIGS. 21 and 22 will be described. This process is a process executed by each unit based on the control from the control unit 101 in FIG.

ステップS181乃至ステップS188の処理は、上述した図14のステップS81乃至ステップS88の処理と同様であるのでその説明は省略する。   Since the processing from step S181 to step S188 is the same as the processing from step S81 to step S88 in FIG. 14 described above, description thereof is omitted.

ステップS189において、画像表示部22は、制御部101からの制御に基づいて、「分割数を選択してね」というメッセージ(分割数の選択を促すメッセージであれば、これに限定されず、また、メッセージは音声出力してもよい)を表示する。   In step S189, the image display unit 22 is not limited to the message “Please select the number of divisions” based on the control from the control unit 101. The message may be output by voice).

ステップS190において、分割数設定部352は、上述した図19のステップS145の処理で、顔画像認識部351により認識された被写体の人数に合わせた分割数を設定する。例えば、分割数設定部352は、図19のステップS145の処理で認識された被写体の人数が2人である場合、分割数を2で割り切れる数字とし、図19のステップS145の処理で認識された被写体の人数が3人である場合、分割数を3で割り切れる数字とする。   In step S190, the division number setting unit 352 sets the division number according to the number of subjects recognized by the face image recognition unit 351 in the process of step S145 of FIG. For example, when the number of subjects recognized in the process of step S145 in FIG. 19 is two, the division number setting unit 352 sets the number of divisions to be divisible by 2, and is recognized in the process of step S145 in FIG. When the number of subjects is three, the number of divisions is a number divisible by three.

ステップS191において、画像表示部22は、制御部101からの制御に基づいて、分割数設定部352により設定された分割数に対する分割数選択画面を表示する。ステップS190の処理で、2人の場合の分割数が設定された場合、画像表示部22は、例えば図23に示されるような分割数選択画面を表示する。   In step S <b> 191, the image display unit 22 displays a division number selection screen for the division number set by the division number setting unit 352 based on the control from the control unit 101. When the number of divisions for two people is set in the process of step S190, the image display unit 22 displays a division number selection screen as shown in FIG. 23, for example.

図23においては、画面の上部に、「分割数を選択してね。」というメッセージが表示されており、ユーザは、タッチペン23を用いて好みの分割数のシールシートを選択できる。この場合、ユーザは、選択枠411を移動(または選択)させることで、シールシート401乃至405の中から好みの分割数のシールシートを選択する。このシールシート401乃至405は、この例の場合、2人で分けられる数の写真シールが割り当てられている。すなわち、分割数設定部352は、シールシート401乃至405を、分割数の選択肢として設定したことを示す。このように、顔画像の認識により、ユーザの人数を認識し、これに基づいて、さらに分割数の選択肢を設定することで、複数のユーザが1グループでゲームを行った場合に、容易に分け合うことができる。すなわち、ユーザのシールの分割数に対する満足度を向上させることができる。   In FIG. 23, a message “Please select the number of divisions” is displayed at the top of the screen, and the user can select a desired number of division sheets using the touch pen 23. In this case, the user moves (or selects) the selection frame 411 to select a desired number of divisional seal sheets from the seal sheets 401 to 405. In this example, the sticker sheets 401 to 405 are assigned the number of photo stickers that can be divided by two people. That is, the division number setting unit 352 indicates that the sticker sheets 401 to 405 are set as division number options. Thus, by recognizing the number of users by recognizing the face image and further setting options for the number of divisions based on this, it is easy to share when a plurality of users play a game in one group. be able to. That is, the user's satisfaction with the number of seals can be improved.

図22に戻って、ステップS192において、制御部101は、ユーザによる分割数の選択(シールシート401乃至405のうちのいずれか1つの選択)を受け付ける。   Returning to FIG. 22, in step S192, the control unit 101 accepts selection of the number of divisions by the user (selection of any one of the seal sheets 401 to 405).

ステップS193において、制御部101は、ステップS192で選択を受け付けた分割数の選択を、RAM183に保存し(記憶させ)、編集処理を終了する。そして、処理は図2のステップS13に戻る。   In step S193, the control unit 101 saves (stores) the selection of the number of divisions received in step S192 in the RAM 183, and ends the editing process. Then, the process returns to step S13 in FIG.

図22の処理により、ユーザの人数を認識し、これに基づいて、さらに分割数の選択肢を設定するようにしたので、複数のユーザが1グループでゲームを行った場合に、容易に分け合うことができる。また、ユーザのシールの分割数に対する満足度を向上させることができる。   Since the number of users is recognized by the processing of FIG. 22 and the option of the number of divisions is further set based on this, when a plurality of users play a game in one group, they can be easily shared. it can. In addition, the user's satisfaction with respect to the number of seal divisions can be improved.

次に、ライブビュー画像の補正の例について説明する。   Next, an example of live view image correction will be described.

補正処理部107によるライブビュー画像の補正範囲に対する補正の比率は、補正範囲の画像に対して数パーセントとする。これは、ユーザとは全く異なる人物が撮影されたとユーザに思わせるほどの補正を行わないようにするためである。すなわち、補正処理部107は、ユーザの顔がある程度認識できる程度に、補正範囲の画像を補正する。   The correction ratio of the correction processing unit 107 to the correction range of the live view image is set to several percent with respect to the correction range image. This is in order not to make corrections that make the user think that a person completely different from the user has been shot. That is, the correction processing unit 107 corrects the image in the correction range so that the user's face can be recognized to some extent.

この補正処理部107による補正の指定項目は、上述した図20に示されるように、頬を痩せさせる指定、顔を小さくする指定、および目を大きくする指定項目に限定されず、ユーザの特定部位を補正するような項目であればなんでもよい。   As shown in FIG. 20 described above, the correction specification items by the correction processing unit 107 are not limited to the specification items for thinning the cheek, the specification for reducing the face, and the specification item for increasing the eyes. Any item can be used as long as it corrects.

例えば、ライブビュー画像領域(例えば、図6のライブビュー画像領域220)に、図24の左側に示されるようなライブビュー画像431が表示され、図19のステップS144の処理で、ユーザから目を補正するための指定項目が受け付けられた場合、顔画像認識部351は、ライブビュー画像431の目の位置の範囲を補正範囲として認識し、補正処理部107は、目の位置の範囲(補正範囲)を数パーセント拡大するとともに、目の位置を上に移動する。その結果、図24の右側に示されるようなライブビュー補正画像432が画像表示部22に表示される。このように、補正処理部107は、ライブビュー画像431におけるユーザの目を大きくするとともに、目の位置を上に移動することで、ライブビュー画像431を補正してライブビュー補正画像432を生成する。   For example, a live view image 431 as shown on the left side of FIG. 24 is displayed in the live view image area (for example, the live view image area 220 of FIG. 6), and the process of step S144 in FIG. When the specified item for correction is received, the face image recognition unit 351 recognizes the eye position range of the live view image 431 as the correction range, and the correction processing unit 107 detects the eye position range (correction range). ) By a few percent and move the eye up. As a result, a live view corrected image 432 as shown on the right side of FIG. 24 is displayed on the image display unit 22. In this way, the correction processing unit 107 corrects the live view image 431 and generates the live view corrected image 432 by enlarging the user's eyes in the live view image 431 and moving the eye position upward. .

また、例えば、ライブビュー画像領域(例えば、図6のライブビュー画像領域220)に、図25の左側に示されるようなライブビュー画像441が表示され、図19のステップS144の処理で、ユーザから頬を補正する(痩せさせる)ための指定項目が受け付けられた場合、顔画像認識部351は、ライブビュー画像431の頬の位置の範囲を補正範囲として認識し、補正処理部107は、頬の位置の範囲(補正範囲)を数パーセント横に縮小する。その結果、図25の右側に示されるようなライブビュー補正画像442が画像表示部22に表示される。このように、補正処理部107は、ライブビュー画像441におけるユーザの頬を痩せさせることで、ライブビュー画像441を補正してライブビュー補正画像442を生成する。   Further, for example, a live view image 441 as shown on the left side of FIG. 25 is displayed in the live view image area (for example, the live view image area 220 of FIG. 6), and the user performs the process in step S144 of FIG. When a designation item for correcting (skinning) the cheek is received, the face image recognition unit 351 recognizes the cheek position range of the live view image 431 as the correction range, and the correction processing unit 107 Reduce the position range (correction range) several percent horizontally. As a result, a live view corrected image 442 as shown on the right side of FIG. 25 is displayed on the image display unit 22. As described above, the correction processing unit 107 corrects the live view image 441 and generates the live view corrected image 442 by fainting the user's cheek in the live view image 441.

さらに、例えば、補正処理部107は、所定の定められた比率(美人化の法則に基づく比率)になるように補正率を求め、補正するようにしてもよい。   Furthermore, for example, the correction processing unit 107 may obtain and correct the correction rate so as to obtain a predetermined ratio (a ratio based on the law of beautification).

以下に、美人化の法則の一例を示す。   Below is an example of the law of beautification.

法則1:顔の横幅5等分の法則
顔の横幅は目の横幅を基準に目が横に5つ並ぶ幅であり、その幅が均等である
Law 1: Face width is divided into five equal parts. The width of the face is the width of five eyes arranged side by side based on the width of the eyes, and the width is equal.

法則1を図18の写真シール販売機1に適用する場合、顔画像認識部351は、顔の横幅(水平方向の目のラインの横幅)と目の幅を取得するようにし、補正処理部107が、目の幅を均等とし、目の横位置を変更するように補正する。   When Rule 1 is applied to the photo sticker vending machine 1 of FIG. 18, the face image recognition unit 351 acquires the width of the face (horizontal width of the eye line in the horizontal direction) and the width of the eye, and the correction processing unit 107. However, it is corrected so that the width of the eyes is made uniform and the lateral position of the eyes is changed.

法則2:パーツバランス3分の1の法則
「額の髪の生え際から眉毛の生え際」、「眉毛の生え際から鼻の先端」、「鼻の先端からアゴの先端」が3等分されている。また、「眉毛の生え際から鼻の先端」が他の部分よりも小さい場合、目が強調される。
Law 2: Law of one-third parts balance "The hairline of the forehead to the hairline of the eyebrows", "The hairline of the eyebrows to the tip of the nose", and "The tip of the nose to the tip of the jaw" are divided into three equal parts. Further, when “the eyebrow hairline to the tip of the nose” is smaller than the other parts, the eyes are emphasized.

法則2の場合、額が髪の毛で隠されているとき、顔画像認識部351は額の髪の生え際を取得せず、眉毛の生え際、鼻の先端、アゴの先端を取得するようにし、補正処理部107が、「鼻の先端からアゴの先端」と「眉毛の生え際から鼻の先端」との距離を求め、これが所定の値以下であれば、眉毛の位置を下に下げるように補正することで、眉毛の生え際から鼻の先端の距離を短くする。顔画像認識部351は、鼻の位置として小鼻と先端しか取得しないため、鼻の位置は移動されない。また、補正処理部107は、目の位置を、眉毛といっしょに下げるように補正した場合、法則1に当てはまらなくなるため、眉毛の位置のみを補正する。   In the case of Law 2, when the forehead is hidden by the hair, the face image recognition unit 351 does not acquire the hairline of the forehead, but acquires the hairline of the eyebrows, the tip of the nose, and the tip of the jaw, and the correction processing The unit 107 calculates the distance between “the tip of the nose to the tip of the jaw” and “the tip of the eyebrow from the hairline”, and if this is less than a predetermined value, corrects the position of the eyebrows to be lowered. Then, shorten the distance from the hairline of the eyebrows to the tip of the nose. Since the face image recognition unit 351 acquires only the nose and tip as the nose position, the nose position is not moved. Further, the correction processing unit 107 corrects only the position of the eyebrows because it does not apply to the first law when the eye position is corrected so as to be lowered together with the eyebrows.

法則3:パーツ位置関係の法則
眉:眉頭は目頭の真上、眉尻は小鼻と目尻を結んだ延長線上で止める
目:額の髪の生え際とそこから唇の真中までの距離のちょうど中間に位置する
唇:鼻の下からあごの先までを3等分し、その上の3分の1線上に唇の真中が位置している。口角は、黒目の鼻側と直線で結べる。
Law 3: Part position relations Eyebrows: Stop the eyebrows right above the eyes and the eyebrows at the extension line connecting the nose and the eyes. Positioned lips: The bottom of the nose to the tip of the chin is divided into three equal parts, and the middle of the lips is located on the upper third line. The corner of the mouth can be connected to the nose side of the eye with a straight line.

法則3の場合、顔画像認識部351は、眉頭をさらに取得し、補正処理部107は、目頭の真上に来るように眉毛を移動するよう補正する。また、額が髪の毛で隠されている場合、顔画像認識部351は、額が髪の生え際を取得しないので、補正処理部107は、目の補正を行わない。さらに、顔画像認識部351は、唇の位置をさらに取得し、補正処理部107は、鼻の下からあごの先までを3等分し、その上の3分の1線上に唇の真中が位置するように、唇の位置を補正する。なお、口角は、顔画像認識処理部351が黒目の鼻側を取得しない場合、補正されない。   In the case of rule 3, the face image recognition unit 351 further acquires the eyebrow head, and the correction processing unit 107 corrects the eyebrows to move so as to be directly above the eyeball. When the forehead is hidden by the hair, the face image recognition unit 351 does not acquire the hairline, so the correction processing unit 107 does not perform eye correction. Further, the face image recognizing unit 351 further acquires the position of the lips, and the correction processing unit 107 divides the bottom of the nose to the tip of the chin into three equal parts, and the middle of the lips is on the upper third line. The position of the lips is corrected so that it is positioned. Note that the mouth corner is not corrected when the face image recognition processing unit 351 does not acquire the black nose side.

このように、3つの美人化の法則に基づいて、補正処理部107が補正率を求め、補正するようにしてもよい。   As described above, the correction processing unit 107 may obtain and correct the correction factor based on the three laws of beautification.

また、補正処理部107は、ライブビュー画像の補正範囲の形状に限らず、色を補正するようにしてもよい。   Further, the correction processing unit 107 is not limited to the shape of the correction range of the live view image, and may correct the color.

なお、以上の例では、ライブビュー表示用画面を画像表示部22に表示させるようにしたが、別途、ライブビュー表示用のディスプレイを設けるようにしてもよい。この場合、画面のサイズを、3インチより大きい約6インチ乃至15インチとすることで、ユーザは、撮影位置から、ライブビュー画像を見ることができる。すなわち、ライブビュー表示用のディスプレイを別途設ける場合に、その画面のサイズを大きく(例えば、6インチ乃至15インチと)することで、ユーザは、補正の結果(ライブビュー補正画像)をより正確に識別することができる。   In the above example, the live view display screen is displayed on the image display unit 22, but a display for live view display may be provided separately. In this case, by setting the screen size to about 6 inches to 15 inches, which is larger than 3 inches, the user can view the live view image from the shooting position. That is, when a display for live view display is separately provided, the user can more accurately display the correction result (live view correction image) by increasing the screen size (for example, 6 inches to 15 inches). Can be identified.

また、以上の例では、撮影処理(図4の処理)と、編集処理(図14と図15の処理)が同じ空間(図1のフレーム12内の空間(撮影空間))で行われるようにしたが、撮影処置と編集処理が異なる空間で行われるようにしてもよい。この場合の具体的な例を、図26を参照して説明する。   In the above example, the shooting process (the process in FIG. 4) and the editing process (the process in FIGS. 14 and 15) are performed in the same space (the space in the frame 12 in FIG. 1 (the shooting space)). However, the photographing process and the editing process may be performed in different spaces. A specific example in this case will be described with reference to FIG.

図26は、本発明を適用した写真シール販売機1の他の構成例を示す上面図である。なお、図26は、説明の便宜上、内部が透視できるように表現されている。   FIG. 26 is a top view showing another configuration example of the photo sticker vending machine 1 to which the present invention is applied. Note that FIG. 26 is represented so that the inside can be seen through for convenience of explanation.

図26の写真シール販売機1では、図1の写真シール販売機1に、さらに編集対象となる撮影画像等を表示する編集用画像表示部471と472、印刷対象となる編集画像等を表示する事後処理用画像表示部481が設けられている。即ち、図26では、筐体10の背面10cの図中上部に、編集用画像表示部461が、図中下部に、編集用画像表示部462が設けられている。また、筐体10の面10bに事後処理用画像表示部481が設けられている。   In the photo sticker vending machine 1 of FIG. 26, the image sticker vending machine 1 of FIG. 1 further displays editing image display units 471 and 472 for displaying a photographed image to be edited, an edited image to be printed, and the like. A post-processing image display unit 481 is provided. That is, in FIG. 26, an editing image display unit 461 is provided in the upper part of the rear surface 10c of the housing 10 in the drawing, and an editing image display unit 462 is provided in the lower part of the drawing. A post-processing image display unit 481 is provided on the surface 10 b of the housing 10.

図26において、フレーム12内の空間は、撮影を行うための撮影空間461となっており、筐体10の外部の、編集用画像表示部461と462の周辺の空間は、編集を行うための編集空間462となっている。また、筐体10の外部の、事後処理用画像表示部471の周辺の空間は、印刷および事後処理を行うための印刷/事後処理空間463となっている。ここで、事後処理とは、編集画像の印刷が開始された後、シール紙162に編集画像が印刷されるまでの間に行われる処理である。事後処理には、例えば、撮影画像または編集画像の画像データを携帯電話機等に送信するためのメールアドレスを入力させる処理、販売を促進するためのプロモーション画像を事後処理用画像表示部471に表示させる処理等がある。   In FIG. 26, the space in the frame 12 is a shooting space 461 for shooting, and the space around the editing image display units 461 and 462 outside the housing 10 is used for editing. An editing space 462 is provided. A space around the post-processing image display unit 471 outside the housing 10 is a printing / post-processing space 463 for performing printing and post-processing. Here, the post-processing is processing performed after printing of the edited image is started and before the edited image is printed on the sticker sheet 162. Post processing includes, for example, processing for inputting an e-mail address for transmitting image data of a captured image or edited image to a mobile phone or the like, and displaying a promotion image for promoting sales on the post processing image display unit 471. There are processing.

撮影空間461の内部には、カメラ21により撮像される範囲が撮像画角451とされており、ユーザは、この撮像画角451の範囲内に入り、撮影を行う。すなわち、撮影空間461の内部であって、撮像画角451の外側は、カメラ21により撮像されない範囲となる。図26においては、この撮像されない位置に、ボタン491a、491bが設けられている。このボタン491aと491bは、上述した画像表示部22に表示される操作を指令するためのボタンと同様の機能を持つ。すなわち、このボタン491a、491bは、例えば、図6のボタン222乃至224、並びに図20のボタン381乃至383の機能を備える。また、このボタン491aと491bは、撮影を行うユーザの撮影位置から移動しなくても届く位置に配置される。これにより、ユーザは、ライブビュー画像に補正の指令を行う場合、撮影位置から移動して、画像表示部22に表示されたボタンをタッチペン23を用いて入力せずとも、撮影位置から移動せずにボタン491a、491bに操作を入力すればよいので、容易にライブビュー画像の補正を指令することができる。なお、このボタン491a、491bと、画像表示部22に表示されるボタンを併用するようにしてもよいし、一方だけ設けるようにしてもよい。   Within the shooting space 461, a range captured by the camera 21 is set as an imaging angle of view 451, and the user enters the range of the imaging angle of view 451 and performs shooting. That is, inside the shooting space 461 and outside the imaging angle of view 451 is a range that is not captured by the camera 21. In FIG. 26, buttons 491a and 491b are provided at positions where no image is taken. The buttons 491a and 491b have the same functions as the buttons for instructing the operation displayed on the image display unit 22 described above. That is, the buttons 491a and 491b have the functions of, for example, the buttons 222 to 224 in FIG. 6 and the buttons 381 to 383 in FIG. The buttons 491a and 491b are arranged at positions that can be reached without moving from the photographing position of the user who performs photographing. Accordingly, when the user issues a correction command to the live view image, the user moves from the shooting position and does not move from the shooting position without inputting the button displayed on the image display unit 22 using the touch pen 23. Since it is only necessary to input an operation to the buttons 491a and 491b, it is possible to easily instruct correction of the live view image. The buttons 491a and 491b and the button displayed on the image display unit 22 may be used in combination, or only one of them may be provided.

以下に、ユーザにより図26の写真シール販売機1において行われるゲームの流れについて説明する。なお、図26の写真シール販売機1では、印刷処理と同時に事後処理が行われる。   Below, the flow of the game performed by the user in the photo sticker sales machine 1 of FIG. 26 will be described. In the photo sticker vending machine 1 shown in FIG. 26, post processing is performed simultaneously with the printing processing.

図26の丸で囲んだ番号で示すように、まず第1番目に、ユーザは、撮影空間461に入場し、第2番目に、撮影空間461において、図示せぬ硬貨投入口に硬貨を投入して、撮影作業を行う。このとき、ライブビュー表示補正処理が行われ、ユーザは、ライブビュー画像に対して補正の指令を行い、補正結果のライブビュー補正画像を撮影画像として保存させることができる。第3番目に、ユーザは、撮影空間461から編集空間462に移動し、第4番目に、編集空間462において、編集用画像表示部461と462に表示された撮影画像に対して編集作業を行う。第5番目に、ユーザは、編集空間462から印刷/事後処理空間463に移動し、第6番目に、印刷/事後処理空間463において、事後処理用画像表示部471を用いて、印刷および事後処理作業を行う。   As indicated by the circled numbers in FIG. 26, first, the user first enters the shooting space 461, and secondly, in the shooting space 461, the user inserts a coin into a coin slot (not shown). And do the shooting. At this time, live view display correction processing is performed, and the user can issue a correction command to the live view image and save the corrected live view corrected image as a captured image. Third, the user moves from the shooting space 461 to the editing space 462. Fourth, in the editing space 462, the user performs editing operations on the shot images displayed on the editing image display units 461 and 462. . Fifth, the user moves from the editing space 462 to the print / post-processing space 463. Sixth, in the print / post-processing space 463, the post-processing image display unit 471 is used to perform printing and post-processing. Do work.

図26の写真シール販売機1では、撮影空間461、編集空間462、印刷/事後処理空間463がそれぞれ異なる位置に配置されているので、ユーザが撮影空間461で撮影作業を行っている間に、別のユーザが編集空間462で編集作業を行ったり、さらに別のユーザが、印刷/事後処理空間463で印刷/事後処理作業を行うことができる。即ち、3重接客を行う(3つのゲームを同時進行させる)ことが可能となる。   In the photo sticker vending machine 1 of FIG. 26, the shooting space 461, the editing space 462, and the print / post-processing space 463 are arranged at different positions, so that while the user is shooting in the shooting space 461, Another user can perform editing work in the editing space 462, and yet another user can perform printing / post-processing work in the printing / post-processing space 463. That is, it becomes possible to perform a triple customer service (three games are simultaneously advanced).

また、図26の写真シール販売機1では、印刷/事後処理空間463において、編集画像の印刷が開始された後、シール紙162に編集画像が印刷されるまでの間に、事後処理が行われるので、ユーザは、印刷終了までの時間を楽しむことができる。   In the photo sticker vending machine 1 shown in FIG. 26, post-processing is performed in the printing / post-processing space 463 after printing of the edited image is started and before the edited image is printed on the sticker sheet 162. Therefore, the user can enjoy the time until the end of printing.

さらに、図26に示されるような写真シール販売機1の構成において、撮影時に図5や図19に示されるようなライブビュー表示補正処理が行われるようにした場合、ユーザは、ライブビュー画像を補正して撮影し(撮影画像として保存し)、その後編集空間462に移動する。従来の編集空間462において、編集を行う場合に撮影画像に補正を施す場合、撮影空間と編集空間が異なるとき、次のユーザが撮影空間を利用していることがあるため、ユーザが補正結果に満足できないときであっても、撮影空間に戻り、再び撮影作業を行うのは困難である。しかしながら、図26の写真シール販売機1においては、撮影時にライブビュー表示補正処理が行われることで、ユーザは補正されたライブビュー画像を用いて撮影を行え、補正結果に満足しながら撮影することができるので、ユーザが編集時に撮影画像に対して不満を抱くこともなく、編集空間462から撮影空間461に戻る必要が出ない。このように、図26に示されるような構成においては、本発明の構成は顕著な効果を奏する。   Furthermore, in the configuration of the photo sticker vending machine 1 as shown in FIG. 26, when the live view display correction process as shown in FIG. 5 or FIG. 19 is performed at the time of shooting, the user displays the live view image. The image is corrected and shot (saved as a shot image), and then moved to the editing space 462. In the conventional editing space 462, when a captured image is corrected when editing, the next user may use the shooting space when the shooting space is different from the editing space. Even when it is not satisfactory, it is difficult to return to the shooting space and perform the shooting operation again. However, in the photo sticker vending machine 1 of FIG. 26, the live view display correction process is performed at the time of shooting, so that the user can shoot using the corrected live view image and shoot while satisfying the correction result. Therefore, there is no need for the user to return to the shooting space 461 from the editing space 462 without dissatisfaction with the shot image during editing. Thus, in the configuration as shown in FIG. 26, the configuration of the present invention has a remarkable effect.

なお、ライブビュー画像の補正の指令や撮影の指令は、ボタン491a、491bなどのアクチュエータに限らず、ダイヤル、リモートスイッチ、または、ジェスチャーで行うようにしても良い。このダイヤルやリモートスイッチなどのアクチュエータにおいても、撮影空間461内であって、撮影時にカメラ21から見えない位置(撮像画角451の外)に配置する。   The live view image correction command and shooting command are not limited to actuators such as the buttons 491a and 491b, but may be performed using a dial, a remote switch, or a gesture. The actuators such as the dial and the remote switch are also arranged in the imaging space 461 and at a position (outside the imaging angle of view 451) that cannot be seen from the camera 21 during imaging.

なお、図26の例の場合、このボタン491a、491bをカメラ21の両側に設けるようにしたが、片側に設けるようにしてもよい。また、ボタン491a、491bを、図1の写真シール販売機1に設けるようにしてもよい。この場合にも、ボタン491の位置は、撮像画角451の外に配置される。   In the example of FIG. 26, the buttons 491a and 491b are provided on both sides of the camera 21, but may be provided on one side. Further, the buttons 491a and 491b may be provided on the photo sticker vending machine 1 shown in FIG. Also in this case, the position of the button 491 is arranged outside the imaging angle of view 451.

また、画像表示部22に表示される、補正の指令や撮影の指令を行うボタン(図6のボタン222乃至224、並びに図20のボタン381乃至383)や編集を行うためのツール(図16の入力ツール選択部322)は、図2の操作入力部104として設けるようにしてもよい。   Further, buttons (buttons 222 to 224 in FIG. 6 and buttons 381 to 383 in FIG. 20) and tools for editing (in FIG. 16) that are displayed on the image display unit 22 and that perform correction commands and shooting commands. The input tool selection unit 322) may be provided as the operation input unit 104 in FIG.

さらに、上述した撮影処理の時間、設定時間および編集時間などは、上述した時間に限らず、何分であってもよい。   Furthermore, the above-described shooting process time, setting time, editing time, and the like are not limited to the above-described time, and may be any number of minutes.

以上のように、写真シール販売機1では、カメラ21により撮像されたユーザの画像を動画像(ライブビュー画像)としてリアルタイムで表示するとともに、ユーザからのライブビュー画像に対する補正の指令を受け付け、受け付けられた指令に基づいて、表示されているライブビュー画像を補正して、ライブビュー補正画像として表示し、ライブビュー補正画像を、所定のタイミングで静止画像(撮影画像)として保存するようにしたので、ユーザは、補正の結果画像(ライブビュー補正画像)を見ながら撮影を行うことができる。すなわち、ユーザの好みに合わせた撮影を効率よく行うことができる。   As described above, the photo sticker vending machine 1 displays the user image captured by the camera 21 in real time as a moving image (live view image), and accepts and accepts a correction command for the live view image from the user. Based on the given command, the displayed live view image is corrected and displayed as a live view corrected image, and the live view corrected image is saved as a still image (captured image) at a predetermined timing. The user can take a picture while viewing the correction result image (live view correction image). That is, it is possible to efficiently perform shooting according to the user's preference.

また、写真シール販売機1は、ライブビュー画像に対する補正を行う画像領域の範囲の指令を受け付け、受け付けた画像領域のライブビュー画像を補正するようにしたので、より、ユーザの好みに合わせた補正を行うことができる。また、ライブビュー画像全体ではなく、ライブビュー画像におけるユーザの特定部位だけを補正することができる。   Further, the photo sticker vending machine 1 accepts a command for the range of the image area to be corrected for the live view image, and corrects the live view image in the received image area. It can be performed. Further, it is possible to correct only a specific part of the user in the live view image, not the entire live view image.

さらに、写真シール販売機1は、ライブビュー画像に対する補正の指令が受け付けられると、ライブビュー画像においてユーザの顔の位置を認識し(顔画像認識部351が認識し)、ユーザの顔として認識された範囲の画像を、受け付けられたユーザからの指令に基づいて補正するようにしたので、ユーザは、顔の位置を手動で入力せずともよく、操作入力を容易にすることができる。また、写真シール販売機1は、ユーザの顔の位置だけでなく、特定部位(例えば、目)を認識するようにしたので、ユーザからの特定部位(例えば目)の補正の指令に基づいて、ライブビュー画像におけるユーザの特定部位(例えば目)の位置を認識し、補正することができる。すなわち、ユーザは、目の補正の指令を行うだけで、目の位置の入力(補正範囲の指定)、補正の指令(拡大、縮小などのパラメータの指令)を行わなくて済み、もって、補正を容易に行うことができる。   Furthermore, when the photo sticker vending machine 1 receives a correction command for the live view image, the photo sticker vending machine 1 recognizes the position of the user's face in the live view image (the face image recognition unit 351 recognizes it) and recognizes it as the user's face. Since the image in the selected range is corrected based on the received instruction from the user, the user does not need to manually input the position of the face, and the operation input can be facilitated. Moreover, since the photo sticker vending machine 1 recognizes not only the position of the user's face but also a specific part (for example, eyes), based on a correction instruction for the specific part (for example, eyes) from the user, The position of the user's specific part (for example, eyes) in the live view image can be recognized and corrected. That is, the user does not need to input the eye position (specify the correction range) and issue the correction command (command for parameters such as enlargement / reduction) just by giving the eye correction command. It can be done easily.

また、写真シール販売機1は、顔の認識とともに、撮像された1人または複数人のユーザ(被写体)の画像に基づいて、ユーザの人数を認識し、認識されたユーザの人数に基づいて、印刷されるシール紙の分割数(の選択肢)を設定するようにしたので、複数のユーザが1グループでゲームを行った場合にも、容易に写真シール紙を分け合うことができる。また、ユーザのシールの分割数に対する満足度を向上させることができる。   Further, the photo sticker vending machine 1 recognizes the number of users based on the image of one or a plurality of users (subjects) taken together with the recognition of the face, and based on the number of recognized users, Since the division number (option) of the sticker paper to be printed is set, even when a plurality of users play a game in one group, the photo sticker paper can be easily shared. In addition, the user's satisfaction with respect to the number of seal divisions can be improved.

なお以上の処理では、制御部101が様々な処理を実行したが、これに限らずCPU(Central Processing Unit)が所定のプログラムを実行することで、これらの処理を実行するようにしてもよい。また、補正処理部107、顔画像認識部351、および分割数設定部352の処理においても、CPUが所定のプログラムを実行することで、これらの処理を実現するようにしてもよい。   In the above process, the control unit 101 executes various processes. However, the present invention is not limited to this, and the CPU (Central Processing Unit) may execute these processes by executing a predetermined program. Also, in the processes of the correction processing unit 107, the face image recognition unit 351, and the division number setting unit 352, these processes may be realized by the CPU executing a predetermined program.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、図2や図18に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア192よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されている記憶部181やROM182が含まれるハードディスクなどで構成される。   As shown in FIG. 2 and FIG. 18, this recording medium is constituted by a package medium comprising a removable medium 192 on which a program is recorded, which is distributed to provide a program to the user, separately from the computer. In addition, it is configured by a hard disk or the like including a storage unit 181 in which a program is recorded and a ROM 182 that are provided to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において上述した一連の処理を実行するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Note that the steps of executing the series of processes described above in this specification are performed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the order described. The processing to be performed is also included.

本発明を適用した写真シール販売機の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photograph sticker vending machine to which this invention is applied. 図1の写真シール販売機の第1の実施の形態の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of 1st Embodiment of the photograph sticker sales machine of FIG. 図1の写真シール販売機におけるゲーム処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the game process in the photograph sticker sales machine of FIG. 図3のステップS12で実行される撮影処理の一例を説明するフローチャートである。4 is a flowchart for explaining an example of a photographing process executed in step S12 of FIG. 図4のステップS31で実行されるライブビュー表示補正処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the live view display correction process performed by step S31 of FIG. 画像表示部に表示されるライブビュー表示用画面の例を示す図である。It is a figure which shows the example of the screen for live view displays displayed on an image display part. 画像表示部に表示される補正範囲を決定する場合のライブビュー表示用画面の例を示す図である。It is a figure which shows the example of the screen for live view display in the case of determining the correction range displayed on an image display part. 補正の範囲の指定を説明するための図である。It is a figure for demonstrating designation | designated of the range of correction | amendment. 補正の範囲の指定を説明するための図である。It is a figure for demonstrating designation | designated of the range of correction | amendment. 画像表示部に表示される補正範囲を決定する場合のライブビュー表示用画面の他の例を示す図である。It is a figure which shows the other example of the screen for live view display in the case of determining the correction | amendment range displayed on an image display part. 画像表示部に表示される補正範囲を決定する場合のライブビュー表示用画像のさらに他の例を示す図である。It is a figure which shows the further another example of the image for live view display in the case of determining the correction range displayed on an image display part. 補正の範囲の指定を説明するための図である。It is a figure for demonstrating designation | designated of the range of correction | amendment. 画像表示部に表示されるライブビュー表示用画面のさらに他の例を示す図である。It is a figure which shows the further another example of the screen for live view displays displayed on an image display part. 図3のステップS13の処理で実行される編集処理の一例を説明するフローチャートである。4 is a flowchart for explaining an example of an editing process executed in the process of step S13 of FIG. 図3のステップS13の処理で実行される編集処理の一例を説明するフローチャートである。4 is a flowchart for explaining an example of an editing process executed in the process of step S13 of FIG. 画像表示部に表示される画像編集画面の例を示す図である。It is a figure which shows the example of the image edit screen displayed on an image display part. 図3のステップS14の処理で実行される印刷処理の一例を説明するフローチャートである。4 is a flowchart for explaining an example of a printing process executed in the process of step S14 of FIG. 図1の写真シール販売機の第2の実施の形態の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of 2nd Embodiment of the photograph sticker vending machine of FIG. 図4のステップS31で実行されるライブビュー補正処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the live view correction process performed by step S31 of FIG. 画像表示部に表示されるライブビュー表示用画面の他の例を示す図である。It is a figure which shows the other example of the screen for live view displays displayed on an image display part. 図3のステップS13の処理で実行される編集処理の他の例を説明するフローチャートである。It is a flowchart explaining the other example of the edit process performed by the process of step S13 of FIG. 図3のステップS13の処理で実行される編集処理の他の例を説明するフローチャートである。It is a flowchart explaining the other example of the edit process performed by the process of step S13 of FIG. 画像表示部に表示される分割数選択画面の例を示す図である。It is a figure which shows the example of the division number selection screen displayed on an image display part. ライブビュー画像とライブビュー補正画像を説明する図である。It is a figure explaining a live view image and a live view correction image. ライブビュー画像とライブビュー補正画像を説明する図である。It is a figure explaining a live view image and a live view correction image. 本発明を適用した写真シール販売機1の他の構成例を示す上面図である。It is a top view which shows the other structural example of the photograph sticker vending machine 1 to which this invention is applied. 画像表示部に表示されるライブビュー表示用画面のさらに他の例を示す図である。It is a figure which shows the further another example of the screen for live view displays displayed on an image display part.

符号の説明Explanation of symbols

1 写真シール販売機
16 カーテン
21 カメラ
22 画像表示部
23 タッチペン
24 照明装置
101 制御部
102 硬貨処理部
103 カーテン部
104 操作入力部
105 スピーカ
106 通信部
107 補正処理部
121 タッチパネル
162 シール紙
181 記憶部
182 ROM
183 RAM
191 ドライブ
192 リムーバブルメディア
351 顔画像認識部
352 分割数設定部
DESCRIPTION OF SYMBOLS 1 Photo sticker vending machine 16 Curtain 21 Camera 22 Image display part 23 Touch pen 24 Illuminating device 101 Control part 102 Coin process part 103 Curtain part 104 Operation input part 105 Speaker 106 Communication part 107 Correction process part 121 Touch panel 162 Sticker paper 181 Storage part 182 ROM
183 RAM
191 Drive 192 Removable media 351 Face image recognition unit 352 Division number setting unit

Claims (5)

被写体を撮像する撮像手段と、
前記撮像手段により撮像された前記被写体の画像を動画像としてリアルタイムで表示部に表示させるよう制御する表示制御手段と、
前記被写体により入力される、前記表示制御手段により表示が制御された前記動画像に対する補正、および、前記動画像に対する補正を行う画像領域の範囲である補正範囲の指令を受け付ける受付手段と、
前記受付手段により受け付けられた指令に基づいて、前記表示制御手段により表示が制御されている前記動画像の前記補正範囲を補正するとともに、複数の前記補正範囲が指令された場合、前記複数の補正範囲に対してそれぞれ個別に受付けられた指令に基づいて、前記動画像の前記複数の補正範囲をそれぞれ補正して、前記表示部に表示させるよう制御する補正手段と、
前記表示部に表示されている前記動画像を、所定のタイミングで静止画像として保存する保存手段と、
前記保存手段により保存された前記画像を編集する編集手段と、
前記編集手段により編集された前記画像をシール紙に印刷する印刷手段と
を備えることを特徴とする写真シール販売機。
Imaging means for imaging a subject;
Display control means for controlling the image of the subject imaged by the imaging means to be displayed on the display unit in real time as a moving image;
A receiving unit that receives a correction for the moving image whose display is controlled by the display control unit and an instruction for a correction range that is a range of an image area to be corrected for the moving image, which is input by the subject;
Based on the command received by the receiving unit, the correction range of the moving image whose display is controlled by the display control unit is corrected, and when a plurality of the correction ranges are commanded, the plurality of corrections Correction means for correcting each of the plurality of correction ranges of the moving image based on a command received individually for each range and controlling the correction to display on the display unit;
Storage means for storing the moving image displayed on the display unit as a still image at a predetermined timing;
Editing means for editing the image stored by the storage means;
A photo sticker vending machine comprising: printing means for printing the image edited by the editing means on sticker paper.
前記撮像手段により撮像された前記被写体の画像において、前記被写体の顔の位置を認識する認識手段をさらに備え、
前記認識手段は、前記受付手段により前記動画像に対する補正の指令が受け付けられると、前記被写体の顔の位置を認識し、
前記補正手段は、前記認識手段により前記被写体の顔として認識された範囲を前記補正範囲として、前記補正範囲の画像を、前記受付手段により受け付けられた指令に基づいて補正するとともに、前記認識手段により複数の被写体の顔の位置が認識された場合、前記複数の被写体の顔にそれぞれ対応する複数の前記補正範囲のうち前記受付手段により受け付けられた指令により選択された前記補正範囲の画像を、前記受付手段により受け付けられた指令に基づいて補正する
ことを特徴とする請求項1に記載の写真シール販売機。
Recognizing means for recognizing the position of the face of the subject in the image of the subject imaged by the imaging means;
The recognizing unit recognizes the position of the face of the subject when a command to correct the moving image is received by the receiving unit;
The correction unit corrects an image in the correction range based on a command received by the reception unit, with the range recognized as the face of the subject by the recognition unit as the correction range , and the recognition unit When the positions of the faces of a plurality of subjects are recognized, the image of the correction range selected by the command received by the receiving unit among the plurality of correction ranges corresponding to the faces of the plurality of subjects, 2. The photo sticker vending machine according to claim 1, wherein correction is performed based on a command received by the receiving means .
前記認識手段は、前記撮像手段により撮像された1人または複数人の被写体の画像に基づいて、前記被写体の人数をさらに認識し、
前記認識手段により認識された前記被写体の人数に応じて、前記印刷手段により印刷される前記シール紙の分割数を設定する分割設定手段を備える
ことを特徴とする請求項に記載の写真シール販売機。
The recognizing means further recognizes the number of subjects based on the image of one or more subjects imaged by the imaging means;
The photo sticker sales according to claim 2 , further comprising: a division setting unit that sets a division number of the sticker sheet printed by the printing unit according to the number of subjects recognized by the recognition unit. Machine.
被写体を撮像する撮像ステップと、
前記撮像ステップの処理により撮像された前記被写体の画像を動画像としてリアルタイムで表示部に表示させるよう制御する第1の表示制御ステップと、
前記被写体により入力される、前記第1の表示制御ステップの処理により表示が制御された前記動画像に対する補正、および、前記動画像に対する補正を行う画像領域の範囲である補正範囲の指令を受け付ける受付ステップと、
前記受付ステップの処理により受け付けられた指令に基づいて、前記第1の表示制御ステップの処理により表示が制御されている前記動画像の前記補正範囲を補正するとともに、複数の前記補正範囲が指令された場合、前記複数の補正範囲に対してそれぞれ個別に受付けられた指令に基づいて、前記動画像の前記複数の補正範囲をそれぞれ補正する補正ステップと、
前記補正ステップの処理により補正された前記動画像を、前記表示部に表示させるよう制御する第2の表示制御ステップと、
前記表示部に表示されている前記動画像を、所定のタイミングで静止画像として保存する保存ステップと、
前記保存ステップの処理により保存された前記画像を編集する編集ステップと、
前記編集ステップの処理により編集された前記画像をシール紙に印刷する印刷ステップと
を含むことを特徴とする写真シール作成方法。
An imaging step for imaging a subject;
A first display control step for controlling the image of the subject imaged by the processing of the imaging step to be displayed as a moving image on the display unit in real time;
Accepting the correction of the moving image whose display is controlled by the processing of the first display control step, which is input by the subject , and the instruction of the correction range that is the range of the image area for performing the correction of the moving image Steps,
Based on the command received by the process of the receiving step, the correction range of the moving image whose display is controlled by the process of the first display control step is corrected, and a plurality of the correction ranges are commanded. A correction step for correcting each of the plurality of correction ranges of the moving image based on a command received individually for each of the plurality of correction ranges ;
A second display control step for controlling the moving image corrected by the correction step to be displayed on the display unit;
A storage step of storing the moving image displayed on the display unit as a still image at a predetermined timing;
An editing step of editing the image saved by the processing of the saving step;
And a printing step of printing the image edited by the editing step on a sticker sheet.
被写体を撮像する撮像ステップと、
前記撮像ステップの処理により撮像された前記被写体の画像を動画像としてリアルタイムで表示部に表示させるよう制御する第1の表示制御ステップと、
前記被写体により入力される、前記第1の表示制御ステップの処理により表示が制御された前記動画像に対する補正、および、前記動画像に対する補正を行う画像領域の範囲である補正範囲の指令を受け付ける受付ステップと、
前記受付ステップの処理により受け付けられた指令に基づいて、前記第1の表示制御ステップの処理により表示が制御されている前記動画像の前記補正範囲を補正するとともに、複数の前記補正範囲が指令された場合、前記複数の補正範囲に対してそれぞれ個別に受付けられた指令に基づいて、前記動画像の前記複数の補正範囲をそれぞれ補正する補正ステップと、
前記補正ステップの処理により補正された前記動画像を、前記表示部に表示させるよう制御する第2の表示制御ステップと、
前記表示部に表示されている前記動画像を、所定のタイミングで静止画像として保存する保存ステップと、
前記保存ステップの処理により保存された前記画像を編集する編集ステップと、
前記編集ステップの処理により編集された前記画像をシール紙に印刷する印刷ステップと
を含む処理をコンピュータに実行させることを特徴とするプログラム。
An imaging step for imaging a subject;
A first display control step for controlling the image of the subject imaged by the processing of the imaging step to be displayed as a moving image on the display unit in real time;
Accepting the correction of the moving image whose display is controlled by the processing of the first display control step, which is input by the subject , and the instruction of the correction range that is the range of the image area for performing the correction of the moving image Steps,
Based on the command received by the process of the receiving step, the correction range of the moving image whose display is controlled by the process of the first display control step is corrected, and a plurality of the correction ranges are commanded. A correction step for correcting each of the plurality of correction ranges of the moving image based on a command received individually for each of the plurality of correction ranges ;
A second display control step for controlling the moving image corrected by the correction step to be displayed on the display unit;
A storage step of storing the moving image displayed on the display unit as a still image at a predetermined timing;
An editing step of editing the image saved by the processing of the saving step;
A program that causes a computer to execute processing including: a printing step of printing the image edited by the processing of the editing step on sticker paper.
JP2004087834A 2004-03-24 2004-03-24 Photo sticker vending machine, photo sticker creation method, and program Expired - Fee Related JP4403497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004087834A JP4403497B2 (en) 2004-03-24 2004-03-24 Photo sticker vending machine, photo sticker creation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004087834A JP4403497B2 (en) 2004-03-24 2004-03-24 Photo sticker vending machine, photo sticker creation method, and program

Publications (2)

Publication Number Publication Date
JP2005277772A JP2005277772A (en) 2005-10-06
JP4403497B2 true JP4403497B2 (en) 2010-01-27

Family

ID=35176970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004087834A Expired - Fee Related JP4403497B2 (en) 2004-03-24 2004-03-24 Photo sticker vending machine, photo sticker creation method, and program

Country Status (1)

Country Link
JP (1) JP4403497B2 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5131086B2 (en) * 2008-08-19 2013-01-30 辰巳電子工業株式会社 Automatic photo creation device, image processing device, image processing method, and image processing program
JP5434020B2 (en) * 2008-09-09 2014-03-05 カシオ計算機株式会社 Imaging apparatus and program
JP4862934B2 (en) 2008-11-28 2012-01-25 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP2010147808A (en) 2008-12-18 2010-07-01 Olympus Imaging Corp Imaging apparatus and image processing method in same
JP5637346B2 (en) * 2009-04-24 2014-12-10 フリュー株式会社 Photo sticker creation apparatus, photo sticker creation method, and program
JP5482030B2 (en) * 2009-08-31 2014-04-23 カシオ計算機株式会社 Imaging apparatus, imaging control program, and imaging control method
JP5115528B2 (en) * 2009-09-16 2013-01-09 フリュー株式会社 Photo sticker creation apparatus, photo sticker creation method, and program
JP2011244421A (en) * 2010-04-21 2011-12-01 Olympus Imaging Corp Imaging apparatus
JP5782873B2 (en) * 2011-07-06 2015-09-24 辰巳電子工業株式会社 Game shooting device, game shooting method and program
JP5482830B2 (en) * 2012-06-22 2014-05-07 フリュー株式会社 Photo sticker creation apparatus, photo sticker creation method, and program
JP5472410B2 (en) * 2012-09-13 2014-04-16 辰巳電子工業株式会社 Automatic photo creation device, image processing device, image processing method, and image processing program
JP5299553B2 (en) * 2012-10-30 2013-09-25 辰巳電子工業株式会社 Automatic photo creation device, image processing device, image processing method, and image processing program
JP5527460B2 (en) * 2013-06-12 2014-06-18 辰巳電子工業株式会社 Game shooting device, game shooting method and computer program
JP6160470B2 (en) * 2013-12-13 2017-07-12 フリュー株式会社 Photo sealing machine, photo sealing machine processing method and program
JP6357803B2 (en) * 2014-02-28 2018-07-18 フリュー株式会社 Image processing apparatus and image processing method
JP6307964B2 (en) * 2014-03-20 2018-04-11 フリュー株式会社 Management server, photo sticker creating apparatus, image management method, control program, and recording medium
JP5660243B2 (en) * 2014-06-20 2015-01-28 辰巳電子工業株式会社 Game shooting device, game shooting method and computer program
JP6245529B2 (en) * 2015-07-22 2017-12-13 辰巳電子工業株式会社 Game shooting device, game shooting method and program
JP5967275B2 (en) * 2015-08-26 2016-08-10 辰巳電子工業株式会社 Photographic game machine, its control method and control computer
JP6371318B2 (en) * 2016-01-05 2018-08-08 株式会社メイクソフトウェア Photography game machine and its control program
JP2018029343A (en) * 2017-09-12 2018-02-22 辰巳電子工業株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2005277772A (en) 2005-10-06

Similar Documents

Publication Publication Date Title
JP4403497B2 (en) Photo sticker vending machine, photo sticker creation method, and program
US9519950B2 (en) Image generating apparatus and image generating method
JP5246524B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2013243648A (en) Photograph seal machine, and processing method and program for photograph seal machine
JP7011206B2 (en) Amusement photography equipment, image processing equipment, and image processing methods
JP2013042314A (en) Photography game machine
JP6773966B2 (en) Image processing equipment, image processing methods, and programs
JP5334073B2 (en) Photo shooting device
JP6792154B2 (en) Photographing game console and image processing method
JP6232662B2 (en) Photography game machine and its control program
JP6254400B2 (en) Photo sticker dispensing device
JP6635170B2 (en) Photo shooting game device, image processing method, and image processing program
JP5483136B1 (en) Imaging apparatus and display control method
JP4317971B2 (en) Photo sticker vending machine, photo sticker creation method, and program
JP7074994B2 (en) Photographing game console and image processing method
JP7132492B2 (en) Image processing device, display control method, and program
JP2021182104A (en) Photograph creation game machine, editing method and program
JP2016133977A (en) Picture shooting game machine, image creation method and image creation program
JP2006162719A (en) Photographic sticker-vending machine and its method and program
JP2016213780A (en) Photograph sticker creation device and image display method
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP2016042641A (en) Photographing game device, image processing method, and image processing program
JP6090369B2 (en) Game shooting device, game shooting method and program
JP5962643B2 (en) Imaging apparatus and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070403

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091008

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091021

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4403497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees