JP2023147877A - System, program and the like - Google Patents

System, program and the like Download PDF

Info

Publication number
JP2023147877A
JP2023147877A JP2022055628A JP2022055628A JP2023147877A JP 2023147877 A JP2023147877 A JP 2023147877A JP 2022055628 A JP2022055628 A JP 2022055628A JP 2022055628 A JP2022055628 A JP 2022055628A JP 2023147877 A JP2023147877 A JP 2023147877A
Authority
JP
Japan
Prior art keywords
user
image
processing
face
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022055628A
Other languages
Japanese (ja)
Inventor
勇喜 清水
Yuki Shimizu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Original Assignee
Yupiteru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp filed Critical Yupiteru Corp
Priority to JP2022055628A priority Critical patent/JP2023147877A/en
Publication of JP2023147877A publication Critical patent/JP2023147877A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a system and a program that allow a user to change a processing content of an image captured by the user based on an advice from a third party.SOLUTION: A system that performs predetermined image processing on a face image including at least a part of a face includes a plurality of patterns of the content of image processing to be collectively applied to a plurality of different parts of the face. When it is selected by a user's operation which pattern should be applied, the image processing of the selected pattern is collectively applied to the plurality of different parts of the face.SELECTED DRAWING: Figure 4

Description

本発明は、例えばシステムおよびプログラム等に関する。 The present invention relates to, for example, a system and a program.

利用者をカメラで撮影し、その撮影画像に対して利用者の操作に基づいて編集を行い、編集後の画像である編集済み画像を、ネットワークを介して外部のシステムに送信したり、シール紙等の媒体に印刷して提供したりする写真撮影編集装置が知られている。 The user is photographed with a camera, the photographed image is edited based on the user's operations, and the edited image is sent to an external system via a network or printed on a sticker sheet. Photographic editing devices are known that print and provide photographs on media such as .

例えば、複数の利用者を含む被写体をカメラで複数回撮影し、その撮影画像を利用者がタッチペン等を用いて編集し、編集された画像をシール紙に印刷するプリントシール機やその画像をネットワークを介して外部の装置に送信したりすることができるプリントシール機を用いたサービスが知られている。このようなシステムでは、撮影された被写体画像を生成して、この被写体画像に利用者が選択した背景画像を合成した上で、目の大きさ、肌の色、顔の輪郭などに、補正を加えたり、「落書き」と呼ばれる文字や模様を重ねる等の編集処理を行い、印刷用の画像を生成する。また「落書き」を、一緒に撮影した複数の利用者が、表示画面に複数のタッチペンや指によるマルチタッチ操作等のタッチ操作が行えるようにして、撮影から編集まで友人同士が一緒に楽しむことができるシステムがある。これに限らず、従来より、さまざまな写真撮影やその撮影した写真を編集するシステムが提案されている。 For example, a print sticker machine that photographs a subject including multiple users multiple times with a camera, edits the photographed images using a touch pen, etc., and prints the edited images on sticker paper, and a network that prints the images. A service using a print sticker machine that can send stickers to an external device via a printer is known. Such systems generate an image of the photographed subject, combine it with a background image selected by the user, and then make corrections to eye size, skin color, facial contour, etc. An image for printing is generated by performing editing processes such as adding or overlapping characters and patterns called "doodles." In addition, multiple users who take pictures together can perform touch operations such as multi-touch operations using multiple touch pens or fingers on the display screen, allowing friends to enjoy the process from shooting to editing together. There is a system that can do it. The system is not limited to this, and various systems for taking photographs and editing the taken photographs have been proposed.

特開2015-207114号公報Japanese Patent Application Publication No. 2015-207114

しかしながら、従来のシステムには、様々な問題があった。
そこで、本発明は従来よりも優れた特性を有するシステム及びプログラム等を提供することを目的とする。
However, conventional systems have various problems.
Therefore, an object of the present invention is to provide a system, a program, etc., which have characteristics superior to those of the prior art.

本発明の目的はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正又は分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。 The purpose of the present invention is not limited thereto, and the present invention intends to acquire rights through divisional applications, amendments, etc. for structures that aim to obtain effects from the parts of the structures disclosed in this specification, drawings, etc. For example, the present specification discloses a problem in which passages such as ``can be done'' or ``possible'' are read as ``the problem is.'' Each issue is described as an independent entity, and we intend to acquire rights to the structure for solving each issue individually through divisional applications, amendments, etc. Even if the problem is implicitly understood from the description of the specification, the present applicant has the intention to claim a part of the structure described in the specification in an amendment or divisional application. The company also discloses a structure that solves a problem that combines these independent problems, and has the intention to acquire the rights to it.

(1)人の顔を含む領域を撮影した撮影画像に対してユーザ操作に応じて加工を加えるシステムであって、 (1) A system that applies processing to a photographed image of an area including a human face in accordance with a user operation,

前記撮影された人とは異なる人の画像を表示させるとともに、当該撮影された人とは異なる人によって前記ユーザ操作または前記加工についてのアドバイス情報が出力されている態様の出力を行う機能を備える構成とするとよい。 A configuration including a function of displaying an image of a person different from the person who was photographed, and outputting advice information regarding the user operation or the processing by a person different from the person who was photographed. It is good to say.

このようにすれば、ユーザである撮影された人とは異なる人によって、ユーザ操作または加工についてのアドバイス情報が出力されている態様の出力がなされる。したがって、ユーザは第三者によるアドバイスに基づいてユーザ自身の撮影した画像の加工の内容を変えることができる。 In this way, advice information regarding user operations or processing is outputted by a person different from the user who took the image. Therefore, the user can change the content of the processing of the image taken by the user based on advice from a third party.

例えば、比較用のやりすぎ盛り具合の画像を学習させた学習モデルを備え、現在調整済みの画像と、やりすぎ画像との一致確率を推論して求める。確率が所定値以上のとき、「盛りすぎかも~」の報知を行う。 For example, a learning model that has been trained on an image with an overdone condition for comparison is provided, and the probability of coincidence between the currently adjusted image and the overdone image is determined by inference. When the probability is equal to or greater than a predetermined value, a notification that "may be too busy" is made.

特に、自分の盛り操作への評価を出力する構成とするとよい。このようにすれば、評価を知って調整することも容易にできる。エンターテイメント性を付加できる。 In particular, it is preferable to have a configuration that outputs the evaluation of the user's own finishing operation. In this way, it is easy to know the evaluation and make adjustments. It can add entertainment value.

画面上に例えばコラボしているモデルやタレント、キャラクタなどの画像を表示し、その口のあたりからの吹き出しに、「盛りすぎかも~」「いい感じ」「もっとまつげを伸ばそう!」などユーザ操作の場所、度合に応じたアドバイスの文字列や絵を表示する構成とするとよい。 For example, images of collaborating models, talents, characters, etc. are displayed on the screen, and speech bubbles around their mouths prompt users to respond with messages such as ``Maybe it's too big,'' ``Looks good,'' and ``Let's grow more eyelashes!'' It is preferable to display a text string or picture of advice depending on the location and degree of the problem.

(2)前記ユーザ操作または前記加工についてのアドバイス情報として、前記ユーザ操作がなされた顔の場所ごとの加工量の度合に応じて異なる情報を出力する機能を備える構成とするとよい。
このようにすれば、ユーザは、顔の場所、例えば顔のパーツごとの加工量の度合に応じてアドバイスを受けることできる。
(2) As advice information regarding the user operation or the processing, the configuration may include a function of outputting different information depending on the degree of processing for each location on the face where the user operation has been performed.
In this way, the user can receive advice depending on the location of the face, for example, the degree of processing for each part of the face.

特にユーザが個別のパーツの盛り具合を調整しているときに、他のパーツの加工度合(盛り具合ともいう)とのバランスから、その調整中のパーツの加工度合の具合のアドバイスをリアルタイムに行うとよい。アドバイスはそのユーザに聞こえる音声でおこなうようにしてもよい。 In particular, when a user is adjusting the thickness of an individual part, advice is given in real time about the degree of machining of the part being adjusted, based on the balance with the degree of machining (also referred to as the degree of thickness) of other parts. Good. The advice may be given in a voice audible to the user.

(3)前記ユーザ操作または前記加工についてのアドバイス情報として、前記ユーザ操作がなされた第一の顔のパーツの加工量に応じて第二の顔のパーツの加工量に応じたアドバイス情報を出力する程度を可変させる機能を備える構成とするとよい。
(4)前記加工の程度として、前記顔が不自然に加工される程度を備え、
(3) As advice information regarding the user operation or the processing, advice information corresponding to the processing amount of the second facial part on which the user operation was performed is output according to the processing amount of the first facial part. It is preferable to adopt a configuration having a function of varying the degree.
(4) The degree of processing includes a degree to which the face is processed unnaturally;

前記不自然に加工される程度まで前記ユーザ操作がなされたときに、前記アドバイス情報として、不自然なまでに加工されている旨の情報を出力する機能を備える構成とするとよい。
(5)当該撮影された人とは異なる人による前記ユーザ操作または前記加工についてのアドバイス情報の出力は、前記ユーザの操作中に行う構成とするとよい。
It is preferable that the configuration includes a function of outputting, as the advice information, information indicating that the image has been unnaturally processed when the user operation has been performed to the extent that the image has been unnaturally processed.
(5) The output of advice information regarding the user operation or the processing by a person different from the person who took the photograph may be performed during the user's operation.

(6)前記ユーザ操作または前記加工についてのアドバイス情報の出力は、前記ユーザ以外の前記撮影をするための装置の周辺にいる人に対して出力する機能を備える構成とするとよい。 (6) The advice information regarding the user operation or the processing may be output to a person other than the user who is around the photographing device.

特に、システム(プリ機ともいう)は通常2人から数名までのグループで撮影するが、プリ機の報知は現在プレー中の人への報知が中心であって、グループ外に向けての広報が弱い。盛りがやり過ぎている場合、「盛りすぎです!盛りすぎです!」と、プレイ中のユーザ以外のプリ機の外にいる人にも聞こえるスピーカまたは音量で、報知する構成とするとよい。加工を行っているユーザに対してではなくユーザ以外の撮影をするための装置の周辺にいる人に対して出力する構成とするとよい。
筐体の外部に向けたスピーカを、落書きブースから離れた位置に設置する。プリ機の周辺でプリ機とは独立した位置にスピーカを設置してもよい。
In particular, the system (also called Puri machine) usually takes pictures in groups of two to several people, but the notification of Puri machine is mainly to inform the people who are currently playing, and it is not a publicity for people outside the group. is weak. If there is too much excitement, it is preferable to use a speaker or a volume that can be used to notify people outside the play machine other than the user who is playing, saying, "It's too much! It's too much!" It is preferable to output the information not to the user who is processing the image, but to a person other than the user who is in the vicinity of the device for photographing.
Install speakers facing the outside of the enclosure away from the graffiti booth. Speakers may be installed around the Puri machine at positions independent of the Puri machine.

プリ機の周りにいる人にプリ機への着目をしてもらうことができ、新規顧客を開拓できる。プリ機の利用を待っている組の人に、前の組のプリの様子を知らせて話題とさせることができ、リピート率を高めたりすることに貢献できる。 You can get people around the Puri machine to pay attention to the Puri machine, and you can develop new customers. It is possible to inform the people in the group waiting to use the Puri machine about the status of the Puri in the previous group and make it a hot topic, contributing to increasing the repeat rate.

(7)前記ユーザに対してではなく前記ユーザ以外の前記撮影をするための装置の周辺にいる人に対する出力は、前記加工を行う編集機とは場所に設置されたスピーカーからの音声出力によって行う構成とするとよい。
(8)(1)から(7)のいずれかに記載のシステムの機能をコンピュータに実現させるためのプログラムとするとよい。
(7) Output not to the user but to people other than the user who are around the device for photographing is performed by audio output from a speaker installed at a location different from the editing machine that performs the processing. It is good to have a configuration.
(8) The program may be a program for causing a computer to implement the functions of the system described in any one of (1) to (7).

上述した(1)から(8)に示した発明は、任意に組み合わせることができる。例えば、(1)に示した発明の全て又は一部の構成に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加える構成としてもよい。特に、(1)に示した発明に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加えた発明とするとよい。また、(1)から(8)に示した発明から任意の構成を抽出し、抽出された構成を組み合わせてもよい。本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。また「~の場合」「~のとき」という記載があったとしても、その場合やそのときに限られる構成として記載はしているものではない。これらはよりよい構成の例を示しているものであって、これらの場合やときでない構成についても権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えたりした構成についても開示しているものであり、権利取得する意思を有する。 The inventions shown in (1) to (8) above can be combined arbitrarily. For example, at least a part of the structure of at least one invention described in (2) and subsequent ones may be added to all or part of the structure of the invention shown in (1). In particular, it is preferable to create an invention in which at least a part of the structure of at least one invention after (2) is added to the invention shown in (1). Further, arbitrary configurations may be extracted from the inventions shown in (1) to (8) and the extracted configurations may be combined. The applicant of this application intends to acquire rights to inventions containing these structures. Furthermore, even if there is a description of "in the case of" or "at the time of", the description is not intended to be limited to those cases or times. These are examples of better configurations, and we intend to acquire rights to these cases and other configurations as well. Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.

本発明によれば、従来よりも優れたシステム等を提供できる。 According to the present invention, it is possible to provide a system etc. that is superior to conventional systems.

なお、本願の発明の効果はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所などは奏する効果を明示する記載であり、また「~できる」「~可能である」などといった記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。 Note that the effects of the invention of the present application are not limited to these, and effects obtained from the parts of the configuration disclosed in the present specification, drawings, etc. are also disclosed, and the configurations that provide the effects are also disclosed by divisional applications, amendments, etc. Have the intention to acquire the rights. For example, in this specification, passages such as "can be done," "is possible," etc. are descriptions that clearly indicate the effect to be achieved, and even if there is no description such as "can be done," or "it is possible," the effect can be obtained. There is a part shown. Further, even without such a description, there are effects that can be understood from the configuration.

本発明に係る装置の好適な一実施形態である画像処理機能を有するシステムの全体構成を示す図である。1 is a diagram showing the overall configuration of a system having an image processing function, which is a preferred embodiment of an apparatus according to the present invention. (A)プリントシール機の斜視図、(B)プリントシール機を上から見た平面図である。(A) A perspective view of the print seal machine, and (B) a plan view of the print seal machine seen from above. プリントシール機のブロック図である。It is a block diagram of a print seal machine. 一括盛り処理のフローチャートである。It is a flowchart of batch filling processing. 第一一括盛り処理の選択画面を表した図である。It is a figure showing the selection screen of the first batch filling process. 撮影処理で表示される撮影処理画面と加工後画像を表した図である。FIG. 3 is a diagram showing a photographing processing screen and a processed image displayed during photographing processing. 一括盛り・個別部位盛り選択画面を表した図である。It is a diagram showing a selection screen for batch serving/individual part serving. 第二一括盛り処理の選択画面を表した図である。It is a figure showing the selection screen of the second batch filling process. 個別盛り画面を表した図である。It is a figure showing an individual arrangement screen. 一括盛り度合い調整画面を表した図である。It is a figure showing the batch level adjustment screen. 落書き画面を表した図である。It is a figure showing a graffiti screen.

以下、図面を参照して本発明を実施するための形態について説明する。なお、以下に示す実施形態は、本発明を提供した一つの実施形態であり、以下の記載に基づいて本願発明の内容が限定して解釈されるものではない。
<画像処理機能を有するシステムの説明>
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In addition, the embodiment shown below is one embodiment which provided this invention, and the content of this invention is not limited and interpreted based on the following description.
<Description of the system with image processing function>

以下に、図1を用いて、本発明の一実施形態の画像処理機能を有するシステムについて説明する。システムは、プリントシール機100とサーバー200とから構成されている。プリントシール機100とサーバー200は、有線や無線の通信手段300によって通信可能に接続されている。有線や無線の通信手段には、インターネット、携帯電話回線、Wi-Fi(登録商標)、LAN(Local Area Network)等が含まれる。 A system having an image processing function according to an embodiment of the present invention will be described below with reference to FIG. The system is composed of a print sticker machine 100 and a server 200. The print sticker machine 100 and the server 200 are communicably connected by a wired or wireless communication means 300. Wired and wireless communication means include the Internet, mobile phone lines, Wi-Fi (registered trademark), LAN (Local Area Network), and the like.

プリントシール機100は、全世界の観光地、商店街、ショッピングモール内に設置され、各プリントシール機100は通信手段300に接続されている。通信手段300にはこれらのプリントシール機からアクセスされるクラウド上のサーバ200が接続されている。このサーバ200には、プリントシール機100を販売する会社の端末、プリントシール機100の設置場所での管理等をするオペレーター端末600、プリントシール機の利用者のユーザ端末500等が、通信手段300を介して接続されている。また、サーバ200には、観光地、商店街、ショッピングモール内といったプリントシール機100の設置された場所と所定の場所的近接関係を持つ、他の店舗の端末も通信手段300を介して接続されている。上述したオペレーター端末600には、タッチパネルと通信機能を有するスマートフォンや、携帯タブレット、パーソナルコンピュータ等が含まれる。 The print sticker machines 100 are installed in tourist spots, shopping streets, and shopping malls all over the world, and each print sticker machine 100 is connected to a communication means 300. A server 200 on the cloud that is accessed by these print sticker machines is connected to the communication means 300. This server 200 includes a communication means 300, a terminal of a company that sells the print sticker machine 100, an operator terminal 600 that manages the installation location of the print sticker machine 100, a user terminal 500 of a user of the print sticker machine, etc. connected via. Furthermore, terminals of other stores that have a predetermined locational proximity relationship with the location where the print sticker machine 100 is installed, such as in a tourist spot, a shopping district, or a shopping mall, are also connected to the server 200 via the communication means 300. ing. The operator terminal 600 described above includes a smartphone having a touch panel and a communication function, a mobile tablet, a personal computer, and the like.

プリントシール機100には、自社のプリントシール機100と、複数の他社のプリントシール機100とがある。自社(A社)及び他社(B社、C社、D社・・)のプリントシール機100は、それぞれ複数の機種がある。以下、本明細書では区別を容易にするため、各プリントシール機100に名称を付す。その名称で記載された箇所は各々のプリントシール機100を示すものである。自社のプリントシール機100には、すでに販売済みのプリントシール機「Mizu」と、今回発売する「CubeFIT」等がある。他社のプリントシール機100には、B社の「105%」「盛ルル」「アオアザ」「Mix目」「秀4」等、C社の「ミンナ」「Boys&Girls」「HenshinTime」「MV」等、D社の「モテモテ」「プリスギガ」「ポテト」等がある。上述したサーバ200は各社が設置・管理しており、プリントシール機100については基本的には自社のプリントシール機100が自社のサーバ200にアクセス可能となっている。
<プリントシール機100の構造>
The print sticker machines 100 include the company's print sticker machines 100 and print sticker machines 100 of a plurality of other companies. The print sticker machines 100 of the company (Company A) and other companies (Companies B, C, D, etc.) each have multiple models. Hereinafter, in this specification, each print sticker machine 100 will be given a name for easy differentiation. The parts written with the names indicate each print sticker machine 100. The company's print sticker machines 100 include the already sold print sticker machine "Mizu" and the newly released "CubeFIT". Other companies' print sticker machines 100 include Company B's "105%", "Mori Lulu", "Aoza", "Mix eyes", "Hide 4", etc., Company C's "Minna", "Boys&Girls", "HenshinTime", "MV", etc. These include Company D's ``Motemote,''``Prisugiga,'' and ``Potato.'' The above-described server 200 is installed and managed by each company, and basically each company's print sticker machine 100 can access the company's server 200.
<Structure of print sticker machine 100>

以下に、図2を用いて、今回主に説明する機種であるCubeFitについてプリントシール機100を説明する。図2に示すように、プリントシール機100は、受付部110、撮影部120、編集部130、印刷部140を有している。以下で説明するタッチパネルは、いずれも表示画面と表示画面上に設けられ表示画面のタッチ位置を出力する静電容量方式等のタッチセンサを備える。以下、記載を省略しているが、特筆しない限り、各機能を実現するためのプログラウを記憶しており、記憶されたプログラムに基づいてコンピュータを備える制御部が各部を制御することで各機能を実現している。 The print sticker machine 100 will be described below with reference to FIG. 2 for CubeFit, which is the model mainly explained this time. As shown in FIG. 2, the print sticker machine 100 includes a receiving section 110, a photographing section 120, an editing section 130, and a printing section 140. The touch panels described below each include a display screen and a touch sensor, such as a capacitive type, that is provided on the display screen and outputs a touch position on the display screen. Although descriptions are omitted below, unless otherwise noted, a program for realizing each function is stored, and a control section equipped with a computer controls each section based on the stored program to perform each function. It has been realized.

受付部110は、第一タッチパネル111、料金支払部112、第一スピーカ113を有している。第一タッチパネル111には、設定に関する情報を表示する。ユーザによる、第一タッチパネル111のタッチ操作を検出することによって、プリントシール機100の設定を変更する機能を備える。料金支払部112は、紙幣や硬貨が投入される現金投入口112a、クレジットカードやデビットカードを読み取るカード読取部112b、電子マネーを読み取る電子マネー読取部112c、硬貨が返却される硬貨返却部112dを有している。 The reception section 110 includes a first touch panel 111, a fee payment section 112, and a first speaker 113. The first touch panel 111 displays information regarding settings. It has a function of changing the settings of the print sticker machine 100 by detecting a touch operation on the first touch panel 111 by the user. The fee payment section 112 includes a cash slot 112a into which banknotes and coins are inserted, a card reading section 112b which reads credit cards and debit cards, an electronic money reading section 112c which reads electronic money, and a coin return section 112d into which coins are returned. have.

料金支払部112への現金、クレジットカード、デビットカード、電子マネー等によるユーザの料金の支払いのための処理を実行し、支払いが完了したら、第一タッチパネル111のタッチ操作を検出して、プリントシール機100の設定を決定するとともに、ユーザのE-mailアドレスの入力処理を行う。ユーザのE-mailアドレスの入力処理を完了すると、プリントシール機100は、そのユーザのIDを発行する処理を行う。このIDは、ユーザ端末500に送信される。プリントシール機100の設定には、全身撮影やアップ撮影の選択や、背景の選択が含まれる。ユーザが、プリントシール機100の設定を決定した後に、第一タッチパネル111に案内を表示し、第一スピーカ113から案内を再生する処理を行い、ユーザはこの案内に従って、図2(B)のM1の矢印に示すように、撮影部120に移動する。 A process for paying the user's fee by cash, credit card, debit card, electronic money, etc. to the fee payment unit 112 is executed, and when the payment is completed, a touch operation on the first touch panel 111 is detected and a print sticker is printed. The settings of the machine 100 are determined, and the user's e-mail address is input. After completing the input process of the user's e-mail address, the print sticker machine 100 performs the process of issuing the user's ID. This ID is transmitted to user terminal 500. Settings for the print sticker machine 100 include selection of full-body photography, close-up photography, and background selection. After the user determines the settings for the print sticker machine 100, the user displays a guide on the first touch panel 111 and plays the guide from the first speaker 113. As shown by the arrow, move to the photographing section 120.

撮影部120には、箱型の空間である撮影空間121と、この撮影空間121の開口部である出入口122が形成されている。撮影部120には、出入口122を塞ぐカーテン123が設けられている。なお、図2(A)においては、便宜的に、カーテン123の上部のみを表し、撮影部120の内部が見えるように表している。ユーザは、カーテン123を捲って、出入口122から撮影空間121内に入ることができる。 The photographing section 120 is formed with a photographing space 121 which is a box-shaped space, and an entrance/exit 122 which is an opening of the photographing space 121. The photographing section 120 is provided with a curtain 123 that blocks the entrance/exit 122. Note that in FIG. 2A, for convenience, only the upper part of the curtain 123 is shown so that the inside of the photographing section 120 can be seen. The user can enter the photographing space 121 through the entrance/exit 122 by rolling up the curtain 123 .

撮影部120の撮影空間121の奥側の壁面には、第一カメラ124、ライト125、第二タッチパネル126、第二表示部127、第二スピーカ128が設けられている。第一カメラ124は、撮影空間121内のユーザの静止画を撮影して取得する。ライト125は、第一カメラ124によって撮影する際に発光して、ユーザを照らす。第二タッチパネル126には、ユーザに対する操作指示や、撮影されたユーザの画像が表示される。第二スピーカ128からは、ユーザに対する操作案内が再生される。 A first camera 124, a light 125, a second touch panel 126, a second display section 127, and a second speaker 128 are provided on the back wall of the photographing space 121 of the photographing section 120. The first camera 124 photographs and acquires a still image of the user within the photographing space 121 . The light 125 emits light when the first camera 124 takes a picture, illuminating the user. The second touch panel 126 displays operation instructions for the user and a photographed image of the user. The second speaker 128 reproduces operation guidance for the user.

第二タッチパネル126には”撮影開始”のボタンを表示し、第二スピーカ128からは”撮影開始”のボタンをタップすると撮影を開始する旨の音声を出力する。ユーザによって”撮影を開始”のボタンがタップされたことを検出すると、第一カメラ124による撮影を開始する。第二表示部127は、第二タッチパネル126の横に配置されている。第二表示部127には、第一カメラ124によって撮影されたユーザの顔画像を盛ったり落書き処理した後のユーザの顔画像をプレビュー表示させる。第一カメラ124による撮影が完了すると、第二タッチパネル126には、撮影部120を出て編集部130に移動する旨の指示を表示し、第二スピーカ128から前記指示の音声を再生して出力させる。前記指示に従ってユーザは編集部130に移動する。 A "start shooting" button is displayed on the second touch panel 126, and when the "start shooting" button is tapped, a sound indicating that shooting will start is output from the second speaker 128. When it is detected that the "Start Photographing" button has been tapped by the user, the first camera 124 starts photographing. The second display section 127 is arranged next to the second touch panel 126. The second display unit 127 displays a preview of the user's face image taken by the first camera 124 or after the user's face image has been subjected to graffiti processing. When the first camera 124 completes shooting, an instruction to leave the shooting section 120 and move to the editing section 130 is displayed on the second touch panel 126, and the audio of the instruction is played back and output from the second speaker 128. let The user moves to the editing section 130 according to the instructions.

編集部130には、第三タッチパネル131、2つのスタイラスペン132、第三スピーカ133、第二カメラ134、マイク135が設けられている。第三タッチパネル131には、撮影部120の第一カメラ124によって撮影したユーザの画像を表示する。ユーザは、第三タッチパネル131に表示されて編集対象である自身の画像に対して、スタイラスペン132又は指により、落書き等の装飾加工を施したり、スタンプを追加したり、自分の顔の各パーツに対して装飾・変形・色付けを施す所謂”盛り”等の編集を行う。本システムでは、異なる部位に対して一括して編集する一括盛り機能も備える。第二カメラ134は、編集部130において盛ったり加工したりしているユーザの姿を撮像する。マイク135は、編集部130において盛ったり加工したりしているユーザの喋り声を取得する。後述の図2(A)に示す制御部700は、編集結果を、後述の印刷装置141に出力するとともに、通信手段300を介してサーバ200にアップロードする。 The editing section 130 is provided with a third touch panel 131, two stylus pens 132, a third speaker 133, a second camera 134, and a microphone 135. The third touch panel 131 displays an image of the user captured by the first camera 124 of the imaging unit 120. The user uses the stylus pen 132 or his finger to decorate his own image displayed on the third touch panel 131 and to be edited, add stamps, or edit various parts of his face. Editing is performed such as so-called "priming", in which decoration, transformation, and coloring are applied to the image. This system also has a batch fill function that allows you to edit different parts at once. The second camera 134 captures an image of the user who is arranging or processing the image in the editing section 130. The microphone 135 acquires the user's speaking voice which is being edited or processed in the editing section 130. A control unit 700 shown in FIG. 2A, which will be described later, outputs the editing result to a printing device 141, which will be described later, and also uploads it to the server 200 via the communication means 300.

印刷部140は、印刷装置141、印刷装置141によって印刷されたプリントシールが排出される受取部142を有している。印刷装置141は、第一カメラ124によって撮影され、編集部130によって編集されたユーザの画像をプリントシールに印刷する。
<プリントシール機100のブロック図>
The printing section 140 includes a printing device 141 and a receiving section 142 from which printed stickers printed by the printing device 141 are discharged. The printing device 141 prints the user's image taken by the first camera 124 and edited by the editing unit 130 on a print sticker.
<Block diagram of print sticker machine 100>

以下に、図3を用いて、プリントシール機100のブロック図について説明する。図3に示すように、プリントシール機100は、制御部700を有している。制御部700は、プリントシール機100を統括制御するものである。制御部700は、CPU701、RAM702、ROM703を有している。CPU701は、演算処理等を実行する演算処理装置として機能し、ROM703に記憶された各種プログラムを実行することにより各種機能を実現している。RAM702は、CPU701のワークエリアとして使用される。ROM703には、CPU701にて実行される各種プログラムやマッピングデータ等が記憶されている。 A block diagram of the print sticker machine 100 will be described below using FIG. 3. As shown in FIG. 3, the print sticker machine 100 has a control section 700. The control unit 700 controls the print sticker machine 100 in an integrated manner. The control unit 700 includes a CPU 701, a RAM 702, and a ROM 703. The CPU 701 functions as an arithmetic processing device that executes arithmetic processing, etc., and implements various functions by executing various programs stored in the ROM 703. RAM 702 is used as a work area for CPU 701. The ROM 703 stores various programs executed by the CPU 701, mapping data, and the like.

制御部700は、第一タッチパネル111、第二タッチパネル126、第三タッチパネル131、料金支払部112、第一カメラ124、第二カメラ134、印刷装置141、通信部150と通信可能に接続している。また、制御部700は、第一スピーカ113、第二スピーカ128、ライト125、第二表示部127、第三スピーカ133に信号を出力する。制御部700には、マイク135が取得した音声信号が入力される。通信部150は、通信手段300を介してサーバ200と通信をする。通信部150は、ユーザ端末500と直接通信してもよい。
<一括盛りテンプレート機能>
The control unit 700 is communicably connected to the first touch panel 111, the second touch panel 126, the third touch panel 131, the fee payment unit 112, the first camera 124, the second camera 134, the printing device 141, and the communication unit 150. . Further, the control section 700 outputs signals to the first speaker 113, the second speaker 128, the light 125, the second display section 127, and the third speaker 133. The audio signal acquired by the microphone 135 is input to the control unit 700 . The communication unit 150 communicates with the server 200 via the communication means 300. Communication unit 150 may communicate directly with user terminal 500.
<Batch template function>

以下に、一括盛りテンプレート機能の実施形態について説明する。以下の説明において、盛るとは、顔画像の各部位に画像処理を施すことにより、より可愛くとか、より美人に、或いは、よりハンサムに見えるような変更を施すことをいう。なお、以下の処理に登場する図面において、1人のユーザがプリントシール機100を利用している状態を表しているが、複数人が同時にプリントシール機100を利用してもよい。 An embodiment of the batch template function will be described below. In the following description, "enhancement" refers to applying image processing to each part of a face image to make it look cuter, more beautiful, or more handsome. Note that although the drawings appearing in the following process show a state in which one user is using the print sticker machine 100, a plurality of people may use the print sticker machine 100 at the same time.

以下に、図4を用いて、「一括盛り処理」のフローチャートを説明する。なお、「一括盛り処理」と並行して、制御部700は、受付部110におけるユーザの料金の支払いや、ユーザによる設定の変更を受け付ける「受付処理」や、撮影部120においてユーザを撮影する「撮影処理」を実行する。 A flowchart of the "batch filling process" will be described below using FIG. 4. In addition, in parallel with the "batch processing", the control unit 700 performs a "reception process" in which the reception unit 110 accepts the payment of the user's fee and a change in settings by the user, and a "reception process" in which the photography unit 120 photographs the user. Execute "shooting process".

プリントシール機100に電源が投入されると、S111に進み、制御部700は、受付部110において受付が開始したと判断した場合には(S111:YES)、プログラムをS112に進め、受付部110において受付が開始していないと判断した場合には(S111:NO)、S111の処理を繰り返す。制御部700は、ユーザが料金支払部112において料金を支払ったと判断した場合に、受付が開始したと判断する。 When the print sticker machine 100 is powered on, the process proceeds to S111, and if the control unit 700 determines that the reception has started in the reception unit 110 (S111: YES), the control unit 700 advances the program to S112, and the reception unit 110 If it is determined that reception has not started (S111: NO), the process of S111 is repeated. When the control unit 700 determines that the user has paid the fee at the fee payment unit 112, the control unit 700 determines that reception has started.

S112において、制御部700は、第一タッチパネル111に、ROM703に記憶されている「第一一括盛り選択画面」を読み込んで、図5に示すような第一一括盛り選択画面を表示させる。第一一括盛り選択画面には、ユーザが女性であるか男性であるかを選択する画面を表示させる。ユーザが女性又は男性のいずれかが選択されると、選択された性別が強調表示させるとともに、性別に対応する複数の一括盛りパターンを表示する。この一括盛りパターンは、顔の異なる部位(例えば、目、花、口等)に対して一括して変更を加えるパターンであり、パターン適用前とパターン適用後の見本顔画像を表示させている。各一括盛りパターンにおけるパターン適用前の見本顔画像は、ユーザの顔画像では無く、予め保存されている女性又は男性の顔画像である。選択された性別が女性である場合には、複数の一括盛りパターンには、ナチュラル、ギャル風、お姉さん風、ハーフ風、エスニック風が含まれる。選択された性別が男性である場合には、複数の一括盛りパターンには、ナチュラル、ギャル男風、お兄さん風、ハーフ風、エスニック風が含まれる。ユーザは、複数の一括盛りパターンのうち1の一括盛りパターンをタップして選択する。1の一括盛りパターンが選択されたことが検出されると、選択された一括盛りパターンを強調表示させる。一括盛り選択画面には、「次に進む」ボタンと、「後で選択する」ボタンを表示させる。ユーザによって「次に進む」ボタンが選択されると、制御部700は、選択された一括盛りパターンをRAM702に記憶し、実行するプログラムはS121に進む。一方で、ユーザによって「後で選択する」ボタンが選択されたことが検出されると、制御部700は、ユーザが編集部において一括盛りパターンを選択することを選択したことをRAM702に記憶し、プログラムはS121に進む。このように、ユーザは、第一タッチパネル111に表示された複数の一括盛りパターンの選択のうち1の一括盛りパターンをワンタッチ入力で行うことができる。 In S112, the control unit 700 causes the first touch panel 111 to read the "first batch selection screen" stored in the ROM 703 and display the first batch selection screen as shown in FIG. A screen for selecting whether the user is a woman or a man is displayed on the first batch selection screen. When the user selects either female or male, the selected gender is highlighted and a plurality of bulk patterns corresponding to the gender are displayed. This batch pattern is a pattern in which changes are made to different parts of the face (for example, eyes, flowers, mouth, etc.) all at once, and sample face images before and after the pattern is applied are displayed. The sample face image before pattern application in each batch pattern is not a user's face image but a pre-stored female or male face image. When the selected gender is female, the multiple patterns include natural, gal style, older sister style, half style, and ethnic style. When the selected gender is male, the plurality of all-in-one patterns include natural, gal-man style, older brother style, half-style style, and ethnic style. The user taps and selects one of the plurality of all-in-one patterns. When it is detected that the No. 1 batch pattern has been selected, the selected batch pattern is highlighted. The batch selection screen displays a "next" button and a "select later" button. When the user selects the "Next" button, the control unit 700 stores the selected batch pattern in the RAM 702, and the program to be executed proceeds to S121. On the other hand, when it is detected that the user has selected the "select later" button, the control unit 700 stores in the RAM 702 that the user has selected to select the batch pattern in the editing department, The program proceeds to S121. In this way, the user can select one of the plurality of batch patterns displayed on the first touch panel 111 by one-touch input.

S121において、制御部700は、撮影処理を実行する。具体的には、制御部700は、図6に示すように、第二タッチパネル126に撮影処理画面126aを表示するとともに、第二表示部127に加工後画像127aを表示する。撮影処理画面126aには、第一カメラ124によってリアルタイムに撮影されているユーザの顔画像126bと、撮影開始ボタン126cが表示されている。加工後画像127aは、第一カメラ124によってリアルタイムに撮影されているユーザの顔画像に盛りや落書き等の加工を施したユーザの顔画像である。S112において、ユーザが、一括盛りパターンを選択していない場合には、図6に示すように、複数の一括盛りパターンを適用した後のユーザの顔画像を加工後画像127aとして表示させる。S112において、ユーザが、一括盛りパターンを選択していた場合には、その選択された一括盛りパターンを適用した後のユーザの顔画像を加工後画像127aとして表示させる。ユーザは、撮影部120において撮影している時に、盛られて落書きが施された後の出来上がり画像がイメージし難いが、ユーザは第二表示部127に表示されたプレビュー画像である加工後画像127aを見ることにより、出来上がり画像をイメージすることができる。ユーザが撮影開始ボタン126cをタップすると、その瞬間に第一カメラ124によって撮影されたユーザの顔画像がRAM702に記憶され、プログラムはS131に進む。 In S121, the control unit 700 executes a photographing process. Specifically, the control unit 700 displays the photographing processing screen 126a on the second touch panel 126, and displays the processed image 127a on the second display unit 127, as shown in FIG. On the photographing processing screen 126a, a user's face image 126b photographed in real time by the first camera 124 and a photographing start button 126c are displayed. The processed image 127a is a user's face image obtained by processing the user's face image, which is photographed in real time by the first camera 124, such as embellishment or graffiti. In S112, if the user has not selected a batch pattern, the user's face image after applying a plurality of batch patterns is displayed as a processed image 127a, as shown in FIG. In S112, if the user has selected the batch pattern, the user's face image after applying the selected batch pattern is displayed as the processed image 127a. While the user is photographing in the photographing section 120, it is difficult for the user to imagine the finished image after the graffiti has been applied, but the user can see the processed image 127a which is the preview image displayed on the second display section 127. By looking at the image, you can visualize the finished image. When the user taps the shooting start button 126c, the user's face image shot by the first camera 124 at that moment is stored in the RAM 702, and the program proceeds to S131.

S131において、制御部700は、S112において、ユーザが「第一一括盛り選択画面」の「後で選択する」を選択していたと判断した場合には、プログラムをS132に進め、「後で選択する」を選択していなかったと判断した場合には、プログラムをS151に進める。 In S131, if the control unit 700 determines that the user has selected "Select later" on the "first batch selection screen" in S112, the control unit 700 advances the program to S132, and selects "Select later" in S112. If it is determined that "Yes" has not been selected, the program advances to S151.

S132において、制御部700は、ROM703から「一括盛り・個別部位盛り選択画面」のデータを読み込んで、図7に示すような「一括盛り・個別部位盛り選択画面」を第三タッチパネル131に表示する。「一括盛り・個別部位盛り選択画面」には、「先に一括して盛る?」のボタンと、「先に個別の部位を盛る?」のボタンを表示させる。制御部700は、ユーザが「先に一括して盛る?」のボタンをタップしたと判断した場合には、プログラムをS133に進める。一方で、制御部700は、ユーザが「先に個別の部位を盛る?」のボタンをタップしたと判断した場合には、プログラムをS141に進める。 In S132, the control unit 700 reads the data of the "batch serving/individual part serving selection screen" from the ROM 703, and displays the "batch serving/individual part serving selection screen" as shown in FIG. 7 on the third touch panel 131. . On the "batch serving/individual part serving selection screen", a button for "serve all at once?" and a button for "serve individual parts first?" are displayed. If the control unit 700 determines that the user has tapped the button "Place all at once?", the control unit 700 advances the program to S133. On the other hand, if the control unit 700 determines that the user has tapped the button "Place individual parts first?", the control unit 700 advances the program to S141.

S133において、制御部700は、ROM703から「第二一括盛り選択画面」を読み込んで、図8に示すような「第二一括盛り選択画面」を第三タッチパネル131に表示させる。「第二一括盛り選択画面」は、図5に示す「第一一括盛り選択画面」と基本的に同じであるが、以下の点で「第一一括盛り選択画面」と異なる。「第二一括盛り選択画面」には、「後で選択する」ボタンが無い。また、「第二一括盛り選択画面」の各一括盛りパターンにおけるパターン適用前の見本顔画像は、撮影部120の第一カメラ124で撮影されたユーザの顔画像である。更に、「第二一括盛り選択画面」の各一括盛りパターンにおけるパターン適用後の見本顔画像は、第一カメラ124で撮影されたユーザの顔画像の各部位を変更して盛った画像である。ユーザが女性又は男性のいずれかを選択すると、選択された性別が強調表示されるとともに、性別に対応する複数の一括盛りパターンが表示される。ユーザは、複数の一括盛りパターンのうち1の一括盛りパターンを選択する。一括盛りパターンが選択されると、選択された一括盛りパターンが強調表示される。ユーザが「次に進む」ボタンをタップすると、制御部700は、選択された一括盛りパターンをRAM702に記憶し、プログラムをS135に進める。このように、ユーザは、第三タッチパネル131に表示された複数の一括盛りパターンの選択のうち1の一括盛りパターンをワンタッチ入力で行うことができる。 In S133, the control unit 700 reads the "second batch selection screen" from the ROM 703 and displays the "second batch selection screen" as shown in FIG. 8 on the third touch panel 131. The "second batch selection screen" is basically the same as the "first batch selection screen" shown in FIG. 5, but differs from the "first batch selection screen" in the following points. The "second batch selection screen" does not have a "select later" button. Further, the sample face image before the pattern is applied in each batch pattern on the "second batch selection screen" is the user's face image photographed by the first camera 124 of the photographing unit 120. Further, the sample face image after the pattern is applied in each batch pattern on the "second batch selection screen" is an image obtained by changing each part of the user's face image photographed by the first camera 124. . When the user selects either female or male, the selected gender is highlighted and a plurality of bulk patterns corresponding to the gender are displayed. The user selects one batch filling pattern from among the plurality of batch filling patterns. When a batch pattern is selected, the selected batch pattern is highlighted. When the user taps the "Next" button, the control unit 700 stores the selected batch pattern in the RAM 702 and advances the program to S135. In this way, the user can select one batch pattern among the plurality of batch patterns displayed on the third touch panel 131 with a one-touch input.

S135において、制御部700は、ROM703から「個別盛り画面」を読み込んで、図9に示すような「個別盛り画面」を第三タッチパネル131に表示させる。「個別盛り画面」は、目、鼻、口、眉毛、まつ毛等の人の顔の各部位を個別に盛るための画面であり、S133において選択された一括盛りパターンの画像処理をユーザの顔の異なる複数の部位に対して一括して加えたユーザの顔131kが表示される。そして、ユーザが、人の顔の部位をタップすると、その部位の盛りの度合いに対応するスライダー131mが表示され、ユーザのスライダーの移動操作を検出し、ユーザの顔の各部位の盛りの度合いを個別に調整する処理を行う。このようにして、ユーザは、一括盛りパターンが適用された後の自分の顔の各部位の盛りの度合いを微調整することができる。1の顔の部位に対して、盛りの度合いを調整するパラメータは、1種類であっても良いが、複数種類あっても良い。制御部700は、ユーザの顔の各部位の盛りの度合いを個別に調整した結果を、RAM702に記憶させる。 In S135, the control unit 700 reads the "individual stack screen" from the ROM 703 and displays the "individual stack screen" as shown in FIG. 9 on the third touch panel 131. The "individual embroidery screen" is a screen for individually embossing each part of a person's face such as eyes, nose, mouth, eyebrows, eyelashes, etc., and performs image processing of the batch embroidery pattern selected in S133 on the user's face. A user's face 131k added to a plurality of different parts at once is displayed. Then, when the user taps a part of a person's face, a slider 131m corresponding to the degree of bulge of that part is displayed, and the user's movement operation of the slider is detected, and the degree of bulge of each part of the user's face is displayed. Perform individual adjustment processing. In this way, the user can finely adjust the degree of enhancement of each part of his or her face after the batch enhancement pattern is applied. There may be one type of parameter for adjusting the degree of bulge for one facial region, or there may be multiple types. The control unit 700 causes the RAM 702 to store the results of individually adjusting the degree of fullness of each part of the user's face.

また、「個別盛り画面」では、コラボしているモデルやタレント、キャラクターなどの顔画像131nを表示し、その口あたりからの吹き出しに、「盛り過ぎかも~」、「いい感じ」、「もっとまつ毛を伸ばそう!」等のユーザの個別盛りの盛り具合に応じたアドバイスの文字列を表示する。制御部700は、ROM703に記憶された「個別盛りアドバイスデータ」を参照して、調整している部位とは他の部位とのバランスから、その部位の調整中に、個別盛りの盛り具合に応じたパーツの盛り具合のアドバイスをリアルタイムで表示するとともに、第一スピーカ113、第二スピーカ128、第三スピーカ133にアドバイスの音声信号を出力する。ROM703には、比較用のやり過ぎ盛り具合の外像を学習された学習モデルのプログラムである「学習モデルプログラム」が記憶されている。制御部700は、この「学習モデルプログラム」を実行して、現在調整済みのユーザの顔画像と、やり過ぎ画像との一致確率を推定する。制御部700は、一致確率が規定値以上のときに、「盛りすぎかも~」とのアドバイスを報知する。 In addition, on the "individual height screen", facial images 131n of collaborating models, talents, characters, etc. are displayed, and speech bubbles from their mouths are displayed such as "Maybe it's too much", "Looks good", "More eyelashes" Advice strings such as "Let's grow!" are displayed according to the user's individual preferences. The control unit 700 refers to the "individual serving advice data" stored in the ROM 703, and determines whether the part being adjusted is in balance with other parts and depending on the level of individual serving while adjusting the part. Advice on the amount of parts added is displayed in real time, and an audio signal of the advice is output to the first speaker 113, second speaker 128, and third speaker 133. The ROM 703 stores a "learning model program" which is a learning model program that has learned an external image of overdoneness for comparison. The control unit 700 executes this "learning model program" to estimate the probability of coincidence between the currently adjusted user's face image and the overdone image. When the matching probability is equal to or higher than a specified value, the control unit 700 notifies the advice that "this may be too high."

アドバイスが第一スピーカ113~第三スピーカ133で報知されるので、加工を行っているユーザに対してだけでなく、このユーザ以外のプリントシール機100を利用するためにプリントシール機100の周辺にいる人に対しても、上記アドバイスが報知される。このように、編集部130に有る第三スピーカ133だけでなく、第一スピーカ113及び第二スピーカ128でもアドバイスが再生されるので、プリントシール機100の周りにいる人にプリントシール機100への着目をしてもらうことができ、新規顧客の開拓できる。つまり、プリントシール機100は、通常2人から数名までのグループで撮影するが、プリントシール機100の報知は現在利用しているユーザへの報知が中心であって、グループ外に向けての広報が弱いが、プリントシール機100の利用を待っている人に、前のユーザのプリントシール機100の使用の様子を知らせて話題とさせることができ、プリントシール機100のリピート率を高めたりすることに貢献できる。上記したアドバイスを報知するスピーカを、プリントシール機100とは独立した位置に配置してもよい。「個別盛り画面」には、「個別盛り終了」ボタンが表示され、ユーザが「個別盛り終了」ボタンをタップすると、S135の処理が終了して、プログラムはS155に進む。 Since the advice is broadcast from the first speaker 113 to the third speaker 133, it is not only broadcast to the user who is performing the processing, but also to people around the print sticker machine 100 who are using the print sticker machine 100 other than this user. The above advice will also be sent to those who are present. In this way, the advice is played not only on the third speaker 133 in the editing department 130 but also on the first speaker 113 and the second speaker 128, so that people around the print sticker machine 100 can listen to the print sticker machine 100. You can get people's attention and develop new customers. In other words, the print sticker machine 100 is usually used to take pictures in groups of two to several people, but the print sticker machine 100 mainly sends notifications to the users who are currently using it, and not to people outside the group. Although public relations is weak, it is possible to inform people who are waiting to use the print sticker machine 100 about how previous users are using the print sticker machine 100 and make it a hot topic, increasing the repeat rate of the print sticker machine 100. I can contribute to that. The speaker for notifying the above-mentioned advice may be placed at a position independent of the print sticker machine 100. An "end individual serving" button is displayed on the "individual serving screen", and when the user taps the "end individual serving" button, the process of S135 ends and the program proceeds to S155.

S141において、制御部700は、ROM703から「個別盛り画面」を読み込んで、図9に示すような「個別盛り画面」を第三タッチパネル131に表示させる。S141の処理は、上述のS135の処理と同様であるが、第一カメラ124で撮影されたユーザの顔画像が表示され、ユーザはこの顔画像に個別盛りを加える。制御部700は、ユーザがユーザの顔の各部位の盛りの度合いを個別に調整した結果を、RAM702に記憶させる。ユーザが「個別盛り終了」ボタンをタップすると、S141の処理が終了して、プログラムはS142に進む。 In S141, the control unit 700 reads the "individual stack screen" from the ROM 703 and displays the "individual stack screen" as shown in FIG. 9 on the third touch panel 131. The process in S141 is similar to the process in S135 described above, but the user's face image photographed by the first camera 124 is displayed, and the user adds individual enhancements to this face image. The control unit 700 causes the RAM 702 to store the results of the user individually adjusting the degree of swelling of each part of the user's face. When the user taps the "end individual serving" button, the process of S141 ends and the program proceeds to S142.

S142において、制御部700は、ROM703から「第二一括盛り選択画面」を読み込んで、図8に示すような「第二一括盛り選択画面」を第三タッチパネル131に表示させる。S142の処理は、上述したS133の処理と同様であるが、パターン適用前の見本顔画像は、S141において個別盛りが適用されたユーザの顔画像である。ユーザが「次に進む」ボタンを選択すると、制御部700は、選択された一括盛りパターンをRAM702に記憶する。ユーザが、「次に進む」ボタンをタップした場合には、プログラムは、S155に進む。このように、ユーザは、第三タッチパネル131に表示された複数の一括盛りパターンの選択のうち1の一括盛りパターンをワンタッチ入力で行うことができる In S142, the control unit 700 reads the "second batch selection screen" from the ROM 703 and displays the "second batch selection screen" as shown in FIG. 8 on the third touch panel 131. The process in S142 is similar to the process in S133 described above, but the sample face image before the pattern is applied is the user's face image to which the individual embellishment was applied in S141. When the user selects the "next" button, the control unit 700 stores the selected batch pattern in the RAM 702. If the user taps the "Next" button, the program advances to S155. In this way, the user can select one batch pattern from among the plurality of batch patterns displayed on the third touch panel 131 with one-touch input.

S151において、制御部700は、ROM703から「個別盛り画面」を読み込んで、図9に示すような「個別盛り画面」を第三タッチパネル131に表示させる。S151の処理は、上述のS135の処理と同様であるが、第一カメラ124で撮影されたユーザの顔画像に、S112においてユーザが選択した一括盛りパターンの画像処理をユーザの顔の異なる複数の部位に対して一括して加えられたユーザの顔画像が表示され、ユーザはこの一括盛りが適用されたユーザの顔画像に、個別盛りを加える。制御部700は、ユーザがユーザの顔の各部位の盛りの度合いを個別に調整した結果を、RAM702に記憶させる。ユーザが「個別盛り終了」ボタンをタップすると、S151の処理が終了して、プログラムはS155に進む。 In S151, the control unit 700 reads the "individual stack screen" from the ROM 703 and displays the "individual stack screen" as shown in FIG. 9 on the third touch panel 131. The processing in S151 is similar to the processing in S135 described above, but the image processing of the batch pattern selected by the user in S112 is applied to the user's face image photographed by the first camera 124 for a plurality of different faces of the user. The user's face image that has been added to the body parts in batches is displayed, and the user adds individual markings to the user's face image to which the batch markings have been applied. The control unit 700 causes the RAM 702 to store the results of the user individually adjusting the degree of swelling of each part of the user's face. When the user taps the "end individual serving" button, the process of S151 ends and the program proceeds to S155.

S155において、制御部700は、ROM703から「一括盛り度合い調整画面」を読み込んで、図10に示すような「一括盛り度合い調整画面」を第三タッチパネル131に表示させる。「一括盛り度合い調整画面」では、一括盛り度合い調整前のユーザの顔画像131f、一括盛り度合い調整後のユーザの顔画像131g、一括盛りの度合いを調整するスライダー131h、「一括盛り度合い調整終了」ボタン131iが表示される。一括盛り度合い調整前のユーザの顔画像131fは、S133、S135、S141、S142、S151で盛った後のユーザの顔画像である。ユーザは、スライダー131hをスライドさせることにより、一括盛りの度合いを調整することができる。一括盛り度合い調整後のユーザの顔画像131gは、ユーザによるスライダー131hをスライドさせた結果がリアルタイムに反映される。ユーザが「一括盛り度合い調整終了」ボタン131iをタップすると、制御部700は、ユーザによる一括盛りの度合いの調整結果をRAM702に記憶し、プログラムはステップS161に進む。 In S155, the control unit 700 reads the "batch filling degree adjustment screen" from the ROM 703 and causes the third touch panel 131 to display the "batch filling degree adjustment screen" as shown in FIG. On the "Batch fill level adjustment screen", the user's face image 131f before the batch fill level adjustment, the user's face image 131g after the batch fill level adjustment, the slider 131h for adjusting the batch fill level adjustment, and the "Batch fill level adjustment complete" button. A button 131i is displayed. The user's face image 131f before the batch adjustment is the user's face image after the adjustment in S133, S135, S141, S142, and S151. The user can adjust the degree of batch filling by sliding the slider 131h. The user's face image 131g after the batch height adjustment reflects the result of sliding the slider 131h by the user in real time. When the user taps the "end batch fill level adjustment" button 131i, the control unit 700 stores the user's batch fill level adjustment result in the RAM 702, and the program proceeds to step S161.

S161において、制御部700は、ROM703から「落書き画面」を読み込んで、図11に示すような「落書き画面」を第三タッチパネル131に表示させる。「落書き画面」では、ユーザの顔画像131a、複数のスタンプ131b、ペンの色の選択画面131c、ペンの太さの選択画面131d、「印刷」ボタン131e、「お友達に落書き依頼」ボタン131pが表示されている。ユーザの顔画像131aは、S133、S135、S141、S142、S151で盛られ、S155で一括盛りの度合いが調整されたのユーザの顔画像である。ユーザは、複数のスタンプ131bのうち1のスタンプをタップして選択し、盛った後のユーザの顔画像131aの所望の位置にドラッグすることによって、盛った後のユーザの顔画像131aにスタンプを追加することができる。ユーザは、ペンの色の選択画面131c及びペンの太さ選択画面131dをタップすることによって、所望のペンの色と太さを選択することができる。そして、ユーザは、スタイラスペン132によって、盛った後のユーザの顔画像131aに落書きをすることができる。 In S161, the control unit 700 reads the "doodle screen" from the ROM 703 and displays the "doodle screen" as shown in FIG. 11 on the third touch panel 131. The "doodle screen" includes a user's face image 131a, a plurality of stamps 131b, a pen color selection screen 131c, a pen thickness selection screen 131d, a "print" button 131e, and a "request doodle from a friend" button 131p. Displayed. The user's face image 131a is the user's face image that has been enhanced in S133, S135, S141, S142, and S151, and the degree of batch enhancement has been adjusted in S155. The user taps and selects one stamp from among the plurality of stamps 131b and drags it to a desired position on the user's face image 131a after placing the stamp on the user's face image 131a after placing the stamp. can be added. The user can select a desired pen color and thickness by tapping the pen color selection screen 131c and the pen thickness selection screen 131d. Then, the user can use the stylus pen 132 to doodle on the user's face image 131a after marking.

S161において、ユーザが「お友達に落書き依頼」ボタン131pをタップすると、制御部700は、通信部150及び通信手段300を介して、予めアプリで登録されている友達のSNS(Social networking service)アカウントに、メッセージと落書きサイトのリンクを送信する。ユーザの友達が上記リンクをタップすると、落書き画面サイトが開き、ユーザの友達は落書き画面サイト上で、ユーザの顔画像131aに落書きをすることができる。この落書きには、スタンプの追加が含まれる。落書きサイト上でのユーザの友達の落書きの内容は、通信手段300及び通信部150を介して、制御部700に送信される。制御部700は、ユーザの友達の落書きの内容を、「落書き画面」のユーザの顔画像131aに反映させる。このように、編集部130に居ない人もユーザの顔に落書きをすることができる。上述した例では、ユーザの友達に落書きをしてもらう例を説明したが、ユーザのお友達では無く、アーティスト等のプロフェッショナル等のSNSアカウントにメッセージと落書きサイトのリンクを送信し、このプロフェッショナル等に落書きをしてもらう実施形態であってもよい。 In S161, when the user taps the "Request doodle from a friend" button 131p, the control unit 700, via the communication unit 150 and the communication means 300, requests the friend's SNS (Social networking service) account registered in advance in the app. Send a message and a link to the graffiti site to. When the user's friend taps the above link, a doodle screen site opens, and the user's friend can doodle on the user's face image 131a on the doodle screen site. This doodle includes the addition of stamps. The content of the user's friend's doodle on the doodle site is transmitted to the control unit 700 via the communication means 300 and the communication unit 150. The control unit 700 reflects the content of the user's friend's graffiti on the user's face image 131a on the “doodle screen”. In this way, even people who are not in the editing department 130 can draw doodles on the user's face. In the above example, we explained an example in which the user's friends were asked to do graffiti, but instead of the user's friends, a message and a link to the graffiti site were sent to the SNS account of a professional such as an artist, and this professional, etc. It may also be an embodiment in which the user is asked to doodle.

S161において、制御部700は、ユーザによる落書きした内容(例えばスタイラスペン132の第三タッチパネル131における位置情報に基づく落書き内容等)を、時刻データ、ユーザのID、及びプリントシール機100のIDと紐付けして落書きデータ時系列データとしてRAM702に記憶する。そして、制御部700は、ユーザが「印刷」ボタン131eをタップした場合に、RAM702に記憶されている落書き時系列データを通信部150及び通信手段300を介して、サーバ200に送信する。なお、ユーザによる落書きには、スタンプの追加も含まれる。サーバ200は、落書き時系列データに基づいてユーザが自身の顔画像に落書きを追加している動画を生成する。ユーザがバーコード又は二次元コードが表示されたユーザ端末500の画面を第二カメラ134にかざすと、制御部700は第二カメラ134によって読み取られたバーコード又は二次元コードからユーザのIDを認識する。そして、制御部700は、上記認識したユーザのID及びプリントシール機100のIDを、通信部150及び通信手段300を介して、サーバー200に送信する。ユーザのID及びプリントシール機100のIDを受信したサーバー200は、これらIDと一致する動画が再生されるURLが記載されたメールを、通信手段300を介して、ユーザのメールアドレスに送信する。ユーザがメールに記載されたURLをタップすると、ユーザが自身の顔画像に落書きを追加している動画が再生される。この動画は、逆再生することができ、逆再生で落書き無しの状態に戻してたり、通常再生で落書きしている状態へ変化させることを繰り返すことができる。このように、ユーザは、プリントシール機100を利用した後に、ユーザが自身の顔画像に落書きを追加している動画を見ることができる。このため、ユーザは、落書きの手順を後から考察したり、仲間でその動画を見て盛り上がったりできる。また、口コミで、プリントシール機100の宣伝を行うことができる。ユーザの落書きに加えて、一括盛りや、個別盛り、一括盛り度合いの調整がユーザの顔画像に追加される動画を生成される実施形態であってもよい。また、マイク135にてユーザが発する声等の音声を記憶して、上記動画とともに音声が再生される実施形態であってもよい。 In S161, the control unit 700 links the contents of the doodle by the user (for example, the contents of the doodle based on the position information of the stylus pen 132 on the third touch panel 131) with the time data, the user's ID, and the ID of the print sticker machine 100. The graffiti data is stored in the RAM 702 as time-series data. Then, when the user taps the "print" button 131e, the control unit 700 transmits the graffiti time series data stored in the RAM 702 to the server 200 via the communication unit 150 and the communication means 300. Note that the graffiti by the user also includes the addition of stamps. The server 200 generates a video in which a user is adding graffiti to his or her own face image based on the graffiti time series data. When the user holds the screen of the user terminal 500 on which the barcode or two-dimensional code is displayed over the second camera 134, the control unit 700 recognizes the user's ID from the barcode or two-dimensional code read by the second camera 134. do. Then, the control unit 700 transmits the recognized ID of the user and the ID of the print sticker machine 100 to the server 200 via the communication unit 150 and the communication means 300. The server 200, which has received the user's ID and the ID of the print sticker machine 100, sends an e-mail containing a URL for playing a video matching these IDs to the user's e-mail address via the communication means 300. When a user taps the URL included in the email, a video of the user adding graffiti to their own face image is played. This video can be played in reverse, and you can repeat the process by playing in reverse to return to a state without graffiti, or by playing normally to change to a state with graffiti. In this way, after using the print sticker machine 100, the user can watch a video in which the user is adding doodles to his or her own face image. Therefore, the user can review the doodle procedure later, or watch the video with friends and have fun. Further, the print sticker machine 100 can be advertised through word of mouth. In addition to the user's doodles, an embodiment may be adopted in which a moving image is generated in which batch marking, individual marking, and adjustment of the degree of batch marking are added to the user's face image. Further, an embodiment may be adopted in which audio such as a voice emitted by a user using the microphone 135 is stored and the audio is played back together with the video.

なお、S161においては、第二カメラ134は落書きしているユーザの姿を撮像して、ユーザIDと紐付けしてRAM702に記憶している。落書きしているユーザの姿には、静止画及び動画の両方が含まれる。制御部700は、ユーザによる盛った後のユーザの顔画像131aへのスタンプの追加や落書きによる編集結果をRAM702に記憶する。ユーザによって「印刷」ボタン131eがタップされると、プログラムはS162に進む。 Note that in S161, the second camera 134 captures an image of the user doodling, and stores the image in the RAM 702 in association with the user ID. Images of users doodling include both still images and videos. The control unit 700 stores in the RAM 702 the editing result of adding a stamp or doodling to the user's face image 131a after the user has added it. When the user taps the "Print" button 131e, the program proceeds to S162.

S162において、制御部700は、RAM702に記憶されている盛られてユーザによって編集されたユーザの顔画像のデータ及び、RAM702に記憶されている落書きしているユーザの姿のデータを印刷装置141に出力して、印刷装置141においてプリントシールを印刷させる。なお、落書きしているユーザの姿のデータは、ユーザが選択した一括盛り及び個別盛りを適用したものであってもよい。印刷装置141によって印刷されたプリントシールは受取部に排出される。プリントシールには、盛られてユーザによって編集されたユーザの顔画像と落書きしているユーザの姿の両方が同一のシートに印刷されている。また、制御部700は、RAM702に記憶されている盛られてユーザによって編集されたユーザの顔画像のデータ及び落書きしているユーザの姿のデータを、ユーザのID及びユーザのメールアドレスと紐付けさせて通信部150に出力して、通信部150にサーバー200に送信する。S162の処理が終了すると、「一括盛り処理」のプログラムが終了する。
(別の実施形態)
図4のS155の処理は、S133の後や、S151の前に実行されてもよい。
また次のように構成されてもよい。
In S<b>162 , the control unit 700 sends the data of the user's face image that has been edited by the user, which is stored in the RAM 702 , and the data of the user's figure doodling, which is stored in the RAM 702 , to the printing device 141 . The print sticker is output and printed by the printing device 141. Note that the data of the appearance of the user doodling may be obtained by applying the batch dot and individual dots selected by the user. The print sticker printed by the printing device 141 is discharged to the receiving section. On the print sticker, both the user's face image, which has been placed and edited by the user, and the user's doodle are printed on the same sheet. In addition, the control unit 700 links the data of the user's face image that has been edited by the user and the data of the user's doodle, which are stored in the RAM 702, with the user's ID and the user's email address. The data is output to the communication section 150, and the communication section 150 transmits it to the server 200. When the process of S162 is completed, the "batch filling process" program ends.
(Another embodiment)
The process of S155 in FIG. 4 may be executed after S133 or before S151.
Alternatively, it may be configured as follows.

(A―1)少なくとも顔の一部を含む顔画像に対して、所定の画像処理を行うシステムであって、顔の異なる複数の部位に対して一括して加える画像処理の内容のパターンを複数備え、ユーザの操作によっていずれのパターンを適用するかの選択がなされた場合、選択されたパターンの画像処理を顔の異なる複数の部位に対して一括して加えるとよい。 (A-1) A system that performs predetermined image processing on a facial image that includes at least a part of the face, and that has multiple patterns of image processing that is applied to multiple different parts of the face at once. When a user selects which pattern to apply through an operation, image processing of the selected pattern may be applied to a plurality of different parts of the face all at once.

このようにすれば、ユーザは複数のパターンの中から所望のパターンを選択するだけで、顔の異なる複数の部位に対して一括して画像処理を加えることができる。 In this way, the user can apply image processing to a plurality of different parts of the face all at once by simply selecting a desired pattern from among the plurality of patterns.

例えば、顔の部分ごとに、盛っていくのは楽しいが時間がかかるが、このようにすれば楽しさを維持しつつ、盛るのにかかる時間を短縮できる。したがって、例えば単位時間当たりの客数を増やすことが可能となり、売り上げを高めることができる。 For example, it's fun but time-consuming to add layers to each part of the face, but this way you can maintain the fun while reducing the time it takes to add layers. Therefore, for example, it is possible to increase the number of customers per unit time, and sales can be increased.

(A―2)選択されたパターンの画像処理を顔の異なる複数の部位に対して一括して加える処理は、撮影した顔画像に対してユーザの操作に基づき顔の少なくとも1つの部位への画像処理を適用した後の顔画像に対して行う機能を備えるとよい。 (A-2) The process of applying the selected pattern of image processing to multiple different parts of the face at once is the process of applying the image processing of the selected pattern to at least one part of the face based on the user's operation on the photographed face image. It is preferable to include a function to perform processing on a face image after applying the process.

このようにすれば、ユーザは撮影した顔画像に対して顔の所望の部位への画像処理を適用した後に、その適用後の画像に対して、さらにユーザは複数のパターンの中から所望のパターンを選択するだけで、その適用後の画像の顔の異なる複数の部位に対して一括して画像処理を加えることができる。 In this way, after the user applies image processing to a desired part of the face on a photographed face image, the user can select a desired pattern from among a plurality of patterns on the image after applying the image processing. By simply selecting , you can apply image processing to multiple different parts of the face in the image after applying it.

よって、ユーザは特に画像処理を加えたい顔の部位について、まず個別に画像処理を適用した上で、その適用後の画像に対して簡単に顔の複数の部位に対して一括して画像処理をさらに加えることができる。 Therefore, users can first apply image processing individually to parts of the face that they particularly want to apply image processing to, and then easily perform image processing on multiple parts of the face at once on the image after applying the image processing. More can be added.

(A―3)撮影した顔画像に対して前記選択されたパターンの画像処理を顔の異なる複数の部位に対して一括して加える処理を行った後、ユーザの操作に基づき顔の少なくとも1つの部位への画像処理をさらに適用する機能を備えるとよい。 (A-3) After the image processing of the selected pattern is applied to multiple different parts of the face at once on the photographed face image, at least one part of the face is processed based on the user's operation. It is preferable to have a function of further applying image processing to a part.

このようにすれば、ユーザは複数のパターンの中から所望のパターンを選択するだけで、その適用後の画像の顔の異なる複数の部位に対して一括して画像処理を加えることができるとともに、その顔の異なる複数の部位に対して一括して画像処理を加えた後の画像中のユーザvが特に画像処理を加えたい顔の部位についてさらに画像処理を加えて自分の理想に近い盛り画像を得ることができる。 In this way, by simply selecting a desired pattern from among a plurality of patterns, the user can apply image processing to multiple different parts of the face in the image after applying the pattern, and After applying image processing to multiple different parts of the face at once, user v in the image further applies image processing to the parts of the face that he or she particularly wants to apply image processing to, thereby creating an image that is closer to his or her ideal image. Obtainable.

(A―4)前記パターン適用前と適用後の見本画像を表示する機能を備えるとよい。このようにすれば、ユーザは見本画像を見て、顔の異なる複数の部位に対して一括して加える画像処理の内容の複数のパターンの中からどのパターンを選ぶかを見本画像を見てイメージしながら決定することができる。 (A-4) It is preferable to have a function of displaying sample images before and after the pattern is applied. In this way, the user can look at the sample image and select which pattern to select from among multiple patterns of image processing content that is applied to multiple different parts of the face all at once. You can decide while you are at it.

(A―5)前記複数のパターンの選択は1の画面内でワンタッチ入力で行う機能を備えるとよい。このようにすれば、顔の異なる複数の部位に対して一括して加える画像処理の内容の複数のパターンの中から選択するパターンを用意に指定することができる。 (A-5) It is preferable to provide a function for selecting the plurality of patterns by one-touch input within one screen. In this way, it is possible to easily specify a pattern to be selected from among a plurality of patterns of image processing contents to be applied to a plurality of different parts of the face all at once.

(A―6)受付部と、撮影部と、編集部と、印刷部とを備え、前記選択を行う機能を前記受付部に備え、前記編集部では前記受付部で選択されたパターンを適用した画像処理後の画像を表示する機能を備えるとよい、このようにすれば、ユーザは、受付部で選択したパターンを適用した画像処理後の画像を撮影後に編集部ですぐにみることができる。 (A-6) A reception section, a photographing section, an editing section, and a printing section are provided, the reception section is provided with a function for making the selection, and the editing section applies the pattern selected by the reception section. It is preferable to have a function of displaying the image after image processing. In this way, the user can immediately view the image after image processing to which the pattern selected at the reception section is applied in the editing section after taking the image.

また、例えば、受付部で選択したパターンを編集部では変更できない構成とすれば、ユーザは再度別のパターンを受付部で選択しなおして撮影する必要があるため、再課金が必要となり、本システムを設置した店舗の売り上げ向上に寄与する。 Furthermore, for example, if the configuration is such that the pattern selected at the reception section cannot be changed at the editorial department, the user will have to select a different pattern again at the reception section and take a picture, which will require re-charging, and this system This will contribute to improving sales at stores that have installed this.

上記(1)から(6)の例として、例えば、顔の構成要素(部位)に対して一括して盛りを行うプリセットパターンを用意しておき、ユーザが選択したら、一括して適用する構成とするとよい。落書きブースの端末で行うようにするとよいが、受付機で予め一括適用しておいてもよい。プリセットパターンは複数の中から適用する対象のプリセットパターンを選択できるようにするとよい。プリセットパターンは撮影した写真映像自体に適用するようにしてもよいが、ユーザが盛った後の画像に適用するようにしてもよい。プリセットパターンを適用後に、目を盛るなど個別部位の盛りを適用できるようにするとよい。(個別部位の盛り後のものをベースとして全体に適用するようにしてもよい(プリセットパターンを適用したときに個別の盛りの状態をリセットしない構成とするとよい)。) As an example of (1) to (6) above, for example, you can prepare a preset pattern that applies bulk to facial components (parts) all at once, and when the user selects it, apply it all at once. It's good to do that. It is preferable to do this at the terminal in the graffiti booth, but it may also be applied all at once at the reception machine. Preferably, the preset pattern to be applied can be selected from among a plurality of preset patterns. The preset pattern may be applied to the photographed image itself, or may be applied to the image after it has been added by the user. After applying the preset pattern, it is preferable to be able to apply markings to individual parts, such as markings. (It may also be applied to the entire area based on what has been done after the individual parts are finished (it is better to have a configuration in which the state of the individual parts is not reset when the preset pattern is applied).

また、パーツごとに盛り具合をユーザが決定したあと(個別に盛ったあと)、一括で全パーツの盛り具合を変更する構成としてもよい。テンプレート機能とは異なり単に部分の変形度を一括で上げ下げする構成とするとよい。 Alternatively, after the user has determined the amount of filling for each part (after placing each part individually), the amount of filling of all parts may be changed at once. Unlike the template function, it is preferable to simply increase or decrease the degree of deformation of parts at once.

(A―7)前記所定の画像処理を行う前の顔画像と前記所定の画像処理を行った後の顔画像の双方の画像に基づくNFT(Non-Fungible Token:非代替性トークン)を生成するための処理を行う構成とするとよい。
このようにすれば、所定の画像処理を行う前の顔画像と前記所定の画像処理を行った後の顔画像の双方の画像に基づく1つの唯一無二のNFTを生成できる。
(A-7) Generate an NFT (Non-Fungible Token) based on both the face image before performing the predetermined image processing and the face image after performing the predetermined image processing. It is preferable to adopt a configuration that performs processing for this purpose.
In this way, one unique NFT can be generated based on both the face image before the predetermined image processing and the face image after the predetermined image processing.

NFTを生成するための処理としては、撮影部で撮影された画像に基づく画像とその画像に所定の画像処理を行った後の画像の双方を含む1枚の画像ファイルを生成し、その画像ファイルを、NFTを生成するサーバに対して送信して、NFTを生成させるとよい。また例えばサーバに生成したNFTをダウンロードするURLを生成させ、生成されたURLをそのユーザのあらかじめ登録されたメールアドレスへ送信する処理を行うとよい。
前記所定の画像処理を行う前の顔画像と前記所定の画像処理を行った後の顔画像の双方の画像を1つのシートに印刷する機能を備えるとよい。
(A―8)(A―1)から(A―7)のいずれかに記載のシステムの機能をコンピュータに実現させるためのプログラムとするとよい。
(B―1)人の顔を含む領域を撮影した撮影画像に対してユーザ操作に応じて加工を加えるシステムであって、
The process for generating an NFT is to generate one image file that includes both an image based on the image taken by the imaging unit and an image after performing predetermined image processing on that image, and It is preferable to send this to a server that generates an NFT to generate an NFT. Alternatively, for example, a process may be performed in which the server generates a URL for downloading the generated NFT, and the generated URL is sent to the user's pre-registered email address.
It is preferable to include a function of printing both a face image before performing the predetermined image processing and a face image after performing the predetermined image processing on one sheet.
(A-8) The program may be a program for causing a computer to implement the functions of the system described in any one of (A-1) to (A-7).
(B-1) A system that applies processing to a photographed image of an area including a human face according to a user operation,

前記撮影された人とは異なる人の画像を表示させるとともに、当該撮影された人とは異なる人によって前記ユーザ操作または前記加工についてのアドバイス情報が出力されている態様の出力を行う機能を備える構成とするとよい。 A configuration including a function of displaying an image of a person different from the person who was photographed, and outputting advice information regarding the user operation or the processing by a person different from the person who was photographed. It is good to say.

このようにすれば、ユーザである撮影された人とは異なる人によって、ユーザ操作または加工についてのアドバイス情報が出力されている態様の出力がなされる。したがって、ユーザは第三者によるアドバイスに基づいてユーザ自身の撮影した画像の加工の内容を変えることができる。 In this way, advice information regarding user operations or processing is outputted by a person different from the user who took the image. Therefore, the user can change the content of the processing of the image taken by the user based on advice from a third party.

例えば、比較用のやりすぎ盛り具合の画像を学習させた学習モデルを備え、現在調整済みの画像と、やりすぎ画像との一致確率を推論して求める。確率が所定値以上のとき、「盛りすぎかも~」の報知を行う。 For example, a learning model that has been trained on an image with an overdone condition for comparison is provided, and the probability of coincidence between the currently adjusted image and the overdone image is determined by inference. When the probability is equal to or greater than a predetermined value, a notification that "may be too busy" is made.

特に、自分の盛り操作への評価を出力する構成とするとよい。このようにすれば、評価を知って調整することも容易にできる。エンターテイメント性を付加できる。 In particular, it is preferable to have a configuration that outputs the evaluation of the user's own finishing operation. In this way, it is easy to know the evaluation and make adjustments. It can add entertainment value.

画面上に例えばコラボしているモデルやタレント、キャラクタなどの画像を表示し、その口のあたりからの吹き出しに、「盛りすぎかも~」「いい感じ」「もっとまつげを伸ばそう!」などユーザ操作の場所、度合に応じたアドバイスの文字列や絵を表示する構成とするとよい。 For example, images of collaborating models, talents, characters, etc. are displayed on the screen, and speech bubbles around their mouths prompt users to respond with messages such as ``Maybe it's too big,'' ``Looks good,'' and ``Let's grow more eyelashes!'' It is preferable to display a text string or picture of advice depending on the location and degree of the problem.

(B―2)前記ユーザ操作または前記加工についてのアドバイス情報として、前記ユーザ操作がなされた顔の場所ごとの加工量の度合に応じて異なる情報を出力する機能を備える構成とするとよい。
このようにすれば、ユーザは、顔の場所、例えば顔のパーツごとの加工量の度合に応じてアドバイスを受けることできる。
(B-2) The configuration may include a function of outputting different information as advice information regarding the user operation or the processing, depending on the degree of processing for each location on the face where the user operation was performed.
In this way, the user can receive advice depending on the location of the face, for example, the degree of processing for each part of the face.

特にユーザが個別のパーツの盛り具合を調整しているときに、他のパーツの加工度合(盛り具合ともいう)とのバランスから、その調整中のパーツの加工度合の具合のアドバイスをリアルタイムに行うとよい。アドバイスはそのユーザに聞こえる音声でおこなうようにしてもよい。 In particular, when a user is adjusting the thickness of an individual part, advice is given in real time about the degree of machining of the part being adjusted, based on the balance with the degree of machining (also referred to as the degree of thickness) of other parts. Good. The advice may be given in a voice audible to the user.

(B―3)前記ユーザ操作または前記加工についてのアドバイス情報として、前記ユーザ操作がなされた第一の顔のパーツの加工量に応じて第二の顔のパーツの加工量に応じたアドバイス情報を出力する程度を可変させる機能を備える構成とするとよい。
(B―4)前記加工の程度として、前記顔が不自然に加工される程度を備え、
(B-3) As advice information regarding the user operation or the processing, advice information corresponding to the processing amount of the second facial part in accordance with the processing amount of the first facial part on which the user operation was performed. It is preferable to have a configuration that includes a function of varying the degree of output.
(B-4) The degree of processing includes a degree to which the face is processed unnaturally,

前記不自然に加工される程度まで前記ユーザ操作がなされたときに、前記アドバイス情報として、不自然なまでに加工されている旨の情報を出力する機能を備える構成とするとよい。 It is preferable that the configuration includes a function of outputting, as the advice information, information indicating that the image has been unnaturally processed when the user operation has been performed to the extent that the image has been unnaturally processed.

(B―5)当該撮影された人とは異なる人による前記ユーザ操作または前記加工についてのアドバイス情報の出力は、前記ユーザの操作中に行う構成とするとよい。 (B-5) The output of advice information regarding the user operation or the processing by a person different from the person who took the photograph may be performed during the user's operation.

(B―6)前記ユーザ操作または前記加工についてのアドバイス情報の出力は、前記ユーザ以外の前記撮影をするための装置の周辺にいる人に対して出力する機能を備える構成とするとよい。 (B-6) The advice information regarding the user operation or the processing may be outputted to a person other than the user who is around the photographing device.

特に、システム(プリ機ともいう)は通常2人から数名までのグループで撮影するが、プリ機の報知は現在プレー中の人への報知が中心であって、グループ外に向けての広報が弱い。盛りがやり過ぎている場合、「盛りすぎです!盛りすぎです!」と、プレイ中のユーザ以外のプリ機の外にいる人にも聞こえるスピーカまたは音量で、報知する構成とするとよい。加工を行っているユーザに対してではなくユーザ以外の撮影をするための装置の周辺にいる人に対して出力する構成とするとよい。
筐体の外部に向けたスピーカを、落書きブースから離れた位置に設置する。プリ機の周辺でプリ機とは独立した位置にスピーカを設置してもよい。
In particular, the system (also called Puri machine) usually takes pictures in groups of two to several people, but the notification of Puri machine is mainly to inform the people who are currently playing, and it is not a publicity for people outside the group. is weak. If there is too much excitement, it is preferable to use a speaker or a volume that can be used to notify people outside the play machine other than the user who is playing, saying, "It's too much! It's too much!" It is preferable to output the information not to the user who is processing the image, but to a person other than the user who is in the vicinity of the device for photographing.
Install speakers facing the outside of the enclosure away from the graffiti booth. Speakers may be installed around the Puri machine at positions independent of the Puri machine.

プリ機の周りにいる人にプリ機への着目をしてもらうことができ、新規顧客を開拓できる。プリ機の利用を待っている組の人に、前の組のプリの様子を知らせて話題とさせることができ、リピート率を高めたりすることに貢献できる。 You can get people around the Puri machine to pay attention to the Puri machine, and you can develop new customers. It is possible to inform the people in the group waiting to use the Puri machine about the status of the Puri in the previous group and make it a hot topic, contributing to increasing the repeat rate.

(B―7)前記ユーザに対してではなく前記ユーザ以外の前記撮影をするための装置の周辺にいる人に対する出力は、前記加工を行う編集機とは場所に設置されたスピーカーからの音声出力によって行う構成とするとよい。
(B―8)(B―1)から(B―7)のいずれかに記載のシステムの機能をコンピュータに実現させるためのプログラムとするとよい。
(B-7) The output not to the user but to people other than the user who are in the vicinity of the device for photographing is the audio output from a speaker installed at a location different from the editing machine that performs the processing. It is preferable to use a configuration that performs the following.
(B-8) The program may be a program for causing a computer to implement the functions of the system described in any one of (B-1) to (B-7).

(C―1)撮影部が設置された撮影空間とは別の場所に、撮影部で撮影した画像を表示部に表示しその表示した画像に対するユーザの操作に応じた編集を行う編集部を備えるシステムであって、前記撮影空間に前記編集部の表示部とは別の表示部である第二表示部を備え、前記編集部による編集の際に当該編集部の表示部に表示可能な種類の加工を施した画像を前記第二表示部に表示する機能を備えるとよい。 (C-1) An editing section is provided in a location separate from the shooting space in which the shooting section is installed, which displays images shot by the shooting section on a display section and edits the displayed images according to the user's operations. The system includes a second display section that is a display section different from the display section of the editing section in the shooting space, and displays a type of display that can be displayed on the display section of the editing section during editing by the editing section. It is preferable to include a function of displaying the processed image on the second display section.

このようにすれば、撮影空間で撮影しているときに、編集部の表示部に表示可能な種類の加工を施した画像を見ることができる。よって、例えば編集部での編集(例えば加工や落書き)後のできあがりの画像を撮影時にイメージしやすい。例えば複数枚連続して撮影空間で撮影する機能を備えるとき、落書き後のできあがりの画像を、1枚目の撮影時にイメージしながら、2枚目のポーズ等を決めて、次の撮影するといったことを撮影空間で繰り返すことができる。 In this way, while photographing in the photographing space, it is possible to view an image that has undergone the type of processing that can be displayed on the display section of the editing section. Therefore, for example, it is easy to imagine the finished image after editing (for example, processing or doodling) in the editing department when photographing. For example, when equipped with a function to take multiple shots in a shooting space in succession, you can imagine the finished image after doodling when taking the first shot, decide on a pose for the second shot, etc., and then take the next shot. can be repeated in the shooting space.

例えば、撮影空間である撮影ブースで撮影しているとき、撮影の直後に、自動的に盛りを適用した画像のサンプルを撮影ブース内の画面に表示する。ブース内に表示した自動的に盛りを適用した画像はそのままシールとして印刷させたるようにしてもよいが、さらなるユーザによる加工を施すために、編集機の表示部に表示させる機能を備えるとよい。 For example, when taking pictures in a photo booth, which is a photo shoot space, immediately after taking the picture, a sample image to which the embellishment is automatically applied is displayed on the screen inside the photo booth. The image displayed in the booth and to which the embossment has been applied automatically may be printed as a sticker as is, but it is preferable to have a function to display it on the display section of the editing machine for further processing by the user.

例えば、撮影ブース内に、ディスプレイを少なくとも2枚設け、1枚をカメラの下、1枚をそのディスプレイの横などに設置する。カメラの下のディスプレイは撮影中の映像を表示する一方、もう一枚の別のディスプレイには編集ブースの表示部に表示可能な種類の加工を施した画像を表示するとよい。 For example, at least two displays are installed in the photo booth, one below the camera and one next to the display. The display below the camera may display the video being shot, while another display may display the type of processed image that can be displayed on the editing booth display.

(C―2)前記第二表示部には、前記編集部による編集の際に当該編集部の表示部に表示可能な複数の異なるパターンの種類の加工を施した画像を同時に表示させる機能を備えるとよい。 (C-2) The second display section has a function of simultaneously displaying images that have been processed in a plurality of different pattern types that can be displayed on the display section of the editing section during editing by the editing section. Good.

このようにすれば、異なる加工を施した複数のパターンを意識しながら、撮影することができる。例えば異なる加工を施した複数のパターンから1つのパターンを編集部等で選択する機能を備えるとき、自己が選択するパターンをどれにするか撮影中に見定めながら撮影することができる。 In this way, it is possible to take pictures while being aware of a plurality of patterns that have been subjected to different processing. For example, when the editing department or the like has a function of selecting one pattern from a plurality of patterns that have been subjected to different processing, it is possible to decide during shooting which pattern to select.

(C―3)前記表示部には、前記第二表示部に表示した加工を施した画像を、さらなる加工対象または印刷対象の少なくともいずれか一方のために表示させる機能を備えるとよい。
このようにすれば、撮影ブースに表示した加工を施した画像に対してさらに加工したり、印刷したりすることができる。この機能は編集部に備えると特によい。
(C-3) The display section may have a function of displaying the processed image displayed on the second display section for at least one of further processing and printing.
In this way, the processed image displayed in the photo booth can be further processed or printed. It is especially good to have this function in the editorial department.

(C―4)前記編集部の表示部に表示可能な複数の異なるパターンの種類の加工を施した画像のうち、少なくとも2つの異なるパターンの種類の加工を施した画像を1つのシートに印刷する機能を備える構成とするとよい。
このようにすれば、ユーザは、撮影空間において見た複数の異なるパターンの種類の加工を施した画像を1つのシートに印刷されて得ることができる。
(C-4) Out of the images processed with a plurality of different pattern types that can be displayed on the display section of the editing section, images processed with at least two different pattern types are printed on one sheet. It is preferable to have a configuration with functions.
In this way, the user can obtain images that have been processed in a plurality of different pattern types as seen in the photographing space, printed on one sheet.

特に前記編集部の表示部に表示可能な複数の異なるパターンの種類の加工を施した画像のうち、すべての異なるパターンの種類の加工を施した画像を1つのシートに印刷する機能を備えるとよい。 In particular, it is preferable to have a function of printing all images processed with different pattern types on one sheet among images processed with a plurality of different pattern types that can be displayed on the display section of the editing section. .

(C―5)前記編集部の表示部に表示可能な複数の異なるパターンの種類の加工を施した画像のうち、少なくとも2つの異なるパターンの種類の加工を施した画像に基づくNFT(Non-Fungible Token:非代替性トークン)を生成するための処理を行う構成とするとよい。 (C-5) NFT (Non-Fungible It is recommended that the configuration is configured to perform processing to generate a non-fungible token (Token: non-fungible token).

このようにすれば、前記編集部の表示部に表示可能な複数の異なるパターンの種類の加工を施した画像のうち、少なくとも2つの異なるパターンの種類の加工を施した画像に基づく1つの唯一無二のNFTを生成できる。 In this way, one unique image based on an image processed with at least two different pattern types among a plurality of images processed with different pattern types that can be displayed on the display section of the editing section. You can generate two NFTs.

NFTを生成するための処理としては、例えば編集部の表示部に表示可能な複数の異なるパターンの種類の加工を施した画像のうち、少なくとも2つの異なるパターンの種類の加工を施した画像を含む1枚の画像ファイルを生成し、その画像ファイルを、NFTを生成するサーバに対して送信して、NFTを生成させるとよい。また例えばサーバに生成したNFTをダウンロードするURLを生成させ、生成されたURLをそのユーザのあらかじめ登録されたメールアドレスへ送信する処理を行うとよい。
(C―6)(C―1)から(C―5)のいずれかに記載のシステムの機能をコンピュータに実現させるためのプログラムとするとよい。
The processing for generating an NFT includes, for example, an image processed with at least two different pattern types among images processed with a plurality of different pattern types that can be displayed on the display section of the editing department. It is preferable to generate one image file and send the image file to a server that generates an NFT to generate an NFT. Alternatively, for example, a process may be performed in which the server generates a URL for downloading the generated NFT, and the generated URL is sent to the user's pre-registered email address.
(C-6) The program may be a program for causing a computer to implement the functions of the system described in any one of (C-1) to (C-5).

(D―1) 画像を撮影する第一カメラを備えた撮影部と、前記撮影部によって撮影される撮影空間とは別の場所に設置され前記撮影部の第一カメラで撮影された画像をユーザの操作に応じて編集する編集部を備えるシステムであって、 (D-1) A photographing unit equipped with a first camera that photographs images, and a photographing space that is installed in a location different from the photographing space where the photograph is taken by the photographing unit, allows the user to view images photographed by the first camera of the photographing unit. A system comprising an editing department that edits according to the operation of the system,

編集部による編集をしているユーザを撮影するための第二カメラを備え、前記第二カメラで撮影した画像に基づく画像と前記撮影部で撮影された画像に基づく画像とを関連づけて処理する機能を備えるとよい。
このようにすれば、撮影部で撮影した画像を編集部で編集しているユーザの様子を画像として関連づけて処理させることができる。
A function that includes a second camera for photographing a user editing by an editing department, and processes an image based on an image photographed by the second camera in association with an image based on an image photographed by the photographing section. It is a good idea to have the following.
In this way, it is possible to process an image of a user who is editing an image photographed by the photographing part in the editing part by associating it with the image.

前記第二カメラで撮影した画像に基づく画像としては、第二カメラで撮影した画像そのものでもよいが、第二カメラで撮影した画像に基づく画像に加工を施した画像としてもよい。 The image based on the image taken by the second camera may be the image itself taken by the second camera, or may be an image obtained by processing the image based on the image taken by the second camera.

前記撮影部で撮影された画像に基づく画像としては、撮影部で撮影された画像に基づく画像そのものでもよいが、前記撮影部で撮影された画像に加工処理を施した画像としてもよい。 The image based on the image photographed by the photographing section may be the image itself based on the image photographed by the photographing section, or may be an image obtained by processing the image photographed by the photographing section.

第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像とを関連づけて処理する機能としては、例えば後述する(2)のように、前記第二カメラで撮影した画像に基づく画像と前記撮影部の前記第一カメラで撮影された画像に基づく画像とを同一のシートに印刷する機能とするとよい。 As a function of processing an image based on an image taken by the second camera in association with an image based on an image taken by the photographing unit, for example, as described in (2) below, the image taken by the second camera can be It is preferable that the function is to print the image based on the image based on the image taken by the first camera of the image capturing section on the same sheet.

第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像とを関連づけて処理する機能としては、第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像とを関連づけて記憶する機能としてもよい。特に関連付けて記憶された第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像とを、ユーザのスマートフォンで関連付けて表示可能にダウンロード可能なサーバーにアップロードする機能を備えるとよい。関連付けて表示可能とする方法としては、例えばスマートフォンのアプリの画面で上段に撮影部で撮影された画像に基づく画像を表示しその画像に関連付けられた第二カメラで撮影した画像に基づく画像を同じ画面の下段に表示するとよい。例えば、落書きブースで友達と、わちゃわちゃと、画像に加工を加えているときの楽しいようすが蘇る。 The function that associates and processes the image based on the image shot by the second camera and the image based on the image shot by the shooting unit is the function that processes the image based on the image shot by the second camera and the image shot by the shooting unit. It may also be a function of storing the information in association with the base image. In particular, it is possible to have a function for uploading an image based on an image taken by the second camera and an image based on an image taken by the photographing unit, which are stored in association with each other, to a server from which the user can associate and download the images for display on the user's smartphone. good. For example, an image based on an image taken by the camera unit is displayed in the upper row of a smartphone app screen, and an image based on an image taken by a second camera associated with that image is displayed in the same way. It is best to display it at the bottom of the screen. For example, it brings back memories of the fun you had when you and your friends were busy editing images at a graffiti booth.

また、例えば、撮影部で撮影された画像に基づく画像として、撮影部で撮影された画像に基づく画像の隅などにその画像のID(あるいはURL)または対応する関連付けられた第二カメラで撮影した画像に基づく画像のID(あるいはURL)のQRコード等を含めた画像を生成してサーバーにアップロードするようにしてもよい。またこの画像を印刷する処理を行うとよい。例えば、印刷された画像を含むプリクラ(以下プリともいう)にスマホのカメラをかざすと、プリのQRコード内のURLへアクセスし、そのプリの落書きしている様子のムービーをそのURLからダウンロードしてスマホに表示する。同様に音声も録音しておき再生するとよい。撮影空間はあくまで盛りのための撮影なのでその様子はあえて撮影しないということで、ハレとケを実現できる。プリにスマホをかざすだけで、落書きブースで友達と、わちゃわちゃと書き込んでいるときの楽しいようすが蘇る。またその楽しい様子を別の友達に見せることで、その友達もプリを撮影したいと思うようになり、ユーザーを広げることにも貢献する。 In addition, for example, as an image based on an image taken by the imaging unit, the ID (or URL) of the image or the corresponding image taken by the associated second camera may be placed in the corner of the image based on the image taken by the imaging unit. An image including a QR code, etc. of the image ID (or URL) based on the image may be generated and uploaded to the server. It is also advisable to perform processing to print this image. For example, if you hold your smartphone's camera over a purikura (hereinafter also referred to as puri) that contains a printed image, the URL in the puri's QR code will be accessed, and a movie of the puri doodle will be downloaded from that URL. and display it on your smartphone. Similarly, it is a good idea to record the audio and play it back. Since the shooting space is only for the purpose of filming, we purposely do not film the scene, so we can achieve a unique atmosphere. Just by holding your smartphone over the screen, you'll be able to relive the fun you had while you were jotting down notes with your friends at the doodle booth. Also, by showing other friends how happy they are, their friends will also want to take pictures, contributing to expanding the number of users.

第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像とを関連づけて処理する機能としては、第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像とを一つの画像ファイルに保存する機能とするとよい。特に一つの画像データとする処理をするとよい。 The function that associates and processes the image based on the image shot by the second camera and the image based on the image shot by the shooting unit is the function that processes the image based on the image shot by the second camera and the image shot by the shooting unit. It is preferable to have a function that saves the base image and the base image in one image file. In particular, it is preferable to process the data into one image data.

第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像とを関連づけて処理する機能としては、例えば後述する(6)のように、第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像の双方に基づくNFT(Non-Fungible Token:非代替性トークン)を生成するための処理とするとよい。NFTを生成するための処理としては、例えば第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像の双方を含む1枚の画像ファイルを生成し、その画像ファイルを、NFTを生成するサーバに対して送信して、NFTを生成させるとよい。また例えばサーバに生成したNFTをダウンロードするURLを生成させ、生成されたURLをそのユーザのあらかじめ登録されたメールアドレスへ送信する処理を行うとよい。 As a function to associate and process an image based on an image taken by the second camera and an image based on an image taken by the photographing unit, for example, as in (6) described later, The process may be performed to generate an NFT (Non-Fungible Token) based on both the image and the image based on the image photographed by the photographing unit. As a process for generating an NFT, for example, one image file is generated that includes both an image based on an image taken by a second camera and an image based on an image taken by a photographing unit, and the image file is It is preferable to send it to a server that generates NFTs and have them generate NFTs. Alternatively, for example, a process may be performed in which the server generates a URL for downloading the generated NFT, and the generated URL is sent to the user's pre-registered email address.

画像としては、静止画像としてもよいが、動画像とするとよい。画像としては、写真としてもよいが、ムービーとするとよい。特に、第一カメラで撮影する画像は静止画像とし、第二カメラで撮影する画像は動画像とするとよい。例えば前述のスマートフォンのアプリの画面で上段に撮影部で撮影された静止画像に基づく画像を表示しその画像に関連付けられた第二カメラで撮影した画像に基づく画像を同じ画面の下段に表示するとよい。 Although the image may be a still image, it is better to use a moving image. The image may be a photograph, but it is better to use a movie. In particular, it is preferable that the image taken by the first camera be a still image, and the image taken by the second camera be a moving image. For example, it would be a good idea to display an image based on a still image taken by the imaging unit in the upper row of the smartphone app screen mentioned above, and display an image based on an image taken with a second camera associated with that image in the lower row of the same screen. .

撮影空間としては、いわゆる撮影ブースとするとよい。撮影空間とは別の場所としては、撮影空間外で撮影空間の近傍の場所とするとよい。撮影空間とは別の場所としては例えば編集ブースとするとよい。 The shooting space may be a so-called photo booth. The location other than the imaging space may be a location outside the imaging space and near the imaging space. The location other than the shooting space may be, for example, an editing booth.

編集としては、加工とするとよい。編集としては、画像に対していわゆる盛りを行う加工とするとよい。編集としては、特に、ユーザの操作を検出して、ユーザの操作に応じて加工を行う構成とするとよい。 For editing, it is best to use processing. As for editing, it is preferable to perform so-called enhancement on the image. For editing, it is particularly preferable to detect a user's operation and perform processing in accordance with the user's operation.

(D―2)前記第二カメラで撮影した画像に基づく画像と前記撮影部の前記第一カメラで撮影された画像に基づく画像とを同一のシートに印刷する機能を備えるとよい。 (D-2) It is preferable to include a function of printing an image based on an image taken by the second camera and an image based on an image taken by the first camera of the imaging unit on the same sheet.

このようにすれば、撮影空間で撮影した画像と編集部で撮影した画像を一枚のシートをみるだけで、一目で把握できる。例えば撮影ブース内ではきちんとポーズをとって撮影した画像と、編集部でそのポーズをとって撮影した映像に対して編集を加えている様子の画像とを同じシートで見ることができる。よって、ユーザは一目で撮影したときの状況を思い出すことが容易になる。 In this way, the images taken in the shooting space and the images taken in the editing department can be grasped at a glance by just looking at one sheet. For example, in the photo booth, you can see an image taken while posing properly, and an image of the editing department making changes to the video shot while posing in that pose, all on the same sheet. Therefore, the user can easily recall the situation when the image was taken at a glance.

(D―3) 前記第二カメラで撮影した画像に基づく画像は、前記第二カメラで撮影した画像に対して前記第一カメラで撮影された画像に対するユーザの加工の状態を加味して加工した画像とした構成とするとよい。 (D-3) The image based on the image taken by the second camera is processed by adding the user's processing state to the image taken by the first camera to the image taken by the second camera. It is best to configure it as an image.

このようにすれば、第二カメラで撮影した画像に基づく画像は、第一カメラで撮影された画像に対するユーザの加工の状態を加味して加工した画像とすることができる。したがって、編集中の自己の姿を撮影した画像が無加工で印刷されたり、サーバーにアップロードされたりすることを防止でき、プライバシーを守ることが可能となるとともに、自己を撮影した画像に基づく画像であるからその面影を残すことも可能となる。 In this way, the image based on the image taken by the second camera can be an image that has been processed by taking into account the state of the user's processing of the image taken by the first camera. Therefore, it is possible to prevent the image taken of yourself being edited from being printed without editing or uploaded to a server, making it possible to protect your privacy, and also to prevent images based on the image taken of yourself. Because it exists, it is possible to leave a trace of it.

なお「加味して加工」する処理としては、顔の各パーツの位置を画像認識し、第一カメラで撮影された画像に対するユーザの顔の各パーツへの加工の状態を、第二カメラで撮影された画像に対するユーザの顔の各パーツの加工の状態へ適用する処理とするとよい。 Note that the process of "adding and processing" involves image recognition of the position of each part of the user's face, and a second camera that captures the processing status of each part of the user's face for the image taken with the first camera. The process may be applied to the state of processing of each part of the user's face on the image.

(D―4)前記第一カメラで撮影された画像に基づく画像を前記編集部以外の端末にネットワークを介して送信する機能と、前記編集部以外の端末で前記ネットワークを介して受信した前記第一カメラで撮影された画像に基づく画像を編集する機能と、当該編集した画像を前記撮影空間とは別の場所に設置された印刷部であって撮影空間に隣接する場所で印刷する機能とを備えるとよい。 (D-4) A function of transmitting an image based on an image taken by the first camera to a terminal other than the editorial department via a network, and a function of transmitting an image based on an image taken by the first camera to a terminal other than the editorial department, A function to edit an image based on an image taken with one camera, and a function to print the edited image in a printing section installed in a place different from the shooting space and adjacent to the shooting space. It's good to be prepared.

このようにすれば、編集部以外の端末で、第一カメラで、撮影された画像に基づく画像を編集することができる。例えばネットワークを介して別の場所にいるアーティストのスマホやタブレット等の端末で編集を行うことができる。特に第二カメラをアーティストのスマホやタブレット等の端末のカメラとすれば、アーティストが編集している様子を撮影した画像をユーザを撮影した画像とともに関連づけて処理させることができる。例えば、両者の画像を1枚のシートに印刷したり、例えば前述のスマートフォンのアプリの画面で上段に撮影部で撮影されたユーザの画像に基づく画像を表示しその画像に関連付けられた第二カメラで撮影したアーティストの画像に基づく画像を同じ画面の下段に表示するようにするとよい。また、特に後述する(6)の構成も備えるようにすれば、アーティストとユーザーとのコラボとなるNFTを生成させることができる。 In this way, an image based on an image taken by the first camera can be edited using a terminal other than the editing department. For example, editing can be done on a device such as an artist's smartphone or tablet located in another location via a network. In particular, if the second camera is a camera of an artist's terminal such as a smartphone or tablet, an image taken of the artist editing can be processed in association with an image taken of the user. For example, you can print both images on one sheet, or display an image based on the user's image taken by the camera unit in the upper row of the smartphone app screen mentioned above, and display a second camera associated with that image. It is a good idea to display images based on the artist's images taken at the bottom of the same screen. In addition, especially if the configuration (6) described later is also provided, it is possible to generate NFTs that are a collaboration between artists and users.

(D―5)前記編集部による前記第一カメラで撮影された画像の加工の順番と加工の程度の履歴の情報を記録しておき、前記編集部に有する表示部とは別の表示部でその履歴の情報と前記撮影空間のカメラで撮影された画像に基づく画像を取得し、取得した前記撮影空間のカメラで撮影された画像に基づく画像に対して前記履歴の情報の少なくとも一部を適用して前記別の端末で加工の様子を再生する処理を行う構成とするとよい。 (D-5) Record information on the order and degree of processing of images taken by the first camera by the editorial department, and display the information on a display unit separate from the display unit in the editorial department. Obtain an image based on the history information and an image taken by the camera in the shooting space, and apply at least a part of the history information to the image based on the acquired image taken by the camera in the shooting space. It is preferable to perform a process of reproducing the machining process on the other terminal.

このようにすれば、加工の順番と加工の程度を別の端末で再現して再生できる。例えば、編集部である落書き機での操作データを、プリのID、時刻データとともに記憶する。ペンでの書き込み位置の時刻データ等も操作データとして記憶する。プリを印刷する際に操作データそのものまたは操作データを特定するためのプリのIDをQRコードとして画像の近傍に印刷する。プリにスマホをかざすと、プリのIDをQRコード等から特定し、そのプリのIDに関連付けられた操作データに基づき、落書きの時系列の操作とそれに伴う盛りの変化の様子をスマホで再生する。またはプリにスマホをかざすと、プリの操作データをQRコード等から読み出し、落書きの時系列の操作とそれに伴う盛りの変化の様子をスマホで再生する。音声を同様に記録して、操作と同期して再生するようにしてもよい。プリの状態(盛り済みの状態)から逆再生で、盛りなしの状態に戻して、また通常再生で盛りの状態へと変化させることを繰り返す機能をスマホアプリ等に備えると、特におもしろい。 In this way, the processing order and degree of processing can be reproduced and reproduced on another terminal. For example, the operation data of the doodling machine that is the editorial department is stored together with the pre ID and time data. Time data of the writing position with the pen, etc. are also stored as operation data. When printing a app, the operation data itself or the app's ID for identifying the operation data is printed as a QR code near the image. When you hold your smartphone over a Puri, the Puri's ID is identified from a QR code, etc., and based on the operation data associated with that Puri's ID, the chronological operation of the graffiti and the corresponding change in height are played back on the smartphone. . Or, if you hold your smartphone over the Puri, the Puri's operation data will be read out from a QR code, etc., and the chronological operation of the graffiti and the accompanying change in height will be played back on your smartphone. Sound may be similarly recorded and played back in synchronization with the operation. It would be especially interesting if a smartphone app etc. had a function that repeats the process from the pre-filled state (filled state) to the full state by reverse playback, and then back to the full state by normal playback.

(D―6)前記第二カメラで撮影した画像に基づく画像と前記撮影部の前記第一カメラで撮影された画像に基づく画像の双方に基づくNFT(Non-Fungible Token:非代替性トークン)を生成するための処理を行う構成とするとよい。 (D-6) An NFT (Non-Fungible Token) based on both an image based on an image taken by the second camera and an image based on an image taken by the first camera of the photographing section. It is preferable to have a configuration that performs processing for generation.

このようにすれば、撮影空間で撮影した画像に基づく画像と、編集部で編集時の様子を撮影した画像との双方の画像に基づく1つの唯一無二のNFTを生成できる。 In this way, one unique NFT can be generated based on both the image based on the image taken in the shooting space and the image taken at the editing department.

NFTを生成するための処理としては、例えば第二カメラで撮影した画像に基づく画像と撮影部で撮影された画像に基づく画像の双方を含む1枚の画像ファイルを生成し、その画像ファイルを、NFTを生成するサーバに対して送信して、NFTを生成させるとよい。また例えばサーバに生成したNFTをダウンロードするURLを生成させ、生成されたURLをそのユーザのあらかじめ登録されたメールアドレスへ送信する処理を行うとよい。
(D―7)(D―1)から(D―6)のいずれかに記載のシステムの機能をコンピュータに実現させるためのプログラムとするとよい。
As a process for generating an NFT, for example, one image file is generated that includes both an image based on an image taken by a second camera and an image based on an image taken by a photographing unit, and the image file is It is preferable to send it to a server that generates NFTs and have them generate NFTs. Alternatively, for example, a process may be performed in which the server generates a URL for downloading the generated NFT, and the generated URL is sent to the user's pre-registered email address.
(D-7) The program may be a program for causing a computer to implement the functions of the system described in any one of (D-1) to (D-6).

上述した(A―1)から(A―8)、(C―1)から(C―6)(D―1)から(D―7)、(B―1)から(B―8)に示した構成は、それぞれ任意に組み合わせることができる。また、(A―1)から(A―8)、(C―1)から(C―6)(D―1)から(D―7)、(B―1)から(B―8)に示した構成から任意の構成を抽出し、抽出された構成を組み合わせてもよい。 Shown in (A-1) to (A-8), (C-1) to (C-6), (D-1) to (D-7), and (B-1) to (B-8) above. These configurations can be combined arbitrarily. Also, as shown in (A-1) to (A-8), (C-1) to (C-6), (D-1) to (D-7), and (B-1) to (B-8). It is also possible to extract arbitrary configurations from the extracted configurations and combine the extracted configurations.

本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。また「~の場合」「~のとき」という記載があったとしても、その場合やそのときに限られる構成として記載はしているものではない。これらはよりよい構成の例を示しているものであって、これらの場合やときでない構成についても権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えたりした構成についても開示しているものであり、権利取得する意思を有する。 The applicant of this application intends to acquire rights to inventions containing these structures. Furthermore, even if there is a description of "in the case of" or "at the time of", the description is not intended to be limited to those cases or times. These are examples of better configurations, and we intend to acquire rights to these cases and other configurations as well. Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.

なお、本発明の範囲は、明細書に明示的に説明された構成や限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求の範囲とする意思を有する。 Note that the scope of the present invention is not limited to the configuration explicitly described in the specification, but also includes combinations of various aspects of the invention disclosed in this specification. Of the present invention, the structure for which a patent is sought has been specified in the attached claims, but at present, even if the structure is not specified in the claims, it is not disclosed in this specification. We intend to include such configurations in the scope of claims in the future.

本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と、発明を解決するための手段に記載の任意の構成要素又は発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正又は分割出願等において権利取得する意思を有する。「~の場合」「~のとき」という記載があったとしてもその場合やそのときに限られる構成として記載はしているものではない。これらの場合やときでない構成についても開示しているものであり、権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えた構成についても開示しているものであり、権利取得する意思を有する。 The present invention is not limited to the configuration described in the embodiments described above. The components of each of the embodiments and modifications described above may be arbitrarily selected and combined. Also, any component of each embodiment or modification, any component described in the means for solving the invention, or a component that embodies any component described in the means for solving the invention. It may be configured in any combination. The applicant intends to acquire rights to these matters through amendments to the application or divisional applications. Even if there is a description of ``in the case of'' or ``in the case of'', the description is not intended to be limited to that case or at that time. We have also disclosed these cases and other configurations, and we intend to acquire the rights. Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.

また、意匠登録出願への変更により、全体意匠又は部分意匠について権利取得する意思を有する。図面は本装置の全体を実線で描画しているが、全体意匠のみならず当該装置の一部の部分に対して請求する部分意匠も包含した図面である。例えば当該装置の一部の部材を部分意匠とすることはもちろんのこと、部材と関係なく当該装置の一部の部分を部分意匠として包含した図面である。当該装置の一部の部分としては、装置の一部の部材としても良いし、その部材の部分としても良い。全体意匠はもちろんのこと、図面の実線部分のうち任意の部分を破線部分とした部分意匠を、権利化する意思を有する。また、装置の筐体の内部のモジュール・部材・部品等についても、図面に表示されているものは、いずれも独立して取引の対象となるものであって、同様に、意匠登録出願への変更を行って権利化を行う意思を有するものである。 In addition, the applicant intends to acquire rights to the entire design or partial design by converting the application to a design registration application. Although the drawing depicts the entire device using solid lines, the drawing includes not only the overall design but also the partial design claimed for some parts of the device. For example, it is a drawing that not only includes some members of the device as a partial design, but also includes some parts of the device as a partial design regardless of the members. The part of the device may be a part of the device or a part of the device. We intend to obtain rights not only for the entire design, but also for partial designs in which any part of the solid line part of the drawing is a broken line part. In addition, the modules, members, parts, etc. inside the device housing shown in the drawings are all subject to independent transactions, and similarly, they are included in the design registration application. There is an intention to make changes and obtain rights.

100 プリントシール機
110 受付部
111 第一タッチパネル
112 料金支払部
112a 現金投入口
112b カード読取部
112c 電子マネー読取部
112d 硬貨返却部
113 第一スピーカ
120 撮影部
121 撮影空間
122 出入口
123 カーテン
124 第一カメラ
125 ライト
126 第二タッチパネル
126a 撮影処理画面
126b 顔画像
126c 撮影開始ボタン
127 第二表示部
127a 加工後画像
128 第二スピーカ
130 編集部
131 第三タッチパネル
132 スタイラスペン
133 第三スピーカ
134 第二カメラ
135 マイク
140 印刷部
141 印刷装置
142 受取部
150 通信部
200 サーバー
300 通信手段
500 ユーザ端末
600 オペレーター端末
700 制御部

100 Print sticker machine 110 Reception section 111 First touch panel 112 Fee payment section 112a Cash slot 112b Card reading section 112c Electronic money reading section 112d Coin return section 113 First speaker 120 Photographing section 121 Photographing space 122 Entrance/exit 123 Curtain 124 First camera 125 Light 126 Second touch panel 126a Shooting processing screen 126b Face image 126c Shooting start button 127 Second display section 127a Processed image 128 Second speaker 130 Editing section 131 Third touch panel 132 Stylus pen 133 Third speaker 134 Second camera 135 Microphone 140 Printing section 141 Printing device 142 Receiving section 150 Communication section 200 Server 300 Communication means 500 User terminal 600 Operator terminal 700 Control section

Claims (8)

人の顔を含む領域を撮影した撮影画像に対してユーザ操作に応じて加工を加えるシステムであって、
前記撮影された人とは異なる人の画像を表示させるとともに、当該撮影された人とは異なる人によって前記ユーザ操作または前記加工についてのアドバイス情報が出力されている態様の出力を行う機能を備えること
を特徴とするシステム。
A system that processes a photographed image of an area including a human face according to a user operation,
A function is provided for displaying an image of a person different from the person photographed, and outputting advice information regarding the user operation or the processing by a person different from the person photographed. A system featuring:
前記ユーザ操作または前記加工についてのアドバイス情報として、前記ユーザ操作がなされた顔の場所ごとの加工量の度合に応じて異なる情報を出力する機能を備えること
を特徴とする請求項1に記載のシステム。
The system according to claim 1, further comprising a function of outputting different information as advice information regarding the user operation or the processing, depending on the degree of processing for each location on the face where the user operation has been performed. .
前記ユーザ操作または前記加工についてのアドバイス情報として、前記ユーザ操作がなされた第一の顔のパーツの加工量に応じて第二の顔のパーツの加工量に応じたアドバイス情報を出力する程度を可変させる機能を備えること
を特徴とする請求項1または2に記載のシステム。
As advice information regarding the user operation or the processing, the extent to which advice information is output in accordance with the processing amount of the second facial part on which the user operation has been performed is varied according to the processing amount of the first facial part. 3. The system according to claim 1, further comprising a function of
前記加工の程度として、前記顔が不自然に加工される程度を備え、
前記不自然に加工される程度まで前記ユーザ操作がなされたときに、前記アドバイス情報として、不自然なまでに加工されている旨の情報を出力する機能を備えること
を特徴とする請求項1から3のいずれかに記載のシステム。
The degree of processing includes a degree to which the face is processed unnaturally,
2. The apparatus according to claim 1, further comprising a function of outputting, as the advice information, information indicating that the information has been unnaturally processed when the user operation is performed to the extent that the information has been unnaturally processed. 3. The system according to any one of 3.
当該撮影された人とは異なる人による前記ユーザ操作または前記加工についてのアドバイス情報の出力は、前記ユーザの操作中に行うこと
を特徴とする請求項1から4のいずれかに記載のシステム。
5. The system according to claim 1, wherein advice information regarding the user operation or the processing by a person different from the person who took the photograph is outputted during the user's operation.
前記ユーザ操作または前記加工についてのアドバイス情報の出力は、前記ユーザ以外の前記撮影をするための装置の周辺にいる人に対して出力する機能を備えること
を特徴とする請求項1から5のいずれかに記載のシステム。
Any one of claims 1 to 5, characterized in that the output of the advice information regarding the user operation or the processing is provided with a function of outputting it to a person other than the user who is around the device for photographing. The system described in Crab.
前記ユーザに対してではなく前記ユーザ以外の前記撮影をするための装置の周辺にいる人に対する出力は、前記加工を行う加工機とは場所に設置されたスピーカーからの音声出力によって行うこと
を特徴とする請求項6に記載のシステム。
The output, not to the user but to people other than the user who are around the device for photographing, is performed by audio output from a speaker installed at a location where the processing machine that performs the processing is located. 7. The system according to claim 6.
請求項1から7のいずれかに記載のシステムの機能をコンピュータに実現させるためのプログラム。



A program for causing a computer to implement the functions of the system according to claim 1.



JP2022055628A 2022-03-30 2022-03-30 System, program and the like Pending JP2023147877A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022055628A JP2023147877A (en) 2022-03-30 2022-03-30 System, program and the like

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022055628A JP2023147877A (en) 2022-03-30 2022-03-30 System, program and the like

Publications (1)

Publication Number Publication Date
JP2023147877A true JP2023147877A (en) 2023-10-13

Family

ID=88288161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022055628A Pending JP2023147877A (en) 2022-03-30 2022-03-30 System, program and the like

Country Status (1)

Country Link
JP (1) JP2023147877A (en)

Similar Documents

Publication Publication Date Title
US9519950B2 (en) Image generating apparatus and image generating method
JP7011206B2 (en) Amusement photography equipment, image processing equipment, and image processing methods
JP5896385B1 (en) Photo shooting game device, photo sticker creation device, content providing system, photo shooting game device control method, and photo shooting game device control program
JP6467778B2 (en) Management server, program, and recording medium
JP2018031860A (en) Photograph creating game machine, and information processing method
JP2017027258A (en) Information distribution device, communication terminal, information distribution system, information distribution device control method, communication terminal control method, control program, and recording medium
JP2016116245A (en) Photo taking play device, photo seal creation device, content provision system, control method for photo taking play device, and control program for photo taking play device
JP2023147877A (en) System, program and the like
JP2023147876A (en) System, program and the like
JP2023147878A (en) System, program and the like
JP2023147879A (en) System, program and the like
JP6269759B1 (en) Service providing system, service providing method, image generation apparatus, and service providing apparatus
JP6254400B2 (en) Photo sticker dispensing device
JP6889366B2 (en) Management device, control method of management device
JP2018081590A (en) Service providing device
JP4770567B2 (en) Image editing / output apparatus and control method therefor, photography printing apparatus, image editing / output apparatus control program, and recording medium recording the program
JP2007282862A (en) Fortune-telling processing system, fortune-telling processing method, photograph fortune-telling system, photographing printer, fortune-telling processing program, and recording medium
JP6369076B2 (en) MANAGEMENT DEVICE, MANAGEMENT DEVICE CONTROL METHOD, TERMINAL DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM
JP6183721B2 (en) Photography game machine and control program
JP7120277B2 (en) Amusement imaging device
JP7334818B2 (en) Game image shooting system
JP6369073B2 (en) Management server, photo sticker creation apparatus, image management system, image management method, image transmission method, program, and recording medium
JP6813109B1 (en) Game image shooting device and game image shooting setting program
JP7102680B2 (en) Image editing device, image editing method and image editing program
KR200362667Y1 (en) Automatic manufacture System of Flash Album CD