JP2022173968A - Image generation device - Google Patents

Image generation device Download PDF

Info

Publication number
JP2022173968A
JP2022173968A JP2021080089A JP2021080089A JP2022173968A JP 2022173968 A JP2022173968 A JP 2022173968A JP 2021080089 A JP2021080089 A JP 2021080089A JP 2021080089 A JP2021080089 A JP 2021080089A JP 2022173968 A JP2022173968 A JP 2022173968A
Authority
JP
Japan
Prior art keywords
image
user
virtual object
information
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021080089A
Other languages
Japanese (ja)
Inventor
晴充 薮内
Harumitsu Yabuuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Agent Co Ltd
Original Assignee
Universal Agent Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal Agent Co Ltd filed Critical Universal Agent Co Ltd
Priority to JP2021080089A priority Critical patent/JP2022173968A/en
Publication of JP2022173968A publication Critical patent/JP2022173968A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To enable a virtual object superimposed on a base image to be designed depending on a user.SOLUTION: An image generation device 1 includes: a first user information obtaining unit 11 that obtains first user information on a first user who is a shop staff serving a customer; a second user information obtaining unit 12 that obtains second user information on a second user who is the customer receiving service by the first user; and an image obtaining unit 14 that obtains a virtual object J to be superimposed on a base image B for generating a superimposed image S. Upon a request given from the second user, the image obtaining unit 14 obtains a first virtual object J1 that is the virtual object J having a design decided on the basis of input information containing the first user information and the second user information.SELECTED DRAWING: Figure 1

Description

本開示は、画像生成装置に関する。 The present disclosure relates to image generation devices.

例えば風景等のベース画像に種々の仮想オブジェクトを重畳させた重畳画像をディスプレイ等に表示することで、現実には存在しない仮想オブジェクトが恰もベース画像上に存在しているかのようにユーザに視認させる技術が知られている。このような技術を実現する手段として、AR(Augmented Reality:拡張現実)及びVR(Virtual Reality:仮想現実)等が例示される。特許文献1には、VRを用いた仮想空間において、二人のユーザのそれぞれに紐づけられた仮想オブジェクトどうしが互いにコミュニケーションをとることを可能とする技術が開示されている。 For example, by displaying a superimposed image in which various virtual objects are superimposed on a base image such as a landscape on a display or the like, the user can visually recognize a virtual object that does not actually exist as if it were present on the base image. technology is known. AR (Augmented Reality) and VR (Virtual Reality) are exemplified as means for realizing such technology. Patent Literature 1 discloses a technology that enables virtual objects linked to two users to communicate with each other in a virtual space using VR.

ここで、「AR」とは、現実空間を表す画像(ベース画像)に仮想的な画像(仮想オブジェクト)を重畳させた画像(重畳画像)をユーザに視認させることにより、現実を拡張した世界をユーザに体験させる手段である。また、「VR」とは、仮想空間を表す画像をユーザに視認させることにより、当該仮想空間が恰も現実空間であるかのように認識される世界をユーザに体験させる手段である。VRにおいても、ベースとなる画像(ベース画像)上に別の仮想的な画像(仮想オブジェクト)を重畳させた画像(重畳画像)をユーザに視認させる場合がある。 Here, “AR” refers to a world in which reality is augmented by allowing the user to visually recognize an image (superimposed image) in which a virtual image (virtual object) is superimposed on an image representing the real space (base image). It is a means for users to experience. "VR" is means for allowing the user to experience a world in which the virtual space is recognized as if it were a real space by allowing the user to visually recognize an image representing a virtual space. In VR as well, there are cases where the user is allowed to visually recognize an image (superimposed image) in which another virtual image (virtual object) is superimposed on a base image (base image).

特開2021-2145号公報Japanese Patent Application Laid-Open No. 2021-2145

上述したような技術では、一般に、ベース画像に重畳させる仮想オブジェクトのデザインは予め決められている。一方で、仮想オブジェクトのデザインをユーザに応じて変えたい場合がある。例えば、店員と当該店員から接客又は接待を受ける客との二人のユーザがいる場合に、仮想オブジェクトのデザインを二人のユーザの関係性に応じたものとすることにより、互いの関係が特別なものであることを示すことが考えられる。 In the techniques described above, the design of the virtual object to be superimposed on the base image is generally determined in advance. On the other hand, there are cases where it is desired to change the design of the virtual object according to the user. For example, when there are two users, a store clerk and a customer who receives service or entertainment from the store clerk, by designing the virtual object according to the relationship between the two users, the relationship between the two users can be made special. It is conceivable to show that it is

そこで、本開示に係る画像生成装置は、ベース画像に重畳される仮想オブジェクトをユーザに応じたデザインとすることを目的とする。 Therefore, an image generating apparatus according to the present disclosure aims to design a virtual object superimposed on a base image according to the user.

本開示の一態様に係る画像生成装置(1)は、客に対して接客又は接待を行う店員である第1ユーザに関する第1ユーザ情報を取得する第1ユーザ情報取得部(11)と、第1ユーザから接客又は接待を受ける客である第2ユーザに関する第2ユーザ情報を取得する第2ユーザ情報取得部(12)と、ベース画像(B)に重畳させて重畳画像(S)を生成するための仮想オブジェクト(J)を取得する画像取得部(14)と、を備え、画像取得部(14)は、第2ユーザから要求があったことを契機として、第1ユーザ情報及び第2ユーザ情報を含む入力情報に基づいてデザインが決定される仮想オブジェクト(J)である第1仮想オブジェクト(J1)を取得する。 An image generation device (1) according to an aspect of the present disclosure includes a first user information acquisition unit (11) that acquires first user information about a first user who is a salesclerk who serves or entertains customers; A second user information acquisition unit (12) for acquiring second user information about a second user who is a customer who receives service or entertainment from one user, and a superimposed image (S) is generated by superimposing it on a base image (B). and an image acquisition unit (14) for acquiring the virtual object (J) for the first user information and the second user information in response to a request from the second user. A first virtual object (J1), which is a virtual object (J) whose design is determined based on input information including information, is obtained.

この画像生成装置(1)によれば、第2ユーザの要求に応じて、ベース画像(B)に重畳させて重畳画像(S)を生成するための仮想オブジェクト(J)を取得する。この重畳画像(S)は、例えばディスプレイ等に表示されることで、現実には存在しない仮想オブジェクト(J)が恰もベース画像(B)上に存在しているかのようにユーザに視認させるためのAR又はVR等に用いられる。ここで、画像生成装置(1)によれば、例えば接客が行われる飲食店又は接待を伴う飲食店の店員と客との関係にある第1ユーザと第2ユーザとの情報に応じて、仮想オブジェクト(J)のデザインが決定される。よって、画像生成装置(1)によれば、ベース画像(B)に重畳される仮想オブジェクト(J)をユーザに応じたデザインとすることができる。 According to this image generating device (1), a virtual object (J) for generating a superimposed image (S) by superimposing it on a base image (B) is obtained in response to a request from a second user. This superimposed image (S) is displayed, for example, on a display or the like so that the user can visually recognize the virtual object (J) that does not exist in reality as if it were present on the base image (B). Used for AR or VR. Here, according to the image generation device (1), for example, a virtual The design of object (J) is determined. Therefore, according to the image generation device (1), the virtual object (J) superimposed on the base image (B) can be designed according to the user.

本開示の一態様に係る画像生成装置(1)では、ベース画像(B)は、第1ユーザにより第2ユーザに対して接客又は接待が行われる店舗の画像であってもよい。これによれば、第2ユーザから第1ユーザに贈られたギフトを店舗に飾る行為を、AR又はVRにより再現することができる。 In the image generation device (1) according to one aspect of the present disclosure, the base image (B) may be an image of a store where the first user serves or entertains the second user. According to this, it is possible to reproduce the act of decorating the store with a gift presented by the second user to the first user by AR or VR.

本開示の一態様に係る画像生成装置(1)では、仮想オブジェクト(J)は、スタンド花の画像であってもよい。これによれば、第2ユーザから第1ユーザへのギフトとしてスタンド花を贈る行為を、AR又はVRにより再現することができる。 In the image generation device (1) according to one aspect of the present disclosure, the virtual object (J) may be an image of a flower stand. According to this, the act of giving a stand flower as a gift from the second user to the first user can be reproduced by AR or VR.

本開示の一態様に係る画像生成装置(1)では、入力情報は、スタンド花に含まれる花の特徴に関する花情報を含んでいてもよい。これによれば、第1ユーザ及び第2ユーザに適した特徴を有する花を含んだスタンド花を、第2ユーザから第1ユーザへのギフトとすることができる。 In the image generation device (1) according to one aspect of the present disclosure, the input information may include flower information regarding the characteristics of flowers included in the flower stand. According to this, the stand flower containing the flower which has the characteristic suitable for the 1st user and the 2nd user can be made into the gift from the 2nd user to the 1st user.

本開示の一態様に係る画像生成装置(1)は、第1ユーザにより使用される第1ユーザ端末(T1)と、第2ユーザにより使用される第2ユーザ端末(T2)と、の間で実行された通信の履歴に関する通信履歴情報を取得する通信履歴情報取得部(13)を備え、入力情報は、通信履歴情報を含んでいてもよい。これによれば、第1ユーザと第2ユーザとの過去の通信履歴に応じたデザインの仮想オブジェクト(J)を、第2ユーザから第1ユーザへのギフトとすることができる。 An image generation device (1) according to an aspect of the present disclosure is a first user terminal (T1) used by a first user and a second user terminal (T2) used by a second user. A communication history information acquisition unit (13) for acquiring communication history information relating to the history of executed communication may be provided, and the input information may include the communication history information. According to this, the virtual object (J) designed according to the past communication history between the first user and the second user can be given as a gift from the second user to the first user.

本開示の一態様に係る画像生成装置(1)は、画像取得部(14)が第2ユーザから要求があったことを契機として第1仮想オブジェクト(J1)を取得する場合に、第2ユーザに対する課金を実行する課金部(15)を備えていてもよい。これによれば、第2ユーザから第1ユーザへのギフトの料金を第2ユーザから受領することができる。 An image generation device (1) according to an aspect of the present disclosure, when an image acquisition unit (14) acquires a first virtual object (J1) triggered by a request from a second user, the second user A billing unit (15) may be provided for billing. According to this, the charge for the gift from the second user to the first user can be received from the second user.

本開示の一態様に係る画像生成装置(1)では、入力情報は、課金部(15)により第2ユーザに対して実行される課金の金額に関する金額情報を含んでいてもよい。これによれば、第2ユーザから受領する金額に応じたデザインの仮想オブジェクト(J)を、第2ユーザから第1ユーザへのギフトとすることができる。 In the image generation device (1) according to one aspect of the present disclosure, the input information may include amount information regarding the amount of money to be charged to the second user by the charging unit (15). According to this, the virtual object (J) designed according to the amount of money received from the second user can be given as a gift from the second user to the first user.

本開示の一態様に係る画像生成装置(1)は、重畳画像(S)において仮想オブジェクト(J)が配置される配置位置を設定する配置位置設定部(17)を備えていてもよい。これによれば、ベース画像(B)上での仮想オブジェクト(J)の位置を好適に設定することが可能となる。 An image generation device (1) according to an aspect of the present disclosure may include an arrangement position setting section (17) that sets an arrangement position where a virtual object (J) is arranged in a superimposed image (S). According to this, it is possible to suitably set the position of the virtual object (J) on the base image (B).

本開示の一態様に係る画像生成装置(1)では、画像取得部(14)は、第1仮想オブジェクト(J1)、及び、第1仮想オブジェクト(J1)とは別の仮想オブジェクト(J)である第2仮想オブジェクト(J2)を取得し、配置位置設定部(17)は、第1仮想オブジェクト(J1)が配置される配置位置に関して当該第1仮想オブジェクト(J1)に紐づけられた優先度を取得し、取得した優先度に応じて、重畳画像(S)において第1仮想オブジェクト(J1)と第2仮想オブジェクト(J2)とのいずれかの仮想オブジェクト(J)がより強調されるように、配置位置を設定してもよい。これによれば、種々の条件によって決定される優先度に応じて、仮想オブジェクトJを適切に強調して表示することができる。 In the image generation device (1) according to one aspect of the present disclosure, the image acquisition unit (14) uses the first virtual object (J1) and the virtual object (J) different from the first virtual object (J1). A certain second virtual object (J2) is acquired, and the placement position setting unit (17) determines the priority associated with the first virtual object (J1) with respect to the placement position where the first virtual object (J1) is placed. is acquired, and according to the acquired priority, either the first virtual object (J1) or the second virtual object (J2) is emphasized in the superimposed image (S) , the placement position may be set. According to this, the virtual object J can be appropriately emphasized and displayed according to the priority determined by various conditions.

本開示の一態様に係る画像生成装置(1)では、ベース画像(B)は、撮像装置(T11,T21)により撮像されて撮像装置(T11,T21)に併設された画像表示装置(T12,T22)に表示される画像であり、画像取得部(14)は、仮想オブジェクト(J)を画像表示装置(T12,T22)に出力することにより、ベース画像(B)に仮想オブジェクト(J)を重畳させた重畳画像(S)を画像表示装置(T12,T22)に表示させてもよい。これによれば、重畳画像(S)がARのディスプレイ等に表示されることで、現実には存在しない仮想オブジェクト(J)が恰もベース画像(B)上に存在しているかのようにユーザに視認させるためのARが具体的に実現される。 In the image generation device (1) according to one aspect of the present disclosure, the base image (B) is imaged by the imaging devices (T11, T21) and image display devices (T12, T12, T21) provided side by side with the imaging devices (T11, T21). T22), and the image acquisition unit (14) outputs the virtual object (J) to the image display devices (T12, T22) to display the virtual object (J) in the base image (B). The superimposed image (S) may be displayed on the image display devices (T12, T22). According to this, the superimposed image (S) is displayed on the AR display or the like, so that the user can feel as if the virtual object (J) that does not exist in reality exists on the base image (B). AR for visual recognition is specifically realized.

本開示の一態様に係る画像生成装置(1)は、撮像装置(T11,T21)により撮像されたベース画像(B)において配置位置の基準とするためのマーカ(M)を設定するマーカ設定部(16)を備えてもよい。これによれば、ARにおいて仮想オブジェクト(J)が配置される配置位置を設定するためのマーカ(M)が設定されることで、現実には存在しない仮想オブジェクト(J)が恰もベース画像(B)上に存在しているかのようにユーザに視認させるためのARが具体的に実現される。 An image generation device (1) according to an aspect of the present disclosure includes a marker setting unit that sets a marker (M) for use as a reference for an arrangement position in a base image (B) captured by an imaging device (T11, T21) (16) may be provided. According to this, by setting a marker (M) for setting an arrangement position where the virtual object (J) is arranged in AR, the virtual object (J) that does not exist in reality appears as if in the base image (B ) AR is specifically implemented to make the user see it as if it were on it.

本開示の一態様に係る画像生成装置(1A)では、ベース画像(B)は、仮想画像として構成された画像であり、画像取得部(14A)は、ベース画像(B)を取得し、取得したベース画像(B)に仮想オブジェクト(J)を重畳させて重畳画像(S)を生成し、生成した重畳画像(S)を画像表示装置(T12,T22)に出力することにより、重畳画像(S)を画像表示装置(T12,T22)に表示させてもよい。これによれば、重畳画像(S)がVRのディスプレイ等に表示されることで、現実には存在しない仮想オブジェクト(J)が恰もベース画像(B)上に存在しているかのようにユーザに視認させるためのVRが具体的に実現される。 In the image generation device (1A) according to one aspect of the present disclosure, the base image (B) is an image configured as a virtual image, and the image acquisition unit (14A) acquires the base image (B), acquires A superimposed image (S) is generated by superimposing the virtual object (J) on the generated base image (B), and the superimposed image ( S) may be displayed on the image display device (T12, T22). According to this, by displaying the superimposed image (S) on a VR display or the like, the user can feel as if the virtual object (J) that does not exist in reality exists on the base image (B). VR for visual recognition is specifically realized.

なお、上記の括弧内の符号は、後述する実施形態における構成要素の符号を本開示の一例として示したものであって、本開示を実施形態の態様に限定するものではない。 It should be noted that the reference numerals in parentheses above indicate the reference numerals of the constituent elements in the embodiment described later as an example of the present disclosure, and are not intended to limit the present disclosure to the aspect of the embodiment.

このように、本開示に係る画像生成装置は、ベース画像に重畳される仮想オブジェクトをユーザに応じたデザインとすることができる。 In this way, the image generation device according to the present disclosure can design the virtual object superimposed on the base image according to the user.

図1は、第1実施形態に係る画像生成装置を示すブロック図である。FIG. 1 is a block diagram showing an image generation device according to the first embodiment. 図2は、画像生成装置により実行される第1画像生成処理を示すフローチャートである。FIG. 2 is a flowchart showing first image generation processing executed by the image generation device. 図3は、送信者側の画像表示装置に表示されるログイン画面の画像を示す図である。FIG. 3 is a diagram showing an image of a login screen displayed on the image display device on the sender side. 図4は、画像表示装置に表示されるトップページ画面の画像を示す図である。FIG. 4 is a diagram showing an image of a top page screen displayed on the image display device. 図5は、画像表示装置に表示されるバースデーリスト画面の画像を示す図である。FIG. 5 is a diagram showing an image of a birthday list screen displayed on the image display device. 図6は、画像表示装置に表示される送信者リスト画面の画像を示す図である。FIG. 6 is a diagram showing an image of a sender list screen displayed on the image display device. 図7は、画像表示装置に表示されるメッセージ入力画面の画像を示す図である。FIG. 7 is a diagram showing an image of a message input screen displayed on the image display device. 図8は、画像表示装置に表示される仮想オブジェクト選択画面の画像を示す図である。FIG. 8 is a diagram showing an image of a virtual object selection screen displayed on the image display device. 図9は、画像表示装置に表示される仮想オブジェクト確定画面の画像を示す図である。FIG. 9 is a diagram showing an image of a virtual object confirmation screen displayed on the image display device. 図10は、画像表示装置に表示される配置位置設定画面の画像を示す図である。FIG. 10 is a diagram showing an image of an arrangement position setting screen displayed on the image display device. 図11は、画像表示装置に表示されるギフト送信画面の画像を示す図である。FIG. 11 is a diagram showing an image of a gift transmission screen displayed on the image display device. 図12は、画像表示装置に表示される送信完了画面の画像を示す図である。FIG. 12 is a diagram showing an image of a transmission completion screen displayed on the image display device. 図13は、受信者側の画像表示装置に表示されるマイページ画面の画像を示す図である。FIG. 13 is a diagram showing an image of the My Page screen displayed on the image display device on the recipient side. 図14は、画像表示装置に表示されるメッセージ表示画面の画像を示す図である。FIG. 14 is a diagram showing an image of a message display screen displayed on the image display device. 図15は、画像表示装置に表示される重畳画像を示す図である。FIG. 15 is a diagram showing a superimposed image displayed on the image display device. 図16は、管理者側の画像表示装置に表示される管理画面の画像を示す図である。FIG. 16 is a diagram showing an image of a management screen displayed on the image display device of the administrator. 図17は、第2実施形態に係る画像生成装置を示すブロック図である。FIG. 17 is a block diagram showing an image generation device according to the second embodiment. 図18は、画像生成装置により実行される第2画像生成処理を示すフローチャートである。FIG. 18 is a flowchart showing second image generation processing executed by the image generation device. 図19は、管理者側の画像表示装置に表示される管理画面の画像を示す図である。FIG. 19 is a diagram showing an image of a management screen displayed on the image display device of the administrator.

以下、図面を参照して例示的な実施形態について説明する。なお、各図における同一又は相当部分には同一符号を付し、重複する説明を省略する。 Exemplary embodiments are described below with reference to the drawings. In addition, the same reference numerals are given to the same or corresponding parts in each figure, and overlapping explanations are omitted.

[第1実施形態]
図1は、第1実施形態に係る画像生成装置1を示すブロック図である。図1に示される画像生成装置1は、ベース画像Bに重畳させて重畳画像Sを生成するための仮想オブジェクトJを取得する装置であり(図15参照)、生成された重畳画像Sはディスプレイ等に表示されてユーザにより視認される。これにより、現実には存在しない仮想オブジェクトJが恰もベース画像B上に存在しているかのようにユーザに視認させることができる。本実施形態においては、ベース画像Bは、例えばユーザの視界を撮像した撮像画像に基づいている。つまり、画像生成装置1は、ARにおいてディスプレイ等に表示される重畳画像Sの仮想オブジェクトJを生成する装置である。ARの具体的な手法としては、任意の技術が適用可能である。
[First embodiment]
FIG. 1 is a block diagram showing an image generation device 1 according to the first embodiment. The image generation device 1 shown in FIG. 1 is a device that obtains a virtual object J for superimposing a superimposed image S on a base image B (see FIG. 15), and the generated superimposed image S is displayed on a display or the like. is displayed and viewed by the user. This allows the user to visually recognize the virtual object J, which does not actually exist, as if it were present on the base image B. FIG. In this embodiment, the base image B is based on, for example, a captured image of the user's field of view. That is, the image generation device 1 is a device that generates a virtual object J of a superimposed image S displayed on a display or the like in AR. Any technique can be applied as a specific method of AR.

ここで、「ベース画像」とは、ユーザにより視認される重畳画像Sの背景となる画像であり、例えばカメラ等により撮像された現実空間の画像(実空間画像)である。つまり、ベース画像Bは、ARにおける背景画像である。ベース画像Bは、撮像装置T11,T21により撮像されて画像表示装置T12,T22に表示される画像である(詳しくは後述)。また、「仮想オブジェクト」とは、ベース画像Bに重畳させて重畳画像Sを生成するための画像である。仮想オブジェクトJは、例えば、現実には存在しない物品等の仮想的な画像である。「現実には存在しない」とは、その場には存在していないことを意味しており、例えば別の場所に実在している物品等の撮像画像を仮想オブジェクトJとして流用してもよい。 Here, the “base image” is an image that serves as a background of the superimposed image S visually recognized by the user, and is, for example, a real space image (real space image) captured by a camera or the like. That is, the base image B is the background image in AR. The base image B is an image captured by the imaging devices T11 and T21 and displayed on the image display devices T12 and T22 (details will be described later). A “virtual object” is an image to be superimposed on the base image B to generate a superimposed image S. FIG. A virtual object J is, for example, a virtual image of an article that does not exist in reality. "Not actually existing" means that it does not exist at that location, and for example, a captured image of an article that actually exists at another location may be used as the virtual object J.

画像生成装置1は、店員により客に対して接待が行われる飲食店(いわゆる、接待を伴う飲食店)において、店員及び客の少なくともいずれかにより視認される重畳画像Sを生成する。「接待」とは、店員が客との間でコミュニケーションをとることにより当該客をもてなすことであり、一例として、歓楽的雰囲気を醸し出す方法により当該客をもてなすことであってもよい。接待を伴う飲食店は、具体的には、キャバレー又はナイトクラブといった飲食店であってもよい。 The image generation device 1 generates a superimposed image S that is visually recognized by at least one of a staff member and a customer in a restaurant where a staff member entertains a customer (so-called restaurant with entertainment). “Entertainment” means that a clerk entertains a customer by communicating with the customer, and may, for example, entertain the customer in a manner that creates a pleasant atmosphere. A restaurant with entertainment may be specifically a restaurant such as a cabaret or a nightclub.

一般に、接待を伴う飲食店においては客から店員に対してギフト(プレゼント)が贈られる場合がある。例えば、何らかの事象(店員の誕生日の到来等)を祝福するために、当該飲食店の店外又は店内に飾るための花卉等がギフトとして客から店員に対して贈られる。画像生成装置1は、このようなギフトとして、飲食店を表すベース画像Bに重畳させて重畳画像Sを生成するための花卉等を表す仮想オブジェクトJを取得する。そして、ベース画像Bに仮想オブジェクトJが重畳した重畳画像SがARを用いてユーザに視認されることで、例えば店員又は客等のユーザは、恰も贈呈された花卉等のギフトが飲食店に飾られているように認識することとなる。 Generally, in a restaurant with entertainment, a customer may give a gift (present) to a clerk. For example, in order to celebrate some event (such as the arrival of a salesclerk's birthday), a customer presents a salesclerk with a flower or the like as a gift to be displayed outside or inside the restaurant. As such a gift, the image generating apparatus 1 acquires a virtual object J representing a flower or the like for generating a superimposed image S by superimposing it on the base image B representing the restaurant. Then, when the superimposed image S in which the virtual object J is superimposed on the base image B is visually recognized by the user using the AR, the user such as the store clerk or the customer can decorate the restaurant with a gift such as a flower that has been presented. It will be recognized as if

以下の説明においては、ユーザとして第1ユーザ及び第2ユーザを例示する。「第1ユーザ」とは、客に対して接待を行う店員であり、「第2ユーザ」とは、第1ユーザから接待を受ける客であるとする。ギフトは、第2ユーザから第1ユーザに対して贈られる。また、ベース画像Bは、例えば第1ユーザにより第2ユーザに対して接待が行われる店舗の画像であり、仮想オブジェクトJは、当該店舗に飾られるスタンド花の画像であるとする。「スタンド花」とは、一輪又は複数輪の花(花束)を台に配置した花の飾りであり、フラワースタンドとも称される。スタンド花には、台の近傍や台の内部などに配置された立札が含まれていてもよい。立札には、例えば第1ユーザの名前等が表示されていてもよい。 In the following description, a first user and a second user are exemplified as users. A "first user" is a store clerk who entertains customers, and a "second user" is a customer who receives entertainment from the first user. A gift is given from the second user to the first user. Also, assume that the base image B is, for example, an image of a store where the first user entertains the second user, and the virtual object J is an image of a stand flower displayed in the store. A "stand flower" is a flower decoration in which one or more flowers (bouquets) are arranged on a stand, and is also called a flower stand. The stand flower may include a notice board placed near the stand, inside the stand, or the like. For example, the name of the first user may be displayed on the notice board.

画像生成装置1は、ネットワークNを介して後述する第1ユーザ端末T1及び第2ユーザ端末T2と通信可能なコンピュータ10(サーバ)により構成されている。画像生成装置1は、物理的な構成として、制御演算装置、記憶装置、及び入出力装置を備えている。制御演算装置は、例えばCPU(Central Processing Unit)等のコントローラにより構成されており、演算処理を実行するとともに記憶装置及び入出力装置の制御を行う。記憶装置は、例えば主記憶装置及び補助記憶装置を有している。主記憶装置は、例えばRAM(Random Access Memory)により構成されている。また、補助記憶装置は、例えばROM(Read Only Memory)により構成されている。入出力装置は、例えば外部からデータを入力されて記憶装置に送信する入力装置、及び、例えば制御演算部により演算されて記憶装置に記憶された演算結果を外部に出力する出力装置を有している。 The image generation device 1 is composed of a computer 10 (server) capable of communicating with a first user terminal T1 and a second user terminal T2, which will be described later, via a network N. As shown in FIG. The image generation device 1 has a control operation device, a storage device, and an input/output device as physical components. The control arithmetic device is composed of a controller such as a CPU (Central Processing Unit), for example, and performs arithmetic processing and controls the storage device and the input/output device. The storage device has, for example, a main storage device and an auxiliary storage device. The main storage device is composed of, for example, a RAM (Random Access Memory). Also, the auxiliary storage device is composed of, for example, a ROM (Read Only Memory). The input/output device has, for example, an input device that receives data from the outside and transmits it to the storage device, and an output device that outputs to the outside the results of calculations performed by the control calculation unit and stored in the storage device. there is

画像生成装置1は、例えば、ROMに記憶されているプログラムをRAMに読み込み、RAMに読み込まれたプログラムをCPUにより実行することにより、所定の処理を実行する。なお、画像生成装置1を構成するコンピュータ10は、物理的に、上述した構成とは異なる構成を備えていてもよい。 The image generating apparatus 1 executes predetermined processing by, for example, reading a program stored in a ROM into a RAM and executing the program read into the RAM by a CPU. It should be noted that the computer 10 constituting the image generating apparatus 1 may physically have a configuration different from the configuration described above.

第1ユーザ端末T1は第1ユーザにより使用される端末であり、第2ユーザ端末T2は第2ユーザにより使用される端末である。第1ユーザ端末T1及び第2ユーザ端末T2のそれぞれは、物理的な構成として、制御演算装置、記憶装置、及び入出力装置を備えている。制御演算装置は、例えばCPU等のコントローラにより構成されており、演算処理を実行するとともに記憶装置及び入出力装置の制御を行う。記憶装置は、例えば主記憶装置及び補助記憶装置を有している。主記憶装置は、例えばRAMにより構成されている。また、補助記憶装置は、例えばROMにより構成されている。入出力装置は、例えば外部からデータを入力されて記憶装置に送信する入力装置、及び、例えば制御演算部により演算されて記憶装置に記憶された演算結果を外部に出力する出力装置を有している。 A first user terminal T1 is a terminal used by a first user, and a second user terminal T2 is a terminal used by a second user. Each of the first user terminal T1 and the second user terminal T2 has a control arithmetic device, a storage device, and an input/output device as a physical configuration. The control arithmetic device is composed of a controller such as a CPU, for example, and performs arithmetic processing and controls the storage device and the input/output device. The storage device has, for example, a main storage device and an auxiliary storage device. The main memory is composed of RAM, for example. Also, the auxiliary storage device is composed of, for example, a ROM. The input/output device has, for example, an input device that receives data from the outside and transmits it to the storage device, and an output device that outputs to the outside the results of calculations performed by the control calculation unit and stored in the storage device. there is

第1ユーザ端末T1及び第2ユーザ端末T2のそれぞれは、例えば、ROMに記憶されているプログラムをRAMに読み込み、RAMに読み込まれたプログラムをCPUにより実行することにより、所定の処理を実行する。第1ユーザ端末T1及び第2ユーザ端末T2のそれぞれは、画像生成装置1等の別の機器とネットワークNを介して通信可能に構成されている。第1ユーザ端末T1及び第2ユーザ端末T2のそれぞれは、例えばスマートフォン、タブレット、ノートパソコン、デスクトップパソコン等であってもよい。ここでは、第1ユーザ端末T1及び第2ユーザ端末T2のそれぞれとしてスマートフォンが例示されている。 Each of the first user terminal T1 and the second user terminal T2, for example, reads a program stored in the ROM into the RAM, and executes the program read into the RAM by the CPU, thereby executing a predetermined process. Each of the first user terminal T1 and the second user terminal T2 is configured to be able to communicate with another device such as the image generation device 1 via the network N. As shown in FIG. Each of the first user terminal T1 and the second user terminal T2 may be, for example, a smart phone, a tablet, a notebook computer, a desktop computer, or the like. Here, smartphones are exemplified as each of the first user terminal T1 and the second user terminal T2.

第1ユーザ端末T1は、入力装置としてカメラ等の撮像装置T11を有しており、出力装置としてディスプレイ等の画像表示装置T12を有している。同様に、第2ユーザ端末T2は、入力装置としてカメラ等の撮像装置T21を有しており、出力装置としてディスプレイ等の画像表示装置T22を有している。 The first user terminal T1 has an imaging device T11 such as a camera as an input device, and an image display device T12 such as a display as an output device. Similarly, the second user terminal T2 has an imaging device T21 such as a camera as an input device, and an image display device T22 such as a display as an output device.

画像表示装置T12は、撮像装置T11に併設されている(撮像装置T11の近傍に設けられている)。具体的には、第1ユーザ端末T1において、撮像装置T11と画像表示装置T12とは互いに背面側に位置するように(背中合わせに)設けられている。つまり、第1ユーザ端末T1の位置を基準として撮像装置T11により撮像される方向と第1ユーザ端末T1の位置を基準として画像表示装置T12を視認可能な方向とは、互いに反対向きとなっている。ここでは、第1ユーザ端末T1は撮像装置T11によりベース画像Bを撮像(取得)し、撮像されたベース画像Bが画像表示装置T12に表示される。 The image display device T12 is provided side by side with the imaging device T11 (provided in the vicinity of the imaging device T11). Specifically, in the first user terminal T1, the imaging device T11 and the image display device T12 are provided so as to be positioned on the back side of each other (back to back). That is, the direction in which an image is captured by the imaging device T11 with the position of the first user terminal T1 as a reference and the direction in which the image display device T12 can be viewed with the position of the first user terminal T1 as a reference are opposite to each other. . Here, the first user terminal T1 captures (obtains) the base image B with the imaging device T11, and the captured base image B is displayed on the image display device T12.

同様に、画像表示装置T22は、撮像装置T21に併設されている(撮像装置T21の近傍に設けられている)。具体的には、第2ユーザ端末T2において、撮像装置T21と画像表示装置T22とは互いに背面側に位置するように(背中合わせに)設けられている。つまり、第2ユーザ端末T2の位置を基準として撮像装置T21により撮像される方向と第2ユーザ端末T2の位置を基準として画像表示装置T22を視認可能な方向とは、互いに反対向きとなっている。ここでは、第2ユーザ端末T2は撮像装置T21によりベース画像Bを撮像(取得)し、撮像されたベース画像Bが画像表示装置T22に表示される。 Similarly, the image display device T22 is provided side by side with the imaging device T21 (provided in the vicinity of the imaging device T21). Specifically, in the second user terminal T2, the imaging device T21 and the image display device T22 are provided so as to be positioned on the back side of each other (back to back). In other words, the direction in which the image is captured by the imaging device T21 with the position of the second user terminal T2 as a reference and the direction in which the image display device T22 can be viewed with the position of the second user terminal T2 as a reference are opposite to each other. . Here, the second user terminal T2 captures (obtains) the base image B with the imaging device T21, and the captured base image B is displayed on the image display device T22.

画像生成装置1の機能的な構成について説明する。画像生成装置1のコンピュータ10は、機能的には、第1ユーザ情報取得部11、第2ユーザ情報取得部12、通信履歴情報取得部13、画像取得部14、課金部15、マーカ設定部16、及び配置位置設定部17を備えている。 A functional configuration of the image generation device 1 will be described. The computer 10 of the image generation device 1 functionally includes a first user information acquisition unit 11, a second user information acquisition unit 12, a communication history information acquisition unit 13, an image acquisition unit 14, a charging unit 15, a marker setting unit 16, and a , and an arrangement position setting unit 17 .

第1ユーザ情報取得部11は、第1ユーザ情報を取得する。第1ユーザ情報取得部11は、例えば第1ユーザ端末T1等の端末から第1ユーザ情報を受信することにより、第1ユーザ情報を取得してもよい。「第1ユーザ情報」とは、第1ユーザに関する情報である。例えば、第1ユーザ情報は、第1ユーザを特定する情報(個人特定情報)であってもよい。個人特定情報としては、例えば、氏名、住所、出身地、年齢、誕生日等であってもよい。また、第1ユーザ情報は、第1ユーザの嗜好に関する情報(嗜好情報)であってもよい。嗜好情報としては、例えば、趣味、好きな言葉、好きな音楽、好きな飲食物、好きな色等であってもよい。 The first user information acquisition unit 11 acquires first user information. The first user information acquisition unit 11 may acquire the first user information by receiving the first user information from a terminal such as the first user terminal T1. "First user information" is information about the first user. For example, the first user information may be information that identifies the first user (personal identification information). Personal identification information may be, for example, name, address, birthplace, age, birthday, and the like. Also, the first user information may be information (preference information) about the preference of the first user. Preference information may include, for example, hobbies, favorite words, favorite music, favorite food and drink, and favorite colors.

第2ユーザ情報取得部12は、第2ユーザ情報を取得する。第2ユーザ情報取得部12は、例えば第2ユーザ端末T2等の端末から第2ユーザ情報を受信することにより、第2ユーザ情報を取得してもよい。「第2ユーザ情報」とは、第2ユーザに関する情報である。例えば、第2ユーザ情報は、第2ユーザを特定する情報(個人特定情報)であってもよく、第2ユーザの嗜好に関する情報(嗜好情報)であってもよい。 The second user information acquisition unit 12 acquires second user information. The second user information acquisition unit 12 may acquire the second user information by receiving the second user information from a terminal such as the second user terminal T2. "Second user information" is information about the second user. For example, the second user information may be information that identifies the second user (individual identification information), or may be information about the preferences of the second user (preference information).

通信履歴情報取得部13は、通信履歴情報を取得する。「通信履歴情報」とは、第1ユーザ端末T1と第2ユーザ端末T2との間で実行された通信の履歴に関する情報である。例えば、通信履歴情報は、第1ユーザ端末T1と第2ユーザ端末T2との間での電話の通話履歴に関する情報(通話履歴情報)であってもよく、第1ユーザ端末T1と第2ユーザ端末T2との間での電子メールの送受信履歴に関する情報(電子メール履歴情報)であってもよく、第1ユーザ端末T1と第2ユーザ端末T2との間でのチャットツールを用いたコメントの交換履歴に関する情報(チャット履歴情報)であってもよい。あるいは、通信履歴情報は、第1ユーザ端末T1に紐づけられた第1ユーザのアカウントと第2ユーザ端末T2に紐づけられた第2ユーザのアカウントとの間でのSNS(Social networking service)を用いたコミュニケーション履歴に関する情報(コミュニケーション履歴情報)であってもよい。 The communication history information acquisition unit 13 acquires communication history information. “Communication history information” is information related to the history of communication performed between the first user terminal T1 and the second user terminal T2. For example, the communication history information may be information (call history information) about a telephone call history between the first user terminal T1 and the second user terminal T2. It may be information (e-mail history information) about the history of e-mail transmission and reception with T2, and the history of comment exchange using the chat tool between the first user terminal T1 and the second user terminal T2 (chat history information). Alternatively, the communication history information may be an SNS (Social networking service) between the first user's account linked to the first user terminal T1 and the second user's account linked to the second user terminal T2. It may be information (communication history information) related to the communication history used.

通信履歴情報取得部13は、例えば第1ユーザ端末T1又は第2ユーザ端末T2から通信履歴情報を受信することにより、通信履歴情報を取得してもよい。あるいは、通信履歴情報取得部13は、通信履歴情報を保持している外部サーバ(例えば、SNSサーバ)等の外部機器から当該通信履歴情報を受信することにより、通信履歴情報を取得してもよい。 The communication history information acquisition unit 13 may acquire communication history information by receiving communication history information from, for example, the first user terminal T1 or the second user terminal T2. Alternatively, the communication history information acquisition unit 13 may acquire communication history information by receiving the communication history information from an external device such as an external server (for example, an SNS server) that holds the communication history information. .

画像取得部14は、仮想オブジェクトJを取得する。具体的には、画像取得部14は、第2ユーザから要求があったことを契機として、仮想オブジェクトJ(例えば、後述する第1仮想オブジェクトJ1)を取得する。具体的には、画像取得部14は、第1仮想オブジェクトJ1を新たに生成することを要求する仮想オブジェクト生成要求を第2ユーザ端末T2から受信した場合に、第1仮想オブジェクトJ1を取得してもよい。画像取得部14は、複数のベース画像Bに応じた仮想オブジェクトJを取得してもよい。例えば、画像取得部14は、店舗の画像であるベース画像Bに応じた仮想オブジェクトJ、及び、第1ユーザ又は第2ユーザの自宅の画像であるベース画像Bに応じた仮想オブジェクトJをそれぞれ取得してもよい。 The image acquisition unit 14 acquires the virtual object J. FIG. Specifically, the image acquisition unit 14 acquires the virtual object J (for example, a first virtual object J1, which will be described later), triggered by a request from the second user. Specifically, when the image acquisition unit 14 receives a virtual object generation request for newly generating the first virtual object J1 from the second user terminal T2, the image acquisition unit 14 acquires the first virtual object J1. good too. The image acquisition unit 14 may acquire virtual objects J corresponding to a plurality of base images B. FIG. For example, the image acquisition unit 14 acquires the virtual object J corresponding to the base image B, which is the image of the store, and the virtual object J, corresponding to the base image B which is the image of the home of the first user or the second user. You may

画像取得部14は、例えば入力情報に基づいて仮想オブジェクトJを生成することにより、仮想オブジェクトJを取得してもよい。「入力情報」とは、当該情報に基づいて仮想オブジェクトJのデザインが決定される情報である。例えば、入力情報は、第1ユーザ情報及び第2ユーザ情報を含んでいる。つまり、画像取得部14は、第1ユーザと第2ユーザとの相性に基づいて仮想オブジェクトJのデザインを決定する。また、入力情報は、通信履歴情報、金額情報、花情報、及び運勢情報を含んでいる。 The image acquisition unit 14 may acquire the virtual object J by generating the virtual object J based on the input information, for example. “Input information” is information for determining the design of the virtual object J based on the information. For example, the input information includes first user information and second user information. That is, the image acquisition unit 14 determines the design of the virtual object J based on the compatibility between the first user and the second user. The input information includes communication history information, amount information, flower information, and fortune information.

「金額情報」とは、後述する課金部15により第2ユーザに対して実行される課金の金額に関する情報である。具体的には、金額情報は、ギフトとしての仮想オブジェクトJが取得されるための金額に関する情報であってもよい。「花情報」とは、花の特徴に関する情報であってもよく、特に、仮想オブジェクトJのスタンド花に含まれる花の特徴に関する情報であってもよい。具体的には、花情報は、花の種類ごとに設定された花言葉の情報であってもよく、花の種類ごとの色、形状、大きさの情報であってもよく、花の種類ごとの原産地の情報であってもよい。また、「花情報」とは、スタンド花に含むべき花の種類に関する情報であってもよい。この場合、花情報に係る花の種類は、第1ユーザ又は第2ユーザにより指定されてもよい。「運勢情報」とは、第1ユーザ又は第2ユーザの運勢に関する情報である。画像取得部14は、第1ユーザ及び第2ユーザに関する情報に応じて決定される運勢情報を予めデータベースに記憶していてもよい。 The “amount information” is information regarding the amount of money charged to the second user by the charging unit 15, which will be described later. Specifically, the money amount information may be information about the money amount for obtaining the virtual object J as a gift. The “flower information” may be information about the characteristics of flowers, and in particular, information about the characteristics of flowers included in the stand flower of the virtual object J. FIG. Specifically, the flower information may be information on the language of flowers set for each type of flower, or information on the color, shape, and size of each type of flower. It may be information on the place of origin of the Also, the "flower information" may be information about the types of flowers to be included in the flower stand. In this case, the type of flower related to the flower information may be specified by the first user or the second user. "Fortune information" is information about the fortune of the first user or the second user. The image acquisition unit 14 may store in the database in advance the fortune information determined according to the information about the first user and the second user.

画像取得部14は、第1ユーザ情報取得部11から第1ユーザ情報を取得し、第2ユーザ情報取得部12から第2ユーザ情報を取得し、通信履歴情報取得部13から通信履歴情報を取得し、課金部15から金額情報を取得する。また、画像取得部14は、花情報を予め記憶していてもよく、あるいは、ネットワークNを介して外部サーバ等の外部機器から花情報を取得してもよい。 The image acquisition unit 14 acquires first user information from the first user information acquisition unit 11, acquires second user information from the second user information acquisition unit 12, and acquires communication history information from the communication history information acquisition unit 13. Then, the amount information is acquired from the charging unit 15 . The image acquisition unit 14 may store flower information in advance, or may acquire flower information from an external device such as an external server via the network N.

画像取得部14は、取得した入力情報に基づいて、任意の手段により仮想オブジェクトJを生成してよい。例えば、画像取得部14は、入力情報と仮想オブジェクトJとを対応づけた対応マップを参照して、取得した入力情報に基づいて仮想オブジェクトJを生成してもよい。この場合、画像取得部14は、予め記憶している対応マップを参照してもよく、例えばネットワークNを介して外部サーバ等の外部機器にアクセスして当該外部機器に記憶されている対応マップを参照してもよい。 The image acquisition unit 14 may generate the virtual object J by any means based on the acquired input information. For example, the image acquisition unit 14 may generate the virtual object J based on the acquired input information by referring to a correspondence map in which the input information and the virtual object J are associated with each other. In this case, the image acquisition unit 14 may refer to a correspondence map stored in advance. For example, the image acquisition unit 14 accesses an external device such as an external server via the network N and obtains the correspondence map stored in the external device. You can refer to it.

あるいは、画像取得部14は、いわゆるAI(Artificial Intelligence:人工知能)を用いて、取得した入力情報に基づいて仮想オブジェクトJを生成してもよい。AIとして、ニューラルネットワークを用いたディープラーニングが採用されてもよい。具体的には、画像取得部14は、入力情報を入力データとするとともに仮想オブジェクトJを出力データとするようにニューラルネットワークを学習させた学習済みモデルを用いて、取得した入力情報に基づいて仮想オブジェクトJを生成してもよい。 Alternatively, the image acquisition unit 14 may generate the virtual object J based on the acquired input information using so-called AI (Artificial Intelligence). Deep learning using a neural network may be adopted as AI. Specifically, the image acquiring unit 14 uses a trained model in which a neural network is trained so that the input information is input data and the virtual object J is output data. Object J may be generated.

以下の説明では、仮想オブジェクトJは、第1仮想オブジェクトJ1及び第2仮想オブジェクトJ2を含むものとする。「第1仮想オブジェクト」とは、第1ユーザ情報及び第2ユーザ情報を含む入力情報に基づいてデザインが決定される仮想オブジェクトJである。この場合において、第2ユーザ情報とは、その文脈において着目しているユーザである第2ユーザに関する第2ユーザ情報を意味している。「第2仮想オブジェクト」とは、第1仮想オブジェクトJ1とは別の仮想オブジェクトJである。例えば、第1仮想オブジェクトJ1が第2ユーザに紐づけられた仮想オブジェクトJであるのに対して、第2仮想オブジェクトJ2は、第2ユーザとは別のユーザに紐づけられた仮想オブジェクトJであってもよい。第2仮想オブジェクトは、例えばスタンド花の画像であってもよく、第1ユーザの画像(平面画像又は立体画像)であってもよい。 In the following description, virtual objects J are assumed to include a first virtual object J1 and a second virtual object J2. A "first virtual object" is a virtual object J whose design is determined based on input information including first user information and second user information. In this case, the second user information means second user information about the second user who is the user of interest in the context. A "second virtual object" is a virtual object J different from the first virtual object J1. For example, while the first virtual object J1 is a virtual object J associated with the second user, the second virtual object J2 is a virtual object J associated with a user other than the second user. There may be. The second virtual object may be, for example, an image of a flower stand, or an image of the first user (planar image or stereoscopic image).

画像取得部14は、仮想オブジェクトJを第1ユーザ端末T1の画像表示装置T12又は第2ユーザ端末T2の画像表示装置T22に出力する。このとき、第1ユーザ端末T1又は第2ユーザ端末T2はベース画像Bを取得していることから、画像取得部14は、ベース画像Bに当該仮想オブジェクトJを重畳させた重畳画像Sを画像表示装置T12,T22に表示させることができる。このようにして、画像生成装置1は、第1ユーザ端末T1又は第2ユーザ端末T2と協働してARの機能を実現する。 The image acquisition unit 14 outputs the virtual object J to the image display device T12 of the first user terminal T1 or the image display device T22 of the second user terminal T2. At this time, since the first user terminal T1 or the second user terminal T2 has acquired the base image B, the image acquisition unit 14 displays the superimposed image S in which the virtual object J is superimposed on the base image B. It can be displayed on the devices T12 and T22. In this manner, the image generation device 1 realizes the AR function in cooperation with the first user terminal T1 or the second user terminal T2.

課金部15は、画像取得部14が第2ユーザから要求があったことを契機として第1仮想オブジェクトJ1を取得する場合に、第2ユーザに対する課金を実行する。課金部15は、第2ユーザにより第2ユーザ端末T2を介して入力された金額を当該第2ユーザに対して課金してもよい。この場合、課金部15は、第2ユーザ端末T2に複数の金額の選択肢を提示し、第2ユーザにより選択された選択肢に係る金額を第2ユーザに対して課金してもよい。課金部15は、課金された金額に応じて第2ユーザに対してポイントを付与してもよい。ポイントは、例えば店舗での支払いに利用可能であってもよい。 The charging unit 15 charges the second user when the image acquiring unit 14 acquires the first virtual object J1 in response to a request from the second user. The billing unit 15 may bill the second user for the amount of money input by the second user via the second user terminal T2. In this case, the billing unit 15 may present a plurality of price options to the second user terminal T2, and may bill the second user for the price corresponding to the option selected by the second user. The charging unit 15 may give points to the second user according to the amount of money charged. Points may be available for payment at stores, for example.

課金部15は、第2ユーザに対して、以下のようにして課金を実行してもよい。すなわち、課金部15は、予め登録された銀行口座からの引落としの処理を実行してもよく、当該銀行口座からの引落としを指示する情報を外部のサーバ(例えば銀行のサーバ)に送信する処理を実行してもよく、課金を行うことを指示する情報をクレジットカード会社(課金を代行する業者)等のサーバに送信する処理を実行してもよい。このように、課金部15が課金を実行するタイミングは、実際に支払いが行われるタイミングと一致していてもよく、一致していなくてもよい。 The billing unit 15 may bill the second user as follows. That is, the billing unit 15 may execute processing for debiting from a bank account registered in advance, and transmits information instructing debiting from the bank account to an external server (for example, a bank server). Processing may be executed, or processing of transmitting information instructing charging to a server such as a credit card company (agent acting on behalf of charging) may be executed. In this manner, the timing at which the billing unit 15 executes billing may or may not coincide with the timing at which payment is actually made.

マーカ設定部16は、第1ユーザ端末T1の撮像装置T11又は第2ユーザ端末T2の撮像装置T21により撮像されたベース画像Bにおいて仮想オブジェクトJの配置位置の基準とするためのマーカMを設定する(図16参照)。「マーカ」とは、ARのコンテンツを画像上に表示させる際の基準となる、予め形状等が設定されたマークである。マーカはM、ベース画像Bに仮想オブジェクトJを重畳させて重畳画像Sが生成される際に、ベース画像B上において仮想オブジェクトJが表示される位置の基準となる。ここでは、ベース画像Bは店舗の画像であることから、マーカMは、例えば店舗又は店舗の近傍に表示されたマーク(店のロゴマーク等)の画像であってもよく、店舗の看板(ファサードに掲げられた看板等)の画像であってもよく、店舗を構成する構造体(ドア等)の画像であってもよい。 The marker setting unit 16 sets a marker M to be used as a reference for the arrangement position of the virtual object J in the base image B captured by the imaging device T11 of the first user terminal T1 or the imaging device T21 of the second user terminal T2. (See FIG. 16). A “marker” is a mark whose shape or the like is set in advance and serves as a reference when displaying AR content on an image. The marker M serves as a reference for the position where the virtual object J is displayed on the base image B when the superimposed image S is generated by superimposing the virtual object J on the base image B. FIG. Here, since the base image B is the image of the store, the marker M may be, for example, an image of the store or a mark displayed in the vicinity of the store (logo mark of the store, etc.). It may be an image of a signboard, etc. displayed on a street), or an image of a structure (a door, etc.) that constitutes a store.

マーカ設定部16により設定されたマーカに関する情報は、マーカ設定部16から第1ユーザ端末T1又は第2ユーザ端末T2に送信される。第1ユーザ端末T1は、撮像装置T11により撮像されたベース画像Bに対して画像処理を行うことにより、ベース画像BからマーカMに対応する画像部分を検出(抽出)する。例えば、第1ユーザ端末T1は、パターンマッチングにより画像処理を実行してもよい。具体的には、第1ユーザ端末T1は、ベース画像Bにおいてエッジ検出を実行し、エッジ検出後の画像に対して予め記憶しているテンプレート画像を用いたテンプレートマッチングを実行してもよい。これらの処理については、第2ユーザ端末T2の場合についても同様である。 Information about the marker set by the marker setting unit 16 is transmitted from the marker setting unit 16 to the first user terminal T1 or the second user terminal T2. The first user terminal T1 detects (extracts) an image portion corresponding to the marker M from the base image B by performing image processing on the base image B captured by the imaging device T11. For example, the first user terminal T1 may perform image processing by pattern matching. Specifically, the first user terminal T1 may perform edge detection on the base image B and perform template matching on the image after edge detection using a template image stored in advance. These processes are the same for the second user terminal T2.

配置位置設定部17は、重畳画像Sにおいて仮想オブジェクトJが配置される配置位置を設定する。具体的には、配置位置設定部17は、マーカ設定部16により設定されたマーカMの位置を基準として、予め決められた条件に従って仮想オブジェクトJが配置される配置位置を設定する。また、配置位置設定部17は、例えば第1ユーザ端末T1又は第2ユーザ端末T2から受信する情報に基づいて、仮想オブジェクトJの配置位置を変更(設定)してもよい。 The arrangement position setting unit 17 sets the arrangement position where the virtual object J is arranged in the superimposed image S. FIG. Specifically, the placement position setting unit 17 sets the placement position where the virtual object J is placed according to a predetermined condition, using the position of the marker M set by the marker setting unit 16 as a reference. Also, the arrangement position setting unit 17 may change (set) the arrangement position of the virtual object J based on information received from the first user terminal T1 or the second user terminal T2, for example.

配置位置設定部17は、ベース画像Bにおいて第1仮想オブジェクトJ1が配置される配置位置に関して当該第1仮想オブジェクトJ1に紐づけられた優先度を取得してもよい。「優先度」とは、複数の仮想オブジェクトJのそれぞれについて、他の仮想オブジェクトJと比較して優先して表示されるべき程度を表す指標である。優先度は、例えば課金部15により実行される課金の金額に応じて決定されてもよい。また、第2ユーザの第2ユーザ端末T2により重畳画像Sが表示されている場合に、当該第2ユーザに関連する第1仮想オブジェクトJ1の優先度が、他のユーザに関連する仮想オブジェクトJの優先度よりも高くなるように決定されてもよい。つまり、第2ユーザにとっては、自分の仮想オブジェクトJの優先度が他のユーザの仮想オブジェクトJの優先度よりも高くなるように決定されてもよい。 The arrangement position setting unit 17 may acquire the priority associated with the first virtual object J1 regarding the arrangement position where the first virtual object J1 is arranged in the base image B. FIG. “Priority” is an index representing the degree to which each of a plurality of virtual objects J should be preferentially displayed compared to other virtual objects J. FIG. The priority may be determined, for example, according to the amount of money charged by the charging unit 15 . Further, when the superimposed image S is displayed by the second user terminal T2 of the second user, the priority of the first virtual object J1 related to the second user is higher than that of the virtual object J related to other users. It may be determined to be higher than the priority. That is, for the second user, the priority of his own virtual object J may be determined to be higher than the priority of the virtual objects J of other users.

そして、配置位置設定部17は、取得した優先度に応じて、重畳画像Sにおいて第1仮想オブジェクトJ1と他の仮想オブジェクトJ(すなわち、第2仮想オブジェクトJ2)とのいずれかの仮想オブジェクトJがより強調されるように、第1仮想オブジェクトJ1及び第2仮想オブジェクトJ2の配置位置を決定する。「いずれかの仮想オブジェクトJが強調される」とは、当該いずれかの仮想オブジェクトJが、他の仮想オブジェクトJよりも重畳画像Sにおいて視認されやすい状態で表示されることを意味している。例えば、いずれかの仮想オブジェクトJが他の仮想オブジェクトJよりも強調される場合、当該いずれかの仮想オブジェクトJが、他の仮想オブジェクトJよりも重畳画像Sの中央寄り(店舗の画像の近く)に表示されてもよく、他の仮想オブジェクトJよりも前面に表示されてもよく、他の仮想オブジェクトJよりも大きく表示されてもよく、他の仮想オブジェクトJよりも視認されやすい色で表示されてもよい。例えば、より優先度の高い仮想オブジェクトJほど強調されるように、配置位置が決定される。なお、配置位置設定部17は、店舗に飾られている現実のスタンド花に第1仮想オブジェクトJ1を重畳させるように配置位置を決定してもよい。例えば、配置位置設定部17は、店舗に飾られている現実のスタンド花のうち、他のユーザにより贈られたスタンド花に対して第1仮想オブジェクトJ1を重畳させるように、配置位置を決定してもよい。 Then, the arrangement position setting unit 17 determines whether either the first virtual object J1 or the other virtual object J (that is, the second virtual object J2) is the virtual object J in the superimposed image S according to the acquired priority. The arrangement positions of the first virtual object J1 and the second virtual object J2 are determined so that they are more emphasized. “One of the virtual objects J is emphasized” means that the one of the virtual objects J is displayed in the superimposed image S in a state where it is more visible than the other virtual objects J. For example, when one of the virtual objects J is emphasized more than the other virtual objects J, the one of the virtual objects J is closer to the center of the superimposed image S than the other virtual objects J (closer to the image of the store). , may be displayed in front of other virtual objects J, may be displayed larger than other virtual objects J, and may be displayed in a color that is easier to see than other virtual objects J. may For example, the placement position is determined such that the higher the priority of the virtual object J, the more emphasized. Note that the placement position setting unit 17 may determine the placement position so that the first virtual object J1 is superimposed on the actual flower stand displayed in the store. For example, the placement position setting unit 17 determines the placement position so that the first virtual object J1 is superimposed on the flower stand given by another user among the actual flower stands displayed in the store. may

[第1画像生成処理]
画像生成装置1により実行される第1画像生成処理について説明する。図2は、画像生成装置1により実行される第1画像生成処理を示すフローチャートである。第1画像生成処理は、画像生成装置1が仮想オブジェクトJを取得する処理である。第1画像生成処理によって画像生成装置1が取得した仮想オブジェクトJが、第2ユーザ端末T2においてベース画像Bに重畳されることにより、重畳画像Sが生成される。つまり、第1画像生成処理は、ARのための重畳画像Sに用いられる仮想オブジェクトJを生成する処理である。
[First Image Generation Processing]
A first image generation process executed by the image generation device 1 will be described. FIG. 2 is a flow chart showing the first image generation process executed by the image generation device 1. As shown in FIG. The first image generation process is a process in which the image generation device 1 acquires the virtual object J. FIG. A superimposed image S is generated by superimposing the virtual object J acquired by the image generating device 1 through the first image generating process on the base image B in the second user terminal T2. That is, the first image generation process is a process of generating the virtual object J used in the superimposed image S for AR.

以下、図2のフローチャートについて説明しつつ、送信者(店員にギフトを贈る客)側の画像表示装置、受信者(客からギフトを贈られる店員)側の画像表示装置、及び管理者(ギフトの授受を管理する担当者)側の画像表示装置のそれぞれに表示される画面の画像を例示する。ここでは、一例として、送信者を第2ユーザとするとともに送信者側の画像表示装置を第2ユーザ端末T2の画像表示装置T22とする。また、一例として、受信者及び管理者を同一の第1ユーザとするとともに受信者側の画像表示装置及び管理者側の画像表示装置を同一の第1ユーザ端末T1の画像表示装置T12とする。 Hereinafter, while explaining the flowchart of FIG. The image of the screen displayed on each of the image display devices on the side of the person in charge who manages the transfer is exemplified. Here, as an example, it is assumed that the sender is the second user and the image display device on the sender side is the image display device T22 of the second user terminal T2. Further, as an example, the recipient and the administrator are assumed to be the same first user, and the image display device on the recipient side and the image display device on the administrator side are assumed to be the image display device T12 of the same first user terminal T1.

ステップS10において、画像生成装置1の第1ユーザ情報取得部11は、第1ユーザ情報を取得する。第1ユーザ情報取得部11は、例えば第1ユーザ端末T1から第1ユーザ情報を受信することにより、第1ユーザ情報を取得してもよい。その後、第1画像生成処理はステップS12に移行する。 In step S10, the first user information acquisition unit 11 of the image generation device 1 acquires first user information. The first user information acquisition unit 11 may acquire the first user information, for example, by receiving the first user information from the first user terminal T1. After that, the first image generation process proceeds to step S12.

ステップS12において、画像生成装置1の第2ユーザ情報取得部12は、第2ユーザ情報を取得する。第2ユーザ情報取得部12は、例えば第2ユーザ端末T2から第2ユーザ情報を受信することにより、第2ユーザ情報を取得してもよい。その後、第1画像生成処理はステップS14に移行する。 In step S12, the second user information acquisition unit 12 of the image generation device 1 acquires second user information. The second user information acquisition unit 12 may acquire the second user information, for example, by receiving the second user information from the second user terminal T2. After that, the first image generation process proceeds to step S14.

ステップS14において、画像生成装置1の通信履歴情報取得部13は、通信履歴情報を取得する。通信履歴情報取得部13は、例えば第1ユーザ端末T1又は第2ユーザ端末T2から通信履歴情報を受信することにより、通信履歴情報を取得してもよい。あるいは、通信履歴情報取得部13は、通信履歴情報を保持している外部サーバ等の外部機器から当該通信履歴情報を受信することにより、通信履歴情報を取得してもよい。その後、第1画像生成処理はステップS16に移行する。 In step S14, the communication history information acquisition unit 13 of the image generation device 1 acquires communication history information. The communication history information acquisition unit 13 may acquire communication history information by receiving communication history information from, for example, the first user terminal T1 or the second user terminal T2. Alternatively, the communication history information acquisition unit 13 may acquire communication history information by receiving the communication history information from an external device such as an external server that holds the communication history information. After that, the first image generation process proceeds to step S16.

ここで、図2のフローチャートを離れ、第2ユーザ端末T2の画像表示装置T22に表示される画像について説明する。図3は、送信者側の画像表示装置T22に表示されるログイン画面の画像を示す図である。第2ユーザ端末T2が画像生成装置1にアクセスすると、画像表示装置T22にログイン画面が表示される。ログイン画面上で利用者ID及びパスワードが入力されると、ログインの処理が実行される。 Here, apart from the flowchart of FIG. 2, the image displayed on the image display device T22 of the second user terminal T2 will be described. FIG. 3 is a diagram showing an image of a login screen displayed on the image display device T22 on the sender side. When the second user terminal T2 accesses the image generation device 1, a login screen is displayed on the image display device T22. When a user ID and password are entered on the login screen, login processing is executed.

図4は、画像表示装置T22に表示されるトップページ画面の画像を示す図である。第2ユーザ端末T2がログインすると画像表示装置T22にトップページ画面が表示される。トップページ画面上の「BIRTHDAY」と表示されたボタンがタッチされると、バースデーギフティングの処理が開始される。「バースデーギフティング」とは、送信者(第2ユーザ)から受信者(第1ユーザ)に対してギフトを贈る処理である。 FIG. 4 is a diagram showing an image of the top page screen displayed on the image display device T22. When the second user terminal T2 logs in, the top page screen is displayed on the image display device T22. When the button labeled "BIRTHDAY" on the top page screen is touched, the birthday gifting process is started. “Birthday gifting” is a process of giving a gift from a sender (second user) to a recipient (first user).

図5は、画像表示装置T22に表示されるバースデーリスト画面の画像を示す図である。バースデーギフティングの処理が開始されると、画像表示装置T22にバースデーリスト画面が表示される。バースデーリスト画面には、例えば、対象とされている店舗に在籍している店員のうち、誕生日が到来した店員又は誕生日が間もなく到来する店員が表示される。これらの店員のうちいずれかの店員の画像がタッチされると、当該店員に関する画面に遷移する。 FIG. 5 shows an image of a birthday list screen displayed on the image display device T22. When the birthday gifting process is started, a birthday list screen is displayed on the image display device T22. The birthday list screen displays, for example, a salesclerk whose birthday has arrived or a salesclerk whose birthday will come soon, among the salesclerks employed at the target store. When the image of one of these salesclerks is touched, the screen transitions to the screen related to the salesclerk.

図6は、画像表示装置T22に表示される送信者リスト画面の画像を示す図である。送信者リスト画面には、当該店員に贈られたギフト、及び、当該ギフトを贈った客(送信者)が列挙されている。具体的には、送信者リスト画面には、ギフトを贈った客の名前、ギフトに付されたメッセージの内容、及びギフトを贈る際に課金された金額が表示されている。送信者リスト画面上の「+Birthday card」と表示されたボタンがタッチされると、新たなバースデーカードを作成するためのメッセージ入力画面が表示される。 FIG. 6 is a diagram showing an image of a sender list screen displayed on the image display device T22. The sender list screen lists the gifts given to the store clerk and the customers (senders) who gave the gifts. Specifically, the sender list screen displays the name of the customer who gave the gift, the content of the message attached to the gift, and the amount charged when giving the gift. When the button labeled "+Birthday card" on the sender list screen is touched, a message input screen for creating a new birthday card is displayed.

図7は、画像表示装置T22に表示されるメッセージ入力画面の画像を示す図である。メッセージ入力画面にはバースデーカードのイメージ図が表示されており、第2ユーザ端末T2を介して当該バースデーカードにメッセージが入力される。 FIG. 7 is a diagram showing an image of a message input screen displayed on the image display device T22. An image of a birthday card is displayed on the message input screen, and a message is input to the birthday card via the second user terminal T2.

図8は、画像表示装置T22に表示される仮想オブジェクト選択画面の画像を示す図である。バースデーカードに記載するメッセージの入力が完了すると、ギフトとしての仮想オブジェクトJ(すなわち、第1仮想オブジェクトJ1)を選択するための仮想オブジェクト選択画面が表示される。仮想オブジェクト選択画面には、複数の仮想オブジェクトJのイメージ図が表示されており、タッチされた仮想オブジェクトJが選択される。ここで、複数の仮想オブジェクトJのそれぞれには、当該仮想オブジェクトJを生成する対価としての課金の金額が設定されている。 FIG. 8 is a diagram showing an image of a virtual object selection screen displayed on the image display device T22. When the input of the message to be written on the birthday card is completed, a virtual object selection screen for selecting the virtual object J (that is, the first virtual object J1) as a gift is displayed. Image diagrams of a plurality of virtual objects J are displayed on the virtual object selection screen, and the touched virtual object J is selected. Here, for each of the plurality of virtual objects J, a billing amount is set as a consideration for generating the virtual object J. FIG.

図9は、画像表示装置T22に表示される仮想オブジェクト確定画面の画像を示す図である。仮想オブジェクト確定画面は、仮想オブジェクト選択画面において選択された仮想オブジェクトJ(第1仮想オブジェクトJ1)を新たに生成することを確認するための画面である。仮想オブジェクト確定画面上の「OK」と表示されたボタンがタッチされると、画像生成装置1に仮想オブジェクト生成要求が送信される。 FIG. 9 is a diagram showing an image of a virtual object confirmation screen displayed on the image display device T22. The virtual object confirmation screen is a screen for confirming that the virtual object J (first virtual object J1) selected on the virtual object selection screen is to be newly generated. When the button labeled “OK” on the virtual object determination screen is touched, a virtual object generation request is transmitted to the image generation device 1 .

図2のフローチャートに戻り、ステップS16において、画像生成装置1の画像取得部14は、第1仮想オブジェクトJ1を新たに生成することを要求する仮想オブジェクト生成要求を第2ユーザ端末T2から受信する。その後、第1画像生成処理はステップS18に移行する。 Returning to the flowchart of FIG. 2, in step S16, the image acquisition unit 14 of the image generation device 1 receives a virtual object generation request for newly generating the first virtual object J1 from the second user terminal T2. After that, the first image generation process proceeds to step S18.

ステップS18において、画像生成装置1の課金部15は、第2ユーザに対する課金を実行する。具体的には、課金部15は、仮想オブジェクト選択画面において第2ユーザに選択された仮想オブジェクトJの金額を、第2ユーザに対して課金する。課金部15は、予め登録された銀行口座からの引落としの処理を実行してもよく、当該銀行口座からの引落としを指示する情報を外部のサーバ(例えば銀行のサーバ)に送信する処理を実行してもよく、課金を行うことを指示する情報をクレジットカード会社(課金を代行する業者)等のサーバに送信する処理を実行してもよい。その後、第1画像生成処理はステップS20に移行する。 In step S18, the billing unit 15 of the image generating device 1 bills the second user. Specifically, the charging unit 15 charges the second user the amount of money for the virtual object J selected by the second user on the virtual object selection screen. The billing unit 15 may execute a process of debiting from a pre-registered bank account, and performs a process of transmitting information instructing debiting from the bank account to an external server (for example, a bank server). Alternatively, a process of transmitting information instructing charging to a server such as a credit card company (a company acting as an agent for charging) may be performed. After that, the first image generation process proceeds to step S20.

ステップS20において、画像生成装置1の画像取得部14は、課金部15により実行された課金に関する情報に基づいて、第2ユーザに対して実行される課金の金額に関する金額情報を取得する。その結果、入力情報は、金額情報を含むこととなる。その後、第1画像生成処理はステップS22に移行する。 In step S<b>20 , the image obtaining unit 14 of the image generating device 1 obtains amount information regarding the amount of billing executed for the second user based on the information regarding the billing executed by the billing unit 15 . As a result, the input information will include amount information. After that, the first image generation process proceeds to step S22.

ステップS22において、画像生成装置1の画像取得部14は、第1仮想オブジェクトJ1を取得する。具体的には、画像取得部14は、入力情報に基づいて仮想オブジェクトJを生成することにより、仮想オブジェクトJを取得する。入力情報には、第1ユーザ情報、第2ユーザ情報、通信履歴情報、金額情報、及び花情報が含まれている。画像取得部14は、入力情報と仮想オブジェクトJとを対応づけた対応マップを参照して、取得した入力情報に基づいて仮想オブジェクトJを生成してもよく、いわゆるAIを用いて、取得した入力情報に基づいて仮想オブジェクトJを生成してもよい。その後、第1画像生成処理はステップS24に移行する。 In step S22, the image acquisition unit 14 of the image generation device 1 acquires the first virtual object J1. Specifically, the image acquiring unit 14 acquires the virtual object J by generating the virtual object J based on the input information. The input information includes first user information, second user information, communication history information, amount information, and flower information. The image acquisition unit 14 may generate the virtual object J based on the acquired input information by referring to a correspondence map that associates the input information with the virtual object J. A virtual object J may be generated based on the information. After that, the first image generation process proceeds to step S24.

ステップS24において、画像生成装置1のマーカ設定部16は、第2ユーザ端末T2の撮像装置T21により撮像されたベース画像Bにおいて仮想オブジェクトJの配置位置の基準とするためのマーカを設定する。ここでは、ベース画像Bは店舗の画像であることから、マーカは、例えば店舗又は店舗の近傍に表示されたマーク(店のロゴマーク等)の画像であってもよく、店舗の看板(ファサードに掲げられた看板等)の画像であってもよく、店舗を構成する構造体(ドア等)の画像であってもよい(図16参照)。マーカ設定部16により設定されたマーカに関する情報は、マーカ設定部16から第2ユーザ端末T2に送信される。その後、第1画像生成処理はステップS26に移行する。 In step S24, the marker setting unit 16 of the image generation device 1 sets a marker to be used as a reference for the arrangement position of the virtual object J in the base image B captured by the imaging device T21 of the second user terminal T2. Here, since the base image B is the image of the store, the marker may be, for example, an image of the store or a mark displayed in the vicinity of the store (such as a logo mark of the store). It may be an image of a displayed signboard, etc.), or an image of a structure (a door, etc.) that constitutes a store (see FIG. 16). Information about the marker set by the marker setting unit 16 is transmitted from the marker setting unit 16 to the second user terminal T2. After that, the first image generation process proceeds to step S26.

ステップS26において、画像生成装置1の配置位置設定部17は、ベース画像Bにおいて第1仮想オブジェクトJ1が配置される配置位置に関して当該第1仮想オブジェクトJ1に紐づけられた優先度を取得する。優先度は、例えば課金部15により実行される課金の金額に応じて決定されてもよく、第2ユーザに関連する第1仮想オブジェクトJ1の優先度が、他のユーザに関連する仮想オブジェクトJの優先度よりも高くなるように決定されてもよい。その後、第1画像生成処理はステップS28に移行する。 In step S<b>26 , the placement position setting unit 17 of the image generation device 1 acquires the priority associated with the first virtual object J1 regarding the placement position in the base image B where the first virtual object J1 is placed. The priority may be determined, for example, according to the amount of billing executed by the billing unit 15, and the priority of the first virtual object J1 related to the second user is the priority of the virtual object J related to other users. It may be determined to be higher than the priority. After that, the first image generation process proceeds to step S28.

ステップS28において、画像生成装置1の配置位置設定部17は、重畳画像Sにおいて仮想オブジェクトJが配置される配置位置を設定する。具体的には、配置位置設定部17は、マーカ設定部16により設定されたマーカMの位置を基準として、予め決められた条件に従って仮想オブジェクトJが配置される配置位置を設定する。ここでは、配置位置設定部17は、取得した優先度に応じて、重畳画像Sにおいて第1仮想オブジェクトJ1と第2仮想オブジェクトJ2とのいずれかの仮想オブジェクトJがより強調されるように、第1仮想オブジェクトJ1及び第2仮想オブジェクトJ2の配置位置を決定する。その後、第1画像生成処理はステップS30に移行する。 In step S<b>28 , the placement position setting unit 17 of the image generation device 1 sets the placement position where the virtual object J is placed in the superimposed image S. Specifically, the placement position setting unit 17 sets the placement position where the virtual object J is placed according to a predetermined condition, using the position of the marker M set by the marker setting unit 16 as a reference. Here, the arrangement position setting unit 17 arranges the first virtual object J1 or the second virtual object J2 so that the virtual object J, which is either the first virtual object J1 or the second virtual object J2, in the superimposed image S is more emphasized according to the acquired priority. The arrangement positions of the first virtual object J1 and the second virtual object J2 are determined. After that, the first image generation process proceeds to step S30.

ここで、図2のフローチャートを離れ、第2ユーザ端末T2の画像表示装置T22に表示される画像について説明する。図10は、画像表示装置T22に表示される配置位置設定画面の画像を示す図である。図10に示されるように、配置位置設定部17は、第2ユーザにより指定された位置を仮想オブジェクトJの配置位置としてもよい。また、配置位置設定部17は、例えば第1ユーザ端末T1又は第2ユーザ端末T2から受信する情報に基づいて、仮想オブジェクトJの配置位置を変更してもよい。 Here, apart from the flowchart of FIG. 2, the image displayed on the image display device T22 of the second user terminal T2 will be described. FIG. 10 is a diagram showing an image of an arrangement position setting screen displayed on the image display device T22. As shown in FIG. 10, the placement position setting unit 17 may set the placement position of the virtual object J to the position specified by the second user. Also, the placement position setting unit 17 may change the placement position of the virtual object J, for example, based on information received from the first user terminal T1 or the second user terminal T2.

図11は、画像表示装置T22に表示されるギフト送信画面の画像を示す図である。重畳画像Sにおいて仮想オブジェクトJが配置される配置位置が設定されると、当該仮想オブジェクトJにメッセージが紐づけられてギフトを送信するためのギフト送信画面が表示される。 FIG. 11 is a diagram showing an image of a gift transmission screen displayed on the image display device T22. When the placement position where the virtual object J is placed in the superimposed image S is set, a gift transmission screen for sending a gift with a message associated with the virtual object J is displayed.

図12は、画像表示装置に表示される送信完了画面の画像を示す図である。図12に示されるように、ギフトを送信する(贈る)ことが第2ユーザによって承認されると、ギフトの送信の処理が実行されて送信完了画面が表示される。 FIG. 12 is a diagram showing an image of a transmission completion screen displayed on the image display device. As shown in FIG. 12, when the second user approves the transmission (giving) of the gift, gift transmission processing is executed and a transmission completion screen is displayed.

引き続き、第1ユーザ端末T1の画像表示装置T12に表示される画像について説明する。図13は、受信者側の画像表示装置T12に表示されるマイページ画面の画像を示す図である。マイページ画面には、第2ユーザを含む複数の送信者から贈られたギフトの一覧が表示されている。具体的には、マイページ画面には、ギフトを贈った客の名前、ギフトに付されたメッセージの内容、及びギフトに付随して課金された金額が表示されている。 Next, the image displayed on the image display device T12 of the first user terminal T1 will be described. FIG. 13 is a diagram showing an image of the My Page screen displayed on the image display device T12 on the recipient side. The My Page screen displays a list of gifts given by a plurality of senders including the second user. Specifically, the My Page screen displays the name of the customer who gave the gift, the content of the message attached to the gift, and the amount charged along with the gift.

図14は、画像表示装置T12に表示されるメッセージ表示画面の画像を示す図である。マイページ画面に表示されたいずれかのギフトに関する画面領域がタッチされると、当該ギフトに紐づけられたメッセージがメッセージ表示画面に表示される。 FIG. 14 is a diagram showing an image of a message display screen displayed on the image display device T12. When a screen area related to one of the gifts displayed on the My Page screen is touched, a message linked to the gift is displayed on the message display screen.

図2のフローチャートに戻り、ステップS30において、画像生成装置1の画像取得部14は、第1仮想オブジェクトJ1を第1ユーザ端末T1(第1ユーザ端末T1の画像表示装置T12)及び第2ユーザ端末T2(第2ユーザ端末T2の画像表示装置T22)の少なくともいずれかに出力する。以上により、第1画像生成処理は終了する。 Returning to the flowchart of FIG. 2, in step S30, the image acquisition unit 14 of the image generation device 1 extracts the first virtual object J1 from the first user terminal T1 (the image display device T12 of the first user terminal T1) and the second user terminal. Output to at least one of T2 (the image display device T22 of the second user terminal T2). With the above, the first image generation processing ends.

なお、第1仮想オブジェクトJ1を入力された第1ユーザ端末T1又は第2ユーザ端末T2は、撮像装置T11,T21により撮像されたベース画像Bに対して画像処理を行うことにより、ベース画像BからマーカMに対応する画像部分を検出(抽出)する。例えば、第1ユーザ端末T1又は第2ユーザ端末T2は、パターンマッチングにより画像処理を実行してもよい。具体的には、第1ユーザ端末T1又は第2ユーザ端末T2は、ベース画像Bにおいてエッジ検出を実行し、エッジ検出後の画像に対して予め記憶しているテンプレート画像を用いたテンプレートマッチングを実行してもよい。 Note that the first user terminal T1 or the second user terminal T2 that has received the first virtual object J1 performs image processing on the base image B captured by the imaging devices T11 and T21, thereby converting the base image B into An image portion corresponding to the marker M is detected (extracted). For example, the first user terminal T1 or the second user terminal T2 may perform image processing by pattern matching. Specifically, the first user terminal T1 or the second user terminal T2 performs edge detection on the base image B, and performs template matching on the image after edge detection using a template image stored in advance. You may

図15は、画像表示装置T12,T22に表示される重畳画像Sを示す図である。図15に示されるように、画像取得部14は、ベース画像Bに仮想オブジェクトJを重畳させた重畳画像Sを画像表示装置T12,T22に表示させる。より詳細には、第1ユーザ端末T1の撮像装置T11又は第2ユーザ端末T2の撮像装置T21によって店舗を撮像することによりベース画像Bを取得した場合に、ベース画像BにマーカMが検出されると、当該マーカMを基準として予め設定された位置に仮想オブジェクトJが重畳された重畳画像Sが第1ユーザ端末T1の画像表示装置T12又は第2ユーザ端末T2の画像表示装置T22に表示される。このようにして、画像生成装置1は、第1ユーザ端末T1又は第2ユーザ端末T2と協働してARの機能を実現する。 FIG. 15 is a diagram showing a superimposed image S displayed on the image display devices T12 and T22. As shown in FIG. 15, the image acquisition unit 14 causes the image display devices T12 and T22 to display a superimposed image S in which the virtual object J is superimposed on the base image B. FIG. More specifically, the marker M is detected in the base image B when the base image B is acquired by imaging the store with the imaging device T11 of the first user terminal T1 or the imaging device T21 of the second user terminal T2. Then, a superimposed image S in which the virtual object J is superimposed at a preset position based on the marker M is displayed on the image display device T12 of the first user terminal T1 or the image display device T22 of the second user terminal T2. . In this manner, the image generation device 1 realizes the AR function in cooperation with the first user terminal T1 or the second user terminal T2.

なお、第1ユーザ端末T1の撮像装置T11又は第2ユーザ端末T2の撮像装置T21によって例えば店舗に掲示されたQRコード(登録商標)等のコードが読み取られた場合に、重畳画像Sが画像表示装置T12又は画像表示装置T22に表示されてもよい。あるいは、第1ユーザ端末T1又は第2ユーザ端末T2と店舗側の機器とが所定距離内まで近接した場合に、重畳画像Sが画像表示装置T12又は画像表示装置T22に表示されてもよい。第1ユーザ端末T1又は第2ユーザ端末T2と店舗側の機器との離間距離は、例えばBluetooth(登録商標)による通信に基づいて判定されてもよい。画像表示装置T12又は画像表示装置T22に表示された重畳画像S等の画像は、スクリーンショット等によって端末に記憶可能であってもよく、また、画像表示装置T22に表示されたことを契機として自動的にSNS(Social networking service)又は動画共有サービスのサーバ等に送信されてもよい(公開されてもよい)。 For example, when a code such as a QR code (registered trademark) posted at a store is read by the imaging device T11 of the first user terminal T1 or the imaging device T21 of the second user terminal T2, the superimposed image S is displayed as an image. It may be displayed on the device T12 or the image display device T22. Alternatively, the superimposed image S may be displayed on the image display device T12 or the image display device T22 when the first user terminal T1 or the second user terminal T2 and the equipment on the store side come within a predetermined distance. The separation distance between the first user terminal T1 or the second user terminal T2 and the device on the store side may be determined based on communication by Bluetooth (registered trademark), for example. An image such as the superimposed image S displayed on the image display device T12 or the image display device T22 may be stored in the terminal as a screen shot or the like, and may be automatically displayed on the image display device T22 as a trigger. may be transmitted (or made public) to an SNS (Social networking service), a video sharing service server, or the like.

ここで、第1ユーザ端末T1の画像表示装置T12に表示されるARの管理画面について説明する。図16は、管理者側の画像表示装置T12に表示される管理画面の画像を示す図である。管理画面には、店舗の画像の他、マーカMの設定、及び第2ユーザが過去に贈ったギフトの一覧が表示されている。管理画面においては、例えば、マーカMとして利用する画像を変更したり、過去にギフトを贈ったことのある第2ユーザの情報を取得したりすることができる。また、管理画面においては、第1ユーザにより予めコメント、音楽、画像、又は動画等が設定されてもよい。この場合、重畳画像Sが第2ユーザ端末T2の画像表示装置T22に表示されたことを契機として、設定されたコメント、音楽、画像、又は動画等が第2ユーザ端末T2において再生(又はプッシュ通知等により表示)されてもよい。 Here, the AR management screen displayed on the image display device T12 of the first user terminal T1 will be described. FIG. 16 is a diagram showing an image of a management screen displayed on the image display device T12 on the administrator side. In addition to the image of the store, the management screen displays the settings of the marker M and a list of gifts given by the second user in the past. On the management screen, for example, it is possible to change the image used as the marker M and obtain information on the second user who has given a gift in the past. Further, comments, music, images, moving images, or the like may be set in advance by the first user on the management screen. In this case, when the superimposed image S is displayed on the image display device T22 of the second user terminal T2, the set comment, music, image, video, or the like is reproduced (or pushed notification) on the second user terminal T2. etc.).

[作用及び効果]
以上説明したように、画像生成装置1は、客に対して接待を行う店員である第1ユーザに関する第1ユーザ情報を取得する第1ユーザ情報取得部11と、第1ユーザから接待を受ける客である第2ユーザに関する第2ユーザ情報を取得する第2ユーザ情報取得部12と、ベース画像Bに重畳させて重畳画像Sを生成するための仮想オブジェクトJを取得する画像取得部14と、を備え、画像取得部14は、第2ユーザから要求があったことを契機として、第1ユーザ情報及び第2ユーザ情報を含む入力情報に基づいてデザインが決定される仮想オブジェクトJである第1仮想オブジェクトJ1を取得する。
[Action and effect]
As described above, the image generating apparatus 1 includes the first user information acquisition unit 11 that acquires the first user information about the first user who is the salesclerk who entertains the customer, and the customer who receives the entertainment from the first user. and an image acquisition unit 14 for acquiring a virtual object J for generating a superimposed image S by superimposing it on the base image B. In response to a request from the second user, the image acquisition unit 14 acquires a first virtual object J whose design is determined based on input information including the first user information and the second user information. Get object J1.

この画像生成装置1によれば、第2ユーザの要求に応じて、ベース画像Bに重畳させて重畳画像Sを生成するための仮想オブジェクトJを取得する。この重畳画像Sは、例えばディスプレイ等に表示されることで、現実には存在しない仮想オブジェクトJが恰もベース画像B上に存在しているかのようにユーザに視認させるためのAR又はVR等に用いられる。ここで、画像生成装置1によれば、例えば接待を伴う飲食店の店員と客との関係にある第1ユーザと第2ユーザとの情報に応じて、仮想オブジェクトJのデザインが決定される。よって、画像生成装置1によれば、ベース画像Bに重畳される仮想オブジェクトJをユーザに応じたデザインとすることができる。 According to this image generating device 1, the virtual object J for generating the superimposed image S by superimposing it on the base image B is acquired in response to the second user's request. This superimposed image S is displayed on a display, for example, and is used for AR, VR, or the like to allow the user to visually recognize the virtual object J, which does not actually exist, as if it were present on the base image B. be done. Here, according to the image generation device 1, the design of the virtual object J is determined according to the information of the first user and the second user who are in a relationship between the staff and the customer of the restaurant, for example. Therefore, according to the image generation device 1, the virtual object J superimposed on the base image B can be designed according to the user.

画像生成装置1では、ベース画像Bは、第1ユーザにより第2ユーザに対して接待が行われる店舗の画像である。これによれば、第2ユーザから第1ユーザに贈られたギフトを店舗に飾る行為を、AR又はVRにより再現することができる。 In the image generation device 1, the base image B is an image of a store where the first user entertains the second user. According to this, it is possible to reproduce the act of decorating the store with a gift presented by the second user to the first user by AR or VR.

画像生成装置1では、仮想オブジェクトJは、スタンド花の画像である。これによれば、第2ユーザから第1ユーザへのギフトとしてスタンド花を贈る行為を、AR又はVRにより再現することができる。 In the image generation device 1, the virtual object J is an image of a flower stand. According to this, the act of giving a stand flower as a gift from the second user to the first user can be reproduced by AR or VR.

画像生成装置1では、入力情報は、スタンド花に含まれる花の特徴に関する花情報を含んでいる。これによれば、第1ユーザ及び第2ユーザに適した特徴を有する花を含んだスタンド花を、第2ユーザから第1ユーザへのギフトとすることができる。 In the image generating device 1, the input information includes flower information regarding the characteristics of the flowers included in the flower stand. According to this, the stand flower containing the flower which has the characteristic suitable for the 1st user and the 2nd user can be made into the gift from the 2nd user to the 1st user.

画像生成装置1は、第1ユーザにより使用される第1ユーザ端末T1と、第2ユーザにより使用される第2ユーザ端末T2と、の間で実行された通信の履歴に関する通信履歴情報を取得する通信履歴情報取得部13を備え、入力情報は、通信履歴情報を含んでいる。これによれば、第1ユーザと第2ユーザとの過去の通信履歴に応じたデザインの仮想オブジェクトJを、第2ユーザから第1ユーザへのギフトとすることができる。 The image generation device 1 acquires communication history information relating to the history of communication performed between the first user terminal T1 used by the first user and the second user terminal T2 used by the second user. A communication history information acquisition unit 13 is provided, and the input information includes communication history information. According to this, the virtual object J designed according to the past communication history between the first user and the second user can be given as a gift from the second user to the first user.

画像生成装置1は、画像取得部14が第2ユーザから要求があったことを契機として第1仮想オブジェクトJ1を取得する場合に、第2ユーザに対する課金を実行する課金部15を備えている。これによれば、第2ユーザから第1ユーザへのギフトの料金を第2ユーザから受領することができる。 The image generating device 1 includes a billing unit 15 that bills the second user when the image obtaining unit 14 obtains the first virtual object J1 in response to a request from the second user. According to this, the charge for the gift from the second user to the first user can be received from the second user.

画像生成装置1では、入力情報は、課金部15により第2ユーザに対して実行される課金の金額に関する金額情報を含んでいる。これによれば、第2ユーザから受領する金額に応じたデザインの仮想オブジェクトJを、第2ユーザから第1ユーザへのギフトとすることができる。 In the image generating device 1 , the input information includes amount information regarding the amount of billing to be performed for the second user by the billing unit 15 . According to this, the virtual object J having a design corresponding to the amount of money received from the second user can be used as a gift from the second user to the first user.

画像生成装置1は、重畳画像Sにおいて仮想オブジェクトJが配置される配置位置を設定する配置位置設定部17を備えている。これによれば、ベース画像B上での仮想オブジェクトJの位置を好適に設定することが可能となる。 The image generation device 1 includes an arrangement position setting unit 17 that sets the arrangement position where the virtual object J is arranged in the superimposed image S. FIG. According to this, the position of the virtual object J on the base image B can be preferably set.

画像生成装置1では、画像取得部14は、第1仮想オブジェクトJ1、及び、第1仮想オブジェクトJ1とは別の仮想オブジェクトJである第2仮想オブジェクトJ2を取得し、配置位置設定部17は、第1仮想オブジェクトJ1が配置される配置位置に関して当該第1仮想オブジェクトJ1に紐づけられた優先度を取得し、取得した優先度に応じて、重畳画像Sにおいて第1仮想オブジェクトJ1と第2仮想オブジェクトJ2とのいずれかの仮想オブジェクトJがより強調されるように、配置位置を設定する。これによれば、種々の条件によって決定される優先度に応じて、仮想オブジェクトJを適切に強調して表示することができる。 In the image generation device 1, the image acquisition unit 14 acquires the first virtual object J1 and the second virtual object J2, which is a virtual object J different from the first virtual object J1, and the placement position setting unit 17 The priority associated with the first virtual object J1 is acquired with respect to the arrangement position where the first virtual object J1 is arranged, and the first virtual object J1 and the second virtual object J1 are arranged in the superimposed image S according to the acquired priority. The placement position is set so that any virtual object J with the object J2 is more emphasized. According to this, the virtual object J can be appropriately emphasized and displayed according to the priority determined by various conditions.

画像生成装置1では、ベース画像Bは、撮像装置T11,T21により撮像されて撮像装置T11,T21に併設された画像表示装置T12,T22に表示される画像であり、画像取得部14は、仮想オブジェクトJを画像表示装置T12,T22に出力することにより、ベース画像Bに仮想オブジェクトJを重畳させた重畳画像Sを画像表示装置T12,T22に表示させる。これによれば、重畳画像SがARのディスプレイ等に表示されることで、現実には存在しない仮想オブジェクトJが恰もベース画像B上に存在しているかのようにユーザに視認させるためのARが具体的に実現される。 In the image generating device 1, the base image B is an image captured by the imaging devices T11 and T21 and displayed on the image display devices T12 and T22 provided side by side with the imaging devices T11 and T21. By outputting the object J to the image display devices T12 and T22, the superimposed image S in which the virtual object J is superimposed on the base image B is displayed on the image display devices T12 and T22. According to this, by displaying the superimposed image S on an AR display or the like, the AR is used to allow the user to visually recognize the virtual object J, which does not actually exist, as if it were present on the base image B. Concretely implemented.

画像生成装置1は、撮像装置T11,T21により撮像されたベース画像Bにおいて配置位置の基準とするためのマーカMを設定するマーカ設定部16を備えている。これによれば、ARにおいて仮想オブジェクトJが配置される配置位置を設定するためのマーカMが設定されることで、現実には存在しない仮想オブジェクトJが恰もベース画像B上に存在しているかのようにユーザに視認させるためのARが具体的に実現される。 The image generation device 1 includes a marker setting unit 16 that sets a marker M for use as a reference for the placement position in the base image B captured by the imaging devices T11 and T21. According to this, by setting the marker M for setting the placement position where the virtual object J is placed in the AR, it is possible to determine whether the virtual object J, which does not actually exist, exists on the base image B. AR for making the user visually recognize is specifically realized as follows.

[第2実施形態]
第2実施形態に係る画像生成装置1Aについて説明する。図17は、第2実施形態に係る画像生成装置1Aを示すブロック図である。図17に示される画像生成装置1Aは、第1実施形態に係る画像生成装置1と同様に、ベース画像Bに重畳させて重畳画像Sを生成するための仮想オブジェクトJを取得する装置であり、生成された重畳画像Sはディスプレイ等に表示されてユーザにより視認される。これにより、現実には存在しない仮想オブジェクトJが恰もベース画像B上に存在しているかのようにユーザに視認させることができる。一方で、本実施形態においては、ベース画像Bは、仮想画像として構成された画像である(換言すると、人為的に生成された仮想空間を表す画像である)。つまり、ベース画像Bは、VRにおける背景画像であり、画像生成装置1Aは、VRにおいてディスプレイ等に表示される重畳画像Sの仮想オブジェクトJを生成する装置である。VRの具体的な手法としては、任意の技術が適用可能である。なお、ベース画像Bは、現実空間を模した仮想空間を表す画像であってもよい。
[Second embodiment]
An image generation device 1A according to the second embodiment will be described. FIG. 17 is a block diagram showing an image generation device 1A according to the second embodiment. An image generation device 1A shown in FIG. 17 is a device that obtains a virtual object J for superimposing a superimposed image S on a base image B, similar to the image generation device 1 according to the first embodiment. The generated superimposed image S is displayed on a display or the like and visually recognized by the user. This allows the user to visually recognize the virtual object J, which does not actually exist, as if it were present on the base image B. FIG. On the other hand, in the present embodiment, the base image B is an image configured as a virtual image (in other words, an image representing an artificially generated virtual space). That is, the base image B is a background image in VR, and the image generation device 1A is a device that generates a virtual object J of the superimposed image S displayed on a display or the like in VR. Any technology can be applied as a specific method of VR. Note that the base image B may be an image representing a virtual space simulating a real space.

画像生成装置1Aのコンピュータ10Aは、機能的には、第1ユーザ情報取得部11A、第2ユーザ情報取得部12A、通信履歴情報取得部13A、画像取得部14A、課金部15A、及び配置位置設定部17Aを備えている。画像生成装置1Aの機能的な構成は、画像生成装置1の機能的な構成と比較して、マーカ設定部16を備えておらず、且つ、画像取得部14AがARのための機能ではなくVRのための機能を有している点で相違しており、その他の点で同等である。つまり、画像生成装置1Aの第1ユーザ情報取得部11A、第2ユーザ情報取得部12A、通信履歴情報取得部13A、課金部15A、及び配置位置設定部17Aのそれぞれは、画像生成装置1の第1ユーザ情報取得部11、第2ユーザ情報取得部12、通信履歴情報取得部13、課金部15、及び配置位置設定部17のそれぞれと同等の機能を有している。以下、画像生成装置1Aについて、画像生成装置1と主に相違する点について説明する。 The computer 10A of the image generating apparatus 1A functionally includes a first user information acquisition section 11A, a second user information acquisition section 12A, a communication history information acquisition section 13A, an image acquisition section 14A, a billing section 15A, and an arrangement position setting unit. A portion 17A is provided. Compared to the functional configuration of the image generation device 1, the functional configuration of the image generation device 1A does not include the marker setting unit 16, and the image acquisition unit 14A has functions for VR instead of AR. It is different in that it has a function for and is equivalent in other respects. That is, each of the first user information acquisition unit 11A, the second user information acquisition unit 12A, the communication history information acquisition unit 13A, the billing unit 15A, and the layout position setting unit 17A of the image generation device 1A It has functions equivalent to those of the 1-user information acquisition unit 11, the second user information acquisition unit 12, the communication history information acquisition unit 13, the charging unit 15, and the placement position setting unit 17, respectively. Main differences between the image generating apparatus 1A and the image generating apparatus 1 will be described below.

画像取得部14Aは、ベース画像Bを取得する。ベース画像Bは、画像生成装置1又は外部のコンピュータ等によって生成された仮想画像である。ベース画像Bが外部のコンピュータ等によって生成された場合には、画像取得部14Aは、例えば当該コンピュータ等にネットワークNを通じてアクセスしてベース画像Bを取得してもよく、あるいは、所定の記憶媒体を介してベース画像Bを取得してもよい。 14 A of image acquisition parts acquire the base image B. FIG. The base image B is a virtual image generated by the image generating device 1 or an external computer or the like. When the base image B is generated by an external computer or the like, the image acquisition unit 14A may acquire the base image B by accessing the computer or the like through the network N, or may store a predetermined storage medium. The base image B may be obtained via

画像取得部14Aは、取得したベース画像Bに仮想オブジェクトJを重畳させて重畳画像Sを生成する。そして、画像取得部14Aは、生成した重畳画像Sを第1ユーザ端末T1(第1ユーザ端末T1の撮像装置T11)又は第2ユーザ端末T2(第2ユーザ端末T2の画像表示装置T22)に出力することにより、ベース画像Bに仮想オブジェクトJが重畳した重畳画像Sを画像表示装置T12,T22に表示させる。このようにして、画像生成装置1Aは、第1ユーザ端末T1又は第2ユーザ端末T2と協働してVRの機能を実現する。 The image acquisition unit 14A generates a superimposed image S by superimposing the virtual object J on the acquired base image B. FIG. Then, the image acquisition unit 14A outputs the generated superimposed image S to the first user terminal T1 (the imaging device T11 of the first user terminal T1) or the second user terminal T2 (the image display device T22 of the second user terminal T2). By doing so, the superimposed image S in which the virtual object J is superimposed on the base image B is displayed on the image display devices T12 and T22. In this manner, the image generation device 1A cooperates with the first user terminal T1 or the second user terminal T2 to realize the VR function.

[第2画像生成処理]
画像生成装置1Aにより実行される第2画像生成処理について説明する。図18は、画像生成装置1Aにより実行される第2画像生成処理を示すフローチャートである。第2画像生成処理は、画像生成装置1Aがベース画像B及び仮想オブジェクトJを取得して重畳画像Sを生成し、生成した重畳画像Sを出力する処理である。つまり、第2画像生成処理は、VRのための重畳画像Sを生成する処理である。
[Second Image Generation Processing]
A second image generation process executed by the image generation device 1A will be described. FIG. 18 is a flow chart showing the second image generation process executed by the image generation device 1A. The second image generation process is a process in which the image generation device 1A acquires the base image B and the virtual object J, generates the superimposed image S, and outputs the generated superimposed image S. FIG. That is, the second image generation processing is processing for generating the superimposed image S for VR.

以下、図18のフローチャートについて説明する。図18に示される第2画像生成処理は、図2に示される第1画像生成処理と以下の点で実質的に同等である。すなわち、第2画像生成処理におけるステップS40~ステップS52は、第1画像生成処理におけるステップS10~S22と実質的に同等である。また、すなわち、第2画像生成処理におけるステップS56,S58は、第1画像生成処理におけるステップS26,S28と実質的に同等である。以下、第2画像生成処理について、第1画像生成処理と主に相違する点について説明する。 The flowchart of FIG. 18 will be described below. The second image generation processing shown in FIG. 18 is substantially the same as the first image generation processing shown in FIG. 2 in the following points. That is, steps S40 to S52 in the second image generation process are substantially the same as steps S10 to S22 in the first image generation process. In other words, steps S56 and S58 in the second image generation process are substantially the same as steps S26 and S28 in the first image generation process. Main differences between the second image generation process and the first image generation process will be described below.

ステップS54において、画像生成装置1Aの画像取得部14Aは、ベース画像Bを取得する。ベース画像Bが外部のコンピュータ等によって生成された場合には、画像取得部14Aは、例えば当該コンピュータ等にネットワークNを通じてアクセスしてベース画像Bを取得してもよく、あるいは、所定の記憶媒体を介してベース画像Bを取得してもよい。 In step S54, the image acquisition unit 14A of the image generation device 1A acquires the base image B. FIG. When the base image B is generated by an external computer or the like, the image acquisition unit 14A may acquire the base image B by accessing the computer or the like through the network N, or may store a predetermined storage medium. The base image B may be obtained via

また、ステップS58においてベース画像Bにおける仮想オブジェクトJの配置位置が決定すると、S60において、画像生成装置1Aの画像取得部14Aは、ベース画像Bに仮想オブジェクトJを重畳させて重畳画像Sを生成する。その後、第2画像生成処理はステップS62に移行する。 Further, when the arrangement position of the virtual object J in the base image B is determined in step S58, the image acquisition unit 14A of the image generation device 1A superimposes the virtual object J on the base image B to generate a superimposed image S in S60. . After that, the second image generation process proceeds to step S62.

ステップS62において、画像生成装置1Aの画像取得部14Aは、生成した重畳画像Sを第1ユーザ端末T1(第1ユーザ端末T1の画像表示装置T12)及び第2ユーザ端末T2(第2ユーザ端末T2の画像表示装置T22)の少なくともいずれかに出力する。以上により、第1画像生成処理は終了する。 In step S62, the image acquisition unit 14A of the image generation device 1A transmits the generated superimposed image S to the first user terminal T1 (the image display device T12 of the first user terminal T1) and the second user terminal T2 (the second user terminal T2). image display device T22). With the above, the first image generation processing ends.

なお、重畳画像Sは、画像取得部14Aから入力された第1ユーザ端末T1の画像表示装置T12又は第2ユーザ端末T2の画像表示装置T22に表示される。このようにして、画像生成装置1Aは、第1ユーザ端末T1又は第2ユーザ端末T2と協働してVRの機能を実現する。 Note that the superimposed image S is displayed on the image display device T12 of the first user terminal T1 or the image display device T22 of the second user terminal T2, which is input from the image acquisition unit 14A. In this manner, the image generation device 1A cooperates with the first user terminal T1 or the second user terminal T2 to realize the VR function.

ここで、第1ユーザ端末T1の画像表示装置T12に表示されるVRの管理画面について説明する。図19は、管理者側の画像表示装置T12に表示される管理画面の画像を示す図である。管理画面には、店舗の画像の他、第2ユーザが過去に贈ったギフトの一覧が表示されている。管理画面においては、例えば、過去にギフトを贈ったことのある第2ユーザの情報を取得することができる。 Here, the VR management screen displayed on the image display device T12 of the first user terminal T1 will be described. FIG. 19 is a diagram showing an image of a management screen displayed on the image display device T12 on the administrator side. In addition to the image of the store, the management screen displays a list of gifts given by the second user in the past. On the management screen, for example, it is possible to acquire information about second users who have given gifts in the past.

[作用及び効果]
以上説明したように、画像生成装置1Aでは、ベース画像Bは、仮想画像として構成された画像であり、画像取得部14Aは、ベース画像Bを取得し、取得したベース画像Bに仮想オブジェクトJを重畳させて重畳画像Sを生成し、生成した重畳画像Sを画像表示装置T12,T22に出力することにより、重畳画像Sを画像表示装置T12,T22に表示させる。これによれば、重畳画像SがVRのディスプレイ等に表示されることで、現実には存在しない仮想オブジェクトJが恰もベース画像B上に存在しているかのようにユーザに視認させるためのVRが具体的に実現される。
[Action and effect]
As described above, in the image generation device 1A, the base image B is an image configured as a virtual image, and the image acquisition unit 14A acquires the base image B and adds the virtual object J to the acquired base image B. By superimposing to generate a superimposed image S and outputting the generated superimposed image S to the image display devices T12 and T22, the superimposed image S is displayed on the image display devices T12 and T22. According to this, by displaying the superimposed image S on a VR display or the like, a VR for allowing the user to visually recognize a virtual object J that does not actually exist as if it were present on the base image B. Concretely realized.

[変形形態]
上述した実施形態は、当業者の知識に基づいて変更又は改良が施された様々な形態により実施可能である。
[Modification]
The above-described embodiments can be implemented in various forms modified or improved based on the knowledge of those skilled in the art.

例えば、上述した第1実施形態及び第2実施形態において「接待」として説明されている事項は、「接客」として説明されてもよい。「接客」とは、客による食事及び会計等を実現させるために、店員が客に対して主に定型的な応答をすることである。接客は、接待と比較して、店員と客との間で密なコミュニケーションがとられず、特に歓楽的雰囲気が醸し出されない。接客が行われる飲食店は、具体的にはレストランであってもよい。この場合においては、第1ユーザとは客に対して接客を行う店員であり、第2ユーザとは第1ユーザから接客を受ける客であり、ベース画像Bは第1ユーザにより第2ユーザに対して接客が行われる店舗の画像である。また、上記以外の文言の定義及び説明についても、第1実施形態及び第2実施形態において「接待」と記載されている事項は「接客」と読み替えることができる。 For example, the matter described as "entertainment" in the above-described first and second embodiments may be described as "customer service." "Customer service" means that a clerk mainly responds to a customer in a standardized manner in order to allow the customer to eat and pay the bill. Compared to entertainment, customer service does not have close communication between staff and customers, and does not create a particularly pleasant atmosphere. The restaurant where the customer is served may specifically be a restaurant. In this case, the first user is a store clerk who serves a customer, the second user is a customer who is served by the first user, and the base image B is provided by the first user to the second user. It is an image of a store where customers are served. Also, regarding definitions and explanations of terms other than the above, the term "entertainment" in the first and second embodiments can be read as "customer service."

例えば、上述した第1実施形態において、画像生成装置1の画像取得部14は、ベース画像Bを取得し、取得したベース画像Bに仮想オブジェクトJを重畳させて重畳画像Sを生成してもよい。また、画像取得部14は、生成した重畳画像Sを第1ユーザ端末T1(第1ユーザ端末T1の画像表示装置T12)及び第2ユーザ端末T2(第2ユーザ端末T2の画像表示装置T22)の少なくともいずれかに出力してもよい。このようにして、画像生成装置1は、第1ユーザ端末T1又は第2ユーザ端末T2と協働してARの機能を実現してもよい。 For example, in the above-described first embodiment, the image acquisition unit 14 of the image generation device 1 may acquire the base image B and superimpose the virtual object J on the acquired base image B to generate the superimposed image S. . Further, the image acquisition unit 14 transmits the generated superimposed image S to the first user terminal T1 (the image display device T12 of the first user terminal T1) and the second user terminal T2 (the image display device T22 of the second user terminal T2). You may output to at least one. In this manner, the image generation device 1 may realize the AR function in cooperation with the first user terminal T1 or the second user terminal T2.

また、画像生成装置1は、画像生成装置1Aの機能を併せ持っていてもよい。つまり、画像生成装置1は、ARのための仮想オブジェクトJを生成して、ベース画像Bに当該仮想オブジェクトJを重畳させた重畳画像Sを画像表示装置T12,T22に表示させる機能と、ベース画像Bを取得するとともにVRのための仮想オブジェクトJを生成し、ベース画像B及び仮想オブジェクトJから重畳画像Sを生成して、生成した重畳画像Sを画像表示装置T12,T22に表示させる機能と、を併せ持っていてもよい。つまり、画像生成装置1は、AR及びVRの少なくともいずれかにおいて背景画像となるベース画像Bに重畳させて重畳画像Sを生成するための仮想オブジェクトJを生成(取得)する装置であってもよい。 Further, the image generation device 1 may have the functions of the image generation device 1A. That is, the image generation device 1 has a function of generating a virtual object J for AR and displaying a superimposed image S in which the virtual object J is superimposed on the base image B on the image display devices T12 and T22; A function of acquiring B, generating a virtual object J for VR, generating a superimposed image S from the base image B and the virtual object J, and displaying the generated superimposed image S on the image display devices T12 and T22; may also have That is, the image generation device 1 may be a device that generates (obtains) a virtual object J for generating a superimposed image S by superimposing it on a base image B that serves as a background image in at least one of AR and VR. .

また、第1実施形態における画像生成装置1はARのための重畳画像Sを生成する装置であり、第2実施形態における画像生成装置1AはVRのための重畳画像Sを生成する装置である。しかし、画像生成装置は、AR又はVRのための重畳画像Sを生成する装置に限定されない。例えば、画像生成装置は、MR(Mixed Reality:複合現実)のための重畳画像Sを生成する装置であってもよい。 The image generation device 1 in the first embodiment is a device that generates a superimposed image S for AR, and the image generation device 1A in the second embodiment is a device that generates a superimposed image S for VR. However, the image generation device is not limited to a device that generates a superimposed image S for AR or VR. For example, the image generation device may be a device that generates a superimposed image S for MR (Mixed Reality).

また、第1仮想オブジェクトJ1は、スタンド花ごとにデザインが決定されなくてもよく、例えば花の一本ごとにデザインが決定されてもよい。また、画像取得部14は、スタンド花の画像である仮想オブジェクトJに含まれる花の種類をランダムに決定してもよい。 Further, the design of the first virtual object J1 may not be determined for each stand flower, and for example, the design may be determined for each flower. The image acquisition unit 14 may also randomly determine the type of flower included in the virtual object J, which is the image of the flower stand.

1,1A 画像生成装置
10,10A コンピュータ
11,11A 第1ユーザ情報取得部
12,12A 第2ユーザ情報取得部
13,13A 通信履歴情報取得部
14,14A 画像取得部
15,15A 課金部
16 マーカ設定部
17,17A 配置位置設定部
B ベース画像
J 仮想オブジェクト
J1 第1仮想オブジェクト
J2 第2仮想オブジェクト
M マーカ
N ネットワーク
S 重畳画像
T1 第1ユーザ端末
T2 第2ユーザ端末
T21 撮像装置
T22 画像表示装置
1, 1A Image generation devices 10, 10A Computers 11, 11A First user information acquisition units 12, 12A Second user information acquisition units 13, 13A Communication history information acquisition units 14, 14A Image acquisition units 15, 15A Charging unit 16 Marker setting Units 17 and 17A Placement position setting unit B Base image J Virtual object J1 First virtual object J2 Second virtual object M Marker N Network S Superimposed image T1 First user terminal T2 Second user terminal T21 Imaging device T22 Image display device

Claims (12)

客に対して接客又は接待を行う店員である第1ユーザに関する第1ユーザ情報を取得する第1ユーザ情報取得部と、
前記第1ユーザから接客又は接待を受ける前記客である第2ユーザに関する第2ユーザ情報を取得する第2ユーザ情報取得部と、
ベース画像に重畳させて重畳画像を生成するための仮想オブジェクトを取得する画像取得部と、を備え、
前記画像取得部は、前記第2ユーザから要求があったことを契機として、前記第1ユーザ情報及び前記第2ユーザ情報を含む入力情報に基づいてデザインが決定される前記仮想オブジェクトである第1仮想オブジェクトを取得する、画像生成装置。
a first user information acquisition unit that acquires first user information about a first user who is a store clerk who serves or entertains customers;
a second user information acquisition unit that acquires second user information about the second user who is the customer who receives service or entertainment from the first user;
an image acquisition unit that acquires a virtual object to be superimposed on the base image to generate a superimposed image,
Triggered by a request from the second user, the image acquisition unit is the first virtual object whose design is determined based on input information including the first user information and the second user information. An image generation device that acquires a virtual object.
前記ベース画像は、前記第1ユーザにより前記第2ユーザに対して接客又は接待が行われる店舗の画像である、請求項1に記載の画像生成装置。 2. The image generating apparatus according to claim 1, wherein said base image is an image of a shop where said first user serves or entertains said second user. 前記仮想オブジェクトは、スタンド花の画像である、請求項1又は2に記載の画像生成装置。 3. The image generation device according to claim 1, wherein said virtual object is an image of a flower stand. 前記入力情報は、前記スタンド花に含まれる花の特徴に関する花情報を含む、請求項3に記載の画像生成装置。 4. The image generating apparatus according to claim 3, wherein said input information includes flower information relating to features of flowers included in said flower stand. 前記第1ユーザにより使用される第1ユーザ端末と、前記第2ユーザにより使用される第2ユーザ端末と、の間で実行された通信の履歴に関する通信履歴情報を取得する通信履歴情報取得部を備え、
前記入力情報は、前記通信履歴情報を含む、請求項1~4のいずれか一項に記載の画像生成装置。
a communication history information acquisition unit that acquires communication history information relating to a history of communication executed between a first user terminal used by the first user and a second user terminal used by the second user; prepared,
5. The image generation device according to claim 1, wherein said input information includes said communication history information.
前記画像取得部が前記第2ユーザから要求があったことを契機として前記第1仮想オブジェクトを取得する場合に、前記第2ユーザに対する課金を実行する課金部を備える、請求項1~5のいずれか一項に記載の画像生成装置。 6. The method according to any one of claims 1 to 5, further comprising a charging unit for charging said second user when said image acquiring unit acquires said first virtual object in response to a request from said second user. 1. The image generation device according to claim 1. 前記入力情報は、前記課金部により前記第2ユーザに対して実行される前記課金の金額に関する金額情報を含む、請求項6に記載の画像生成装置。 7. The image generating apparatus according to claim 6, wherein said input information includes amount information relating to the amount of said billing executed for said second user by said billing section. 前記重畳画像において前記仮想オブジェクトが配置される配置位置を設定する配置位置設定部を備える、請求項1~7のいずれか一項に記載の画像生成装置。 8. The image generation device according to claim 1, further comprising a placement position setting unit that sets a placement position where the virtual object is placed in the superimposed image. 前記画像取得部は、前記第1仮想オブジェクト、及び、前記第1仮想オブジェクトとは別の前記仮想オブジェクトである第2仮想オブジェクトを取得し、
前記配置位置設定部は、
前記第1仮想オブジェクトが配置される前記配置位置に関して当該第1仮想オブジェクトに紐づけられた優先度を取得し、
取得した前記優先度に応じて、前記重畳画像において前記第1仮想オブジェクトと前記第2仮想オブジェクトとのいずれかの前記仮想オブジェクトがより強調されるように、前記配置位置を設定する、請求項8に記載の画像生成装置。
The image acquisition unit acquires the first virtual object and a second virtual object that is the virtual object different from the first virtual object,
The placement position setting unit
obtaining a priority associated with the first virtual object with respect to the placement position where the first virtual object is placed;
9. The placement position is set such that the virtual object of either the first virtual object or the second virtual object is emphasized in the superimposed image according to the acquired priority. The image generation device according to .
前記ベース画像は、撮像装置により撮像されて前記撮像装置に併設された画像表示装置に表示される画像であり、
前記画像取得部は、前記仮想オブジェクトを前記画像表示装置に出力することにより、前記ベース画像に前記仮想オブジェクトを重畳させた前記重畳画像を前記画像表示装置に表示させる、請求項8又は9に記載の画像生成装置。
The base image is an image captured by an imaging device and displayed on an image display device provided together with the imaging device,
10. The image acquisition unit according to claim 8, wherein by outputting the virtual object to the image display device, the superimposed image obtained by superimposing the virtual object on the base image is displayed on the image display device. image production device.
前記撮像装置により撮像された前記ベース画像において前記配置位置の基準とするためのマーカを設定するマーカ設定部を備える、請求項10に記載の画像生成装置。 11. The image generation apparatus according to claim 10, further comprising a marker setting unit that sets a marker for use as a reference for the arrangement position in the base image captured by the imaging device. 前記ベース画像は、仮想画像として構成された画像であり、
前記画像取得部は、前記ベース画像を取得し、取得した前記ベース画像に前記仮想オブジェクトを重畳させて前記重畳画像を生成し、生成した前記重畳画像を画像表示装置に出力することにより、前記重畳画像を前記画像表示装置に表示させる、請求項8又は9に記載の画像生成装置。
the base image is an image configured as a virtual image;
The image acquisition unit acquires the base image, superimposes the virtual object on the acquired base image to generate the superimposed image, and outputs the generated superimposed image to an image display device to obtain the superimposed image. 10. The image generation device according to claim 8, wherein an image is displayed on said image display device.
JP2021080089A 2021-05-10 2021-05-10 Image generation device Pending JP2022173968A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021080089A JP2022173968A (en) 2021-05-10 2021-05-10 Image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021080089A JP2022173968A (en) 2021-05-10 2021-05-10 Image generation device

Publications (1)

Publication Number Publication Date
JP2022173968A true JP2022173968A (en) 2022-11-22

Family

ID=84144255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021080089A Pending JP2022173968A (en) 2021-05-10 2021-05-10 Image generation device

Country Status (1)

Country Link
JP (1) JP2022173968A (en)

Similar Documents

Publication Publication Date Title
US20210279695A1 (en) Systems and methods for item acquisition by selection of a virtual object placed in a digital environment
CN107430767B (en) The system and method that Photo Filter is presented
AU2021273461B2 (en) Signature-based unique identifier
CN110023985A (en) Simultaneously displaying format customization head portrait is generated in electronic information
CN109716264A (en) Show customized electronic information figure
KR20100138863A (en) Providing method of augmented reality and personal contents corresponding to code in terminal with camera
CN107122642A (en) Identity identifying method and device based on reality environment
CN113205112A (en) Method and apparatus for discriminating and matching objects depicted in an image
CN113892096A (en) Dynamic media selection menu
CN115956255B (en) 3D reconstruction using wide angle imaging device
CN107038565A (en) Electronic apparatus and method for e-payment
US9607094B2 (en) Information communication method and information communication apparatus
WO2020051574A1 (en) Payment system for augmented, mixed, or virtual reality platforms integrated with cryptocurrency wallet
CN110300951A (en) Media item attachment system
US20160117754A1 (en) Electronic wish list system
CN107864681A (en) Utilize the social network service system and method for image
CN103440307B (en) Method and device for providing media information
JP2021047722A (en) Purchased commodity management system, user terminal, server, purchased commodity management method, and program
CN115699702A (en) Media request system
JP2022173968A (en) Image generation device
US20170155605A1 (en) Video communication system and method for using same
JP6955053B1 (en) Payment processing method, payment processing device and payment program
JP6191083B2 (en) Shared experience information construction system
KR20210060030A (en) Method and system that providing character according to payment information
KR101432373B1 (en) Managing method of business card in a user terminal and a managing server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240507