JP2024074318A - Program, method, information processing device, and system - Google Patents

Program, method, information processing device, and system Download PDF

Info

Publication number
JP2024074318A
JP2024074318A JP2022185379A JP2022185379A JP2024074318A JP 2024074318 A JP2024074318 A JP 2024074318A JP 2022185379 A JP2022185379 A JP 2022185379A JP 2022185379 A JP2022185379 A JP 2022185379A JP 2024074318 A JP2024074318 A JP 2024074318A
Authority
JP
Japan
Prior art keywords
image data
stuffed
information
image
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022185379A
Other languages
Japanese (ja)
Other versions
JP7450692B1 (en
Inventor
順一 増田
伸 上井
貴行 新藤
萌奈美 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pokemon Co
Original Assignee
Pokemon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pokemon Co filed Critical Pokemon Co
Priority to JP2022185379A priority Critical patent/JP7450692B1/en
Priority to JP2024032624A priority patent/JP2024074804A/en
Application granted granted Critical
Publication of JP7450692B1 publication Critical patent/JP7450692B1/en
Publication of JP2024074318A publication Critical patent/JP2024074318A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Toys (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ぬい撮りにおけるユーザ体験を向上させる。
【解決手段】プロセッサを備えるコンピュータに、外観が略同一の複数のぬいぐるみ(ただし、構成部材を動作させるための駆動部を有するものを除く)それぞれの個体を識別する識別情報を受け付けるステップと、ユーザが撮像したぬいぐるみの撮像データを取得するステップと、前記識別情報を受け付けた後に取得した前記撮像データにおけるぬいぐるみの態様に、前記識別情報に対応した加工を施した画像データを生成するステップと、前記画像データを前記ユーザに提示するステップと、を実行させるプログラムが提供される。
【選択図】図1

To improve the user experience when taking stuffed animal photos.
[Solution] A program is provided that causes a computer equipped with a processor to execute the following steps: receiving identification information that identifies each of a number of stuffed animals (excluding those having a driving part for operating the components) that have approximately identical appearances; acquiring image data of the stuffed animals captured by a user; generating image data in which the appearance of the stuffed animals in the image data acquired after receiving the identification information is processed in accordance with the identification information; and presenting the image data to the user.
[Selected Figure] Figure 1

Description

本開示は、プログラム、方法、情報処理装置、システムに関する。 This disclosure relates to a program, a method, an information processing device, and a system.

昨今、さまざまな場所および状況でぬいぐるみを撮影してSNS等にアップするという、いわゆるぬい撮りが人気となっている。例えば、特許文献1には、ぬいぐるみを撮像し、撮像情報に応じてぬいぐるみを駆動させる技術が開示されている。 Recently, the so-called "nui-dori" practice of photographing stuffed animals in various locations and situations and uploading the photographs to social media has become popular. For example, Patent Literature 1 discloses a technology for photographing a stuffed animal and controlling the stuffed animal in response to the photographed image.

特開2021-74361号公報JP 2021-74361 A

一方、上記技術では、ぬいぐるみに駆動部を設ける必要があるため、駆動部を有さないシンプルなぬいぐるみを用いたぬい撮りにおけるユーザ体験を向上させる点で改善の余地があった。 However, the above technology requires the stuffed animal to have a drive unit, so there is room for improvement in terms of improving the user experience when taking pictures of stuffed animals using simple stuffed animals that do not have a drive unit.

そこで、本開示の目的は、ぬい撮りにおけるユーザ体験を向上させる技術を提供することである。 Therefore, the objective of this disclosure is to provide technology that improves the user experience when taking pictures of stuffed animals.

本開示によれば、プロセッサを備えるコンピュータに、外観が略同一の複数のぬいぐるみ(ただし、構成部材を動作させるための駆動部を有するものを除く)それぞれの個体を識別する識別情報を受け付けるステップと、ユーザが撮像したぬいぐるみの撮像データを取得するステップと、前記識別情報を受け付けた後に取得した前記撮像データにおけるぬいぐるみの態様に、前記識別情報に対応した加工を施した画像データを生成するステップと、前記画像データを前記ユーザに提示するステップと、を実行させるプログラムが提供される。 According to the present disclosure, a program is provided that causes a computer having a processor to execute the steps of receiving identification information that identifies each of a plurality of stuffed animals (excluding those having a drive unit for operating components) that have substantially identical appearances, acquiring image data of the stuffed animals captured by a user, generating image data in which the state of the stuffed animal in the acquired image data after receiving the identification information is processed according to the identification information, and presenting the image data to the user.

本開示によれば、ぬいぐるみにより深い愛着を沸かせることができ、ぬい撮りにおけるユーザ体験を向上させることができる。 The present disclosure allows users to develop a deeper attachment to stuffed animals and improves the user experience when taking pictures of stuffed animals.

図1Aは端末装置10の処理の概要を説明する図である。図1Bは端末装置10に表示される画像の一例を示す図である。Fig. 1A is a diagram for explaining an outline of the processing of the terminal device 10. Fig. 1B is a diagram showing an example of an image displayed on the terminal device 10. 端末装置10のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of the terminal device 10. 端末装置10の機能構成を表すブロック図である。FIG. 2 is a block diagram showing the functional configuration of a terminal device 10. 記憶部180に記憶されるデータベースの構造を示す図である。FIG. 2 is a diagram showing the structure of a database stored in a storage unit 180. 図5Aはぬいぐるみ50の一例の正面図である。図5Bはぬいぐるみ50の一例の側面図である。5A is a front view of an example of a stuffed animal 50. FIG. 5B is a side view of an example of the stuffed animal 50. 端末装置10の処理の流れの一例を説明するフロー図である。FIG. 2 is a flow diagram illustrating an example of a processing flow of the terminal device 10. 演出画像生成処理(S300)の処理の流れの一例を説明するフロー図である。FIG. 11 is a flow diagram illustrating an example of the process flow of the effect image generation process (S300). イベント判定処理(S330)の処理の流れの一例を説明するフロー図である。FIG. 11 is a flow diagram illustrating an example of the process flow of an event determination process (S330). 図9Aはぬいぐるみ50と食べ物を撮影する例を示す図である。図9Bは端末装置10に表示されるぬいぐるみ50と食べ物が撮影された画像の例を示す図である。Fig. 9A is a diagram showing an example of photographing a stuffed toy 50 and food. Fig. 9B is a diagram showing an example of an image of the stuffed toy 50 and food, which is displayed on the terminal device 10. 図10Aはぬいぐるみ50と温度計を撮影する例を示す図である。図10Bは端末装置10に表示されるぬいぐるみ50と温度計が撮影された画像の例を示す図である。Fig. 10A is a diagram showing an example of capturing an image of the stuffed toy 50 and a thermometer. Fig. 10B is a diagram showing an example of an image of the stuffed toy 50 and a thermometer displayed on the terminal device 10. 図11Aはぬいぐるみ50と建築物を撮影する例を示す図である。図11Bは端末装置10に表示されるぬいぐるみ50と建築物が撮影された画像の例を示す図である。Fig. 11A is a diagram showing an example of photographing a stuffed toy 50 and a building. Fig. 11B is a diagram showing an example of an image of the stuffed toy 50 and a building displayed on the terminal device 10. 図12Aはぬいぐるみ50Aの正面図である。図12Bは他のぬいぐるみ50Bの正面図である。Fig. 12A is a front view of a stuffed animal 50A. Fig. 12B is a front view of another stuffed animal 50B. 図13Aはぬいぐるみ50Aとぬいぐるみ50Bを撮影する例を示す図である。図13Bは端末装置10に表示されるぬいぐるみ50Aとぬいぐるみ50Bが撮影された画像の例を示す図である。Fig. 13A is a diagram showing an example of photographing stuffed animals 50A and 50B. Fig. 13B is a diagram showing an example of an image of stuffed animals 50A and 50B that is displayed on terminal device 10. 第2実施形態におけるシステム1のハードウェア構成を示すブロック図である。FIG. 11 is a block diagram showing a hardware configuration of the system 1 according to the second embodiment. 第2実施形態におけるサーバ20の機能構成を表すブロック図である。FIG. 11 is a block diagram showing the functional configuration of a server 20 according to a second embodiment. 第2実施形態におけるシステム1の処理の流れの一例を説明するフロー図である。FIG. 11 is a flow diagram illustrating an example of a processing flow of the system 1 in the second embodiment. 第3実施形態におけるサーバ20の機能構成を表すブロック図である。FIG. 13 is a block diagram showing the functional configuration of a server 20 according to a third embodiment. 第3実施形態における記憶部220に記憶されるデータベースの構造を示す図である。FIG. 13 is a diagram showing a structure of a database stored in a storage unit 220 in the third embodiment. 第3実施形態における演出画像生成処理(S300)の処理の流れの一例を説明するフロー図である。FIG. 13 is a flow diagram illustrating an example of the processing flow of the effect image generation process (S300) in the third embodiment.

以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Below, an embodiment of the present disclosure will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed descriptions thereof will not be repeated.

<1.第1実施形態>
(1-1.端末装置10が提供するサービスの概要)
図1を参照して、端末装置10が提供する機能(以下、本機能ともいう)を説明する。図1Aに示すように、ユーザUは、端末装置10を使用してぬいぐるみ50とともに画像(静止画および動画を含む)を撮像することができる。ぬいぐるみ50には、外観が略同一の個体を識別するための識別情報が付与されており、ユーザは画像を撮像する前にぬいぐるみ50に付与された識別情報を端末装置10に入力する。なお、「外観が略同一」とは、同じ種類のぬいぐるみ(例えば同じ商品として販売されるぬいぐるみ)であって、形状および大きさが略同一であることを意味する。
<1. First embodiment>
(1-1. Overview of services provided by terminal device 10)
A function provided by the terminal device 10 (hereinafter, also referred to as this function) will be described with reference to Fig. 1. As shown in Fig. 1A, a user U can use the terminal device 10 to capture an image (including still images and videos) of a stuffed animal 50. The stuffed animal 50 is provided with identification information for identifying an individual having approximately the same appearance, and the user inputs the identification information provided to the stuffed animal 50 into the terminal device 10 before capturing an image. Note that "approximately the same appearance" means that the stuffed animals are of the same type (for example, stuffed animals sold as the same product) and have approximately the same shape and size.

端末装置10は、撮像した画像に対して、画像内のぬいぐるみ50の識別情報に対応した加工を施した画像データを生成してディスプレイに表示する。具体的には例えば、図1Bに示すように、ぬいぐるみ50が手を挙げてユーザUに嬉しそうにあいさつしているような画像を生成してディスプレイに表示する。 The terminal device 10 generates image data by processing the captured image in accordance with the identification information of the stuffed toy 50 in the image, and displays the image data on the display. Specifically, for example, as shown in FIG. 1B, an image is generated in which the stuffed toy 50 is happily greeting the user U with its hands raised, and the image is displayed on the display.

このように、端末装置10では、ぬいぐるみ50を撮像した場合に、ぬいぐるみの個体ごとの加工を施した画像を生成することができる。これにより、外観が略同一のぬいぐるみが複数存在する空間であっても、識別情報に対応してディスプレイ上では異なる挙動を示すため、自身が所有するぬいぐるみに対してより深い愛着を沸かせることができ、ぬいぐるみの撮像(以下、ぬい撮りともいう)におけるユーザ体験を向上させることができる。以下、各構成を詳細に説明する。 In this way, when the terminal device 10 captures an image of the stuffed toy 50, it is possible to generate an image that has been processed for each individual stuffed toy. As a result, even in a space where multiple stuffed toys with roughly identical appearances exist, they will behave differently on the display in response to their identification information, allowing the user to feel a deeper attachment to their stuffed toy, improving the user experience when capturing images of stuffed toys (hereinafter also referred to as "stuffed toy photography"). Each component will be described in detail below.

(1-2.端末装置10のハードウェア構成)
図2は、端末装置10のハードウェア構成の例を示すブロック図である。端末装置10は、例えば、タブレット端末、又はスマートフォン等の携帯端末により実現される。また、端末装置10は、据え置き型のPC(Personal Computer)、又はラップトップPC等により実現されてもよい。
(1-2. Hardware Configuration of Terminal Device 10)
2 is a block diagram showing an example of a hardware configuration of the terminal device 10. The terminal device 10 is realized by, for example, a tablet terminal or a mobile terminal such as a smartphone. The terminal device 10 may also be realized by a stationary personal computer (PC) or a laptop PC.

端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ19とを備える。 The terminal device 10 includes a communication interface (IF) 12, an input device 13, an output device 14, a memory 15, storage 16, and a processor 19.

通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 12 is an interface for inputting and outputting signals so that the terminal device 10 can communicate with external devices.

入力装置13は、ユーザからの入力操作を受け付けるための装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。 The input device 13 is a device for accepting input operations from a user (e.g., a touch panel, a touch pad, a pointing device such as a mouse, a keyboard, etc.).

出力装置14は、ユーザに対して情報を提示するための装置(ディスプレイ、スピーカ等)である。 The output device 14 is a device (display, speaker, etc.) for presenting information to the user.

メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。 Memory 15 is used to temporarily store programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory).

ストレージ16は、データを保存するためのものであり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。 Storage 16 is used to store data, and is, for example, a flash memory or a hard disk drive (HDD).

プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The processor 19 is hardware for executing a set of instructions written in a program, and is composed of an arithmetic unit, registers, peripheral circuits, etc.

(1-3.端末装置10の機能構成)
図3は、端末装置10の機能構成の例を示すブロック図である。図3に示すように、端末装置10は、入力装置13と、出力装置14と、通信部150と、撮像部160と、音声処理部170と、記憶部180と、制御部200を備える。図3において端末装置10に含まれる各ブロックは、例えば、バス等により電気的に接続される。
(1-3. Functional configuration of terminal device 10)
Fig. 3 is a block diagram showing an example of a functional configuration of the terminal device 10. As shown in Fig. 3, the terminal device 10 includes an input device 13, an output device 14, a communication unit 150, an imaging unit 160, an audio processing unit 170, a storage unit 180, and a control unit 200. The blocks included in the terminal device 10 in Fig. 3 are electrically connected to each other by, for example, a bus or the like.

通信部150は、端末装置10が他の装置と通信するための変復調処理等の処理を行う。通信部150は、制御部200で生成された信号に送信処理を施し、外部(例えば、他の端末装置10)へ送信する。通信部150は、外部から受信した信号に受信処理を施し、制御部200へ出力する。 The communication unit 150 performs processes such as modulation and demodulation for the terminal device 10 to communicate with other devices. The communication unit 150 performs transmission processing on the signal generated by the control unit 200 and transmits it to the outside (e.g., another terminal device 10). The communication unit 150 performs reception processing on the signal received from the outside and outputs it to the control unit 200.

入力装置13は、端末装置10を操作するユーザが指示、又は情報を入力するための装置である。入力装置13は、例えば、操作面へ触れることで指示が入力されるタッチセンシティブデバイス131等により実現される。入力装置13は、キーボードまたはマウスを含んでいてもよい。入力装置13は、ユーザから入力される指示、又は情報を電気信号へ変換し、電気信号を制御部200へ出力する。なお、入力装置13には、例えば、外部の入力機器から入力される電気信号を受け付ける受信ポートが含まれてもよい。 The input device 13 is a device for inputting instructions or information by the user operating the terminal device 10. The input device 13 is realized, for example, by a touch-sensitive device 131 or the like that inputs instructions by touching the operation surface. The input device 13 may include a keyboard or a mouse. The input device 13 converts the instructions or information input by the user into an electrical signal and outputs the electrical signal to the control unit 200. The input device 13 may also include, for example, a receiving port that receives an electrical signal input from an external input device.

出力装置14は、端末装置10を操作するユーザへ情報を提示するための装置である。出力装置14は、例えば、ディスプレイ141等により実現される。ディスプレイ141は、制御部200の制御に応じたデータを表示する。ディスプレイ141は、例えば、LCD(Liquid Crystal Display)、又は有機EL(Electro-Luminescence)ディスプレイ等によって実現される。 The output device 14 is a device for presenting information to a user who operates the terminal device 10. The output device 14 is realized, for example, by a display 141 or the like. The display 141 displays data according to the control of the control unit 200. The display 141 is realized, for example, by an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display or the like.

撮像部160はカメラを備え、受光素子により光を受光し、撮影信号として入力することで、端末装置10の周囲の撮像を行う。 The imaging unit 160 is equipped with a camera, receives light using a light receiving element, and inputs the light as an imaging signal to capture an image of the surroundings of the terminal device 10.

音声処理部170は、例えば、音声信号のデジタル-アナログ変換処理を行う。音声処理部170は、マイク171から与えられる信号をデジタル信号に変換して、変換後の信号を制御部200へ与える。また、音声処理部170は、音声信号をスピーカ172へ与える。音声処理部170は、例えば音声処理用のプロセッサによって実現される。マイク171は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部170へ与える。スピーカ172は、音声処理部170から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。 The audio processing unit 170, for example, performs digital-to-analog conversion processing of an audio signal. The audio processing unit 170 converts a signal provided from the microphone 171 into a digital signal and provides the converted signal to the control unit 200. The audio processing unit 170 also provides an audio signal to the speaker 172. The audio processing unit 170 is realized, for example, by a processor for audio processing. The microphone 171 accepts audio input and provides an audio signal corresponding to the audio input to the audio processing unit 170. The speaker 172 converts the audio signal provided from the audio processing unit 170 into audio and outputs the audio to the outside of the terminal device 10.

記憶部180は、例えば、メモリ15、及びストレージ16等により実現され、端末装置10が使用するデータ、及びプログラムを記憶する。記憶部180は、一例として、ユーザデータベース181と、ぬいぐるみデータベース182と、性格データベース183と、イベント演出データベース184と、イベント対応データベース185を記憶する。 The storage unit 180 is realized, for example, by the memory 15 and the storage 16, and stores data and programs used by the terminal device 10. As an example, the storage unit 180 stores a user database 181, a stuffed animal database 182, a personality database 183, an event production database 184, and an event correspondence database 185.

ユーザデータベース181は、ユーザの情報を記憶するためのデータベースである。ユーザデータベース181には、当該端末装置10を利用するユーザに関する情報が記憶される。一例として、ユーザデータベース181は、ユーザが、端末装置10にインストールされた本機能を提供するソフトウェアを利用して、ユーザ登録の作業を行ったタイミングでレコードが生成される仕様としてもよい。ユーザデータベース181のデータ構造の詳細は後述する。 The user database 181 is a database for storing user information. Information about the user who uses the terminal device 10 is stored in the user database 181. As an example, the user database 181 may be configured so that a record is generated when a user performs user registration work using software that provides this function installed on the terminal device 10. The data structure of the user database 181 will be described in detail later.

ぬいぐるみデータベース182は、ぬいぐるみ50の情報を記憶するためのデータベースである。ぬいぐるみデータベース182には、ぬいぐるみ50の個体それぞれに設定される情報が記憶されている。一例として、ぬいぐるみデータベース182は、端末装置10にインストールされた本機能を提供するソフトウェアを利用して、ユーザが所有するぬいぐるみ50の情報を登録する作業を行ったタイミングでレコードが生成される仕様としてもよい。ぬいぐるみデータベース182のデータ構造の詳細は後述する。 The stuffed toy database 182 is a database for storing information about the stuffed toy 50. The stuffed toy database 182 stores information set for each individual stuffed toy 50. As an example, the stuffed toy database 182 may be configured so that records are generated when a user registers information about a stuffed toy 50 that the user owns using software that provides this function installed on the terminal device 10. The data structure of the stuffed toy database 182 will be described in detail later.

性格データベース183は、ぬいぐるみ50に設定される性格についての情報を記憶するためのデータベースである。性格データベース183には、ユーザが所有するぬいぐるみ50それぞれに設定される性格と、当該性格に対応付けられるしぐさに関する情報が記憶される。一例として、性格データベース183は、端末装置10に本機能を提供するソフトウェアをインストールしたタイミングで、あらかじめ設定されたレコードが生成される仕様としてもよい。性格データベース183のデータ構造の詳細は後述する。 The personality database 183 is a database for storing information about personalities set for the stuffed animals 50. The personality database 183 stores information about the personalities set for each stuffed animal 50 owned by the user and the gestures associated with the personalities. As an example, the personality database 183 may be configured such that pre-set records are generated when software that provides this function is installed on the terminal device 10. The data structure of the personality database 183 will be described in detail later.

イベント演出データベース184は、イベント演出の情報を記憶するためのデータベースである。イベント演出とは、ぬいぐるみ50を撮像した撮像データにおいて、特定のイベント(以下、条件イベントともいう)が発生している場合に適用される演出のことであり、当該演出に対応した加工を撮像データに施した画像データが生成される。一例として、イベント演出データベース184は、端末装置10に本機能を提供するソフトウェアをインストールしたタイミングで、あらかじめ設定されたレコードが生成される仕様としてもよい。イベント演出データベース184のデータ構造の詳細は後述する。 The event production database 184 is a database for storing information on event production. An event production is a production that is applied when a specific event (hereinafter also referred to as a condition event) occurs in the imaging data of the stuffed toy 50, and image data is generated by processing the imaging data corresponding to the production. As an example, the event production database 184 may be configured so that preset records are generated when software that provides this function is installed on the terminal device 10. The data structure of the event production database 184 will be described in detail later.

イベント対応データベース185は、ぬいぐるみ50とイベント演出の対応を記憶するためのデータベースである。イベント対応データベース185には、ぬいぐるみ50それぞれに対応づけられたイベント演出についての情報が記憶される。一例として、イベント対応データベース185は、端末装置10にインストールされた本機能を提供するソフトウェアを利用して、ユーザが所有するぬいぐるみの情報を登録する作業を行ったタイミングでレコードが生成される仕様としてもよい。イベント対応データベース185のデータ構造の詳細は後述する。 The event correspondence database 185 is a database for storing the correspondence between stuffed toys 50 and event effects. The event correspondence database 185 stores information about the event effects associated with each stuffed toy 50. As an example, the event correspondence database 185 may be configured so that records are generated when a user registers information about a stuffed toy that the user owns using software that provides this function installed on the terminal device 10. The data structure of the event correspondence database 185 will be described in detail later.

制御部200は、プロセッサ19が記憶部180に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部200は、端末装置10の動作を制御する。制御部200は、プログラムに従って動作することにより、操作受付部201と、送受信部202と、表示制御部203と、識別情報受付部204と、撮像データ取得部205と、撮像データ解析部206と、画像データ生成部207としての機能を発揮する。 The control unit 200 is realized when the processor 19 reads a program stored in the storage unit 180 and executes instructions contained in the program. The control unit 200 controls the operation of the terminal device 10. By operating according to the program, the control unit 200 fulfills the functions of an operation reception unit 201, a transmission/reception unit 202, a display control unit 203, an identification information reception unit 204, an imaging data acquisition unit 205, an imaging data analysis unit 206, and an image data generation unit 207.

操作受付部201は、入力装置13から入力される指示、又は情報を受け付けるための処理を行う。具体的には、例えば、操作受付部201は、タッチセンシティブデバイス131等から入力される指示に基づく情報を受け付ける。 The operation reception unit 201 performs processing for receiving instructions or information input from the input device 13. Specifically, for example, the operation reception unit 201 receives information based on instructions input from the touch-sensitive device 131, etc.

送受信部202は、端末装置10が、外部の装置と通信プロトコルに従ってデータを送受信するための処理を行う。 The transmission/reception unit 202 performs processing for the terminal device 10 to transmit and receive data to and from external devices in accordance with a communication protocol.

表示制御部203は、ユーザに対する情報の表示を制御する。具体的には、例えば、表示制御部203は、画像データ生成部207が生成した画像データをディスプレイ141に表示させる。 The display control unit 203 controls the display of information to the user. Specifically, for example, the display control unit 203 causes the image data generated by the image data generation unit 207 to be displayed on the display 141.

識別情報受付部204は、ぬいぐるみ50の個体を識別するための識別情報をユーザから受け付ける。具体的には、例えば、ユーザがディスプレイ141に表示されたタッチセンシティブデバイス131を操作することにより識別情報を入力して、識別情報受付部204が入力された識別情報を受け付ける仕様としてもよい。当該識別情報は、ぬいぐるみ50の購入時に通知される仕様としてもよい。 The identification information receiving unit 204 receives identification information for identifying an individual stuffed toy 50 from the user. Specifically, for example, the user may input identification information by operating the touch-sensitive device 131 displayed on the display 141, and the identification information receiving unit 204 may receive the input identification information. The identification information may be notified at the time of purchase of the stuffed toy 50.

例えば、ぬいぐるみ50に識別情報としての識別番号が記載された付け札が取り付けられており、当該識別番号をユーザが端末装置10に(当該付け札の撮像以外の方法で)入力する仕様としてもよい。また、ぬいぐるみ50の内部または外部にIC(Integrated Circuit)タグまたはRFID(radio frequency identifier)タグが取り付けられており、当該タグからの情報に基づいて識別情報を取得してもよい。また、ぬいぐるみ50とは別個の管理タグが購入時に渡され、当該管理タグに識別番号が記載されていてもよい。なお、後述するように、ぬいぐるみ50のそれぞれの識別情報に対応して性格が設定されているため、ぬいぐるみ50の本体と、識別情報が記載された付け札もしくはタグは、一体となっていることが好ましい。 For example, the stuffed toy 50 may be provided with a tag with an identification number written thereon as identification information, and the user may input the identification number into the terminal device 10 (by a method other than imaging the tag). Alternatively, an IC (Integrated Circuit) tag or an RFID (radio frequency identifier) tag may be attached inside or outside the stuffed toy 50, and the identification information may be obtained based on information from the tag. Alternatively, a management tag separate from the stuffed toy 50 may be provided at the time of purchase, and the identification number may be written on the management tag. As will be described later, since a personality is set in accordance with the identification information of each stuffed toy 50, it is preferable that the main body of the stuffed toy 50 and the tag or tag with the identification information written thereon are integrated.

撮像データ取得部205は、ユーザが撮像したぬいぐるみ50の撮像データを取得する。具体的には、例えば、撮像データ取得部205は、撮像部160が備えるカメラによって撮像されたぬいぐるみ50の撮像データを取得する。または、撮像データ取得部205は、通信部150を介して送受信部202が受信したぬいぐるみ50の撮像データを取得する仕様としてもよい。または、撮像データ取得部205は、予め撮像され記憶部180に記憶されている撮像データを、ユーザによる選択をトリガーとして取得する仕様としてもよい。 The imaging data acquisition unit 205 acquires imaging data of the stuffed toy 50 captured by the user. Specifically, for example, the imaging data acquisition unit 205 acquires imaging data of the stuffed toy 50 captured by a camera provided in the imaging unit 160. Alternatively, the imaging data acquisition unit 205 may acquire imaging data of the stuffed toy 50 received by the transmitting/receiving unit 202 via the communication unit 150. Alternatively, the imaging data acquisition unit 205 may acquire imaging data captured in advance and stored in the storage unit 180, triggered by a selection by the user.

撮像データ解析部206は、撮像データ取得部205が取得した撮像データの解析を行う。具体的には、例えば、撮像データ解析部206は、撮像データに対して画像認識処理を行う。画像認識処理としては、パターン認識、差分画像演算、テンプレートマッチングなどの周知技術を利用してもよい。また、撮像データ解析部206は、これらの画像認識処理を実行するにあたり、機械学習やディープラーニングといったAI(artificial intelligence)技術を適宜活用してもよい。撮像データ解析部206は、撮像データに対して画像認識処理を行うことにより、撮像データにおいて特定のイベントが発生しているか否か(すなわち、イベント条件が満たされたか否か)の判定を行う。 The imaging data analysis unit 206 analyzes the imaging data acquired by the imaging data acquisition unit 205. Specifically, for example, the imaging data analysis unit 206 performs image recognition processing on the imaging data. Well-known techniques such as pattern recognition, differential image calculation, and template matching may be used for the image recognition processing. Furthermore, when executing these image recognition processes, the imaging data analysis unit 206 may appropriately utilize AI (artificial intelligence) techniques such as machine learning and deep learning. The imaging data analysis unit 206 performs image recognition processing on the imaging data to determine whether or not a specific event has occurred in the imaging data (i.e., whether or not an event condition has been satisfied).

画像データ生成部207は、撮像データ解析部206の解析結果に基づいて、撮像データにおけるぬいぐるみ50の態様に、識別情報に対応した加工を施した画像データを生成する。画像データ生成部207は、撮像データ解析部206によってイベント条件が満たされたと判定された場合に、撮像データに対して当該イベント条件に対応するイベント演出を付加した画像を生成する。また、画像データ生成部207は、撮像データに対してぬいぐるみ50の性格に対応したしぐさ演出を付加した画像を生成する。 The image data generating unit 207 generates image data in which the appearance of the stuffed toy 50 in the image data has been processed according to the identification information, based on the analysis result of the image data analyzing unit 206. When the image data analyzing unit 206 determines that the event condition is satisfied, the image data generating unit 207 generates an image in which an event effect corresponding to the event condition is added to the image data. The image data generating unit 207 also generates an image in which a gesture effect corresponding to the personality of the stuffed toy 50 is added to the image data.

画像データ生成部207は、画像を生成するにあたって、いわゆるAR(Augmented Reality/拡張現実)技術を用いてもよい。すなわち、撮像データ取得部205が取得した現実世界の画像情報に対して、新たに生成した仮想の画像情報を重ね合わせた画像を生成してもよい。画像データ生成部207は、周知のAR技術を利用して画像を生成することができる。具体的には例えば、AR技術は、画像認識または空間認識に関する技術を利用するビジョンベース型であってもよく、撮像データ内の特徴点をトラッキングして取得し、付加情報を表示するマーカーレス型であってもよい。これらを実現するにあたり、画像データ生成部207は、PTAM(Parallel Tracking And Mapping)またはSmartARといった周知の手法を用いてもよい。 The image data generating unit 207 may use so-called AR (Augmented Reality) technology to generate an image. That is, an image may be generated by superimposing newly generated virtual image information on real-world image information acquired by the imaging data acquiring unit 205. The image data generating unit 207 may generate an image using a well-known AR technology. Specifically, for example, the AR technology may be a vision-based type that uses technology related to image recognition or spatial recognition, or a markerless type that tracks and acquires feature points in imaging data and displays additional information. To achieve this, the image data generating unit 207 may use a well-known method such as PTAM (Parallel Tracking And Mapping) or SmartAR.

(1-4.データ構造)
図4は、記憶部180が記憶するユーザデータベース181、ぬいぐるみデータベース182、性格データベース183、イベント演出データベース184、イベント対応データベース185のデータ構造の一例を示す図である。なお、図4はあくまでも一例であり、記載されていないデータを除外するものではない。
(1-4. Data Structure)
4 is a diagram showing an example of the data structure of the user database 181, stuffed toy database 182, personality database 183, event performance database 184, and event correspondence database 185 stored in the storage unit 180. Note that FIG. 4 is merely an example, and does not exclude data that is not shown.

図4に示すように、ユーザデータベース181のレコードは、項目「ユーザID」と、項目「ユーザ名」と、項目「年齢」と、項目「性別」と、項目「登録画像」等を含む。 As shown in FIG. 4, a record in the user database 181 includes the items "user ID," "user name," "age," "gender," and "registered image," etc.

項目「ユーザID」は、ユーザそれぞれを識別する識別子としての情報であり、ユーザデータベース181におけるレコードを一意に特定するための主キーである The "User ID" item is information that serves as an identifier to identify each user, and is the primary key for uniquely identifying a record in the user database 181.

項目「ユーザ名」は、ユーザの名称についての情報である。ユーザ名は、ユーザの本名であってもよいし、ニックネームなどの本人を特定しない情報であってもよい。 The "User name" item is information about the user's name. The user name may be the user's real name, or it may be information that does not identify the user, such as a nickname.

項目「年齢」は、ユーザの年齢についての情報である。項目「性別」は、ユーザの性別についての情報である。項目「登録画像」は、ユーザが映っている画像の情報である。ユーザは、登録画像として、1または複数の画像を登録することができる。 The "Age" item is information about the user's age. The "Gender" item is information about the user's gender. The "Registered Image" item is information about an image in which the user appears. The user can register one or more images as registered images.

ユーザは、端末装置10にインストールされた本機能を提供するソフトウェアを利用して、ユーザ情報を登録してユーザデータベース181にレコードを追加できる仕様としてもよい。 The user may be able to register user information and add records to the user database 181 using software that provides this function installed on the terminal device 10.

ぬいぐるみデータベース182のレコードは、項目「ぬいぐるみID」と、項目「登録ユーザ」と、項目「性格」等を含む。 A record in the stuffed animal database 182 includes the items "stuffed animal ID," "registered user," and "personality," etc.

項目「ぬいぐるみID」は、ぬいぐるみ50の個体を、外観が略同一の他の個体と識別するための識別情報であり、ぬいぐるみデータベース182におけるレコードを一意に特定するための主キーである。 The item "Plushie ID" is identification information for distinguishing an individual stuffed animal 50 from other individuals with approximately the same appearance, and is a primary key for uniquely identifying a record in the stuffed animal database 182.

項目「登録ユーザ」は、ぬいぐるみ50に対応付けて登録されるユーザを特定するための情報であり、ユーザデータベース181の項目「ユーザID」が外部キーとして保持される。本実施形態では、1のぬいぐるみ50に対して1のユーザが対応づけられて、ぬいぐるみデータベース182に記憶される。 The item "Registered User" is information for identifying a user who is registered in association with the stuffed toy 50, and the item "User ID" in the user database 181 is held as an external key. In this embodiment, one user is associated with one stuffed toy 50 and stored in the stuffed toy database 182.

項目「性格」は、ぬいぐるみ50の性格を識別するための情報であり、性格データベース183の項目「性格ID」が外部キーとして保持される。このように、ぬいぐるみ50の個体それぞれに対して設定された性格についての情報が、ぬいぐるみデータベース182に記憶される。 The item "personality" is information for identifying the personality of the stuffed animal 50, and the item "personality ID" in the personality database 183 is held as an external key. In this way, information about the personality set for each individual stuffed animal 50 is stored in the stuffed animal database 182.

ユーザは、端末装置10にインストールされた本機能を提供するソフトウェアを利用して、ぬいぐるみに関する情報を登録してぬいぐるみデータベース182にレコードを追加できる仕様としてもよい。この場合、ユーザは、所有するぬいぐるみ50の性格を、あらかじめ用意された選択肢の中から選択して、自身が所望する性格となるように設定可能な仕様としてもよい。 The user may use software that provides this function installed in the terminal device 10 to register information about the stuffed animal and add the record to the stuffed animal database 182. In this case, the user may be able to select the personality of the stuffed animal 50 that he or she owns from among options prepared in advance and set it to the personality that the user desires.

性格データベース183のレコードは、項目「性格ID」と、項目「性格内容」と、項目「しぐさ演出」等を含む。 A record in the personality database 183 includes an item "personality ID," an item "personality content," an item "gesture performance," etc.

項目「性格ID」は、ぬいぐるみ50の性格を識別するための識別情報であり、性格データベース183におけるレコードを一意に特定するための主キーである。 The item "Personality ID" is identification information for identifying the personality of the stuffed animal 50, and is the primary key for uniquely identifying a record in the personality database 183.

項目「性格内容」は、ぬいぐるみ50に設定される性格の内容についての情報である。具体的には、性格の内容としては、「無邪気」、「大人しい」、「勇敢」、「冷静」、「臆病」、「陽気」などを挙げることができる。 The "personality" item is information about the personality set for the stuffed animal 50. Specifically, personality information can be "innocent," "quiet," "brave," "calm," "timid," "cheerful," etc.

項目「しぐさ演出」は、ぬいぐるみ50の性格に応じて対応付けられるしぐさ(行動パターン)についての演出のことである。画像データ生成部207は、撮像データにおけるぬいぐるみ50の性格に応じて、対応づけられたしぐさ演出を付加した画像データを生成する。例えば、性格が「無邪気」な場合には、画像データ生成部207は、撮像データにおけるぬいぐるみ50の態様に無邪気な性格を表す動きを付加した画像データを生成する。また、性格が「大人しい」な場合には、画像データ生成部207は、撮像データにおけるぬいぐるみ50の態様に控えめな動きを付加した画像データを生成する。 The item "gesture performance" refers to the performance of a gesture (behavior pattern) associated with the personality of the stuffed animal 50. The image data generation unit 207 generates image data to which a corresponding gesture performance has been added according to the personality of the stuffed animal 50 in the imaging data. For example, if the personality is "innocent," the image data generation unit 207 generates image data to which a movement expressing an innocent personality has been added to the appearance of the stuffed animal 50 in the imaging data. Also, if the personality is "quiet," the image data generation unit 207 generates image data to which a modest movement has been added to the appearance of the stuffed animal 50 in the imaging data.

イベント演出データベース184のレコードは、項目「イベント演出ID」と、項目「条件イベント」と、項目「イベント演出」等を含む。 The records in the event production database 184 include the items "event production ID", "condition event", and "event production", etc.

項目「イベント演出ID」は、イベント演出を識別するための識別情報であり、イベント演出データベース184におけるレコードを一意に特定するための主キーである。 The item "Event performance ID" is identification information for identifying the event performance, and is the primary key for uniquely identifying a record in the event performance database 184.

項目「条件イベント」は、ぬいぐるみ50を撮像した撮像データに対して、イベント演出が適用されるための条件となるイベントについての情報である。条件イベントとしては、例えば以下を挙げることができる。
・ぬいぐるみ50を撮像した撮像データに、当該ぬいぐるみ50の登録ユーザが映っている(以下、条件イベントAという)。
・ぬいぐるみ50を撮像した撮像データに、特定の食べ物が映っている(以下、条件イベントBという)。
・ぬいぐるみ50を撮像した撮像データに、環境情報を示す物が映っている(以下、条件イベントCという)。
・ぬいぐるみ50を撮像した撮像データに、所定の建築物または風景が映っている(以下、条件イベントDという)。
The item "condition event" is information about an event that is a condition for applying an event effect to the image data capturing an image of the stuffed toy 50. Examples of the condition event include the following.
The image data capturing an image of the stuffed toy 50 includes a registered user of the stuffed toy 50 (hereinafter, referred to as condition event A).
A specific food appears in the image data of the stuffed toy 50 (hereinafter, referred to as condition event B).
An object indicating environmental information is captured in the image data of the stuffed toy 50 (hereinafter, referred to as condition event C).
A specific building or landscape is captured in the image data of the stuffed toy 50 (hereinafter, referred to as condition event D).

なお、条件イベントBにおける「特定の食べ物」とは、特定の料理、食材(肉、野菜、または果物)、お菓子等であってもよい。また、条件イベントCにおける「環境情報」とは、天気、温度、湿度などの気象に関する情報でもよい。また、条件イベントDにおける「建築物」は、観光名所等における建物(例えば寺院など)であってもよい。また、条件イベントDにおける「風景」は、観光名所等を特定可能な風景であってもよい。 The "specific food" in condition event B may be a specific dish, ingredient (meat, vegetables, or fruit), sweets, etc. Furthermore, the "environmental information" in condition event C may be meteorological information such as weather, temperature, and humidity. Furthermore, the "building" in condition event D may be a building at a tourist spot (such as a temple). Furthermore, the "scenery" in condition event D may be a scene that can identify a tourist spot, etc.

項目「イベント演出」は、イベント演出の内容についての情報である。イベント演出としては、例えば以下を挙げることができる。
・条件イベントAが発生した場合に、登録ユーザに対して話しかけるような動作をする。
・条件イベントBが発生した場合に、うれしそうな動作をする。
・条件イベントCが発生した場合に、環境情報に応じた様子となる。
・条件イベントDが発生した場合に、当該建築物または風景にあった被服を着る。
The item "event production" is information about the content of the event production. Examples of the event production include the following.
When condition event A occurs, the robot behaves as if it is speaking to the registered user.
・When condition event B occurs, perform a happy behavior.
When the condition event C occurs, the state will be according to the environmental information.
When condition event D occurs, wear clothing that matches the building or scenery.

イベント対応データベース185のレコードは、項目「対応ID」と、項目「ぬいぐるみ」と、項目「イベント演出」等を含む。 The records in the event correspondence database 185 include the items "Corresponding ID", "Plush toy", and "Event production", etc.

項目「対応ID」は、ぬいぐるみ50とイベント演出の対応関係を識別するための識別情報であり、イベント対応データベース185におけるレコードを一意に特定するための主キーである。 The item "Correspondence ID" is identification information for identifying the correspondence between the stuffed animal 50 and the event presentation, and is a primary key for uniquely identifying a record in the event correspondence database 185.

項目「ぬいぐるみ」は、イベント演出が対応づけられるぬいぐるみ50を識別するための識別情報であり、ぬいぐるみデータベース182の項目「ぬいぐるみID」が外部キーとして保持される。 The item "Plush Toy" is identification information for identifying the stuffed toy 50 to which the event performance is associated, and the item "Plush Toy ID" in the stuffed toy database 182 is held as an external key.

項目「イベント演出」は、ぬいぐるみ50に対応づけられたイベント演出を識別するための識別情報であり、イベント演出データベース184の項目「イベント演出ID」が外部キーとして保持される。 The item "Event performance" is identification information for identifying the event performance associated with the stuffed animal 50, and the item "Event performance ID" in the event performance database 184 is held as an external key.

ユーザは、端末装置10にインストールされた本機能を提供するソフトウェアを利用して、ぬいぐるみに関する情報を登録する際に、イベント対応データベース185にレコードを追加できる仕様としてもよい。また、ユーザは、所有するぬいぐるみ50に適用されるイベント演出を、あらかじめ用意された選択肢の中から選択して、自身が所望するイベント演出が適用されるように設定可能な仕様としてもよい。 The specification may be such that the user can add a record to the event correspondence database 185 when registering information about a stuffed animal using software that provides this function installed in the terminal device 10. In addition, the specification may be such that the user can select an event effect to be applied to the stuffed animal 50 that he or she owns from among options prepared in advance, and set it so that the event effect that the user desires is applied.

なお、本実施形態では、ぬいぐるみとイベント演出を多対多の関係で対応付けることが可能となっている。すなわち、1のぬいぐるみ50に対して複数のイベント演出を対応づけることができる。また、異なるぬいぐるみ50同士で、同一のイベント演出を対応づけることができる。 In this embodiment, it is possible to associate stuffed animals with event effects in a many-to-many relationship. In other words, one stuffed animal 50 can be associated with multiple event effects. Also, different stuffed animals 50 can be associated with the same event effect.

(1-5.ぬいぐるみ50)
以下、図5を参照して、ぬいぐるみ50の詳細を説明する。
(1-5. Stuffed toys 50)
The plush toy 50 will now be described in detail with reference to FIG.

ぬいぐるみ50は、一例として実在または仮想の動物(人物および想像上のキャラクターを含む)を模して成形される。ぬいぐるみ50はシンプルなぬいぐるみが好ましい。ここでいうシンプルなぬいぐるみとは、裁断された布を縫合して形作られ、内部には綿またはプラスチック片などの内容物が詰め込まれて成形されていることを表す。言い換えると、ぬいぐるみ50は、構成部材(すなわち頭部51、胴部52、前肢56、下肢57、尻尾58等)を動作させるための駆動機構を有していないことが好ましい。 As an example, the stuffed toy 50 is shaped to resemble a real or imaginary animal (including a person or an imaginary character). The stuffed toy 50 is preferably a simple stuffed toy. A simple stuffed toy is one that is made by sewing together pieces of cut cloth and stuffing the inside with contents such as cotton or pieces of plastic. In other words, the stuffed toy 50 preferably does not have a drive mechanism for operating the components (i.e., the head 51, the torso 52, the front legs 56, the lower legs 57, the tail 58, etc.).

図5Aおよび図5Bに示す例では、ぬいぐるみ50は、頭部51と、胴部52と、前肢56と、下肢57と、尻尾58を備える。頭部51は、胴部52の上面に取り付けられている。前肢56は胴部52の側面に、下肢57は胴部52の底面にそれぞれ一対取り付けられている。胴部52の背面には、尻尾58が取り付けられている。 In the example shown in Figures 5A and 5B, stuffed toy 50 has a head 51, a body 52, front legs 56, lower legs 57, and a tail 58. Head 51 is attached to the top surface of body 52. A pair of front legs 56 is attached to the side of body 52, and a pair of lower legs 57 is attached to the bottom surface of body 52. Tail 58 is attached to the back of body 52.

頭部51の前面には、一対の目53および口54が形成されている。頭部51の側面には、一対の耳55が取り付けられている。これにより頭部51の前面には、所定の表情を伴う顔が形成されている。このように、ぬいぐるみ50は、目53および口54といった表情を形作る要素に加えて、耳55および尻尾58といった動きによって感情を表現可能な要素を備えることが好ましい。 A pair of eyes 53 and a mouth 54 are formed on the front of the head 51. A pair of ears 55 are attached to the sides of the head 51. As a result, a face with a predetermined expression is formed on the front of the head 51. In this way, it is preferable that the stuffed animal 50 has elements that can express emotions through movement, such as the ears 55 and the tail 58, in addition to elements that form facial expressions, such as the eyes 53 and mouth 54.

なお、図5に示すぬいぐるみ50は一例であり、各構成部材(例えば、頭部51、胴部52、前肢56、下肢57、尻尾58)の形状は適宜変更可能である。また、頭部51は、鼻や触覚等といった他の部位を有していてもよい。また、ぬいぐるみ50は、図5Aに示すような立位(立った姿勢)に限定されることはなく、座位(座った姿勢)または臥位(寝た姿勢)で成形されてもよく、遊泳または飛行する際の姿勢で成形されてもよい。 The stuffed animal 50 shown in FIG. 5 is an example, and the shapes of each component (e.g., head 51, torso 52, front legs 56, lower legs 57, tail 58) can be changed as appropriate. The head 51 may have other parts such as a nose or antennae. The stuffed animal 50 is not limited to the standing position shown in FIG. 5A, but may be shaped in a sitting position or a lying position, or in a position for swimming or flying.

ぬいぐるみ50には、それぞれの個体を識別するための識別情報(一例として、ぬいぐるみID)が付与されている。ユーザは、ぬいぐるみ50の購入時に識別情報を通知される仕様としてもよい。一例として、ぬいぐるみ50に付け札がとりつけられており、当該付け札に識別情報が記載されている仕様としてもよい。 Each stuffed animal 50 is assigned identification information (for example, a stuffed animal ID) to identify the individual stuffed animal. The user may be notified of the identification information when purchasing the stuffed animal 50. As an example, the stuffed animal 50 may have a tag attached thereto, on which the identification information is written.

(1-6.処理の流れ)
以下、図6~図11を参照して、端末装置10の処理の流れの一例を説明する。まず、図6を参照し、端末装置10の処理の全体像を説明する。
(1-6. Processing flow)
An example of the flow of processing by the terminal device 10 will be described below with reference to Figures 6 to 11. First, an overall view of the processing by the terminal device 10 will be described with reference to Figure 6.

ステップS100において、端末装置10の制御部200において、識別情報受付部204は、ぬいぐるみ50の識別情報を受け付ける。具体的には、例えば、ユーザが端末装置10のタッチセンシティブデバイス131を操作することにより、入力された識別情報を識別情報受付部204が受け付ける仕様としてもよい。 In step S100, in the control unit 200 of the terminal device 10, the identification information receiving unit 204 receives the identification information of the stuffed toy 50. Specifically, for example, the user may operate the touch-sensitive device 131 of the terminal device 10 to input the identification information, and the identification information receiving unit 204 may receive the input identification information.

ステップS200において、撮像データ取得部205は、ぬいぐるみ50の撮像データを取得する。当該撮像データは、動画および静止画を含む。具体的には、例えば、撮像データ取得部205は、ユーザの操作により撮像部160が撮像したぬいぐるみ50の撮像データを取得する。 In step S200, the imaging data acquisition unit 205 acquires imaging data of the stuffed toy 50. The imaging data includes moving images and still images. Specifically, for example, the imaging data acquisition unit 205 acquires imaging data of the stuffed toy 50 captured by the imaging unit 160 in response to a user operation.

ステップS300において、演出画像生成処理が実行される。演出画像生成処理では、撮像データ取得部205が取得した撮像データにおけるぬいぐるみ50の態様に、当該ぬいぐるみ50の識別情報に対応した加工を施した画像データが生成される。演出画像生成処理(S300)の詳細は後述する。 In step S300, a performance image generation process is executed. In the performance image generation process, image data is generated in which the state of the stuffed toy 50 in the imaging data acquired by the imaging data acquisition unit 205 is processed according to the identification information of the stuffed toy 50. The performance image generation process (S300) will be described in detail later.

ステップS400において、表示制御部203は、演出画像生成処理(S300)で生成された画像データを、ディスプレイ141に表示することにより、ユーザに提示する。 In step S400, the display control unit 203 presents the image data generated in the performance image generation process (S300) to the user by displaying it on the display 141.

次に、図7~図13を参照して、演出画像生成処理(S300)について説明する。図7に示すように、演出画像生成処理(S300)では、ステップS310~ステップS340が実行される。 Next, the effect image generation process (S300) will be described with reference to Figures 7 to 13. As shown in Figure 7, in the effect image generation process (S300), steps S310 to S340 are executed.

ステップS310において、撮像データ解析部206は、撮像データ取得部205が取得したぬいぐるみ50の撮像データを解析する。一例として、撮像データ解析部206は、撮像データに対して画像認識処理を行うことにより解析する。撮像データ解析部206は、ぬいぐるみ50の撮像データを解析することにより、当該撮像データにぬいぐるみ50と共に映っている人物、物、建物、風景などを特定する。 In step S310, the imaging data analysis unit 206 analyzes the imaging data of the stuffed toy 50 acquired by the imaging data acquisition unit 205. As an example, the imaging data analysis unit 206 analyzes the imaging data by performing image recognition processing on the imaging data. By analyzing the imaging data of the stuffed toy 50, the imaging data analysis unit 206 identifies people, objects, buildings, scenery, etc. that appear together with the stuffed toy 50 in the imaging data.

ステップS320において、画像データ生成部207は、撮像データ取得部205が取得したぬいぐるみ50に対応付けられたイベントを取得する。具体的には例えば、画像データ生成部207は、イベント対応データベース185を参照して、識別情報受付部204が受け付けた識別情報を項目「ぬいぐるみ」に含む1つまたは複数のレコードを取得する。 In step S320, the image data generating unit 207 acquires an event associated with the stuffed toy 50 acquired by the imaging data acquiring unit 205. Specifically, for example, the image data generating unit 207 refers to the event corresponding database 185 and acquires one or more records that include the identification information accepted by the identification information accepting unit 204 in the item "stuffed toy".

画像データ生成部207は、イベント演出データベース184を参照して、取得したイベント対応データベース185のレコードにおけるイベント演出を、項目「イベント演出ID」に含む1つまたは複数のレコードを取得する。画像データ生成部207は、取得したイベント演出データベース184における項目「条件イベント」を取得する。 The image data generation unit 207 references the event performance database 184 to acquire one or more records that include an event performance in the acquired record of the event correspondence database 185 in the item "event performance ID." The image data generation unit 207 acquires the item "condition event" in the acquired event performance database 184.

ステップS330において、イベント判定処理が実行される。一例として、図8に示すように、イベント判定処理(S330)では、ステップS331~ステップS336が実行される。なお、図8では、ステップS320において、条件イベントA~条件イベントDの4つの条件イベントが取得された例を示すが、この態様に限定されることはない。すなわち、イベント判定処理(S330)において判定される条件イベントの数および内容は、イベント演出データベース184およびイベント対応データベース185に記憶されたレコードにより適宜変更される。 In step S330, an event determination process is executed. As an example, as shown in FIG. 8, in the event determination process (S330), steps S331 to S336 are executed. Note that FIG. 8 shows an example in which four condition events, condition event A to condition event D, are acquired in step S320, but this is not limiting. In other words, the number and contents of the condition events determined in the event determination process (S330) are changed as appropriate depending on the records stored in the event production database 184 and the event correspondence database 185.

ステップS331において、画像データ生成部207は、撮像データ取得部205が取得した撮像データにおいて条件イベントAが発生しているか否か、すなわち、ぬいぐるみ50の撮像データに当該ぬいぐるみ50の登録ユーザが映っているか否かを判定する。 In step S331, the image data generating unit 207 determines whether or not condition event A has occurred in the imaging data acquired by the imaging data acquiring unit 205, i.e., whether or not the registered user of the stuffed toy 50 is shown in the imaging data of the stuffed toy 50.

具体的な処理としては、画像データ生成部207は、ぬいぐるみデータベース182を参照して、識別情報受付部204によって取得された識別情報が項目「ぬいぐるみID」に一致するレコードを取得する。本実施形態では、ぬいぐるみデータベース182における項目「ぬいぐるみID」は主キーであるため、1つのレコードが特定されて取得される。 In specific processing, the image data generation unit 207 refers to the stuffed toy database 182 to obtain a record in which the identification information obtained by the identification information receiving unit 204 matches the item "Plush toy ID." In this embodiment, since the item "Plush toy ID" in the stuffed toy database 182 is the primary key, one record is identified and obtained.

画像データ生成部207は、取得したぬいぐるみデータベース182のレコードにおける項目「登録ユーザ」を取得する。画像データ生成部207は、ユーザデータベース181を参照し、取得した登録ユーザが項目「ユーザID」に一致するレコードを取得する。本実施形態では、ユーザデータベース181における項目「ユーザID」は主キーであるため、かつぬいぐるみデータベース182における外部キーであるため、1つのレコードが特定されて取得される。画像データ生成部207は、取得したユーザデータベース181のレコードにおける項目「登録画像」を取得する。 The image data generation unit 207 acquires the item "Registered User" in the acquired record of the stuffed toy database 182. The image data generation unit 207 references the user database 181 and acquires a record whose acquired registered user matches the item "User ID". In this embodiment, since the item "User ID" in the user database 181 is the primary key and also an external key in the stuffed toy database 182, one record is identified and acquired. The image data generation unit 207 acquires the item "Registered Image" in the acquired record of the user database 181.

画像データ生成部207は、取得した登録画像と、撮像データ解析部206の解析結果とに基づいて、撮像データ取得部205が取得した撮像データに、ぬいぐるみ50の登録ユーザが映っているか否かを判定する。撮像データにぬいぐるみ50の登録ユーザが映っていると判定した場合(S331においてYES)、ステップS336が行われる。一方、撮像データにぬいぐるみ50の登録ユーザが映っていないと判定した場合(S331においてNO)、ステップS332が行われる。 The image data generating unit 207 determines whether or not the registered user of the stuffed toy 50 is shown in the imaging data acquired by the imaging data acquiring unit 205 based on the acquired registered image and the analysis result of the imaging data analyzing unit 206. If it is determined that the registered user of the stuffed toy 50 is shown in the imaging data (YES in S331), step S336 is performed. On the other hand, if it is determined that the registered user of the stuffed toy 50 is not shown in the imaging data (NO in S331), step S332 is performed.

ステップS332において、画像データ生成部207は、撮像データ取得部205が取得した撮像データにおいて条件イベントBが発生しているか否か、すなわち、ぬいぐるみ50を撮像した撮像データに、特定の食べ物が映っているか否かを判定する。 In step S332, the image data generating unit 207 determines whether or not condition event B has occurred in the imaging data acquired by the imaging data acquiring unit 205, i.e., whether or not a specific food is captured in the imaging data capturing the stuffed toy 50.

具体的な処理としては、画像データ生成部207は、撮像データ解析部206の解析結果に基づいて、撮像データ取得部205が取得した撮像データに特定の食べ物が映っているか否かを判定する。撮像データに特定の食べ物が映っていると判定した場合(S332においてYES)、ステップS336が行われる。一方、撮像データに特定の食べ物が映っていないと判定した場合(S332においてNO)、ステップS333が行われる。 Specifically, the image data generating unit 207 determines whether or not a specific food is captured in the imaging data acquired by the imaging data acquiring unit 205 based on the analysis result of the imaging data analyzing unit 206. If it is determined that a specific food is captured in the imaging data (YES in S332), step S336 is performed. On the other hand, if it is determined that a specific food is not captured in the imaging data (NO in S332), step S333 is performed.

ステップS333において、画像データ生成部207は、撮像データ取得部205が取得した撮像データにおいて条件イベントCが発生しているか否か、すなわち、ぬいぐるみ50を撮像した撮像データに、環境情報を示す物が映っているか否かを判定する。 In step S333, the image data generating unit 207 determines whether or not condition event C has occurred in the imaging data acquired by the imaging data acquiring unit 205, i.e., whether or not an object indicating environmental information is captured in the imaging data capturing the stuffed toy 50.

具体的な処理としては、画像データ生成部207は、撮像データ解析部206の解析結果に基づいて、撮像データ取得部205が取得した撮像データに環境情報を示す物が映っているか否かを判定する。撮像データに環境情報を示す物が映っていると判定した場合(S333においてYES)、ステップS336が行われる。一方、撮像データに環境情報を示す物が映っていないと判定した場合(S333においてNO)、ステップS334が行われる。 Specifically, the image data generating unit 207 determines whether or not an object indicating environmental information is captured in the imaging data acquired by the imaging data acquiring unit 205 based on the analysis result of the imaging data analyzing unit 206. If it is determined that an object indicating environmental information is captured in the imaging data (YES in S333), step S336 is performed. On the other hand, if it is determined that an object indicating environmental information is not captured in the imaging data (NO in S333), step S334 is performed.

ステップS334において、画像データ生成部207は、撮像データ取得部205が取得した撮像データにおいて条件イベントDが発生しているか否か、すなわち、ぬいぐるみ50を撮像した撮像データに、所定の建築物または風景が映っているか否かを判定する。 In step S334, the image data generating unit 207 determines whether or not condition event D has occurred in the imaging data acquired by the imaging data acquiring unit 205, i.e., whether or not a specified building or landscape is captured in the imaging data capturing the stuffed toy 50.

具体的な処理としては、画像データ生成部207は、撮像データ解析部206の解析結果に基づいて、撮像データ取得部205が取得した撮像データに所定の建築物または風景が映っているか否かを判定する。撮像データに所定の建築物または風景が映っていると判定した場合(S334においてYES)、ステップS336が行われる。一方、撮像データに所定の建築物または風景が映っていないと判定した場合(S334においてNO)、ステップS335が行われる。 Specifically, the image data generating unit 207 determines whether or not a specific building or landscape is captured in the imaging data acquired by the imaging data acquiring unit 205 based on the analysis result of the imaging data analyzing unit 206. If it is determined that the specific building or landscape is captured in the imaging data (YES in S334), step S336 is performed. On the other hand, if it is determined that the specific building or landscape is not captured in the imaging data (NO in S334), step S335 is performed.

ステップS335において、画像データ生成部207は、撮像データ取得部205が取得した撮像データにおいて、イベント演出データベース184に記憶されている条件イベント(上述の例では条件イベントA~条件イベントD)が発生していないため、イベント演出を適用せず、イベント判定処理(S330)を終了する。 In step S335, the image data generation unit 207 does not apply the event effect because the condition event stored in the event effect database 184 (condition event A to condition event D in the above example) has not occurred in the imaging data acquired by the imaging data acquisition unit 205, and ends the event determination process (S330).

ステップS336において、画像データ生成部207は、イベント演出を適用した画像データを生成する。具体的には、画像データ生成部207は、ステップS331~ステップS334の結果に基づいて、条件イベントA~条件イベントDのうち、発生したと判定された条件イベントに対応するイベント演出を、撮像データ取得部205が取得した撮像データに付加した画像データを生成する。 In step S336, the image data generating unit 207 generates image data to which the event effects have been applied. Specifically, based on the results of steps S331 to S334, the image data generating unit 207 generates image data in which the event effects corresponding to the condition event determined to have occurred among condition events A to D have been added to the imaging data acquired by the imaging data acquiring unit 205.

例えば、ステップS331において条件イベントAが発生したと判定された場合(すなわち、ぬいぐるみ50を撮像した撮像データに、当該ぬいぐるみ50の登録ユーザが映っていると判定された場合)、画像データ生成部207は、登録ユーザとともに映っていることに基づいてぬいぐるみ50の態様を変化させた画像データを生成する。 For example, if it is determined in step S331 that condition event A has occurred (i.e., if it is determined that the image data capturing the stuffed toy 50 shows the registered user of the stuffed toy 50), the image data generating unit 207 generates image data that changes the appearance of the stuffed toy 50 based on the fact that it is captured together with the registered user.

例えば、図1Aに示す例では、ぬいぐるみ50とユーザUがともに映った撮像データが取得される。ここで、ユーザUがぬいぐるみ50の登録ユーザである場合に、画像データ生成部207は条件イベントAが発生したと判定して(S331)、ぬいぐるみ50の態様を変化させた画像データを生成する。具体的には例えば、図1Bに示すように、ぬいぐるみ50が前肢56を挙げてユーザUに対してあいさつをしているような画像を生成してもよい。また、ぬいぐるみ50の表情に対しても加工を施して、登録ユーザが傍にいることを喜んでいるような表情の画像データを生成してもよい。 For example, in the example shown in FIG. 1A, imaging data is acquired that shows both the stuffed toy 50 and the user U. Here, if the user U is a registered user of the stuffed toy 50, the image data generation unit 207 determines that condition event A has occurred (S331), and generates image data in which the state of the stuffed toy 50 has been changed. Specifically, for example, as shown in FIG. 1B, an image may be generated in which the stuffed toy 50 is greeting the user U with its front legs 56 raised. In addition, the facial expression of the stuffed toy 50 may also be processed to generate image data in which the stuffed toy 50 appears happy to have the registered user nearby.

また、例えば、ステップS332において条件イベントBが発生したと判定された場合(すなわち、ぬいぐるみ50を撮像した撮像データに、特定の食べ物が映っていると判定された場合)、画像データ生成部207は、特定の食べ物が映っていることに基づいてぬいぐるみ50の態様を変化させた画像データを生成する。 Also, for example, if it is determined in step S332 that condition event B has occurred (i.e., if it is determined that a specific food is shown in the image data capturing the stuffed toy 50), the image data generating unit 207 generates image data that changes the appearance of the stuffed toy 50 based on the fact that a specific food is shown.

例えば、図9Aに示す例では、ぬいぐるみ50とアイスクリームPがともに映った撮像データが取得される。ここで、条件イベントBにおける特定の食べ物がアイスクリームである場合に、画像データ生成部207は条件イベントBが発生したと判定して(S332)、ぬいぐるみ50の態様を変化させた画像データを生成する。具体的には例えば、図9Bに示すように、ぬいぐるみ50が尻尾58を動かして喜んでいるような画像を生成してもよい。また、ぬいぐるみ50の表情に対しても加工を施して、好きな食べ物であるアイスクリーが傍にあることを喜んでいるような表情の画像データを生成してもよい。 For example, in the example shown in FIG. 9A, imaging data is acquired that shows both the stuffed animal 50 and ice cream P. Here, if the specific food in condition event B is ice cream, the image data generation unit 207 determines that condition event B has occurred (S332), and generates image data in which the appearance of the stuffed animal 50 has been changed. Specifically, for example, as shown in FIG. 9B, an image may be generated in which the stuffed animal 50 appears happy by moving its tail 58. In addition, the facial expression of the stuffed animal 50 may also be processed to generate image data in which the stuffed animal appears happy to have ice cream, its favorite food, nearby.

また、例えば、ステップS333において条件イベントCが発生したと判定された場合(すなわち、ぬいぐるみ50を撮像した撮像データに、環境情報を示す物が映っていると判定された場合)、画像データ生成部207は、当該環境情報に基づいてぬいぐるみ50の態様を変化させた画像データを生成する。 Also, for example, if it is determined in step S333 that condition event C has occurred (i.e., if it is determined that an object indicating environmental information is captured in the image data of the stuffed toy 50), the image data generating unit 207 generates image data that changes the state of the stuffed toy 50 based on the environmental information.

例えば、図10Aに示す例では、ぬいぐるみ50と温度計Qがともに映った撮像データが取得される。ここで、条件イベントCにおける環境情報(この例では温度)を示す物が温度計である場合に、画像データ生成部207は条件イベントCが発生したと判定して(S333)、ぬいぐるみ50の態様を変化させた画像データを生成する。具体的には例えば、図10Bに示すように、ぬいぐるみ50が環境情報である温度が非常に高いために夏バテしているような様子の画像を生成してもよい。また、ぬいぐるみ50の表情に対しても加工を施して、辛そうな表情の画像データを生成してもよい。 For example, in the example shown in FIG. 10A, imaging data is acquired that shows both the stuffed toy 50 and a thermometer Q. Here, if the object showing the environmental information in condition event C (temperature in this example) is a thermometer, the image data generating unit 207 determines that condition event C has occurred (S333), and generates image data in which the state of the stuffed toy 50 has been changed. Specifically, for example, as shown in FIG. 10B, an image may be generated in which the stuffed toy 50 appears to be suffering from summer fatigue due to the extremely high temperature, which is the environmental information. In addition, the facial expression of the stuffed toy 50 may also be processed to generate image data showing a painful facial expression.

また、例えば、ステップS334において条件イベントDが発生したと判定された場合(すなわち、ぬいぐるみ50を撮像した撮像データに、所定の建築物または風景が映っていると判定された場合)、画像データ生成部207は、当該建築物または風景に基づいてぬいぐるみ50の態様を変化させた画像データを生成する。 Also, for example, if it is determined in step S334 that condition event D has occurred (i.e., if it is determined that a specific building or landscape is shown in the image data capturing the stuffed toy 50), the image data generating unit 207 generates image data that changes the appearance of the stuffed toy 50 based on the building or landscape.

例えば、図11Aに示す例では、ぬいぐるみ50と寺院Rがともに映った撮像データが取得される。ここで、条件イベントDにおける建築物を示すものが寺院Rである場合に、画像データ生成部207は条件イベントDが発生したと判定して(S334)、ぬいぐるみ50の態様を変化させた画像データを生成する。具体的には例えば、図11Bに示すように、ぬいぐるみ50が寺院Rに合わせて着物を着ているような画像を生成してもよい。また、ぬいぐるみ50の表情に対しても加工を施して、着物を着ていることを喜んでいるような表情の画像データを生成してもよい。 For example, in the example shown in FIG. 11A, imaging data is acquired that shows both the stuffed toy 50 and temple R. Here, if the building representing condition event D is temple R, the image data generation unit 207 determines that condition event D has occurred (S334), and generates image data in which the appearance of the stuffed toy 50 has been changed. Specifically, for example, as shown in FIG. 11B, an image may be generated in which the stuffed toy 50 is wearing a kimono to match temple R. In addition, the facial expression of the stuffed toy 50 may also be processed to generate image data in which the stuffed toy 50 appears happy to be wearing a kimono.

以上のように図8に示すイベント判定処理(S330)が終了すると、図7におけるステップS340が実行される。ステップS340において、画像データ生成部207は、しぐさ演出を付加した画像データを生成する。画像データ生成部207は、イベント判定処理(S330)においてイベント演出を適用した画像データを生成した場合には、当該画像データに対してしぐさ演出を付加した画像データを生成する。また、画像データ生成部207は、イベント判定処理(S330)においてイベント演出を適用した画像データを生成しなかった場合には、撮像データ取得部205が取得した撮像データに対してしぐさ演出を付加した画像データを生成する。 When the event determination process (S330) shown in FIG. 8 is completed as described above, step S340 in FIG. 7 is executed. In step S340, the image data generation unit 207 generates image data to which a gesture effect has been added. If the image data generation unit 207 has generated image data to which an event effect has been applied in the event determination process (S330), the image data generation unit 207 generates image data to which a gesture effect has been added to the image data. If the image data generation unit 207 has not generated image data to which an event effect has been applied in the event determination process (S330), the image data generation unit 207 generates image data to which a gesture effect has been added to the imaging data acquired by the imaging data acquisition unit 205.

具体的な処理としては、画像データ生成部207は、ぬいぐるみデータベース182を参照して、識別情報受付部204によって取得された識別情報が項目「ぬいぐるみID」に一致するレコードを取得する。本実施形態では、ぬいぐるみデータベース182における項目「ぬいぐるみID」は主キーであるため、1つのレコードが特定されて取得される。 In specific processing, the image data generation unit 207 refers to the stuffed toy database 182 to obtain a record in which the identification information obtained by the identification information receiving unit 204 matches the item "Plush toy ID." In this embodiment, since the item "Plush toy ID" in the stuffed toy database 182 is the primary key, one record is identified and obtained.

画像データ生成部207は、取得したぬいぐるみデータベース182のレコードにおける項目「性格」を取得する。画像データ生成部207は、性格データベース183を参照し、取得した性格が項目「性格ID」に一致するレコードを取得する。本実施形態では、性格データベース183における項目「性格ID」は主キーであるため、1つのレコードが特定されて取得される。画像データ生成部207は、取得した性格データベース183のレコードにおける項目「しぐさ演出」を取得する。 The image data generation unit 207 acquires the "personality" item in the acquired record of the stuffed animal database 182. The image data generation unit 207 references the personality database 183 and acquires a record in which the acquired personality matches the "personality ID" item. In this embodiment, the "personality ID" item in the personality database 183 is the primary key, so one record is identified and acquired. The image data generation unit 207 acquires the "gesture performance" item in the acquired record of the personality database 183.

画像データ生成部207は、取得した項目「しぐさ演出」の内容に基づいて、ぬいぐるみ50のしぐさについての画像を生成する。画像データ生成部207は、撮像データ取得部205が取得した撮像データ、または、イベント演出を適用した画像データに、生成したしぐさについての画像を付加する。なお、本実施形態では、画像データ生成部207は、しぐさ演出を生成するにあたり、撮像データ取得部205が取得した撮像データにおけるぬいぐるみ50に基づいて、しぐさ演出を付加した画像を生成する。このような仕様とすることにより、ぬいぐるみ50の個体差を表現することが可能となっている。 The image data generating unit 207 generates an image of the gesture of the stuffed animal 50 based on the content of the acquired item "gesture effect". The image data generating unit 207 adds an image of the generated gesture to the imaging data acquired by the imaging data acquiring unit 205 or image data to which the event effect has been applied. Note that in this embodiment, when generating the gesture effect, the image data generating unit 207 generates an image to which a gesture effect has been added based on the stuffed animal 50 in the imaging data acquired by the imaging data acquiring unit 205. By adopting such specifications, it is possible to express the individual differences of the stuffed animal 50.

図12を参照して、ぬいぐるみ50の個体差について説明する。図12Aに示すぬいぐるみ50Aに対して、図12Bに示すぬいぐるみ50Bは、目53および耳55の形状に若干の違いがある。また、ぬいぐるみ50Bは、経年劣化などによる汚れ61およびほころび62が見受けられる。このように、ぬいぐるみは手作りで成形されるケースも多く、同じ種類のぬいぐるみであっても全くの同一外観ではなくそもそもの形状などに違いがあると同時に、経年劣化なども発生するため個体差が顕著に現れる場合もある。 With reference to Figure 12, individual differences in stuffed toy 50 will be described. Compared to stuffed toy 50A shown in Figure 12A, stuffed toy 50B shown in Figure 12B has slight differences in the shape of eyes 53 and ears 55. Stuffed toy 50B also has stains 61 and tears 62 due to deterioration over time. As such, stuffed toy are often made by hand, and even stuffed toy of the same type do not have exactly the same appearance, and there are differences in the shape to begin with, and individual differences may be noticeable due to deterioration over time, etc.

図13Aに示す例では、端末装置10は、ぬいぐるみ50Aおよびぬいぐるみ50Bがともに映った撮像データを撮像している。この場合において、端末装置10の画像データ生成部207は、ぬいぐるみ50Aがぬいぐるみ50Bに対して、話しかけている画像を生成する。この場合、例えば条件イベントおよびイベント演出としては、同じ種類のぬいぐるみ(外観が略同一のぬいぐるみ)が複数映っている場合に、相互にコミュニケーションをとるための行動を行うこととしてもよい。 In the example shown in FIG. 13A, the terminal device 10 captures image data showing both stuffed animal 50A and stuffed animal 50B. In this case, the image data generating unit 207 of the terminal device 10 generates an image in which stuffed animal 50A is talking to stuffed animal 50B. In this case, for example, the condition event and event production may be such that when multiple stuffed animals of the same type (stuffed animals with roughly the same appearance) are shown, they perform an action to communicate with each other.

なお、図13Aに示すように、端末装置10によって同じ種類のぬいぐるみが複数撮像された場合には、それぞれのぬいぐるみに対する識別情報を改めてユーザから指定させる仕様としてもよい。この場合、演出画像生成処理(S300)のステップS310において、撮像データ解析部206が撮像データを解析して、同じ種類のぬいぐるみが画像データ内に複数あるか否かを判定する。同じ種類のぬいぐるみが複数あると判定された場合に、ユーザから、画像内の複数のぬいぐるみの個体それぞれに対応する識別番号の指定を受け付ける仕様としてもよい。 As shown in FIG. 13A, when multiple stuffed toys of the same type are captured by the terminal device 10, the user may be prompted to specify identification information for each of the stuffed toys. In this case, in step S310 of the performance image generation process (S300), the image data analysis unit 206 analyzes the image data to determine whether or not there are multiple stuffed toys of the same type in the image data. If it is determined that there are multiple stuffed toys of the same type, the system may be configured to accept from the user the specification of identification numbers corresponding to each of the multiple stuffed toys in the image.

このように、本実施形態では、ぬいぐるみ50の個体ごとに性格が設定されており、画像データ生成部207は、当該性格に沿って異なる態様を示す画像データを、撮像データにおけるぬいぐるみ50の個体それぞれに基づいて生成する。このような仕様とすることで、ユーザはぬいぐるみ50それぞれの個体差から自身が所有するぬいぐるみの個性を認識することができ、ぬいぐるみに対してより深い愛着を感じることができる。 In this manner, in this embodiment, a personality is set for each individual stuffed animal 50, and the image data generating unit 207 generates image data showing different aspects in accordance with the personality, based on each individual stuffed animal 50 in the image capture data. With this specification, the user can recognize the individuality of the stuffed animal he or she owns from the individual differences of each stuffed animal 50, and can feel a deeper attachment to the stuffed animal.

(1-7.小括)
以上のようにして、本実施形態では、端末装置10は、ぬいぐるみ50の個体を識別するための識別情報を受け付けるステップ(S100)と、ユーザが撮像したぬいぐるみの撮像データを取得するステップ(S200)と、撮像データにおけるぬいぐるみの態様に識別情報に対応した加工を施した画像データを生成するステップ(S300)と、画像データをユーザに提示するステップ(S400)を実行する。このような構成とすることにより、外観が略同一のぬいぐるみが複数存在する空間であっても、識別情報に対応してディスプレイ上では異なる挙動を示すため、自身が所有するぬいぐるみにより深い愛着を沸かせることができ、ぬい撮りにおけるユーザ体験を向上させることができる。
(1-7. Summary)
As described above, in this embodiment, the terminal device 10 executes the steps of accepting identification information for identifying an individual stuffed toy 50 (S100), acquiring image data of the stuffed toy captured by the user (S200), generating image data in which the state of the stuffed toy in the image data is processed according to the identification information (S300), and presenting the image data to the user (S400). With this configuration, even in a space where multiple stuffed toys with approximately the same appearance exist, they behave differently on the display according to the identification information, so that the user can feel a deeper attachment to the stuffed toy that he or she owns, and the user experience when taking pictures of stuffed toys can be improved.

また、画像データを生成するステップ(S300)では、画像データ生成部207は、ぬいぐるみ50の個体ごとに異なる態様を示す画像データを生成する。一例として、画像データを生成するステップ(S300)では、個体ごとに設定された性格に沿った態様を示す画像データを生成する。このような仕様とすることで、ユーザは、自身が所有するぬいぐるみ50の個性を認識することができ、ぬいぐるみに対してより深い愛着を感じることができ、ぬい撮りにおけるユーザ体験を向上させることができる。 In addition, in the step of generating image data (S300), the image data generating unit 207 generates image data showing different aspects for each individual stuffed animal 50. As an example, in the step of generating image data (S300), image data showing aspects that correspond to the personality set for each individual stuffed animal is generated. With this specification, the user can recognize the individuality of the stuffed animal 50 that he or she owns, and can feel a deeper attachment to the stuffed animal, improving the user experience when taking pictures of stuffed animals.

また、画像を生成するステップ(S300)では、画像データ生成部207は、ぬいぐるみ50の識別情報と、撮像データに含まれる画像に関する情報の組み合わせに基づいて、ぬいぐるみ50の態様を変化させた画像データを生成する。具体的には、画像データ生成部207は、ぬいぐるみ50の識別情報と、撮像データの画像においてぬいぐるみ50とともに映っている人物に関する情報の組み合わせに基づいて、ぬいぐるみの態様を変化させた画像データを生成してもよい。 In addition, in the step of generating an image (S300), the image data generating unit 207 generates image data in which the state of the stuffed toy 50 is changed based on a combination of the identification information of the stuffed toy 50 and information about the image included in the imaging data. Specifically, the image data generating unit 207 may generate image data in which the state of the stuffed toy is changed based on a combination of the identification information of the stuffed toy 50 and information about a person who appears with the stuffed toy 50 in the image of the imaging data.

また、画像データ生成部207は、ぬいぐるみ50の識別情報と、撮像データの画像において画像においてぬいぐるみ50とともに映っている物に関する情報の組み合わせに基づいて、ぬいぐるみ50の態様を変化させた画像データを生成してもよい。また、画像データ生成部207は、撮像データの画像にぬいぐるみ50が配置されている場所における環境情報を示す物が含まれている場合に、ぬいぐるみ50の識別情報と、当該環境情報の組み合わせに基づいて、ぬいぐるみ50の態様を変化させた画像データを生成してもよい。 The image data generating unit 207 may generate image data in which the state of the stuffed toy 50 is changed based on a combination of the identification information of the stuffed toy 50 and information on an object that appears together with the stuffed toy 50 in the image of the imaging data. The image data generating unit 207 may generate image data in which the state of the stuffed toy 50 is changed based on a combination of the identification information of the stuffed toy 50 and the environmental information when an object that indicates environmental information in the location where the stuffed toy 50 is placed is included in the image of the imaging data.

このようにすることで、様々な状況で取得される撮像データに対して、それぞれの状況に合わせてぬいぐるみ50の態様に加工を施した画像データを生成してユーザに提示することができ、ユーザ体験を向上させるとともに、自身が所有するぬいぐるみとのぬい撮りを様々な場所および状況で行おうという動機付けをユーザに与えることができる。 In this way, image data can be generated from imaging data acquired in various situations, with the appearance of the stuffed toy 50 processed to suit each situation, and the image data can be presented to the user, improving the user experience and motivating the user to take stuffed toy photos in various places and situations.

<2.第2実施形態>
以下、図14~図16を参照し、本開示の第2実施形態におけるシステム1を説明する。以下、上記実施形態との相違点を中心に説明する。
<2. Second embodiment>
A system 1 according to a second embodiment of the present disclosure will be described below with reference to Figures 14 to 16. The following description will focus on differences from the above embodiment.

(2-1.システム1のハードウェア構成)
図14は、システム1のハードウェア構成の例を示すブロック図である。システム1は、複数の端末装置10と、サーバ20とを含む。端末装置10、及びサーバ20は、例えば、ネットワーク30を介して通信接続する。ネットワーク30は、例えば、インターネット、及び/又は通信事業者が提供する通信網等により実現される。なお、図14において、システム1が端末装置10を2台含む例を示しているが、システム1に含まれる端末装置10の数は2台に限定されない。すなわち、端末装置10は2台未満であってもよいし、3台以上であってもよい。
(2-1. Hardware configuration of system 1)
FIG. 14 is a block diagram showing an example of a hardware configuration of the system 1. The system 1 includes a plurality of terminal devices 10 and a server 20. The terminal devices 10 and the server 20 are communicatively connected via, for example, a network 30. The network 30 is realized by, for example, the Internet and/or a communication network provided by a telecommunications carrier. Note that, while FIG. 14 shows an example in which the system 1 includes two terminal devices 10, the number of terminal devices 10 included in the system 1 is not limited to two. In other words, the number of terminal devices 10 may be less than two, or may be three or more.

本実施形態において、複数の装置の集合体を1つのサーバとしてもよい。1つ又は複数のハードウェアに対して本実施形態に係るサーバ20を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又はサーバ20に求められる仕様等に鑑みて適宜決定することができる。 In this embodiment, a collection of multiple devices may be considered as one server. The method of allocating multiple functions required to realize the server 20 of this embodiment to one or more pieces of hardware can be determined appropriately in consideration of the processing capacity of each piece of hardware and/or the specifications required for the server 20.

端末装置10は、通信IF12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ19とを備える。これらの構成は上記実施形態と同様であるため、説明は繰り返さない。 The terminal device 10 includes a communication IF 12, an input device 13, an output device 14, a memory 15, a storage 16, and a processor 19. These configurations are similar to those in the above embodiment, so the description will not be repeated.

サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。 The server 20 includes a communication IF 22, an input/output IF 23, a memory 25, a storage 26, and a processor 29.

通信IF22は、サーバ20が外部の装置(例えば端末装置10)と通信するため、信号を入出力するためのインタフェースである。 The communication IF 22 is an interface for inputting and outputting signals so that the server 20 can communicate with an external device (e.g., the terminal device 10).

入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し、情報を提示するための出力装置とのインタフェースとして機能する。 The input/output IF 23 functions as an interface between an input device for accepting input operations from the user and an output device for presenting information to the user.

メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM等の揮発性のメモリである。 Memory 25 is for temporarily storing programs and data processed by the programs, and is, for example, a volatile memory such as a DRAM.

ストレージ26は、データを保存するためのものであり、例えばフラッシュメモリ、HDDである。 Storage 26 is for storing data, and is, for example, a flash memory or a HDD.

プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The processor 29 is hardware for executing the instruction set described in the program, and is composed of an arithmetic unit, registers, peripheral circuits, etc.

(2-2.サーバ20の機能構成)
図15は、サーバ20の機能的な構成を示す図である。図15に示すように、サーバ20は、通信部210と、記憶部220と、制御部230としての機能を発揮する。
(2-2. Functional configuration of server 20)
Fig. 15 is a diagram showing the functional configuration of the server 20. As shown in Fig. 15, the server 20 fulfills the functions of a communication unit 210, a storage unit 220, and a control unit 230.

通信部210は、サーバ20が外部の装置と通信するための処理を行う。 The communication unit 210 performs processing for the server 20 to communicate with external devices.

記憶部220は、例えば、メモリ25、及びストレージ26等により実現され、サーバ20が使用するデータ、及びプログラムを記憶する。記憶部220は、第1実施形態における端末装置10の記憶部180と同様に、ユーザデータベース221と、ぬいぐるみデータベース222と、性格データベース223と、イベント演出データベース224と、イベント対応データベース225を記憶する。これらのデータベースは第1実施形態と同様に構成できるため、説明は繰り返さない。 The storage unit 220 is realized by, for example, the memory 25 and storage 26, and stores data and programs used by the server 20. Similar to the storage unit 180 of the terminal device 10 in the first embodiment, the storage unit 220 stores a user database 221, a stuffed animal database 222, a personality database 223, an event production database 224, and an event correspondence database 225. These databases can be configured in the same way as in the first embodiment, so the description will not be repeated.

制御部230は、プロセッサ29が記憶部220に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部230は、プログラムに従って動作することにより、送受信モジュール231、撮像データ解析モジュール232、画像データ生成モジュール233として示す機能を発揮する。 The control unit 230 is realized by the processor 29 reading a program stored in the storage unit 220 and executing instructions contained in the program. The control unit 230 performs functions shown as a transmission/reception module 231, an imaging data analysis module 232, and an image data generation module 233 by operating according to the program.

送受信モジュール231は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送受信する処理を制御する。 The transmission/reception module 231 controls the process in which the server 20 transmits and receives signals to and from external devices according to a communication protocol.

撮像データ解析モジュール232は、第1実施形態における撮像データ解析部206と同様に、撮像データ取得部205が取得した撮像データの解析を行う。 The imaging data analysis module 232 analyzes the imaging data acquired by the imaging data acquisition unit 205, similar to the imaging data analysis unit 206 in the first embodiment.

画像データ生成モジュール233は、第1実施形態における画像データ生成部207と同様に、撮像データ解析部206の解析結果に基づいて、撮像データにおけるぬいぐるみ50の態様に、識別情報に対応した加工を施した画像データを生成する。このように、第2実施形態では、第1実施形態の端末装置10が備える機能の一部をサーバ20が実行することにより、本機能を実現する。 The image data generation module 233, like the image data generation unit 207 in the first embodiment, generates image data in which processing has been applied to the state of the stuffed toy 50 in the image data corresponding to the identification information, based on the analysis results of the image data analysis unit 206. In this way, in the second embodiment, this function is realized by the server 20 executing some of the functions provided in the terminal device 10 in the first embodiment.

(2-3.処理の流れ)
図16を参照して、第2実施形態における処理の流れを説明する。なお、第1実施形態と同様の処理については説明を繰り返さない。
(2-3. Processing flow)
The flow of processing in the second embodiment will be described with reference to Fig. 16. Note that processing similar to that in the first embodiment will not be described repeatedly.

ステップS100において、端末装置10の識別情報受付部204は、ぬいぐるみ50の識別情報を受け付ける。ステップS200において、撮像データ取得部205は、ぬいぐるみ50の撮像データを取得する。 In step S100, the identification information receiving unit 204 of the terminal device 10 receives the identification information of the stuffed toy 50. In step S200, the image data acquiring unit 205 acquires the image data of the stuffed toy 50.

ステップS230において、端末装置10の送受信部202は、識別情報受付部204が受け付けたぬいぐるみ50の識別情報と、撮像データ取得部205が取得したぬいぐるみ50の撮像データをサーバ20へ送信する。ステップS260において、サーバ20の送受信モジュール231は、ぬいぐるみ50の識別情報と撮像データを受信する。 In step S230, the transmission/reception unit 202 of the terminal device 10 transmits to the server 20 the identification information of the stuffed toy 50 accepted by the identification information acceptance unit 204 and the image data of the stuffed toy 50 acquired by the image data acquisition unit 205. In step S260, the transmission/reception module 231 of the server 20 receives the identification information and image data of the stuffed toy 50.

ステップS300において、撮像データ解析モジュール232および画像データ生成モジュール233は、演出画像生成処理を実行する。演出画像生成処理(S300)では、第1実施形態と同様に、撮像データ取得部205が取得した撮像データにおけるぬいぐるみ50の態様に、当該ぬいぐるみ50の識別情報に対応した加工を施した画像データが生成される。 In step S300, the imaging data analysis module 232 and the image data generation module 233 execute a performance image generation process. In the performance image generation process (S300), similar to the first embodiment, image data is generated in which the state of the stuffed toy 50 in the imaging data acquired by the imaging data acquisition unit 205 is processed according to the identification information of the stuffed toy 50.

ステップS330において、サーバ20の送受信モジュール231は、画像データ生成モジュール233が生成した画像を端末装置10へ送信する。ステップS360において、端末装置10の送受信部202は、画像データ生成モジュール233が生成した画像を受信する。 In step S330, the transmission/reception module 231 of the server 20 transmits the image generated by the image data generation module 233 to the terminal device 10. In step S360, the transmission/reception unit 202 of the terminal device 10 receives the image generated by the image data generation module 233.

ステップS400において、端末装置10の表示制御部203は、受信した画像データをディスプレイ141に表示することにより、ユーザに提示する。 In step S400, the display control unit 203 of the terminal device 10 displays the received image data on the display 141, thereby presenting it to the user.

以上のようにして、第2実施形態では、システム1は、端末装置10とサーバ20を備える。サーバ20は、端末装置10から受信したぬいぐるみ50の識別情報と撮像データに基づいて画像データを生成し、端末装置10へ送信する。端末装置10は、受信した画像データを表示してユーザに提示する。このような仕様としても、上記実施形態と同様の効果を奏することができる。 As described above, in the second embodiment, the system 1 includes the terminal device 10 and the server 20. The server 20 generates image data based on the identification information and imaging data of the stuffed toy 50 received from the terminal device 10, and transmits the image data to the terminal device 10. The terminal device 10 displays the received image data and presents it to the user. Even with this specification, the same effects as those of the above embodiment can be achieved.

(2-4.変形例)
第2実施形態の変形例として、複数の端末装置10間で通信を行い、当該通信の履歴に基づいて、画像データ生成モジュール233がイベント演出を付加した画像を生成する仕様としてもよい。例えば、複数の端末装置10の記憶部180におけるぬいぐるみデータベース182に、異なる個体のぬいぐるみ50をそれぞれ登録する。複数の端末装置10が通信を行うごとに、記憶部180に登録されたぬいぐるみ50に関する所定のデータを送受信させる。
(2-4. Modified Examples)
As a modified example of the second embodiment, a specification may be adopted in which communication is performed between a plurality of terminal devices 10, and the image data generation module 233 generates an image to which an event effect is added based on the history of the communication. For example, different individual stuffed toys 50 are registered in the stuffed toy database 182 in the storage unit 180 of the plurality of terminal devices 10. Each time the plurality of terminal devices 10 communicate with each other, predetermined data related to the stuffed toy 50 registered in the storage unit 180 is transmitted and received.

より具体的には、例えば、端末装置10Aにぬいぐるみ50Aが対応づけられて登録されており、端末装置10Bにぬいぐるみ50Bが対応付けられて登録されている場合において、端末装置10と端末装置10Bが通信を行い、ぬいぐるみ50Aとぬいぐるみ50Bに関する所定のデータの通信を行うことでぬいぐるみ50Aとぬいぐるみ50Bの関連付けを行い、当該関連付けが行われた通信の履歴をサーバ20の記憶部220に記憶させる仕様としてもよい。そして、イベント演出データベース224の項目「条件イベント」において、端末装置10Aと端末装置10Bによる当該通信の履歴に基づく条件イベントを設定してもよい。 More specifically, for example, in the case where a stuffed toy 50A is associated with and registered on terminal device 10A, and a stuffed toy 50B is associated with and registered on terminal device 10B, terminal device 10 and terminal device 10B may communicate with each other to associate stuffed toy 50A with stuffed toy 50B by communicating predetermined data related to stuffed toy 50A and stuffed toy 50B, and the history of the communication in which the association was made may be stored in storage unit 220 of server 20. Then, in the item "condition event" of event production database 224, a condition event based on the history of the communication between terminal device 10A and terminal device 10B may be set.

一例として、ぬいぐるみ50Aとぬいぐるみ50Bが所定の距離内にいる場合に端末装置10Aと端末装置10Aで相互に通信(以下、近接通信という)を行うことで関連付けを行い、近接通信の履歴をサーバ20の記憶部220に記憶させる仕様としてもよい。この場合、画像データ生成モジュール233は、条件イベントとして当該近接通信の回数が所定の回数を超えた場合に、ぬいぐるみ50Aまたはぬいぐるみ50Bのすくなくとも一方の態様を(例えば、親密度が高まったようなそぶりを見せるように)変化させる画像データを生成してもよい。また、近接記録の回数が所定の回数を超えた場合には、端末装置10Aを用いて対応づけられていないぬいぐるみ50Bを撮影した場合に、ぬいぐるみ50Bの表情を変化させる(ぬいぐるみ50が端末装置10Aのユーザを知り合いと認識して親しみのある表情になる等)といった仕様としてもよい。 As an example, when the stuffed toy 50A and the stuffed toy 50B are within a predetermined distance, the terminal device 10A and the terminal device 10A may communicate with each other (hereinafter, referred to as near-field communication) to associate them, and the history of the near-field communication may be stored in the storage unit 220 of the server 20. In this case, the image data generation module 233 may generate image data that changes the appearance of at least one of the stuffed toy 50A or the stuffed toy 50B (for example, to show an appearance of increased intimacy) when the number of near-field communications exceeds a predetermined number as a condition event. In addition, when the number of near-field records exceeds a predetermined number, when the terminal device 10A is used to photograph the unassociated stuffed toy 50B, the facial expression of the stuffed toy 50B may be changed (the stuffed toy 50 may recognize the user of the terminal device 10A as an acquaintance and adopt a familiar facial expression, etc.).

なお、上記例における端末装置10間での近接通信は、ネットワーク30を介した無線LAN等で実現してもよく、または、赤外線通信等で実現してもよい。また、上記例では、複数の端末装置10が通信を行う仕様としているが、ぬいぐるみ50が通信IF12、メモリ15、およびプロセッサ19を備え、ぬいぐるみ50同士で通信を行う仕様としてもよい。この場合、複数のぬいぐるみ50が近接通信を行うごとに、ぬいぐるみ50に対応づけられた端末装置10に対して、当該近接通信の履歴がぬいぐるみ50から送信され、端末装置10の記憶部180に記憶される仕様としてもよい。または、ぬいぐるみ50が記憶部を備え、近接通信の履歴が当該記憶部に記憶される仕様としてもよい。 The proximity communication between the terminal devices 10 in the above example may be realized by a wireless LAN via the network 30, or by infrared communication. In the above example, multiple terminal devices 10 communicate with each other, but the stuffed toy 50 may have a communication IF 12, memory 15, and processor 19, and communicate with each other. In this case, each time multiple stuffed toy 50 perform proximity communication, the history of the proximity communication may be transmitted from the stuffed toy 50 to the terminal device 10 associated with the stuffed toy 50, and may be stored in the memory unit 180 of the terminal device 10. Alternatively, the stuffed toy 50 may have a memory unit, and the history of the proximity communication may be stored in the memory unit.

<3.第3実施形態>
以下、図17~図19を参照し、本開示の第3実施形態におけるシステム1を説明する。第3実施形態では、ユーザが撮像したぬいぐるみの撮像データの履歴をサーバ20の記憶部220に記憶させて処理を行う点で上記実施形態と相違する。以下、上記実施形態との相違点を中心に説明する。
<3. Third embodiment>
Hereinafter, the system 1 according to the third embodiment of the present disclosure will be described with reference to Figures 17 to 19. The third embodiment differs from the above-described embodiments in that the history of image data of the stuffed toy captured by the user is stored in the storage unit 220 of the server 20 and processed. The following description will focus on the differences from the above-described embodiments.

(3-1.サーバ20の機能構成)
図17に示すように、サーバ20の記憶部220は、上記実施形態で説明したデータベースに加えて、標準画像データベース226と履歴画像データベース227をさらに備える。
(3-1. Functional configuration of server 20)
As shown in FIG. 17, the storage unit 220 of the server 20 further includes a standard image database 226 and a history image database 227 in addition to the databases described in the above embodiment.

標準画像データベース226は、標準画像の情報を記憶するためのデータベースである。標準画像とは、同じ種類のぬいぐるみにおける外観の標準としての画像情報である。標準画像データベース226は、ぬいぐるみの種類ごとに標準画像を記憶する。一例として、標準画像データベース226は、新たな種類のぬいぐるみが提供(例えば販売)されるタイミングで、対応するレコードが生成される仕様としてもよい。標準画像データベース226のデータ構造の詳細は後述する。 The standard image database 226 is a database for storing information on standard images. A standard image is image information that serves as a standard for the appearance of stuffed animals of the same type. The standard image database 226 stores a standard image for each type of stuffed animal. As an example, the standard image database 226 may be configured so that a corresponding record is generated when a new type of stuffed animal is provided (e.g., sold). Details of the data structure of the standard image database 226 will be described later.

履歴画像データベース227は、履歴画像の情報を記憶するためのデータベースである。履歴画像とは、ユーザが端末装置10で撮像(または選択)した画像であって、サーバ20へ送信された画像の履歴情報である。一例として、履歴画像データベース227は、端末装置10から撮像データを受信したタイミングで、当該撮像データに対応するレコードが生成される仕様としてもよい。履歴画像データベース227のデータ構造の詳細は後述する。 The historical image database 227 is a database for storing information on historical images. A historical image is an image that a user has captured (or selected) on the terminal device 10, and is historical information of the image that has been transmitted to the server 20. As an example, the historical image database 227 may be configured such that, at the time that imaging data is received from the terminal device 10, a record corresponding to the imaging data is generated. Details of the data structure of the historical image database 227 will be described later.

(3-2.データ構造)
図18は、記憶部220が記憶するぬいぐるみデータベース222、標準画像データベース226、履歴画像データベース227の一例を示す図である。なお、図18はあくまでも一例であり、記載されていないデータを除外するものではない。また、記憶部220には、ユーザデータベース221等の他のデータベースも含まれるが、上記実施形態と同様であるため説明は繰り返さない。
(3-2. Data Structure)
Fig. 18 is a diagram showing an example of the stuffed toy database 222, the standard image database 226, and the history image database 227 stored in the storage unit 220. Note that Fig. 18 is merely an example, and does not exclude data that is not shown. The storage unit 220 also includes other databases such as a user database 221, but as these are similar to the above embodiment, the description will not be repeated.

図18に示すように、ぬいぐるみデータベース222のレコードは、上記実施形態と同様の項目「ぬいぐるみID」と、項目「登録ユーザ」と、項目「性格」に加えて、さらに、項目「標準画像ID」と、項目「特徴内容」等を含む。 As shown in FIG. 18, the records in the stuffed animal database 222 include the same items as in the above embodiment, such as "stuffed animal ID," "registered user," and "personality," as well as items such as "standard image ID" and "characteristics."

項目「標準画像ID」は、当該レコードにおけるぬいぐるみの個体に対応する標準画像を識別する識別子としての情報であり、標準画像データベース226の項目「標準画像ID」が外部キーとして保持される。 The item "Standard Image ID" is information serving as an identifier that identifies the standard image corresponding to the individual stuffed animal in the record, and the item "Standard Image ID" in the standard image database 226 is held as an external key.

項目「特徴内容」は、当該レコードにおけるぬいぐるみの個体の撮像データにおいて、標準画像との差異として認識される特徴についての情報である。項目「特徴内容」は、ぬいぐるみの撮像データと標準画像との乖離の度合いが所定の閾値を超えたタイミングで、標準データと標準画像の差異として認識される特徴についての情報が登録される仕様としてもよい。 The "Feature Content" item is information about features in the image data of the individual stuffed animal in the record that are recognized as differences from the standard image. The "Feature Content" item may be configured to register information about features that are recognized as differences between the standard data and the standard image when the degree of deviation between the image data of the stuffed animal and the standard image exceeds a predetermined threshold.

標準画像データベース226のレコードは、項目「標準画像ID」と、項目「種類名称」と、項目「画像内容」等を含む。 A record in the standard image database 226 includes the items "standard image ID," "type name," and "image content," etc.

項目「標準画像ID」は、標準画像それぞれを識別する識別子としての情報であり、標準画像データベース226におけるレコードを一意に特定するための主キーである。 The item "Standard Image ID" is information that serves as an identifier to identify each standard image, and is a primary key for uniquely identifying a record in the standard image database 226.

項目「種類名称」は、当該標準画像に対応するぬいぐるみの種類の名称について情報である。種類名称としては、例えばぬいぐるみのキャラクターの名称に、販売が開始された時期についての情報(例えば、「2022年リリース」)や、当該種類におけるコンセプトについての情報(例えば、「夏模様バージョン」)といった付加情報が付与された情報が設定され得る。 The "Type Name" item is information about the name of the type of stuffed animal that corresponds to the standard image. The type name may be, for example, the name of the stuffed animal character, with additional information added, such as information about when sales began (e.g., "Released in 2022") or information about the concept of the type (e.g., "Summer design version").

項目「画像内容」は、当該標準画像における画像データの内容についての情報である。 The "Image Content" item is information about the content of the image data in the standard image.

履歴画像データベース227のレコードは、項目「履歴画像ID」と、項目「ぬいぐるみID」と、項目「画像内容」と、項目「登録日時」と、項目「差分内容」等を含む。 A record in the historical image database 227 includes an item "historical image ID," an item "stuffed animal ID," an item "image content," an item "registration date and time," an item "difference content," etc.

項目「履歴画像ID」は、履歴画像それぞれを識別する識別子としての情報であり、履歴画像データベース227におけるレコードを一意に特定するための主キーである。 The item "History image ID" is information that serves as an identifier to identify each historical image, and is a primary key for uniquely identifying a record in the historical image database 227.

項目「ぬいぐるみID」は、当該履歴画像に対応するぬいぐるみを識別するための識別子としての情報であり、ぬいぐるみデータベース222の項目「ぬいぐるみID」が外部キーとして保持される。 The item "Plushie ID" is information that serves as an identifier for identifying the plush toy that corresponds to the history image, and the item "Plushie ID" in the plush toy database 222 is held as an external key.

項目「画像内容」は、当該履歴画像における画像データの内容についての情報である。 The "Image Content" item is information about the content of the image data in the history image.

項目「登録日時」は、当該履歴画像のレコードが生成された日時についての情報である。 The "Registration Date and Time" item is information about the date and time when the record for the history image was created.

項目「差分内容」は、当該レコードのぬいぐるみIDで識別されるぬいぐるみの個体について、前回取得して登録された履歴画像との画像内容の差分についての情報である。 The "Difference Content" item is information about the difference in image content between the individual stuffed animal identified by the stuffed animal ID of the record and the history image previously acquired and registered.

(3-3.処理の流れ)
図19を参照して、第3実施形態における演出画像生成処理(S300)について、上記実施形態との相違点を説明する。
(3-3. Processing flow)
Referring to FIG. 19, the effect image generation process (S300) in the third embodiment will be described with respect to differences from the above-described embodiments.

ステップS310において、撮像データ解析モジュール232によって、送受信モジュール231が受信したぬいぐるみ50の撮像データの解析が実行されると、ステップS312が実行される。 In step S310, the imaging data analysis module 232 analyzes the imaging data of the stuffed toy 50 received by the transmission/reception module 231, and then step S312 is executed.

ステップS312において、撮像データ解析モジュール232は、解析した撮像データを登録する。具体的には、撮像データ解析モジュール232は、記憶部220の履歴画像データベース227にレコードを追加して、解析した撮像データの情報を履歴画像として記憶させる。ここで、撮像データ解析モジュール232は、当該撮像データと共に端末装置10から受信したぬいぐるみ50の識別情報を、項目「ぬいぐるみID」に記憶させる。 In step S312, the imaging data analysis module 232 registers the analyzed imaging data. Specifically, the imaging data analysis module 232 adds a record to the historical image database 227 of the storage unit 220, and stores the information of the analyzed imaging data as a historical image. Here, the imaging data analysis module 232 stores the identification information of the stuffed animal 50 received from the terminal device 10 together with the imaging data in the item "Plush Animal ID".

ステップS314において、撮像データ解析モジュール232は、撮像データの画像履歴について、今回登録分と前回登録分との差分を解析する。具体的には、撮像データ解析モジュール232は、履歴画像データベース227に登録したレコードのぬいぐるみIDについて、前回に登録されたレコードにおける項目「画像内容」と、今回登録したレコードにおける項目「画像内容」を比較して差分を解析し、解析された差分についての情報を今回登録したレコードにおける項目「差分内容」に記憶する。 In step S314, the imaging data analysis module 232 analyzes the difference between the currently registered image history of the imaging data and the previously registered image history. Specifically, the imaging data analysis module 232 compares the "image content" item in the previously registered record with the "image content" item in the currently registered record for the stuffed animal ID of the record registered in the history image database 227 to analyze the difference, and stores information about the analyzed difference in the "difference content" item in the currently registered record.

なお、今回登録したレコードのぬいぐるみIDについて、前回に登録されたレコードがない場合(すなわち、初回登録時の場合)、今回登録したレコードの項目「画像内容」に記憶されている画像(以下、撮像画像ともいう)と、当該ぬいぐるみIDに対応する標準画像との比較をして差分を解析してもよい。また、ステップS314において差分を解析する前に、撮像画像と標準画像との比較を行い、今回取得した撮像データ内のぬいぐるみが、標準画像に対応するぬいぐるみと同じ種類であるかを判定し、同じ種類のぬいぐるみでない場合にはエラー通知を行う仕様としてもよい。 Note that if there was no previously registered record for the stuffed animal ID of the currently registered record (i.e., the first registration), the image (hereinafter also referred to as the captured image) stored in the "Image Content" field of the currently registered record may be compared with a standard image corresponding to the stuffed animal ID to analyze the differences. Also, before analyzing the differences in step S314, the captured image may be compared with the standard image to determine whether the stuffed animal in the currently acquired captured image data is the same type as the stuffed animal corresponding to the standard image, and an error notification may be issued if they are not the same type of stuffed animal.

ステップS316において、撮像データ解析モジュール232は、撮像画像と標準画像の比較を行う。具体的には、撮像データ解析モジュール232は、ステップS312で履歴画像データベース227に登録したレコードにおける項目「画像内容」に記憶されている画像と、当該登録したレコードにおける項目「ぬいぐるみID」に対応する標準画像(より具体的には、標準画像データベース226における項目「画像内容」に記憶されている標準画像)との比較を行い、両者の乖離の度合いを解析する。ここで、撮像データ解析モジュール232は、ステップS314において解析した前回登録分と今回登録分との差分を考慮しながら、撮像画像と標準画像の乖離を解析することにより、ぬいぐるみ50の個体を特定した状態で乖離の度合いを確実に解析することができる。 In step S316, the imaging data analysis module 232 compares the captured image with the standard image. Specifically, the imaging data analysis module 232 compares the image stored in the "image content" item in the record registered in the history image database 227 in step S312 with the standard image corresponding to the "stuffed toy ID" item in the registered record (more specifically, the standard image stored in the "image content" item in the standard image database 226), and analyzes the degree of deviation between the two. Here, the imaging data analysis module 232 analyzes the deviation between the captured image and the standard image while taking into account the difference between the previous registration and the current registration analyzed in step S314, thereby making it possible to reliably analyze the degree of deviation while identifying the individual stuffed toy 50.

このようにして、撮像画像と標準画像との比較を行い、両者の乖離の度合いが所定の閾値を超えた場合には、撮像データ解析モジュール232は、撮像画像と標準画像との差異についての情報を、ぬいぐるみデータベース222の項目「特徴内容」に登録する。そして、項目「特徴内容」が登録されたぬいぐるみは、以降の処理においてユーザから受け付けた識別番号(すなわちぬいぐるみID)を用いることなく個体が識別される。 In this way, the captured image is compared with the standard image, and if the degree of discrepancy between the two exceeds a predetermined threshold, the image data analysis module 232 registers information about the difference between the captured image and the standard image in the "characteristics" item of the stuffed animal database 222. Then, in subsequent processes, the stuffed animal whose "characteristics" item has been registered can be identified as an individual without using the identification number (i.e., the stuffed animal ID) received from the user.

具体的には、ステップS310において、撮像データ解析モジュール232は、ぬいぐるみデータベース222に登録された特徴が検出された場合に、当該ぬいぐるみデータベース222のレコードに対応するぬいぐるみIDを取得して、後続の処理を行う仕様としてもよい。このような仕様とすることにより、長い期間ぬいぐるみを所有して撮像データを取得することで、経年劣化などによる標準データと乖離した特徴が発生したぬいぐるみについては、識別情報を用いることなく個体が認識されることとなる。この場合、「親密度が向上したため識別番号の入力は不要です」などというメッセージをユーザに通知して、識別番号の入力を省略する仕様にしてもよい。なお、撮像画像と標準画像の乖離の度合いが所定の閾値を超えた場合に替えて(または加えて)、特定のぬいぐるみの履歴画像の情報量が所定の閾値を超えた場合に、撮像画像と標準画像との差異についての情報をぬいぐるみデータベース222の項目「特徴内容」に登録して、識別番号がなくても個体を識別する仕様としてもよい。 Specifically, in step S310, the imaging data analysis module 232 may be configured to obtain a stuffed animal ID corresponding to the record in the stuffed animal database 222 when a feature registered in the stuffed animal database 222 is detected, and perform subsequent processing. With this configuration, when a stuffed animal is owned for a long period of time and imaging data is obtained, and the feature deviates from the standard data due to aging or the like, the individual stuffed animal can be recognized without using identification information. In this case, a message such as "The intimacy level has improved, so there is no need to enter the identification number" may be notified to the user, and the input of the identification number may be omitted. Note that instead of (or in addition to) when the degree of deviation between the captured image and the standard image exceeds a predetermined threshold, when the amount of information in the history image of a specific stuffed animal exceeds a predetermined threshold, information about the difference between the captured image and the standard image may be registered in the "feature content" item in the stuffed animal database 222, and the individual may be identified without an identification number.

以上のようにして、第3実施形態では、サーバ20の撮像データ解析モジュール232は、送受信モジュール231が受信したぬいぐるみの撮像データを、履歴情報として履歴画像データベース227に記憶する。撮像データ解析モジュール232は、当該履歴情報に基づいて、撮像データにおけるぬいぐるみの個体を、識別情報を用いることなく識別してもよい。このような構成とすることにより、ユーザは長期間所有したぬいぐるみに対して、より愛着を感じることができるようになる。 In this manner, in the third embodiment, the imaging data analysis module 232 of the server 20 stores the imaging data of the stuffed animal received by the transmission/reception module 231 in the history image database 227 as history information. The imaging data analysis module 232 may identify the individual stuffed animal in the imaging data based on the history information without using identification information. With this configuration, the user can feel more attached to the stuffed animal that he or she has owned for a long time.

<4 他の実施形態>
以上、本発明における実施形態およびその変形例について説明したが、本開示の適用は上述の内容に限定されるものではない。
<4. Other embodiments>
Although the embodiment and the modified examples of the present invention have been described above, application of the present disclosure is not limited to the above-mentioned contents.

上記実施形態では、ぬいぐるみデータベース182において、1のぬいぐるみに対して1のユーザが対応づけられているが、この例に限定されることはなく、1のぬいぐるみに対して複数のユーザの対応づけが可能な仕様としてもよい。 In the above embodiment, one user is associated with one stuffed animal in the stuffed animal database 182, but this is not limited to the example, and multiple users may be associated with one stuffed animal.

また、上記実施形態では、ぬいぐるみ50の個体を識別するための識別情報として、ぬいぐるみIDが付与されている態様について説明したが、この例に限定されることはない。例えば、識別情報として、識別番号やバーコード情報(QRコード(登録商標)のような二次元バーコードを含む)を用いてもよい。または、ぬいぐるみ50を撮影した画像データを解析して取得できる物体指紋等の個体を識別し得る情報を、ぬいぐるみ50の識別情報として取得してもよい。 In the above embodiment, a plush toy ID is assigned as identification information for identifying an individual plush toy 50, but the present invention is not limited to this example. For example, an identification number or barcode information (including two-dimensional barcodes such as QR Code (registered trademark)) may be used as the identification information. Alternatively, information that can identify an individual, such as a fingerprint of a thing, that can be obtained by analyzing image data obtained by photographing the plush toy 50, may be obtained as the identification information of the plush toy 50.

また、イベント演出データベース184に記憶される条件イベントおよび演出内容については、上記実施形態に限定されることはない。例えば、撮像データ取得部205が撮像した撮像データに映っている人の顔を認識して人物を特定し、ぬいぐるみ50と共に画像に映った履歴(以下、対面履歴という)を記憶部180に記憶してもよい。画像データ生成部207は、ぬいぐるみ50とともに映る人物が初めての場合は、ぬいぐるみ50の態様に変化させる(例えば、初対面なので気にしている表情および動作の演出を付加した画像を生成する)仕様としてもよい。また、画像データ生成部207は、ぬいぐるみ50とともに映る人物が所定の回数を超えた場合に、ぬいぐるみ50の態様に変化させる(例えば、所定の回数会ったので慣れてきてリラックスしている表情および動作の演出を付加した画像を生成する)仕様としてもよい。 The conditional event and the content of the effect stored in the event effect database 184 are not limited to the above embodiment. For example, the imaging data acquisition unit 205 may recognize the face of a person captured in the imaging data to identify the person, and store the history of the person appearing in the image together with the stuffed animal 50 (hereinafter referred to as the meeting history) in the storage unit 180. The image data generation unit 207 may be configured to change the appearance of the person appearing together with the stuffed animal 50 to that of the stuffed animal 50 when the person is the first person to appear together with the stuffed animal 50 (for example, to generate an image with a facial expression and a movement of the person appearing concerned because it is the first time they have met). The image data generation unit 207 may be configured to change the appearance of the person appearing together with the stuffed animal 50 to that of the stuffed animal 50 when the number of times the person has appeared together with the stuffed animal 50 exceeds a predetermined number (for example, to generate an image with a facial expression and a movement of the person appearing relaxed because they have met a predetermined number of times).

また、撮像データ取得部205が取得する撮像データが動画データである場合において、条件イベントとして、撮像データ内でぬいぐるみ50と共に映る人物が変わったタイミングで、ぬいぐるみ50の態様に変化させた画像データを生成してもよい。この場合、例えば、画像データ生成部207は、記憶部180に記憶された対面履歴に基づく演出を付加した画像を生成してもよい。また、画像データ生成部207は、撮像データ内でぬいぐるみ50と共に映る人物が変わったタイミングで、ぬいぐるみ50がランダムに選択される動作による反応を行う画像データを生成してもよい。 In addition, when the imaging data acquired by the imaging data acquisition unit 205 is video data, image data may be generated in which the appearance of the stuffed toy 50 is changed when the person appearing together with the stuffed toy 50 in the imaging data changes as a condition event. In this case, for example, the image data generation unit 207 may generate an image to which a performance based on the meeting history stored in the storage unit 180 is added. In addition, the image data generation unit 207 may generate image data in which the stuffed toy 50 reacts with a randomly selected action when the person appearing together with the stuffed toy 50 in the imaging data changes.

また、上記実施形態では、画像データ生成部207は、撮像データ取得部205が取得した撮像データに含まれる画像の情報に基づいて、ぬいぐるみ50の態様を変化させた画像データを生成しているが、この態様に限定されることはない。一例として、画像データ生成部207は、撮像データに含まれる他の情報に基づいてぬいぐるみ50の態様を変化させた画像データを生成してもよい。 In addition, in the above embodiment, the image data generating unit 207 generates image data that changes the state of the stuffed toy 50 based on image information included in the imaging data acquired by the imaging data acquiring unit 205, but is not limited to this. As an example, the image data generating unit 207 may generate image data that changes the state of the stuffed toy 50 based on other information included in the imaging data.

例えば、撮像データ取得部205が取得した撮像データが動画データである場合に、画像データ生成部207は、当該動画データに含まれる音声情報に基づいて、ぬいぐるみの態様を変化させた画像を生成してもよい。一例として、撮像データに含まれる音声情報がアップテンポな楽曲である場合には、撮像データ取得部205は、当該楽曲に合わせて活発なぬいぐるみ50の動作を付加する画像を生成してもよい。また、撮像データに含まれる音声情報がスローテンポな楽曲である場合には、撮像データ取得部205は、当該楽曲に合わせて落ち着いたぬいぐるみ50の動作を付加する画像を生成してもよい。 For example, when the imaging data acquired by the imaging data acquisition unit 205 is video data, the image data generation unit 207 may generate an image in which the state of the stuffed animal is changed based on the audio information included in the video data. As an example, when the audio information included in the imaging data is an up-tempo song, the imaging data acquisition unit 205 may generate an image in which the active movements of the stuffed animal 50 are added to match the music. Also, when the audio information included in the imaging data is a slow-tempo song, the imaging data acquisition unit 205 may generate an image in which the calm movements of the stuffed animal 50 are added to match the music.

また、音声情報として、周囲の人からの呼びかけにぬいぐるみ50が反応する仕様としてもよい。具体的には、画像データ生成部207は、撮像データ取得部205が取得した動画データ内に含まれる人からの呼びかけに基づいて、ぬいぐるみ50の態様を変化させる画像を生成する仕様としてもよい。この場合、ぬいぐるみ50が特定の言葉(例えば、あらかじめ設定されたぬいぐるみ50の名前、またはぬいぐるみ50が好きな物もしくは嫌いな物)に反応する画像を生成してもよい。また、特定のユーザからの呼びかけに対しては、異なる態様で反応する画像を生成してもよい。 The plush toy 50 may also be designed to respond to calls from people nearby as audio information. Specifically, the image data generating unit 207 may be designed to generate an image that changes the behavior of the plush toy 50 based on calls from people contained in the video data acquired by the imaging data acquiring unit 205. In this case, an image may be generated in which the plush toy 50 responds to specific words (for example, the name of the plush toy 50 that has been set in advance, or things that the plush toy 50 likes or dislikes). Also, an image may be generated in which the plush toy 50 responds in a different manner to calls from specific users.

また、画像データ生成部207は、撮像データ取得部205が取得した撮像データ以外から取得可能な情報に基づいてぬいぐるみ50の態様を変化させた画像データを生成してもよい。例えば、端末装置10は位置情報センサを備えていてもよい。位置情報センサは、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールであってもよい。GPSモジュールは、衛星測位システムで用いられる受信装置として実現される。衛星測位システムは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。画像データ生成部207は、位置情報センサが取得した端末装置10の位置に基づいて、当該位置に応じた演出を付加するような画像データを生成する仕様としてもよい。 The image data generating unit 207 may generate image data that changes the state of the stuffed toy 50 based on information that can be obtained from information other than the imaging data obtained by the imaging data obtaining unit 205. For example, the terminal device 10 may be equipped with a position information sensor. The position information sensor is a sensor that detects the position of the terminal device 10, and may be, for example, a GPS (Global Positioning System) module. The GPS module is realized as a receiving device used in a satellite positioning system. The satellite positioning system receives signals from at least three or four satellites, and detects the current position of the terminal device 10 in which the GPS module is mounted based on the received signals. The image data generating unit 207 may be configured to generate image data that adds a performance according to the position of the terminal device 10 obtained by the position information sensor.

なお、当該位置情報センサは、ぬいぐるみ50が備えていてもよい。この場合、ぬいぐるみ50は、通信IF12、メモリ15、およびプロセッサ19などを備え、位置情報センサが取得したぬいぐるみ50の現在位置を端末装置10へ送信する仕様としてもよい。 The location information sensor may be provided in the stuffed toy 50. In this case, the stuffed toy 50 may include a communication IF 12, a memory 15, a processor 19, etc., and may be configured to transmit the current location of the stuffed toy 50 obtained by the location information sensor to the terminal device 10.

また、画像データ生成部207は、撮像データ取得部205が取得した撮像データ以外から取得可能な環境情報に基づいてぬいぐるみ50の態様を変化させた画像データを生成してもよい。この場合、端末装置10は、環境情報として、ぬいぐるみ50が配置されている場所の気象情報を取得してもよい。すなわち、上記実施形態においては、撮像データ取得部205が取得した撮像データに含まれる画像から環境情報を取得していたが、この例に限定されることはなく、ネットワーク等を通して気象情報を取得して、当該気象情報に基づいて、ぬいぐるみ50の態様を変化させた画像データを生成してもよい。 The image data generating unit 207 may also generate image data in which the state of the stuffed toy 50 is changed based on environmental information that can be acquired from sources other than the imaging data acquired by the imaging data acquiring unit 205. In this case, the terminal device 10 may acquire meteorological information for the location where the stuffed toy 50 is placed as the environmental information. That is, in the above embodiment, the environmental information is acquired from the image included in the imaging data acquired by the imaging data acquiring unit 205, but this is not limited to this example, and meteorological information may be acquired via a network or the like, and image data in which the state of the stuffed toy 50 is changed may be generated based on the meteorological information.

また、画像データ生成部207は、撮像データ取得部205が取得した撮像データに含まれる画像以外の情報として、日付情報に基づいてぬいぐるみ50の態様を変化させた画像データを生成してもよい。例えば、ユーザがぬいぐるみ50を購入した日付(以下、購入日ともいう)等をぬいぐるみデータベース182等に記憶させておく。画像データ生成部207は、当該購入日を起算日として所定の日数(例えば100日)を経過した日には、特別な演出を付加する画像データを生成してもよい。また、一例として、購入日から1年後、2年後、3年後などの周年を経過する日においては、周年経過を祝福するような演出を付加した画像データを生成してもよい。このような仕様とすることで、ユーザはぬいぐるみ50を所有し続けることに応じて、より深い愛着を感じることができる。 The image data generating unit 207 may generate image data in which the state of the stuffed toy 50 is changed based on date information as information other than the image included in the imaging data acquired by the imaging data acquiring unit 205. For example, the date on which the user purchased the stuffed toy 50 (hereinafter also referred to as the purchase date) and the like are stored in the stuffed toy database 182 and the like. The image data generating unit 207 may generate image data to which a special effect is added on a day when a predetermined number of days (for example, 100 days) have passed since the purchase date. As an example, image data to which an effect to celebrate the passing of an anniversary is added on a day when an anniversary such as one year, two years, or three years has passed since the purchase date may be generated. With such specifications, the user can feel a deeper attachment to the stuffed toy 50 as he continues to own it.

また、画像データ生成部207は、画像データの生成にあたり、新たに音声情報を付加する仕様としてもよい。すなわち、条件イベントを満たした場合のイベント演出において、画像の生成に合わせて所定の音声情報を付加する仕様としてもよい。 The image data generating unit 207 may also be configured to add new audio information when generating image data. In other words, in an event presentation when a condition event is satisfied, predetermined audio information may be added in conjunction with the generation of an image.

また、上記実施形態では、演出条件判定処理(S320)では、条件イベントが発生したか否かの複数の判定処理(S321~S324)が直列的に実行されているが、この例に限定することはない。例えば、条件イベントが発生したか否かの複数の判定処理を並列的に行い、発生した条件イベントの組み合わせに応じた演出を適用する仕様としてもよい。 In the above embodiment, in the effect condition determination process (S320), multiple determination processes (S321 to S324) to determine whether or not a condition event has occurred are executed in series, but this is not limiting. For example, multiple determination processes to determine whether or not a condition event has occurred may be executed in parallel, and an effect may be applied according to the combination of condition events that have occurred.

また、上記実施形態では、端末装置10は、スマートフォンなどで実現される端末として説明したが、この例に限定されることはない。家庭用のPCなどにソフトウェアをインストールすることにより、端末装置10を実現し、マウスなどの操作を受け付けるようにしてもよい。 In the above embodiment, the terminal device 10 has been described as a terminal realized by a smartphone or the like, but the present invention is not limited to this example. The terminal device 10 may be realized by installing software on a home PC or the like, and may be configured to accept operations of a mouse or the like.

また、通信回線を介した所定情報の共有は、主にインターネットなどのWANを介して行われるが、情報処理装置間では、WANを介さずにBluetooth(登録商標)等の近距離の無線通信、及び赤外線通信等のみを介して行われてもよい。 In addition, the sharing of specific information via a communication line is mainly performed via a WAN such as the Internet, but between information processing devices, the sharing may be performed only via short-range wireless communication such as Bluetooth (registered trademark) and infrared communication without using a WAN.

また、上記実施形態では、各機能を端末装置10またはサーバ20が備える態様の一例について説明したが、この形態に限定されることはなく、一部または全部の機能について上記実施形態と異なる態様で端末装置10、サーバ20、又は端末装置10とサーバ20の両方が備える構成としてもよい。 In addition, in the above embodiment, an example of a form in which each function is provided by the terminal device 10 or the server 20 is described, but this is not limited to this form, and some or all of the functions may be provided by the terminal device 10, the server 20, or both the terminal device 10 and the server 20 in a form different from the above embodiment.

さらに、本発明は、上述した端末装置10またはサーバ20が備える機能を情報処理装置に実行させるプログラムとして実現してもよいし、当該プログラムを格納する、コンピュータ読み取り可能な非一時的な記録媒体として実現してもよい。 Furthermore, the present invention may be realized as a program that causes an information processing device to execute the functions of the terminal device 10 or server 20 described above, or as a non-transitory computer-readable recording medium that stores the program.

<付記>
以上の各実施形態で説明した事項を以下に付記する。
(付記1)
プロセッサを備えるコンピュータに、
外観が略同一の複数のぬいぐるみ(ただし、構成部材を動作させるための駆動機構を有するものを除く)それぞれの個体を識別するための識別情報を受け付けるステップ(S100)と、ユーザが撮像したぬいぐるみの撮像データを取得するステップ(S200)と、識別情報を受け付けた後に取得した撮像データにおけるぬいぐるみの態様に、識別情報に対応した加工を施した画像データを生成するステップ(S300)と、画像データをユーザに提示するステップ(S400)と、を実行させるプログラム。
(付記2)
生成するステップでは、ぬいぐるみの個体ごとに異なる態様を示す画像データを生成する、付記1に記載のプログラム。
(付記3)
生成するステップでは、個体ごとに設定された性格に沿った態様を示す画像データを生成する、付記1または2に記載のプログラム。
(付記4)
生成するステップでは、識別情報と、撮像データに含まれる情報の組み合わせに基づいて、ぬいぐるみの態様を変化させた画像データを生成する、付記2に記載のプログラム。
(付記5)
生成するステップでは、識別情報と、撮像データに含まれる画像に関する情報の組み合わせに基づいて、ぬいぐるみの態様を変化させた画像データを生成する、付記4に記載のプログラム。
(付記6)
生成するステップでは、識別情報と、画像においてぬいぐるみとともに映っている人物に関する情報の組み合わせに基づいて、ぬいぐるみの態様を変化させた画像データを生成する、付記5に記載のプログラム。
(付記7)
生成するステップでは、識別情報と、画像においてぬいぐるみとともに映っている物に関する情報の組み合わせに基づいて、ぬいぐるみの態様を変化させた画像データを生成する、付記5に記載のプログラム。
(付記8)
取得するステップでは、ぬいぐるみの動画データを取得する、付記4に記載のプログラム。
(付記9)
生成するステップでは、動画データに含まれる音声情報に基づいて、ぬいぐるみの態様を変化させた画像データを生成する、付記8に記載のプログラム。
(付記10)
ぬいぐるみが配置されている場所における環境情報を取得するステップをさらに備え、生成するステップでは、識別情報と、取得した環境情報の組み合わせに基づいて、ぬいぐるみの態様を変化させた画像データを生成する、付記1に記載のプログラム。
(付記11)
環境情報を取得するステップでは、環境情報として、ぬいぐるみが配置されている場所の位置情報を取得する、付記10に記載のプログラム。
(付記12)
環境情報を取得するステップでは、環境情報として、ぬいぐるみが配置されている場所の気象情報を取得する、付記10に記載のプログラム。
(付記13)
コンピュータに、異なるぬいぐるみに関する所定のデータを通信するステップをさらに実行させる、付記1に記載のプログラム。
(付記14)
所定のデータとして、所定のぬいぐるみと関連付けが行われた履歴を通信するステップを実行させる、付記13に記載のプログラム。
(付記15)
生成するステップでは、所定のぬいぐるみと関連付けが行われた履歴が所定の条件を超えるとぬいぐるみの態様を変化させた画像データを生成する、付記14に記載のプログラム。
(付記16)
コンピュータは、ユーザが操作可能な端末装置である、付記13に記載のプログラム。
(付記17)
プログラムは、ぬいぐるみ内に設けられたプロセッサに、通信するステップを実行させる、付記13に記載のプログラム。
(付記18)
プロセッサに、さらに、ぬいぐるみの撮像データの履歴情報をコンピュータが備える記憶部に記憶させるステップと、履歴情報に基づいて、撮像データにおけるぬいぐるみの個体を、識別情報を用いることなく識別するステップと、を実行させる、付記1~付記17に記載のプログラム。
<Additional Notes>
The matters described in the above embodiments will be supplemented below.
(Appendix 1)
A computer having a processor,
A program that executes the steps of: accepting identification information for identifying each of a number of stuffed animals (excluding those having a driving mechanism for operating components) having substantially identical appearances (S100); acquiring image data of the stuffed animals captured by a user (S200); generating image data by processing the appearance of the stuffed animals in the image data acquired after accepting the identification information in accordance with the identification information (S300); and presenting the image data to the user (S400).
(Appendix 2)
The program according to claim 1, wherein the generating step generates image data showing different aspects for each individual stuffed animal.
(Appendix 3)
3. The program according to claim 1, wherein the generating step generates image data showing a behavior in accordance with a personality set for each individual.
(Appendix 4)
The program according to claim 2, wherein in the generating step, image data in which the behavior of the stuffed animal is changed is generated based on a combination of the identification information and information contained in the imaging data.
(Appendix 5)
The program according to claim 4, wherein in the generating step, image data in which the behavior of the stuffed animal is changed is generated based on a combination of the identification information and information regarding the image contained in the imaging data.
(Appendix 6)
The program according to claim 5, wherein in the generating step, image data in which the behavior of the stuffed animal is changed is generated based on a combination of the identification information and information regarding a person appearing with the stuffed animal in the image.
(Appendix 7)
The program described in Appendix 5, in which the generating step generates image data in which the appearance of the stuffed animal is changed based on a combination of the identification information and information regarding an object that appears together with the stuffed animal in the image.
(Appendix 8)
The program according to claim 4, wherein the acquiring step acquires video data of the stuffed animal.
(Appendix 9)
The program according to claim 8, wherein in the generating step, image data in which the behavior of the stuffed animal is changed is generated based on audio information contained in the video data.
(Appendix 10)
The program described in Appendix 1 further includes a step of acquiring environmental information of the location where the stuffed animal is placed, and in the generating step, image data that changes the appearance of the stuffed animal is generated based on a combination of the identification information and the acquired environmental information.
(Appendix 11)
The program according to claim 10, wherein in the step of acquiring environmental information, positional information of a location where the stuffed toy is placed is acquired as the environmental information.
(Appendix 12)
The program according to claim 10, wherein in the step of acquiring environmental information, meteorological information for a location where the stuffed animal is placed is acquired as the environmental information.
(Appendix 13)
2. The program of claim 1, further causing the computer to execute a step of communicating predetermined data regarding different stuffed toys.
(Appendix 14)
The program according to claim 13, further comprising a step of communicating, as the specified data, a history of association with a specified stuffed animal.
(Appendix 15)
The program according to claim 14, wherein in the generating step, when a history of association with a specific stuffed animal exceeds a specific condition, image data is generated in which the behavior of the stuffed animal is changed.
(Appendix 16)
14. The program according to claim 13, wherein the computer is a terminal device that can be operated by a user.
(Appendix 17)
The program of claim 13, further comprising causing a processor provided within the stuffed animal to execute a communication step.
(Appendix 18)
A program as described in appendix 1 to appendix 17, further causing the processor to execute the steps of storing historical information of the image data of the stuffed animal in a memory unit provided in the computer, and identifying individual stuffed animals in the image data based on the historical information without using identification information.

以上、本開示のいくつかの実施形態を説明したが、これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。 Although several embodiments of the present disclosure have been described above, these embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the spirit of the invention. These embodiments and their modifications are considered to be within the scope of the invention and its equivalents as set forth in the claims, as well as within the scope and spirit of the invention.

1:システム、10:端末装置、13:入力装置、14:出力装置、15:メモリ、16:ストレージ、19:プロセッサ、20:サーバ、25:メモリ、26:ストレージ、29:プロセッサ、30:ネットワーク、51:頭部、52:胴部、53:目、54:口、55:耳、56:前肢、57:下肢、58:尻尾、131:タッチセンシティブデバイス、141:ディスプレイ、150:通信部、160:撮像部、170:音声処理部、171:マイク、172:スピーカ、180:記憶部、181:ユーザデータベース、182:データベース、183:性格データベース、184:イベント演出データベース、185:イベント対応データベース、200:制御部、201:操作受付部、202:送受信部、203:表示制御部、204:識別情報受付部、205:撮像データ取得部、206:撮像データ解析部、207:画像データ生成部、210:通信部、220:記憶部、221:ユーザデータベース、222:データベース、223:性格データベース、224:イベント演出データベース、225:イベント対応データベース、226:標準画像データベース、227:履歴画像データベース、230:制御部、231:送受信モジュール、232:撮像データ解析モジュール、233:画像データ生成モジュール。
1: System, 10: Terminal device, 13: Input device, 14: Output device, 15: Memory, 16: Storage, 19: Processor, 20: Server, 25: Memory, 26: Storage, 29: Processor, 30: Network, 51: Head, 52: Torso, 53: Eyes, 54: Mouth, 55: Ears, 56: Forelimbs, 57: Lower limbs, 58: Tail, 131: Touch-sensitive device, 141: Display, 150: Communication unit, 160: Imaging unit, 170: Audio processing unit, 171: Microphone, 172: Speaker, 180: Memory unit, 181: User database, 182: Database, 183: Personality database, 184: Event production database, 185: event-compatible database, 200: control unit, 201: operation reception unit, 202: transmission/reception unit, 203: display control unit, 204: identification information reception unit, 205: imaging data acquisition unit, 206: imaging data analysis unit, 207: image data generation unit, 210: communication unit, 220: memory unit, 221: user database, 222: database, 223: personality database, 224: event performance database, 225: event-compatible database, 226: standard image database, 227: history image database, 230: control unit, 231: transmission/reception module, 232: imaging data analysis module, 233: image data generation module.

Claims (21)

プロセッサを備えるコンピュータに、
外観が略同一の複数のぬいぐるみ(ただし、構成部材を動作させるための駆動機構を有するものを除く)それぞれの個体を識別するための識別情報を受け付けるステップと、
ユーザが撮像した前記ぬいぐるみの撮像データを取得するステップと、
前記識別情報を受け付けた後に取得した前記撮像データにおけるぬいぐるみの態様に、前記識別情報に対応した加工を施した画像データを生成するステップと
前記画像データを前記ユーザに提示するステップと、を実行させるプログラム。
A computer having a processor,
A step of receiving identification information for identifying each of a plurality of stuffed toys having substantially the same appearance (excluding those having a drive mechanism for operating components);
Acquiring image data of the stuffed toy taken by a user;
A program that executes the steps of: generating image data by processing the appearance of the stuffed toy in the imaging data acquired after receiving the identification information in accordance with the identification information; and presenting the image data to the user.
前記生成するステップでは、前記ぬいぐるみの個体ごとに異なる態様を示す画像データを生成する、請求項1に記載のプログラム。 The program according to claim 1, wherein the generating step generates image data showing different aspects for each individual stuffed animal. 前記生成するステップでは、個体ごとに設定された性格に沿った態様を示す画像データを生成する、請求項1または2に記載のプログラム。 The program according to claim 1 or 2, wherein the generating step generates image data showing a behavior according to a personality set for each individual. 前記生成するステップでは、前記識別情報と、前記撮像データに含まれる情報の組み合わせに基づいて、前記ぬいぐるみの態様を変化させた画像データを生成する、請求項2に記載のプログラム。 The program according to claim 2, wherein in the generating step, image data is generated that changes the state of the stuffed animal based on a combination of the identification information and information included in the imaging data. 前記生成するステップでは、前記識別情報と、前記撮像データに含まれる画像に関する情報の組み合わせに基づいて、前記ぬいぐるみの態様を変化させた画像データを生成する、請求項4に記載のプログラム。 The program according to claim 4, wherein in the generating step, image data is generated that changes the state of the stuffed animal based on a combination of the identification information and information about the image included in the imaging data. 前記生成するステップでは、前記識別情報と、前記画像において前記ぬいぐるみとともに映っている人物に関する情報の組み合わせに基づいて、前記ぬいぐるみの態様を変化させた画像データを生成する、請求項5に記載のプログラム。 The program according to claim 5, wherein in the generating step, image data is generated in which the state of the stuffed toy is changed based on a combination of the identification information and information about a person appearing with the stuffed toy in the image. 前記生成するステップでは、前記識別情報と、前記画像において前記ぬいぐるみとともに映っている物に関する情報の組み合わせに基づいて、前記ぬいぐるみの態様を変化させた画像データを生成する、請求項5に記載のプログラム。 The program according to claim 5, wherein in the generating step, image data is generated that changes the state of the stuffed animal based on a combination of the identification information and information about an object that appears together with the stuffed animal in the image. 前記取得するステップでは、前記ぬいぐるみの動画データを取得する、請求項4に記載のプログラム。 The program according to claim 4, wherein the acquiring step acquires video data of the stuffed toy. 前記生成するステップでは、前記動画データに含まれる音声情報に基づいて、前記ぬいぐるみの態様を変化させた画像データを生成する、請求項8に記載のプログラム。 The program according to claim 8, wherein in the generating step, image data is generated that changes the state of the stuffed toy based on audio information included in the video data. 前記ぬいぐるみが配置されている場所における環境情報を取得するステップをさらに備え、
前記生成するステップでは、前記識別情報と、取得した前記環境情報の組み合わせに基づいて、前記ぬいぐるみの態様を変化させた画像データを生成する、請求項1に記載のプログラム。
The method further includes a step of acquiring environmental information about a location where the stuffed toy is placed,
The program according to claim 1 , wherein in the generating step, image data in which a state of the stuffed toy is changed is generated based on a combination of the identification information and the acquired environmental information.
前記環境情報を取得するステップでは、前記環境情報として、前記ぬいぐるみが配置されている場所の位置情報を取得する、請求項10に記載のプログラム。 The program according to claim 10, wherein in the step of acquiring the environmental information, positional information of the location where the stuffed toy is placed is acquired as the environmental information. 前記環境情報を取得するステップでは、前記環境情報として、前記ぬいぐるみが配置されている場所の気象情報を取得する、請求項10に記載のプログラム。 The program according to claim 10, wherein in the step of acquiring the environmental information, weather information for the location where the stuffed toy is placed is acquired as the environmental information. 前記コンピュータに、異なるぬいぐるみに関する所定のデータを通信するステップをさらに実行させる、請求項1に記載のプログラム。 The program of claim 1, further causing the computer to execute a step of communicating predetermined data regarding different stuffed toys. 前記所定のデータとして、所定のぬいぐるみと関連付けが行われた履歴を通信するステップを実行させる、請求項13に記載のプログラム。 The program according to claim 13, which executes a step of communicating a history of association with a specified stuffed animal as the specified data. 前記生成するステップでは、所定のぬいぐるみと関連付けが行われた履歴が所定の条件を超えると前記ぬいぐるみの態様を変化させた画像データを生成する、請求項14に記載のプログラム。 The program according to claim 14, wherein in the generating step, when the history of association with a specific stuffed animal exceeds a specific condition, image data is generated that changes the state of the stuffed animal. 前記コンピュータは、ユーザが操作可能な端末装置である、請求項13に記載のプログラム。 The program according to claim 13, wherein the computer is a terminal device that can be operated by a user. 前記プログラムは、前記ぬいぐるみ内に設けられたプロセッサに、前記通信するステップを実行させる、請求項13に記載のプログラム。 The program according to claim 13, wherein the program causes a processor provided in the stuffed toy to execute the communicating step. 前記プロセッサに、さらに、
前記ぬいぐるみの撮像データの履歴情報を前記コンピュータが備える記憶部に記憶させるステップと、
前記履歴情報に基づいて、前記撮像データにおけるぬいぐるみの個体を、前記識別情報を用いることなく識別するステップと、を実行させる、請求項1に記載のプログラム。
The processor further comprises:
storing history information of the image data of the stuffed toy in a storage unit of the computer;
2. The program according to claim 1, further comprising: a step of identifying an individual stuffed toy in the image data based on the history information without using the identification information.
プロセッサを備えるコンピュータに、
外観が略同一の複数のぬいぐるみ(ただし、構成部材を動作させるための駆動機構を有するものを除く)それぞれの個体を識別するための識別情報を受け付けるステップと、
ユーザが撮像した前記ぬいぐるみの撮像データを取得するステップと、
前記識別情報を受け付けた後に取得した前記撮像データにおけるぬいぐるみの態様に、前記識別情報に対応した加工を施した画像データを生成するステップと
前記画像データを前記ユーザに提示するステップと、を実行させる方法。
A computer having a processor,
A step of receiving identification information for identifying each of a plurality of stuffed toys having substantially the same appearance (excluding those having a drive mechanism for operating components);
Acquiring image data of the stuffed toy taken by a user;
A method for executing a step of generating image data by processing the appearance of the stuffed toy in the imaging data acquired after receiving the identification information in accordance with the identification information, and a step of presenting the image data to the user.
プロセッサを備える情報処理装置であって、
前記プロセッサは、
外観が略同一の複数のぬいぐるみ(ただし、構成部材を動作させるための駆動機構を有するものを除く)それぞれの個体を識別するための識別情報を受け付けるステップと、
ユーザが撮像した前記ぬいぐるみの撮像データを取得するステップと、
前記識別情報を受け付けた後に取得した前記撮像データにおけるぬいぐるみの態様に、前記識別情報に対応した加工を施した画像データを生成するステップと
前記画像データを前記ユーザに提示するステップと、を実行する情報処理装置。
An information processing device including a processor,
The processor,
A step of receiving identification information for identifying each of a plurality of stuffed toys having substantially the same appearance (excluding those having a drive mechanism for operating components);
Acquiring image data of the stuffed toy taken by a user;
An information processing device that executes a step of generating image data by performing processing corresponding to the identification information on the state of the stuffed toy in the imaging data acquired after receiving the identification information; and a step of presenting the image data to the user.
プロセッサを含むコンピュータを備えたシステムであって、
前記プロセッサは、
外観が略同一の複数のぬいぐるみ(ただし、構成部材を動作させるための駆動機構を有するものを除く)それぞれの個体を識別するための識別情報を受け付けるステップと、
ユーザが撮像した前記ぬいぐるみの撮像データを取得するステップと、
前記識別情報を受け付けた後に取得した前記撮像データにおけるぬいぐるみの態様に、前記識別情報に対応した加工を施した画像データを生成するステップと
前記画像データを前記ユーザに提示するステップと、を実行する、システム。
A system comprising a computer including a processor,
The processor,
A step of receiving identification information for identifying each of a plurality of stuffed toys having substantially the same appearance (excluding those having a drive mechanism for operating components);
Acquiring image data of the stuffed toy taken by a user;
The system executes a step of generating image data by processing the appearance of the stuffed animal in the imaging data acquired after receiving the identification information in accordance with the identification information, and a step of presenting the image data to the user.
JP2022185379A 2022-11-21 2022-11-21 Program, method, information processing device, system Active JP7450692B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022185379A JP7450692B1 (en) 2022-11-21 2022-11-21 Program, method, information processing device, system
JP2024032624A JP2024074804A (en) 2022-11-21 2024-03-05 Program, method, information processing device, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022185379A JP7450692B1 (en) 2022-11-21 2022-11-21 Program, method, information processing device, system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024032624A Division JP2024074804A (en) 2022-11-21 2024-03-05 Program, method, information processing device, and system

Publications (2)

Publication Number Publication Date
JP7450692B1 JP7450692B1 (en) 2024-03-15
JP2024074318A true JP2024074318A (en) 2024-05-31

Family

ID=90194712

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022185379A Active JP7450692B1 (en) 2022-11-21 2022-11-21 Program, method, information processing device, system
JP2024032624A Pending JP2024074804A (en) 2022-11-21 2024-03-05 Program, method, information processing device, and system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024032624A Pending JP2024074804A (en) 2022-11-21 2024-03-05 Program, method, information processing device, and system

Country Status (1)

Country Link
JP (2) JP7450692B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6391386B2 (en) 2014-09-22 2018-09-19 シャープ株式会社 Server, server control method, and server control program
JP7375273B2 (en) 2019-05-24 2023-11-08 Toppanホールディングス株式会社 Information processing system, information processing method, and program
JP7128591B2 (en) 2019-11-12 2022-08-31 株式会社ポケモン Shooting system, shooting method, shooting program, and stuffed animal

Also Published As

Publication number Publication date
JP2024074804A (en) 2024-05-31
JP7450692B1 (en) 2024-03-15

Similar Documents

Publication Publication Date Title
US11798261B2 (en) Image face manipulation
CN113383369A (en) Body posture estimation
US11657575B2 (en) Generating augmented reality content based on third-party content
KR20230072495A (en) Augmented reality content items including user avatars for sharing location
KR20230133404A (en) Displaying augmented reality content in messaging application
US11995677B2 (en) Augmented reality content items to track user activity and redeem promotions
US11978110B2 (en) Generating augmented reality content based on user-selected product data
KR20240066263A (en) Control interactive fashion based on facial expressions
US20230130535A1 (en) User Representations in Artificial Reality
KR20200092207A (en) Electronic device and method for providing graphic object corresponding to emotion information thereof
WO2022212171A1 (en) Facial synthesis in augmented reality content for advertisements
CN116114258A (en) User interface for pose driven virtual effects
KR20230156953A (en) Experience life-size eyewear in real time
KR20230157494A (en) Actual size eyewear in real time
JP7450692B1 (en) Program, method, information processing device, system
US20230289560A1 (en) Machine learning techniques to predict content actions
EP4314999A1 (en) User-defined contextual spaces
WO2022146799A1 (en) Compressing image-to-image models
WO2022072521A1 (en) Templates to generate augmented reality content items
US20240203072A1 (en) Dynamic augmented reality experience
US20240212033A1 (en) Generating augmented reality content based on user-selected product data
US20230368472A1 (en) Dynamic augmented reality experience
WO2024050232A1 (en) Timelapse re-experiencing system
WO2024050245A1 (en) Multi-perspective augmented reality experience
WO2024050231A1 (en) Social memory re-experiencing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240305

R150 Certificate of patent or registration of utility model

Ref document number: 7450692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150