JP7335221B2 - Electronic device, method, program and system for identifier information inference using image recognition model - Google Patents

Electronic device, method, program and system for identifier information inference using image recognition model Download PDF

Info

Publication number
JP7335221B2
JP7335221B2 JP2020185857A JP2020185857A JP7335221B2 JP 7335221 B2 JP7335221 B2 JP 7335221B2 JP 2020185857 A JP2020185857 A JP 2020185857A JP 2020185857 A JP2020185857 A JP 2020185857A JP 7335221 B2 JP7335221 B2 JP 7335221B2
Authority
JP
Japan
Prior art keywords
information
image recognition
image
character
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020185857A
Other languages
Japanese (ja)
Other versions
JP2021034065A5 (en
JP2021034065A (en
Inventor
修一 倉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019150334A external-priority patent/JP6967041B2/en
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2020185857A priority Critical patent/JP7335221B2/en
Publication of JP2021034065A publication Critical patent/JP2021034065A/en
Publication of JP2021034065A5 publication Critical patent/JP2021034065A5/ja
Application granted granted Critical
Publication of JP7335221B2 publication Critical patent/JP7335221B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像認識モデルを用いた識別子情報推論のための電子装置、方法、プログラム及びシステムに関する。 The present invention relates to an electronic device, method, program and system for inferring identifier information using an image recognition model.

近年の情報ネットワークの発展に伴い、スマートフォンのチャットアプリやSNSアプリ等を用いて友人同士などで情報共有することが一般的となっている。このような情報共有のために他のユーザへ送信されるコンテンツは、文字メッセージに限られず、ユーザが撮影した写真やスクリーンショット等の画像とすることができる(特許文献1)。メッセージや画像等を受信した他のユーザは、これに対して感想メッセージ等を返信することでユーザ間のコミュニケーションを楽しむことができる。 With the development of information networks in recent years, it has become common to share information with friends using a smartphone chat application, SNS application, or the like. The content transmitted to other users for such information sharing is not limited to text messages, and can be images such as photographs and screen shots taken by users (Patent Document 1). Other users who have received the messages, images, etc. can enjoy communication between users by replying with impression messages and the like in response to these messages.

特開2018-073070号公報JP 2018-073070 A

スマートフォンにおいて実行されるゲーム等のアプリもまた一般的に利用されている。情報共有のための既存のSNSやコミュニケーション用アプリとゲーム等のアプリとの関係は、ゲーム等のスクリーンショットを他のアプリを用いて他のユーザと共有するという、ゲーム等の情報を外に出すという関係、すなわち、ゲーム等からSNSへのアウトバウンド方向の関係にとどまっており、SNSで得た画像や、カメラで撮影した画像をアプリ内のキャラクタなどの属性情報に対して送信するという、インバウンド方向のメカニズムは実現されていない。 Apps such as games that run on smartphones are also commonly used. The relationship between existing SNS and communication apps for information sharing and apps such as games is to share screenshots of games etc. with other users using other apps. In other words, the relationship is limited to the outbound direction from games, etc. to SNS, and the inbound direction is to send images obtained from SNS or images taken with a camera to attribute information such as characters in the application. mechanism has not been realized.

本発明は上記の課題に鑑みてなされたものであり、以下のような特徴を有している。すなわち、一つの実施形態における本発明の電子装置は、ユーザからの操作を受け付け可能な操作受付部と、固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、固有の属性情報に紐づけられる画像認識モデルを複数記憶する記憶部と、操作受付部の受け付けた操作に基づき、前記記憶部に記憶された属性情報の中から少なくとも1つの属性情報を画像情報の送り先として特定する送り先属性情報特定部と、前記送り先属性情報特定部の特定した属性情報に紐づけられた画像認識モデルを、前記記憶部に記憶された複数の画像認識モデルの中から選択する画像認識モデル選択部と、前記画像認識モデル選択部の選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論部と、を備える。 The present invention has been made in view of the above problems, and has the following features. That is, the electronic device of the present invention in one embodiment is defined by an operation accepting unit capable of accepting an operation from a user and unique learning content, and can infer at least one piece of identifier information using the learning content. a storage unit that stores a plurality of image recognition models that are unique image recognition models that are linked to unique attribute information; a destination attribute information identifying unit that identifies one piece of attribute information as a destination of image information; An image recognition model selection unit that selects from recognition models, and an identifier that inputs image information to the image recognition model selected by the image recognition model selection unit and infers identifier information from the image information based on the learning content. and an information reasoning unit.

また、前記記憶部に記憶された複数の画像認識モデルは、その学習内容が各画像認識モデルに固有の教師データによって定義され、当該固有の教師データはそれぞれ画像情報および識別情報であるラベルの対の集合によって定義されることができる。 Further, the learning contents of the plurality of image recognition models stored in the storage unit are defined by teacher data unique to each image recognition model, and the unique teacher data are pairs of labels, each of which is image information and identification information. can be defined by the set of

さらに、前記記憶部は、複数の識別子情報のそれぞれに対応する複数の応答内容を前記複数の画像認識モデルのそれぞれに紐づけて記憶し、前記識別子情報推論部の推論した識別子情報に基づき、当該識別子情報に対応した応答内容を前記記憶部に記憶された複数の応答内容の中から特定して実行する応答内容実行部を備えてもよい。 Further, the storage unit stores a plurality of response contents corresponding to each of a plurality of pieces of identifier information in association with each of the plurality of image recognition models, and based on the identifier information inferred by the identifier information inference unit, A response content execution unit may be provided for specifying and executing response content corresponding to the identifier information from among the plurality of response content stored in the storage unit.

ユーザに対して情報を表示する表示部を備え、前記記憶部は、前記属性情報に対応する文字情報及びアイコン画像情報の少なくとも1つを記憶し、前記送り先属性情報特定部は、前記記憶部に記憶された前記文字情報及び前記アイコン画像情報の少なくとも1つを前記表示部に表示するとともに、当該表示された文字情報及びアイコン画像情報の少なくとも1つを前記操作受付部によってユーザが指定することで前記記憶部に記憶された属性情報の中から少なくとも1つの属性情報を画像情報の送り先として特定するようにしてもよい。 a display unit for displaying information to a user, wherein the storage unit stores at least one of character information and icon image information corresponding to the attribute information; At least one of the stored character information and icon image information is displayed on the display unit, and at least one of the displayed character information and icon image information is specified by the user through the operation reception unit. At least one piece of attribute information among the attribute information stored in the storage unit may be specified as the destination of the image information.

本発明の一つの実施形態における方法は、1つ以上のコンピュータによって実行される方法であって、固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、固有の属性情報に紐づけられる画像認識モデルを複数記憶する記憶段階と、ユーザからの操作を受け付ける操作受付段階と、操作受付段階において受け付けた操作に基づき、前記記憶された属性情報の中から少なくとも1つの属性情報を画像情報の送り先として特定する送り先属性情報特定段階と、前記送り先属性情報特定段階において特定した属性情報に紐づけられた画像認識モデルを、前記記憶された複数の画像認識モデルの中から選択する画像認識モデル選択段階と、前記画像認識モデル選択段階において選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論段階と、を実行させる。 In one embodiment of the invention, a method is one or more computer-implemented methods for identifying an image defined by unique learning content and capable of inferring at least one piece of identifier information using the learning content. A storage stage for storing a plurality of image recognition models that are recognition models and are associated with unique attribute information; an operation reception stage for receiving an operation from a user; a destination attribute information identifying step of identifying at least one piece of attribute information from the attribute information as a destination of image information; An image recognition model selection step of selecting from among a plurality of image recognition models, inputting image information to the image recognition model selected in the image recognition model selection step, and extracting identifier information from the image information based on the learning content. inferring identifier information inference stage;

前記1つ以上のコンピュータは、ユーザ端末としてもよい。 The one or more computers may be user terminals.

前記1つ以上のコンピュータは、ユーザ端末及びサーバを含むことができる。 The one or more computers can include user terminals and servers.

本発明の一つの実施形態におけるプログラムは、前述の方法を、1以上のコンピュータに実行させるものとすることができる。 A program in one embodiment of the present invention can cause one or more computers to execute the above method.

本発明の一つの実施形態におけるシステムは、ユーザ端末及びサーバを含むシステムであって、前記ユーザ端末が、ユーザからの操作を受け付け可能な操作受付部と、操作受付部の受け付けた操作に基づき、少なくとも1つの属性情報を画像情報の送り先として特定する送り先属性情報特定部と、を備え、前記サーバが、固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、固有の属性情報に紐づけられる画像認識モデルを複数記憶する記憶部と、前記送り先属性情報特定部の特定した属性情報に紐づけられた画像認識モデルを、前記記憶部に記憶された複数の画像認識モデルの中から選択する画像認識モデル選択部と、前記画像認識モデル選択部の選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論部と、を備える。 A system according to one embodiment of the present invention is a system including a user terminal and a server, wherein the user terminal includes an operation accepting unit capable of accepting an operation from a user, and based on an operation accepted by the operation accepting unit, a destination attribute information identifying unit that identifies at least one piece of attribute information as a destination of image information, wherein the server is defined by unique learning content and can infer at least one piece of identifier information using the learning content. a storage unit that stores a plurality of image recognition models that are unique image recognition models and are linked to unique attribute information; input image information to an image recognition model selection unit that selects from among a plurality of image recognition models stored in the image recognition model selection unit, and the image recognition model selected by the image recognition model selection unit; an identifier information inferring unit for inferring identifier information from the information.

本発明によれば、属性情報と画像認識モデルとを紐づけ、送信先の属性情報が選択されると、その属性情報に紐付けられた画像認識モデルが選択され画像認識に使用される、という構成を採用することにより、多数の属性情報のために多数の画像内容を認識する場合であっても、個別の属性情報向けに学習された画像認識モデルを用いた推論処理で対象となる画像内容を認識することができ、少量のデータを用いた場合でも高い推論性能を実現するとともに、個々の画像認識モデルを比較的小さなニューラルネットワークとして実装することにより高いレスポンス性能を実現できる。 According to the present invention, the attribute information and the image recognition model are linked, and when the attribute information of the destination is selected, the image recognition model linked to the attribute information is selected and used for image recognition. By adopting the configuration, even when recognizing a large number of image contents due to a large number of attribute information, the target image content can be inferred using an image recognition model trained for individual attribute information. It is possible to realize high inference performance even when using a small amount of data, and achieve high response performance by implementing each image recognition model as a relatively small neural network.

本発明の一実施形態に係るシステム構成図である。1 is a system configuration diagram according to an embodiment of the present invention; FIG. 本発明の一実施形態に係るサーバ及び電子装置のハードウェア構成図である。1 is a hardware configuration diagram of a server and an electronic device according to an embodiment of the present invention; FIG. 本発明の一実施形態に係るサーバ及び電子装置の機能ブロック図である。1 is a functional block diagram of a server and an electronic device according to an embodiment of the invention; FIG. 本発明の一実施形態に係る情報処理を示すフローチャートである。4 is a flow chart showing information processing according to one embodiment of the present invention. 本発明の一実施形態に係る画面表示例を示す図である。FIG. 4 is a diagram showing a screen display example according to one embodiment of the present invention; 本発明の一実施形態に係る画面表示例を示す図である。FIG. 4 is a diagram showing a screen display example according to one embodiment of the present invention; 本発明の一実施形態に係る画面表示例を示す図である。FIG. 4 is a diagram showing a screen display example according to one embodiment of the present invention; 本発明の一実施形態に係る画面表示例を示す図である。FIG. 4 is a diagram showing a screen display example according to one embodiment of the present invention; 本発明の位置実施形態に係るサーバ及び電子装置の機能ブロック図である。1 is a functional block diagram of a server and an electronic device according to a position embodiment of the present invention; FIG.

以下、図面を参照して、本発明の実施形態のシステム1について説明する。本明細書においては、説明の便宜上、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細な説明や実質的に同一の構成についての重複説明を省略する場合がある。 A system 1 according to an embodiment of the present invention will be described below with reference to the drawings. In this specification, for convenience of explanation, more detailed explanation than necessary may be omitted. For example, detailed descriptions of already well-known matters and redundant descriptions of substantially the same configurations may be omitted.

[第1の実施形態]
図1は本発明の一実施形態によるシステム1の全体構成の一例を示す。図1に示すように、システム1は、ユーザ端末である複数の電子装置10及びサーバ20を備える。電子装置10及びサーバ20は、インターネットなどのネットワーク2に接続され、互いに通信可能である。
[First embodiment]
FIG. 1 shows an example of the overall configuration of a system 1 according to one embodiment of the invention. As shown in FIG. 1, the system 1 comprises a plurality of electronic devices 10 which are user terminals and a server 20 . The electronic device 10 and the server 20 are connected to a network 2 such as the Internet and can communicate with each other.

図2は本発明の一実施形態による電子装置10及びサーバ20のハードウェア構成を示すブロック図である。電子装置10は、プロセッサ11、表示装置12、入力装置13、記憶装置14及び通信装置15を備える。これらの各構成装置はバス16によって接続される。なお、バス16と各構成装置との間には必要に応じてインタフェースが介在しているものとする。本実施形態において、電子装置10はスマートフォンである。ただし、電子装置10は、上記の構成を備えるものであれば、タブレット型コンピュータ、タッチパッド等の接触型入力装置を備えるコンピュータなどの端末とすることができる。 FIG. 2 is a block diagram showing the hardware configuration of the electronic device 10 and server 20 according to one embodiment of the present invention. The electronic device 10 comprises a processor 11 , a display device 12 , an input device 13 , a storage device 14 and a communication device 15 . Each of these components are connected by a bus 16 . It is assumed that an interface is interposed between the bus 16 and each constituent device as required. In this embodiment, the electronic device 10 is a smart phone. However, the electronic device 10 can be a terminal such as a tablet computer or a computer equipped with a contact input device such as a touch pad as long as it has the above configuration.

サーバ20もまた同様に、プロセッサ21、表示装置22、入力装置23、記憶装置24及び通信装置25を備える。これらの各構成装置はバス26によって接続される。なお、バス26と各構成装置との間には必要に応じてインタフェースが介在しているものとする。本実施形態においてサーバ20はコンピュータによって実現される。 The server 20 likewise comprises a processor 21 , a display device 22 , an input device 23 , a storage device 24 and a communication device 25 . Each of these components are connected by a bus 26 . It is assumed that an interface is interposed between the bus 26 and each component as required. In this embodiment, the server 20 is implemented by a computer.

プロセッサ11、21は、電子装置10及びサーバ20全体の動作を制御するものであり、例えばCPUである。なお、プロセッサ11、21としては、MPU等の電子回路が用いられてもよい。プロセッサ11、21は、記憶装置14、24に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。 The processors 11 and 21 control the overall operation of the electronic device 10 and the server 20, and are CPUs, for example. Note that an electronic circuit such as an MPU may be used as the processors 11 and 21 . The processors 11 and 21 perform various processes by reading and executing programs and data stored in the storage devices 14 and 24 .

表示装置(ディスプレイ)12、22は、プロセッサ11、21の制御に従って、アプリケーション画面などを電子装置10のユーザないしサーバ20のユーザに表示する。好ましくは液晶ディスプレイであるが、有機ELを用いたディスプレイやプラズマディスプレイ等であってもよい。 Display devices (displays) 12 and 22 display application screens and the like to the user of the electronic device 10 or the user of the server 20 under the control of the processors 11 and 21 . A liquid crystal display is preferable, but a display using an organic EL, a plasma display, or the like may be used.

入力装置13、23は、電子装置10及びサーバ20に対するユーザからの入力を受け付けるユーザインタフェースであり、例えば、タッチパネル、タッチパッド、キーボード、又はマウスである。本実施形態において電子装置10はスマートフォンであるため、電子装置10は入力装置13としてタッチパネルを備え、タッチパネルは表示装置12としても機能し、表示装置12と入力装置13は一体となった構造である。表示装置12と入力装置13は、別の位置に配置される別個の形態であってもよい。サーバ20はコンピュータであるため、入力装置としてキーボード及びマウスを備え、表示装置として液晶ディスプレイを備えるものとする。 The input devices 13 and 23 are user interfaces that receive user input to the electronic device 10 and the server 20, and are, for example, touch panels, touch pads, keyboards, or mice. In the present embodiment, the electronic device 10 is a smartphone, so the electronic device 10 includes a touch panel as the input device 13, the touch panel also functions as the display device 12, and the display device 12 and the input device 13 are integrated. . The display device 12 and the input device 13 may be separate forms arranged at different positions. Since the server 20 is a computer, it has a keyboard and a mouse as input devices, and a liquid crystal display as a display device.

記憶装置14及び24は、揮発性メモリであるRAM及び不揮発性メモリであるeMMC、UFS、SSDのようなフラッシュメモリを用いた記憶装置及び磁気記憶装置等を含む、一般的なスマートフォン及びコンピュータが備える記憶装置である。記憶装置14、24は、外部メモリを含むこともできる。例えば記憶装置14は、アプリケーション(アプリ)を記憶し、記憶装置24はサーバ用アプリケーションを記憶する。アプリケーションは、アプリケーションのイベントを実行するためのプログラム及び該プログラム実行時に参照する各種データを含む。 The storage devices 14 and 24 include storage devices using flash memory such as volatile memory RAM and non-volatile memory eMMC, UFS, SSD, magnetic storage devices, etc., which are provided in general smartphones and computers. It is a storage device. Storage devices 14, 24 may also include external memory. For example, the storage device 14 stores applications, and the storage device 24 stores server applications. An application includes a program for executing an event of the application and various data referred to when the program is executed.

通信装置15、25は、ネットワーク2(図2においては省略)を介して他の装置との間でデータの授受を行うことができる。例えば通信装置15、25は、移動体通信や無線LAN等の無線通信を行い、ネットワーク2へ接続する。電子装置10は通信装置15を用いることで、ネットワークを介してサーバ20と通信を行う。通信装置15、25は、イーサネット(登録商標)ケーブル等を用いた有線通信を行ってもよい。 The communication devices 15 and 25 can exchange data with other devices via the network 2 (not shown in FIG. 2). For example, the communication devices 15 and 25 perform wireless communication such as mobile communication and wireless LAN, and connect to the network 2 . The electronic device 10 uses the communication device 15 to communicate with the server 20 via the network. The communication devices 15 and 25 may perform wired communication using an Ethernet (registered trademark) cable or the like.

図3は本発明の一実施形態による電子装置10及びサーバ20の機能ブロック図の一例を示す。電子装置10は、制御部101、表示部102、操作受付部103、記憶部104、通信部105、画像情報指定部106、送り先属性情報特定部107、画像認識モデル選択部108、識別子情報推論部109及び応答内容実行部110を備え、サーバ20は、制御部201、表示部202、操作受付部203、記憶部204及び通信部205を備える。記憶部104及び204には複数の画像認識モデル150-1~N及び250-1~Mがそれぞれ記憶される。 FIG. 3 shows an example of a functional block diagram of the electronic device 10 and the server 20 according to one embodiment of the invention. The electronic device 10 includes a control unit 101, a display unit 102, an operation reception unit 103, a storage unit 104, a communication unit 105, an image information designation unit 106, a destination attribute information identification unit 107, an image recognition model selection unit 108, and an identifier information inference unit. 109 and a response execution unit 110 , and the server 20 includes a control unit 201 , a display unit 202 , an operation reception unit 203 , a storage unit 204 and a communication unit 205 . Storage units 104 and 204 store a plurality of image recognition models 150-1 to N and 250-1 to M, respectively.

本実施形態においては、プロセッサ11、21がプログラムを実行することによりこれらの機能が実現される。例えば実行されるプログラムは、記憶装置14、24に記憶されているプログラムである。このように、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部又は全部を他のパートが有していてもよい。各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってこれらの機能を実現してもよい。 In this embodiment, these functions are realized by the processors 11 and 21 executing programs. For example, the program to be executed is a program stored in the storage devices 14,24. In this way, since various functions are realized by program loading, one part (function) may be partly or wholly included in another part. These functions may be realized by hardware by configuring an electronic circuit or the like for realizing part or all of each function.

電子装置10の制御部101は、本実施形態のアプリケーションによる機能を実行するにあたっての制御処理を行う。表示部102は、アプリケーションの機能を制御するためのアプリ用画面を表示し、アプリケーションの機能やユーザ操作に応じたアプリ用画面を表示する。操作受付部103は、電子装置10のユーザからの入力を受け付ける。本実施形態においては、表示部102及び操作受付部103を備えたタッチパネルを用いることとし、タッチ検出機能によって操作受付部を実現する。 The control unit 101 of the electronic device 10 performs control processing for executing the functions of the application of the present embodiment. The display unit 102 displays application screens for controlling application functions, and displays application screens corresponding to application functions and user operations. The operation reception unit 103 receives input from the user of the electronic device 10 . In this embodiment, a touch panel including the display unit 102 and the operation reception unit 103 is used, and the operation reception unit is realized by the touch detection function.

記憶部104は制御部101によって実行される情報処理に必要な情報を格納する。さらに、記憶部104は、ユーザが利用可能な2以上の属性情報を記憶する。属性情報は、画像の送り先となる属性を示す情報であり、例えば、ゲームアプリケーションにおけるキャラクタや、仮想的な人格を識別する情報とすることができる。 The storage unit 104 stores information necessary for information processing executed by the control unit 101 . Furthermore, the storage unit 104 stores two or more pieces of attribute information that can be used by the user. The attribute information is information indicating the attribute to which the image is sent, and can be, for example, information identifying a character in a game application or a virtual personality.

本実施形態においては、属性はゲームのキャラクタとし、属性情報をキャラクタ識別情報とする。同一キャラクタであっても、レア度の違いや、コスチュームの違いなどによって複数のバリエーションが存在する場合には、属性情報として異なるキャラクタ識別情報を与えてもよい。記憶部104は、属性情報として、ユーザが所有するキャラクタのキャラクタ識別子を記憶する。さらに、記憶部104は、各属性情報に対応付けられた画像認識モデル150-1~Nを格納する。ここでは、ユーザが所有するN個のキャラクタのキャラクタ識別子に紐付けられた画像認識モデルが記憶される。画像認識モデルは、各モデル毎に固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能なニューラルネットワーク(NN)モデルである。 In this embodiment, the attribute is the character of the game, and the attribute information is the character identification information. Even for the same character, if there are multiple variations due to differences in rarity, costumes, etc., different character identification information may be given as attribute information. The storage unit 104 stores character identifiers of characters owned by the user as attribute information. Further, storage unit 104 stores image recognition models 150-1 to 150-N associated with each piece of attribute information. Here, image recognition models linked to character identifiers of N characters owned by the user are stored. An image recognition model is a neural network (NN) model that is defined by unique learning content for each model and that can infer at least one piece of identifier information using the learning content.

識別子情報は、画像内容を示す情報であり、予めシステム設計者によって設定することができる。本明細書においては、学習内容を利用した画像認識モデルの推論結果としての識別子情報をクラスと表現することがある。学習内容を定義するための教師データを定義するための識別子情報をラベルと表現することがある。また、推論された識別子情報に基づいて実行される応答内容を示すスクリプトデータと紐付けられた識別子情報もラベルと表現することがある。 The identifier information is information indicating image content, and can be set in advance by the system designer. In this specification, identifier information as an inference result of an image recognition model using learning content may be expressed as a class. Identifier information for defining teacher data for defining learning content may be expressed as a label. Identifier information associated with script data indicating response content to be executed based on inferred identifier information may also be expressed as a label.

送り先属性情報特定部107は、操作受付部103が受け付けたユーザによる入力操作に基づき、記憶部104に記憶された属性情報の中から少なくとも1つの属性情報を画像情報の送り先として特定する。画像情報指定部106は、操作受付部103の受け付けたユーザ入力操作に基づき、送り先へ送るための画像情報を指定する。画像情報は静止画の画像情報だけでなく、動画像の画像情報であってもかまわない。 Destination attribute information specifying unit 107 specifies at least one piece of attribute information from among attribute information stored in storage unit 104 as a destination of image information based on the user's input operation accepted by operation accepting unit 103 . The image information specifying unit 106 specifies image information to be sent to the destination based on the user input operation accepted by the operation accepting unit 103 . The image information may be not only image information of a still image but also image information of a moving image.

画像認識モデル選択部108は、送り先属性情報特定部107の特定した属性情報に紐づけられた画像認識モデルを、記憶部104に記憶された複数の画像認識モデルの中から選択する。識別子情報推論部109は、画像認識モデル選択部108の選択した画像認識モデル150へ画像情報指定部106の指定した画像情報を入力し、学習内容に基づいて、画像情報から識別子情報を推論する。応答内容実行部110は、識別子情報推論部109の推論した識別子情報に基づき、当該識別子情報に対応した応答内容を記憶部104に記憶された複数の応答内容の中から特定して実行する。 The image recognition model selection unit 108 selects an image recognition model linked to the attribute information specified by the destination attribute information specification unit 107 from among a plurality of image recognition models stored in the storage unit 104 . The identifier information inference unit 109 inputs the image information specified by the image information specification unit 106 to the image recognition model 150 selected by the image recognition model selection unit 108, and infers identifier information from the image information based on the learning contents. Based on the identifier information inferred by the identifier information inference unit 109, the response content execution unit 110 specifies and executes the response content corresponding to the identifier information from among the plurality of response contents stored in the storage unit 104. FIG.

サーバ20の制御部201は、電子装置10において実行されるアプリケーションのための処理を行う。1つの例では、制御部201は、電子装置10においてアプリケーションが実行されると、定期的に、又は必要に応じてデータの送受信を行い、電子装置10においてアプリケーションの機能を実現させる。表示部202は、必要に応じてサーバ管理者のための管理画面を表示装置22に表示する。 The control unit 201 of the server 20 performs processing for applications executed in the electronic device 10 . In one example, when an application is executed in the electronic device 10 , the control unit 201 transmits and receives data regularly or as needed, and causes the electronic device 10 to implement the function of the application. The display unit 202 displays a management screen for the server administrator on the display device 22 as necessary.

記憶部204は、制御部201によって実行される情報処理に必要な情報を格納する。さらに、記憶部204は、アプリケーションにおいて利用可能なすべての属性情報を記憶するとともに、各属性情報に対応付けられた画像認識モデル250-1~Mを格納する。本実施形態においては、サーバ20において、ゲームアプリにおいて利用可能な全てのキャラクタであるM個のキャラクタのために、各モデルに固有の教師データが用意されて画像認識モデル250-1~Mが生成され、記憶部204に記憶される。そして、そのうちの電子装置10のユーザが所有するキャラクタに対応する画像認識モデルが電子装置10へ送信され、記憶部104に記憶される。 The storage unit 204 stores information necessary for information processing executed by the control unit 201 . Further, the storage unit 204 stores all attribute information that can be used in the application, and image recognition models 250-1 to 250-M associated with each attribute information. In this embodiment, the server 20 prepares teacher data unique to each model for M characters, which are all characters available in the game application, and generates image recognition models 250-1 to 250-M. and stored in the storage unit 204 . Then, an image recognition model corresponding to the character owned by the user of the electronic device 10 is transmitted to the electronic device 10 and stored in the storage unit 104 .

次に、図4を用いて、本実施形態におけるシステムの情報処理動作400について説明する。本実施形態においては、システムはゲームシステムであり、電子装置10としてスマートフォンを用い、アプリケーションとしてゲームアプリケーションが電子装置10においてスマートフォン用のOS上で実行され、サーバ20においてはサーバ用のゲームアプリケーションがサーバ用のOS上で実行されるものとする。本ゲームにおいては、ゲーム媒体として複数のキャラクタが用意され、ユーザは例えば抽選処理によってキャラクタを入手する。そして、入手した複数のキャラクタを用いながらゲームを進行させるものとする。ここでは、ユーザが所有するキャラクタに対して、ユーザがゲーム外で取得した画像をキャラクタに対して送信し、推論されたその画像の画像内容に応じてキャラクタ毎に定められた応答処理が実行される場合を例にとって説明する。キャラクタに対して送信するとは、キャラクタと共有するための他の概念を含みうる。 Next, the information processing operation 400 of the system according to this embodiment will be described with reference to FIG. In this embodiment, the system is a game system, a smartphone is used as the electronic device 10, a game application is executed on the smartphone OS in the electronic device 10, and a server game application is executed in the server 20. It shall be executed on an OS for In this game, a plurality of characters are prepared as game media, and the user obtains the characters through lottery processing, for example. Then, it is assumed that the game is progressed while using the obtained plurality of characters. Here, an image obtained by the user outside the game is transmitted to the character owned by the user, and response processing determined for each character is executed according to the inferred image content of the image. A case will be described as an example. Sending to a character can include other concepts for sharing with a character.

本実施形態においては、推論時に、画像情報としてビットマップ画像を入力して、その画像内容に対応するクラスとしての識別子情報を出力する関数として画像認識モデルがモデル化される。ここで、画像内容とは画像内に撮影されているオブジェクトや背景、オブジェクトの組み合わせなど、ニューラルネットワークが分類可能な任意の特徴を意味する。 In this embodiment, an image recognition model is modeled as a function that inputs a bitmap image as image information and outputs identifier information as a class corresponding to the content of the image at the time of inference. Here, image content means any feature that can be classified by a neural network, such as an object or background photographed in an image, or a combination of objects.

例えば、画像内容が果物のリンゴのとき、本システムは、推論として、”リンゴ, 90%”のように、識別子情報(クラス)とその確率を出力する。そして、推論された識別子情報として、最も確率の高い識別子のための識別子情報のみを出力したり、所定の閾値を超えるすべての識別子情報を出力することができる。 For example, when the image content is the fruit apple, the system outputs identifier information (class) and its probability, such as "apple, 90%" as an inference. Then, as inferred identifier information, it is possible to output only the identifier information for the identifier with the highest probability, or to output all the identifier information exceeding a predetermined threshold.

情報処理動作400においてはまず、キャラクタ毎に固有の学習内容を用意して、この固有の学習内容によって画像認識モデルが定義され、サーバの記憶部204に記憶されるとともに、電子装置10においてユーザが所有するキャラクタに紐づけられた画像認識モデルがダウンロードされ、記憶部104において記憶される(S401)。これによって、キャラクタ毎に個性化されたニューラルネットワークモデルを用意することが可能となる。 In the information processing operation 400 , first, learning content unique to each character is prepared, and an image recognition model is defined by this unique learning content and stored in the storage unit 204 of the server. An image recognition model linked to the owned character is downloaded and stored in the storage unit 104 (S401). This makes it possible to prepare a neural network model individualized for each character.

本実施形態においては学習内容は各画像認識モデルに固有の教師データによって定義され、当該固有の教師データはそれぞれ画像情報およびラベルとしての識別子情報の対の集合によって定義される。教師データDcのデータ構造の一例を式(1)に示す。

Figure 0007335221000001
In this embodiment, the learning content is defined by teacher data unique to each image recognition model, and the unique teacher data is defined by a set of pairs of image information and identifier information as labels. An example of the data structure of the training data Dc is shown in Equation (1).
Figure 0007335221000001

ここで、labeliは、i番目の画像が示す画像内容のラベル文字列である。bitmapiは、i番目の画像のビットマップデータである。すなわち、本発明では、教師データは、画像とそのラベルの対の集合となる。深層学習による多クラス分類問題の解決では、1つのビットマップ画像に、複数のラベルを紐づけて学習することが可能であり、n×mの関係として、ラベルとビットマップを定義している。次に、Dcが定義するすべてのラベル集合であるLcは、次のように定義できる。

Figure 0007335221000002
Here, label i is the label character string of the image content indicated by the i-th image. bitmap i is the bitmap data of the i-th image. That is, in the present invention, teacher data is a set of pairs of images and their labels. In solving a multi-class classification problem by deep learning, it is possible to learn by associating multiple labels with one bitmap image, and labels and bitmaps are defined as an n×m relationship. Next, L c , which is the set of all labels defined by D c , can be defined as follows.
Figure 0007335221000002

ここで、labeliは、i番目のラベル文字列であり、集合Lc内ではユニークな識別性を有する。pは、Dcが規定するラベルの種類の数に対応する。キャラクタcに対応する演出シナリオScは次のように定義できる。

Figure 0007335221000003
Here, label i is the i-th label character string and has unique identification within the set L c . p corresponds to the number of label types defined by Dc. A rendering scenario S c corresponding to a character c can be defined as follows.
Figure 0007335221000003

ここで、labeliは、i番目の種類のラベル文字列であり、scriptiは、i番目のラベルが入力された際に、システムが再生すべき演出のスクリプトデータである。なお、本発明では、ラベルを一つだけ用いるのではなく、例えば、リンゴとサングラスが同時に撮影された場合などのように、複数のラベルを組み合わせて画像内容を記述しても良い。したがって、ここでのラベル数の最大値qは、ラベルの種類の数pよりも多くても良い。 Here, label i is the i-th type of label character string, and script i is the script data of the effect that the system should reproduce when the i-th label is input. Note that, in the present invention, instead of using only one label, a plurality of labels may be combined to describe the image content, such as when an apple and sunglasses are photographed at the same time. Therefore, the maximum value q of the number of labels here may be larger than the number p of label types.

次に、キャラクタ毎に個性化したニューラルネットワークモデルの生成方法を示す。DNNを用いた学習を行う関数であるlearn関数は、ある特定のキャラクタcに対応する教師データ学習データバケットDcを受け取り、画像内容の多クラス分類(Multiclass Classification)を行うモデルMcを出力する関数であり、次のように定義できる:

Figure 0007335221000004
Next, a method for generating a neural network model individualized for each character will be described. The learn function, which is a function that performs learning using a DNN, receives teacher data learning data bucket D c corresponding to a specific character c, and outputs a model M c that performs multiclass classification of image content. is a function and can be defined as:
Figure 0007335221000004

このlearn関数は、一般的に知られた画像認識NNモデルを作成する方式や、学習済みモデルへのファインチューニングとしてトレーニングデータを入力する方式として実装することができる。画像認識NNモデルを作成する方式としては、例えば、AlexNetやVGG1を用いることができ、学習済みモデルへのファインチューニングとしてトレーニングデータを入力する方式としては、Inception-v3を用いることができる。これらの方式は、例えば、Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. "Imagenet classification with deep convolutional neural networks." Advances in neural information processing systems. 2012、Lecun, Y, Bengio, Y & Hinton, G, "Deep learning," Nature, vol. 521, no. 7553, pp. 436-444. 2015、 Toru Ogawa, Atsushi Otsubo, Rei Narita, Yusuke Matsui, Toshihiko Yamasaki, Kiyoharu Aizawa, "Object Detection for Comics using Manga109 Annotations," arXiv:1803.08670, 2018、Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., & Wojna, Z. (2016)、及び、Rethinking the Inception Architecture for Computer Vision. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2818-2826に記載されているように、当業者にはよく知られたものである。 This learn function can be implemented as a method for creating a generally known image recognition NN model, or as a method for inputting training data as fine tuning to a trained model. For example, AlexNet or VGG1 can be used as a method for creating an image recognition NN model, and Inception-v3 can be used as a method for inputting training data for fine-tuning a trained model. These schemes are described, for example, in Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. "Imagenet classification with deep convolutional neural networks." Advances in neural information processing systems. 2012, Lecun, Y, Bengio, Y & Hinton, G , "Deep learning," Nature, vol. 521, no. 7553, pp. 436-444. 2015, Toru Ogawa, Atsushi Otsubo, Rei Narita, Yusuke Matsui, Toshihiko Yamasaki, Kiyoharu Aizawa, "Object Detection for Comics using Manga109 Annotations ," arXiv:1803.08670, 2018, Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., & Wojna, Z. (2016), and Rethinking the Inception Architecture for Computer Vision. 2016 IEEE Conference It is well known to those skilled in the art, as described in on Computer Vision and Pattern Recognition (CVPR), 2818-2826.

このように、キャラクタ毎に個性化した学習内容を用意して、個性化したニューラルネットワークモデルを用意することにより、キャラクタの個性に合わせて、識別する画像内容を定めることができる。例えば、ゲームシナリオの設定において、キャラクタAはリンゴと自動車が好きであり、キャラクタBはクモとカエルが嫌いな場合には、リンゴと自動車を画像内容として含む画像をキャラクタAのための教師データとして用意し、クモとカエルを画像内容として含む画像をキャラクタBのための教師データとして用意する。そして、これらを用いて、キャラクタA及びBのための画像認識モデルをそれぞれ生成する。これによって、キャラクタAの画像認識モデルに画像情報が入力されると、リンゴと自動車を識別し、キャラクタBの画像認識モデルに画像情報が入力されるとクモとカエルを識別し、キャラクタに固有に定められた画像内容を識別することが可能となる。そして、識別された画像内容にしたがって、個性化されたシナリオスクリプトを実行することができる。 Thus, by preparing individualized learning contents for each character and preparing an individualized neural network model, image contents to be identified can be determined according to the character's individuality. For example, in setting a game scenario, if character A likes apples and cars, and character B dislikes spiders and frogs, an image containing apples and cars as image content is used as teacher data for character A. An image containing a spider and a frog as image contents is prepared as teacher data for the character B. These are then used to generate image recognition models for characters A and B, respectively. Thus, when the image information is input to the image recognition model of character A, the apple and the car are identified, and when the image information is input to the image recognition model of character B, the spider and frog are identified, and the image recognition model unique to the character is identified. It is possible to identify the defined image content. A personalized scenario script can then be executed according to the identified image content.

ニューラルネットワークモデルを用いた一般画像認識モデルが知られており、自動車やバス、ハンドバックや人のように、画像内の物体に一般名詞をラベリングしていくような、高度なラベリング問題を解くことができる。このような一般画像認識モデルは、自動運転や高度な監視カメラにおいて用いることができる。一般画像認識は優れた技術であるものの、ゲーム内容に応じてラベル対象の分類を細かくすることや、特定の看板にのみ反応させるような、アプリケーションに特化したカスタマイズを行うことは難しく、多数のアプリケーションに対応する多数の学習モデルを既存の方式で用意するためには極めて大規模なデータを用意する必要があるため、応用の種類へのスケーラビリティという面で課題がある。さらに、一般的な多数の物体を認識するため、ユーザ端末のような電子装置で高速にレスポンスさせることは必ずしも容易ではないとともに、小さなデータ追加のみで画像認識機能を修正、拡張させることも困難である。 A general image recognition model using a neural network model is known, and it can solve advanced labeling problems such as labeling common nouns to objects in images such as cars, buses, handbags, and people. can. Such general image recognition models can be used in autonomous driving and advanced surveillance cameras. Although general image recognition is an excellent technology, it is difficult to customize the classification of labels according to the content of the game, or to customize the application, such as reacting only to specific signboards. In order to prepare a large number of learning models corresponding to applications using existing methods, it is necessary to prepare extremely large-scale data, so there is a problem in terms of scalability to different types of applications. In addition, it is not always easy to achieve high-speed response with electronic devices such as user terminals because it recognizes a large number of general objects, and it is also difficult to modify and extend the image recognition function by adding only small amounts of data. be.

これに対して、本実施形態のように、キャラクタ毎に個性化されたニューラルネットワークモデルは、特定の画像内容だけ識別することが可能であれば十分であるから、キャラクタに応じてラベル対象をカスタマイズさせることは容易であるとともに、比較的小さなニューラルネットワークモデルとして実装が可能であるため、推論時のレスポンス性能が高く、また小さなデータ追加のみで画像認識機能を拡張させることができる。 On the other hand, the neural network model personalized for each character, as in the present embodiment, is sufficient if it can identify only specific image contents. It is easy to implement, and it can be implemented as a relatively small neural network model, so the response performance at the time of inference is high, and the image recognition function can be expanded with only a small amount of data addition.

ゲーム内において多数のキャラクタが存在する場合であっても、各ユーザが所有するキャラクタのための画像認識モデルだけを電子装置10へダウンロードさせればよいし、更新された際も、その更新された画像認識モデルのみを更新して、ダウンロードさせることができる。 Even if there are many characters in the game, only the image recognition models for the characters owned by each user need to be downloaded to the electronic device 10. Only the image recognition model can be updated and downloaded.

電子装置10において、ユーザが所有するキャラクタのための画像認識モデルが記憶された後、アプリを用いて送信するための画像情報を指定するための画面500が表示部102に表示される。そして、操作受付部103が受け付けたユーザ入力操作に基づいて、画像情報指定部106が、送信対象となる画像情報を指定する(S402)。例えば、図5Aに示すように複数の写真のサムネイル画像501が画面に表示され、アプリで送信したい画像のサムネイル画像501にユーザがタッチして、「アプリで送信」ボタン502をタッチすることにより、送信対象となる画像情報が指定される。送信するための画像情報として2以上の画像情報を指定しても良い。 After the image recognition model for the character owned by the user is stored in the electronic device 10 , a screen 500 for specifying image information to be transmitted using the application is displayed on the display unit 102 . Then, based on the user input operation accepted by the operation accepting unit 103, the image information specifying unit 106 specifies image information to be transmitted (S402). For example, as shown in FIG. 5A, thumbnail images 501 of a plurality of photos are displayed on the screen, and the user touches the thumbnail image 501 of the image to be sent using the application, and touches the "send using application" button 502. Image information to be transmitted is specified. Two or more pieces of image information may be designated as image information to be transmitted.

次に、ユーザによる操作にしたがって、指定された画像情報を送信するためのアプリケーションを特定する。例えば、図5Bに示すように、S402において指定された画像情報の画像512を表示するとともに、送信用に利用可能なアプリケーションのアイコン514が表示され、ユーザによるアイコンへのタッチによってアプリケーションが選択されて、「決定」ボタン516をタッチすることにより、送信用のアプリケーションが決定される。ここでは、本発明を実施するためのゲームアプリが選択されるものとする。 Next, an application for transmitting the specified image information is specified according to the user's operation. For example, as shown in FIG. 5B, an image 512 of the image information specified in S402 is displayed, an icon 514 of an application that can be used for transmission is displayed, and an application is selected by the user touching the icon. , the "determine" button 516, the application for transmission is determined. Here, it is assumed that a game application for carrying out the present invention is selected.

本実施形態においては、画像情報を指定する処理及び送信用のアプリケーションを決定する処理は、スマートフォンのOSの機能として実行されるものとするが、本発明のゲームアプリの一部の機能とすることもできる。例えば、ゲームアプリを起動した後、画像情報をキャラクタへ送信するための機能を起動することにより、画像情報指定用の画面500を表示させることができる。 In the present embodiment, the process of designating image information and the process of determining an application for transmission are assumed to be executed as functions of the OS of the smartphone, but may be part of the functions of the game application of the present invention. can also For example, the screen 500 for designating image information can be displayed by activating a function for transmitting image information to a character after activating a game application.

送信用のアプリケーションとして、キャラクタへの画像の送信を希望するユーザが本実施形態のためのゲームアプリを選択すると、当該ゲームアプリが起動され、送り先属性情報としてのキャラクタ識別情報を選択するための画面が表示部102に表示される。そして、送り先属性情報特定部107が、操作受付部の受け付けたユーザ操作に基づき、少なくとも1つの属性情報としてのキャラクタ識別情報を画像情報の送り先として特定する(S404)。例えば、図5Cに示すように、送信対象として指定された画像522が表示されるとともに、送り先キャラクタの選択ボタンがキャラクタ名を示す文字情報524を含むボタンとして表示され、ユーザによるボタンへのタッチによってキャラクタが選択されて、決定ボタン526をタッチすることにより、送り先属性情報識別情報としてのキャラクタ識別情報が特定される。キャラクタ名の文字情報に加えて、または、キャラクタ名に代えてキャラクタを示すアイコン画像情報を表示しても良い。キャラクタ識別情報を特定することができれば、ユーザによって入力された文字情報など、その他の方法で特定しても良い。 When a user who wishes to transmit an image to a character selects the game application for this embodiment as an application for transmission, the game application is started, and a screen for selecting character identification information as destination attribute information is displayed. is displayed on the display unit 102 . Then, the destination attribute information specifying unit 107 specifies character identification information as at least one piece of attribute information as the destination of the image information based on the user operation received by the operation receiving unit (S404). For example, as shown in FIG. 5C, an image 522 designated as a transmission target is displayed, and a destination character selection button is displayed as a button containing character information 524 indicating the character name. Character identification information as destination attribute information identification information is specified by selecting a character and touching decision button 526 . In addition to the character information of the character name, or instead of the character name, icon image information indicating the character may be displayed. As long as the character identification information can be specified, it may be specified by other methods such as character information input by the user.

次に、画像認識モデル選択部108が、特定された属性情報であるキャラクタ識別情報に紐づけられた画像認識モデルを、記憶部104に記憶された複数の画像認識モデル150-1~Nの中から選択する(S406)。 Next, the image recognition model selection unit 108 selects the image recognition model linked to the character identification information, which is the specified attribute information, from among the plurality of image recognition models 150-1 to 150-N stored in the storage unit 104. (S406).

識別子情報推論部109が、画像認識モデル選択部108の選択した画像認識モデルへ画像情報指定部106の指定した画像情報を入力し、学習内容に基づいて、当該画像情報から識別子情報を推論する(S408)。 The identifier information inference unit 109 inputs the image information specified by the image information specification unit 106 to the image recognition model selected by the image recognition model selection unit 108, and infers identifier information from the image information based on the learning content ( S408).

例えば、画像情報dと宛先となるキャラクタ識別情報cを入力した場合に、ラベルについての推論についての関数であるinferは、次のように定義できる

Figure 0007335221000005
For example, when image information d and destination character identification information c are input, infer, a function for inference about labels, can be defined as follows.
Figure 0007335221000005

ここで、label_scoreiは、i番目のラベルに対応する画像内容がビットマップ内に存在する存在確率である。そして、本実施形態では、識別子情報推論部109は、推論された識別子情報として、存在確率が最も高いラベルに対応する画像内容が存在するものとして、その識別子情報であるラベルを出力する。所定の閾値を超えるスコアを持つすべてのラベルを含むラベル群を出力しても良い。 Here, label_score i is the existence probability that the image content corresponding to the i-th label exists in the bitmap. Then, in this embodiment, the identifier information inference unit 109 assumes that image content corresponding to the label with the highest existence probability exists as the inferred identifier information, and outputs the label, which is the identifier information. A set of labels containing all labels with scores above a given threshold may be output.

画像認識モデルに入力された画像522は画像内容としてリンゴを含み、自動車は含まれないから、label_score1は高い値が出力され、label_score2は低い値が出力され、推論結果としてリンゴに対応するlabel1が出力される。 Since the image 522 input to the image recognition model contains an apple as image content and does not contain a car, a high value is output for label_score 1 and a low value for label_score 2 , and the label corresponding to the apple is output as an inference result. 1 is output.

そして、応答内容実行部110は、識別子情報推論部109が出力した識別子情報に基づき、当該識別子情報に対応した応答内容を記憶部104に記憶された複数の応答内容の中から特定して実行する(S410)。 Based on the identifier information output by the identifier information inferring unit 109, the response content executing unit 110 specifies and executes the response content corresponding to the identifier information from among the plurality of response contents stored in the storage unit 104. (S410).

本実施形態においては、記憶部104は、式(3)に示すデータ構造で、キャラクタ識別子情報に紐付けて演出シナリオScを記憶している。応答内容実行部110は、送り先属性情報特定部107によって特定されたキャラクタ識別情報に紐付けられたキャラクシナリオScを特定し、そのキャラクタシナリオの集合のうち、識別子情報推論部109によって推論された識別子情報であるラベルに紐付けられたスクリプトデータを特定する。そして、この特定されたスクリプトデータに基づいて、応答内容を実行する。例えば、図5Dに示すように、送り先として特定されたキャラクタ識別情報に対応するキャラクタの画像530を表示部102に表示するとともに、入力された画像の画像内容であるリンゴに関連するメッセージを応答メッセージ540として表示することができる。 In this embodiment, the storage unit 104 stores the production scenario Sc in association with the character identifier information in the data structure shown in Equation (3). The response content execution unit 110 identifies the character scenario Sc linked to the character identification information identified by the destination attribute information identification unit 107, and selects the identifier inferred by the identifier information inference unit 109 from among the set of character scenarios. Identify the script data linked to the label that is the information. Then, the content of the response is executed based on the specified script data. For example, as shown in FIG. 5D, a character image 530 corresponding to the character identification information specified as the destination is displayed on the display unit 102, and a message related to an apple, which is the image content of the input image, is displayed as a response message. 540.

従来のゲーム内のキャラクタとのコミュニケーションはキャラクタへタップして、その応答が表示されるなどの限定的なものであった。本実施形態を用いることにより、例えばユーザが現実世界で撮影した画像をキャラクタに送信すると、画像内容に応じたそのキャラクタの反応が演出されるため、あたかもキャラクタと写真や動画像を共有しあっているような自然なコミュニケーションを可能とし、キャラクタのリアリティ性を高めることができる。その結果、ゲームへの没入感、現実との融合間を高めることが可能となる。 Communication with characters in conventional games has been limited, such as by tapping the character and displaying the response. By using this embodiment, for example, when a user sends an image taken in the real world to a character, the reaction of the character is produced according to the content of the image. It enables natural communication as if you were there, and enhances the reality of the character. As a result, it is possible to enhance the sense of immersion in the game and the fusion with reality.

本実施形態において送信される画像情報は、特定のカメラデバイスに依存しておらず、カメラから撮影した画像だけでなく、ゲームアプリのSNSアカウントを通じて配布された画像や、ユーザが、コラージュ的に作成した画像なども対象とすることができる。これにより、現実のイベントに参加して撮影した画像にキャラクタが反応する演出や、SNSアカウントを介して配布された画像にキャラクタが反応する演出を実現することができる。 The image information transmitted in this embodiment does not depend on a specific camera device. Images that have been processed can also be targeted. As a result, it is possible to realize an effect in which a character reacts to an image taken while participating in a real event, or an effect in which a character reacts to an image distributed via an SNS account.

スクリプトデータによる応答内容は、メッセージによる応答に限られず、入力された画像情報に応答するものであればどのようなものであってもかまわない。例えば、キャラクタの動画が再生されたり、そのキャラクタとのバトルイベントが開始されても良い。現実のイベント会場において掲示されたポスターを撮影して属性情報に対して送信を行うことにより、ゲーム内イベントの実行処理を開始してもよい。 The content of the script data response is not limited to a message response, and may be anything as long as it responds to the input image information. For example, a moving image of a character may be reproduced, or a battle event with that character may be started. Execution processing of an in-game event may be started by photographing a poster put up at a real event venue and transmitting the attribute information.

本実施形態のように、属性情報と画像認識モデルとを紐づけ、送信先の属性情報が選択されると、その属性情報に紐付けられた画像認識モデルが選択され画像認識に使用される、という構成を採用することにより、例えば、ゲームアプリにおいて数百名以上のキャラクタが数万種類以上の画像内容を認識するという設定においても、個別のキャラクタ向けに学習された画像認識モデルを用いた高々1 回の推論処理で対象となる画像内容を認識することができ、高いレスポンス性能を実現できる。 As in this embodiment, when the attribute information and the image recognition model are linked and the attribute information of the destination is selected, the image recognition model linked to the attribute information is selected and used for image recognition. By adopting this configuration, for example, even in a setting where several hundred characters or more recognize tens of thousands of types of image contents in a game application, at most, the image recognition model trained for each individual character is used. It is possible to recognize the content of the target image with a single inference process, and achieve high response performance.

画像を認識する学習モデルは例えば数百キロバイト程度とすることができ、属性情報に予め紐づけて容易に電子装置にダウンロードさせることができ、電子装置側で画像認識処理を実行することが可能である。このため、画像情報をサーバに送る必要がなく、個人情報保護を適切に行うと同時にサーバ負荷の低減を実現することができる。また、画像認識モデルを更新した場合であっても、更新された画像認識モデルを電子装置側に再度ダウンロードさせるだけでよいため、高い拡張性を実現する。 A learning model for recognizing an image can be, for example, about several hundred kilobytes, and can be linked to attribute information in advance and easily downloaded to an electronic device, and image recognition processing can be executed on the electronic device side. be. Therefore, there is no need to send image information to the server, and personal information can be appropriately protected, and the server load can be reduced. Further, even when the image recognition model is updated, it is only necessary to re-download the updated image recognition model to the electronic device side, thereby realizing high extensibility.

[第2の実施形態]
本実施形態は、電子装置10が画像認識モデルを記憶部104に記憶せず、電子装置10の画像認識モデル選択部108及び識別子情報推論部109に代えて、サーバ20が画像認識モデル選択部208及び識別子情報推論部209を備える点で、第1の実施形態と異なる。以下、第1の実施形態と異なる点を中心に説明する。
[Second embodiment]
In this embodiment, the electronic device 10 does not store the image recognition model in the storage unit 104, and instead of the image recognition model selection unit 108 and the identifier information inference unit 109 of the electronic device 10, the server 20 stores the image recognition model selection unit 208. and an identifier information inference unit 209, which is different from the first embodiment. The following description will focus on the differences from the first embodiment.

本実施形態においては、サーバ20において、キャラクタ毎に固有の学習内容を用意して、この固有の学習内容によって画像認識モデルを定義して、記憶部204に記憶するが(S401)、電子装置10へ画像認識モデルをダウンロードさせない。 In this embodiment, the server 20 prepares unique learning content for each character, defines an image recognition model based on this unique learning content, and stores it in the storage unit 204 (S401). Do not download the image recognition model to

その後、第1の実施形態と同様の処理により、電子装置10において、属性情報に対して送信するための画像情報を指定し(S402)、送り先属性情報を特定する(S404)。そして、通信部105を用いて、指定された画像情報及び特定された送り先属性情報を含む、識別子情報推論要求をサーバ20へ送信する。サーバ20の画像認識モデル選択部208は受信した識別子情報推論要求に含まれる送り先属性情報に基づいて、画像情報を入力するための画像認識モデル250を選択する(S406)。識別子情報推論部209は、識別子情報推論要求に含まれる画像情報を、選択された画像認識モデル250に入力して、識別情報推論処理を実行する(S408)。識別子情報推論部209は、画像情報の画像内容に対応する識別子情報を出力し、サーバ20の通信部205がこれを電子装置10へ送信する。電子装置10の通信部105は、サーバ20から送信された識別子情報を受信し、これに紐づけられたスクリプトデータに基づいて、応答内容を実行する(S410)。 After that, in the electronic device 10, image information for transmission is specified for the attribute information (S402), and destination attribute information is specified (S404), by the same processing as in the first embodiment. Then, using the communication unit 105 , an identifier information inference request including the specified image information and the specified destination attribute information is transmitted to the server 20 . The image recognition model selection unit 208 of the server 20 selects the image recognition model 250 for inputting image information based on the destination attribute information included in the received identifier information inference request (S406). The identifier information inference unit 209 inputs the image information included in the identifier information inference request to the selected image recognition model 250, and executes identification information inference processing (S408). The identifier information inference unit 209 outputs identifier information corresponding to the image content of the image information, and the communication unit 205 of the server 20 transmits this to the electronic device 10 . The communication unit 105 of the electronic device 10 receives the identifier information transmitted from the server 20, and executes the content of the response based on the script data linked thereto (S410).

本実施形態を用いることにより、電子装置10は、画像認識モデルを記憶し、識別子情報推論処理を実行する必要がないから、電子装置10の記憶容量や処理能力が極めて小さい場合であっても、高いレスポンス性能で処理を実行することが可能となる。 By using this embodiment, the electronic device 10 does not need to store an image recognition model and execute identifier information inference processing. It is possible to execute processing with high response performance.

また、電子装置10において識別子情報に対応するスクリプトデータを特定せずに、サーバ20においてスクリプトデータを特定し、送信されたスクリプトデータに基づいて、応答内容を実行してもかまわない。さらに、例えば、ブラウザベースのゲームアプリの場合には、サーバ20において応答処理を実行し、実行された演出を電子装置10において表示するだけであっても良い。 Alternatively, the server 20 may specify the script data without specifying the script data corresponding to the identifier information in the electronic device 10, and the content of the response may be executed based on the transmitted script data. Furthermore, for example, in the case of a browser-based game application, the server 20 may execute response processing, and the executed effect may be displayed on the electronic device 10 .

以上に説明した処理または動作において、矛盾が生じない限りにおいて、処理または動作を自由に変更することができる。また以上に説明してきた各実施形態は、本発明を説明するための例示であり、本発明はこれらの実施形態に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 In the processing or operation described above, the processing or operation can be freely changed as long as there is no contradiction. Moreover, each embodiment described above is an illustration for demonstrating this invention, and this invention is not limited to these embodiments. The present invention can be embodied in various forms without departing from the gist thereof. Moreover, the effects described in the present embodiment are merely enumerations of the most suitable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the present embodiment.

1 :システム
2 :ネットワーク
10 :電子装置
11 :プロセッサ
12 :表示装置
13 :入力装置
14 :記憶装置
15 :通信装置
16 :バス
20 :サーバ
21 :プロセッサ
22 :表示装置
23 :入力装置
24 :記憶装置
25 :通信装置
26 :バス
101 :制御部
102 :表示部
103 :操作受付部
104 :記憶部
105 :通信部
106 :画像情報指定部
107 :送り先属性情報特定部
108 :画像認識モデル選択部
109 :識別子情報推論部
110 :応答内容実行部
150 :画像認識モデル
201 :制御部
202 :表示部
203 :操作受付部
204 :記憶部
205 :通信部
208 :画像認識モデル選択部
209 :識別子情報推論部
250 :画像認識モデル
1 : System 2 : Network 10 : Electronic Device 11 : Processor 12 : Display Device 13 : Input Device 14 : Storage Device 15 : Communication Device 16 : Bus 20 : Server 21 : Processor 22 : Display Device 23 : Input Device 24 : Storage Device 25: communication device 26: bus 101: control unit 102: display unit 103: operation reception unit 104: storage unit 105: communication unit 106: image information designation unit 107: destination attribute information identification unit 108: image recognition model selection unit 109: Identifier information inference unit 110 : Response content execution unit 150 : Image recognition model 201 : Control unit 202 : Display unit 203 : Operation reception unit 204 : Storage unit 205 : Communication unit 208 : Image recognition model selection unit 209 : Identifier information inference unit 250 : image recognition model

Claims (9)

ユーザからの操作を受け付け可能な操作受付部と、
固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、キャラクタのキャラクタ識別情報に紐づけられる画像認識モデルを複数記憶する記憶部と、
操作受付部の受け付けたキャラクタを選択するためのユーザによる操作に基づき、前記記憶部に記憶されたキャラクタ識別情報の中から前記選択されたキャラクタのキャラクタ識別情報を画像情報の送り先として特定する送り先属性情報特定部と、
前記送り先属性情報特定部の特定したキャラクタ識別情報に紐づけられた画像認識モデルを、前記記憶部に記憶された複数の画像認識モデルの中から選択する画像認識モデル選択部と、
前記画像認識モデル選択部の選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論部と、
を備えることを特徴とする電子装置。
an operation receiving unit capable of receiving an operation from a user;
a storage unit that stores a plurality of image recognition models that are defined by specific learning content and that are capable of inferring at least one piece of identifier information using the learning content, and that are linked to character identification information of a character; ,
a destination attribute for specifying the character identification information of the selected character from among the character identification information stored in the storage unit as a destination of image information based on the user's operation for selecting the character received by the operation reception unit; an information identifying unit;
an image recognition model selection unit that selects an image recognition model linked to the character identification information specified by the destination attribute information specifying unit from among a plurality of image recognition models stored in the storage unit;
an identifier information inference unit that inputs image information to the image recognition model selected by the image recognition model selection unit and infers identifier information from the image information based on the learning content;
An electronic device comprising:
前記記憶部に記憶された複数の画像認識モデルは、その学習内容が各画像認識モデルに固有の教師データによって定義され、当該固有の教師データはそれぞれ画像情報および識別情報であるラベルの対の集合によって定義されることを特徴とする請求項1に記載の電子装置。 The plurality of image recognition models stored in the storage unit have their learning contents defined by teacher data unique to each image recognition model, and the unique teacher data is a set of pairs of labels each of which is image information and identification information. The electronic device of claim 1, defined by: 前記記憶部は、複数の識別子情報のそれぞれに対応する複数の応答内容を前記複数の画像認識モデルのそれぞれに紐づけて記憶し、
前記識別子情報推論部の推論した識別子情報に基づき、当該識別子情報に対応した応答内容を前記記憶部に記憶された複数の応答内容の中から特定して実行する応答内容実行部を備えることを特徴とする請求項1または2に記載の電子装置。
the storage unit stores a plurality of response contents corresponding to each of a plurality of pieces of identifier information in association with each of the plurality of image recognition models;
a response content execution unit that identifies and executes response content corresponding to the identifier information from among the plurality of response content stored in the storage unit based on the identifier information inferred by the identifier information inference unit; 3. The electronic device according to claim 1 or 2.
ユーザに対して情報を表示する表示部を備え、
前記記憶部は、前記キャラクタ識別情報に対応する文字情報及びアイコン画像情報の少なくとも1つを記憶し、
前記送り先属性情報特定部は、前記記憶部に記憶された前記文字情報及び前記アイコン画像情報の少なくとも1つを前記表示部に表示するとともに、当該表示された文字情報及びアイコン画像情報の少なくとも1つを前記操作受付部によってユーザが指定することで前記記憶部に記憶されたキャラクタ識別情報の中から少なくとも1つのキャラクタ識別情報を画像情報の送り先として特定することを特徴とする請求項1ないし請求項3のいずれか1項に記載の電子装置。
a display for displaying information to a user;
the storage unit stores at least one of character information and icon image information corresponding to the character identification information ;
The destination attribute information specifying unit displays at least one of the character information and the icon image information stored in the storage unit on the display unit, and displays at least one of the displayed character information and icon image information. at least one of the character identification information stored in the storage unit is specified as the destination of the image information by the user specifying through the operation reception unit. 4. The electronic device according to any one of 3.
1つ以上のコンピュータによって実行される方法であって、
固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、キャラクタのキャラクタ識別情報に紐づけられる画像認識モデルを複数記憶する記憶段階と、
ユーザからの操作を受け付ける操作受付段階と、
操作受付段階において受け付けたキャラクタを選択するためのユーザによる操作に基づき、前記記憶されたキャラクタ識別情報の中から前記選択されたキャラクタのキャラクタ識別情報を画像情報の送り先として特定する送り先属性情報特定段階と、
前記送り先属性情報特定段階において特定したキャラクタ識別情報に紐づけられた画像認識モデルを、前記記憶された複数の画像認識モデルの中から選択する画像認識モデル選択段階と、
前記画像認識モデル選択段階において選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論段階と、
を実行させることを特徴とする方法。
1. A method implemented by one or more computers, comprising:
a storage stage for storing a plurality of image recognition models that are defined by unique learning content and that are capable of inferring at least one piece of identifier information using the learning content, and that are linked to character identification information of a character; ,
an operation reception stage for receiving an operation from a user;
a destination attribute information specifying step of specifying the character identification information of the selected character from the stored character identification information as a destination of the image information based on the user's operation for selecting the character received in the operation receiving step; and,
an image recognition model selection step of selecting an image recognition model linked to the character identification information specified in the destination attribute information specifying step from among the plurality of stored image recognition models;
an identifier information inference step of inputting image information to the image recognition model selected in the image recognition model selection step and inferring identifier information from the image information based on the learning content;
A method characterized by performing
前記1つ以上のコンピュータは、ユーザ端末であることを特徴とする請求項5項に記載の方法。 6. The method of claim 5, wherein the one or more computers are user terminals. 前記1つ以上のコンピュータは、ユーザ端末及びサーバを含むことを特徴とする請求項5に記載の方法。 6. The method of claim 5, wherein the one or more computers comprise user terminals and servers. 請求項5~7のいずれか1項に記載された方法を、1以上のコンピュータに実行させることを特徴とするプログラム。 A program that causes one or more computers to execute the method according to any one of claims 5 to 7. ユーザ端末及びサーバを含むシステムであって、
前記ユーザ端末が、
ユーザからの操作を受け付け可能な操作受付部と、
操作受付部の受け付けたキャラクタを選択するためのユーザによる操作に基づき、選択されたキャラクタのキャラクタ識別情報を画像情報の送り先として特定する送り先属性情報特定部と、
を備え、
前記サーバが、
固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、キャラクタのキャラクタ識別情報に紐づけられる画像認識モデルを複数記憶する記憶部と、
前記送り先属性情報特定部の特定したキャラクタ識別情報に紐づけられた画像認識モデルを、前記記憶部に記憶された複数の画像認識モデルの中から選択する画像認識モデル選択部と、
前記画像認識モデル選択部の選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論部と、
を備えることを特徴とするシステム。
A system including a user terminal and a server,
The user terminal
an operation receiving unit capable of receiving an operation from a user;
a destination attribute information identifying unit that identifies character identification information of a selected character as a destination of image information based on an operation by a user for selecting a character received by the operation receiving unit;
with
the server
a storage unit that stores a plurality of image recognition models that are defined by specific learning content and that are capable of inferring at least one piece of identifier information using the learning content, and that are linked to character identification information of a character; ,
an image recognition model selection unit that selects an image recognition model linked to the character identification information specified by the destination attribute information specifying unit from among a plurality of image recognition models stored in the storage unit;
an identifier information inference unit that inputs image information to the image recognition model selected by the image recognition model selection unit and infers identifier information from the image information based on the learning content;
A system characterized by comprising:
JP2020185857A 2019-08-20 2020-11-06 Electronic device, method, program and system for identifier information inference using image recognition model Active JP7335221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020185857A JP7335221B2 (en) 2019-08-20 2020-11-06 Electronic device, method, program and system for identifier information inference using image recognition model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019150334A JP6967041B2 (en) 2019-08-20 2019-08-20 Electronic devices, methods, programs and systems for identifier information inference using image recognition models
JP2020185857A JP7335221B2 (en) 2019-08-20 2020-11-06 Electronic device, method, program and system for identifier information inference using image recognition model

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019150334A Division JP6967041B2 (en) 2019-08-20 2019-08-20 Electronic devices, methods, programs and systems for identifier information inference using image recognition models

Publications (3)

Publication Number Publication Date
JP2021034065A JP2021034065A (en) 2021-03-01
JP2021034065A5 JP2021034065A5 (en) 2022-09-02
JP7335221B2 true JP7335221B2 (en) 2023-08-29

Family

ID=87764106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020185857A Active JP7335221B2 (en) 2019-08-20 2020-11-06 Electronic device, method, program and system for identifier information inference using image recognition model

Country Status (1)

Country Link
JP (1) JP7335221B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297350A (en) 2003-03-26 2004-10-21 Casio Comput Co Ltd Picture distribution device, picture delivery method, and picture distribution program
JP2013161267A (en) 2012-02-06 2013-08-19 Sony Corp Information processing device, information processing method and program
JP2014513822A (en) 2011-01-31 2014-06-05 マイクロソフト コーポレーション Use of 3D environmental models in game play
WO2018142765A1 (en) 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 Learned model provision method, and learned model provision device
JP2018163554A (en) 2017-03-27 2018-10-18 富士通株式会社 Image processing device, image processing method, image processing program, and teacher data generating method
JP2018197948A (en) 2017-05-23 2018-12-13 株式会社Preferred Networks Line drawing automatic coloring program, line drawing automatic coloring apparatus and graphical user interface program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7242175B2 (en) * 2017-12-05 2023-03-20 株式会社バンダイナムコエンターテインメント game system and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297350A (en) 2003-03-26 2004-10-21 Casio Comput Co Ltd Picture distribution device, picture delivery method, and picture distribution program
JP2014513822A (en) 2011-01-31 2014-06-05 マイクロソフト コーポレーション Use of 3D environmental models in game play
JP2013161267A (en) 2012-02-06 2013-08-19 Sony Corp Information processing device, information processing method and program
WO2018142765A1 (en) 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 Learned model provision method, and learned model provision device
JP2018163554A (en) 2017-03-27 2018-10-18 富士通株式会社 Image processing device, image processing method, image processing program, and teacher data generating method
JP2018197948A (en) 2017-05-23 2018-12-13 株式会社Preferred Networks Line drawing automatic coloring program, line drawing automatic coloring apparatus and graphical user interface program

Also Published As

Publication number Publication date
JP2021034065A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
CN112241764B (en) Image recognition method, device, electronic equipment and storage medium
CN111712832A (en) Automatic image correction using machine learning
CN107368508B (en) Keyword search method and system using communication tool service
CN107251060A (en) For the pre-training and/or transfer learning of sequence label device
CN111670457A (en) Optimization of dynamic object instance detection, segmentation and structure mapping
JP6489005B2 (en) Information processing system, information processing method, and program
CN112527115B (en) User image generation method, related device and computer program product
CN111931591A (en) Method and device for constructing key point learning model, electronic equipment and readable storage medium
EP3493104A1 (en) Optimizations for dynamic object instance detection, segmentation, and structure mapping
EP3869393B1 (en) Image recognition method and apparatus, electronic device, and medium
CN115066667A (en) Determining gaze using deep learning
TW201926968A (en) Program and information processing method and information processing device capable of easily changing choice of content to be transmitted
CN107079065A (en) Phone board device
WO2021068613A1 (en) Face recognition method and apparatus, device and computer-readable storage medium
CN111158924A (en) Content sharing method and device, electronic equipment and readable storage medium
JP7335221B2 (en) Electronic device, method, program and system for identifier information inference using image recognition model
CN107770253A (en) Long-range control method and system
JP6721727B1 (en) Information processing apparatus control program, information processing apparatus control method, and information processing apparatus
JP6967041B2 (en) Electronic devices, methods, programs and systems for identifier information inference using image recognition models
EP4293607A1 (en) Electronic device and method for providing sticker on basis of content input
US11556183B1 (en) Techniques for generating data for an intelligent gesture detector
WO2022089546A1 (en) Label generation method and apparatus, and related device
US20210322825A1 (en) Graph Based Method of Next Pitch Prediction
US11227122B1 (en) Methods, mediums, and systems for representing a model in a memory of device
CN114092608A (en) Expression processing method and device, computer readable storage medium and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230817

R150 Certificate of patent or registration of utility model

Ref document number: 7335221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150