JP7335221B2 - Electronic device, method, program and system for identifier information inference using image recognition model - Google Patents
Electronic device, method, program and system for identifier information inference using image recognition model Download PDFInfo
- Publication number
- JP7335221B2 JP7335221B2 JP2020185857A JP2020185857A JP7335221B2 JP 7335221 B2 JP7335221 B2 JP 7335221B2 JP 2020185857 A JP2020185857 A JP 2020185857A JP 2020185857 A JP2020185857 A JP 2020185857A JP 7335221 B2 JP7335221 B2 JP 7335221B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image recognition
- image
- character
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像認識モデルを用いた識別子情報推論のための電子装置、方法、プログラム及びシステムに関する。 The present invention relates to an electronic device, method, program and system for inferring identifier information using an image recognition model.
近年の情報ネットワークの発展に伴い、スマートフォンのチャットアプリやSNSアプリ等を用いて友人同士などで情報共有することが一般的となっている。このような情報共有のために他のユーザへ送信されるコンテンツは、文字メッセージに限られず、ユーザが撮影した写真やスクリーンショット等の画像とすることができる(特許文献1)。メッセージや画像等を受信した他のユーザは、これに対して感想メッセージ等を返信することでユーザ間のコミュニケーションを楽しむことができる。 With the development of information networks in recent years, it has become common to share information with friends using a smartphone chat application, SNS application, or the like. The content transmitted to other users for such information sharing is not limited to text messages, and can be images such as photographs and screen shots taken by users (Patent Document 1). Other users who have received the messages, images, etc. can enjoy communication between users by replying with impression messages and the like in response to these messages.
スマートフォンにおいて実行されるゲーム等のアプリもまた一般的に利用されている。情報共有のための既存のSNSやコミュニケーション用アプリとゲーム等のアプリとの関係は、ゲーム等のスクリーンショットを他のアプリを用いて他のユーザと共有するという、ゲーム等の情報を外に出すという関係、すなわち、ゲーム等からSNSへのアウトバウンド方向の関係にとどまっており、SNSで得た画像や、カメラで撮影した画像をアプリ内のキャラクタなどの属性情報に対して送信するという、インバウンド方向のメカニズムは実現されていない。 Apps such as games that run on smartphones are also commonly used. The relationship between existing SNS and communication apps for information sharing and apps such as games is to share screenshots of games etc. with other users using other apps. In other words, the relationship is limited to the outbound direction from games, etc. to SNS, and the inbound direction is to send images obtained from SNS or images taken with a camera to attribute information such as characters in the application. mechanism has not been realized.
本発明は上記の課題に鑑みてなされたものであり、以下のような特徴を有している。すなわち、一つの実施形態における本発明の電子装置は、ユーザからの操作を受け付け可能な操作受付部と、固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、固有の属性情報に紐づけられる画像認識モデルを複数記憶する記憶部と、操作受付部の受け付けた操作に基づき、前記記憶部に記憶された属性情報の中から少なくとも1つの属性情報を画像情報の送り先として特定する送り先属性情報特定部と、前記送り先属性情報特定部の特定した属性情報に紐づけられた画像認識モデルを、前記記憶部に記憶された複数の画像認識モデルの中から選択する画像認識モデル選択部と、前記画像認識モデル選択部の選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論部と、を備える。 The present invention has been made in view of the above problems, and has the following features. That is, the electronic device of the present invention in one embodiment is defined by an operation accepting unit capable of accepting an operation from a user and unique learning content, and can infer at least one piece of identifier information using the learning content. a storage unit that stores a plurality of image recognition models that are unique image recognition models that are linked to unique attribute information; a destination attribute information identifying unit that identifies one piece of attribute information as a destination of image information; An image recognition model selection unit that selects from recognition models, and an identifier that inputs image information to the image recognition model selected by the image recognition model selection unit and infers identifier information from the image information based on the learning content. and an information reasoning unit.
また、前記記憶部に記憶された複数の画像認識モデルは、その学習内容が各画像認識モデルに固有の教師データによって定義され、当該固有の教師データはそれぞれ画像情報および識別情報であるラベルの対の集合によって定義されることができる。 Further, the learning contents of the plurality of image recognition models stored in the storage unit are defined by teacher data unique to each image recognition model, and the unique teacher data are pairs of labels, each of which is image information and identification information. can be defined by the set of
さらに、前記記憶部は、複数の識別子情報のそれぞれに対応する複数の応答内容を前記複数の画像認識モデルのそれぞれに紐づけて記憶し、前記識別子情報推論部の推論した識別子情報に基づき、当該識別子情報に対応した応答内容を前記記憶部に記憶された複数の応答内容の中から特定して実行する応答内容実行部を備えてもよい。 Further, the storage unit stores a plurality of response contents corresponding to each of a plurality of pieces of identifier information in association with each of the plurality of image recognition models, and based on the identifier information inferred by the identifier information inference unit, A response content execution unit may be provided for specifying and executing response content corresponding to the identifier information from among the plurality of response content stored in the storage unit.
ユーザに対して情報を表示する表示部を備え、前記記憶部は、前記属性情報に対応する文字情報及びアイコン画像情報の少なくとも1つを記憶し、前記送り先属性情報特定部は、前記記憶部に記憶された前記文字情報及び前記アイコン画像情報の少なくとも1つを前記表示部に表示するとともに、当該表示された文字情報及びアイコン画像情報の少なくとも1つを前記操作受付部によってユーザが指定することで前記記憶部に記憶された属性情報の中から少なくとも1つの属性情報を画像情報の送り先として特定するようにしてもよい。 a display unit for displaying information to a user, wherein the storage unit stores at least one of character information and icon image information corresponding to the attribute information; At least one of the stored character information and icon image information is displayed on the display unit, and at least one of the displayed character information and icon image information is specified by the user through the operation reception unit. At least one piece of attribute information among the attribute information stored in the storage unit may be specified as the destination of the image information.
本発明の一つの実施形態における方法は、1つ以上のコンピュータによって実行される方法であって、固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、固有の属性情報に紐づけられる画像認識モデルを複数記憶する記憶段階と、ユーザからの操作を受け付ける操作受付段階と、操作受付段階において受け付けた操作に基づき、前記記憶された属性情報の中から少なくとも1つの属性情報を画像情報の送り先として特定する送り先属性情報特定段階と、前記送り先属性情報特定段階において特定した属性情報に紐づけられた画像認識モデルを、前記記憶された複数の画像認識モデルの中から選択する画像認識モデル選択段階と、前記画像認識モデル選択段階において選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論段階と、を実行させる。 In one embodiment of the invention, a method is one or more computer-implemented methods for identifying an image defined by unique learning content and capable of inferring at least one piece of identifier information using the learning content. A storage stage for storing a plurality of image recognition models that are recognition models and are associated with unique attribute information; an operation reception stage for receiving an operation from a user; a destination attribute information identifying step of identifying at least one piece of attribute information from the attribute information as a destination of image information; An image recognition model selection step of selecting from among a plurality of image recognition models, inputting image information to the image recognition model selected in the image recognition model selection step, and extracting identifier information from the image information based on the learning content. inferring identifier information inference stage;
前記1つ以上のコンピュータは、ユーザ端末としてもよい。 The one or more computers may be user terminals.
前記1つ以上のコンピュータは、ユーザ端末及びサーバを含むことができる。 The one or more computers can include user terminals and servers.
本発明の一つの実施形態におけるプログラムは、前述の方法を、1以上のコンピュータに実行させるものとすることができる。 A program in one embodiment of the present invention can cause one or more computers to execute the above method.
本発明の一つの実施形態におけるシステムは、ユーザ端末及びサーバを含むシステムであって、前記ユーザ端末が、ユーザからの操作を受け付け可能な操作受付部と、操作受付部の受け付けた操作に基づき、少なくとも1つの属性情報を画像情報の送り先として特定する送り先属性情報特定部と、を備え、前記サーバが、固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、固有の属性情報に紐づけられる画像認識モデルを複数記憶する記憶部と、前記送り先属性情報特定部の特定した属性情報に紐づけられた画像認識モデルを、前記記憶部に記憶された複数の画像認識モデルの中から選択する画像認識モデル選択部と、前記画像認識モデル選択部の選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論部と、を備える。 A system according to one embodiment of the present invention is a system including a user terminal and a server, wherein the user terminal includes an operation accepting unit capable of accepting an operation from a user, and based on an operation accepted by the operation accepting unit, a destination attribute information identifying unit that identifies at least one piece of attribute information as a destination of image information, wherein the server is defined by unique learning content and can infer at least one piece of identifier information using the learning content. a storage unit that stores a plurality of image recognition models that are unique image recognition models and are linked to unique attribute information; input image information to an image recognition model selection unit that selects from among a plurality of image recognition models stored in the image recognition model selection unit, and the image recognition model selected by the image recognition model selection unit; an identifier information inferring unit for inferring identifier information from the information.
本発明によれば、属性情報と画像認識モデルとを紐づけ、送信先の属性情報が選択されると、その属性情報に紐付けられた画像認識モデルが選択され画像認識に使用される、という構成を採用することにより、多数の属性情報のために多数の画像内容を認識する場合であっても、個別の属性情報向けに学習された画像認識モデルを用いた推論処理で対象となる画像内容を認識することができ、少量のデータを用いた場合でも高い推論性能を実現するとともに、個々の画像認識モデルを比較的小さなニューラルネットワークとして実装することにより高いレスポンス性能を実現できる。 According to the present invention, the attribute information and the image recognition model are linked, and when the attribute information of the destination is selected, the image recognition model linked to the attribute information is selected and used for image recognition. By adopting the configuration, even when recognizing a large number of image contents due to a large number of attribute information, the target image content can be inferred using an image recognition model trained for individual attribute information. It is possible to realize high inference performance even when using a small amount of data, and achieve high response performance by implementing each image recognition model as a relatively small neural network.
以下、図面を参照して、本発明の実施形態のシステム1について説明する。本明細書においては、説明の便宜上、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細な説明や実質的に同一の構成についての重複説明を省略する場合がある。
A
[第1の実施形態]
図1は本発明の一実施形態によるシステム1の全体構成の一例を示す。図1に示すように、システム1は、ユーザ端末である複数の電子装置10及びサーバ20を備える。電子装置10及びサーバ20は、インターネットなどのネットワーク2に接続され、互いに通信可能である。
[First embodiment]
FIG. 1 shows an example of the overall configuration of a
図2は本発明の一実施形態による電子装置10及びサーバ20のハードウェア構成を示すブロック図である。電子装置10は、プロセッサ11、表示装置12、入力装置13、記憶装置14及び通信装置15を備える。これらの各構成装置はバス16によって接続される。なお、バス16と各構成装置との間には必要に応じてインタフェースが介在しているものとする。本実施形態において、電子装置10はスマートフォンである。ただし、電子装置10は、上記の構成を備えるものであれば、タブレット型コンピュータ、タッチパッド等の接触型入力装置を備えるコンピュータなどの端末とすることができる。
FIG. 2 is a block diagram showing the hardware configuration of the
サーバ20もまた同様に、プロセッサ21、表示装置22、入力装置23、記憶装置24及び通信装置25を備える。これらの各構成装置はバス26によって接続される。なお、バス26と各構成装置との間には必要に応じてインタフェースが介在しているものとする。本実施形態においてサーバ20はコンピュータによって実現される。
The
プロセッサ11、21は、電子装置10及びサーバ20全体の動作を制御するものであり、例えばCPUである。なお、プロセッサ11、21としては、MPU等の電子回路が用いられてもよい。プロセッサ11、21は、記憶装置14、24に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。
The
表示装置(ディスプレイ)12、22は、プロセッサ11、21の制御に従って、アプリケーション画面などを電子装置10のユーザないしサーバ20のユーザに表示する。好ましくは液晶ディスプレイであるが、有機ELを用いたディスプレイやプラズマディスプレイ等であってもよい。
Display devices (displays) 12 and 22 display application screens and the like to the user of the
入力装置13、23は、電子装置10及びサーバ20に対するユーザからの入力を受け付けるユーザインタフェースであり、例えば、タッチパネル、タッチパッド、キーボード、又はマウスである。本実施形態において電子装置10はスマートフォンであるため、電子装置10は入力装置13としてタッチパネルを備え、タッチパネルは表示装置12としても機能し、表示装置12と入力装置13は一体となった構造である。表示装置12と入力装置13は、別の位置に配置される別個の形態であってもよい。サーバ20はコンピュータであるため、入力装置としてキーボード及びマウスを備え、表示装置として液晶ディスプレイを備えるものとする。
The
記憶装置14及び24は、揮発性メモリであるRAM及び不揮発性メモリであるeMMC、UFS、SSDのようなフラッシュメモリを用いた記憶装置及び磁気記憶装置等を含む、一般的なスマートフォン及びコンピュータが備える記憶装置である。記憶装置14、24は、外部メモリを含むこともできる。例えば記憶装置14は、アプリケーション(アプリ)を記憶し、記憶装置24はサーバ用アプリケーションを記憶する。アプリケーションは、アプリケーションのイベントを実行するためのプログラム及び該プログラム実行時に参照する各種データを含む。
The
通信装置15、25は、ネットワーク2(図2においては省略)を介して他の装置との間でデータの授受を行うことができる。例えば通信装置15、25は、移動体通信や無線LAN等の無線通信を行い、ネットワーク2へ接続する。電子装置10は通信装置15を用いることで、ネットワークを介してサーバ20と通信を行う。通信装置15、25は、イーサネット(登録商標)ケーブル等を用いた有線通信を行ってもよい。
The
図3は本発明の一実施形態による電子装置10及びサーバ20の機能ブロック図の一例を示す。電子装置10は、制御部101、表示部102、操作受付部103、記憶部104、通信部105、画像情報指定部106、送り先属性情報特定部107、画像認識モデル選択部108、識別子情報推論部109及び応答内容実行部110を備え、サーバ20は、制御部201、表示部202、操作受付部203、記憶部204及び通信部205を備える。記憶部104及び204には複数の画像認識モデル150-1~N及び250-1~Mがそれぞれ記憶される。
FIG. 3 shows an example of a functional block diagram of the
本実施形態においては、プロセッサ11、21がプログラムを実行することによりこれらの機能が実現される。例えば実行されるプログラムは、記憶装置14、24に記憶されているプログラムである。このように、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部又は全部を他のパートが有していてもよい。各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってこれらの機能を実現してもよい。
In this embodiment, these functions are realized by the
電子装置10の制御部101は、本実施形態のアプリケーションによる機能を実行するにあたっての制御処理を行う。表示部102は、アプリケーションの機能を制御するためのアプリ用画面を表示し、アプリケーションの機能やユーザ操作に応じたアプリ用画面を表示する。操作受付部103は、電子装置10のユーザからの入力を受け付ける。本実施形態においては、表示部102及び操作受付部103を備えたタッチパネルを用いることとし、タッチ検出機能によって操作受付部を実現する。
The
記憶部104は制御部101によって実行される情報処理に必要な情報を格納する。さらに、記憶部104は、ユーザが利用可能な2以上の属性情報を記憶する。属性情報は、画像の送り先となる属性を示す情報であり、例えば、ゲームアプリケーションにおけるキャラクタや、仮想的な人格を識別する情報とすることができる。
The
本実施形態においては、属性はゲームのキャラクタとし、属性情報をキャラクタ識別情報とする。同一キャラクタであっても、レア度の違いや、コスチュームの違いなどによって複数のバリエーションが存在する場合には、属性情報として異なるキャラクタ識別情報を与えてもよい。記憶部104は、属性情報として、ユーザが所有するキャラクタのキャラクタ識別子を記憶する。さらに、記憶部104は、各属性情報に対応付けられた画像認識モデル150-1~Nを格納する。ここでは、ユーザが所有するN個のキャラクタのキャラクタ識別子に紐付けられた画像認識モデルが記憶される。画像認識モデルは、各モデル毎に固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能なニューラルネットワーク(NN)モデルである。
In this embodiment, the attribute is the character of the game, and the attribute information is the character identification information. Even for the same character, if there are multiple variations due to differences in rarity, costumes, etc., different character identification information may be given as attribute information. The
識別子情報は、画像内容を示す情報であり、予めシステム設計者によって設定することができる。本明細書においては、学習内容を利用した画像認識モデルの推論結果としての識別子情報をクラスと表現することがある。学習内容を定義するための教師データを定義するための識別子情報をラベルと表現することがある。また、推論された識別子情報に基づいて実行される応答内容を示すスクリプトデータと紐付けられた識別子情報もラベルと表現することがある。 The identifier information is information indicating image content, and can be set in advance by the system designer. In this specification, identifier information as an inference result of an image recognition model using learning content may be expressed as a class. Identifier information for defining teacher data for defining learning content may be expressed as a label. Identifier information associated with script data indicating response content to be executed based on inferred identifier information may also be expressed as a label.
送り先属性情報特定部107は、操作受付部103が受け付けたユーザによる入力操作に基づき、記憶部104に記憶された属性情報の中から少なくとも1つの属性情報を画像情報の送り先として特定する。画像情報指定部106は、操作受付部103の受け付けたユーザ入力操作に基づき、送り先へ送るための画像情報を指定する。画像情報は静止画の画像情報だけでなく、動画像の画像情報であってもかまわない。
Destination attribute
画像認識モデル選択部108は、送り先属性情報特定部107の特定した属性情報に紐づけられた画像認識モデルを、記憶部104に記憶された複数の画像認識モデルの中から選択する。識別子情報推論部109は、画像認識モデル選択部108の選択した画像認識モデル150へ画像情報指定部106の指定した画像情報を入力し、学習内容に基づいて、画像情報から識別子情報を推論する。応答内容実行部110は、識別子情報推論部109の推論した識別子情報に基づき、当該識別子情報に対応した応答内容を記憶部104に記憶された複数の応答内容の中から特定して実行する。
The image recognition
サーバ20の制御部201は、電子装置10において実行されるアプリケーションのための処理を行う。1つの例では、制御部201は、電子装置10においてアプリケーションが実行されると、定期的に、又は必要に応じてデータの送受信を行い、電子装置10においてアプリケーションの機能を実現させる。表示部202は、必要に応じてサーバ管理者のための管理画面を表示装置22に表示する。
The
記憶部204は、制御部201によって実行される情報処理に必要な情報を格納する。さらに、記憶部204は、アプリケーションにおいて利用可能なすべての属性情報を記憶するとともに、各属性情報に対応付けられた画像認識モデル250-1~Mを格納する。本実施形態においては、サーバ20において、ゲームアプリにおいて利用可能な全てのキャラクタであるM個のキャラクタのために、各モデルに固有の教師データが用意されて画像認識モデル250-1~Mが生成され、記憶部204に記憶される。そして、そのうちの電子装置10のユーザが所有するキャラクタに対応する画像認識モデルが電子装置10へ送信され、記憶部104に記憶される。
The
次に、図4を用いて、本実施形態におけるシステムの情報処理動作400について説明する。本実施形態においては、システムはゲームシステムであり、電子装置10としてスマートフォンを用い、アプリケーションとしてゲームアプリケーションが電子装置10においてスマートフォン用のOS上で実行され、サーバ20においてはサーバ用のゲームアプリケーションがサーバ用のOS上で実行されるものとする。本ゲームにおいては、ゲーム媒体として複数のキャラクタが用意され、ユーザは例えば抽選処理によってキャラクタを入手する。そして、入手した複数のキャラクタを用いながらゲームを進行させるものとする。ここでは、ユーザが所有するキャラクタに対して、ユーザがゲーム外で取得した画像をキャラクタに対して送信し、推論されたその画像の画像内容に応じてキャラクタ毎に定められた応答処理が実行される場合を例にとって説明する。キャラクタに対して送信するとは、キャラクタと共有するための他の概念を含みうる。
Next, the
本実施形態においては、推論時に、画像情報としてビットマップ画像を入力して、その画像内容に対応するクラスとしての識別子情報を出力する関数として画像認識モデルがモデル化される。ここで、画像内容とは画像内に撮影されているオブジェクトや背景、オブジェクトの組み合わせなど、ニューラルネットワークが分類可能な任意の特徴を意味する。 In this embodiment, an image recognition model is modeled as a function that inputs a bitmap image as image information and outputs identifier information as a class corresponding to the content of the image at the time of inference. Here, image content means any feature that can be classified by a neural network, such as an object or background photographed in an image, or a combination of objects.
例えば、画像内容が果物のリンゴのとき、本システムは、推論として、”リンゴ, 90%”のように、識別子情報(クラス)とその確率を出力する。そして、推論された識別子情報として、最も確率の高い識別子のための識別子情報のみを出力したり、所定の閾値を超えるすべての識別子情報を出力することができる。 For example, when the image content is the fruit apple, the system outputs identifier information (class) and its probability, such as "apple, 90%" as an inference. Then, as inferred identifier information, it is possible to output only the identifier information for the identifier with the highest probability, or to output all the identifier information exceeding a predetermined threshold.
情報処理動作400においてはまず、キャラクタ毎に固有の学習内容を用意して、この固有の学習内容によって画像認識モデルが定義され、サーバの記憶部204に記憶されるとともに、電子装置10においてユーザが所有するキャラクタに紐づけられた画像認識モデルがダウンロードされ、記憶部104において記憶される(S401)。これによって、キャラクタ毎に個性化されたニューラルネットワークモデルを用意することが可能となる。
In the
本実施形態においては学習内容は各画像認識モデルに固有の教師データによって定義され、当該固有の教師データはそれぞれ画像情報およびラベルとしての識別子情報の対の集合によって定義される。教師データDcのデータ構造の一例を式(1)に示す。
ここで、labeliは、i番目の画像が示す画像内容のラベル文字列である。bitmapiは、i番目の画像のビットマップデータである。すなわち、本発明では、教師データは、画像とそのラベルの対の集合となる。深層学習による多クラス分類問題の解決では、1つのビットマップ画像に、複数のラベルを紐づけて学習することが可能であり、n×mの関係として、ラベルとビットマップを定義している。次に、Dcが定義するすべてのラベル集合であるLcは、次のように定義できる。
ここで、labeliは、i番目のラベル文字列であり、集合Lc内ではユニークな識別性を有する。pは、Dcが規定するラベルの種類の数に対応する。キャラクタcに対応する演出シナリオScは次のように定義できる。
ここで、labeliは、i番目の種類のラベル文字列であり、scriptiは、i番目のラベルが入力された際に、システムが再生すべき演出のスクリプトデータである。なお、本発明では、ラベルを一つだけ用いるのではなく、例えば、リンゴとサングラスが同時に撮影された場合などのように、複数のラベルを組み合わせて画像内容を記述しても良い。したがって、ここでのラベル数の最大値qは、ラベルの種類の数pよりも多くても良い。 Here, label i is the i-th type of label character string, and script i is the script data of the effect that the system should reproduce when the i-th label is input. Note that, in the present invention, instead of using only one label, a plurality of labels may be combined to describe the image content, such as when an apple and sunglasses are photographed at the same time. Therefore, the maximum value q of the number of labels here may be larger than the number p of label types.
次に、キャラクタ毎に個性化したニューラルネットワークモデルの生成方法を示す。DNNを用いた学習を行う関数であるlearn関数は、ある特定のキャラクタcに対応する教師データ学習データバケットDcを受け取り、画像内容の多クラス分類(Multiclass Classification)を行うモデルMcを出力する関数であり、次のように定義できる:
このlearn関数は、一般的に知られた画像認識NNモデルを作成する方式や、学習済みモデルへのファインチューニングとしてトレーニングデータを入力する方式として実装することができる。画像認識NNモデルを作成する方式としては、例えば、AlexNetやVGG1を用いることができ、学習済みモデルへのファインチューニングとしてトレーニングデータを入力する方式としては、Inception-v3を用いることができる。これらの方式は、例えば、Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. "Imagenet classification with deep convolutional neural networks." Advances in neural information processing systems. 2012、Lecun, Y, Bengio, Y & Hinton, G, "Deep learning," Nature, vol. 521, no. 7553, pp. 436-444. 2015、 Toru Ogawa, Atsushi Otsubo, Rei Narita, Yusuke Matsui, Toshihiko Yamasaki, Kiyoharu Aizawa, "Object Detection for Comics using Manga109 Annotations," arXiv:1803.08670, 2018、Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., & Wojna, Z. (2016)、及び、Rethinking the Inception Architecture for Computer Vision. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2818-2826に記載されているように、当業者にはよく知られたものである。 This learn function can be implemented as a method for creating a generally known image recognition NN model, or as a method for inputting training data as fine tuning to a trained model. For example, AlexNet or VGG1 can be used as a method for creating an image recognition NN model, and Inception-v3 can be used as a method for inputting training data for fine-tuning a trained model. These schemes are described, for example, in Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. "Imagenet classification with deep convolutional neural networks." Advances in neural information processing systems. 2012, Lecun, Y, Bengio, Y & Hinton, G , "Deep learning," Nature, vol. 521, no. 7553, pp. 436-444. 2015, Toru Ogawa, Atsushi Otsubo, Rei Narita, Yusuke Matsui, Toshihiko Yamasaki, Kiyoharu Aizawa, "Object Detection for Comics using Manga109 Annotations ," arXiv:1803.08670, 2018, Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., & Wojna, Z. (2016), and Rethinking the Inception Architecture for Computer Vision. 2016 IEEE Conference It is well known to those skilled in the art, as described in on Computer Vision and Pattern Recognition (CVPR), 2818-2826.
このように、キャラクタ毎に個性化した学習内容を用意して、個性化したニューラルネットワークモデルを用意することにより、キャラクタの個性に合わせて、識別する画像内容を定めることができる。例えば、ゲームシナリオの設定において、キャラクタAはリンゴと自動車が好きであり、キャラクタBはクモとカエルが嫌いな場合には、リンゴと自動車を画像内容として含む画像をキャラクタAのための教師データとして用意し、クモとカエルを画像内容として含む画像をキャラクタBのための教師データとして用意する。そして、これらを用いて、キャラクタA及びBのための画像認識モデルをそれぞれ生成する。これによって、キャラクタAの画像認識モデルに画像情報が入力されると、リンゴと自動車を識別し、キャラクタBの画像認識モデルに画像情報が入力されるとクモとカエルを識別し、キャラクタに固有に定められた画像内容を識別することが可能となる。そして、識別された画像内容にしたがって、個性化されたシナリオスクリプトを実行することができる。 Thus, by preparing individualized learning contents for each character and preparing an individualized neural network model, image contents to be identified can be determined according to the character's individuality. For example, in setting a game scenario, if character A likes apples and cars, and character B dislikes spiders and frogs, an image containing apples and cars as image content is used as teacher data for character A. An image containing a spider and a frog as image contents is prepared as teacher data for the character B. These are then used to generate image recognition models for characters A and B, respectively. Thus, when the image information is input to the image recognition model of character A, the apple and the car are identified, and when the image information is input to the image recognition model of character B, the spider and frog are identified, and the image recognition model unique to the character is identified. It is possible to identify the defined image content. A personalized scenario script can then be executed according to the identified image content.
ニューラルネットワークモデルを用いた一般画像認識モデルが知られており、自動車やバス、ハンドバックや人のように、画像内の物体に一般名詞をラベリングしていくような、高度なラベリング問題を解くことができる。このような一般画像認識モデルは、自動運転や高度な監視カメラにおいて用いることができる。一般画像認識は優れた技術であるものの、ゲーム内容に応じてラベル対象の分類を細かくすることや、特定の看板にのみ反応させるような、アプリケーションに特化したカスタマイズを行うことは難しく、多数のアプリケーションに対応する多数の学習モデルを既存の方式で用意するためには極めて大規模なデータを用意する必要があるため、応用の種類へのスケーラビリティという面で課題がある。さらに、一般的な多数の物体を認識するため、ユーザ端末のような電子装置で高速にレスポンスさせることは必ずしも容易ではないとともに、小さなデータ追加のみで画像認識機能を修正、拡張させることも困難である。 A general image recognition model using a neural network model is known, and it can solve advanced labeling problems such as labeling common nouns to objects in images such as cars, buses, handbags, and people. can. Such general image recognition models can be used in autonomous driving and advanced surveillance cameras. Although general image recognition is an excellent technology, it is difficult to customize the classification of labels according to the content of the game, or to customize the application, such as reacting only to specific signboards. In order to prepare a large number of learning models corresponding to applications using existing methods, it is necessary to prepare extremely large-scale data, so there is a problem in terms of scalability to different types of applications. In addition, it is not always easy to achieve high-speed response with electronic devices such as user terminals because it recognizes a large number of general objects, and it is also difficult to modify and extend the image recognition function by adding only small amounts of data. be.
これに対して、本実施形態のように、キャラクタ毎に個性化されたニューラルネットワークモデルは、特定の画像内容だけ識別することが可能であれば十分であるから、キャラクタに応じてラベル対象をカスタマイズさせることは容易であるとともに、比較的小さなニューラルネットワークモデルとして実装が可能であるため、推論時のレスポンス性能が高く、また小さなデータ追加のみで画像認識機能を拡張させることができる。 On the other hand, the neural network model personalized for each character, as in the present embodiment, is sufficient if it can identify only specific image contents. It is easy to implement, and it can be implemented as a relatively small neural network model, so the response performance at the time of inference is high, and the image recognition function can be expanded with only a small amount of data addition.
ゲーム内において多数のキャラクタが存在する場合であっても、各ユーザが所有するキャラクタのための画像認識モデルだけを電子装置10へダウンロードさせればよいし、更新された際も、その更新された画像認識モデルのみを更新して、ダウンロードさせることができる。
Even if there are many characters in the game, only the image recognition models for the characters owned by each user need to be downloaded to the
電子装置10において、ユーザが所有するキャラクタのための画像認識モデルが記憶された後、アプリを用いて送信するための画像情報を指定するための画面500が表示部102に表示される。そして、操作受付部103が受け付けたユーザ入力操作に基づいて、画像情報指定部106が、送信対象となる画像情報を指定する(S402)。例えば、図5Aに示すように複数の写真のサムネイル画像501が画面に表示され、アプリで送信したい画像のサムネイル画像501にユーザがタッチして、「アプリで送信」ボタン502をタッチすることにより、送信対象となる画像情報が指定される。送信するための画像情報として2以上の画像情報を指定しても良い。
After the image recognition model for the character owned by the user is stored in the
次に、ユーザによる操作にしたがって、指定された画像情報を送信するためのアプリケーションを特定する。例えば、図5Bに示すように、S402において指定された画像情報の画像512を表示するとともに、送信用に利用可能なアプリケーションのアイコン514が表示され、ユーザによるアイコンへのタッチによってアプリケーションが選択されて、「決定」ボタン516をタッチすることにより、送信用のアプリケーションが決定される。ここでは、本発明を実施するためのゲームアプリが選択されるものとする。
Next, an application for transmitting the specified image information is specified according to the user's operation. For example, as shown in FIG. 5B, an
本実施形態においては、画像情報を指定する処理及び送信用のアプリケーションを決定する処理は、スマートフォンのOSの機能として実行されるものとするが、本発明のゲームアプリの一部の機能とすることもできる。例えば、ゲームアプリを起動した後、画像情報をキャラクタへ送信するための機能を起動することにより、画像情報指定用の画面500を表示させることができる。
In the present embodiment, the process of designating image information and the process of determining an application for transmission are assumed to be executed as functions of the OS of the smartphone, but may be part of the functions of the game application of the present invention. can also For example, the
送信用のアプリケーションとして、キャラクタへの画像の送信を希望するユーザが本実施形態のためのゲームアプリを選択すると、当該ゲームアプリが起動され、送り先属性情報としてのキャラクタ識別情報を選択するための画面が表示部102に表示される。そして、送り先属性情報特定部107が、操作受付部の受け付けたユーザ操作に基づき、少なくとも1つの属性情報としてのキャラクタ識別情報を画像情報の送り先として特定する(S404)。例えば、図5Cに示すように、送信対象として指定された画像522が表示されるとともに、送り先キャラクタの選択ボタンがキャラクタ名を示す文字情報524を含むボタンとして表示され、ユーザによるボタンへのタッチによってキャラクタが選択されて、決定ボタン526をタッチすることにより、送り先属性情報識別情報としてのキャラクタ識別情報が特定される。キャラクタ名の文字情報に加えて、または、キャラクタ名に代えてキャラクタを示すアイコン画像情報を表示しても良い。キャラクタ識別情報を特定することができれば、ユーザによって入力された文字情報など、その他の方法で特定しても良い。
When a user who wishes to transmit an image to a character selects the game application for this embodiment as an application for transmission, the game application is started, and a screen for selecting character identification information as destination attribute information is displayed. is displayed on the
次に、画像認識モデル選択部108が、特定された属性情報であるキャラクタ識別情報に紐づけられた画像認識モデルを、記憶部104に記憶された複数の画像認識モデル150-1~Nの中から選択する(S406)。
Next, the image recognition
識別子情報推論部109が、画像認識モデル選択部108の選択した画像認識モデルへ画像情報指定部106の指定した画像情報を入力し、学習内容に基づいて、当該画像情報から識別子情報を推論する(S408)。
The identifier
例えば、画像情報dと宛先となるキャラクタ識別情報cを入力した場合に、ラベルについての推論についての関数であるinferは、次のように定義できる
ここで、label_scoreiは、i番目のラベルに対応する画像内容がビットマップ内に存在する存在確率である。そして、本実施形態では、識別子情報推論部109は、推論された識別子情報として、存在確率が最も高いラベルに対応する画像内容が存在するものとして、その識別子情報であるラベルを出力する。所定の閾値を超えるスコアを持つすべてのラベルを含むラベル群を出力しても良い。
Here, label_score i is the existence probability that the image content corresponding to the i-th label exists in the bitmap. Then, in this embodiment, the identifier
画像認識モデルに入力された画像522は画像内容としてリンゴを含み、自動車は含まれないから、label_score1は高い値が出力され、label_score2は低い値が出力され、推論結果としてリンゴに対応するlabel1が出力される。
Since the
そして、応答内容実行部110は、識別子情報推論部109が出力した識別子情報に基づき、当該識別子情報に対応した応答内容を記憶部104に記憶された複数の応答内容の中から特定して実行する(S410)。
Based on the identifier information output by the identifier
本実施形態においては、記憶部104は、式(3)に示すデータ構造で、キャラクタ識別子情報に紐付けて演出シナリオScを記憶している。応答内容実行部110は、送り先属性情報特定部107によって特定されたキャラクタ識別情報に紐付けられたキャラクシナリオScを特定し、そのキャラクタシナリオの集合のうち、識別子情報推論部109によって推論された識別子情報であるラベルに紐付けられたスクリプトデータを特定する。そして、この特定されたスクリプトデータに基づいて、応答内容を実行する。例えば、図5Dに示すように、送り先として特定されたキャラクタ識別情報に対応するキャラクタの画像530を表示部102に表示するとともに、入力された画像の画像内容であるリンゴに関連するメッセージを応答メッセージ540として表示することができる。
In this embodiment, the
従来のゲーム内のキャラクタとのコミュニケーションはキャラクタへタップして、その応答が表示されるなどの限定的なものであった。本実施形態を用いることにより、例えばユーザが現実世界で撮影した画像をキャラクタに送信すると、画像内容に応じたそのキャラクタの反応が演出されるため、あたかもキャラクタと写真や動画像を共有しあっているような自然なコミュニケーションを可能とし、キャラクタのリアリティ性を高めることができる。その結果、ゲームへの没入感、現実との融合間を高めることが可能となる。 Communication with characters in conventional games has been limited, such as by tapping the character and displaying the response. By using this embodiment, for example, when a user sends an image taken in the real world to a character, the reaction of the character is produced according to the content of the image. It enables natural communication as if you were there, and enhances the reality of the character. As a result, it is possible to enhance the sense of immersion in the game and the fusion with reality.
本実施形態において送信される画像情報は、特定のカメラデバイスに依存しておらず、カメラから撮影した画像だけでなく、ゲームアプリのSNSアカウントを通じて配布された画像や、ユーザが、コラージュ的に作成した画像なども対象とすることができる。これにより、現実のイベントに参加して撮影した画像にキャラクタが反応する演出や、SNSアカウントを介して配布された画像にキャラクタが反応する演出を実現することができる。 The image information transmitted in this embodiment does not depend on a specific camera device. Images that have been processed can also be targeted. As a result, it is possible to realize an effect in which a character reacts to an image taken while participating in a real event, or an effect in which a character reacts to an image distributed via an SNS account.
スクリプトデータによる応答内容は、メッセージによる応答に限られず、入力された画像情報に応答するものであればどのようなものであってもかまわない。例えば、キャラクタの動画が再生されたり、そのキャラクタとのバトルイベントが開始されても良い。現実のイベント会場において掲示されたポスターを撮影して属性情報に対して送信を行うことにより、ゲーム内イベントの実行処理を開始してもよい。 The content of the script data response is not limited to a message response, and may be anything as long as it responds to the input image information. For example, a moving image of a character may be reproduced, or a battle event with that character may be started. Execution processing of an in-game event may be started by photographing a poster put up at a real event venue and transmitting the attribute information.
本実施形態のように、属性情報と画像認識モデルとを紐づけ、送信先の属性情報が選択されると、その属性情報に紐付けられた画像認識モデルが選択され画像認識に使用される、という構成を採用することにより、例えば、ゲームアプリにおいて数百名以上のキャラクタが数万種類以上の画像内容を認識するという設定においても、個別のキャラクタ向けに学習された画像認識モデルを用いた高々1 回の推論処理で対象となる画像内容を認識することができ、高いレスポンス性能を実現できる。 As in this embodiment, when the attribute information and the image recognition model are linked and the attribute information of the destination is selected, the image recognition model linked to the attribute information is selected and used for image recognition. By adopting this configuration, for example, even in a setting where several hundred characters or more recognize tens of thousands of types of image contents in a game application, at most, the image recognition model trained for each individual character is used. It is possible to recognize the content of the target image with a single inference process, and achieve high response performance.
画像を認識する学習モデルは例えば数百キロバイト程度とすることができ、属性情報に予め紐づけて容易に電子装置にダウンロードさせることができ、電子装置側で画像認識処理を実行することが可能である。このため、画像情報をサーバに送る必要がなく、個人情報保護を適切に行うと同時にサーバ負荷の低減を実現することができる。また、画像認識モデルを更新した場合であっても、更新された画像認識モデルを電子装置側に再度ダウンロードさせるだけでよいため、高い拡張性を実現する。 A learning model for recognizing an image can be, for example, about several hundred kilobytes, and can be linked to attribute information in advance and easily downloaded to an electronic device, and image recognition processing can be executed on the electronic device side. be. Therefore, there is no need to send image information to the server, and personal information can be appropriately protected, and the server load can be reduced. Further, even when the image recognition model is updated, it is only necessary to re-download the updated image recognition model to the electronic device side, thereby realizing high extensibility.
[第2の実施形態]
本実施形態は、電子装置10が画像認識モデルを記憶部104に記憶せず、電子装置10の画像認識モデル選択部108及び識別子情報推論部109に代えて、サーバ20が画像認識モデル選択部208及び識別子情報推論部209を備える点で、第1の実施形態と異なる。以下、第1の実施形態と異なる点を中心に説明する。
[Second embodiment]
In this embodiment, the
本実施形態においては、サーバ20において、キャラクタ毎に固有の学習内容を用意して、この固有の学習内容によって画像認識モデルを定義して、記憶部204に記憶するが(S401)、電子装置10へ画像認識モデルをダウンロードさせない。
In this embodiment, the
その後、第1の実施形態と同様の処理により、電子装置10において、属性情報に対して送信するための画像情報を指定し(S402)、送り先属性情報を特定する(S404)。そして、通信部105を用いて、指定された画像情報及び特定された送り先属性情報を含む、識別子情報推論要求をサーバ20へ送信する。サーバ20の画像認識モデル選択部208は受信した識別子情報推論要求に含まれる送り先属性情報に基づいて、画像情報を入力するための画像認識モデル250を選択する(S406)。識別子情報推論部209は、識別子情報推論要求に含まれる画像情報を、選択された画像認識モデル250に入力して、識別情報推論処理を実行する(S408)。識別子情報推論部209は、画像情報の画像内容に対応する識別子情報を出力し、サーバ20の通信部205がこれを電子装置10へ送信する。電子装置10の通信部105は、サーバ20から送信された識別子情報を受信し、これに紐づけられたスクリプトデータに基づいて、応答内容を実行する(S410)。
After that, in the
本実施形態を用いることにより、電子装置10は、画像認識モデルを記憶し、識別子情報推論処理を実行する必要がないから、電子装置10の記憶容量や処理能力が極めて小さい場合であっても、高いレスポンス性能で処理を実行することが可能となる。
By using this embodiment, the
また、電子装置10において識別子情報に対応するスクリプトデータを特定せずに、サーバ20においてスクリプトデータを特定し、送信されたスクリプトデータに基づいて、応答内容を実行してもかまわない。さらに、例えば、ブラウザベースのゲームアプリの場合には、サーバ20において応答処理を実行し、実行された演出を電子装置10において表示するだけであっても良い。
Alternatively, the
以上に説明した処理または動作において、矛盾が生じない限りにおいて、処理または動作を自由に変更することができる。また以上に説明してきた各実施形態は、本発明を説明するための例示であり、本発明はこれらの実施形態に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 In the processing or operation described above, the processing or operation can be freely changed as long as there is no contradiction. Moreover, each embodiment described above is an illustration for demonstrating this invention, and this invention is not limited to these embodiments. The present invention can be embodied in various forms without departing from the gist thereof. Moreover, the effects described in the present embodiment are merely enumerations of the most suitable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the present embodiment.
1 :システム
2 :ネットワーク
10 :電子装置
11 :プロセッサ
12 :表示装置
13 :入力装置
14 :記憶装置
15 :通信装置
16 :バス
20 :サーバ
21 :プロセッサ
22 :表示装置
23 :入力装置
24 :記憶装置
25 :通信装置
26 :バス
101 :制御部
102 :表示部
103 :操作受付部
104 :記憶部
105 :通信部
106 :画像情報指定部
107 :送り先属性情報特定部
108 :画像認識モデル選択部
109 :識別子情報推論部
110 :応答内容実行部
150 :画像認識モデル
201 :制御部
202 :表示部
203 :操作受付部
204 :記憶部
205 :通信部
208 :画像認識モデル選択部
209 :識別子情報推論部
250 :画像認識モデル
1 : System 2 : Network 10 : Electronic Device 11 : Processor 12 : Display Device 13 : Input Device 14 : Storage Device 15 : Communication Device 16 : Bus 20 : Server 21 : Processor 22 : Display Device 23 : Input Device 24 : Storage Device 25: communication device 26: bus 101: control unit 102: display unit 103: operation reception unit 104: storage unit 105: communication unit 106: image information designation unit 107: destination attribute information identification unit 108: image recognition model selection unit 109: Identifier information inference unit 110 : Response content execution unit 150 : Image recognition model 201 : Control unit 202 : Display unit 203 : Operation reception unit 204 : Storage unit 205 : Communication unit 208 : Image recognition model selection unit 209 : Identifier information inference unit 250 : image recognition model
Claims (9)
固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、キャラクタのキャラクタ識別情報に紐づけられる画像認識モデルを複数記憶する記憶部と、
操作受付部の受け付けたキャラクタを選択するためのユーザによる操作に基づき、前記記憶部に記憶されたキャラクタ識別情報の中から前記選択されたキャラクタのキャラクタ識別情報を画像情報の送り先として特定する送り先属性情報特定部と、
前記送り先属性情報特定部の特定したキャラクタ識別情報に紐づけられた画像認識モデルを、前記記憶部に記憶された複数の画像認識モデルの中から選択する画像認識モデル選択部と、
前記画像認識モデル選択部の選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論部と、
を備えることを特徴とする電子装置。 an operation receiving unit capable of receiving an operation from a user;
a storage unit that stores a plurality of image recognition models that are defined by specific learning content and that are capable of inferring at least one piece of identifier information using the learning content, and that are linked to character identification information of a character; ,
a destination attribute for specifying the character identification information of the selected character from among the character identification information stored in the storage unit as a destination of image information based on the user's operation for selecting the character received by the operation reception unit; an information identifying unit;
an image recognition model selection unit that selects an image recognition model linked to the character identification information specified by the destination attribute information specifying unit from among a plurality of image recognition models stored in the storage unit;
an identifier information inference unit that inputs image information to the image recognition model selected by the image recognition model selection unit and infers identifier information from the image information based on the learning content;
An electronic device comprising:
前記識別子情報推論部の推論した識別子情報に基づき、当該識別子情報に対応した応答内容を前記記憶部に記憶された複数の応答内容の中から特定して実行する応答内容実行部を備えることを特徴とする請求項1または2に記載の電子装置。 the storage unit stores a plurality of response contents corresponding to each of a plurality of pieces of identifier information in association with each of the plurality of image recognition models;
a response content execution unit that identifies and executes response content corresponding to the identifier information from among the plurality of response content stored in the storage unit based on the identifier information inferred by the identifier information inference unit; 3. The electronic device according to claim 1 or 2.
前記記憶部は、前記キャラクタ識別情報に対応する文字情報及びアイコン画像情報の少なくとも1つを記憶し、
前記送り先属性情報特定部は、前記記憶部に記憶された前記文字情報及び前記アイコン画像情報の少なくとも1つを前記表示部に表示するとともに、当該表示された文字情報及びアイコン画像情報の少なくとも1つを前記操作受付部によってユーザが指定することで前記記憶部に記憶されたキャラクタ識別情報の中から少なくとも1つのキャラクタ識別情報を画像情報の送り先として特定することを特徴とする請求項1ないし請求項3のいずれか1項に記載の電子装置。 a display for displaying information to a user;
the storage unit stores at least one of character information and icon image information corresponding to the character identification information ;
The destination attribute information specifying unit displays at least one of the character information and the icon image information stored in the storage unit on the display unit, and displays at least one of the displayed character information and icon image information. at least one of the character identification information stored in the storage unit is specified as the destination of the image information by the user specifying through the operation reception unit. 4. The electronic device according to any one of 3.
固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、キャラクタのキャラクタ識別情報に紐づけられる画像認識モデルを複数記憶する記憶段階と、
ユーザからの操作を受け付ける操作受付段階と、
操作受付段階において受け付けたキャラクタを選択するためのユーザによる操作に基づき、前記記憶されたキャラクタ識別情報の中から前記選択されたキャラクタのキャラクタ識別情報を画像情報の送り先として特定する送り先属性情報特定段階と、
前記送り先属性情報特定段階において特定したキャラクタ識別情報に紐づけられた画像認識モデルを、前記記憶された複数の画像認識モデルの中から選択する画像認識モデル選択段階と、
前記画像認識モデル選択段階において選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論段階と、
を実行させることを特徴とする方法。 1. A method implemented by one or more computers, comprising:
a storage stage for storing a plurality of image recognition models that are defined by unique learning content and that are capable of inferring at least one piece of identifier information using the learning content, and that are linked to character identification information of a character; ,
an operation reception stage for receiving an operation from a user;
a destination attribute information specifying step of specifying the character identification information of the selected character from the stored character identification information as a destination of the image information based on the user's operation for selecting the character received in the operation receiving step; and,
an image recognition model selection step of selecting an image recognition model linked to the character identification information specified in the destination attribute information specifying step from among the plurality of stored image recognition models;
an identifier information inference step of inputting image information to the image recognition model selected in the image recognition model selection step and inferring identifier information from the image information based on the learning content;
A method characterized by performing
前記ユーザ端末が、
ユーザからの操作を受け付け可能な操作受付部と、
操作受付部の受け付けたキャラクタを選択するためのユーザによる操作に基づき、選択されたキャラクタのキャラクタ識別情報を画像情報の送り先として特定する送り先属性情報特定部と、
を備え、
前記サーバが、
固有の学習内容によって定義され、当該学習内容を利用して少なくとも1つの識別子情報を推論可能な画像認識モデルであって、キャラクタのキャラクタ識別情報に紐づけられる画像認識モデルを複数記憶する記憶部と、
前記送り先属性情報特定部の特定したキャラクタ識別情報に紐づけられた画像認識モデルを、前記記憶部に記憶された複数の画像認識モデルの中から選択する画像認識モデル選択部と、
前記画像認識モデル選択部の選択した画像認識モデルへ画像情報を入力し、前記学習内容に基づいて、当該画像情報から識別子情報を推論する識別子情報推論部と、
を備えることを特徴とするシステム。 A system including a user terminal and a server,
The user terminal
an operation receiving unit capable of receiving an operation from a user;
a destination attribute information identifying unit that identifies character identification information of a selected character as a destination of image information based on an operation by a user for selecting a character received by the operation receiving unit;
with
the server
a storage unit that stores a plurality of image recognition models that are defined by specific learning content and that are capable of inferring at least one piece of identifier information using the learning content, and that are linked to character identification information of a character; ,
an image recognition model selection unit that selects an image recognition model linked to the character identification information specified by the destination attribute information specifying unit from among a plurality of image recognition models stored in the storage unit;
an identifier information inference unit that inputs image information to the image recognition model selected by the image recognition model selection unit and infers identifier information from the image information based on the learning content;
A system characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020185857A JP7335221B2 (en) | 2019-08-20 | 2020-11-06 | Electronic device, method, program and system for identifier information inference using image recognition model |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019150334A JP6967041B2 (en) | 2019-08-20 | 2019-08-20 | Electronic devices, methods, programs and systems for identifier information inference using image recognition models |
JP2020185857A JP7335221B2 (en) | 2019-08-20 | 2020-11-06 | Electronic device, method, program and system for identifier information inference using image recognition model |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019150334A Division JP6967041B2 (en) | 2019-08-20 | 2019-08-20 | Electronic devices, methods, programs and systems for identifier information inference using image recognition models |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021034065A JP2021034065A (en) | 2021-03-01 |
JP2021034065A5 JP2021034065A5 (en) | 2022-09-02 |
JP7335221B2 true JP7335221B2 (en) | 2023-08-29 |
Family
ID=87764106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020185857A Active JP7335221B2 (en) | 2019-08-20 | 2020-11-06 | Electronic device, method, program and system for identifier information inference using image recognition model |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7335221B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004297350A (en) | 2003-03-26 | 2004-10-21 | Casio Comput Co Ltd | Picture distribution device, picture delivery method, and picture distribution program |
JP2013161267A (en) | 2012-02-06 | 2013-08-19 | Sony Corp | Information processing device, information processing method and program |
JP2014513822A (en) | 2011-01-31 | 2014-06-05 | マイクロソフト コーポレーション | Use of 3D environmental models in game play |
WO2018142765A1 (en) | 2017-02-03 | 2018-08-09 | パナソニックIpマネジメント株式会社 | Learned model provision method, and learned model provision device |
JP2018163554A (en) | 2017-03-27 | 2018-10-18 | 富士通株式会社 | Image processing device, image processing method, image processing program, and teacher data generating method |
JP2018197948A (en) | 2017-05-23 | 2018-12-13 | 株式会社Preferred Networks | Line drawing automatic coloring program, line drawing automatic coloring apparatus and graphical user interface program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7242175B2 (en) * | 2017-12-05 | 2023-03-20 | 株式会社バンダイナムコエンターテインメント | game system and program |
-
2020
- 2020-11-06 JP JP2020185857A patent/JP7335221B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004297350A (en) | 2003-03-26 | 2004-10-21 | Casio Comput Co Ltd | Picture distribution device, picture delivery method, and picture distribution program |
JP2014513822A (en) | 2011-01-31 | 2014-06-05 | マイクロソフト コーポレーション | Use of 3D environmental models in game play |
JP2013161267A (en) | 2012-02-06 | 2013-08-19 | Sony Corp | Information processing device, information processing method and program |
WO2018142765A1 (en) | 2017-02-03 | 2018-08-09 | パナソニックIpマネジメント株式会社 | Learned model provision method, and learned model provision device |
JP2018163554A (en) | 2017-03-27 | 2018-10-18 | 富士通株式会社 | Image processing device, image processing method, image processing program, and teacher data generating method |
JP2018197948A (en) | 2017-05-23 | 2018-12-13 | 株式会社Preferred Networks | Line drawing automatic coloring program, line drawing automatic coloring apparatus and graphical user interface program |
Also Published As
Publication number | Publication date |
---|---|
JP2021034065A (en) | 2021-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112241764B (en) | Image recognition method, device, electronic equipment and storage medium | |
CN111712832A (en) | Automatic image correction using machine learning | |
CN107368508B (en) | Keyword search method and system using communication tool service | |
CN107251060A (en) | For the pre-training and/or transfer learning of sequence label device | |
CN111670457A (en) | Optimization of dynamic object instance detection, segmentation and structure mapping | |
JP6489005B2 (en) | Information processing system, information processing method, and program | |
CN112527115B (en) | User image generation method, related device and computer program product | |
CN111931591A (en) | Method and device for constructing key point learning model, electronic equipment and readable storage medium | |
EP3493104A1 (en) | Optimizations for dynamic object instance detection, segmentation, and structure mapping | |
EP3869393B1 (en) | Image recognition method and apparatus, electronic device, and medium | |
CN115066667A (en) | Determining gaze using deep learning | |
TW201926968A (en) | Program and information processing method and information processing device capable of easily changing choice of content to be transmitted | |
CN107079065A (en) | Phone board device | |
WO2021068613A1 (en) | Face recognition method and apparatus, device and computer-readable storage medium | |
CN111158924A (en) | Content sharing method and device, electronic equipment and readable storage medium | |
JP7335221B2 (en) | Electronic device, method, program and system for identifier information inference using image recognition model | |
CN107770253A (en) | Long-range control method and system | |
JP6721727B1 (en) | Information processing apparatus control program, information processing apparatus control method, and information processing apparatus | |
JP6967041B2 (en) | Electronic devices, methods, programs and systems for identifier information inference using image recognition models | |
EP4293607A1 (en) | Electronic device and method for providing sticker on basis of content input | |
US11556183B1 (en) | Techniques for generating data for an intelligent gesture detector | |
WO2022089546A1 (en) | Label generation method and apparatus, and related device | |
US20210322825A1 (en) | Graph Based Method of Next Pitch Prediction | |
US11227122B1 (en) | Methods, mediums, and systems for representing a model in a memory of device | |
CN114092608A (en) | Expression processing method and device, computer readable storage medium and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7335221 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |