JP7329293B1 - Information processing device, method, program, and system - Google Patents

Information processing device, method, program, and system Download PDF

Info

Publication number
JP7329293B1
JP7329293B1 JP2023095341A JP2023095341A JP7329293B1 JP 7329293 B1 JP7329293 B1 JP 7329293B1 JP 2023095341 A JP2023095341 A JP 2023095341A JP 2023095341 A JP2023095341 A JP 2023095341A JP 7329293 B1 JP7329293 B1 JP 7329293B1
Authority
JP
Japan
Prior art keywords
model
visual content
content
specific character
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023095341A
Other languages
Japanese (ja)
Inventor
隆太 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snafty
Original Assignee
Snafty
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snafty filed Critical Snafty
Priority to JP2023095341A priority Critical patent/JP7329293B1/en
Application granted granted Critical
Publication of JP7329293B1 publication Critical patent/JP7329293B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】キャラクタの活動記録としてふさわしい視覚的コンテンツの準備を支援する。【解決手段】本開示の一態様のプログラムは、コンピュータを、特定のキャラクタに設定されたプロフィール情報に基づく第1モデル入力を、複数の参照キャラクタのプロフィール情報と当該複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴との関係を学習した第1モデルに与えることで、特定のキャラクタに適していると予測された視覚的コンテンツの特徴を表す特徴情報を取得する手段、特徴情報に基づく第2モデル入力を、特定のキャラクタの容姿を被写体とする画像を生成するように学習した第2モデルに与えることで、特定のキャラクタの容姿を被写体とし、かつ第2モデル入力に応じた特徴を備えた視覚的コンテンツである候補コンテンツを取得する手段、候補コンテンツを出力する手段、として機能させる。【選択図】図5An object of the present invention is to support the preparation of visual content suitable as an activity record of a character. A program according to one aspect of the present disclosure causes a computer to perform first model input based on profile information set for a specific character, profile information of a plurality of reference characters and each of the plurality of reference characters from an external source. Means for acquiring feature information representing features of visual content predicted to be suitable for a specific character by giving the relationship between the features of the visual content disclosed to the first model and acquiring feature information, By giving the second model input based on the second model to the second model that has learned to generate an image with the appearance of a specific character as the subject, the appearance of the specific character is used as the subject and the characteristics according to the second model input function as a means for acquiring candidate content, which is visual content with a function, and a means for outputting the candidate content. [Selection drawing] Fig. 5

Description

本開示は、情報処理装置、方法、プログラム、およびシステムに関する。 The present disclosure relates to an information processing device, method, program, and system.

従来、ユーザとの間でテキストまたは音声により対話するエージェント対話システムが知られている。特許文献1には、個性を持たせたキャラクタが、その個性に応じたテキストを自動的に返答することを企図した技術的思想が開示されている。 Conventionally, there is known an agent interaction system that interacts with a user through text or voice. Japanese Patent Laid-Open No. 2002-200002 discloses a technical concept in which a character with individuality is designed to automatically reply with a text corresponding to the individuality.

特開2021-056668号公報Japanese Patent Application Laid-Open No. 2021-056668

特許文献1の技術的思想では、キャラクタの個性に応じたテキストを自動的に返答することで、当該キャラクタに対する親近感やその存在のリアリティを高められる可能性がある。 According to the technical idea of Patent Document 1, by automatically replying with a text corresponding to the individuality of the character, there is a possibility that the sense of familiarity with the character and the reality of its existence can be enhanced.

他方、例えば現実世界における有名人やインフルエンサーは、自らのオフタイムまたはオンタイムにおける活動の様子を撮影した写真や動画をSNS(Social Networking Service)投稿し、受け手の興味関心を惹きつけている。架空のキャラクタについても同様に、写真や動画などの視覚的コンテンツが、当該キャラクタに対して受け手が抱く親近感または当該キャラクタの存在のリアリティを高めるツールとして活用する余地がある。しかしながら、キャラクタの活動記録としての視覚的コンテンツは、単に当該キャラクタを被写体とするだけでは十分とはいい難く、背景(撮影場所)や活動の内容、服装、などが本人の個性や投稿時のトレンドなどの観点からふさわしいものであることが理想的である。このため、キャラクタの活動記録としてふさわしい視覚的コンテンツを高頻度かつ適時に準備することは容易でない。そして、特許文献1の技術的思想を参酌しても、キャラクタの活動記録としてふさわしい視覚的コンテンツを自動的に生成することはできない。 On the other hand, celebrities and influencers in the real world, for example, post photos and videos of their off-time or on-time activities on SNS (Social Networking Service) to attract the interest of recipients. Similarly, with regard to fictitious characters, there is room for utilizing visual content such as photographs and moving images as a tool to increase the sense of familiarity that the recipient has for the character or the reality of the existence of the character. However, it is difficult to say that simply using the character as a subject is sufficient for visual content as a record of the character's activities. Ideally, it should be suitable from the viewpoint of For this reason, it is not easy to frequently and timely prepare visual contents suitable for character activity records. Even if the technical idea of Patent Document 1 is taken into account, it is not possible to automatically generate visual content suitable as a character's activity record.

本開示の目的は、キャラクタの活動記録としてふさわしい視覚的コンテンツの準備を支援することである。 An object of the present disclosure is to assist in the preparation of visual content suitable as a record of character activities.

本開示の一態様のプログラムは、コンピュータを、特定のキャラクタに設定されたプロフィール情報に基づく第1モデル入力を、複数の参照キャラクタのプロフィール情報と当該複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴との関係を学習した第1モデルに与えることで、特定のキャラクタに適していると予測された視覚的コンテンツの特徴を表す特徴情報を取得する手段、特徴情報に基づく第2モデル入力を、特定のキャラクタの容姿を被写体とする画像を生成するように学習した第2モデルに与えることで、特定のキャラクタの容姿を被写体とし、かつ第2モデル入力に応じた特徴を備えた視覚的コンテンツである候補コンテンツを取得する手段、候補コンテンツを出力する手段、として機能させる。 A program according to one aspect of the present disclosure causes a computer to input a first model input based on profile information set for a specific character, profile information of a plurality of reference characters, and a visual image of each of the plurality of reference characters exposed to the outside. means for acquiring feature information representing features of visual content predicted to be suitable for a specific character by giving a relationship with features of the target content to the learned first model; a second model based on the feature information; By giving an input to a second model that has learned to generate an image with the appearance of a specific character as the subject, a vision that has the appearance of the specific character as the subject and has features according to the input of the second model. It functions as means for acquiring candidate content, which is target content, and means for outputting candidate content.

本実施形態の情報処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing system according to an embodiment; FIG. 本実施形態のクライアント装置の構成を示すブロック図である。It is a block diagram showing the configuration of the client device of the present embodiment. 本実施形態のサーバの構成を示すブロック図である。It is a block diagram which shows the structure of the server of this embodiment. 本実施形態の第1モデルの学習の概要の説明図である。FIG. 4 is an explanatory diagram of an overview of learning of the first model of the embodiment; 本実施形態の一態様の説明図である。1 is an explanatory diagram of one aspect of the present embodiment; FIG. 本実施形態のプロフィールテーブルのデータ構造を示す図である。It is a figure which shows the data structure of the profile table of this embodiment. 本実施形態の投稿ログテーブルのデータ構造を示す図である。4 is a diagram showing the data structure of a posting log table according to the embodiment; FIG. 本実施形態の投稿ログ収集処理のフローチャートである。6 is a flowchart of post log collection processing according to the embodiment; 本実施形態の視覚的コンテンツ取得処理のフローチャートである。4 is a flowchart of visual content acquisition processing according to the embodiment;

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 An embodiment of the present invention will be described in detail below with reference to the drawings. In the drawings for describing the embodiments, in principle, the same constituent elements are denoted by the same reference numerals, and repeated description thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.

図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
サーバ30及び外部システム50は、ネットワークNWを介して接続される。
As shown in FIG. 1 , the information processing system 1 includes a client device 10 and a server 30 .
The client device 10 and server 30 are connected via a network (for example, the Internet or an intranet) NW.
The server 30 and the external system 50 are connected via a network NW.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。クライアント装置10のユーザは、例えば特定のキャラクタに関する視覚的コンテンツの公開の諾否を判断する権限を有する者(以下、「管理ユーザ」という)である。管理ユーザは、例えば、特定のキャラクタの管理権限を証明するNFT(Non-Fungible Token)を保有する者であってよく、この場合に管理ユーザは当該NFTの譲渡に伴って変化する。 The client device 10 is an example of an information processing device that transmits requests to the server 30 . The client device 10 is, for example, a smart phone, a tablet terminal, or a personal computer. A user of the client device 10 is, for example, a person who has the authority to decide whether or not to publish visual content related to a specific character (hereinafter referred to as "administrative user"). The administrative user may be, for example, a person who possesses an NFT (Non-Fungible Token) that certifies the management authority of a specific character, and in this case the administrative user changes with the transfer of the NFT.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、サーバコンピュータである。 The server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request transmitted from the client device 10 . Server 30 is, for example, a server computer.

(1-1)クライアント装置の構成
クライアント装置の構成について説明する。図2は、本実施形態のクライアント装置の構成を示すブロック図である。
(1-1) Configuration of Client Apparatus The configuration of the client apparatus will be described. FIG. 2 is a block diagram showing the configuration of the client device of this embodiment.

図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。クライアント装置10は、ディスプレイ21に接続される。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, and a communication interface . The client device 10 is connected to the display 21 .

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 Storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of ROM (Read Only Memory), RAM (Random Access Memory), and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
Programs include, for example, the following programs.
・OS (Operating System) program ・Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するコンピュータである。プロセッサ12は、例えば、以下の少なくとも1つである。
・CPU(Central Processing Unit)
・GPU(Graphic Processing Unit)
・ASIC(Application Specific Integrated Circuit)
・FPGA(Field Programmable Gate Array)
The processor 12 is a computer that implements the functions of the client device 10 by activating programs stored in the storage device 11 . Processor 12 is, for example, at least one of the following:
・CPU (Central Processing Unit)
・GPU (Graphic Processing Unit)
・ASIC (Application Specific Integrated Circuit)
・FPGA (Field Programmable Gate Array)

入出力インタフェース13は、クライアント装置10に接続される入力デバイスから情報(例えば、ユーザの指示)を取得し、かつ、クライアント装置10に接続される出力デバイスに情報(例えば、画像)を出力するように構成される。 The input/output interface 13 acquires information (for example, user instructions) from an input device connected to the client device 10 and outputs information (for example, an image) to an output device connected to the client device 10. configured to

入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ21、スピーカ、又は、それらの組合せである。
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
Output devices are, for example, the display 21, speakers, or a combination thereof.

通信インタフェース14は、クライアント装置10と外部装置(例えばサーバ30)との間の通信を制御するように構成される。 Communication interface 14 is configured to control communications between client device 10 and an external device (eg, server 30).

ディスプレイ21は、画像(静止画、または動画)を表示するように構成される。ディスプレイ21は、例えば、液晶ディスプレイ、または有機ELディスプレイである。 The display 21 is configured to display images (still images or moving images). The display 21 is, for example, a liquid crystal display or an organic EL display.

(1-2)サーバの構成
サーバの構成について説明する。図3は、本実施形態のサーバの構成を示すブロック図である。
(1-2) Server Configuration The server configuration will be described. FIG. 3 is a block diagram showing the configuration of the server of this embodiment.

図3に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 3, the server 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface .

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 Storage device 31 is configured to store programs and data. Storage device 31 is, for example, a combination of ROM, RAM, and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
Programs include, for example, the following programs.
・OS program ・Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するコンピュータである。プロセッサ32は、例えば、以下の少なくとも1つである。
・CPU
・GPU
・ASIC
・FPGA
The processor 32 is a computer that implements the functions of the server 30 by activating programs stored in the storage device 31 . Processor 32 is, for example, at least one of the following:
・CPU
・GPU
・ASICs
・FPGA

入出力インタフェース33は、サーバ30に接続される入力デバイスから情報(例えばユーザの指示)を取得し、かつ、サーバ30に接続される出力デバイスに情報(例えば画像)を出力するように構成される。 The input/output interface 33 is configured to acquire information (eg, user instructions) from an input device connected to the server 30 and output information (eg, an image) to an output device connected to the server 30. .

入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display.

通信インタフェース34は、サーバ30と外部装置(例えば、クライアント装置10、または外部システム50)との間の通信を制御するように構成される。 Communication interface 34 is configured to control communications between server 30 and an external device (eg, client device 10 or external system 50).

(2)実施形態の一態様
本実施形態の一態様について説明する。図4は、本実施形態の第1モデルの学習の概要の説明図である。図5は、本実施形態の一態様の説明図である。
(2) One aspect of the embodiment One aspect of the present embodiment will be described. FIG. 4 is an explanatory diagram of the outline of the learning of the first model of this embodiment. FIG. 5 is an explanatory diagram of one aspect of the present embodiment.

図4に示すように、投稿者は、外部システム50に対して参照キャラクタP1の容姿を被写体とする写真または動画などの視覚的コンテンツ(以下、「参照キャラクタP1の視覚的コンテンツ」という)を投稿する。参照キャラクタP1は、投稿者と同一人物であってもよいし、投稿者が演じる架空のキャラクタであってもよい。典型的には、参照キャラクタP1は、実在のインフルエンサー、有名人、タレント、モデル、アイドル、俳優、歌手、ダンサー、スポーツ選手、などであるが、アバター、物語の登場人物、ご当地キャラクタ、などの架空のキャラクタであってもよい。また、参照キャラクタP1の数は2以上の任意の数であるが、後述する第1モデルLM31の学習に十分な規模を確保することが好ましい。 As shown in FIG. 4, a contributor posts visual content (hereinafter referred to as "visual content of the reference character P1") such as a photograph or video of the appearance of the reference character P1 to the external system 50. do. The reference character P1 may be the same person as the contributor, or may be a fictitious character played by the contributor. Typically, the reference character P1 is a real influencer, celebrity, talent, model, idol, actor, singer, dancer, athlete, etc. It may be a fictitious character. Also, the number of reference characters P1 is an arbitrary number equal to or greater than 2, but it is preferable to secure a sufficient scale for learning the first model LM31, which will be described later.

外部システム50は、視覚的コンテンツの共有を含むサービスをユーザに提供する。外部システムの提供するサービスは、例えばInstagram(登録商標)などのSNSであるが、これに限られない。また、視覚的コンテンツの共有は、外部システムの主要なサービスではなく付帯的なサービスであってもよい。外部システム50は、投稿された参照キャラクタP1の視覚的コンテンツを蓄積し、ユーザに公開する。 The external system 50 provides services to users, including sharing visual content. The service provided by the external system is, for example, an SNS such as Instagram (registered trademark), but is not limited to this. Also, visual content sharing may be a side service rather than the primary service of the external system. The external system 50 accumulates the posted visual content of the reference character P1 and makes it available to the user.

サーバ30は、参照キャラクタP1のプロフィール情報を取得する。参照キャラクタP1のプロフィール情報は、外部システム50から取得されてもよいし、参照キャラクタP1について取得可能な情報に基づいて作成されてもよい。参照キャラクタP1のプロフィール情報は、人間(例えば、情報処理システム1の運営者)によって作成されてもよいし、参照キャラクタP1について取得可能な情報を例えば学習済みモデルに要約・整形させることで作成されてもよい。 The server 30 acquires profile information of the reference character P1. The profile information of the reference character P1 may be obtained from the external system 50, or may be created based on information that can be obtained about the reference character P1. The profile information of the reference character P1 may be created by a human (for example, an operator of the information processing system 1), or may be created by, for example, summarizing and shaping information that can be obtained about the reference character P1 into a trained model. may

また、サーバ30は、参照キャラクタP1の視覚的コンテンツ(視覚的コンテンツのメタデータを含み得る)を外部システム50から取得する。 Server 30 also obtains the visual content of reference character P1 (which may include metadata for the visual content) from external system 50 .

サーバ30は、取得した情報を学習データとして用い、参照キャラクタP1のプロフィール情報と、参照キャラクタP1の視覚的コンテンツの特徴との関係を学習した第1モデルLM31を作成する。学習の結果、第1モデルLM31は、所与のプロフィール情報に対し、当該プロフィール情報にふさわしい視覚的コンテンツの特徴を推論できる。 The server 30 uses the acquired information as learning data to create a first model LM31 that has learned the relationship between the profile information of the reference character P1 and the features of the visual content of the reference character P1. As a result of learning, the first model LM31 can infer, for given profile information, features of visual content that are appropriate for that profile information.

図5に示すように、サーバ30は、特定のキャラクタC2のプロフィール情報を取得する。特定のキャラクタC2のプロフィール情報は、例えば、人間(例えば、特定のキャラクタC2の管理ユーザM3)によって作成されてもよいし、特定のキャラクタC2について人間(例えば、特定のキャラクタC2の管理ユーザM3、当該キャラクタC2のファン、またはそれらの組み合わせ)が指定した情報を例えば学習済みモデルに要約・整形させることで作成されてもよい。 As shown in FIG. 5, the server 30 acquires profile information for a specific character C2. The profile information of the specific character C2 may be created by, for example, a human (for example, the administrative user M3 of the specific character C2), or may be created by a human (for example, the administrative user M3 of the specific character C2, A fan of the character C2, or a combination thereof) may be created by, for example, summarizing/shaping information specified by a learned model.

サーバ30は、特定のキャラクタC2のプロフィール情報に基づく第1モデル入力を、第1モデルLM31に与えることで、当該キャラクタC2に適している(例えば、当該キャラクタC2が公開するにふさわしい)と予測された視覚的コンテンツの特徴を表す特徴情報を取得する。 The server 30 provides the first model input based on the profile information of the specific character C2 to the first model LM31, thereby predicting that the character C2 is suitable for the character C2 (for example, the character C2 is suitable for disclosure). Acquire feature information representing features of the visual content.

さらに、サーバ30は、第2モデルLM32を用いて視覚的コンテンツを取得する。ここで、第2モデルLM32は、特定のキャラクタC2の容姿を被写体とする画像を生成するように予め学習されている。サーバ30は、取得した特徴情報に基づく第2モデル入力を、第2モデルLM32に与えることで、特定のキャラクタC2の容姿を被写体とし、かつ、当該特徴情報に応じた特徴を備えた視覚的コンテンツ(以下、「候補コンテンツ」という)を取得する。なお、第2モデルLM32は、1つに限らず複数の候補コンテンツを同時に生成してもよい。 Additionally, the server 30 uses the second model LM32 to obtain visual content. Here, the second model LM32 is trained in advance so as to generate an image with the appearance of the specific character C2 as the subject. The server 30 supplies the second model LM32 with a second model input based on the acquired feature information, thereby creating visual content having the appearance of the specific character C2 as a subject and having features corresponding to the feature information. (hereinafter referred to as “candidate content”). Note that the second model LM32 may simultaneously generate a plurality of candidate contents, not limited to one.

サーバ30は、取得した候補コンテンツを、特定のキャラクタC2の管理ユーザM3が操作するクライアント装置10へ出力(送信)する。管理ユーザM3は、候補コンテンツが特定のキャラクタC2の視覚的コンテンツとしてふさわしいか否かをチェックし、公開の承認または否認をクライアント装置10に指示する。クライアント装置10は、候補コンテンツの公開の認否をサーバ30へ送信する。サーバ30は、公開が認められた候補コンテンツを外部に公開する。 The server 30 outputs (transmits) the acquired candidate content to the client device 10 operated by the administrative user M3 of the specific character C2. The administrative user M3 checks whether the candidate content is suitable as visual content for the specific character C2, and instructs the client device 10 to approve or disapprove the disclosure. The client device 10 transmits to the server 30 approval or disapproval of disclosure of the candidate content. The server 30 publishes the candidate content approved for publication to the outside.

視覚的コンテンツの外部への公開とは、第三者(管理ユーザM3とは異なる者であり、典型的には特定のキャラクタC2のファン)が当該視覚的コンテンツの全体、一部、またはそれらの加工版を、条件付きまたは無条件で閲覧できる状態にすることを指す。視覚的コンテンツの外部への公開は、以下のいずれであってもよい。
・SNS(Social Networking Service)またはコンテンツ共有サービス等への視覚的コンテンツの投稿
・視覚的コンテンツ(視覚的コンテンツのNFTを含み得る)の販売(オークションを含み得る)サービスへの視覚的コンテンツの出品
Publishing of visual content to the outside means that a third party (a person different from the administrative user M3, typically a fan of a specific character C2) can disclose the whole, part, or all of the visual content. It refers to making a processed version available for viewing, either conditionally or unconditionally. External exposure of visual content can be any of the following:
・Posting visual content to SNS (Social Networking Service) or content sharing services, etc. ・Selling visual content (which may include NFT of visual content) (which may include auction) Listing of visual content to services

(3)データベース
本実施形態のデータベースを構成するテーブルについて説明する。以下のテーブルは、記憶装置31に記憶される。
(3) Database Tables constituting the database of this embodiment will be described. The following tables are stored in the storage device 31.

(3-1)プロフィールテーブル
本実施形態のプロフィールテーブルについて説明する。図6は、本実施形態のプロフィールテーブルのデータ構造を示す図である。
(3-1) Profile Table The profile table of this embodiment will be described. FIG. 6 is a diagram showing the data structure of the profile table of this embodiment.

プロフィールテーブルには、プロフィール情報が格納される。プロフィール情報は、参照キャラクタのプロフィールに関する情報である。 Profile information is stored in the profile table. Profile information is information about the profile of the reference character.

図6に示すように、プロフィールテーブルは、「キャラクタID」フィールドと、「性別」フィールドと、「職業」フィールドと、「年齢」フィールドと、「フォロワ数」フィールドとを含む。各フィールドは、互いに関連付けられている。 As shown in FIG. 6, the profile table includes a "character ID" field, a "gender" field, an "occupation" field, an "age" field, and a "follower count" field. Each field is associated with each other.

「キャラクタID」フィールドには、キャラクタIDが格納される。キャラクタIDは、該当レコードに対応する参照キャラクタを識別する情報である。一例として、キャラクタIDは、外部システム50が提供するサービスにおける参照キャラクタのアカウント名であってよい。 A character ID is stored in the "character ID" field. A character ID is information for identifying a reference character corresponding to a corresponding record. As an example, the character ID may be the account name of the reference character in the service provided by the external system 50. FIG.

「性別」フィールドには、性別情報が格納される。性別情報は、該当レコードに対応する参照キャラクタの性別に関する情報である。 The "gender" field stores gender information. The sex information is information on the sex of the reference character corresponding to the record.

「職業」フィールドには、職業情報が格納される。職業情報は、該当レコードに対応する参照キャラクタの職業に関する情報である。 The "occupation" field stores occupation information. The occupation information is information on the occupation of the reference character corresponding to the record.

「年齢」フィールドには、年齢情報が格納される。年齢情報は、該当レコードに対応する参照キャラクタの年齢に関する情報である。 The "age" field stores age information. Age information is information about the age of the reference character corresponding to the record.

「フォロワ数」フィールドには、フォロワ数情報が格納される。フォロワ数情報は、例えば外部システムが提供するサービスにおける、該当レコードに対応する参照キャラクタのアカウントのフォロワ数に関する情報である。 The "number of followers" field stores follower number information. The follower count information is, for example, information about the follower count of the account of the reference character corresponding to the record in the service provided by the external system.

なお、プロフィール情報は、上記例に限られない。プロフィール情報は、上記例の一部または全部を含まなくてもよいし、以下の情報を含んでもよい。
・該当レコードに対応する参照キャラクタの居住地域に関する地域情報
・該当レコードに対応する参照キャラクタの容姿(例えば、人種、体型、など)の特徴に関する容姿情報
・該当レコードに対応する参照キャラクタの服装またはメイクなどの嗜好に関する嗜好情報
・該当レコードに対応する参照キャラクタのパーソナリティに関するパーソナリティ情報
・該当レコードに対応する参照キャラクタの生活リズム(例えば、朝の支度、入浴、食事、または就労の時刻)に関する生活リズム情報
Profile information is not limited to the above example. Profile information may not include some or all of the above examples, and may include the following information.
・Local information about the residential area of the reference character corresponding to the corresponding record ・Appearance information about the features of the reference character corresponding to the corresponding record (for example, race, body type, etc.) ・Clothing or clothing of the reference character corresponding to the corresponding record Preference information related to preferences such as makeup ・Personality information related to the personality of the reference character corresponding to the relevant record ・Life rhythm related to the reference character corresponding to the relevant record (for example, time for getting ready in the morning, bathing, eating, or working) information

参照キャラクタに加え、候補コンテンツの作成対象となり得る(つまり、候補コンテンツの被写体となり得る)キャラクタのプロフィール情報も同一または類似のテーブルを用いて管理することができる。 In addition to reference characters, profile information of characters that can be candidates for creating candidate content (that is, can be subjects of candidate content) can be managed using the same or similar tables.

(3-2)投稿ログテーブル
本実施形態の投稿ログテーブルについて説明する。図7は、本実施形態の投稿ログテーブルのデータ構造を示す図である。
(3-2) Post Log Table The post log table of this embodiment will be described. FIG. 7 is a diagram showing the data structure of the posting log table of this embodiment.

投稿ログテーブルには、投稿ログ情報が格納される。投稿ログ情報は、外部システム50が提供するサービスに投稿された、参照キャラクタの視覚的コンテンツのログに関する情報である。 The posting log table stores posting log information. Posted log information is information relating to the log of the visual content of the reference character posted to the service provided by the external system 50 .

図7に示すように、投稿ログテーブルは、「投稿日時」フィールドと、「キャラクタID」フィールドと、「視覚的特徴」フィールドとを含む。各フィールドは、互いに関連付けられている。 As shown in FIG. 7, the posting log table includes a "posting date and time" field, a "character ID" field, and a "visual feature" field. Each field is associated with each other.

「投稿日時」フィールドには、投稿日時情報が格納される。投稿日時情報は、該当レコードに対応する視覚的コンテンツの投稿日時に関する情報である。 The “posted date and time” field stores posted date and time information. The posted date/time information is information regarding the posted date/time of the visual content corresponding to the record.

「キャラクタID」フィールドには、キャラクタIDが格納される。キャラクタIDは、該当レコードに対応する視覚的コンテンツの被写体である参照キャラクタを識別する情報である。キャラクタIDは、プロフィールテーブル(図6)におけるキャラクタIDと同一または1対1の関係にある。 A character ID is stored in the "character ID" field. A character ID is information for identifying a reference character that is a subject of visual content corresponding to the record. The character ID is the same as or has a one-to-one relationship with the character ID in the profile table (FIG. 6).

「視覚的特徴」フィールドには、視覚的特徴情報が格納される。視覚的特徴情報は、該当レコードに対応する視覚的コンテンツの視覚的特徴を表す情報である。視覚的特徴情報は、典型的にはテキスト情報である。サーバ30は、視覚的コンテンツに基づくモデル入力に対し、当該視覚的コンテンツの視覚的特徴を表すテキストを出力する学習済みモデルを利用して、かかる視覚的特徴情報を取得可能である。ただし、視覚的特徴情報として、視覚的コンテンツそのもの、またはその所在を示す情報(例えばURL)を用いることもできる。 The "visual feature" field stores visual feature information. The visual feature information is information representing the visual features of the visual content corresponding to the record. Visual feature information is typically text information. The server 30 can acquire such visual feature information using a trained model that outputs text representing the visual features of the visual content in response to model input based on the visual content. However, as the visual feature information, it is also possible to use the visual content itself or information indicating its location (for example, URL).

(4)情報処理
本実施形態の情報処理について説明する。
(4) Information processing Information processing according to the present embodiment will be described.

(4-1)投稿ログ収集処理
本実施形態の投稿ログ収集処理について説明する。図8は、本実施形態の投稿ログ収集処理のフローチャートである。
(4-1) Post Log Collection Processing Post log collection processing according to the present embodiment will be described. FIG. 8 is a flowchart of post log collection processing according to the present embodiment.

投稿ログ収集処理は、例えば以下の開始条件の成立に応じて開始され得る。
・投稿ログ収集処理の開始指示が例えば情報処理システム1の運営者によってサーバ30に与えられた。
・前回の投稿ログ収集処理の実施から所定期間が経過した。
・所定の日時が到来した。
・プロフィールテーブル(図6)が更新(レコードの挿入または削除を含み得る)された。
・候補コンテンツの作成対象となり得るキャラクタのプロフィール情報を管理するテーブルが更新(レコードの挿入または削除を含み得る)された。
The post log collection process can be started, for example, when the following start conditions are satisfied.
- An instruction to start the post log collection process is given to the server 30 by, for example, the operator of the information processing system 1 .
- A predetermined period of time has passed since the previous post log collection process was performed.
・The specified date and time has arrived.
• The profile table (Fig. 6) has been updated (which may include inserting or deleting records).
- The table that manages the profile information of characters for which candidate content can be created has been updated (which may include inserting or deleting records).

図8に示すように、サーバ30は、投稿コンテンツの取得(S130)を実行する。
具体的には、サーバ30は、外部システム50に投稿された視覚的コンテンツを取得する。ここで、取得される視覚的コンテンツは、過去の所定期間に投稿されたものに限られてよい。所定期間は、例えば、現時点から前回の投稿ログ収集処理の実施時点までの期間であってよい。
As shown in FIG. 8, server 30 acquires posted content (S130).
Specifically, the server 30 acquires visual content posted to the external system 50 . Here, the acquired visual content may be limited to those posted within a predetermined period of time in the past. The predetermined period may be, for example, the period from the current time to the time when the previous post log collection process was performed.

一例として、サーバ30は、外部システム50によって提供されるAPI(Application Programming Interface)を用いて、またはスクレイピングによって、視覚的コンテンツを取得し得る。 As an example, the server 30 may acquire visual content using an API (Application Programming Interface) provided by the external system 50 or by scraping.

サーバ30は、さらに、各視覚的コンテンツのメタデータを取得し得る。メタデータは、以下の少なくとも1つを含むことができる。
・視覚的コンテンツの投稿時刻(投稿日時を含み得る)
・視覚的コンテンツの投稿者のアカウント名
・視覚的コンテンツの撮影場所
・視覚的コンテンツの公開に対する反響(例えば、閲覧数、または閲覧者からのリアクション数)
・視覚的コンテンツにタグ付けされたキャラクタ
Server 30 may also obtain metadata for each visual content. Metadata can include at least one of the following:
- Posting time of visual content (may include posting date and time)
・Account name of the person who posted the visual content ・Location where the visual content was taken
・Characters tagged in visual content

ステップS130の後に、サーバ30は、参照キャラクタの特定(S131)を実行する。
具体的には、サーバ30は、ステップS130において取得した各視覚的コンテンツに対応する参照キャラクタ(つまり、各視覚的コンテンツの被写体である参照キャラクタ)を特定する。一例として、サーバ30は、視覚的コンテンツの投稿者のアカウント名に基づいて、当該視覚的コンテンツに対応する参照キャラクタを特定する。これにより、ステップS130において取得した各視覚的コンテンツと、対応する参照キャラクタのプロフィール情報とが紐付けられる。
After step S130, the server 30 identifies a reference character (S131).
Specifically, server 30 identifies a reference character corresponding to each visual content acquired in step S130 (that is, a reference character that is the subject of each visual content). As an example, the server 30 identifies the reference character corresponding to the visual content based on the account name of the contributor of the visual content. As a result, each visual content acquired in step S130 is associated with the corresponding profile information of the reference character.

ステップS131の後に、サーバ30は、投稿ログテーブルの更新(S132)を実行する。
具体的には、サーバ30は、ステップS130において取得した各視覚的コンテンツに対応する投稿ログ情報を投稿ログテーブル(図7)に保存する。一例として、サーバ30は、既存の画像生成AI(Artificial Intelligence)サービスに視覚的コンテンツを読み込ませることで、当該視覚的コンテンツの視覚的特徴を表現するテキストを取得する。このテキストは、当該テキストの元となった視覚的コンテンツと同一または類似の視覚的コンテンツを画像生成AIに生成させるためのプロンプト(命令文)に相当する。画像生成AIサービスとして、例えば、Midjourney、またはStable Diffusionなどが利用可能である。サーバ30は、さらに、取得したプロンプトを、第2モデルに適した形式に変換してもよい。変換には、例えば、例えばChatGPTなどの大規模言語モデルを利用可能である。
After step S131, server 30 updates the posting log table (S132).
Specifically, server 30 saves the post log information corresponding to each visual content acquired in step S130 in the post log table (FIG. 7). As an example, the server 30 causes an existing image generation AI (Artificial Intelligence) service to read visual content, thereby obtaining text expressing visual features of the visual content. This text corresponds to a prompt (command sentence) for causing the image generation AI to generate visual content that is the same as or similar to the visual content from which the text is based. For example, Midjourney, Stable Diffusion, etc. are available as image generation AI services. Server 30 may also convert the obtained prompts into a format suitable for the second model. For conversion, for example, a large-scale language model such as ChatGPT can be used.

サーバ30は、ステップS130において取得した投稿日時情報と、ステップS130において取得した視覚的コンテンツの視覚的特徴情報(或いは、視覚的コンテンツそのもの)と、ステップS131において特定した参照キャラクタのキャラクタIDとを関連付けるレコードを投稿ログテーブル(図7)に保存する。 The server 30 associates the posting date and time information acquired in step S130, the visual feature information of the visual content (or the visual content itself) acquired in step S130, and the character ID of the reference character specified in step S131. Save the record in the post log table (Fig. 7).

ステップS132の後に、サーバ30は、第1モデルの学習(S133)を実行する。
具体的には、サーバ30は、ステップS132における投稿ログテーブルの更新内容(つまり、追加された投稿ログ情報)と、各投稿ログ情報に対応する参照キャラクタのプロフィール情報とに基づく学習データを用いて、第1モデルの機械学習を行う。例えば、学習データは、参照キャラクタのプロフィール情報に基づく説明変数と、対応する視覚的コンテンツの特徴(例えば、投稿日時情報、視覚的特徴情報、またはそれらの組み合わせ)に基づく正解データとを含む。一例として、サーバ30は、例えばChatGPTなどの既存の学習済みモデルの追加学習(例えば、ファインチューニングまたは転移学習)を行うことで、第1モデルを作成または更新してもよい。
After step S132, the server 30 performs learning of the first model (S133).
Specifically, server 30 uses learning data based on the updated content of the posted log table in step S132 (that is, the added posted log information) and the profile information of the reference character corresponding to each piece of posted log information. , perform machine learning of the first model. For example, the learning data includes explanatory variables based on the profile information of the reference character, and correct data based on the corresponding visual content features (for example, posting date/time information, visual feature information, or a combination thereof). As an example, the server 30 may create or update the first model by performing additional learning (eg fine tuning or transfer learning) on an existing trained model such as ChatGPT.

なお、第1モデルの学習(S133)は、不要な場合にスキップされてよい。すなわち、第1モデルの学習(S133)は、投稿ログ収集処理に比べて長い間隔で繰り返し実行されてもよい。或いは、第1モデルの学習(S133)は、投稿ログ収集処理とは独立したタイミングで(例えば定期的に、または情報処理システム1の運営者からの要求に応じて)実行されてもよい。 Note that the learning of the first model (S133) may be skipped if unnecessary. That is, the learning of the first model (S133) may be repeatedly performed at longer intervals than the post log collection process. Alternatively, learning of the first model (S133) may be performed at a timing independent of the post log collection process (for example, periodically or in response to a request from the operator of the information processing system 1).

(4-2)視覚的コンテンツ取得処理
本実施形態の視覚的コンテンツ取得処理について説明する。図9は、本実施形態の視覚的コンテンツ取得処理のフローチャートである。
(4-2) Visual Content Acquisition Processing Visual content acquisition processing according to this embodiment will be described. FIG. 9 is a flowchart of visual content acquisition processing according to this embodiment.

視覚的コンテンツ取得処理は、例えば以下の開始条件の成立に応じて開始され得る。
・視覚的コンテンツ取得処理の開始指示が例えば情報処理システム1の運営者、または特定のキャラクタの管理ユーザによってサーバ30に与えられた。
・前回の視覚的コンテンツ取得処理の実施から所定期間が経過した。
・所定の日時が到来した。
・プロフィールテーブル(図6)が更新(レコードの挿入または削除を含み得る)された。
・候補コンテンツの作成対象となり得るキャラクタのプロフィール情報を管理するテーブルが更新(レコードの挿入または削除を含み得る)された。
・投稿ログテーブル(図7)に新たな投稿ログ情報が格納された。
The visual content acquisition process can be started, for example, in response to the establishment of the following start conditions.
- An instruction to start the visual content acquisition process is given to the server 30 by, for example, the operator of the information processing system 1 or the managing user of a specific character.
- A predetermined period of time has passed since the previous visual content acquisition process was performed.
・The specified date and time has arrived.
• The profile table (Fig. 6) has been updated (which may include inserting or deleting records).
- The table that manages the profile information of characters for which candidate content can be created has been updated (which may include inserting or deleting records).
- New post log information is stored in the post log table (Fig. 7).

図9に示すように、サーバ30は、プロフィール情報の取得(S230)を実行する。
具体的には、サーバ30は、視覚的コンテンツの取得対象となるキャラクタ(以下、「対象キャラクタ」という)のプロフィール情報を取得する。対象キャラクタは、候補コンテンツの作成対象となり得るキャラクタの全部であってもよいし、一部であってもよい。
As shown in FIG. 9, the server 30 acquires profile information (S230).
Specifically, the server 30 acquires profile information of a character for which visual content is to be acquired (hereinafter referred to as "target character"). The target characters may be all or part of the characters for which candidate content can be created.

ステップS230の後に、サーバ30は、所望の視覚的コンテンツの特徴の取得(S231)を実行する。
具体的には、サーバ30は、ステップS230において取得した各対象キャラクタのプロフィール情報に基づく第1モデル入力を第1モデルに与えることで、当該対象キャラクタに適していると予測された視覚的コンテンツ(すなわち、所望の視覚的コンテンツ)の特徴を表す特徴情報を取得する。特徴情報は、テキスト形式のデータであってよい。一例として、サーバ30は、対象キャラクタのプロフィール情報を列挙したうえで、当該対象キャラクタに適している(投稿しそうな)視覚的コンテンツの特徴の出力を要求するプロンプトを第1モデル入力とすることができる。特徴情報は、例えば、画像生成AIに画像を生成させるためのプロンプトと、生成された画像の公開に適した時刻ないし日時の情報とを含み得る。
After step S230, the server 30 performs acquisition of desired visual content features (S231).
Specifically, the server 30 provides the first model with the first model input based on the profile information of each target character acquired in step S230, thereby providing the visual content predicted to be suitable for the target character ( That is, feature information representing features of the desired visual content is obtained. The feature information may be data in text format. As an example, the server 30 may list the profile information of the target character, and then set the first model input as a prompt requesting output of features of visual content that is suitable (likely to be posted) for the target character. can. Feature information may include, for example, prompts for causing the image generation AI to generate an image, and information about a suitable time or date for publication of the generated image.

ステップS231の後に、サーバ30は、モデル入力の生成(S232)を実行する。
具体的には、サーバ30は、ステップS231において取得した各対象キャラクタの特徴情報に基づいて、当該対象キャラクタの第2モデル入力を生成する。一例として、サーバ30は、ステップS231において取得した特徴情報のうち、候補コンテンツに反映しないで欲しい特徴に関する情報を取り除く(例えばプロンプトから削除する)ことで第2モデル入力を生成する。候補コンテンツに反映しないで欲しい特徴は、例えば以下の少なくとも1つを含むことができる。
・容姿の静的特徴
・容姿の準静的特徴(第1条件が成立する場合)
After step S231, the server 30 executes model input generation (S232).
Specifically, the server 30 generates the second model input of the target character based on the feature information of each target character acquired in step S231. As an example, the server 30 generates the second model input by removing, from the feature information acquired in step S231, information relating to features that should not be reflected in the candidate content (for example, deleting from the prompt). Features that you do not want reflected in the candidate content can include, for example, at least one of the following.
・Static features of appearance ・Quasi-static features of appearance (when the first condition is satisfied)

ここで、容姿の静的特徴とは、身体の一部または全部の大きさ、形状または色(例えば、胸のサイズ、目、肌もしくは髪の色、髪の長さ、身長)などの長期間(例えば1ヶ月以上)に亘って変動しない特徴を指す。また、容姿の準静的特徴とは、メイク、服飾品、または髪型などの短期間(例えば1日程度)のサイクルで変動し得るが、同一サイクル内では通常変動しない特徴を指す。他方、容姿の動的特徴として、例えば、表情、姿勢、ジェスチャなどが挙げられる。 Here, static characteristics of appearance refer to long-term Refers to features that do not vary over time (eg, over a month). Also, the quasi-static features of appearance refer to features such as make-up, accessories, or hairstyle, which may change in a short-term (for example, about one day) cycle, but which do not normally change within the same cycle. On the other hand, dynamic features of appearance include, for example, facial expressions, postures, gestures, and the like.

第1条件は、候補コンテンツの公開予定日時が対象キャラクタの朝の支度後から入浴前までの時間帯(以下、「活動時間帯」という)に属していることを必要条件として含み得る。ここで、公開予定日時は、例えば特徴情報に含まれる時刻ないし日時に合致する時刻ないし日時である。また、対象キャラクタの朝の支度時刻および入浴時刻はプロフィール情報に含まれ得る。すなわち、例えば、公開予定日時が対象キャラクタの朝の支度時刻前(かつ起床時刻後)である場合、または入浴時刻後(かつ就寝時刻前)である場合に、サーバ30は、「寝巻」、「ノーメイク」などの準静的特徴を特徴情報から取り除かなくてもよい。また、第1条件は、候補コンテンツが公開予定日時の属する日の活動時間帯で第2番目以降に公開される視覚的コンテンツであることを必要条件としてさらに含んでもよい。すなわち、候補コンテンツが公開予定日時の属する日の活動時間帯で最初に公開される視覚的コンテンツである場合に、サーバ30は、準静的特徴を特徴情報から取り除かなくてもよい。これにより、同じ日の活動時間帯内では服装やメイクなどの準静的特徴の変動を抑制しながら、準静的特徴を日々変化させることができる。 The first condition can include, as a necessary condition, that the scheduled release date and time of the candidate content belongs to a time period from after the target character gets ready in the morning to before taking a bath (hereinafter referred to as "activity time period"). Here, the scheduled release date and time is, for example, the time or date that matches the time or date included in the feature information. Also, the profile information may include the target character's morning preparation time and bathing time. That is, for example, when the scheduled release date and time is before the target character's morning preparation time (and after the wake-up time) or after the bathing time (and before the bedtime), the server 30 selects "nightwear", " Semi-static features such as "no makeup" need not be removed from the feature information. In addition, the first condition may further include, as a necessary condition, that the candidate content is the visual content that will be released second or later in the activity time zone of the day to which the scheduled release date belongs. In other words, if the candidate content is the visual content that is first published during the activity period of the day on which the scheduled publication date and time belongs, the server 30 does not need to remove the semi-static features from the feature information. As a result, it is possible to change the quasi-static features every day while suppressing fluctuations in the quasi-static features such as clothes and make-up within the activity time zone of the same day.

ステップS232の後に、サーバ30は、候補コンテンツの取得(S233)を実行する。
具体的には、サーバ30は、ステップS232において生成した各対象キャラクタの第2モデル入力を、第2モデルに与えることで、当該対象キャラクタの候補コンテンツを取得する。第2モデルは、画像生成AI(例えば、Stable Diffusion)に対し、対象キャラクタの容姿を被写体とする画像を生成するように追加学習を行うことで予め作成されている。追加学習には、例えば、以下の機械学習手法を利用可能であるがこれらに限られない。
・Dreambooth
・Textual Inversion
・LoRA
・LoCon
・LoHA
・HyperNetworks
・DreamArtist
・Aesthetic Gradients
After step S232, the server 30 acquires candidate content (S233).
Specifically, the server 30 provides the second model input of each target character generated in step S232 to the second model, thereby obtaining the candidate content of the target character. The second model is created in advance by subjecting an image generation AI (for example, Stable Diffusion) to additional learning so as to generate an image with the appearance of the target character as a subject. For additional learning, for example, the following machine learning techniques can be used, but are not limited to these.
・Dreambooth
・Textual Inversion
・LoRA
・LoCon
・LoHA
・HyperNetworks
・Dream Artist
・Aesthetic Gradients

第2モデル入力を与えることで、第2モデルは、対象キャラクタの容姿を被写体とし、かつ当該第2モデル入力に応じた特徴を備えた1以上の視覚的コンテンツを生成して出力する。サーバ30は、出力された視覚的コンテンツを候補コンテンツとして取得する。 By providing the second model input, the second model generates and outputs one or more visual contents having the appearance of the target character as a subject and having characteristics according to the second model input. The server 30 acquires the output visual content as candidate content.

ステップS233の後に、サーバ30は、候補コンテンツの出力(S234)を実行する。
具体的には、サーバ30は、ステップS233において生成した各対象キャラクタの候補コンテンツを、当該対象キャラクタの管理ユーザの操作するクライアント装置10へ出力(送信)する。クライアント装置10は、受信した候補コンテンツをディスプレイ21に表示し、管理ユーザの承認を求める。管理ユーザは、候補コンテンツの品質が十分か、また候補コンテンツが対象キャラクタのブランディングやファン層の観点からふさわしいか、などをチェックし、公開可能と判断すれば承認をクライアント装置10に指示し、公開不可と判断すれば否認をクライアント装置10に指示する。クライアント装置10は、各候補コンテンツの認否の結果をサーバ30へ送信する。
After step S233, the server 30 outputs the candidate content (S234).
Specifically, the server 30 outputs (transmits) the candidate content for each target character generated in step S233 to the client device 10 operated by the administrative user of the target character. The client device 10 displays the received candidate content on the display 21 and requests approval from the administrative user. The administrative user checks whether the quality of the candidate content is sufficient, whether the candidate content is suitable from the viewpoint of the target character's branding and the fan base, etc., and if it determines that it can be published, it instructs the client device 10 to approve it and publish it. If it is determined that it is not possible, it instructs the client device 10 to deny it. The client device 10 transmits the result of approval or disapproval of each candidate content to the server 30 .

ステップS234において出力した視覚的コンテンツが管理ユーザによって承認された場合に、サーバ30は候補コンテンツの公開(S235)を実行する。
具体的には、サーバ30は、候補コンテンツを、対象キャラクタの視覚的コンテンツとして外部に公開する。一例として、サーバ30は、視覚的コンテンツまたはそのNFTを販売するサービスに候補コンテンツを出品する。別の例として、サーバ30は、会員制または課金制の視覚的コンテンツの共有サービスに候補コンテンツを共有する。さらなる別の例として、サーバ30は、SNSに候補コンテンツを投稿する。
If the visual content output in step S234 is approved by the administrative user, the server 30 publishes the candidate content (S235).
Specifically, the server 30 publishes the candidate content to the outside as the visual content of the target character. As an example, server 30 offers candidate content to a service that sells visual content or its NFT. As another example, server 30 shares the candidate content to a subscription-based or fee-based visual content sharing service. As yet another example, the server 30 posts candidate content to SNS.

他方、ステップS234において出力した視覚的コンテンツが管理ユーザによって否認された場合に、サーバ30は候補コンテンツ取得処理を終了する。或いは、サーバ30は、いずれの候補コンテンツも否認された対象キャラクタについて、候補コンテンツ取得処理を再実行してもよい。これにより、対象キャラクタの管理ユーザが納得するまで候補コンテンツを繰り返し提供することができる。 On the other hand, if the visual content output in step S234 is denied by the administrative user, the server 30 terminates the candidate content acquisition process. Alternatively, the server 30 may re-execute the candidate content acquisition process for a target character for which none of the candidate contents has been denied. As a result, it is possible to repeatedly provide candidate contents until the managing user of the target character is satisfied.

(5)小括
以上説明したように、本実施形態のサーバ30は、特定のキャラクタに設定されたプロフィール情報に基づく第1モデル入力を、複数の参照キャラクタのプロフィール情報と当該複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴との関係を学習した第1モデルに与えることで、特定のキャラクタに適していると予測された視覚的コンテンツの特徴を表す特徴情報を取得する。サーバ30は、取得した特徴情報に基づく第2モデル入力を、特定のキャラクタの容姿を被写体とする画像を生成するように学習した第2モデルに与えることで、特定のキャラクタの容姿を被写体とし、かつ第2モデル入力に応じた特徴を備えた視覚的コンテンツである候補コンテンツを取得する。サーバ30は、候補コンテンツを出力する。これにより、特定のキャラクタの容姿を被写体とし、かつ当該キャラクタのプロフィール設定にふさわしい特徴を備えた候補コンテンツ、つまり当該キャラクタの活動記録としてのリアリティがある候補コンテンツを得ることができる。
(5) Summary As described above, the server 30 of the present embodiment receives the first model input based on the profile information set for a specific character by combining the profile information of a plurality of reference characters with the profile information of the plurality of reference characters. By providing the first model that has learned the relationship with the features of the visual content each of which has been released to the outside, feature information representing the features of the visual content predicted to be suitable for the specific character is obtained. The server 30 supplies the second model input based on the acquired feature information to the second model that has learned to generate an image with the appearance of the specific character as the subject, thereby taking the appearance of the specific character as the subject, and obtaining candidate content, which is visual content having characteristics according to the second model input. The server 30 outputs candidate content. As a result, it is possible to obtain candidate content that has the appearance of a specific character as a subject and that has features suitable for profile setting of the character, that is, candidate content that has reality as an activity record of the character.

複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴は、当該視覚的コンテンツそのものまたは当該視覚的コンテンツの視覚的特徴を表すテキストを含んでもよい。これにより、第1モデルの学習や推論を適切に行うことができる。 The features of the visual content that each of the plurality of reference characters has exposed to the outside may include the visual content itself or text representing the visual features of the visual content. As a result, learning and inference of the first model can be performed appropriately.

複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴は、当該視覚的コンテンツの公開時刻、または当該視覚的コンテンツの公開に対する反響の少なくとも一方に関する情報をさらに含んでもよい。これにより、視覚的コンテンツの公開時刻を特徴として学習や推論を行ったり、公開に対する反響の大きかった視覚的コンテンツを重視して学習や推論を行ったりすることができる。 The features of the visual content that each of the plurality of reference characters has released to the outside may further include information regarding at least one of the release time of the visual content and the response to the release of the visual content. As a result, it is possible to perform learning and inference using the release time of visual content as a feature, and to perform learning and inference with emphasis on visual content that has received a large response to release.

特徴情報は、特定のキャラクタに適していると予測された視覚的コンテンツの視覚的特徴を表すテキストを含んでもよい。サーバ30は、視覚的特徴を表すテキストから容姿の静的特徴を表すテキストを除外したテキストに基づいて第2モデル入力を生成してもよい。これにより、キャラクタの容姿のうち長期間(例えば1ヶ月以上)に亘って変動しない静的特徴が不自然な頻度で変更されるのを防ぐことができる。 Characteristic information may include text representing visual characteristics of visual content predicted to be suitable for a particular character. The server 30 may generate the second model input based on the text representing the visual characteristics excluding the text representing the static characteristics of appearance. As a result, it is possible to prevent static features of the appearance of the character that do not change over a long period of time (for example, one month or longer) from being changed at an unnatural frequency.

容姿の静的特徴は、身体の一部または全部の大きさ、形状または色を含んでもよい。これにより、候補コンテンツにおいてキャラクタの身体の一部または全部の大きさ、形状または色が不自然な頻度で変更されるのを防ぐことができる。 Appearance static characteristics may include the size, shape or color of part or all of the body. As a result, it is possible to prevent the size, shape, or color of part or all of the character's body from being changed at an unnatural frequency in the candidate content.

特徴情報は、特定のキャラクタに適していると予測された視覚的コンテンツの視覚的特徴を表すテキストを含んでもよい。サーバ30は、第1条件が成立する場合に、視覚的特徴を表すテキストから容姿の準静的特徴を表すテキストを除外したテキストに基づいて第2モデル入力を生成してもよい。これにより、キャラクタの容姿のうち短期間(例えば1日程度)のサイクルで変動し得るが同一サイクル内では通常変動しない特徴である準静的特徴が不自然な頻度で変更されるのを防ぐことができる。 Characteristic information may include text representing visual characteristics of visual content predicted to be suitable for a particular character. When the first condition is satisfied, the server 30 may generate the second model input based on the text representing the visual feature excluding the text representing the quasi-static feature of the appearance. As a result, it is possible to prevent the quasi-static features of the appearance of the character, which are features that can fluctuate in a cycle of a short period (for example, about one day) but do not normally fluctuate within the same cycle, from being changed at an unnatural frequency. can be done.

第1条件は、候補コンテンツの公開予定日時が特定のキャラクタの朝の支度後から入浴前までの時間帯に属していることを必要条件として含んでもよい。これにより、キャラクタが朝の支度をしてから入浴するまで容姿の準静的特徴の変動を抑制することができる。 The first condition may include, as a necessary condition, that the scheduled release date and time of the candidate content belongs to a time period from after the specific character gets ready in the morning to before taking a bath. This makes it possible to suppress variations in semi-static appearance features from when the character gets ready in the morning to when he or she takes a bath.

第1条件は、候補コンテンツの公開予定日時が特定のキャラクタの朝の支度後から入浴前までの時間帯に属し、かつ当該候補コンテンツが当該公開予定日時の属する日に当該時間帯内で第2番目以降に公開される視覚的コンテンツであることを必要条件として含んでもよい。これにより、1日のうち最初に公開される候補コンテンツではキャラクタの容姿の準静的特徴が特徴情報に基づいて決定され得るが、当該準静的特徴を同じ日のより遅い時間に公開される可能性のある候補コンテンツにおいても維持することができる。 The first condition is that the scheduled release date and time of the candidate content belongs to the time period from after the specific character gets ready in the morning to before bathing, and the candidate content is within the time zone on the day to which the scheduled release date and time belongs. It may include as a requirement that the visual content be published after the th. As a result, semi-static features of a character's appearance can be determined based on feature information in candidate content that is released first in a day, but the semi-static features are released later in the same day. It can also be maintained in possible candidate content.

特定のキャラクタに設定されたプロフィール情報および複数の参照キャラクタのプロフィール情報は、それぞれ、性別、職業、年齢、居住地域、容姿の特徴、または服装もしくはメイクの嗜好の少なくとも1つに関する情報を含んでもよい。これにより、第1モデルから妥当な特徴情報を得ることができる。 Profile information set for a specific character and profile information for a plurality of reference characters may each include information on at least one of gender, occupation, age, residential area, appearance characteristics, or clothing or makeup preferences. . This makes it possible to obtain appropriate feature information from the first model.

サーバ30は、特定のキャラクタに関連付けられる管理ユーザへ当該候補コンテンツを出力し、候補コンテンツに対する管理ユーザからの承認に応じて、当該候補コンテンツを外部に公開してもよい。これにより、管理ユーザによって品質が不十分と判断された候補コンテンツや、キャラクタのブランディングやファン層などの観点からふさわしくないと判断された候補コンテンツの公開を抑止することができる。 The server 30 may output the candidate content to the administrative user associated with the specific character, and disclose the candidate content to the outside in response to approval of the candidate content from the administrative user. As a result, it is possible to prevent disclosure of candidate content judged by the administrative user to be of insufficient quality, or candidate content judged inappropriate from the standpoint of character branding, fan base, or the like.

外部に公開した視覚的コンテンツは、SNS(Social Networking Service)またはコンテンツ共有サービスに投稿された写真または動画を含んでもよい。これにより、第1モデルから妥当な特徴情報を得ることができる。 The externally published visual content may include photos or videos posted on SNS (Social Networking Service) or content sharing services. This makes it possible to obtain appropriate feature information from the first model.

(6)その他の変形例
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。ディスプレイ21は、クライアント装置10に内蔵されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
(6) Other Modifications The storage device 11 may be connected to the client device 10 via the network NW. The display 21 may be built into the client device 10 . Storage device 31 may be connected to server 30 via network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。 Each step of the information processing described above can be executed by either the client device 10 or the server 30 .

上記説明では、参照キャラクタの視覚的コンテンツとして、SNSまたはコンテンツ共有サービスに投稿されたものを前提とした。しかしながら、参照キャラクタの視覚的コンテンツは、投稿されたコンテンツに限られず、外部に様々な態様で公開されたコンテンツ(例えば、出品されたコンテンツ)を含み得る。 In the above description, it is assumed that the visual content of the reference character is posted on an SNS or a content sharing service. However, the visual content of the reference character is not limited to posted content, and may include content that has been released to the outside in various forms (for example, content put up for auction).

サーバ30は、対象キャラクタに関連付けられる1以上のメンバーからなる組織の意思決定内容を、第2モデルまたは第2モデル入力に反映してもよい。対象キャラクタに関連付けられる1以上のメンバーは、例えば対象キャラクタに関するガバナンストークンまたはNFTの保有者であってもよいし、対象キャラクタのファンクラブのメンバーであってもよい。組織は、DAO(Decentralized Autonomous Organization)であってよく、この場合に、ガバナンストークンの保有者による投票(ただし、各人の投票権はガバナンストークンの保有数に依存する)によって当該組織の意思決定が行われる。意思決定内容は、例えば、対象キャラクタの容姿の特徴(典型的には準静的特徴であるが他の特徴を含み得る)の変更や、対象キャラクタに取ってほしい行動(食べて欲しい物、行って欲しい場所、など)である。例えば、サーバ30は、意思決定内容に応じたプロンプトを第2モデル入力に埋め込んでもよいし、意思決定内容に応じて第2モデルの追加学習を行ってもよい。これにより、対象キャラクタの容姿を対象キャラクタのファンの嗜好に近づけることができる。 The server 30 may reflect the decision-making content of an organization consisting of one or more members associated with the target character in the second model or the second model input. One or more members associated with the subject character may be, for example, holders of governance tokens or NFTs associated with the subject character, or members of the subject character's fan club. The organization may be a DAO (Decentralized Autonomous Organization), and in this case, the decision-making of the organization is determined by voting by governance token holders (however, each person's voting rights depend on the number of governance tokens held). done. The content of decision-making includes, for example, changes in the appearance features of the target character (typically quasi-static features, but may include other features), actions desired for the target character (things to eat, actions to take). location, etc.). For example, the server 30 may embed prompts in the second model input according to the content of the decision, or may perform additional learning of the second model according to the content of the decision. As a result, the appearance of the target character can be brought closer to the taste of the fan of the target character.

サーバ30は、対象キャラクタに関連付けられるメンバーからなるコミュニティ内での当該メンバーのコメントまたは発言の傾向を、第2モデルまたは第2モデル入力に反映してもよい。対象キャラクタに関連付けられる1以上のメンバーは、例えば対象キャラクタに関するガバナンストークンまたはNFTの保有者であってもよいし、対象キャラクタのファンクラブのメンバーであってもよい。コミュニティは、例えばチャットグループであってよい。メンバーのコメントまたは発言が肯定的な傾向にある場合に、サーバ30は、ポジティブな印象に結び付けられる特徴(例えば、表情、姿勢、ジェスチャ、メイク、服飾品、髪型、活動)などに関するプロンプトを第2モデル入力に埋め込んでもよいし、当該特徴に応じて第2モデルの追加学習を行ってもよい。他方、メンバーのコメントまたは発言が否定的な傾向にある場合に、サーバ30は、ネガティブな印象に結び付けられる特徴(例えば、表情、姿勢、ジェスチャ、メイク、服飾品、髪型、活動)などに関するプロンプトを第2モデル入力に埋め込んでもよいし、当該特徴に応じて第2モデルの追加学習を行ってもよい。これにより、対象キャラクタがファンの反応に喜んだり落ち込んだりした様子を表す候補コンテンツが生成されるので、ファンは対象キャラクタの存在をよりリアルに感じることができる。 The server 30 may reflect, in the second model or the second model input, the member's comment or remark tendency within the community of members associated with the target character. One or more members associated with the subject character may be, for example, holders of governance tokens or NFTs associated with the subject character, or members of the subject character's fan club. A community may be, for example, a chat group. If the member's comments or remarks tend to be positive, the server 30 secondly prompts about features associated with a positive impression (for example, facial expressions, postures, gestures, makeup, accessories, hairstyles, activities, etc.). It may be embedded in the model input, or additional learning of the second model may be performed according to the feature. On the other hand, if the member's comments or remarks tend to be negative, the server 30 prompts about features (for example, facial expressions, postures, gestures, makeup, accessories, hairstyles, activities) that are associated with negative impressions. It may be embedded in the second model input, or additional learning of the second model may be performed according to the feature. As a result, candidate content is generated that expresses how the target character is pleased or depressed by the reaction of the fan, so that the fan can feel the existence of the target character more realistically.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Also, the above embodiments can be modified and modified in various ways without departing from the gist of the present invention. Also, the above embodiments and modifications can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
21 :ディスプレイ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :外部システム
1 : Information processing system 10 : Client device 11 : Storage device 12 : Processor 13 : Input/output interface 14 : Communication interface 21 : Display 30 : Server 31 : Storage device 32 : Processor 33 : Input/output interface 34 : Communication interface 50 : External system

Claims (16)

コンピュータを、
特定のキャラクタに設定されたプロフィール情報に基づく第1モデル入力を、複数の参照キャラクタのプロフィール情報と当該複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴との関係を学習した第1モデルに与えることで、特定のキャラクタに適していると予測された視覚的コンテンツの特徴を表す特徴情報を取得する手段、
前記特徴情報に基づく第2モデル入力を、前記特定のキャラクタの容姿を被写体とする画像を生成するように学習した第2モデルに与えることで、前記特定のキャラクタの容姿を被写体とし、かつ前記第2モデル入力に応じた特徴を備えた視覚的コンテンツである候補コンテンツを取得する手段、
前記候補コンテンツを出力する手段、
として機能させる、プログラム。
the computer,
A first model input based on profile information set for a specific character is a first model that learns the relationship between profile information of a plurality of reference characters and features of visual content externally disclosed by each of the plurality of reference characters. means for obtaining feature information representing features of visual content predicted to be suitable for a particular character by feeding it to the model;
By providing a second model input based on the feature information to a second model that has learned to generate an image with the appearance of the specific character as the subject, the appearance of the specific character is used as the subject, and 2 means for obtaining candidate content, which is visual content with features according to the model input;
means for outputting said candidate content;
A program that functions as
前記複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴は、当該視覚的コンテンツそのものまたは当該視覚的コンテンツの視覚的特徴を表すテキストを含む、
請求項1に記載のプログラム。
The feature of the visual content that each of the plurality of reference characters has disclosed to the outside includes the visual content itself or a text representing the visual feature of the visual content.
A program according to claim 1.
前記複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴は、当該視覚的コンテンツの公開時刻、または当該視覚的コンテンツの公開に対する反響の少なくとも一方に関する情報をさらに含む、
請求項2に記載のプログラム。
The features of the visual content released to the outside by each of the plurality of reference characters further include information on at least one of the release time of the visual content and the reaction to the release of the visual content,
3. A program according to claim 2.
前記特徴情報は、前記特定のキャラクタに適していると予測された視覚的コンテンツの視覚的特徴を表すテキストを含み、
前記コンピュータを、前記視覚的特徴を表すテキストから容姿の静的特徴を表すテキストを除外したテキストに基づいて前記第2モデル入力を生成する手段、として機能させる、
請求項1に記載のプログラム。
The feature information includes text representing visual features of visual content predicted to be suitable for the specific character,
causing the computer to act as means for generating the second model input based on text representing visual characteristics excluding text representing static characteristics of appearance;
A program according to claim 1.
前記容姿の静的特徴は、身体の一部または全部の大きさ、形状または色を含む、
請求項4に記載のプログラム。
said static features of appearance include size, shape or color of part or all of the body;
5. A program according to claim 4.
前記特徴情報は、前記特定のキャラクタに適していると予測された視覚的コンテンツの視覚的特徴を表すテキストを含み、
前記コンピュータを、第1条件が成立する場合に、前記視覚的特徴を表すテキストから容姿の準静的特徴を表すテキストを除外したテキストに基づいて前記第2モデル入力を生成する手段、として機能させる、
請求項1に記載のプログラム。
The feature information includes text representing visual features of visual content predicted to be suitable for the specific character,
The computer functions as means for generating the second model input based on the text representing the visual feature excluding the text representing the quasi-static feature of appearance when a first condition is satisfied. ,
A program according to claim 1.
前記第1条件は、前記候補コンテンツの公開予定日時が前記特定のキャラクタの朝の支度後から入浴前までの時間帯に属していることを必要条件として含む、
請求項6に記載のプログラム。
The first condition includes, as a necessary condition, that the scheduled release date and time of the candidate content belongs to a time period from after the specific character gets ready in the morning to before taking a bath.
7. A program according to claim 6.
前記第1条件は、前記候補コンテンツの公開予定日時が前記特定のキャラクタの朝の支度後から入浴前までの時間帯に属し、かつ当該候補コンテンツが当該公開予定日時の属する日に当該時間帯内で第2番目以降に公開される視覚的コンテンツであることを必要条件として含む、
請求項6に記載のプログラム。
The first condition is that the scheduled release date and time of the candidate content belongs to a time zone from after the specific character gets ready in the morning to before bathing, and the candidate content is within the time zone on the day to which the scheduled release date and time belongs. including as a requirement that it be the second or subsequent visual content published in
7. A program according to claim 6.
前記特定のキャラクタに設定されたプロフィール情報および前記複数の参照キャラクタのプロフィール情報は、それぞれ、性別、職業、年齢、居住地域、容姿の特徴、または服装もしくはメイクの嗜好の少なくとも1つに関する情報を含む、
請求項1に記載のプログラム。
The profile information set for the specific character and the profile information for the plurality of reference characters each include information on at least one of gender, occupation, age, residential area, appearance characteristics, or clothing or makeup preferences. ,
A program according to claim 1.
前記候補コンテンツを出力する手段は、前記特定のキャラクタに関連付けられる管理ユーザへ当該候補コンテンツを出力し、
前記コンピュータを、前記候補コンテンツに対する前記管理ユーザからの承認に応じて、当該候補コンテンツを外部に公開する手段、としてさらに機能させる、
請求項1に記載のプログラム。
the means for outputting the candidate content outputs the candidate content to an administrative user associated with the specific character;
causing the computer to further function as a means for externally publishing the candidate content in response to approval of the candidate content from the administrative user;
A program according to claim 1.
前記コンピュータを、前記特定のキャラクタに関連付けられる1以上のメンバーからなる組織の意思決定内容を、前記第2モデルまたは前記第2モデル入力に反映する手段、としてさらに機能させる、
請求項1に記載のプログラム。
further functioning the computer as a means for reflecting in the second model or the second model input the decision-making content of an organization consisting of one or more members associated with the specific character;
A program according to claim 1.
前記コンピュータを、前記特定のキャラクタに関連付けられるメンバーからなるコミュニティ内での当該メンバーのコメントまたは発言の傾向を、前記第2モデルまたは前記第2モデル入力に反映する手段、としてさらに機能させる、
請求項1に記載のプログラム。
causing the computer to further function as a means for reflecting, in the second model or the second model input, the tendency of comments or remarks of members in a community of members associated with the specific character;
A program according to claim 1.
前記外部に公開した視覚的コンテンツは、SNS(Social Networking Service)またはコンテンツ共有サービスに投稿された写真または動画を含む、
請求項1に記載のプログラム。
The externally published visual content includes photos or videos posted on SNS (Social Networking Service) or content sharing services,
A program according to claim 1.
コンピュータが、
特定のキャラクタに設定されたプロフィール情報に基づく第1モデル入力を、複数の参照キャラクタのプロフィール情報と当該複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴との関係を学習した第1モデルに与えることで、特定のキャラクタに適していると予測された視覚的コンテンツの特徴を表す特徴情報を取得するステップと、
前記特徴情報に基づく第2モデル入力を、前記特定のキャラクタの容姿を被写体とする画像を生成するように学習した第2モデルに与えることで、前記特定のキャラクタの容姿を被写体とし、かつ前記第2モデル入力に応じた特徴を備えた視覚的コンテンツである候補コンテンツを取得するステップと、
前記候補コンテンツを出力するステップと
を実行する方法。
the computer
A first model input based on profile information set for a specific character is a first model that learns the relationship between profile information of a plurality of reference characters and features of visual content externally disclosed by each of the plurality of reference characters. obtaining feature information representing features of visual content predicted to be suitable for a particular character by feeding it to a model;
By providing a second model input based on the feature information to a second model that has learned to generate an image with the appearance of the specific character as the subject, the appearance of the specific character is used as the subject, and obtaining candidate content, which is visual content with features responsive to the two-model input;
and outputting said candidate content.
特定のキャラクタに設定されたプロフィール情報に基づく第1モデル入力を、複数の参照キャラクタのプロフィール情報と当該複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴との関係を学習した第1モデルに与えることで、特定のキャラクタに適していると予測された視覚的コンテンツの特徴を表す特徴情報を取得する手段と、
前記特徴情報に基づく第2モデル入力を、前記特定のキャラクタの容姿を被写体とする画像を生成するように学習した第2モデルに与えることで、前記特定のキャラクタの容姿を被写体とし、かつ前記第2モデル入力に応じた特徴を備えた視覚的コンテンツである候補コンテンツを取得する手段と、
前記候補コンテンツを出力する手段と
を具備する、情報処理装置。
A first model input based on profile information set for a specific character is a first model that learns the relationship between profile information of a plurality of reference characters and features of visual content externally disclosed by each of the plurality of reference characters. means for obtaining feature information representing features of visual content predicted to be suitable for a particular character by feeding it to a model;
By providing a second model input based on the feature information to a second model that has learned to generate an image with the appearance of the specific character as the subject, the appearance of the specific character is used as the subject, and means for obtaining candidate content, which is visual content with features responsive to two-model inputs;
and means for outputting the candidate content.
第1情報処理装置と第2情報処理装置とを具備するシステムであって、
前記第1情報処理装置は、
特定のキャラクタに設定されたプロフィール情報に基づく第1モデル入力を、複数の参照キャラクタのプロフィール情報と当該複数の参照キャラクタの各々が外部に公開した視覚的コンテンツの特徴との関係を学習した第1モデルに与えることで、特定のキャラクタに適していると予測された視覚的コンテンツの特徴を表す特徴情報を取得する手段と、
前記特徴情報に基づく第2モデル入力を、前記特定のキャラクタの容姿を被写体とする画像を生成するように学習した第2モデルに与えることで、前記特定のキャラクタの容姿を被写体とし、かつ前記第2モデル入力に応じた特徴を備えた視覚的コンテンツである候補コンテンツを取得する手段と、
前記候補コンテンツを前記第2情報処理装置へ出力する手段と
を備える、
システム。
A system comprising a first information processing device and a second information processing device,
The first information processing device is
A first model input based on profile information set for a specific character is a first model that learns the relationship between profile information of a plurality of reference characters and features of visual content externally disclosed by each of the plurality of reference characters. means for obtaining feature information representing features of visual content predicted to be suitable for a particular character by feeding it to a model;
By providing a second model input based on the feature information to a second model that has learned to generate an image with the appearance of the specific character as the subject, the appearance of the specific character is used as the subject, and means for obtaining candidate content, which is visual content with features responsive to two-model inputs;
means for outputting the candidate content to the second information processing device;
system.
JP2023095341A 2023-06-09 2023-06-09 Information processing device, method, program, and system Active JP7329293B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023095341A JP7329293B1 (en) 2023-06-09 2023-06-09 Information processing device, method, program, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023095341A JP7329293B1 (en) 2023-06-09 2023-06-09 Information processing device, method, program, and system

Publications (1)

Publication Number Publication Date
JP7329293B1 true JP7329293B1 (en) 2023-08-18

Family

ID=87568967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023095341A Active JP7329293B1 (en) 2023-06-09 2023-06-09 Information processing device, method, program, and system

Country Status (1)

Country Link
JP (1) JP7329293B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7404596B1 (en) 2023-09-06 2023-12-26 株式会社エクサウィザーズ Information processing method, program and information processing system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009514075A (en) * 2005-10-28 2009-04-02 テレコム・イタリア・エッセ・ピー・アー How to provide users with selected content items
US20180300536A1 (en) * 2017-04-16 2018-10-18 Facebook, Inc. Systems and methods for generating content
CN109478192A (en) * 2016-06-02 2019-03-15 柯达阿拉里斯股份有限公司 For providing the method for the product centered on media of one or more customizations
WO2021039561A1 (en) * 2019-08-29 2021-03-04 株式会社鈴康 Moving-image generation method, moving-image generation device, and storage medium
JP2021051368A (en) * 2019-09-20 2021-04-01 ヤフー株式会社 Provision device, provision method and provision program
WO2022230177A1 (en) * 2021-04-30 2022-11-03 株式会社KPMG Ignition Tokyo Management device and management method
JP2022548060A (en) * 2019-09-13 2022-11-16 オラクル・インターナショナル・コーポレイション System and method for automatic suggestion and automatic selection for dynamic site compilation within a cloud-based content hub environment
JP2022185076A (en) * 2020-02-21 2022-12-13 グーグル エルエルシー Systems and methods for improved searching and categorizing of media content items based on destination for media content item
US20230075884A1 (en) * 2021-09-06 2023-03-09 Artema Labs, Inc Systems and Methods for Token Management in Social Media Environments

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009514075A (en) * 2005-10-28 2009-04-02 テレコム・イタリア・エッセ・ピー・アー How to provide users with selected content items
CN109478192A (en) * 2016-06-02 2019-03-15 柯达阿拉里斯股份有限公司 For providing the method for the product centered on media of one or more customizations
US20180300536A1 (en) * 2017-04-16 2018-10-18 Facebook, Inc. Systems and methods for generating content
WO2021039561A1 (en) * 2019-08-29 2021-03-04 株式会社鈴康 Moving-image generation method, moving-image generation device, and storage medium
JP2022548060A (en) * 2019-09-13 2022-11-16 オラクル・インターナショナル・コーポレイション System and method for automatic suggestion and automatic selection for dynamic site compilation within a cloud-based content hub environment
JP2021051368A (en) * 2019-09-20 2021-04-01 ヤフー株式会社 Provision device, provision method and provision program
JP2022185076A (en) * 2020-02-21 2022-12-13 グーグル エルエルシー Systems and methods for improved searching and categorizing of media content items based on destination for media content item
WO2022230177A1 (en) * 2021-04-30 2022-11-03 株式会社KPMG Ignition Tokyo Management device and management method
US20230075884A1 (en) * 2021-09-06 2023-03-09 Artema Labs, Inc Systems and Methods for Token Management in Social Media Environments

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7404596B1 (en) 2023-09-06 2023-12-26 株式会社エクサウィザーズ Information processing method, program and information processing system

Similar Documents

Publication Publication Date Title
US11303590B2 (en) Suggested responses based on message stickers
Bonner-Thompson ‘The meat market’: production and regulation of masculinities on the Grindr grid in Newcastle-upon-Tyne, UK
KR102050334B1 (en) Automatic suggestion responses to images received in messages, using the language model
Sproull Prosocial behavior on the net
Sastre Hottentot in the age of reality TV: sexuality, race, and Kim Kardashian’s visible body
Kwon et al. Consuming the objectified self: The quest for authentic self
Clarke et al. ‘I am who I am’? Navigating norms and the importance of authenticity in lesbian and bisexual women's accounts of their appearance practices
Elder What words can’t say: Emoji and other non-verbal elements of technologically-mediated communication
JP7329293B1 (en) Information processing device, method, program, and system
Chandler Meme world syndrome: A critical discourse analysis of the first world problems and third world success internet memes
CN109815465B (en) Deep learning-based poster generation method and device and computer equipment
CN115606190A (en) Displaying augmented reality content and course content
CN109416787A (en) To online service supplier exposure mission bit stream
Duvall Not “Simply the Breast” Media discourses of celebrity, breastfeeding, and normalcy
CN107609487B (en) User head portrait generation method and device
Mitchell Sedentary lifestyle: Fat queer craft
Teller Making worlds with symbols
CN109408735A (en) A kind of generation method and system of stranger's social activity user portrait
Ribeiro et al. VISHnu: An approach to support the personalization of self-expressive avatars using context-awareness
McGill A question of contrast: Unpacking the Mail Online’s depiction of Meghan Markle’s Royal Motherhood
Andreallo Mapping selfies and memes as Touch
Kwon Three
CN113705697A (en) Information pushing method, device, equipment and medium based on emotion classification model
Lu et al. The use of psychophysiological methods in the evaluation of mental commitment robots for elderly care
Liu et al. Let’s keep in touch online: a Facebook aware virtual human interface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230609

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7329293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150