JP6309887B2 - Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program - Google Patents

Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program Download PDF

Info

Publication number
JP6309887B2
JP6309887B2 JP2014257902A JP2014257902A JP6309887B2 JP 6309887 B2 JP6309887 B2 JP 6309887B2 JP 2014257902 A JP2014257902 A JP 2014257902A JP 2014257902 A JP2014257902 A JP 2014257902A JP 6309887 B2 JP6309887 B2 JP 6309887B2
Authority
JP
Japan
Prior art keywords
image
user
attribute information
feature amount
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014257902A
Other languages
Japanese (ja)
Other versions
JP2016118918A (en
Inventor
浩平 山元
浩平 山元
隼人 小林
隼人 小林
幸浩 田頭
幸浩 田頭
哲矢 茂木
哲矢 茂木
真吾 星野
真吾 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2014257902A priority Critical patent/JP6309887B2/en
Publication of JP2016118918A publication Critical patent/JP2016118918A/en
Application granted granted Critical
Publication of JP6309887B2 publication Critical patent/JP6309887B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、モデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラムおよび情報配信プログラムに関する。   The present invention relates to a model generation device, an information distribution device, a model generation method, an information distribution method, a model generation program, and an information distribution program.

近年、インターネットを介した情報配信が盛んに行われている。このような情報配信の一例として、配信対象となる広告の類似度や、広告配信先となる利用者の情報等に基づいて、CTR(Click Through Rate)等のクリック率を推定し、推定されたクリック率に応じて、配信対象となる広告を選択する技術が知られている。   In recent years, information distribution via the Internet has been actively performed. As an example of such information distribution, the click rate such as CTR (Click Through Rate) is estimated based on the similarity of the advertisement to be distributed, the information of the user who is the advertisement distribution destination, etc. A technique for selecting an advertisement to be distributed according to a click rate is known.

例えば、配信対象となる広告の構成要素や広告同士の類似度に基づいて、CTRを予測し、予測したCTRを用いて配信対象となる広告を選択する技術が知られている。また、広告を選択した利用者の属性に基づいて、仮想CTRを算出し、広告の配信先となる利用者の属性と算出した仮想CTRとに応じて、配信対象となる広告を選択する技術が知られている。   For example, a technique is known in which CTR is predicted based on a component of an advertisement to be distributed and the similarity between advertisements, and an advertisement to be distributed is selected using the predicted CTR. Further, there is a technique for calculating a virtual CTR based on an attribute of a user who has selected an advertisement, and selecting an advertisement to be distributed according to the attribute of the user as a distribution destination of the advertisement and the calculated virtual CTR. Are known.

特開2014−006684号公報JP 2014-006684 A 特開2014−182473号公報JP 2014-182473 A

しかしながら、上記の従来技術では、配信対象となる広告の構成や広告を選択した利用者を示すログや、広告の配信先となる利用者の属性が不明な場合には、クリック率の推定精度が悪化するという問題がある。   However, in the above-described conventional technology, when the distribution of the advertisement to be distributed and the log indicating the user who has selected the advertisement and the attribute of the user to whom the advertisement is distributed are unknown, the estimation accuracy of the click rate is There is a problem of getting worse.

本願は、上記に鑑みてなされたものであって、広告のログが無い場合や、広告の配信先となる利用者の属性が不明な場合にも、クリック率の推定精度の悪化を防ぐモデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラムおよび情報配信プログラムを提供することを目的とする。   This application has been made in view of the above, and model generation that prevents deterioration in the accuracy of estimation of the click rate even when there is no advertisement log or when the attribute of the user to whom the advertisement is distributed is unknown An object is to provide an apparatus, an information distribution apparatus, a model generation method, an information distribution method, a model generation program, and an information distribution program.

本願に係るモデル生成装置は、画像から当該画像の特徴を示す特徴量を算出する学習器を用いて、利用者により選択された履歴を有する画像の特徴量を算出する算出部と、前記算出部が算出した特徴量と、前記利用者の属性を示す属性情報とに基づいて、画像の特徴量から当該画像を選択した利用者の属性情報を推定するモデルを生成する。   The model generation device according to the present application uses a learning device that calculates a feature amount indicating a feature of the image from an image, a calculation unit that calculates a feature amount of an image having a history selected by a user, and the calculation unit Based on the calculated feature value and the attribute information indicating the attribute of the user, a model for estimating the attribute information of the user who selected the image from the feature value of the image is generated.

実施形態の一態様によれば、クリック率の推定精度の悪化を防ぐことができるという効果を奏する。   According to one aspect of the embodiment, there is an effect that it is possible to prevent deterioration in the accuracy of estimation of the click rate.

図1は、実施形態に係る配信サーバの一例を示す図である。FIG. 1 is a diagram illustrating an example of a distribution server according to the embodiment. 図2は、実施形態に係る配信サーバの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a distribution server according to the embodiment. 図3は、実施形態に係る接続係数記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of a connection coefficient storage unit according to the embodiment. 図4は、実施形態に係るモデル生成用画像データベースの一例を示す図である。FIG. 4 is a diagram illustrating an example of a model generation image database according to the embodiment. 図5は、実施形態にかかるユーザー推定モデルの一例を示す図である。FIG. 5 is a diagram illustrating an example of a user estimation model according to the embodiment. 図6は、実施形態に係る広告データベースの一例を示す図である。FIG. 6 is a diagram illustrating an example of an advertisement database according to the embodiment. 図7は、CNNを用いた効果の一例を説明する図である。FIG. 7 is a diagram illustrating an example of an effect using CNN. 図8は、属性情報を用いた効果の一例を説明する図である。FIG. 8 is a diagram illustrating an example of an effect using attribute information. 図9は、実施形態にかかる配信サーバが実行する生成処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a generation process executed by the distribution server according to the embodiment. 図10は、実施形態にかかる配信サーバが実行する配信処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of distribution processing executed by the distribution server according to the embodiment. 図11は、実施形態に係る配信サーバが推定する属性情報の他の例を説明する図である。FIG. 11 is a diagram illustrating another example of attribute information estimated by the distribution server according to the embodiment. 図12は、実施形態にかかる配信サーバが動画像から選択された画像に基づいて属性情報を推定する処理の一例を示す図である。FIG. 12 is a diagram illustrating an example of processing in which the distribution server according to the embodiment estimates attribute information based on an image selected from a moving image. 図13は、推定方法の入替を説明する図である。FIG. 13 is a diagram illustrating replacement of the estimation method. 図14は、配信サーバの機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 14 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the distribution server.

以下に、本願に係るモデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラムおよび情報配信プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係るモデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラムおよび情報配信プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a model generation device, an information distribution device, a model generation method, an information distribution method, a model generation program, and an information distribution program according to the present application (hereinafter referred to as “embodiment”) will be described with reference to the drawings. The details will be described. Note that the model generation device, the information distribution device, the model generation method, the information distribution method, the model generation program, and the information distribution program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

〔1.配信サーバの一例〕
まず、図1を用いて、実施形態においてモデル生成装置および情報配信装置の一例として動作する配信サーバの一例について説明する。図1は、実施形態に係る配信サーバの一例を示す図である。なお、以下の説明では、配信サーバ10が、利用者の属性等を示す属性情報を推定するユーザー推定モデルを生成する生成処理と、生成処理で生成されたユーザー推定モデルを用いて、利用者の属性情報を推定し、推定された属性情報に基づいて広告を配信する配信処理とを実行する例について説明する。
[1. Example of distribution server)
First, an example of a distribution server that operates as an example of a model generation device and an information distribution device in the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a distribution server according to the embodiment. In the following description, the distribution server 10 uses the generation process for generating the user estimation model for estimating the attribute information indicating the user's attribute and the like, and the user estimation model generated by the generation process. An example in which attribute information is estimated and a distribution process for distributing an advertisement based on the estimated attribute information will be described.

また、以下の説明では広告に係る画像である広告画像を用いて生成処理と配信処理とを実行する例について説明するが、かかる画像は、広告だけではなく、ボランティアの募集、公共広告、公共に対する通知、商品画像、商品説明、その他任意の情報に係る画像あってもよい。すなわち、以下で説明する画像とは、利用者に興味を抱かせ、かかる画像に含まれる情報またはかかる画像と関連する情報(例えば、画像が配置されたウェブページ上の情報やランディングページの情報)を広く知らせるものであれば、文字、図形、記号、音声、動画、ゲーム、その他任意のコンテンツを適用可能である。   Moreover, although the following description demonstrates the example which performs the production | generation process and a delivery process using the advertisement image which is an image which concerns on an advertisement, such an image is not only an advertisement but recruitment of volunteers, public advertisement, public There may be images relating to notifications, product images, product descriptions, and other arbitrary information. In other words, the image described below makes the user interested, information included in the image or information related to the image (for example, information on a web page on which the image is arranged or information on a landing page). Can be applied to any content such as characters, graphics, symbols, sounds, moving images, games, and the like.

配信サーバ10は、利用者が使用する端末装置100とデータ通信を行うウェブサーバ等の情報処理装置である。例えば、配信サーバ10は、端末装置100から広告の配信を要求する広告配信要求を受信すると、端末装置100を使用する利用者の属性情報に基づいて、配信対象となる広告画像を選択し、選択した広告画像を端末装置100へ送信する。ここで、利用者の属性情報とは、利用者の性別、年齢、住所、趣味、興味の対象、ウェブページや広告の閲覧履歴等、利用者のプロファイルや素性を示す種々の情報である。   The distribution server 10 is an information processing device such as a web server that performs data communication with the terminal device 100 used by the user. For example, upon receiving an advertisement distribution request for requesting advertisement distribution from the terminal device 100, the distribution server 10 selects and selects an advertisement image to be distributed based on attribute information of a user who uses the terminal device 100. The advertisement image thus transmitted is transmitted to the terminal device 100. Here, the attribute information of the user is various information indicating the profile and identity of the user such as the user's sex, age, address, hobby, object of interest, browsing history of web pages and advertisements.

端末装置100は、スマートフォンやタブレット等のスマートデバイスであり、3G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置100は、タッチパネルを指や専用ペンでタッチすることにより画像の選択等、各種操作を行う。   The terminal device 100 is a smart device such as a smartphone or a tablet, and is a portable terminal device that can communicate with an arbitrary server device via a wireless communication network such as 3G (Generation) or LTE (Long Term Evolution). . The terminal device 100 performs various operations such as image selection by touching the touch panel with a finger or a dedicated pen.

なお、端末装置100は、デスクトップ型のPC(Personal Computer)やノート型のPC、ネットブック、サーバ装置などの情報処理装置であってもよい。かかる場合、端末装置100は、マウスやキーボードなどの情報入力装置を介して各種操作を受け付けてもよい。   The terminal device 100 may be an information processing device such as a desktop PC (Personal Computer), a notebook PC, a netbook, or a server device. In such a case, the terminal device 100 may accept various operations via an information input device such as a mouse or a keyboard.

ここで、端末装置100は、利用者の操作によりウェブページなどのウェブコンテンツを表示する場合は、ウェブコンテンツの配信を行うウェブサーバに対してウェブコンテンツの配信要求を送信する。かかる場合、端末装置100は、ウェブコンテンツの配信を受け付けると、ウェブコンテンツ内に配置される広告の配信要求を配信サーバ10に送信する。   Here, when displaying web content such as a web page by a user operation, the terminal device 100 transmits a web content delivery request to a web server that delivers web content. In such a case, when receiving the distribution of the web content, the terminal device 100 transmits a distribution request for the advertisement arranged in the web content to the distribution server 10.

かかる場合、配信サーバ10は広告画像を端末装置100に配信する。そして、端末装置100は、配信サーバ10から受け付けた広告画像をウェブページ内に配置して表示する。また、端末装置100は、広告画像を利用者がタップしたり、カーソルを広告画像とあわせてクリックした場合等、広告画像を選択する操作が行われた場合は、広告画像と対応するランディングページの表示を行うとともに、かかる広告画像が選択された旨の通知を配信サーバ10に送信する。   In such a case, the distribution server 10 distributes the advertisement image to the terminal device 100. And the terminal device 100 arrange | positions and displays the advertisement image received from the delivery server 10 in a web page. In addition, when an operation for selecting an advertisement image is performed, such as when the user taps the advertisement image or clicks the cursor with the advertisement image, the terminal device 100 displays the landing page corresponding to the advertisement image. In addition to displaying, a notification that the advertisement image has been selected is transmitted to the distribution server 10.

また、配信サーバ10は、広告画像が選択された旨の通知を受付けると、広告主に対する課金処理を実行する。すなわち、配信サーバ10は、端末装置100に対し、クリック課金型の広告配信を行う。   In addition, when the distribution server 10 receives the notification that the advertisement image has been selected, the distribution server 10 performs a billing process for the advertiser. That is, the distribution server 10 performs click-billing advertisement distribution to the terminal device 100.

〔2−1.配信サーバ10が実行する処理〕
ここで、配信サーバ10は、クリック課金型で広告を配信する場合、広告主が設定した入札額に基づいて、配信対象となる広告画像が選択される。具体的には、配信サーバ10は、各広告画像について設定された入札額と、各広告画像がクリックされる確率であるクリック率とに基づいて、期待収益を算出し、算出した期待収益が最も高い広告画像を優先的に配信する。
[2-1. Processing executed by distribution server 10]
Here, in the case where the distribution server 10 distributes the advertisement by the click charge type, the advertisement image to be distributed is selected based on the bid amount set by the advertiser. Specifically, the distribution server 10 calculates the expected return based on the bid amount set for each advertisement image and the click rate that is the probability that each advertisement image is clicked, and the calculated expected return is the highest. Distribute high advertising images with priority.

ここで、クリック率とは、広告配信対象となる利用者の属性情報や、配信対象となる広告画像の内容に基づいて推定されるクリック率である。例えば、従来技術では、配信対象となる広告画像を抽象化した際の特徴と、配信先となる利用者の属性情報との対応関係に応じて、クリック率の値が推定される。より具体的な例を挙げると、従来技術では、配信対象となる広告画像がゲーム画面、車両、男性用の商品等、男性が選択しそうな画像であり、配信先となる利用者の性別が男性である場合は、配信対象となる広告画像のクリック率を増加させる。   Here, the click rate is a click rate estimated on the basis of the attribute information of the user to be distributed as an advertisement and the content of the advertisement image as the distribution target. For example, in the conventional technology, the value of the click rate is estimated according to the correspondence between the characteristics when the advertisement image to be distributed is abstracted and the attribute information of the user to be distributed. To give a more specific example, in the prior art, the advertisement image to be distributed is an image that a man is likely to select, such as a game screen, a vehicle, a product for men, etc., and the gender of the user to be distributed is male. In the case of, the click rate of the advertisement image to be distributed is increased.

また、他の従来技術では、配信対象となる広告画像が他の広告画像と類似する場合は、かかる他の広告画像を選択した利用者の属性情報を取得し、取得した利用者の属性情報と、配信先となる利用者の属性情報との関係に応じて、クリック率の値が推定される。より具体的な例を挙げると、従来技術では、配信対象となる利用者が男性である場合は、多くの男性が選択した広告画像と類似する広告画像のクリック率を増加させる。   In another conventional technique, when an advertisement image to be distributed is similar to another advertisement image, the attribute information of the user who selected the other advertisement image is acquired, and the acquired attribute information of the user and The value of the click rate is estimated according to the relationship with the attribute information of the user who is the delivery destination. As a more specific example, in the related art, when the user to be distributed is a male, the click rate of the advertising image similar to the advertising image selected by many men is increased.

しかしながら、新規に登録された広告画像等には、広告画像を選択した利用者の属性情報や、広告画像の構成等、広告画像のログが存在しない場合がある。かかる場合、従来技術では、配信対象となる広告画像を選択しうる利用者を推定できないので、クリック率の推定精度が悪化する。また、十分な数のログが取得されていない場合にも、クリック率の推定精度は悪化する。   However, a newly registered advertisement image or the like may not have an advertisement image log such as attribute information of a user who has selected the advertisement image or a configuration of the advertisement image. In such a case, according to the conventional technique, since the user who can select the advertisement image to be distributed cannot be estimated, the estimation accuracy of the click rate is deteriorated. Also, the estimation accuracy of the click rate is deteriorated even when a sufficient number of logs are not acquired.

また、新規な利用者から広告配信要求を受信した場合や、B−クッキー等などが消去され、利用者を識別するためのID(Identifier)が不明になった場合等、利用者の属性情報が不明となる場合がある。かかる場合、従来技術では、配信対象となる広告画像の予測クリック率を算出することができない。   Also, when an advertisement distribution request is received from a new user, or when a B-cookie or the like is deleted and an ID (Identifier) for identifying the user is unknown, the user attribute information is It may be unknown. In such a case, the conventional technique cannot calculate the predicted click rate of the advertisement image to be distributed.

このように、従来技術では、画像のログが存在しない場合や、利用者の属性情報が不明となる場合等、いわゆるコールドスタート状態においては、クリック率を精度良く推定できないため、適切な期待収益を算出することができない。この結果、従来技術では、コールドスタート状態において、配信対象となる広告画像を適切に選択することができない。   In this way, in the conventional technology, when the image log does not exist or when the attribute information of the user is unknown, the click rate cannot be accurately estimated in a so-called cold start state. It cannot be calculated. As a result, in the related art, the advertisement image to be distributed cannot be appropriately selected in the cold start state.

そこで、配信サーバ10は、画像から画像の特徴を示す特徴量を算出する学習器を用いて、利用者により選択された履歴を有する広告画像の特徴量を算出する。そして、配信サーバ10は、算出した特徴量と、広告画像を選択した利用者の属性情報とに基づいて、画像の特徴量から利用者の属性情報を推定するユーザー推定モデルを生成する生成処理を実行する。   Therefore, the distribution server 10 calculates the feature amount of the advertisement image having the history selected by the user using a learning device that calculates the feature amount indicating the feature of the image from the image. Then, the distribution server 10 performs a generation process for generating a user estimation model for estimating the user attribute information from the image feature amount based on the calculated feature amount and the attribute information of the user who selected the advertisement image. Run.

例えば、配信サーバ10は、学習器を用いて、利用者により選択された履歴を有する画像の特徴量を算出し、履歴中の利用者の属性を示す属性情報と、算出した特徴量とに基づいて、属性情報の推定対象となる利用者が選択した画像の特徴量から、属性情報の推定対象となる利用者の属性情報を推定するモデルを生成する。ここで、履歴中の利用者と、属性対象の推定対象となる利用者とは、同一の利用者であってもよく、異なる利用者であってもよい。   For example, the distribution server 10 uses a learning device to calculate a feature amount of an image having a history selected by the user, and based on the attribute information indicating the attribute of the user in the history and the calculated feature amount. Thus, a model for estimating the attribute information of the user to be estimated for attribute information is generated from the feature amount of the image selected by the user to be estimated for attribute information. Here, the user in the history and the user to be estimated for the attribute target may be the same user or different users.

また、配信サーバ10は、属性情報が不明である利用者が広告画像を選択した場合は、学習器を用いて、かかる広告画像の特徴量を算出する。また、配信サーバ10は、ユーザー推定モデルを用いて、算出した特徴量から利用者の属性情報を推定する。そして、配信サーバ10は、推定した属性情報を用いて、広告画像を利用者が選択するクリック率を算出し、算出したクリック率に基づいて、配信対象となる広告画像を選択し、配信を行う配信処理を実行する。   In addition, when a user whose attribute information is unknown selects an advertisement image, the distribution server 10 calculates a feature amount of the advertisement image using a learning device. Further, the distribution server 10 estimates user attribute information from the calculated feature amount using a user estimation model. Then, the distribution server 10 calculates a click rate at which a user selects an advertisement image using the estimated attribute information, selects an advertisement image to be distributed based on the calculated click rate, and performs distribution. Execute the distribution process.

〔2−2.学習器〕
ここで、配信サーバ10が広告画像の特徴量を算出する際に用いる学習器について説明する。学習器とは、例えば、入力されたデータに対する演算結果を出力する複数のノードを多層に接続した学習器であって、教師なし学習により抽象化された画像の特徴を学習する学習器である。より具体的には、学習器とは、複数のノードを有する層を多段に接続したニューラルネットワークであり、いわゆるディープラーニングの技術により実現されるDNN(Deep Neural Network)である。また、画像の特徴とは、画像に含まれる文字の有無、色、構成等、画像内に現れる具体的な特徴のみならず、撮像されている物体が何であるか、画像がどのような利用者に好かれるか、画像の雰囲気等、抽象化(メタ化)された画像の特徴をも含む概念である。
[2-2. (Learning device)
Here, a learning device used when the distribution server 10 calculates the feature amount of the advertisement image will be described. The learning device is, for example, a learning device in which a plurality of nodes that output calculation results for input data are connected in multiple layers, and learns image features abstracted by unsupervised learning. More specifically, the learning device is a neural network in which layers having a plurality of nodes are connected in multiple stages, and is a DNN (Deep Neural Network) realized by a so-called deep learning technique. Image features include not only the specific features that appear in the image, such as the presence / absence of characters in the image, color, composition, etc., but also what the object is being imaged and what kind of user the image is It is a concept that also includes the characteristics of an abstracted (meta-) image such as the atmosphere of the image.

かかるディープラーニングの技術を用いた場合、学習器は、例えば、以下の学習手法により生成される。例えば、学習器は、各ノードの間の接続係数が初期化され、様々な特徴を有する画像が入力される。そして、学習器の出力と、入力した画像との誤差が少なくなるように接続係数を補正するバックプロパゲーションが行われる。かかる処理を繰り替えすことで、学習器は、入力された画像をより良く再現できる出力、すなわち入力された画像の特徴を出力することができる。   When such a deep learning technique is used, the learning device is generated by the following learning method, for example. For example, in the learning device, the connection coefficient between the nodes is initialized, and images having various characteristics are input. Then, backpropagation is performed to correct the connection coefficient so that an error between the output of the learning device and the input image is reduced. By repeating such processing, the learning device can output an output that can better reproduce the input image, that is, a feature of the input image.

なお、学習器の学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。また、学習器の学習を行う際に用いられる画像は、配信対象となる広告画像が用いられてもよく、一般的な画像のデータセットを利用してもよい。また、学習器に対する画像の入力方法、学習器が出力するデータの形式、学習器に対して明示的に学習させる特徴の内容等は、任意の手法が適用できる。すなわち、配信サーバ10は、画像から抽象化された特徴を示す特徴量を算出できるのであれば、任意の学習器を用いることができる。   Note that the learning method of the learning device is not limited to the method described above, and any known technique can be applied. In addition, an advertisement image to be distributed may be used as an image used when learning by the learning device, or a general image data set may be used. In addition, any method can be applied to the image input method to the learning device, the format of data output from the learning device, the content of features that are explicitly learned by the learning device, and the like. That is, the distribution server 10 can use any learning device as long as the distribution server 10 can calculate the feature amount indicating the feature abstracted from the image.

以下の説明では、配信サーバ10は、入力画像の局所領域の畳み込みとプーリングとを繰り返す学習器、いわゆるCNN(Convolutional Neural Network)を用いて、広告画像の特徴量を算出するものとする。かかるCNNは、画像から特徴を抽出して出力する機能に加え、画像内に含まれる文字や撮像対象等の位置的変異に対し、出力の不変性を有する。このため、配信サーバ10は、広告画像の抽象化された特徴を精度良く算出することができる。   In the following description, it is assumed that the distribution server 10 calculates the feature amount of the advertisement image using a learning device that repeats convolution and pooling of the local region of the input image, so-called CNN (Convolutional Neural Network). In addition to the function of extracting and outputting features from an image, the CNN has output invariance with respect to positional variations such as characters and imaging objects included in the image. For this reason, the distribution server 10 can calculate the abstract feature of the advertisement image with high accuracy.

〔2−3.生成処理〕
続いて、図1を用いて、配信サーバ10が実行する生成処理について説明する。まず、配信サーバ10は、配信処理に先がけて、ユーザー推定モデルを生成する生成処理を実行する(ステップS10)。具体的には、配信サーバ10は、属性情報が特定可能な利用者により選択された広告画像C10〜C13(以下、選択画像C10〜C13と記載する場合がある)を学習器に入力し(ステップS11)、各選択画像C10〜C13の特徴量を算出する(ステップS12)。そして、配信サーバ10は、算出された特徴量と、各選択画像C10〜C13を選択した利用者U10〜U13の属性情報とを用いて、画像の特徴量からかかる画像を選択した利用者の属性情報を推定するユーザー推定モデルを生成する(ステップS13)。
[2-3. Generation process)
Next, the generation process executed by the distribution server 10 will be described with reference to FIG. First, the distribution server 10 executes a generation process for generating a user estimation model prior to the distribution process (step S10). Specifically, the distribution server 10 inputs advertisement images C10 to C13 (hereinafter may be referred to as selected images C10 to C13) selected by a user whose attribute information can be specified to the learning device (step S11), feature amounts of the selected images C10 to C13 are calculated (step S12). Then, the distribution server 10 uses the calculated feature amount and the attribute information of the users U10 to U13 who selected the selected images C10 to C13, and the attribute of the user who selected the image from the feature amount of the image. A user estimation model for estimating information is generated (step S13).

例えば、配信サーバ10は、広告画像の配信ログや、配信先となる利用者の属性情報のログ等から、配信された広告画像と配信先である利用者の属性情報とを収集する。図1に示す例では、属性情報が「男性」の利用者U10がPCの広告画像C10を選択し、属性情報が「女性」の利用者U11が靴の広告画像C11を選択している。また、図1に示す例では、属性情報が「30代」の利用者U12がアクセサリーの広告画像C12を選択し、属性情報が「10代」の利用者U13がゲーム機の広告画像C13を選択している。   For example, the distribution server 10 collects the distributed advertisement image and the attribute information of the user as the distribution destination from the distribution log of the advertisement image, the attribute information log of the user as the distribution destination, and the like. In the example illustrated in FIG. 1, a user U10 whose attribute information is “male” selects a PC advertisement image C10, and a user U11 whose attribute information is “female” selects a shoe advertisement image C11. In the example shown in FIG. 1, the user U12 whose attribute information is “30's” selects the advertisement image C12 of the accessory, and the user U13 whose attribute information is “10's” selects the advertisement image C13 of the game machine. doing.

ここで、同様の属性情報を有する利用者は、同様の特徴を有する広告画像を選択する可能性が高い。例えば、男性の利用者は、ゲーム機や男性用のファッションに係る広告画像を選択する傾向があり、女性の利用者は、アクセサリーや女性用のファッションに係る広告画像を選択する傾向がある。このため、利用者U10以外の利用者であっても、利用者U10と同様に、属性情報が「男性」である場合は、広告画像C10や広告画像C10と同様の特徴を有する他の広告画像を選択する可能性が高い。   Here, a user having similar attribute information is likely to select an advertisement image having similar characteristics. For example, male users tend to select game machines and advertisement images related to men's fashion, and female users tend to select accessories and advertisement images related to women's fashion. For this reason, even if the user is a user other than the user U10, as in the case of the user U10, when the attribute information is “male”, the other advertisement images having the same characteristics as the advertisement image C10 and the advertisement image C10 Is likely to choose.

そこで、配信サーバ10は、広告画像C10を学習器に入力することで、広告画像C10の抽象化された特徴を示す特徴量Aを算出する。より具体的には、配信サーバ10は、広告画像C10を学習器に入力した際の出力、すなわち広告画像C10の抽象化された特徴を示す多次元量を広告画像C10の特徴量Aとして取得する。そして、配信サーバ10は、ユーザー推定モデルとして、広告画像C10の特徴量Aとの差分が所定の閾値よりも小さい特徴量から、広告画像C10を選択した利用者U10と同じ属性情報「男性」を推定するユーザー推定モデルを生成する。   Therefore, the distribution server 10 inputs the advertisement image C10 to the learning device, thereby calculating a feature amount A indicating an abstract feature of the advertisement image C10. More specifically, the distribution server 10 acquires, as the feature amount A of the advertisement image C10, an output when the advertisement image C10 is input to the learning device, that is, a multidimensional amount indicating an abstract feature of the advertisement image C10. . Then, the distribution server 10 uses the same attribute information “male” as the user U10 who has selected the advertisement image C10 from the feature amount whose difference from the feature amount A of the advertisement image C10 is smaller than a predetermined threshold as the user estimation model. Generate a user estimation model to estimate.

同様に、配信サーバ10は、ユーザー推定モデルとして、広告画像C11の特徴量Bとの差分が所定の閾値よりも小さい特徴量から、広告画像C11を選択した利用者U11と同じ属性情報「女性」を推定するユーザー推定モデルを生成する。また、配信サーバ10は、ユーザー推定モデルとして、広告画像C12の特徴量Cとの差分が所定の閾値よりも小さい特徴量から、広告画像C12を選択した利用者U12と同じ属性情報「30代」を推定するユーザー推定モデルを生成する。また、配信サーバ10は、ユーザー推定モデルとして、広告画像C13の特徴量Dとの差分が所定の閾値よりも小さい特徴量から、広告画像C13を選択した利用者U13と同じ属性情報「10代」を推定するユーザー推定モデルを生成する。   Similarly, the distribution server 10 uses the same attribute information “female” as the user U11 who selected the advertisement image C11 from the feature amount whose difference from the feature amount B of the advertisement image C11 is smaller than a predetermined threshold as the user estimation model. Generate a user estimation model that estimates. Further, the distribution server 10 uses the same attribute information “30's” as the user U12 who selected the advertisement image C12 from the feature amount whose difference from the feature amount C of the advertisement image C12 is smaller than a predetermined threshold as the user estimation model. Generate a user estimation model that estimates. Further, the distribution server 10 uses the same attribute information “10th generation” as the user U13 who selected the advertisement image C13 from the feature amount whose difference from the feature amount D of the advertisement image C13 is smaller than a predetermined threshold as the user estimation model. Generate a user estimation model that estimates.

例えば、図1に示す例では、配信サーバ10は、広告画像C10の特徴量Aと属性情報「男性」とを対応付け、広告画像C11の特徴量Bと属性情報「女性」とを対応付け、広告画像C12の特徴量Cと属性情報「30代」とを対応付け、広告画像C13の特徴量Dと属性情報「10代」とを対応付けたユーザー推定モデル17を生成する。   For example, in the example illustrated in FIG. 1, the distribution server 10 associates the feature amount A of the advertisement image C10 with the attribute information “male”, associates the feature amount B of the advertisement image C11 with the attribute information “female”, The user estimation model 17 in which the feature amount C of the advertisement image C12 is associated with the attribute information “30's” and the feature amount D of the advertisement image C13 is associated with the attribute information “10's” is generated.

〔2−4.配信処理〕
続いて、図1を用いて、配信サーバ10が実行する配信処理について説明する。まず、配信サーバ10は、属性情報が不明な利用者U20により、ログが無い広告画像C14が選択された場合は(ステップS20)、利用者U20が選択した広告画像C14を取得する(ステップS21)。また、配信サーバ10は、取得した広告画像C14を学習器に入力し(ステップS22)、かかる広告画像C14の抽象化した特徴を示す特徴量Eを算出する(ステップS23)。
[2-4. (Delivery process)
Next, the distribution process executed by the distribution server 10 will be described with reference to FIG. First, when the advertisement image C14 without a log is selected by the user U20 whose attribute information is unknown (step S20), the distribution server 10 acquires the advertisement image C14 selected by the user U20 (step S21). . In addition, the distribution server 10 inputs the acquired advertisement image C14 to the learning device (step S22), and calculates a feature amount E indicating an abstract feature of the advertisement image C14 (step S23).

そして、配信サーバ10は、特徴量Eとユーザー推定モデル17とを用いて、利用者U20の属性情報を推定する(ステップS24)。例えば、配信サーバ10は、特徴量Bと特徴量Eの差分、および、特徴量Cと特徴量Eの差分が所定の閾値よりも大きく、特徴量Aと特徴量Eの差分、および、特徴量Dと特徴量Eの差分が所定の閾値よりも小さい場合は、利用者U20の属性情報として「男性」および「10代」を推定する(ステップS25)。   And the delivery server 10 estimates the attribute information of the user U20 using the feature-value E and the user estimation model 17 (step S24). For example, the distribution server 10 determines that the difference between the feature amount B and the feature amount E and the difference between the feature amount C and the feature amount E are larger than a predetermined threshold, and the difference between the feature amount A and the feature amount E and the feature amount. If the difference between D and feature amount E is smaller than a predetermined threshold, “male” and “teenage” are estimated as attribute information of the user U20 (step S25).

また、配信サーバ10は、特徴量Eから広告画像C14の予測クリック率(pCTR:Predicted Click Through Rate)を算出する(ステップS26)。例えば、配信サーバ10は、予め定義された所定の線形関数f(x)に多次元量で表される特徴量「x」を入力し、1/(1+exp(−f(x)))の値をpCTRとして算出する。そして、配信サーバ10は、推定した属性情報と、算出した予測クリック率とを用いて、配信対象となる広告画像のクリック率をそれぞれ推定する(ステップS27)。   Further, the distribution server 10 calculates a predicted click through rate (pCTR) of the advertisement image C14 from the feature amount E (step S26). For example, the distribution server 10 inputs a feature quantity “x” represented by a multidimensional quantity to a predetermined linear function f (x) defined in advance, and the value of 1 / (1 + exp (−f (x))) Is calculated as pCTR. Then, the distribution server 10 estimates the click rate of the advertisement image to be distributed using the estimated attribute information and the calculated predicted click rate (step S27).

その後、配信サーバ10は、推定した各広告画像のクリック率と各広告画像の入札額とを用いて、期待収益を算出し、算出した期待収益の値が最も高い広告画像を、利用者U20が使用する端末装置100に配信する(ステップS28)。   Thereafter, the distribution server 10 calculates the expected return using the estimated click rate of each advertisement image and the bid amount of each advertisement image, and the user U20 selects the advertisement image with the highest expected return value. Distribute to the terminal device 100 to be used (step S28).

このように、配信サーバ10は、画像の特徴量を算出する学習器を用いて、利用者U10〜U13が選択した選択画像C10〜C13の特徴量を算出し、算出した特徴量と利用者U10〜U13の属性情報とに基づいて、広告画像C14の特徴量から係る画像C14を選択した利用者U20の属性情報を推定するユーザー推定モデルを生成する。   As described above, the distribution server 10 calculates the feature amount of the selected images C10 to C13 selected by the users U10 to U13 using the learning device that calculates the feature amount of the image, and the calculated feature amount and the user U10. Based on the attribute information of U13, a user estimation model for estimating the attribute information of the user U20 who selected the image C14 from the feature amount of the advertisement image C14 is generated.

また、配信サーバ10は、ユーザー推定モデルを用いて、広告画像C14を選択した利用者U20の属性情報を推定し、推定した属性情報を用いて、利用者U20が広告画像を選択する確率であるクリック率を算出する。そして、配信サーバ10は、算出したクリック率に基づいて、配信対象となる広告画像を選択する。   Further, the distribution server 10 estimates the attribute information of the user U20 who selected the advertisement image C14 using the user estimation model, and the probability that the user U20 selects the advertisement image using the estimated attribute information. Calculate clickthrough rate. Then, the distribution server 10 selects an advertisement image to be distributed based on the calculated click rate.

このため、配信サーバ10は、コールドスタート状態においても、利用者の属性情報を推定することができるので、配信対象となる広告画像を適切に選択することができる。   For this reason, since the distribution server 10 can estimate the attribute information of the user even in the cold start state, it can appropriately select the advertisement image to be distributed.

なお、図1に示すユーザー推定モデル17は、あくまで一例であり、配信サーバ10は、他にも任意の形式のモデルを生成することができる。例えば、配信サーバ10は、多次元量である特徴量の各次元の値を独立した変数として入力すると、各属性情報がどれくらいの確かさで推定されるかを解として出力する関数をモデルとして生成してもよい。   Note that the user estimation model 17 illustrated in FIG. 1 is merely an example, and the distribution server 10 can generate a model of any other format. For example, when the distribution server 10 inputs the value of each dimension of a feature quantity that is a multidimensional quantity as an independent variable, the distribution server 10 generates a function that outputs as a solution how much each attribute information is estimated as a model. May be.

以下、上記した選定処理を実現する配信サーバ10の機能構成の一例について説明する。   Hereinafter, an example of a functional configuration of the distribution server 10 that realizes the above selection process will be described.

〔3.配信サーバの構成〕
次に、図2を用いて、実施形態に係る配信サーバ10の構成について説明する。図2は、実施形態に係る配信サーバの構成例を示す図である。図2に示すように、配信サーバ10は、ネットワークNを介して、端末装置100およびウェブサーバ200と有線または無線により通信可能に接続される。なお、配信サーバ10は、他にも複数台の端末装置100や、複数台のウェブサーバ200と接続されてもよい。
[3. Distribution server configuration)
Next, the configuration of the distribution server 10 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of a distribution server according to the embodiment. As shown in FIG. 2, the distribution server 10 is connected to the terminal device 100 and the web server 200 via a network N so as to be communicable by wire or wirelessly. The distribution server 10 may be connected to a plurality of terminal devices 100 and a plurality of web servers 200.

端末装置100は、利用者による操作にしたがって、ウェブサーバ200からウェブページを取得し、取得したウェブページを表示する。また、端末装置100は、ウェブページに広告画像の取得命令が含まれる場合には、配信サーバ10に広告画像の配信要求とともに利用者の属性情報を送信し、広告画像を取得する。そして、端末装置100は、取得した広告画像を表示する。また、端末装置100は、利用者が広告画像を選択した場合は、選択した広告画像を示す情報と、利用者の属性情報とを配信サーバ10に送信する。   The terminal device 100 acquires a web page from the web server 200 according to an operation by the user, and displays the acquired web page. Further, when the advertisement image acquisition command is included in the web page, the terminal device 100 transmits the user attribute information together with the advertisement image distribution request to the distribution server 10 to acquire the advertisement image. Then, the terminal device 100 displays the acquired advertisement image. Further, when the user selects an advertisement image, the terminal device 100 transmits information indicating the selected advertisement image and user attribute information to the distribution server 10.

一方、配信サーバ10は、図2に示すように、通信部11、記憶部12、制御部13を有する。なお、配信サーバ10の内部構成は、図2に示した構成に限られず、上述した選定処理を行う構成であれば他の構成であってもよい。   On the other hand, the distribution server 10 includes a communication unit 11, a storage unit 12, and a control unit 13, as illustrated in FIG. Note that the internal configuration of the distribution server 10 is not limited to the configuration illustrated in FIG. 2, and may be another configuration as long as the selection process described above is performed.

通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークNと有線または無線で接続され、端末装置100、との間で情報の送受信を行う。   The communication unit 11 is realized by, for example, a NIC (Network Interface Card). The communication unit 11 is connected to the network N by wire or wirelessly and transmits / receives information to / from the terminal device 100.

記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、学習用画像データベース14、接続係数記憶部15、モデル生成用画像データベース16、ユーザー推定モデル17、広告データベース18を記憶する。   The storage unit 12 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 12 stores a learning image database 14, a connection coefficient storage unit 15, a model generation image database 16, a user estimation model 17, and an advertisement database 18.

制御部13は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、配信サーバ10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部13は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。   The control unit 13 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like executing various programs stored in the storage device inside the distribution server 10 using the RAM as a work area. The The control unit 13 is realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

また、制御部13は、配信サーバ10内部の記憶装置に記憶されている学習プログラム、モデル生成プログラム、および配信プログラムがRAMを作業領域として実行されることにより、学習部19、生成部20、配信部30として動作する。ここで、生成部20は、特徴量算出部21、ユーザー情報取得部22、モデル生成部23を有する。また、配信部30は、選択画像取得部31、ユーザー情報推定部32、クリック率算出部33、広告選択部34を有する。   Further, the control unit 13 executes the learning unit 19, the generation unit 20, the distribution by executing the learning program, the model generation program, and the distribution program stored in the storage device inside the distribution server 10 using the RAM as a work area. It operates as the unit 30. Here, the generation unit 20 includes a feature amount calculation unit 21, a user information acquisition unit 22, and a model generation unit 23. The distribution unit 30 includes a selection image acquisition unit 31, a user information estimation unit 32, a click rate calculation unit 33, and an advertisement selection unit 34.

〔4−1.学習用画像データベース〕
続いて、記憶部12が記憶する情報の一例について説明する。学習用画像データベース14は、学習器に抽象化された画像の特徴量を学習させる際に用いられる学習用の画像が登録される。例えば、学習用画像データベース14には、DNNやCNNの学習時に用いられる画像のデータセットが登録される。
[4-1. (Image database for learning)
Next, an example of information stored in the storage unit 12 will be described. In the learning image database 14, a learning image used when the learning device learns the feature amount of the abstracted image is registered. For example, in the learning image database 14, an image data set used when learning DNN or CNN is registered.

〔4−2.接続係数記憶部〕
接続係数記憶部15には、学習器が有する各ノード間の接続係数が登録される。例えば、図3は、実施形態に係る接続係数記憶部の一例を示す図である。図3に示すように、接続係数記憶部15には、「ニューロンID」、「結合先ニューロンID」、「接続係数」といった項目を有する。「ニューロンID」は、DNNやCNNに含まれるノードであるニューロンを識別するための識別情報を示す。「結合先ニューロンID」は、「ニューロンID」に対応するニューロンと結合するニューロンを識別するための識別情報を示す。「接続係数」は、ニューロン間の接続係数を示す。
[4-2. Connection coefficient storage unit)
In the connection coefficient storage unit 15, a connection coefficient between the nodes included in the learning device is registered. For example, FIG. 3 is a diagram illustrating an example of the connection coefficient storage unit according to the embodiment. As illustrated in FIG. 3, the connection coefficient storage unit 15 includes items such as “neuron ID”, “connection destination neuron ID”, and “connection coefficient”. “Neuron ID” indicates identification information for identifying a neuron that is a node included in the DNN or CNN. “Destination neuron ID” indicates identification information for identifying a neuron coupled to a neuron corresponding to “neuron ID”. “Connection coefficient” indicates a connection coefficient between neurons.

例えば、ニューロンID「N11」に対応するニューロンは、ニューロンID「N21」に対応するニューロンと接続係数「W」で接続されている。このため、ニューロンID「N21」に対応するニューロンには、ニューロンID「N11」の出力に接続係数「W」を積算した値が入力として伝達される。 For example, the neuron corresponding to the neuron ID “N 11 ” is connected to the neuron corresponding to the neuron ID “N 21 ” with the connection coefficient “W A ”. For this reason, to the neuron corresponding to the neuron ID “N 21 ”, a value obtained by integrating the connection coefficient “W A ” to the output of the neuron ID “N 11 ” is transmitted as an input.

〔4−3.モデル生成用画像データベース〕
図2に戻り、モデル生成用画像データベース16には、ユーザー推定モデル17を生成する際に用いられる画像が登録されている。例えば、図4は、実施形態に係るモデル生成用画像データベースの一例を示す図である。図4に示すように、モデル生成用画像データベース16には、属性情報が取得可能な利用者により選択された広告画像と、かかる広告画像を選択した利用者の属性情報とが対応付けて登録される。
[4-3. (Image database for model generation)
Returning to FIG. 2, the image used for generating the user estimation model 17 is registered in the model generation image database 16. For example, FIG. 4 is a diagram illustrating an example of a model generation image database according to the embodiment. As shown in FIG. 4, in the model generation image database 16, an advertisement image selected by a user who can acquire attribute information and attribute information of the user who selected the advertisement image are registered in association with each other. The

例えば、図4に示す例では、モデル生成用画像データベース16には、属性情報が「男性」、「10代」である利用者が選択した広告画像C30と、かかる利用者の属性情報「男性」、「10代」とが対応付けて登録されている。同様に、モデル生成用画像データベース16には、広告画像C31と属性情報「男性」、「20代」とが対応付けて登録されており、広告画像C32と属性情報「女性」、「10代」とが対応付けて登録されている。また、モデル生成用画像データベース16には、広告画像C33と属性情報「女性」、「20代」とが対応付けて登録されており、広告画像C34と属性情報「10代」とが対応付けて登録されており、広告画像C35と属性情報「20代」とが対応付けて登録されている。   For example, in the example illustrated in FIG. 4, the model generation image database 16 includes an advertisement image C30 selected by a user whose attribute information is “male” or “teenage”, and attribute information “male” of the user. "10" is registered in association with each other. Similarly, in the model generation image database 16, the advertisement image C31 and the attribute information “male” and “20s” are registered in association with each other, and the advertisement image C32 and the attribute information “female” and “teens” are registered. Are registered in association with each other. In the model generation image database 16, the advertisement image C33 and attribute information “female” and “20's” are registered in association with each other, and the advertisement image C34 and attribute information “10's” are associated with each other. The advertisement image C35 and the attribute information “20's” are registered in association with each other.

〔4−4.ユーザー推定モデル〕
図2に戻り、ユーザー推定モデル17は、属性情報が取得可能な利用者により選択された画像の特徴量と、かかる利用者の属性情報とから生成されたモデルであって、画像の特徴量からかかる画像を選択した利用者の属性情報を推定するモデルである。例えば、図5は、実施形態にかかるユーザー推定モデルの一例を示す図である。図5に示す例では、ユーザー推定モデル17には、画像の特徴量と、係る特徴量と類似する特徴量の画像を選択した利用者について推定される属性情報とが対応付けて登録されている。
[4-4. User estimation model)
Returning to FIG. 2, the user estimation model 17 is a model generated from the feature amount of the image selected by the user who can acquire the attribute information and the attribute information of the user, and is based on the feature amount of the image. This is a model for estimating attribute information of a user who has selected such an image. For example, FIG. 5 is a diagram illustrating an example of a user estimation model according to the embodiment. In the example illustrated in FIG. 5, the user estimation model 17 registers the feature amount of an image and attribute information estimated for a user who has selected an image having a feature amount similar to the feature amount. .

例えば、図4に示す例では、ユーザー推定モデル17には、特徴量Eと属性情報「男性」、「10代」とが対応付けて登録されている。すなわち、ユーザー推定モデル17は、特徴量Eと一致もしくは類似する特徴量の画像を選択した利用者の属性情報が「男性」、「10代」である旨を示す。同様に、ユーザー推定モデル17には、特徴量Fと属性情報「男性」、「20代」、特徴量Gと属性情報「女性」、「10代」、特徴量Hと「女性」、「20代」、特徴量Iと属性情報「10代」、特徴量Jと属性情報「20代」が対応付けて登録されている。   For example, in the example illustrated in FIG. 4, in the user estimation model 17, the feature amount E and attribute information “male” and “teenage” are registered in association with each other. That is, the user estimation model 17 indicates that the attribute information of the user who has selected the feature amount image that matches or is similar to the feature amount E is “male” or “teenage”. Similarly, the user estimation model 17 includes a feature amount F and attribute information “male” and “20s”, a feature amount G and attribute information “female” and “teen”, a feature amount H and “female”, “20 ”, Feature amount I and attribute information“ 10 ”, and feature amount J and attribute information“ 20 ”are registered in association with each other.

〔4−5.広告データベース〕
図2に戻り、広告データベース18には、配信対象となる広告画像が登録されている。例えば、図6は、実施形態に係る広告データベースの一例を示す図である。図6に示す例では、広告データベース18には、「広告主ID」、「広告コンテンツ」、「入札価格」、「CTR」、「属性情報」といった項目が対応付けて登録される。
[4-5. Advertising database)
Returning to FIG. 2, advertisement images to be distributed are registered in the advertisement database 18. For example, FIG. 6 is a diagram illustrating an example of an advertisement database according to the embodiment. In the example shown in FIG. 6, items such as “advertiser ID”, “advertisement content”, “bid price”, “CTR”, and “attribute information” are registered in the advertisement database 18 in association with each other.

「広告主ID」は、広告主を識別するための識別情報を示す。「広告コンテンツ」は、広告主が入稿した広告コンテンツ、例えば広告画像を示す。図4では「広告コンテンツ」に「C11」といった概念的な情報が格納される例を示したが、実際には、静止画像や動画像やテキストデータやURL、又は、これらの格納場所を示すファイルパス名などが格納される。   “Advertiser ID” indicates identification information for identifying an advertiser. “Advertising content” indicates advertising content submitted by the advertiser, for example, an advertising image. FIG. 4 shows an example in which conceptual information such as “C11” is stored in “advertising content”, but actually, a still image, a moving image, text data, a URL, or a file indicating the storage location thereof. Stores path names and so on.

「入札価格」は、広告主が広告コンテンツを入稿する際に指定する広告料金を示す。例えば、「入札価格」は、広告コンテンツがユーザーに1回クリックされた際に広告主から広告配信者(例えば、配信サーバ10の管理者)に支払われる単価に該当する。また、例えば、「入札価格」は、広告コンテンツが表示された際に広告主から広告配信者に支払われる単価であってもよい。   “Bid price” indicates an advertising fee designated when an advertiser submits advertising content. For example, the “bid price” corresponds to a unit price paid from the advertiser to the advertisement distributor (for example, the administrator of the distribution server 10) when the advertisement content is clicked once by the user. Further, for example, the “bid price” may be a unit price paid from the advertiser to the advertisement distributor when the advertisement content is displayed.

「CTR」は、広告コンテンツがクリックされた回数を広告コンテンツの表示回数によって除算した値を示す。なお、端末装置100に配信されたことがない広告コンテンツのCTRには、予め決められている固定値や、全ての広告コンテンツにおけるCTRの平均値や、同一の広告カテゴリ(例えば、車、旅行)に属する全ての広告コンテンツにおけるCTRの平均値などが記憶される。また、「属性情報」とは、広告コンテンツの配信対象となる利用者の属性情報を示す。   “CTR” indicates a value obtained by dividing the number of times the advertising content is clicked by the number of times the advertising content is displayed. The CTR of the advertising content that has not been distributed to the terminal device 100 includes a predetermined fixed value, an average value of CTR for all advertising content, and the same advertising category (for example, car, travel). The average value of CTR and the like for all the advertising contents belonging to is stored. “Attribute information” indicates attribute information of a user who is a distribution target of advertisement content.

例えば、図4では、広告主ID「B10」によって識別される広告主が、入札価格「100」を指定するとともに、広告コンテンツ「C11」を入稿した例を示している。また、図4では、広告コンテンツ「C11」のCTRが「0.02」であり、配信対象となる利用者の属性情報が「男性」である例を示している。   For example, FIG. 4 shows an example in which the advertiser identified by the advertiser ID “B10” designates the bid price “100” and submits the advertising content “C11”. FIG. 4 shows an example in which the CTR of the advertising content “C11” is “0.02” and the attribute information of the user to be distributed is “male”.

なお、「CTR」には、CTRの予測モデル等から予測される予測CTRが記憶されてもよい。このような予測CTRは、例えば、広告コンテンツの種別や、広告コンテンツが表示されるウェブページの種別等によって予測される。   Note that “CTR” may store a predicted CTR predicted from a CTR prediction model or the like. Such a predicted CTR is predicted based on, for example, the type of advertising content, the type of web page on which the advertising content is displayed, and the like.

〔4−6.制御部が実行する処理の一例〕
図3に戻り、制御部13が有する学習部19、生成部20、配信部30が実行する処理の内容について説明する。
[4-6. Example of processing executed by control unit]
Returning to FIG. 3, the contents of the processing executed by the learning unit 19, the generation unit 20, and the distribution unit 30 of the control unit 13 will be described.

〔4−6−1.学習部が実行する処理の一例〕
学習部19は、学習器の学習を行う。例えば、学習部19は、ニューロンを多段に接続した学習器であって、教師なし学習により抽象化された画像の特徴を学習した学習器、すなわちDNNの学習を行う。また、学習部19は、学習器として、局所領域の畳み込みとプーリングとを繰り返すことで、画像の変異に対する出力の普遍性をさらに学習した学習器、すなわちCNNの学習を行う。
[4-6-1. Example of processing executed by learning unit]
The learning unit 19 performs learning of the learning device. For example, the learning unit 19 is a learning device in which neurons are connected in multiple stages, and learns a learning device that learns the features of an image abstracted by unsupervised learning, that is, DNN. Further, the learning unit 19 performs learning of a learning device that further learns the universality of output with respect to image variation, that is, CNN, by repeating local region convolution and pooling as a learning device.

例えば、学習部19は、ニューロン同士に所定の接続関係を設定した学習器を構築する。また、学習部19は、学習用画像データベース14に登録された学習用画像を用いて、学習器に抽象化された画像の特徴を学習させる。より具体的には、学習部19は、バックプロパゲーション等の公知の手法を用いて、学習用画像から抽象化された特徴が精度良く抽出されるように接続係数を補正する。そして、学習部19は、ニューロン同士の接続関係と、接続係数とを接続係数記憶部15に登録する。   For example, the learning unit 19 constructs a learning device in which a predetermined connection relationship is set between neurons. In addition, the learning unit 19 uses the learning image registered in the learning image database 14 to cause the learning device to learn the characteristics of the abstracted image. More specifically, the learning unit 19 uses a known method such as backpropagation to correct the connection coefficient so that the abstracted feature is extracted from the learning image with high accuracy. Then, the learning unit 19 registers the connection relationship between the neurons and the connection coefficient in the connection coefficient storage unit 15.

なお、学習部19が実行する具体的な学習手法については、DNNやCNNを学習する際に用いられる公知の学習手法が採用可能である。   As a specific learning method executed by the learning unit 19, a known learning method used when learning DNN or CNN can be employed.

〔4−6−2.生成部が実行する処理の一例〕
生成部20は、特徴量算出部21、ユーザー情報取得部22、モデル生成部23が実行する処理により、生成処理を実行する。具体的には、特徴量算出部21は、画像から特徴量を算出する学習器を用いて、属性情報を取得可能な利用者により選択された履歴を有する広告画像の特徴量を算出する。
[4-6-2. Example of processing executed by generation unit]
The generation unit 20 executes the generation process by the processes executed by the feature amount calculation unit 21, the user information acquisition unit 22, and the model generation unit 23. Specifically, the feature amount calculation unit 21 calculates a feature amount of an advertisement image having a history selected by a user who can acquire attribute information, using a learning device that calculates a feature amount from an image.

例えば、特徴量算出部21は、接続係数記憶部15からニューロンIDと接続係数とを取得し、学習器を構成する。また、特徴量算出部21は、モデル生成用画像データベース16から、広告画像C30を取得する。そして、特徴量算出部21は、学習器に広告画像C30を入力し、学習器の出力を特徴量Eとして取得する。   For example, the feature amount calculation unit 21 acquires a neuron ID and a connection coefficient from the connection coefficient storage unit 15 and configures a learning device. In addition, the feature amount calculation unit 21 acquires the advertisement image C30 from the model generation image database 16. Then, the feature amount calculation unit 21 inputs the advertisement image C30 to the learning device, and acquires the output of the learning device as the feature amount E.

ユーザー情報取得部22は、特徴量を算出した広告画像を選択した利用者の属性情報を取得する。例えば、ユーザー情報取得部22は、特徴量算出部21が広告画像C30の特徴量Eを算出した場合は、かかる広告画像C30と対応付けられた属性情報「男性」、「10代」をモデル生成用画像データベース16から取得する。   The user information acquisition unit 22 acquires attribute information of the user who has selected the advertisement image whose feature value has been calculated. For example, when the feature amount calculation unit 21 calculates the feature amount E of the advertisement image C30, the user information acquisition unit 22 generates a model of attribute information “male” and “teenage” associated with the advertisement image C30. Obtained from the image database 16.

モデル生成部23は、特徴量算出部21が算出した特徴量と、ユーザー情報取得部22が取得した属性情報とに基づいて、ユーザー推定モデルを生成する。例えば、モデル生成部23は、特徴量算出部21が算出した広告画像C30の特徴量Eと、ユーザー情報取得部22が取得した属性情報とを対応付けてユーザー推定モデル17に登録する。   The model generation unit 23 generates a user estimation model based on the feature amount calculated by the feature amount calculation unit 21 and the attribute information acquired by the user information acquisition unit 22. For example, the model generation unit 23 registers the feature amount E of the advertisement image C30 calculated by the feature amount calculation unit 21 and the attribute information acquired by the user information acquisition unit 22 in the user estimation model 17 in association with each other.

なお、モデル生成部23は、より複雑な手法によりユーザー推定モデル17を生成してもよい。例えば、モデル生成部23は、特徴量算出部21が特徴量Eと特徴量Iとを算出し、ユーザー情報取得部22が属性情報「男性」、「10代」および属性情報「10代」を取得した場合、特徴量Eと特徴量Iとの差分を属性情報「男性」に対応する特徴量としてユーザー推定モデル17に追加してもよい。すなわち、モデル生成部23は、複数の特徴量を比較し、差分や共通部分に基づくユーザー推定モデル17を生成してもよい。また、モデル生成部23は、特徴量を変数として入力すると、属性情報に対応する値を出力する関数をモデルとして生成してもよい。   Note that the model generation unit 23 may generate the user estimation model 17 by a more complicated method. For example, in the model generation unit 23, the feature amount calculation unit 21 calculates the feature amount E and the feature amount I, and the user information acquisition unit 22 sets the attribute information “male”, “teenage”, and attribute information “teenage”. When acquired, the difference between the feature quantity E and the feature quantity I may be added to the user estimation model 17 as a feature quantity corresponding to the attribute information “male”. That is, the model generation unit 23 may compare a plurality of feature amounts and generate the user estimation model 17 based on the difference or the common part. Further, the model generation unit 23 may generate, as a model, a function that outputs a value corresponding to the attribute information when the feature amount is input as a variable.

〔4−6−3.配信部が実行する処理の一例〕
配信部30は、選択画像取得部31、ユーザー情報推定部32、クリック率算出部33、広告選択部34が実行する処理により、配信処理を実行する。具体的には、選択画像取得部31は、属性情報が不明な利用者が選択した広告画像を取得する。
[4-6-3. Example of processing executed by distribution unit]
The distribution unit 30 performs the distribution process by the processes executed by the selected image acquisition unit 31, the user information estimation unit 32, the click rate calculation unit 33, and the advertisement selection unit 34. Specifically, the selected image acquisition unit 31 acquires an advertisement image selected by a user whose attribute information is unknown.

例えば、選択画像取得部31は、利用者が選択した広告画像の通知を受信した場合は、かかる利用者の属性情報を特定できるか否かを判定する。具体的には、選択画像取得部31は、Bクッキーが無い場合や、利用者のIDが無い場合等、利用者の属性情報を特定できない場合や、利用者の属性情報を管理する管理システム等に利用者の属性情報が登録されていない場合には、利用者の属性情報が不明であると判定する。   For example, when the notification of the advertisement image selected by the user is received, the selected image acquisition unit 31 determines whether the attribute information of the user can be specified. Specifically, the selected image acquisition unit 31 is a case where there is no B cookie or there is no user ID, for example, when the user attribute information cannot be specified, or a management system that manages the user attribute information. If the user attribute information is not registered, it is determined that the user attribute information is unknown.

そして、選択画像取得部31は、利用者の属性情報が不明であると判定した場合には、通知された広告画像を広告データベース18から特定し、特定した広告画像をユーザー情報推定部32に出力する。なお、選択画像取得部31は、利用者の属性情報を特定できた場合は、通知された広告画像と特定した属性情報とを対応付けて、モデル生成用画像データベース16に登録する。   When the selected image acquisition unit 31 determines that the user attribute information is unknown, the selected image acquisition unit 31 specifies the notified advertisement image from the advertisement database 18 and outputs the specified advertisement image to the user information estimation unit 32. To do. When the user's attribute information can be identified, the selected image acquisition unit 31 associates the notified advertisement image with the identified attribute information and registers them in the model generation image database 16.

ユーザー情報推定部32は、ユーザー推定モデル17を用いて、属性情報が不明である利用者が選択した広告画像から、かかる利用者の属性情報を推定する。例えば、ユーザー情報推定部32は、接続係数記憶部15に登録された情報を用いて、抽象化された画像の特徴を示す特徴量を算出する学習器を構築する。   The user information estimation unit 32 uses the user estimation model 17 to estimate the attribute information of the user from the advertisement image selected by the user whose attribute information is unknown. For example, the user information estimation unit 32 uses the information registered in the connection coefficient storage unit 15 to construct a learning device that calculates a feature value indicating the feature of the abstracted image.

また、ユーザー情報推定部32は、広告画像を選択画像取得部31から受信すると、受信した広告画像を学習器に入力し、かかる広告画像の特徴量を算出する。そして、ユーザー情報推定部32は、ユーザー推定モデル17を用いて、算出した特徴量から属性情報を推定する。例えば、ユーザー情報推定部32は、図5に示すユーザー推定モデル17が登録されている際に、特徴量と特徴量Eとの差分が所定の閾値よりも小さい場合は、広告画像を選択した利用者の属性情報「男性」、「10代」を推定する。そして、ユーザー情報推定部32は、算出した特徴量と、推定した属性情報「男性」、「10代」とをクリック率算出部33に出力する。   In addition, when the user information estimation unit 32 receives the advertisement image from the selection image acquisition unit 31, the user information estimation unit 32 inputs the received advertisement image to the learning device, and calculates the feature amount of the advertisement image. Then, the user information estimation unit 32 uses the user estimation model 17 to estimate attribute information from the calculated feature amount. For example, when the user estimation model 17 shown in FIG. 5 is registered and the difference between the feature quantity and the feature quantity E is smaller than a predetermined threshold, the user information estimation unit 32 selects the advertisement image used. Attribute information “male” and “teen” is estimated. Then, the user information estimation unit 32 outputs the calculated feature amount and the estimated attribute information “male” and “teenage” to the click rate calculation unit 33.

クリック率算出部33は、ユーザー情報推定部32が推定した属性情報を用いて、配信対象となる広告画像を利用者が選択するクリック率を算出する。例えば、クリック率算出部33は、ユーザー情報推定部32が算出した特徴量から、属性情報を推定した利用者により選択された広告画像を、かかる利用者が選択する確率である予測クリック率を算出する。そして、クリック率算出部33は、算出した予測クリック率と、ユーザー情報推定部32が推定した属性情報とをパラメータとする所定のモデルを用いて、広告データベース18に登録された各広告画像を、属性情報を推定した利用者が選択するクリック率を算出する。   The click rate calculation unit 33 uses the attribute information estimated by the user information estimation unit 32 to calculate a click rate at which the user selects an advertisement image to be distributed. For example, the click rate calculation unit 33 calculates a predicted click rate that is a probability that the user selects an advertisement image selected by the user who estimated the attribute information from the feature amount calculated by the user information estimation unit 32. To do. Then, the click rate calculation unit 33 uses the predetermined model with the calculated predicted click rate and the attribute information estimated by the user information estimation unit 32 as parameters, The click rate selected by the user who estimated the attribute information is calculated.

例えば、クリック率算出部33は、推定された属性情報が「男性」である場合は、属性情報「男性」が対応付けられた広告画像のクリック率を増加させ、属性情報「女性」が対応付けられた広告画像のクリック率を減少させる等の処理を実行する。なお、クリック率算出部33が各広告画像のクリック率を算出する処理については、公知のクリック率算出モデルが適用可能である。   For example, when the estimated attribute information is “male”, the click rate calculation unit 33 increases the click rate of the advertisement image associated with the attribute information “male” and associates the attribute information “female” with the attribute information “male”. A process such as reducing the click rate of the advertisement image is executed. A known click rate calculation model can be applied to the process in which the click rate calculation unit 33 calculates the click rate of each advertisement image.

広告選択部34は、クリック率算出部33が算出したクリック率に基づいて、利用者に配信する広告画像を選択する。例えば、広告選択部34は、クリック率算出部33が算出したクリック率と、各広告画像の入札額との値を積算し、積算した値が最も高い広告画像を選択する。そして、広告選択部34は、属性情報が推定された利用者が使用する端末装置100から配信要求を受信した場合は、選択した広告画像を配信する。   The advertisement selection unit 34 selects an advertisement image to be distributed to the user based on the click rate calculated by the click rate calculation unit 33. For example, the advertisement selection unit 34 accumulates the values of the click rate calculated by the click rate calculation unit 33 and the bid amount of each advertisement image, and selects the advertisement image having the highest accumulated value. And the advertisement selection part 34 distributes the selected advertisement image, when the distribution request is received from the terminal device 100 used by the user whose attribute information is estimated.

なお、クリック率算出部33は、属性情報が不明ではない利用者から配信要求を受信した場合は、かかる利用者の属性情報を用いてクリック率を算出する。そして、広告選択部34は、クリック率算出部33が算出したクリック率を用いて、広告画像を選択し、選択した広告画像の配信を行う。   In addition, when the distribution request is received from a user whose attribute information is not unknown, the click rate calculation unit 33 calculates the click rate using the user attribute information. Then, the advertisement selection unit 34 selects an advertisement image using the click rate calculated by the click rate calculation unit 33 and distributes the selected advertisement image.

〔5.特徴量の算出について〕
ここで、上述した配信サーバ10は、CNNを用いて広告画像の特徴量を算出することにより、抽象化された画像の特徴量を適切に算出することができる。例えば、図7は、CNNを用いた効果の一例を説明する図である。図7には、各種の手法により抽出された特徴量をモデルの素性として、広告画像ごとの実績クリック率にリッジ回帰させた平均絶対誤差(MAE: Mean Absolute Error)を、手法ごとにプロットした。
[5. About calculation of features)
Here, the distribution server 10 described above can appropriately calculate the feature amount of the abstracted image by calculating the feature amount of the advertisement image using the CNN. For example, FIG. 7 is a diagram illustrating an example of an effect using CNN. In FIG. 7, mean absolute error (MAE) obtained by ridge regression to the actual click rate for each advertisement image is plotted for each method, using the feature values extracted by various methods as the features of the model.

図7に示す例では、特徴量の抽出手法として、Gist、SIFT(Scale-Invariant Feature Transform)、C−SIFT(Colored-SIFT)、Opponent SIFT、RGB−SIFT(Red Green Blue-SIFT)、CNNを採用した。また、広告主ID、広告ID、広告画像IDといったID素性を用いずに特徴を推定する抽出方法との比較対象として、ID素性のみを用いて特徴量を特定するBaselineの結果をプロットした。   In the example shown in FIG. 7, Gist, SIFT (Scale-Invariant Feature Transform), C-SIFT (Colored-SIFT), Opponent SIFT, RGB-SIFT (Red Green Blue-SIFT), and CNN are used as feature amount extraction methods. Adopted. In addition, as a comparison target with an extraction method that estimates a feature without using an ID feature such as an advertiser ID, an advertisement ID, and an advertisement image ID, a Baseline result that specifies a feature amount using only the ID feature is plotted.

ここで、Gistとは、画像のシーン情報を記述する際に用いられる大域画像特徴量であり、960の次元数を有する特徴量である。また、SIFT、C−SIFT、Opponent SIFT、RGB−SIFTとは、局所特徴量を算出する手法である。図7に示す例では、SIFT、C−SIFT、Opponent SIFT、RGB−SIFTにより算出された局所特徴量の分布を混合ガウス分布で表現した2048次元のFisher vectorを、Bag−of−Visual−Wordsベースの帯域特徴量として採用した。   Here, Gist is a global image feature quantity used when describing scene information of an image, and is a feature quantity having a 960-dimensional number. SIFT, C-SIFT, Opponent SIFT, and RGB-SIFT are methods for calculating local feature amounts. In the example shown in FIG. 7, a 2048-dimensional Fisher vector expressing a distribution of local feature amounts calculated by SIFT, C-SIFT, Opponent SIFT, and RGB-SIFT as a mixed Gaussian distribution is based on a Bag-of-Visual-Words base. It was adopted as the band feature amount.

また、図7に示す例では、CNNとして、CaffeのImagenetプレインモデルを採用し、CNNの最終層が出力する4096次元の情報を特徴量とした。また、図7に示す例では、Baselineとして、広告主ID、広告ID、広告画像IDといったID素性から、Feature hashingを用いた20ビットの特徴量を用いた。   In the example shown in FIG. 7, Caffe's Imagenet plain model is adopted as CNN, and 4096-dimensional information output from the final layer of CNN is used as a feature amount. In the example illustrated in FIG. 7, a 20-bit feature amount using Feature hashing is used as Baseline from ID features such as an advertiser ID, an advertisement ID, and an advertisement image ID.

上述した各手法により得られた特徴量を比較すると、画像内の局所的な形状の情報ではなく、撮像対象を特徴量の一部として表現できるか否かが重要であるため、Baselineを除くと、CNNにより抽出された特徴量の平均絶対誤差が最も低い値となる。しかしながら、コールドスタート状態においては、各種のID素性を得ることができないため、Baselineを用いるのは困難である。このため、配信サーバ10は、CNNを用いることで、コールドスタート状態においても画像の特徴量を適切に算出することができる。   When comparing the feature values obtained by the above-described methods, it is important whether or not the imaging target can be expressed as a part of the feature value, not information on the local shape in the image. , The average absolute error of the feature quantity extracted by CNN is the lowest value. However, since various ID features cannot be obtained in the cold start state, it is difficult to use Baseline. For this reason, the distribution server 10 can appropriately calculate the feature amount of the image even in the cold start state by using the CNN.

〔6.属性情報の推定について〕
また、上述した配信サーバ10は、広告画像を選択した利用者の属性情報を推定し、推定した属性情報を用いることで、精度良くクリック率を算出することができる。例えば、図8は、属性情報を用いた効果の一例を説明する図である。図8には、クリックを「1」、インプレッションのみを「−1」としてロジスティック回帰させ、クリック率の算出手法ごとに、AUC(area under the curve)と重複率との対応をプロットした。また、図8に示す例では、Baselineを用いたクリック率の予測、Baselineに属性情報を付加してクリック率を予測するUser_add、User_addにCNNによる特徴量を付加してクリック率を予測するCNN_addを採用した。
[6. (About estimation of attribute information)
Further, the distribution server 10 described above can estimate the attribute information of the user who has selected the advertisement image, and can calculate the click rate with high accuracy by using the estimated attribute information. For example, FIG. 8 is a diagram illustrating an example of an effect using attribute information. In FIG. 8, logistic regression is performed with “1” for the click and “−1” for only the impression, and the correspondence between the AUC (area under the curve) and the overlap rate is plotted for each method of calculating the click rate. Further, in the example shown in FIG. 8, the click rate is predicted using Baseline, User_add that adds attribute information to Baseline to predict the click rate, and CNN_add that predicts the click rate by adding a feature amount by CNN to User_add. Adopted.

図8に示す例では、全体的に、属性情報を考慮してクリック率を予測するUser_addの手法がBaselineを用いた手法よりも予測性能が良い事が解る。このため、配信サーバ10は、コールドスタート時において、利用者の属性情報を推定し、推定した属性情報を用いることで、精度良くクリック率を算出することができる。   In the example shown in FIG. 8, it can be understood that the User_add method for predicting the click rate in consideration of the attribute information generally has better prediction performance than the method using Baseline. Therefore, the distribution server 10 can calculate the click rate with high accuracy by estimating the attribute information of the user at the cold start and using the estimated attribute information.

〔7.配信サーバ10の処理フロー〕
次に、図9、図10を用いて、配信サーバ10が実行する生成処理および配信処理の流れの一例について説明する。まず、図9を用いて、配信サーバ10が実行する生成処理の一例を説明する。図9は、実施形態にかかる配信サーバが実行する生成処理の一例を示すフローチャートである。
[7. Processing flow of distribution server 10]
Next, an example of the flow of generation processing and distribution processing executed by the distribution server 10 will be described with reference to FIGS. 9 and 10. First, an example of the generation process executed by the distribution server 10 will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a generation process executed by the distribution server according to the embodiment.

図9に示すように、配信サーバ10は、属性情報を取得できる利用者により選択された広告画像であるモデル生成用画像をCNNに入力し、最終層の出力を特徴量として取得する(ステップS101)。続いて、配信サーバ10は、モデル生成画像を選択した利用者の属性情報を取得する(ステップS102)。そして、配信サーバ10は、特徴量と属性情報とに基づいて、画像の特徴量から属性情報を推定するユーザー推定モデルを生成し(ステップS103)、処理を終了する。   As shown in FIG. 9, the distribution server 10 inputs a model generation image, which is an advertisement image selected by a user who can acquire attribute information, to the CNN, and acquires the output of the final layer as a feature amount (step S101). ). Subsequently, the distribution server 10 acquires attribute information of the user who selected the model generation image (step S102). Then, the distribution server 10 generates a user estimation model that estimates the attribute information from the feature amount of the image based on the feature amount and the attribute information (step S103), and ends the process.

なお、配信サーバ10は、図9に示す生成処理を任意のタイミングで実行することができる。例えば、配信サーバ10は、モデル生成用画像がモデル生成用画像データベース16に登録される度に実行してもよく、所定の時間間隔あるいは利用者からの指示に従って実行してもよい。すなわち、配信サーバ10は、利用者の属性情報を推定する処理に先駆けてモデルを生成するのであれば、任意のタイミングで生成処理を実行してもよい。   The distribution server 10 can execute the generation process shown in FIG. 9 at an arbitrary timing. For example, the distribution server 10 may be executed every time a model generation image is registered in the model generation image database 16 or may be executed in accordance with a predetermined time interval or a user instruction. That is, the distribution server 10 may execute the generation process at an arbitrary timing as long as the model is generated prior to the process of estimating the user attribute information.

次に、図10を用いて、配信サーバ10が実行する配信処理の一例を説明する。図10は、実施形態にかかる配信サーバが実行する配信処理の一例を示すフローチャートである。まず、配信サーバ10は、利用者が選択した広告画像の情報を受信したか否かを判定する(ステップS201)。そして、配信サーバ10は、利用者が選択した広告画像の情報を受信していない場合は(ステップS201:No)、再度ステップS201を実行する。   Next, an example of distribution processing executed by the distribution server 10 will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of distribution processing executed by the distribution server according to the embodiment. First, the distribution server 10 determines whether or not the advertisement image information selected by the user has been received (step S201). And the delivery server 10 performs step S201 again, when the information of the advertisement image which the user selected is not received (step S201: No).

一方、配信サーバ10は、利用者が選択した広告画像の情報を受信した場合は(ステップS201:Yes)、選択された広告画像をCNNに入力し、特徴量を取得する(ステップS202)。そして、配信サーバ10は、ユーザー推定モデル17を用いて、取得した特徴量から属性情報を推定する(ステップS203)。また、配信サーバ10は、特徴量を用いて、予測クリック率を算出し(ステップS204)、算出した予測クリック率と、推定された属性情報とを用いて、広告画像のクリック率を推定する(ステップS205)。また、配信サーバ10は、推定したクリック率に基づいて、期待収益を算出し(ステップS206)、配信要求を受信した際に、期待収益が最大となる広告画像を配信し(ステップS207)、処理を終了する。   On the other hand, when the distribution server 10 receives the information of the advertisement image selected by the user (step S201: Yes), the distribution server 10 inputs the selected advertisement image into the CNN and acquires the feature amount (step S202). And the delivery server 10 estimates attribute information from the acquired feature-value using the user estimation model 17 (step S203). Further, the distribution server 10 calculates a predicted click rate using the feature amount (step S204), and estimates the click rate of the advertisement image using the calculated predicted click rate and the estimated attribute information ( Step S205). Further, the distribution server 10 calculates the expected profit based on the estimated click rate (step S206), and distributes the advertisement image with the maximum expected profit when the distribution request is received (step S207). Exit.

なお、配信サーバ10は、図10に示す配信処理を広告画像の配信タイミングに先駆けて行ってもよい。例えば、配信サーバ10は、広告画像を選択した利用者のログを取り、属性情報が不明な利用者から配信要求を受信した際に、ログから係る利用者が選択した広告画像を特定し、特定した広告画像の特徴量から係る利用者の属性情報を推定してもよい。   The distribution server 10 may perform the distribution process shown in FIG. 10 prior to the distribution timing of the advertisement image. For example, the distribution server 10 takes a log of a user who has selected an advertisement image, and when receiving a distribution request from a user whose attribute information is unknown, identifies and identifies the advertisement image selected by the user from the log The attribute information of the user may be estimated from the feature amount of the advertisement image.

また、配信サーバ10は、属性情報が不明であり、かつ、広告画像を選択したログが無い利用者から配信要求を受信した場合は、任意の手法で選択された広告画像を配信する。また、配信サーバ10は、かかる広告画像が選択された場合は、かかる広告画像から利用者の属性情報を予め推定する。そして、配信サーバ10は、かかる利用者から新たな配信要求を受信した際に、あらかじめ推定した属性情報を用いて広告画像を選択し、選択した広告画像を配信してもよい。   In addition, when the distribution server 10 receives a distribution request from a user whose attribute information is unknown and does not have a log for selecting an advertisement image, the distribution server 10 distributes the advertisement image selected by an arbitrary method. In addition, when such an advertisement image is selected, the distribution server 10 estimates the attribute information of the user from the advertisement image in advance. Then, when the distribution server 10 receives a new distribution request from the user, the distribution server 10 may select an advertisement image using attribute information estimated in advance, and distribute the selected advertisement image.

〔8.変形例〕
上記した実施形態に係る配信サーバ10は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、配信サーバ10の他の実施形態について説明する。なお、以下に説明する配信サーバ10が実行する処理のうち、生成処理に対応する処理は、生成部20によって実行され、配信処理に対応する処理は、配信部30によって実行されるものとする。
[8. (Modification)
The distribution server 10 according to the above-described embodiment may be implemented in various different forms other than the above-described embodiment. Therefore, in the following, another embodiment of the distribution server 10 will be described. Of the processes executed by the distribution server 10 described below, the process corresponding to the generation process is executed by the generation unit 20, and the process corresponding to the distribution process is executed by the distribution unit 30.

〔8−1.推定される属性情報のバリエーション〕
例えば、配信サーバ10は、利用者の属性情報を推定する際、ユーザー推定モデル17に登録された特徴量と、選択された画像の特徴量との一致率を算出し、算出した一致率を考慮した属性情報の推定を行ってもよい。例えば、図11は、実施形態に係る配信サーバが推定する属性情報の他の例を説明する図である。なお、図11に示す例では、各画像C10〜C13の特徴量として、各次元の値が「0」または「1」である多次元量のベクトルを記載した。
[8-1. Inferred attribute information variation)
For example, when estimating the attribute information of the user, the distribution server 10 calculates the matching rate between the feature amount registered in the user estimation model 17 and the feature amount of the selected image, and considers the calculated matching rate. The estimated attribute information may be estimated. For example, FIG. 11 is a diagram illustrating another example of attribute information estimated by the distribution server according to the embodiment. In the example illustrated in FIG. 11, a multidimensional vector having a value of each dimension “0” or “1” is described as the feature amount of each of the images C <b> 10 to C <b> 13.

まず、配信サーバ10は、図11中(A)に示すように、学習器を用いて、利用者により選択された広告画像C10〜C13の特徴量を算出する。また、配信サーバ10は、図11中(B)に示すように、各広告画像C10〜C13を選択した利用者の属性情報を特定する。そして、配信サーバ10は、図11中(C)に示すように、各広告画像C10の特徴量と属性情報とを対応付けたユーザー推定モデル17を生成する。   First, as shown in FIG. 11A, the distribution server 10 calculates the feature amounts of the advertisement images C10 to C13 selected by the user using a learning device. Moreover, the delivery server 10 specifies the attribute information of the user who selected each advertisement image C10-C13, as shown to (B) in FIG. And the delivery server 10 produces | generates the user estimation model 17 which matched the feature-value and attribute information of each advertisement image C10, as shown to (C) in FIG.

続いて、配信サーバ10は、属性情報が取得できない利用者が選択した広告画像C14を取得する。かかる場合、配信サーバ10は、図11中(D)に示すように、学習器を用いて、広告画像C14の特徴量を算出する。また、配信サーバ10は、算出された特徴量と、ユーザー推定モデル17に登録された特徴量との類似度を算出し、算出した類似度を属性情報の確かさを示す値としてクリック率の推定を行う。具体的な例を挙げると、配信サーバ10は、算出された特徴量と、ユーザー推定モデル17に登録された特徴量とを次元ごとに比較し、値が一致する次元の数を、特徴量の次元数で除算した値を類似度とする。   Subsequently, the distribution server 10 acquires the advertisement image C14 selected by the user who cannot acquire attribute information. In such a case, the distribution server 10 calculates the feature amount of the advertisement image C14 using a learning device as shown in (D) of FIG. Further, the distribution server 10 calculates the similarity between the calculated feature quantity and the feature quantity registered in the user estimation model 17, and estimates the click rate using the calculated similarity as a value indicating the certainty of the attribute information. I do. As a specific example, the distribution server 10 compares the calculated feature quantity with the feature quantity registered in the user estimation model 17 for each dimension, and calculates the number of dimensions with the same value as the feature quantity. The value divided by the number of dimensions is taken as the similarity.

例えば、配信サーバ10は、図11中(E)に示すように、広告画像C10の特徴量と広告画像C14の特徴量との類似度が「0.6」である場合は、広告画像C10と対応する属性情報「男性」の確かさが「60パーセント」であると推定する。同様に、配信サーバ10は、広告画像C11の特徴量と広告画像C14の特徴量との類似度が「0.4」である場合は、広告画像C11と対応する属性情報「女性」の確かさが「40パーセント」であると推定する。   For example, as illustrated in (E) of FIG. 11, when the similarity between the feature quantity of the advertisement image C10 and the feature quantity of the advertisement image C14 is “0.6”, the distribution server 10 The certainty of the corresponding attribute information “male” is estimated to be “60%”. Similarly, when the similarity between the feature amount of the advertisement image C11 and the feature amount of the advertisement image C14 is “0.4”, the distribution server 10 determines the certainty of the attribute information “female” corresponding to the advertisement image C11. Is estimated to be “40 percent”.

また、配信サーバ10は、広告画像C12の特徴量と広告画像C14の特徴量との類似度が「0.1」である場合は、広告画像C12と対応する属性情報「30代」の確かさが「10パーセント」であると推定する。同様に、配信サーバ10は、広告画像C13の特徴量と広告画像C14の特徴量との類似度が「0.7」である場合は、広告画像C13と対応する属性情報「10代」の確かさが「70パーセント」であると推定する。   Further, when the similarity between the feature amount of the advertisement image C12 and the feature amount of the advertisement image C14 is “0.1”, the distribution server 10 confirms the attribute information “30's” corresponding to the advertisement image C12. Is estimated to be “10 percent”. Similarly, when the similarity between the feature amount of the advertisement image C13 and the feature amount of the advertisement image C14 is “0.7”, the distribution server 10 confirms the attribute information “10th generation” corresponding to the advertisement image C13. Is estimated to be “70 percent”.

かかる推定を行った場合、配信サーバ10は、利用者がが「60パーセント」の確率で「男性」であり、「40パーセント」の確率で「女性」であるものとして、クリック率の算出を行う。例えば、配信サーバ10は、クリック率を算出する際に用いられるモデルのパラメータのうち、推定された属性情報が「男性」である場合に考慮されるパラメータに「0.6」を積算し、推定された属性情報が「女性」である場合に考慮されるパラメータに「0.4」を積算する。   When such an estimation is performed, the distribution server 10 calculates the click rate on the assumption that the user is “male” with a probability of “60%” and “female” with a probability of “40%”. . For example, the distribution server 10 adds “0.6” to the parameter to be considered when the estimated attribute information is “male” among the parameters of the model used when calculating the click rate. “0.4” is added to the parameter considered when the attribute information obtained is “female”.

このように、配信サーバ10は、特徴量の一致率を考慮した属性情報を算出することで、利用者の属性をより詳細に推定することができるので、クリック率をより適切に算出することができる。例えば、配信サーバ10は、70パーセントの確率で男性向けの広告画像を選択し、30パーセントの確率で女性向けの広告画像を選択するといった予測に基づいて、クリック率を算出することができる。   As described above, the distribution server 10 can estimate the attribute of the user in more detail by calculating the attribute information in consideration of the matching rate of the feature amount, so that the click rate can be calculated more appropriately. it can. For example, the distribution server 10 can calculate the click rate based on the prediction that the advertisement image for men is selected with a probability of 70% and the advertisement image for women is selected with a probability of 30%.

〔8−2.配信サーバ10が用いる学習用画像について〕
上述した例では、配信サーバ10は、学習用画像データベース14に登録された画像を用いて、抽象化された画像の特徴を学習器に学習させた。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10は、学習処理を行わず、外部のサーバ等によって任意の学習が行われた学習器を取得し、取得した学習器を用いて生成処理や配信処理を実行してもよい。また、配信サーバ10は、生成処理と配信処理とで異なる学習器を用いてもよい。例えば、配信サーバ10は、生成処理に最適化した学習器と配信処理に最適化した学習器とを利用してもよい。
[8-2. Regarding the learning image used by the distribution server 10]
In the example described above, the distribution server 10 causes the learner to learn the characteristics of the abstracted image using the image registered in the learning image database 14. However, the embodiment is not limited to this. For example, the distribution server 10 may acquire a learning device in which arbitrary learning has been performed by an external server or the like without performing learning processing, and execute generation processing and distribution processing using the acquired learning device. The distribution server 10 may use different learning devices for the generation process and the distribution process. For example, the distribution server 10 may use a learning device optimized for the generation process and a learning device optimized for the distribution process.

また、学習処理を行う場合は、学習器に学習させたい特徴がより現れた画像を入力することで、学習用画像の数や学習回数を削減でき、あるいは、精度良く特徴を学習させることができる。そこで、配信サーバ10は、広告データベース18に登録された広告画像を学習用画像として採用してもよい。   In addition, when learning processing is performed, the number of learning images and the number of learnings can be reduced or the features can be learned with high accuracy by inputting an image in which the features that the learner wants to learn appear. . Therefore, the distribution server 10 may employ an advertisement image registered in the advertisement database 18 as a learning image.

また、配信サーバ10は、所定の属性情報を有する利用者により選択された割合が所定の閾値よりも多い画像を学習用画像として採用し、学習器の学習を行ってもよい。例えば、配信サーバ10は、属性情報が「男性」である利用者により選択された割合が閾値「80パーセント」以上となる広告画像を学習用画像として採用してもよい。かかる処理を行うことで、配信サーバ10は、学習器に特徴を精度良く学習させることができるので、属性情報の予測精度を向上させることができる。   In addition, the distribution server 10 may perform learning of the learning device by adopting, as a learning image, an image in which a ratio selected by a user having predetermined attribute information is larger than a predetermined threshold. For example, the distribution server 10 may employ, as the learning image, an advertisement image in which the ratio selected by the user whose attribute information is “male” is equal to or greater than the threshold “80%”. By performing such processing, the distribution server 10 can cause the learning device to learn the features with high accuracy, and thus can improve the prediction accuracy of the attribute information.

また、配信サーバ10は、様々な広告画像の特徴量を精度良く算出するため、特徴がそれぞれ異なる画像を学習用画像として採用してもよい。   Further, the distribution server 10 may employ images having different features as learning images in order to accurately calculate the feature amounts of various advertisement images.

〔8−3.クリック率の算出〕
上述した例では、配信サーバ10は、特徴量から予測クリック率と属性情報とを推定し、推定した予測クリック率と属性情報とを用いて、各広告画像のクリック率を算出した。しかしながら、実施形態はこれに限定されるものではない。例えば、配信サーバ10は、予測クリック率の算出を行わず、特徴量から属性情報を推定し、推定した属性情報に基づいて、各広告画像のクリック率を算出してもよい。
[8-3. Click rate calculation)
In the example described above, the distribution server 10 estimates the predicted click rate and attribute information from the feature amount, and calculates the click rate of each advertisement image using the estimated predicted click rate and attribute information. However, the embodiment is not limited to this. For example, the distribution server 10 may estimate the attribute information from the feature amount without calculating the predicted click rate, and calculate the click rate of each advertisement image based on the estimated attribute information.

ここで、図8に示すように、コールドスタート状態においては、特徴量そのものを用いてクリック率を推定するよりも、属性情報を用いてクリック率を推定した方が、クリック率の推定精度を大幅に向上させることができる。このため、配信サーバ10は、予測クリック率を用いずとも、属性情報に基づいてクリック率を推定することで、クリック率の予測精度の悪化を防ぎつつ、配信処理に伴う計算資源を削減することができる。   Here, as shown in FIG. 8, in the cold start state, the estimation accuracy of the click rate is greatly increased by estimating the click rate using the attribute information, rather than estimating the click rate using the feature amount itself. Can be improved. For this reason, the distribution server 10 estimates the click rate based on the attribute information without using the predicted click rate, thereby reducing the calculation resources associated with the distribution process while preventing the prediction accuracy of the click rate from deteriorating. Can do.

また、配信サーバ10は、利用者が選択した広告画像の実績クリック率と、かかる広告画像の特徴量とを用いて、かかる広告画像の予測クリック率を算出してもよい。また、配信サーバ10は、各広告画像の実績クリック率と、推定された属性情報と、予測クリック率とに基づいて、各広告画像のクリック率を予測してもよい。   Further, the distribution server 10 may calculate the predicted click rate of the advertisement image using the actual click rate of the advertisement image selected by the user and the feature amount of the advertisement image. Further, the distribution server 10 may predict the click rate of each advertisement image based on the actual click rate of each advertisement image, the estimated attribute information, and the predicted click rate.

〔8−4.属性情報の推定に用いられる広告画像について〕
例えば、利用者は、ウェブページ等に配置される広告以外の画像と比較して、広告画像をより能動的に選択すると予測される。このため、配信サーバ10は、利用者が選択した広告画像の特徴量を用いてかかる利用者の属性情報を推定することで、かかる利用者の属性情報を精度良く推定した。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10は、利用者が選択した広告画像以外の画像の特徴量を用いて、利用者の属性情報を推定してもよい。また、配信サーバ10は、利用者が選択した広告画像の特徴量と、かかる利用者が選択した広告画像以外の画像の特徴量とを用いて、属性情報を推定してもよい。かかる場合、配信サーバ10は、広告画像の特徴量を優先する重みづけを行ってもよい。
[8-4. (Advertising image used for attribute information estimation)
For example, it is predicted that the user will more actively select the advertisement image as compared to an image other than an advertisement placed on a web page or the like. Therefore, the distribution server 10 estimates the attribute information of the user with high accuracy by estimating the attribute information of the user using the feature amount of the advertisement image selected by the user. However, the embodiment is not limited to this. For example, the distribution server 10 may estimate the attribute information of the user using the feature amount of the image other than the advertisement image selected by the user. Further, the distribution server 10 may estimate the attribute information using the feature amount of the advertisement image selected by the user and the feature amount of the image other than the advertisement image selected by the user. In such a case, the distribution server 10 may perform weighting that prioritizes the feature amount of the advertisement image.

〔8−5.動画像を用いた属性情報の推定について〕
また、配信サーバ10は、利用者が閲覧した動画像を用いて、かかる利用者の属性情報を推定してもよい。例えば、配信サーバ10は、利用者が再生中の動画一時停止させた場合や、カーソルを再生中の動画に合わせた場合等、利用者が興味を持ったと予測されるフレームの画像を利用者が選択した画像として取得する。そして、配信サーバ10は、取得した画像の特徴量から利用者の属性情報を推定してもよい。
[8-5. Estimation of attribute information using moving images)
Further, the distribution server 10 may estimate the attribute information of the user using a moving image browsed by the user. For example, when the user pauses the video being played back or when the user moves the cursor to the video being played, the distribution server 10 may display a frame image that the user is expected to be interested in. Acquire as the selected image. Then, the distribution server 10 may estimate the attribute information of the user from the acquired feature amount of the image.

例えば、図12は、実施形態にかかる配信サーバが動画像から選択された画像に基づいて属性情報を推定する処理の一例を示す図である。例えば、図12に示す例では、端末装置100は、動画像C20の再生を行うとともに、動画像C20の再生を制御する制御バーT10を表示する。また、制御バーT10には、広告が挿入されるタイミングT11、T12が表示されており、かかるタイミングT11、T12において、所定の広告動画が再生される。   For example, FIG. 12 is a diagram illustrating an example of a process in which the distribution server according to the embodiment estimates attribute information based on an image selected from a moving image. For example, in the example illustrated in FIG. 12, the terminal device 100 reproduces the moving image C20 and displays a control bar T10 that controls reproduction of the moving image C20. The control bar T10 displays advertisement insertion timings T11 and T12. At the timings T11 and T12, a predetermined advertisement moving image is reproduced.

ここで、端末装置100は、利用者の操作によりカーソルC21が動画像C20の再生を一時停止した場合は、一時停止時に表示されたフレームを選択された画像C22として配信サーバ10に送信する。かかる場合、配信サーバ10は、図12中(A)に示すように、画像C22の特徴量を算出し、算出した特徴量から利用者の属性情報を推定する。例えば、配信サーバ10は、画像C22の特徴量と予め生成したユーザー推定モデル17とを用いて、図12中(B)に示すように、利用者の属性情報「10代」、「男性」を推定する。   Here, when the cursor C21 pauses the reproduction of the moving image C20 by the user's operation, the terminal device 100 transmits the frame displayed at the time of the suspension to the distribution server 10 as the selected image C22. In such a case, the distribution server 10 calculates the feature amount of the image C22 and estimates the attribute information of the user from the calculated feature amount, as shown in FIG. For example, the distribution server 10 uses the feature quantity of the image C22 and the user estimation model 17 generated in advance, as shown in FIG. presume.

また、配信サーバ10は、推定した属性情報に基づいて、タイミングT11、T12で挿入される広告の切り替えを行う。例えば、図12中(C)に示す例では、タイミングT11で挿入される広告として、20代の女性に向けた広告Aが選択され、タイミングT12で挿入される広告として、30代の女性に向けた広告Bが選択されていた。しかしながら、推定される利用者の属性情報は「10代」、「男性」である。そこで、配信サーバ10は、図12中(D)に示すように、タイミングT11、T12で挿入される広告を推定された属性情報に基づいて切替える。   Further, the distribution server 10 switches advertisements inserted at the timings T11 and T12 based on the estimated attribute information. For example, in the example shown in FIG. 12C, the advertisement A for women in their 20s is selected as the advertisement inserted at timing T11, and the advertisement for women in their 30s is selected as the advertisement inserted at timing T12. Ad B was selected. However, the estimated user attribute information is “teens” and “male”. Therefore, the distribution server 10 switches the advertisement inserted at the timings T11 and T12 based on the estimated attribute information, as shown in (D) in FIG.

例えば、配信サーバ10は、図12中(E)に示すように、タイミングT11で挿入される広告として、10代の男性に向けた広告Cを新たに選択し、タイミングT12で挿入される広告として、10代の男性に向けた広告Dを新たに選択する。この結果、配信サーバ10は、利用者の属性情報が不明である場合にも、利用者が興味を有すると推定される広告を配信することができる。   For example, as shown in FIG. 12E, the distribution server 10 newly selects an advertisement C directed to a male teenager as an advertisement to be inserted at timing T11, and as an advertisement to be inserted at timing T12. A new advertisement D for teenagers is selected. As a result, the distribution server 10 can distribute an advertisement presumed that the user is interested even when the attribute information of the user is unknown.

なお、配信サーバ10は、動画像のうち、利用者が選択した画像が含まれる位置を考慮して、利用者の属性情報を推定してもよい。また、配信サーバ10は、利用者が複数の画像を選択した場合、各画像を選択した順序や、動画像において各画像が表示される時系列等を考慮して、利用者の属性情報を推定するユーザー推定モデル17を生成してもよい。   The distribution server 10 may estimate the attribute information of the user in consideration of the position where the image selected by the user is included among the moving images. In addition, when the user selects a plurality of images, the distribution server 10 estimates the attribute information of the user in consideration of the order in which the images are selected, the time series in which the images are displayed in the moving image, and the like. The user estimation model 17 to be generated may be generated.

〔8−6.複数の画像を用いた属性情報の推定について〕
上述した例では、配信サーバ10は、利用者が選択した画像の特徴量からかかる利用者の属性情報を推定した。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10は、利用者が選択した複数の画像の特徴量から利用者の属性情報を推定してもよい。
[8-6. Estimation of attribute information using multiple images)
In the example described above, the distribution server 10 estimates the user attribute information from the feature amount of the image selected by the user. However, the embodiment is not limited to this. For example, the distribution server 10 may estimate user attribute information from feature amounts of a plurality of images selected by the user.

具体例を説明すると、配信サーバ10は、利用者が選択した複数の広告画像の特徴量をそれぞれ算出し、ユーザー推定モデル17を用いて、算出した各特徴量から推定される利用者の属性情報をすべて特定する。そして、配信サーバ10は、特定した属性情報のうち共通する属性情報を利用者の属性情報としてもよい。   To explain a specific example, the distribution server 10 calculates the feature amounts of a plurality of advertisement images selected by the user, and uses the user estimation model 17 to estimate user attribute information estimated from the calculated feature amounts. Identify all. And the delivery server 10 is good also considering attribute information which is common among the specified attribute information as a user's attribute information.

また、配信サーバ10は、利用者が選択した複数の画像の並びに基づいて、利用者の属性情報を推定してもよい。例えば、配信サーバ10は、属性情報が取得可能な利用者が選択した複数の広告画像の特徴量と、各広告画像を選択した順序とに基づいて、選択された複数の画像と選択された順序とから利用者の属性情報を推定するユーザー推定モデル17を生成する。そして、配信サーバ10は、利用者が選択した広告画像の特徴量と、利用者が広告画像を選択した順序とから、ユーザー推定モデル17を用いて、かかる利用者の属性情報を推定してもよい。例えば、配信サーバ10は、属性情報が「男性」である利用者が選択画像C10を選択し、その後、選択画像C13を選択した場合、特徴量が選択画像C10の特徴量と類似する広告画像を選択し、その後、特徴量が選択画像C13の特徴量と類似する広告画像を選択した利用者の属性情報を「男性」であると推定してもよい。   Further, the distribution server 10 may estimate the user attribute information based on a sequence of a plurality of images selected by the user. For example, the distribution server 10 selects the plurality of selected images and the order of selection based on the feature amounts of the plurality of advertisement images selected by the user who can acquire the attribute information and the order of selecting the advertisement images. A user estimation model 17 for estimating user attribute information is generated from the above. Then, the distribution server 10 can estimate the attribute information of the user using the user estimation model 17 from the feature amount of the advertisement image selected by the user and the order in which the user selected the advertisement image. Good. For example, when the user whose attribute information is “male” selects the selection image C10 and then selects the selection image C13, the distribution server 10 selects an advertisement image whose feature amount is similar to the feature amount of the selection image C10. After the selection, the attribute information of the user who selected the advertisement image whose feature amount is similar to the feature amount of the selected image C13 may be estimated as “male”.

〔8−7.推定方法の入替について〕
また、配信サーバ10は、取得済みの属性情報が所定の閾値よりも少ない利用者の属性情報を推定してもよい。例えば、図13は、推定方法の入替を説明する図である。図13には、広告画像の選択があったセッションを抽出し、抽出したセッションにおいて選択を行ったのが男性であるか女性であるかを教師ラベルとし、ロジスティック回帰で広告画像から選択した利用者の性別を推定した際のAUCと重複率との対応を、Baselineを用いた推定手法とCNNを用いた推定手法とについてプロットした。
[8-7. (Replacement of estimation method)
Further, the distribution server 10 may estimate user attribute information whose acquired attribute information is less than a predetermined threshold. For example, FIG. 13 is a diagram illustrating replacement of the estimation method. In FIG. 13, a session in which an advertisement image is selected is extracted, and a user selected from the advertisement image by logistic regression is selected as a teacher label based on whether the selected session is male or female. The correspondence between the AUC and the duplication rate when estimating the gender was plotted for the estimation method using Baseline and the estimation method using CNN.

例えば、図13に示すように、Baselineを用いた推定手法では、利用者のログが多くなるにつれて精度が向上する。一方で、CNNを用いた推定手法では、利用者のログが少ない場合にBaselineを用いた推定手法よりも精度良く推定を行える。   For example, as shown in FIG. 13, in the estimation method using Baseline, accuracy increases as the number of user logs increases. On the other hand, the estimation method using CNN can perform estimation with higher accuracy than the estimation method using Baseline when the number of user logs is small.

そこで、配信サーバ10は、広告画像を選択した利用者について取得済みの属性情報が所定の閾値よりも少ない場合は、かかる利用者の属性情報を、かかる利用者が選択した広告画像の特徴量から推定し、広告画像を選択した利用者について取得済みの属性情報が所定の閾値よりも多い場合は、ID素性等、利用者が選択した画像の特徴量以外の情報を用いて、かかる利用者の属性情報を推定してもよい。このような処理を実行することで、配信サーバ10は、コールドスタート状態以外の場合にも、利用者の属性情報を精度良く推定することができる。   Therefore, when the attribute information acquired for the user who selected the advertisement image is less than the predetermined threshold, the distribution server 10 obtains the attribute information of the user from the feature amount of the advertisement image selected by the user. If the attribute information already acquired for the user who selected the advertisement image is greater than the predetermined threshold, information other than the feature amount of the image selected by the user, such as ID identity, is used. Attribute information may be estimated. By executing such processing, the distribution server 10 can accurately estimate the attribute information of the user even in a case other than the cold start state.

〔8−8.モデルについて〕
なお、配信サーバ10は、生成処理の実行時に、上述した各種処理を実現するモデルを生成してよい。例えば、配信サーバ10は、利用者が選択した複数の広告画像の特徴量に応じて、かかる利用者の属性情報を推定するユーザー推定モデル17を生成してもよい。例えば、配信サーバ10は、利用者が選択した複数の広告画像の特徴量をそれぞれ入力とし、かかる特徴量から推定される利用者の属性情報を出力とする関数形式のユーザー推定モデル17を生成してもよい。
[8-8. About the model)
The distribution server 10 may generate a model that implements the various processes described above when executing the generation process. For example, the distribution server 10 may generate the user estimation model 17 that estimates the user attribute information according to the feature amounts of a plurality of advertisement images selected by the user. For example, the distribution server 10 receives the feature quantities of a plurality of advertisement images selected by the user, and generates a function-type user estimation model 17 that outputs user attribute information estimated from the feature quantities. May be.

また、配信サーバ10は、広告画像の特徴量から、属性情報と予測クリック率とを推定し、推定した属性情報と予測クリック率とを用いて、各広告画像が選択されるクリック率を算出するユーザー推定モデル17を生成してもよい。また、配信サーバ10は、広告画像を選択した利用者について取得済みの属性情報が所定の閾値よりも少ない場合は、かかる利用者の属性情報を、かかる利用者が選択した広告画像の特徴量から推定し、広告画像を選択した利用者について取得済みの属性情報が所定の閾値よりも多い場合は、ID素性等、利用者が選択した画像の特徴量以外の情報を用いて、かかる利用者の属性情報を推定するユーザー推定モデル17を生成してもよい。すなわち、配信サーバ10は、利用者が選択した広告画像の特徴量から、配信処理における任意の一部もしくは全てを実現するモデルを生成して良い。   Further, the distribution server 10 estimates the attribute information and the predicted click rate from the feature amount of the advertisement image, and calculates the click rate at which each advertisement image is selected using the estimated attribute information and the predicted click rate. A user estimation model 17 may be generated. Further, when the attribute information acquired for the user who selected the advertisement image is less than a predetermined threshold, the distribution server 10 obtains the attribute information of the user from the feature amount of the advertisement image selected by the user. If the attribute information already acquired for the user who selected the advertisement image is greater than the predetermined threshold, information other than the feature amount of the image selected by the user, such as ID identity, is used. A user estimation model 17 that estimates attribute information may be generated. That is, the distribution server 10 may generate a model that realizes any part or all of the distribution processing from the feature amount of the advertisement image selected by the user.

〔8−9.属性情報推定後の処理について〕
上述した配信サーバ10は、推定した属性情報を用いて、広告画像の配信を行った。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10は、推定した属性情報を用いて、各種情報のリコメンドや、配信対象となるコンテンツの切り替え等を行ってもよい。また、配信サーバ10は、ユーザー推定モデル17を用いて推定された属性情報と、あらかじめ登録された利用者の属性情報とを比較することで、利用者の素性を推定してもよい。また、配信サーバ10は、推定した利用者の素性に基づいて、消去されたBクッキー等のコネクションを復活させてもよい。すなわち、配信サーバ10は、ユーザー推定モデル17を用いて推定された利用者の属性情報に基づいて、任意の処理を実現することができる。
[8-9. (Processing after attribute information estimation)
The distribution server 10 described above distributed the advertisement image using the estimated attribute information. However, the embodiment is not limited to this. For example, the distribution server 10 may recommend various types of information, switch content to be distributed, and the like using the estimated attribute information. Further, the distribution server 10 may estimate the user's identity by comparing the attribute information estimated using the user estimation model 17 and the attribute information of the user registered in advance. Further, the distribution server 10 may restore the connection such as the deleted B cookie based on the estimated user identity. That is, the distribution server 10 can realize arbitrary processing based on the user attribute information estimated using the user estimation model 17.

〔8−10.属性情報推定のタイミングについて〕
また、配信サーバ10は、利用者の属性情報等のログが十分に溜まるまで、かかる利用者が選択した画像の特徴量から属性情報を随時推定してもよい。また、配信サーバ10は、推定された属性情報の遍歴に基づいて、推定される属性情報を随時更新してもよい。また、配信サーバ10は、かかる処理を実現するユーザー推定モデル17を生成してもよい。
[8-10. Timing of attribute information estimation)
Further, the distribution server 10 may estimate the attribute information from the feature amount of the image selected by the user at any time until the log of the user attribute information or the like is sufficiently accumulated. Further, the distribution server 10 may update the estimated attribute information as needed based on the estimated history of attribute information. Further, the distribution server 10 may generate a user estimation model 17 that realizes such processing.

〔8−11.動作主体について〕
上述した実施形態では、配信サーバ10が学習処理、生成処理、配信処理を実行する例について記載した。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10が実行する処理は、学習処理を実行する学習装置と、生成処理を行うモデル生成装置と、モデル生成装置が生成したユーザー推定モデル17を用いて利用者の属性情報を推定し、推定した属性情報を用いて広告画像を配信する配信装置とによって実現されてもよい。
[8-11. About the operation subject)
In the above-described embodiment, an example in which the distribution server 10 executes the learning process, the generation process, and the distribution process has been described. However, the embodiment is not limited to this. For example, the process executed by the distribution server 10 estimates the attribute information of the user using the learning device that executes the learning process, the model generation device that performs the generation process, and the user estimation model 17 generated by the model generation device. It may be realized by a distribution device that distributes an advertisement image using the estimated attribute information.

〔8−12.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8-12. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   In addition, the above-described embodiments can be appropriately combined within a range in which processing contents are not contradictory.

〔8−13.プログラム〕
また、上記してきた実施形態に係る配信サーバ10は、例えば図14に示すような構成のコンピュータ1000によって実現される。以下、配信サーバ10を例に挙げて説明する。図14は、配信サーバの機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
[8-13. program〕
Further, the distribution server 10 according to the embodiment described above is realized by a computer 1000 having a configuration as shown in FIG. 14, for example. Hereinafter, the distribution server 10 will be described as an example. FIG. 14 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the distribution server. The computer 1000 includes a CPU 1100, RAM 1200, ROM 1300, HDD 1400, communication interface (I / F) 1500, input / output interface (I / F) 1600, and media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、および、係るプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100 and data used by the programs. The communication interface 1500 receives data from other devices via the network N, sends the data to the CPU 1100, and transmits the data generated by the CPU 1100 to the other devices.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. In addition, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、係るプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る配信サーバ10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部13の機能を実現する。また、HDD1400には、記憶部12内のデータ、すなわち学習用画像データベース14、接続係数記憶部15、モデル生成用画像データベース16、ユーザー推定モデル17、広告データベース18が格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the distribution server 10 according to the embodiment, the CPU 1100 of the computer 1000 implements the function of the control unit 13 by executing a program loaded on the RAM 1200. The HDD 1400 stores data in the storage unit 12, that is, the learning image database 14, the connection coefficient storage unit 15, the model generation image database 16, the user estimation model 17, and the advertisement database 18. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them. However, as another example, these programs may be acquired from other devices.

〔9.効果〕
上述したように、配信サーバ10は、画像から特徴量を算出する学習器を用いて、利用者により選択された履歴を有する画像の特徴量を算出する。そして、配信サーバ10は、算出した特徴量と、画像を選択した利用者の属性を示す属性情報とに基づいて、画像の特徴量からかかる画像を選択した利用者の属性情報を推定するユーザー推定モデル17を生成する。
[9. effect〕
As described above, the distribution server 10 calculates the feature amount of the image having the history selected by the user using the learning device that calculates the feature amount from the image. Then, the distribution server 10 estimates the attribute information of the user who selected the image from the image feature amount based on the calculated feature amount and the attribute information indicating the attribute of the user who selected the image. A model 17 is generated.

このため、配信サーバ10は、利用者の属性情報を推定することができる。特に、配信サーバ10は、コールドスタート状態等、広告の配信先となる利用者の属性情報が不明な場合にも、かかる利用者の属性情報を精度良く推定できるので、クリック率の推定精度を向上させ、配信対象となる広告を適切に選択できる。   For this reason, the delivery server 10 can estimate user attribute information. In particular, the distribution server 10 can accurately estimate the attribute information of the user even when the attribute information of the user to whom the advertisement is distributed is unknown, such as in a cold start state, so that the accuracy of estimating the click rate is improved. The advertisement to be distributed can be appropriately selected.

ここで、各利用者が選択した画像の特徴量を算出し、算出した特徴量を比較することで、利用者の属性情報を推定する手法も考えられるが、かかる処理を実行する場合は、大量のセッションログを参照する必要があるため、計算コストが増大する。しかしながら、配信サーバ10は、ユーザー推定モデル17を生成することで、属性情報を推定する利用者が選択した画像の特徴量を算出するだけでよいので、属性情報の推定に要する計算コストを削減することができる。   Here, a method for estimating the attribute information of the user by calculating the feature amount of the image selected by each user and comparing the calculated feature amount is also conceivable. Since it is necessary to refer to the session log, the calculation cost increases. However, since the distribution server 10 only has to calculate the feature amount of the image selected by the user who estimates the attribute information by generating the user estimation model 17, the calculation cost required for the estimation of the attribute information is reduced. be able to.

また、配信サーバ10は、学習器として、入力データに対する演算結果を出力する複数のノードを多層に接続した学習器であって、教師なし学習により抽象化された画像の特徴を学習した学習器を用いる。このため、配信サーバ10は、利用者の属性情報を精度良く推定することができる。   In addition, the distribution server 10 is a learning device in which a plurality of nodes that output calculation results for input data are connected in multiple layers as a learning device, and learning devices that have learned image features abstracted by unsupervised learning. Use. For this reason, the distribution server 10 can estimate the user's attribute information with high accuracy.

また、配信サーバ10は、学習器として、局所領域の畳み込みとプーリングを繰り返すことで、画像の変異に対する出力の普遍性をさらに学習した学習器、いわゆるCNNを用いる。このため、配信サーバ10は、画像における撮像対象の位置によらず、撮像対象の区別に応じた特徴量を算出できるので、利用者の属性情報をさらに精度良く推定することができる。   Further, the distribution server 10 uses a learning device, that is, a so-called CNN that further learns the universality of output with respect to image variations by repeating convolution and pooling of local regions. For this reason, since the distribution server 10 can calculate the feature amount according to the distinction of the imaging target regardless of the position of the imaging target in the image, it is possible to estimate the attribute information of the user with higher accuracy.

また、配信サーバ10は、学習器として、所定の属性を有する利用者により選択された割合が、所定の閾値よりも多い画像を用いて、抽象化された画像の特徴を学習した学習器を用いる。この結果、配信サーバ10は、抽象化された画像の特徴を精度良く抽出できる学習器を用いて、選択された画像の特徴量を算出するので、利用者の属性情報をさらに精度良く推定することができる。   Further, the distribution server 10 uses, as a learning device, a learning device that learns the characteristics of an abstracted image using an image in which the ratio selected by a user having a predetermined attribute is greater than a predetermined threshold value. . As a result, since the distribution server 10 calculates the feature amount of the selected image using a learning device that can accurately extract the feature of the abstracted image, it can estimate the attribute information of the user with higher accuracy. Can do.

また、配信サーバ10は、ユーザー推定モデル17として、画像を選択した利用者の属性情報を画像の特徴量から推定し、推定された属性情報を用いて、利用者が他の画像を選択するクリック率を算出するモデルを生成する。このため、配信サーバ10は、コールドスタート状態においても、クリック率を精度良く推定することができる。   Further, the distribution server 10 estimates the attribute information of the user who has selected the image as the user estimation model 17 from the feature amount of the image, and the user selects another image using the estimated attribute information. Generate a model to calculate the rate. For this reason, the distribution server 10 can estimate the click rate with high accuracy even in the cold start state.

また、配信サーバ10は、ユーザー推定モデル17として、画像を選択した利用者の属性情報と利用者が画像を選択する予測クリック率とを画像の特徴量から推定し、推定された属性情報と予測クリック率とを用いて、かかる利用者が他の画像を選択するクリック率を算出するモデルを生成する。このため、配信サーバ10は、コールドスタート状態においても、クリック率をさらに精度良く推定することができる。   Further, the distribution server 10 estimates the attribute information of the user who has selected the image and the predicted click rate at which the user selects the image as the user estimation model 17 from the feature amount of the image. Using the click rate, a model for calculating a click rate for the user to select another image is generated. For this reason, the distribution server 10 can estimate the click rate with higher accuracy even in the cold start state.

また、配信サーバ10は、ユーザー推定モデル17として、動画像を選択した利用者の属性情報を、動画像に含まれる画像のうち、利用者が選択した際に表示されていた画像の特徴量から推定するモデルを生成する。このため、配信サーバ10は、動画像を閲覧する利用者の属性情報を推定することができる。   In addition, the distribution server 10 uses, as the user estimation model 17, the attribute information of the user who has selected the moving image from the feature amount of the image displayed when the user selects the image included in the moving image. Generate a model to estimate. For this reason, the distribution server 10 can estimate the attribute information of the user who browses the moving image.

また、配信サーバ10は、ユーザー推定モデル17として、利用者が選択した複数の画像の特徴量からかかる利用者の属性情報を推定するモデルを生成する。このため、配信サーバ10は、利用者の属性情報をさらに精度良く推定することができる。   Further, the distribution server 10 generates, as the user estimation model 17, a model that estimates the user attribute information from the feature amounts of a plurality of images selected by the user. For this reason, the distribution server 10 can estimate the user's attribute information with higher accuracy.

また、配信サーバ10は、ユーザー推定モデル17として、利用者が選択した複数の画像の特徴量と、利用者が各画像を選択した順序とから、かかる利用者の属性情報を推定するモデルを生成する。このため、配信サーバ10は、利用者の属性情報をさらに精度良く推定することができる。   Further, the distribution server 10 generates, as the user estimation model 17, a model for estimating the user attribute information from the feature amounts of a plurality of images selected by the user and the order in which the user selects each image. To do. For this reason, the distribution server 10 can estimate the user's attribute information with higher accuracy.

また、配信サーバ10は、ユーザー推定モデル17として、広告画像の特徴量からかかる広告画像を選択した利用者の属性情報を推定するモデルを生成する。すなわち、配信サーバ10は、利用者が能動的に選択した画像の特徴量からかかる利用者の属性情報を推定するので、利用者の属性情報をより精度良く推定することができる。   Further, the distribution server 10 generates a model that estimates the attribute information of the user who selected the advertisement image from the feature amount of the advertisement image as the user estimation model 17. That is, since the distribution server 10 estimates the attribute information of the user from the feature amount of the image actively selected by the user, the attribute information of the user can be estimated with higher accuracy.

また、配信サーバ10は、ユーザー推定モデル17として、取得済みの属性情報が所定の閾値よりも少ない利用者の属性情報を、かかる利用者が選択した画像の特徴量から推定するモデルを生成する。このため、配信サーバ10は、コールドスタート状態以外の場合にも、利用者の属性情報を精度良く推定することができる。   In addition, the distribution server 10 generates, as the user estimation model 17, a model that estimates the attribute information of the user whose acquired attribute information is less than a predetermined threshold from the feature amount of the image selected by the user. For this reason, the distribution server 10 can estimate the attribute information of the user with high accuracy even in a case other than the cold start state.

また、配信サーバ10は、生成したユーザー推定モデル17を用いて、利用者が選択した画像の特徴量から、かかる利用者の属性情報を推定し、推定した属性情報を用いて、配信対象となる画像のクリック率を算出し、算出したクリック率に基づいて、配信する画像を選択する。このため、配信サーバ10は、コールドスタート状態においても、利用者が興味を有すると推定される画像を選択できるので、画像配信に対する報酬を増加させることができる。   Further, the distribution server 10 estimates the user attribute information from the feature amount of the image selected by the user using the generated user estimation model 17, and becomes a distribution target using the estimated attribute information. An image click rate is calculated, and an image to be distributed is selected based on the calculated click rate. For this reason, since the delivery server 10 can select an image that is estimated to be of interest to the user even in the cold start state, the reward for image delivery can be increased.

また、配信サーバ10は、画像を選択した利用者がかかる画像を選択する予測クリック率をかかる画像の特徴量を用いて推定し、推定された属性情報と予測クリック率とを用いて、かかる利用者が他の画像を選択するクリック率を算出する。このため、配信サーバ10は、コールドスタート状態においても、利用者が興味を有すると推定される画像を選択できるので、画像配信に対する報酬を増加させることができる。   In addition, the distribution server 10 estimates a predicted click rate at which the user who has selected the image selects the image using the feature amount of the image, and uses the estimated attribute information and the predicted click rate. The click rate at which the person selects another image is calculated. For this reason, since the delivery server 10 can select an image that is estimated to be of interest to the user even in the cold start state, the reward for image delivery can be increased.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部20は、生成手段や生成回路に読み替えることができる。   Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the generation unit 20 can be read as generation means or a generation circuit.

10 配信サーバ
11 通信部
12 記憶部
13 制御部
14 学習用画像データベース
15 接続係数記憶部
16 モデル生成用画像データベース
17 ユーザー推定モデル
18 広告データベース
19 学習部
20 生成部
21 特徴量算出部
22 ユーザー情報取得部
23 モデル生成部
30 配信部
31 選択画像取得部
32 ユーザー情報推定部
33 クリック率算出部
34 広告選択部
100 端末装置
200 ウェブサーバ
DESCRIPTION OF SYMBOLS 10 Distribution server 11 Communication part 12 Storage part 13 Control part 14 Learning image database 15 Connection coefficient memory | storage part 16 Model production | generation image database 17 User estimation model 18 Advertising database 19 Learning part 20 Generation part 21 Feature-value calculation part 22 User information acquisition Unit 23 model generation unit 30 distribution unit 31 selected image acquisition unit 32 user information estimation unit 33 click rate calculation unit 34 advertisement selection unit 100 terminal device 200 web server

Claims (17)

画像から当該画像の特徴を示す特徴量を算出する学習器を用いて、利用者により選択された履歴を有する画像の特徴量を算出する算出部と、
前記算出部が算出した特徴量と、前記利用者の属性を示す属性情報とに基づいて、画像の特徴量から当該画像を選択した利用者の属性情報を推定するモデルを生成する生成部と
を有することを特徴とするモデル生成装置。
A calculation unit that calculates a feature amount of an image having a history selected by the user using a learning device that calculates a feature amount indicating the feature of the image from the image;
A generating unit that generates a model for estimating the attribute information of the user who selected the image from the feature amount of the image based on the feature amount calculated by the calculating unit and the attribute information indicating the attribute of the user; A model generation apparatus characterized by comprising:
前記算出部は、前記学習器として、入力データに対する演算結果を出力する複数のノードを多層に接続した学習器であって、教師なし学習により抽象化された前記画像の特徴を学習した学習器を用いることを特徴とする請求項1に記載のモデル生成装置。   The calculation unit is a learning device in which a plurality of nodes that output calculation results for input data are connected in multiple layers as the learning device, the learning device learning the features of the image abstracted by unsupervised learning. The model generation apparatus according to claim 1, wherein the model generation apparatus is used. 前記算出部は、前記学習器として、局所領域の畳み込みとプーリングを繰り返すことで、画像の変異に対する出力の普遍性をさらに学習した学習器を用いることを特徴とする請求項2に記載のモデル生成装置。   3. The model generation according to claim 2, wherein the calculation unit uses, as the learning device, a learning device that further learns the universality of output with respect to image variation by repeating convolution and pooling of a local region. apparatus. 前記算出部は、前記学習器として、所定の属性を有する利用者により選択された割合が、所定の閾値よりも多い画像を用いて、抽象化された前記画像の特徴を学習した学習器を用いることを特徴とする請求項2または3に記載のモデル生成装置。   The calculation unit uses, as the learning device, a learning device that learns the features of the abstracted image using an image in which a ratio selected by a user having a predetermined attribute is greater than a predetermined threshold value. The model generation device according to claim 2 or 3, wherein 前記生成部は、前記モデルとして、前記画像を選択した利用者の属性情報を当該画像の特徴量から推定し、当該推定された属性情報を用いて、当該利用者が他の画像を選択する確率を算出するモデルを生成することを特徴とする請求項1〜4のうちいずれか1つに記載のモデル生成装置。   The generation unit estimates the attribute information of the user who has selected the image as the model from the feature amount of the image, and the probability that the user selects another image using the estimated attribute information The model generation apparatus according to claim 1, wherein a model for calculating the model is generated. 前記生成部は、前記モデルとして、前記画像を選択した利用者の属性情報と当該利用者が当該画像を選択する確率とを当該画像の特徴量から推定し、推定された属性情報と確率とを用いて、当該利用者が他の画像を選択する確率を算出するモデルを生成することを特徴とする請求項1〜5のうちいずれか1つに記載のモデル生成装置。   The generation unit estimates, as the model, attribute information of a user who has selected the image and a probability that the user will select the image from a feature amount of the image, and the estimated attribute information and the probability. The model generation apparatus according to claim 1, wherein the model generation apparatus generates a model for calculating a probability that the user selects another image. 前記生成部は、前記モデルとして、動画像を選択した利用者の属性情報を、当該動画像に含まれる画像のうち、当該利用者が選択した際に表示されていた画像の特徴量から推定するモデルを生成することを特徴とする請求項1〜6のうちいずれか1つに記載のモデル生成装置。   The generation unit estimates the attribute information of the user who has selected the moving image as the model from the feature amount of the image displayed when the user selects the image included in the moving image. The model generation apparatus according to claim 1, wherein the model generation apparatus generates a model. 前記生成部は、前記モデルとして、利用者が選択した複数の画像の特徴量から当該複数の画像を選択した利用者の属性情報を推定するモデルを生成することを特徴とする請求項1〜7のうちいずれか1つに記載のモデル生成装置。   The said generation part produces | generates the model which estimates the attribute information of the user who selected the said several image from the feature-value of the several image which the user selected as the said model. The model production | generation apparatus as described in any one. 前記生成部は、前記モデルとして、利用者が選択した複数の画像の特徴量と、利用者が各画像を選択した順序とから、当該複数の画像を選択した利用者の属性情報を推定するモデルを生成することを特徴とする請求項1〜8のうちいずれか1つに記載のモデル生成装置。   The generation unit estimates the attribute information of the user who has selected the plurality of images from the feature amounts of the plurality of images selected by the user and the order in which the user has selected each image as the model. The model generation device according to any one of claims 1 to 8, wherein 前記生成部は、前記モデルとして、広告に係る画像の特徴量から当該広告に係る画像を選択した利用者の属性情報を推定するモデルを生成することを特徴とする請求項1〜9のうちいずれか1つに記載のモデル生成装置。   The said generation part produces | generates the model which estimates the attribute information of the user who selected the image which concerns on the said advertisement from the feature-value of the image which concerns on the said model as any one of Claims 1-9 characterized by the above-mentioned. The model generation apparatus as described in any one. 前記生成部は、前記モデルとして、取得済みの属性情報が所定の閾値よりも少ない利用者の属性情報を、当該利用者が選択した画像の特徴量から推定するモデルを生成することを特徴とする請求項1〜10のうちいずれか1つに記載のモデル生成装置。   The generating unit generates, as the model, a model that estimates user attribute information whose acquired attribute information is less than a predetermined threshold from a feature amount of an image selected by the user. The model production | generation apparatus as described in any one of Claims 1-10. 画像から当該画像の特徴を示す特徴量を算出する学習器を用いて利用者により選択された履歴を有する画像から算出された特徴量と、当該利用者の属性を示す属性情報とに基づいて作成されたモデルを用いて、画像の特徴量から当該画像を選択した利用者の属性情報を推定する推定部と
前記推定部が推定した属性情報を用いて、配信対象となる画像を前記利用者が選択する確率を算出する算出部と、
前記算出部が算出した確率に基づいて、前記利用者に配信する画像を選択する選択部と
を有することを特徴とする情報配信装置。
Created based on feature quantities calculated from an image having a history selected by the user using a learning device that calculates feature quantities indicating the features of the image from the image, and attribute information indicating the attributes of the user The estimation unit that estimates the attribute information of the user who selected the image from the feature amount of the image using the model and the attribute information estimated by the estimation unit, and the user selects the image to be distributed. A calculation unit for calculating a probability of selection;
An information distribution apparatus comprising: a selection unit that selects an image to be distributed to the user based on the probability calculated by the calculation unit.
前記算出部は、前記画像を選択した利用者が当該画像を選択する確率を当該画像の特徴量を用いて推定し、推定された属性情報と確率とを用いて、当該利用者が他の画像を選択する確率を算出することを特徴とする請求項12に記載の情報配信装置。   The calculation unit estimates the probability that the user who has selected the image selects the image using the feature amount of the image, and uses the estimated attribute information and the probability, the user can select another image. The information distribution apparatus according to claim 12, wherein a probability of selecting is calculated. モデル生成装置が実行するモデル生成方法であって、
画像から当該画像の特徴を示す特徴量を算出する学習器を用いて、利用者により選択された履歴を有する画像の特徴量を算出する算出工程と、
前記算出工程で算出した特徴量と、前記利用者の属性を示す属性情報とに基づいて、画像の特徴量から当該画像を選択した利用者の属性情報を推定するモデルを生成する生成工程と
を含むことを特徴とするモデル生成方法。
A model generation method executed by a model generation device,
A calculation step of calculating a feature amount of an image having a history selected by a user using a learning device that calculates a feature amount indicating the feature of the image from the image;
A generating step of generating a model for estimating the attribute information of the user who selected the image from the feature amount of the image based on the feature amount calculated in the calculating step and the attribute information indicating the attribute of the user; A model generation method characterized by including.
情報配信装置が実行する情報配信方法であって、
画像から当該画像の特徴を示す特徴量を算出する学習器を用いて利用者により選択された履歴を有する画像から算出された特徴量と、当該利用者の属性を示す属性情報とに基づいて作成されたモデルを用いて、画像の特徴量から当該画像を選択した利用者の属性情報を推定する推定工程と、
前記推定工程で推定した属性情報を用いて、配信対象となる画像を前記利用者が選択する確率を算出する算出工程と、
前記算出工程で算出した確率に基づいて、前記利用者に配信する画像を選択する選択工程と
を含むことを特徴とする情報配信方法。
An information distribution method executed by the information distribution apparatus,
Created based on the feature amount calculated from the image having a history selected by the user using a learning device that calculates the feature amount indicating the feature of the image from the image, and attribute information indicating the attribute of the user An estimation step of estimating attribute information of a user who has selected the image from the feature amount of the image using the model that has been performed;
A calculation step of calculating a probability that the user selects an image to be distributed using the attribute information estimated in the estimation step;
A selection step of selecting an image to be distributed to the user based on the probability calculated in the calculation step.
コンピュータに
画像から当該画像の特徴を示す特徴量を算出する学習器を用いて、利用者により選択された履歴を有する画像の特徴量を算出する算出手順と、
前記算出手順で算出した特徴量と、前記利用者の属性を示す属性情報とに基づいて、画像の特徴量から当該画像を選択した利用者の属性情報を推定するモデルを生成する生成手順と
を実行させることを特徴とするモデル生成プログラム。
A calculation procedure for calculating a feature amount of an image having a history selected by a user using a learning device that calculates a feature amount indicating the feature of the image from an image on a computer;
A generation procedure for generating a model for estimating the attribute information of the user who selected the image from the feature amount of the image based on the feature amount calculated in the calculation procedure and the attribute information indicating the attribute of the user. A model generation program characterized by being executed.
コンピュータに、
画像から当該画像の特徴を示す特徴量を算出する学習器を用いて利用者により選択された履歴を有する画像から算出された特徴量と、当該利用者の属性を示す属性情報とに基づいて作成されたモデルを用いて、画像の特徴量から当該画像を選択した利用者の属性情報を推定する推定手順と、
前記推定手順で推定した属性情報を用いて、配信対象となる画像を前記利用者が選択する確率を算出する算出手順と、
前記算出手順で算出した確率に基づいて、前記利用者に配信する画像を選択する選択手順と
を実行させることを特徴とする情報配信プログラム。
On the computer,
Created based on feature quantities calculated from an image having a history selected by the user using a learning device that calculates feature quantities indicating the features of the image from the image, and attribute information indicating the attributes of the user An estimation procedure for estimating the attribute information of the user who selected the image from the feature amount of the image using
A calculation procedure for calculating a probability that the user selects an image to be distributed using the attribute information estimated in the estimation procedure;
A selection procedure for selecting an image to be distributed to the user based on the probability calculated in the calculation procedure.
JP2014257902A 2014-12-19 2014-12-19 Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program Active JP6309887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014257902A JP6309887B2 (en) 2014-12-19 2014-12-19 Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014257902A JP6309887B2 (en) 2014-12-19 2014-12-19 Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018048633A Division JP6501939B2 (en) 2018-03-15 2018-03-15 Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method

Publications (2)

Publication Number Publication Date
JP2016118918A JP2016118918A (en) 2016-06-30
JP6309887B2 true JP6309887B2 (en) 2018-04-11

Family

ID=56244301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014257902A Active JP6309887B2 (en) 2014-12-19 2014-12-19 Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program

Country Status (1)

Country Link
JP (1) JP6309887B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018061440A (en) * 2016-10-11 2018-04-19 憲隆 福永 Fertilization determination system
JP6924571B2 (en) 2016-11-11 2021-08-25 ヤフー株式会社 Information processing equipment, information processing methods, and information processing programs
JP6216024B1 (en) * 2016-11-15 2017-10-18 株式会社Preferred Networks Trained model generation method and signal data discrimination device
JP6725405B2 (en) * 2016-11-30 2020-07-15 ヤフー株式会社 Information processing system, information processing apparatus, and information processing method
KR101834791B1 (en) 2016-12-05 2018-03-07 대한민국 A Method For Providing Information Of Classifying Metal Type Printing And Woodblock Printing Using Convolutional Neural Network(CNN)
JP2018120527A (en) * 2017-01-27 2018-08-02 株式会社リコー Image processing apparatus, image processing method, and image processing system
JP6956564B2 (en) * 2017-08-25 2021-11-02 ヤフー株式会社 Information processing equipment, information processing methods, and programs
KR101934443B1 (en) 2017-09-20 2019-01-02 대한민국 A Method For Providing Information Of Classifying Metal Type Printing And Woodblock Printing Using Convolutional Neural Network(CNN) And Image Extraction
JP7047911B2 (en) * 2018-07-12 2022-04-05 日本電気株式会社 Information processing system, information processing method and storage medium
JP7099947B2 (en) * 2018-12-20 2022-07-12 Tvs Regza株式会社 Transmission / reception system and transmission / reception method
JP7038650B2 (en) * 2018-12-20 2022-03-18 Tvs Regza株式会社 Transmission device and transmission method
CN113327131A (en) * 2021-06-03 2021-08-31 太原理工大学 Click rate estimation model for feature interactive selection based on three-branch decision theory
KR102592596B1 (en) * 2023-07-12 2023-10-23 주식회사 패션에이드 System and method for generating human model automatically based on artificial intelligence

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130346182A1 (en) * 2012-06-20 2013-12-26 Yahoo! Inc. Multimedia features for click prediction of new advertisements

Also Published As

Publication number Publication date
JP2016118918A (en) 2016-06-30

Similar Documents

Publication Publication Date Title
JP6309887B2 (en) Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program
JP6501939B2 (en) Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method
CN110297848B (en) Recommendation model training method, terminal and storage medium based on federal learning
JP6790159B2 (en) Calculation device, calculation method and calculation program
US10789610B2 (en) Utilizing a machine learning model to predict performance and generate improved digital design assets
CN111105819B (en) Clipping template recommendation method and device, electronic equipment and storage medium
JP6523498B1 (en) Learning device, learning method and learning program
US9256826B2 (en) Predicting reactions to short-text posts
US8566261B2 (en) Interactive recommendations
WO2017157149A1 (en) Social network-based recommendation method and apparatus, server and storage medium
WO2016037278A1 (en) Systems and methods for continuous analysis and procurement of advertisement campaigns
JP2019527395A (en) Optimizing dynamic creatives to deliver content effectively
US20190294259A1 (en) Sticker recommendation method and apparatus
JP6101577B2 (en) Advertisement generation apparatus, advertisement generation method, and advertisement generation program
JP6367743B2 (en) Information processing apparatus, information processing program, and information processing method
US10839313B2 (en) Identity prediction for unknown users of an online system
US20170186044A1 (en) System and method for profiling a user based on visual content
CN110209931B (en) Media content pushing method and device, storage medium and electronic device
US20150310529A1 (en) Web-behavior-augmented recommendations
US20170132490A1 (en) Content Update Suggestions
US20140074859A1 (en) System and method for rating audiences of network-based content of multiple content publishers
JP2016006593A (en) Extraction device, extraction method, and extraction program
WO2021081914A1 (en) Pushing object determination method and apparatus, terminal device and storage medium
US10692127B1 (en) Inferring user demographics from user behavior using Bayesian inference
JP6679415B2 (en) Selection device, selection method, and selection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180315

R150 Certificate of patent or registration of utility model

Ref document number: 6309887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250