JP6501939B2 - Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method - Google Patents

Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method Download PDF

Info

Publication number
JP6501939B2
JP6501939B2 JP2018048633A JP2018048633A JP6501939B2 JP 6501939 B2 JP6501939 B2 JP 6501939B2 JP 2018048633 A JP2018048633 A JP 2018048633A JP 2018048633 A JP2018048633 A JP 2018048633A JP 6501939 B2 JP6501939 B2 JP 6501939B2
Authority
JP
Japan
Prior art keywords
user
image
attribute information
feature amount
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018048633A
Other languages
Japanese (ja)
Other versions
JP2018133095A (en
Inventor
浩平 山元
浩平 山元
隼人 小林
隼人 小林
幸浩 田頭
幸浩 田頭
哲矢 茂木
哲矢 茂木
真吾 星野
真吾 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018048633A priority Critical patent/JP6501939B2/en
Publication of JP2018133095A publication Critical patent/JP2018133095A/en
Application granted granted Critical
Publication of JP6501939B2 publication Critical patent/JP6501939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、モデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラム、情報配信プログラム、推定装置および推定方法に関する。   The present invention relates to a model generation device, an information distribution device, a model generation method, an information distribution method, a model generation program, an information distribution program, an estimation device, and an estimation method.

近年、インターネットを介した情報配信が盛んに行われている。このような情報配信の一例として、配信対象となる広告の類似度や、広告配信先となる利用者の情報等に基づいて、CTR(Click Through Rate)等のクリック率を推定し、推定されたクリック率に応じて、配信対象となる広告を選択する技術が知られている。   In recent years, information distribution via the Internet has been actively performed. As an example of such information distribution, the click rate such as CTR (Click Through Rate) is estimated based on the similarity of the advertisement to be distributed, the information of the user who is the advertisement distribution destination, etc. There is known a technology for selecting an advertisement to be delivered according to a click rate.

例えば、配信対象となる広告の構成要素や広告同士の類似度に基づいて、CTRを予測し、予測したCTRを用いて配信対象となる広告を選択する技術が知られている。また、広告を選択した利用者の属性に基づいて、仮想CTRを算出し、広告の配信先となる利用者の属性と算出した仮想CTRとに応じて、配信対象となる広告を選択する技術が知られている。   For example, there is known a technique of predicting a CTR based on a component of an advertisement to be distributed or a degree of similarity between advertisements, and selecting the advertisement to be a distribution target using the predicted CTR. In addition, there is a technology that calculates virtual CTR based on the attribute of the user who selected the advertisement, and selects the advertisement to be distributed according to the attribute of the user who is the distribution destination of the advertisement and the calculated virtual CTR. Are known.

特開2014−006684号公報JP, 2014-006684, A 特開2014−182473号公報JP, 2014-182473, A

しかしながら、上記の従来技術では、配信対象となる広告の構成や広告を選択した利用者を示すログや、広告の配信先となる利用者の属性が不明な場合には、クリック率の推定精度が悪化するという問題がある。   However, in the above-mentioned prior art, when the configuration of the advertisement to be delivered and the log indicating the user who selected the advertisement or the attribute of the user to whom the advertisement is delivered are unknown, the estimation accuracy of the click rate is There is a problem of getting worse.

本願は、上記に鑑みてなされたものであって、広告のログが無い場合や、広告の配信先となる利用者の属性が不明な場合にも、クリック率の推定精度の悪化を防ぐモデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラムおよび情報配信プログラムを提供することを目的とする。   The present application has been made in view of the above, and it is possible to generate a model that prevents the deterioration in the estimation accuracy of the click rate even when there is no advertisement log or the attribute of the user to whom the advertisement is delivered is unknown. Apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program

本願に係るモデル生成装置は、利用者により選択された履歴を有する画像の特徴量を算出する算出部と、前記算出部が算出した特徴量と、前記利用者の属性を示す属性情報とに基づいて、画像の特徴量から当該画像を選択した利用者の属性情報を推定するモデルを生成する。   The model generation device according to the present application is based on a calculation unit that calculates a feature amount of an image having a history selected by the user, a feature amount calculated by the calculation unit, and attribute information indicating an attribute of the user. Then, a model is generated to estimate attribute information of the user who has selected the image from the feature amount of the image.

実施形態の一態様によれば、クリック率の推定精度の悪化を防ぐことができるという効果を奏する。   According to one aspect of the embodiment, it is possible to prevent the deterioration in the estimation accuracy of the click rate.

図1は、実施形態に係る配信サーバの一例を示す図である。FIG. 1 is a diagram illustrating an example of a distribution server according to the embodiment. 図2は、実施形態に係る配信サーバの構成例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the distribution server according to the embodiment. 図3は、実施形態に係る接続係数記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of the connection coefficient storage unit according to the embodiment. 図4は、実施形態に係るモデル生成用画像データベースの一例を示す図である。FIG. 4 is a view showing an example of a model generation image database according to the embodiment. 図5は、実施形態にかかるユーザー推定モデルの一例を示す図である。FIG. 5 is a diagram illustrating an example of the user estimation model according to the embodiment. 図6は、実施形態に係る広告データベースの一例を示す図である。FIG. 6 is a diagram showing an example of an advertisement database according to the embodiment. 図7は、CNNを用いた効果の一例を説明する図である。FIG. 7 is a diagram for explaining an example of the effect using the CNN. 図8は、属性情報を用いた効果の一例を説明する図である。FIG. 8 is a diagram for explaining an example of an effect using attribute information. 図9は、実施形態にかかる配信サーバが実行する生成処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a generation process performed by the distribution server according to the embodiment. 図10は、実施形態にかかる配信サーバが実行する配信処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of distribution processing performed by the distribution server according to the embodiment. 図11は、実施形態に係る配信サーバが推定する属性情報の他の例を説明する図である。FIG. 11 is a diagram for explaining another example of the attribute information estimated by the distribution server according to the embodiment. 図12は、実施形態にかかる配信サーバが動画像から選択された画像に基づいて属性情報を推定する処理の一例を示す図である。FIG. 12 is a diagram illustrating an example of a process in which the distribution server according to the embodiment estimates attribute information based on an image selected from a moving image. 図13は、推定方法の入替を説明する図である。FIG. 13 is a diagram for explaining replacement of the estimation method. 図14は、配信サーバの機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 14 is a hardware configuration diagram showing an example of a computer that implements the function of the distribution server.

以下に、本願に係るモデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラム、情報配信プログラム、推定装置および推定方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係るモデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラム、情報配信プログラム、推定装置および推定方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a model generation apparatus, an information distribution apparatus, a model generation method, an information distribution method, a model generation program, an information distribution program, an estimation apparatus, and a form for implementing the estimation method according to the present application (hereinafter referred to as “embodiment” Will be described in detail with reference to the drawings. Note that the model generation device, the information distribution device, the model generation method, the information distribution method, the model generation program, the information distribution program, the estimation device, and the estimation method according to the present invention are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.

〔1.配信サーバの一例〕
まず、図1を用いて、実施形態においてモデル生成装置および情報配信装置の一例として動作する配信サーバの一例について説明する。図1は、実施形態に係る配信サーバの一例を示す図である。なお、以下の説明では、配信サーバ10が、利用者の属性等を示す属性情報を推定するユーザー推定モデルを生成する生成処理と、生成処理で生成されたユーザー推定モデルを用いて、利用者の属性情報を推定し、推定された属性情報に基づいて広告を配信する配信処理とを実行する例について説明する。
[1. Example of distribution server]
First, an example of a distribution server that operates as an example of a model generation device and an information distribution device in the embodiment will be described using FIG. 1. FIG. 1 is a diagram illustrating an example of a distribution server according to the embodiment. In the following description, the distribution server 10 generates a user estimation model for estimating attribute information indicating the attribute of the user, and the user estimation model generated using the generation process. An example in which attribute information is estimated, and a distribution process of distributing an advertisement based on the estimated attribute information will be described.

また、以下の説明では広告に係る画像である広告画像を用いて生成処理と配信処理とを実行する例について説明するが、かかる画像は、広告だけではなく、ボランティアの募集、公共広告、公共に対する通知、商品画像、商品説明、その他任意の情報に係る画像あってもよい。すなわち、以下で説明する画像とは、利用者に興味を抱かせ、かかる画像に含まれる情報またはかかる画像と関連する情報(例えば、画像が配置されたウェブページ上の情報やランディングページの情報)を広く知らせるものであれば、文字、図形、記号、音声、動画、ゲーム、その他任意のコンテンツを適用可能である。   Moreover, although the following description demonstrates the example which performs a production | generation process and a delivery process using the advertisement image which is an image which concerns on an advertisement, this image is not only an advertisement but recruitment of volunteers, a public advertisement, to the public There may be an image related to a notification, a product image, a product description, and any other information. That is, the image to be described below is the information contained in the image or the information related to the image (for example, the information on the web page on which the image is arranged and the information on the landing page) which makes the user interested If it is widely known, characters, figures, symbols, sounds, moving pictures, games, and any other contents can be applied.

配信サーバ10は、利用者が使用する端末装置100とデータ通信を行うウェブサーバ等の情報処理装置である。例えば、配信サーバ10は、端末装置100から広告の配信を要求する広告配信要求を受信すると、端末装置100を使用する利用者の属性情報に基づいて、配信対象となる広告画像を選択し、選択した広告画像を端末装置100へ送信する。ここで、利用者の属性情報とは、利用者の性別、年齢、住所、趣味、興味の対象、ウェブページや広告の閲覧履歴等、利用者のプロファイルや素性を示す種々の情報である。   The distribution server 10 is an information processing apparatus such as a web server that performs data communication with the terminal apparatus 100 used by the user. For example, when the distribution server 10 receives an advertisement distribution request for distribution of advertisements from the terminal device 100, the distribution server 10 selects and selects an advertisement image to be distributed based on the attribute information of the user who uses the terminal device 100. The transmitted advertisement image is transmitted to the terminal device 100. Here, the user's attribute information is various information indicating the user's profile or feature, such as the user's gender, age, address, hobbies, interests, interest browsing history of a web page or advertisement, and the like.

端末装置100は、スマートフォンやタブレット等のスマートデバイスであり、3G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置100は、タッチパネルを指や専用ペンでタッチすることにより画像の選択等、各種操作を行う。   The terminal device 100 is a smart device such as a smartphone or a tablet, and is a portable terminal device that can communicate with any server device via a wireless communication network such as 3G (Generation) or LTE (Long Term Evolution). . Further, the terminal device 100 performs various operations such as selection of an image by touching the touch panel with a finger or a dedicated pen.

なお、端末装置100は、デスクトップ型のPC(Personal Computer)やノート型のPC、ネットブック、サーバ装置などの情報処理装置であってもよい。かかる場合、端末装置100は、マウスやキーボードなどの情報入力装置を介して各種操作を受け付けてもよい。   The terminal device 100 may be an information processing device such as a desktop PC (Personal Computer), a notebook PC, a netbook, a server device, or the like. In such a case, the terminal device 100 may receive various operations via an information input device such as a mouse or a keyboard.

ここで、端末装置100は、利用者の操作によりウェブページなどのウェブコンテンツを表示する場合は、ウェブコンテンツの配信を行うウェブサーバに対してウェブコンテンツの配信要求を送信する。かかる場合、端末装置100は、ウェブコンテンツの配信を受け付けると、ウェブコンテンツ内に配置される広告の配信要求を配信サーバ10に送信する。   Here, when the terminal device 100 displays web content such as a web page according to a user operation, the terminal device 100 transmits a distribution request of the web content to the web server that distributes the web content. In such a case, when receiving the delivery of the web content, the terminal device 100 transmits, to the delivery server 10, a delivery request for the advertisement placed in the web content.

かかる場合、配信サーバ10は広告画像を端末装置100に配信する。そして、端末装置100は、配信サーバ10から受け付けた広告画像をウェブページ内に配置して表示する。また、端末装置100は、広告画像を利用者がタップしたり、カーソルを広告画像とあわせてクリックした場合等、広告画像を選択する操作が行われた場合は、広告画像と対応するランディングページの表示を行うとともに、かかる広告画像が選択された旨の通知を配信サーバ10に送信する。   In such a case, the distribution server 10 distributes the advertisement image to the terminal device 100. Then, the terminal device 100 arranges and displays the advertisement image received from the distribution server 10 in the web page. In the terminal device 100, when an operation for selecting an advertisement image is performed, such as when the user taps the advertisement image or clicks the cursor together with the advertisement image, the landing page corresponding to the advertisement image is displayed. While displaying, the notification that the advertisement image has been selected is transmitted to the distribution server 10.

また、配信サーバ10は、広告画像が選択された旨の通知を受付けると、広告主に対する課金処理を実行する。すなわち、配信サーバ10は、端末装置100に対し、クリック課金型の広告配信を行う。   In addition, when receiving the notification that the advertisement image has been selected, the distribution server 10 executes charging processing for the advertiser. That is, the distribution server 10 performs click-based advertisement distribution to the terminal device 100.

〔2−1.配信サーバ10が実行する処理〕
ここで、配信サーバ10は、クリック課金型で広告を配信する場合、広告主が設定した入札額に基づいて、配信対象となる広告画像が選択される。具体的には、配信サーバ10は、各広告画像について設定された入札額と、各広告画像がクリックされる確率であるクリック率とに基づいて、期待収益を算出し、算出した期待収益が最も高い広告画像を優先的に配信する。
[2-1. Process executed by distribution server 10]
Here, when delivering an advertisement in a pay-per-click type, the delivery server 10 selects an advertisement image to be delivered based on the bid amount set by the advertiser. Specifically, the distribution server 10 calculates the expected revenue based on the bid amount set for each advertisement image and the click rate that is the probability that each advertisement image is clicked, and the calculated expected revenue is the most. Deliver high advertisement images with priority.

ここで、クリック率とは、広告配信対象となる利用者の属性情報や、配信対象となる広告画像の内容に基づいて推定されるクリック率である。例えば、従来技術では、配信対象となる広告画像を抽象化した際の特徴と、配信先となる利用者の属性情報との対応関係に応じて、クリック率の値が推定される。より具体的な例を挙げると、従来技術では、配信対象となる広告画像がゲーム画面、車両、男性用の商品等、男性が選択しそうな画像であり、配信先となる利用者の性別が男性である場合は、配信対象となる広告画像のクリック率を増加させる。   Here, the click rate is a click rate estimated on the basis of the attribute information of the user who is the target of advertisement delivery and the content of the advertisement image which is the target of delivery. For example, in the prior art, the value of the click rate is estimated according to the correspondence between the feature when the advertisement image to be distributed is abstracted and the attribute information of the user as the distribution destination. As a more specific example, in the prior art, the advertisement image to be distributed is an image that men are likely to select, such as game screens, vehicles, and products for men, and the gender of the user as the distribution destination is male If so, the click rate of the advertisement image to be distributed is increased.

また、他の従来技術では、配信対象となる広告画像が他の広告画像と類似する場合は、かかる他の広告画像を選択した利用者の属性情報を取得し、取得した利用者の属性情報と、配信先となる利用者の属性情報との関係に応じて、クリック率の値が推定される。より具体的な例を挙げると、従来技術では、配信対象となる利用者が男性である場合は、多くの男性が選択した広告画像と類似する広告画像のクリック率を増加させる。   In another conventional technique, when an advertisement image to be distributed is similar to another advertisement image, the attribute information of the user who selected the other advertisement image is acquired, and the acquired attribute information of the user is acquired. The value of the click rate is estimated according to the relationship with the attribute information of the user who is the delivery destination. As a more specific example, in the prior art, when the user to be distributed is male, the click rate of the advertisement image similar to the advertisement image selected by many men is increased.

しかしながら、新規に登録された広告画像等には、広告画像を選択した利用者の属性情報や、広告画像の構成等、広告画像のログが存在しない場合がある。かかる場合、従来技術では、配信対象となる広告画像を選択しうる利用者を推定できないので、クリック率の推定精度が悪化する。また、十分な数のログが取得されていない場合にも、クリック率の推定精度は悪化する。   However, there are cases where there is no advertisement image log, such as the attribute information of the user who selected the advertisement image, the configuration of the advertisement image, etc., in the newly registered advertisement image or the like. In such a case, the prior art can not estimate users who can select an advertisement image to be distributed, so the estimation accuracy of the click rate deteriorates. In addition, even if a sufficient number of logs are not acquired, the estimation accuracy of the click rate deteriorates.

また、新規な利用者から広告配信要求を受信した場合や、B−クッキー等などが消去され、利用者を識別するためのID(Identifier)が不明になった場合等、利用者の属性情報が不明となる場合がある。かかる場合、従来技術では、配信対象となる広告画像の予測クリック率を算出することができない。   In addition, when the advertisement distribution request is received from a new user, or when the B-cookie etc. is deleted and the ID (Identifier) for identifying the user becomes unknown, the attribute information of the user is It may be unknown. In such a case, the prior art can not calculate the predicted click rate of the advertisement image to be distributed.

このように、従来技術では、画像のログが存在しない場合や、利用者の属性情報が不明となる場合等、いわゆるコールドスタート状態においては、クリック率を精度良く推定できないため、適切な期待収益を算出することができない。この結果、従来技術では、コールドスタート状態において、配信対象となる広告画像を適切に選択することができない。   As described above, in the conventional technology, when the image log does not exist or when the attribute information of the user becomes unknown, in the so-called cold start state, the click rate can not be accurately estimated. It can not be calculated. As a result, in the prior art, in the cold start state, it is not possible to properly select an advertisement image to be distributed.

そこで、配信サーバ10は、画像から画像の特徴を示す特徴量を算出する学習器を用いて、利用者により選択された履歴を有する広告画像の特徴量を算出する。そして、配信サーバ10は、算出した特徴量と、広告画像を選択した利用者の属性情報とに基づいて、画像の特徴量から利用者の属性情報を推定するユーザー推定モデルを生成する生成処理を実行する。   Therefore, the distribution server 10 calculates the feature amount of the advertisement image having the history selected by the user, using a learning device that calculates the feature amount indicating the feature of the image from the image. Then, the distribution server 10 generates the user estimation model that estimates the user attribute information from the image feature amount based on the calculated feature amount and the attribute information of the user who selected the advertisement image. Run.

例えば、配信サーバ10は、学習器を用いて、利用者により選択された履歴を有する画像の特徴量を算出し、履歴中の利用者の属性を示す属性情報と、算出した特徴量とに基づいて、属性情報の推定対象となる利用者が選択した画像の特徴量から、属性情報の推定対象となる利用者の属性情報を推定するモデルを生成する。ここで、履歴中の利用者と、属性対象の推定対象となる利用者とは、同一の利用者であってもよく、異なる利用者であってもよい。   For example, the distribution server 10 calculates a feature amount of an image having a history selected by the user using a learning device, and based on attribute information indicating the attribute of the user in the history and the calculated feature amount. Then, from the feature amount of the image selected by the user who is the estimation target of the attribute information, a model is generated to estimate the attribute information of the user who is the estimation target of the attribute information. Here, the user in the history and the estimation target user of the attribute target may be the same user or different users.

また、配信サーバ10は、属性情報が不明である利用者が広告画像を選択した場合は、学習器を用いて、かかる広告画像の特徴量を算出する。また、配信サーバ10は、ユーザー推定モデルを用いて、算出した特徴量から利用者の属性情報を推定する。そして、配信サーバ10は、推定した属性情報を用いて、広告画像を利用者が選択するクリック率を算出し、算出したクリック率に基づいて、配信対象となる広告画像を選択し、配信を行う配信処理を実行する。   Also, when the user whose attribute information is unknown selects the advertisement image, the distribution server 10 calculates the feature amount of the advertisement image using a learning device. Further, the distribution server 10 estimates the attribute information of the user from the calculated feature amount using the user estimation model. Then, the distribution server 10 calculates the click rate at which the user selects the advertisement image using the estimated attribute information, selects the advertisement image to be distributed based on the calculated click rate, and distributes the image. Execute distribution processing.

〔2−2.学習器〕
ここで、配信サーバ10が広告画像の特徴量を算出する際に用いる学習器について説明する。学習器とは、例えば、入力されたデータに対する演算結果を出力する複数のノードを多層に接続した学習器であって、教師なし学習により抽象化された画像の特徴を学習する学習器である。より具体的には、学習器とは、複数のノードを有する層を多段に接続したニューラルネットワークであり、いわゆるディープラーニングの技術により実現されるDNN(Deep Neural Network)である。また、画像の特徴とは、画像に含まれる文字の有無、色、構成等、画像内に現れる具体的な特徴のみならず、撮像されている物体が何であるか、画像がどのような利用者に好かれるか、画像の雰囲気等、抽象化(メタ化)された画像の特徴をも含む概念である。
[2-2. Learner]
Here, a learning device used when the distribution server 10 calculates the feature amount of the advertisement image will be described. The learning device is, for example, a learning device in which a plurality of nodes that output calculation results for input data are connected in multiple layers, and is a learning device that learns the features of an image abstracted by unsupervised learning. More specifically, the learning device is a neural network in which layers having a plurality of nodes are connected in multiple stages, and is a DNN (Deep Neural Network) realized by so-called deep learning technology. In addition, the feature of the image is not only the specific feature that appears in the image, such as the presence or absence of characters included in the image, the color, the configuration, etc. but also the user who is the image being captured It is a concept that also includes features of an abstracted (meta-ized) image, such as the atmosphere of the image, which is preferred.

かかるディープラーニングの技術を用いた場合、学習器は、例えば、以下の学習手法により生成される。例えば、学習器は、各ノードの間の接続係数が初期化され、様々な特徴を有する画像が入力される。そして、学習器の出力と、入力した画像との誤差が少なくなるように接続係数を補正するバックプロパゲーションが行われる。かかる処理を繰り替えすことで、学習器は、入力された画像をより良く再現できる出力、すなわち入力された画像の特徴を出力することができる。   When such deep learning technology is used, a learning device is generated by, for example, the following learning method. For example, in the learning device, connection coefficients between nodes are initialized, and images having various features are input. Then, back propagation is performed to correct the connection coefficient so that the error between the output of the learning device and the input image is reduced. By repeating such processing, the learning device can output an output that can better reproduce the input image, that is, a feature of the input image.

なお、学習器の学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。また、学習器の学習を行う際に用いられる画像は、配信対象となる広告画像が用いられてもよく、一般的な画像のデータセットを利用してもよい。また、学習器に対する画像の入力方法、学習器が出力するデータの形式、学習器に対して明示的に学習させる特徴の内容等は、任意の手法が適用できる。すなわち、配信サーバ10は、画像から抽象化された特徴を示す特徴量を算出できるのであれば、任意の学習器を用いることができる。   In addition, about the learning method of a learning device, it is not limited to the method mentioned above, Arbitrary well-known techniques are applicable. Further, as an image used for learning of the learning device, an advertisement image to be distributed may be used, or a general image data set may be used. Further, any method can be applied to the image input method to the learning device, the format of the data output from the learning device, and the content of the feature to be explicitly learned to the learning device. That is, the distribution server 10 can use any learning device as long as it can calculate the feature amount indicating the feature abstracted from the image.

以下の説明では、配信サーバ10は、入力画像の局所領域の畳み込みとプーリングとを繰り返す学習器、いわゆるCNN(Convolutional Neural Network)を用いて、広告画像の特徴量を算出するものとする。かかるCNNは、画像から特徴を抽出して出力する機能に加え、画像内に含まれる文字や撮像対象等の位置的変異に対し、出力の不変性を有する。このため、配信サーバ10は、広告画像の抽象化された特徴を精度良く算出することができる。   In the following description, the distribution server 10 calculates the feature amount of the advertisement image using a learning device that repeats convolution and pooling of the local region of the input image, so-called CNN (Convolutional Neural Network). Such a CNN has output invariance with respect to positional variations such as characters included in an image and an imaging target, in addition to the function of extracting and outputting a feature from the image. Therefore, the distribution server 10 can accurately calculate the abstracted feature of the advertisement image.

〔2−3.生成処理〕
続いて、図1を用いて、配信サーバ10が実行する生成処理について説明する。まず、配信サーバ10は、配信処理に先がけて、ユーザー推定モデルを生成する生成処理を実行する(ステップS10)。具体的には、配信サーバ10は、属性情報が特定可能な利用者により選択された広告画像C10〜C13(以下、選択画像C10〜C13と記載する場合がある)を学習器に入力し(ステップS11)、各選択画像C10〜C13の特徴量を算出する(ステップS12)。そして、配信サーバ10は、算出された特徴量と、各選択画像C10〜C13を選択した利用者U10〜U13の属性情報とを用いて、画像の特徴量からかかる画像を選択した利用者の属性情報を推定するユーザー推定モデルを生成する(ステップS13)。
[2-3. Generation process]
Subsequently, a generation process performed by the distribution server 10 will be described with reference to FIG. First, prior to distribution processing, the distribution server 10 executes generation processing for generating a user estimation model (step S10). Specifically, the distribution server 10 inputs the advertisement images C10 to C13 (hereinafter sometimes referred to as selected images C10 to C13) selected by the user who can specify the attribute information to the learning device (step In step S11, feature amounts of the selected images C10 to C13 are calculated (step S12). Then, the distribution server 10 uses the calculated feature amount and the attribute information of the users U10 to U13 who selected each of the selected images C10 to C13, and attributes of the user who selected the image from the image feature amount. A user estimation model for estimating information is generated (step S13).

例えば、配信サーバ10は、広告画像の配信ログや、配信先となる利用者の属性情報のログ等から、配信された広告画像と配信先である利用者の属性情報とを収集する。図1に示す例では、属性情報が「男性」の利用者U10がPCの広告画像C10を選択し、属性情報が「女性」の利用者U11が靴の広告画像C11を選択している。また、図1に示す例では、属性情報が「30代」の利用者U12がアクセサリーの広告画像C12を選択し、属性情報が「10代」の利用者U13がゲーム機の広告画像C13を選択している。   For example, the distribution server 10 collects the distributed advertisement image and the attribute information of the distribution destination user from the distribution log of the advertisement image, the log of the attribute information of the distribution destination user, and the like. In the example shown in FIG. 1, the user U10 whose attribute information is "male" selects the advertisement image C10 of the PC, and the user U11 whose attribute information is "female" selects the advertisement image C11 of shoes. Further, in the example shown in FIG. 1, the user U12 whose attribute information is “30s” selects the advertisement image C12 of the accessory, and the user U13 whose attribute information is “10s” selects the advertisement image C13 of the game machine doing.

ここで、同様の属性情報を有する利用者は、同様の特徴を有する広告画像を選択する可能性が高い。例えば、男性の利用者は、ゲーム機や男性用のファッションに係る広告画像を選択する傾向があり、女性の利用者は、アクセサリーや女性用のファッションに係る広告画像を選択する傾向がある。このため、利用者U10以外の利用者であっても、利用者U10と同様に、属性情報が「男性」である場合は、広告画像C10や広告画像C10と同様の特徴を有する他の広告画像を選択する可能性が高い。   Here, a user having similar attribute information is likely to select an advertisement image having similar features. For example, male users tend to select advertising images related to fashion for game machines and men, and female users tend to select advertising images related to accessories and fashion for women. Therefore, even if the user is a user other than the user U10, as in the case of the user U10, when the attribute information is "male", another advertisement image having the same feature as the advertisement image C10 or the advertisement image C10 There is a high possibility of choosing

そこで、配信サーバ10は、広告画像C10を学習器に入力することで、広告画像C10の抽象化された特徴を示す特徴量Aを算出する。より具体的には、配信サーバ10は、広告画像C10を学習器に入力した際の出力、すなわち広告画像C10の抽象化された特徴を示す多次元量を広告画像C10の特徴量Aとして取得する。そして、配信サーバ10は、ユーザー推定モデルとして、広告画像C10の特徴量Aとの差分が所定の閾値よりも小さい特徴量から、広告画像C10を選択した利用者U10と同じ属性情報「男性」を推定するユーザー推定モデルを生成する。   Therefore, the distribution server 10 inputs the advertisement image C10 to the learning device to calculate the feature amount A indicating the abstracted feature of the advertisement image C10. More specifically, the distribution server 10 acquires, as the feature amount A of the advertisement image C10, the output when the advertisement image C10 is input to the learning device, that is, the multidimensional amount indicating the abstracted feature of the advertisement image C10. . Then, the distribution server 10 uses, as a user estimation model, the same attribute information “male” as the user U10 who selected the advertisement image C10, from the feature amount whose difference with the feature amount A of the advertisement image C10 is smaller than a predetermined threshold. Generate a user estimation model to estimate.

同様に、配信サーバ10は、ユーザー推定モデルとして、広告画像C11の特徴量Bとの差分が所定の閾値よりも小さい特徴量から、広告画像C11を選択した利用者U11と同じ属性情報「女性」を推定するユーザー推定モデルを生成する。また、配信サーバ10は、ユーザー推定モデルとして、広告画像C12の特徴量Cとの差分が所定の閾値よりも小さい特徴量から、広告画像C12を選択した利用者U12と同じ属性情報「30代」を推定するユーザー推定モデルを生成する。また、配信サーバ10は、ユーザー推定モデルとして、広告画像C13の特徴量Dとの差分が所定の閾値よりも小さい特徴量から、広告画像C13を選択した利用者U13と同じ属性情報「10代」を推定するユーザー推定モデルを生成する。   Similarly, as the user estimation model, the distribution server 10 uses the feature amount whose difference with the feature amount B of the advertisement image C11 is smaller than a predetermined threshold, the same attribute information “female” as the user U11 who selected the advertisement image C11. Generate a user estimation model to estimate Also, the distribution server 10 uses the same attribute information as the user U12 who selected the advertisement image C12 from the feature amount whose difference with the feature amount C of the advertisement image C12 is smaller than a predetermined threshold as the user estimation model "30s" Generate a user estimation model to estimate Also, the distribution server 10 uses the same attribute information as the user U13 who selected the advertisement image C13 from the feature amount whose difference with the feature amount D of the advertisement image C13 is smaller than a predetermined threshold as the user estimation model. Generate a user estimation model to estimate

例えば、図1に示す例では、配信サーバ10は、広告画像C10の特徴量Aと属性情報「男性」とを対応付け、広告画像C11の特徴量Bと属性情報「女性」とを対応付け、広告画像C12の特徴量Cと属性情報「30代」とを対応付け、広告画像C13の特徴量Dと属性情報「10代」とを対応付けたユーザー推定モデル17を生成する。   For example, in the example illustrated in FIG. 1, the distribution server 10 associates the feature amount A of the advertisement image C10 with the attribute information “male”, and associates the feature amount B of the advertisement image C11 with the attribute information “female”, A user estimation model 17 is generated in which the feature amount C of the advertisement image C12 is associated with the attribute information “30's” and the feature amount D of the advertisement image C13 is associated with the attribute information “10's”.

〔2−4.配信処理〕
続いて、図1を用いて、配信サーバ10が実行する配信処理について説明する。まず、配信サーバ10は、属性情報が不明な利用者U20により、ログが無い広告画像C14が選択された場合は(ステップS20)、利用者U20が選択した広告画像C14を取得する(ステップS21)。また、配信サーバ10は、取得した広告画像C14を学習器に入力し(ステップS22)、かかる広告画像C14の抽象化した特徴を示す特徴量Eを算出する(ステップS23)。
[2-4. Delivery process]
Subsequently, the distribution process performed by the distribution server 10 will be described with reference to FIG. First, when the advertisement image C14 having no log is selected by the user U20 whose attribute information is unknown (step S20), the distribution server 10 acquires the advertisement image C14 selected by the user U20 (step S21). . Further, the distribution server 10 inputs the acquired advertisement image C14 to the learning device (step S22), and calculates a feature amount E indicating an abstracted feature of the advertisement image C14 (step S23).

そして、配信サーバ10は、特徴量Eとユーザー推定モデル17とを用いて、利用者U20の属性情報を推定する(ステップS24)。例えば、配信サーバ10は、特徴量Bと特徴量Eの差分、および、特徴量Cと特徴量Eの差分が所定の閾値よりも大きく、特徴量Aと特徴量Eの差分、および、特徴量Dと特徴量Eの差分が所定の閾値よりも小さい場合は、利用者U20の属性情報として「男性」および「10代」を推定する(ステップS25)。   Then, the distribution server 10 estimates the attribute information of the user U 20 using the feature amount E and the user estimation model 17 (step S24). For example, in the distribution server 10, the difference between the feature amount B and the feature amount E, and the difference between the feature amount C and the feature amount E is larger than a predetermined threshold, and the difference between the feature amount A and the feature amount E, and the feature amount If the difference between D and the feature amount E is smaller than a predetermined threshold, “male” and “10's” are estimated as attribute information of the user U 20 (step S 25).

また、配信サーバ10は、特徴量Eから広告画像C14の予測クリック率(pCTR:Predicted Click Through Rate)を算出する(ステップS26)。例えば、配信サーバ10は、予め定義された所定の線形関数f(x)に多次元量で表される特徴量「x」を入力し、1/(1+exp(−f(x)))の値をpCTRとして算出する。そして、配信サーバ10は、推定した属性情報と、算出した予測クリック率とを用いて、配信対象となる広告画像のクリック率をそれぞれ推定する(ステップS27)。   Further, the distribution server 10 calculates a predicted click rate (pCTR: Predicted Click Through Rate) of the advertisement image C14 from the feature amount E (step S26). For example, the distribution server 10 inputs the feature quantity “x” represented by a multidimensional quantity into a predetermined linear function f (x) defined in advance, and the value of 1 / (1 + exp (−f (x))) Calculate as pCTR. Then, the distribution server 10 estimates the click rate of the advertisement image to be distributed, using the estimated attribute information and the calculated predicted click rate (step S27).

その後、配信サーバ10は、推定した各広告画像のクリック率と各広告画像の入札額とを用いて、期待収益を算出し、算出した期待収益の値が最も高い広告画像を、利用者U20が使用する端末装置100に配信する(ステップS28)。   After that, the distribution server 10 calculates expected revenue using the estimated click rate of each advertisement image and the bid amount of each advertisement image, and the user U20 calculates an advertisement image having the highest value of the calculated expected revenue. It distributes to the terminal device 100 to be used (step S28).

このように、配信サーバ10は、画像の特徴量を算出する学習器を用いて、利用者U10〜U13が選択した選択画像C10〜C13の特徴量を算出し、算出した特徴量と利用者U10〜U13の属性情報とに基づいて、広告画像C14の特徴量から係る画像C14を選択した利用者U20の属性情報を推定するユーザー推定モデルを生成する。   Thus, the distribution server 10 calculates the feature amounts of the selected images C10 to C13 selected by the users U10 to U13 using the learning device that calculates the feature amounts of the images, and the calculated feature amounts and the user U10. Based on the attribute information of ~ U13, a user estimation model is generated which estimates attribute information of the user U20 who has selected the image C14 from the feature amount of the advertisement image C14.

また、配信サーバ10は、ユーザー推定モデルを用いて、広告画像C14を選択した利用者U20の属性情報を推定し、推定した属性情報を用いて、利用者U20が広告画像を選択する確率であるクリック率を算出する。そして、配信サーバ10は、算出したクリック率に基づいて、配信対象となる広告画像を選択する。   Further, the distribution server 10 estimates the attribute information of the user U20 who has selected the advertisement image C14 using the user estimation model, and uses the estimated attribute information to indicate the probability that the user U20 selects the advertisement image. Calculate the click rate. Then, the distribution server 10 selects an advertisement image to be distributed based on the calculated click rate.

このため、配信サーバ10は、コールドスタート状態においても、利用者の属性情報を推定することができるので、配信対象となる広告画像を適切に選択することができる。   Therefore, even in the cold start state, the distribution server 10 can estimate the attribute information of the user, and therefore can appropriately select the advertisement image to be distributed.

なお、図1に示すユーザー推定モデル17は、あくまで一例であり、配信サーバ10は、他にも任意の形式のモデルを生成することができる。例えば、配信サーバ10は、多次元量である特徴量の各次元の値を独立した変数として入力すると、各属性情報がどれくらいの確かさで推定されるかを解として出力する関数をモデルとして生成してもよい。   The user estimation model 17 shown in FIG. 1 is merely an example, and the distribution server 10 can generate a model of any other format. For example, the distribution server 10 generates, as a model, a function that outputs, as a solution, how much certainty each attribute information is estimated, when the value of each dimension of the feature quantity that is a multidimensional quantity is input as an independent variable You may

以下、上記した選定処理を実現する配信サーバ10の機能構成の一例について説明する。   Hereinafter, an example of a functional configuration of the distribution server 10 for realizing the above-described selection process will be described.

〔3.配信サーバの構成〕
次に、図2を用いて、実施形態に係る配信サーバ10の構成について説明する。図2は、実施形態に係る配信サーバの構成例を示す図である。図2に示すように、配信サーバ10は、ネットワークNを介して、端末装置100およびウェブサーバ200と有線または無線により通信可能に接続される。なお、配信サーバ10は、他にも複数台の端末装置100や、複数台のウェブサーバ200と接続されてもよい。
[3. Configuration of distribution server]
Next, the configuration of the distribution server 10 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of the configuration of the distribution server according to the embodiment. As shown in FIG. 2, the distribution server 10 is communicably connected to the terminal device 100 and the web server 200 via a network N in a wired or wireless manner. The distribution server 10 may be connected to a plurality of other terminal devices 100 and a plurality of web servers 200.

端末装置100は、利用者による操作にしたがって、ウェブサーバ200からウェブページを取得し、取得したウェブページを表示する。また、端末装置100は、ウェブページに広告画像の取得命令が含まれる場合には、配信サーバ10に広告画像の配信要求とともに利用者の属性情報を送信し、広告画像を取得する。そして、端末装置100は、取得した広告画像を表示する。また、端末装置100は、利用者が広告画像を選択した場合は、選択した広告画像を示す情報と、利用者の属性情報とを配信サーバ10に送信する。   The terminal device 100 acquires the web page from the web server 200 according to the operation by the user, and displays the acquired web page. When the web page includes an advertisement image acquisition command, the terminal device 100 transmits the advertisement image distribution request to the distribution server 10 together with the user's attribute information, and acquires the advertisement image. Then, the terminal device 100 displays the acquired advertisement image. Further, when the user selects an advertisement image, the terminal device 100 transmits, to the distribution server 10, information indicating the selected advertisement image and attribute information of the user.

一方、配信サーバ10は、図2に示すように、通信部11、記憶部12、制御部13を有する。なお、配信サーバ10の内部構成は、図2に示した構成に限られず、上述した選定処理を行う構成であれば他の構成であってもよい。   On the other hand, as shown in FIG. 2, the distribution server 10 includes a communication unit 11, a storage unit 12, and a control unit 13. Note that the internal configuration of the distribution server 10 is not limited to the configuration shown in FIG. 2, and any other configuration may be used as long as the above-described selection process is performed.

通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークNと有線または無線で接続され、端末装置100、との間で情報の送受信を行う。   The communication unit 11 is realized by, for example, a network interface card (NIC). The communication unit 11 is connected to the network N in a wired or wireless manner, and transmits and receives information to and from the terminal device 100.

記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、学習用画像データベース14、接続係数記憶部15、モデル生成用画像データベース16、ユーザー推定モデル17、広告データベース18を記憶する。   The storage unit 12 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 12 stores a learning image database 14, a connection coefficient storage unit 15, a model generation image database 16, a user estimation model 17, and an advertisement database 18.

制御部13は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、配信サーバ10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部13は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。   The control unit 13 is realized, for example, by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, and various programs stored in a storage device in the distribution server 10 are executed using a RAM as a work area. Ru. Further, the control unit 13 is realized by, for example, an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

また、制御部13は、配信サーバ10内部の記憶装置に記憶されている学習プログラム、モデル生成プログラム、および配信プログラムがRAMを作業領域として実行されることにより、学習部19、生成部20、配信部30として動作する。ここで、生成部20は、特徴量算出部21、ユーザー情報取得部22、モデル生成部23を有する。また、配信部30は、選択画像取得部31、ユーザー情報推定部32、クリック率算出部33、広告選択部34を有する。   In addition, the control unit 13 executes the learning program, the model generation program, and the distribution program stored in the storage device in the distribution server 10 by using the RAM as a work area, whereby the learning unit 19, the generation unit 20, and the distribution It operates as the unit 30. Here, the generation unit 20 includes a feature amount calculation unit 21, a user information acquisition unit 22, and a model generation unit 23. The distribution unit 30 further includes a selected image acquisition unit 31, a user information estimation unit 32, a click rate calculation unit 33, and an advertisement selection unit 34.

〔4−1.学習用画像データベース〕
続いて、記憶部12が記憶する情報の一例について説明する。学習用画像データベース14は、学習器に抽象化された画像の特徴量を学習させる際に用いられる学習用の画像が登録される。例えば、学習用画像データベース14には、DNNやCNNの学習時に用いられる画像のデータセットが登録される。
[4-1. Image database for learning]
Subsequently, an example of information stored in the storage unit 12 will be described. The learning image database 14 registers a learning image used when the learning device learns the feature amount of the abstracted image. For example, in the learning image database 14, a data set of images used when learning DNN or CNN is registered.

〔4−2.接続係数記憶部〕
接続係数記憶部15には、学習器が有する各ノード間の接続係数が登録される。例えば、図3は、実施形態に係る接続係数記憶部の一例を示す図である。図3に示すように、接続係数記憶部15には、「ニューロンID」、「結合先ニューロンID」、「接続係数」といった項目を有する。「ニューロンID」は、DNNやCNNに含まれるノードであるニューロンを識別するための識別情報を示す。「結合先ニューロンID」は、「ニューロンID」に対応するニューロンと結合するニューロンを識別するための識別情報を示す。「接続係数」は、ニューロン間の接続係数を示す。
[4-2. Connection coefficient storage unit]
The connection coefficient storage unit 15 registers connection coefficients between nodes of the learning device. For example, FIG. 3 is a diagram illustrating an example of the connection coefficient storage unit according to the embodiment. As shown in FIG. 3, the connection coefficient storage unit 15 has items such as “neuron ID”, “connection destination neuron ID”, and “connection coefficient”. “Neuron ID” indicates identification information for identifying a neuron that is a node included in DNN or CNN. The “connection destination neuron ID” indicates identification information for identifying a neuron that is coupled to the neuron corresponding to the “neuron ID”. The “connection factor” indicates the connection factor between neurons.

例えば、ニューロンID「N11」に対応するニューロンは、ニューロンID「N21」に対応するニューロンと接続係数「W」で接続されている。このため、ニューロンID「N21」に対応するニューロンには、ニューロンID「N11」の出力に接続係数「W」を積算した値が入力として伝達される。 For example, the neuron corresponding to the neuron ID "N 11 " is connected to the neuron corresponding to the neuron ID "N 21 " by the connection coefficient "W A ". Therefore, to the neuron corresponding to the neuron ID “N 21 ”, a value obtained by integrating the connection coefficient “W A ” to the output of the neuron ID “N 11 ” is transmitted as an input.

〔4−3.モデル生成用画像データベース〕
図2に戻り、モデル生成用画像データベース16には、ユーザー推定モデル17を生成する際に用いられる画像が登録されている。例えば、図4は、実施形態に係るモデル生成用画像データベースの一例を示す図である。図4に示すように、モデル生成用画像データベース16には、属性情報が取得可能な利用者により選択された広告画像と、かかる広告画像を選択した利用者の属性情報とが対応付けて登録される。
[4-3. Image database for model generation]
Returning to FIG. 2, an image used when generating the user estimation model 17 is registered in the model generation image database 16. For example, FIG. 4 is a diagram showing an example of the image database for model generation according to the embodiment. As shown in FIG. 4, in the image database 16 for model generation, an advertisement image selected by a user who can obtain attribute information is registered in association with attribute information of the user who selected the advertisement image. Ru.

例えば、図4に示す例では、モデル生成用画像データベース16には、属性情報が「男性」、「10代」である利用者が選択した広告画像C30と、かかる利用者の属性情報「男性」、「10代」とが対応付けて登録されている。同様に、モデル生成用画像データベース16には、広告画像C31と属性情報「男性」、「20代」とが対応付けて登録されており、広告画像C32と属性情報「女性」、「10代」とが対応付けて登録されている。また、モデル生成用画像データベース16には、広告画像C33と属性情報「女性」、「20代」とが対応付けて登録されており、広告画像C34と属性情報「10代」とが対応付けて登録されており、広告画像C35と属性情報「20代」とが対応付けて登録されている。   For example, in the example illustrated in FIG. 4, the model generation image database 16 includes the advertisement image C30 selected by the user whose attribute information is “male” and “10's”, and the user's attribute information “male”. , And "teners" are registered in association with each other. Similarly, the advertisement image C31 and the attribute information "male" and "20's" are registered in association with each other in the model generation image database 16, and the advertisement image C32 and the attribute information "female" and "10's" And are registered in association with each other. Further, in the model generation image database 16, the advertisement image C33 and the attribute information "female" and "20's" are registered in association with each other, and the advertisement image C34 and the attribute information "10's" are associated and registered. It is registered and the advertisement image C35 and attribute information "20's" are matched and registered.

〔4−4.ユーザー推定モデル〕
図2に戻り、ユーザー推定モデル17は、属性情報が取得可能な利用者により選択された画像の特徴量と、かかる利用者の属性情報とから生成されたモデルであって、画像の特徴量からかかる画像を選択した利用者の属性情報を推定するモデルである。例えば、図5は、実施形態にかかるユーザー推定モデルの一例を示す図である。図5に示す例では、ユーザー推定モデル17には、画像の特徴量と、係る特徴量と類似する特徴量の画像を選択した利用者について推定される属性情報とが対応付けて登録されている。
[4-4. User estimation model]
Returning to FIG. 2, the user estimation model 17 is a model generated from the feature amount of the image selected by the user who can obtain attribute information and the attribute information of the user, and from the feature amount of the image It is a model which estimates the attribute information of the user who selected this image. For example, FIG. 5 is a diagram illustrating an example of a user estimation model according to the embodiment. In the example illustrated in FIG. 5, the user estimation model 17 stores feature amounts of images and attribute information estimated for users who have selected images of feature amounts similar to the feature amounts. .

例えば、図4に示す例では、ユーザー推定モデル17には、特徴量Eと属性情報「男性」、「10代」とが対応付けて登録されている。すなわち、ユーザー推定モデル17は、特徴量Eと一致もしくは類似する特徴量の画像を選択した利用者の属性情報が「男性」、「10代」である旨を示す。同様に、ユーザー推定モデル17には、特徴量Fと属性情報「男性」、「20代」、特徴量Gと属性情報「女性」、「10代」、特徴量Hと「女性」、「20代」、特徴量Iと属性情報「10代」、特徴量Jと属性情報「20代」が対応付けて登録されている。   For example, in the example illustrated in FIG. 4, the feature amount E, and attribute information “male” and “teners” are registered in the user estimation model 17 in association with each other. That is, the user estimation model 17 indicates that the attribute information of the user who has selected the image of the feature amount that matches or is similar to the feature amount E is “male” or “ten years”. Similarly, in the user estimation model 17, the feature amount F and attribute information "male" and "20s", the feature amount G and attribute information "female" and "10s", the feature amount H and "female" and "20" The feature amount I, the attribute information “10's”, and the feature amount J and the attribute information “20's” are registered in association with each other.

〔4−5.広告データベース〕
図2に戻り、広告データベース18には、配信対象となる広告画像が登録されている。例えば、図6は、実施形態に係る広告データベースの一例を示す図である。図6に示す例では、広告データベース18には、「広告主ID」、「広告コンテンツ」、「入札価格」、「CTR」、「属性情報」といった項目が対応付けて登録される。
[4-5. Advertising database]
Returning to FIG. 2, advertisement images to be distributed are registered in the advertisement database 18. For example, FIG. 6 is a diagram showing an example of an advertisement database according to the embodiment. In the example shown in FIG. 6, items such as “advertiser ID”, “advertisement content”, “bidding price”, “CTR”, and “attribute information” are registered in the advertisement database 18 in association with each other.

「広告主ID」は、広告主を識別するための識別情報を示す。「広告コンテンツ」は、広告主が入稿した広告コンテンツ、例えば広告画像を示す。図4では「広告コンテンツ」に「C11」といった概念的な情報が格納される例を示したが、実際には、静止画像や動画像やテキストデータやURL、又は、これらの格納場所を示すファイルパス名などが格納される。   "Advertiser ID" indicates identification information for identifying an advertiser. "Advertising content" indicates advertising content submitted by an advertiser, for example, an advertising image. Although FIG. 4 shows an example in which conceptual information such as "C11" is stored in "advertising content", actually, a still image, a moving image, text data, a URL, or a file indicating the storage location of these Path name etc. are stored.

「入札価格」は、広告主が広告コンテンツを入稿する際に指定する広告料金を示す。例えば、「入札価格」は、広告コンテンツがユーザーに1回クリックされた際に広告主から広告配信者(例えば、配信サーバ10の管理者)に支払われる単価に該当する。また、例えば、「入札価格」は、広告コンテンツが表示された際に広告主から広告配信者に支払われる単価であってもよい。   "Bid price" indicates an advertisement charge designated by an advertiser when advertising content is submitted. For example, the “bid price” corresponds to the unit price paid by the advertiser to the ad distributor (for example, the manager of the distribution server 10) when the ad content is clicked once by the user. Also, for example, the “bid price” may be a unit price paid from the advertiser to the advertisement distributor when the advertisement content is displayed.

「CTR」は、広告コンテンツがクリックされた回数を広告コンテンツの表示回数によって除算した値を示す。なお、端末装置100に配信されたことがない広告コンテンツのCTRには、予め決められている固定値や、全ての広告コンテンツにおけるCTRの平均値や、同一の広告カテゴリ(例えば、車、旅行)に属する全ての広告コンテンツにおけるCTRの平均値などが記憶される。また、「属性情報」とは、広告コンテンツの配信対象となる利用者の属性情報を示す。   “CTR” indicates a value obtained by dividing the number of times the advertisement content is clicked by the number of times the advertisement content is displayed. In addition, in CTR of the advertising content which has not been distributed to the terminal device 100, a predetermined fixed value, an average value of CTR in all the advertising content, the same advertising category (for example, car, travel) The average value of CTR in all advertisement content belonging to is stored. Further, “attribute information” indicates attribute information of a user who is a distribution target of advertisement content.

例えば、図4では、広告主ID「B10」によって識別される広告主が、入札価格「100」を指定するとともに、広告コンテンツ「C11」を入稿した例を示している。また、図4では、広告コンテンツ「C11」のCTRが「0.02」であり、配信対象となる利用者の属性情報が「男性」である例を示している。   For example, FIG. 4 illustrates an example in which the advertiser identified by the advertiser ID “B10” designates the bid price “100” and submits the advertisement content “C11”. Further, FIG. 4 shows an example in which the CTR of the advertising content “C11” is “0.02” and the attribute information of the user to be distributed is “male”.

なお、「CTR」には、CTRの予測モデル等から予測される予測CTRが記憶されてもよい。このような予測CTRは、例えば、広告コンテンツの種別や、広告コンテンツが表示されるウェブページの種別等によって予測される。   The “CTR” may store a predicted CTR predicted from a CTR prediction model or the like. Such predicted CTR is predicted by, for example, the type of advertising content, the type of web page on which the advertising content is displayed, and the like.

〔4−6.制御部が実行する処理の一例〕
図3に戻り、制御部13が有する学習部19、生成部20、配信部30が実行する処理の内容について説明する。
[4-6. Example of processing executed by control unit]
Returning to FIG. 3, the contents of the processing performed by the learning unit 19, the generation unit 20, and the distribution unit 30 that the control unit 13 has will be described.

〔4−6−1.学習部が実行する処理の一例〕
学習部19は、学習器の学習を行う。例えば、学習部19は、ニューロンを多段に接続した学習器であって、教師なし学習により抽象化された画像の特徴を学習した学習器、すなわちDNNの学習を行う。また、学習部19は、学習器として、局所領域の畳み込みとプーリングとを繰り返すことで、画像の変異に対する出力の普遍性をさらに学習した学習器、すなわちCNNの学習を行う。
4-6-1. Example of processing executed by learning unit]
The learning unit 19 performs learning of a learning device. For example, the learning unit 19 is a learning device in which neurons are connected in multiple stages, and performs learning of a learning device that has learned the features of an image abstracted by unsupervised learning, that is, DNN. In addition, the learning unit 19 performs learning of CNN, which is a learning device that further learns the universality of the output with respect to the mutation of the image, by repeating convolution and pooling of the local region as a learning device.

例えば、学習部19は、ニューロン同士に所定の接続関係を設定した学習器を構築する。また、学習部19は、学習用画像データベース14に登録された学習用画像を用いて、学習器に抽象化された画像の特徴を学習させる。より具体的には、学習部19は、バックプロパゲーション等の公知の手法を用いて、学習用画像から抽象化された特徴が精度良く抽出されるように接続係数を補正する。そして、学習部19は、ニューロン同士の接続関係と、接続係数とを接続係数記憶部15に登録する。   For example, the learning unit 19 constructs a learning device in which predetermined connection relationships are set between neurons. Further, the learning unit 19 causes the learning device to learn the features of the abstracted image, using the learning image registered in the learning image database 14. More specifically, the learning unit 19 corrects the connection coefficient such that the feature abstracted from the learning image is accurately extracted using a known method such as back propagation. Then, the learning unit 19 registers the connection relationship between the neurons and the connection coefficient in the connection coefficient storage unit 15.

なお、学習部19が実行する具体的な学習手法については、DNNやCNNを学習する際に用いられる公知の学習手法が採用可能である。   As a specific learning method performed by the learning unit 19, a known learning method used when learning DNN or CNN can be adopted.

〔4−6−2.生成部が実行する処理の一例〕
生成部20は、特徴量算出部21、ユーザー情報取得部22、モデル生成部23が実行する処理により、生成処理を実行する。具体的には、特徴量算出部21は、画像から特徴量を算出する学習器を用いて、属性情報を取得可能な利用者により選択された履歴を有する広告画像の特徴量を算出する。
4-6-2. Example of processing executed by generation unit]
The generation unit 20 executes generation processing by processing performed by the feature amount calculation unit 21, the user information acquisition unit 22, and the model generation unit 23. Specifically, the feature quantity calculation unit 21 calculates the feature quantity of the advertisement image having the history selected by the user who can obtain the attribute information, using a learning device that calculates the feature quantity from the image.

例えば、特徴量算出部21は、接続係数記憶部15からニューロンIDと接続係数とを取得し、学習器を構成する。また、特徴量算出部21は、モデル生成用画像データベース16から、広告画像C30を取得する。そして、特徴量算出部21は、学習器に広告画像C30を入力し、学習器の出力を特徴量Eとして取得する。   For example, the feature amount calculation unit 21 acquires the neuron ID and the connection coefficient from the connection coefficient storage unit 15 to configure a learning device. Further, the feature amount calculation unit 21 acquires the advertisement image C30 from the image database 16 for model generation. Then, the feature amount calculation unit 21 inputs the advertisement image C30 to the learning device, and acquires the output of the learning device as the feature amount E.

ユーザー情報取得部22は、特徴量を算出した広告画像を選択した利用者の属性情報を取得する。例えば、ユーザー情報取得部22は、特徴量算出部21が広告画像C30の特徴量Eを算出した場合は、かかる広告画像C30と対応付けられた属性情報「男性」、「10代」をモデル生成用画像データベース16から取得する。   The user information acquisition unit 22 acquires attribute information of the user who has selected the advertisement image for which the feature amount has been calculated. For example, when the feature amount calculation unit 21 calculates the feature amount E of the advertisement image C30, the user information acquisition unit 22 generates a model of attribute information "male" and "teners" associated with the advertisement image C30. It acquires from the image database 16 for images.

モデル生成部23は、特徴量算出部21が算出した特徴量と、ユーザー情報取得部22が取得した属性情報とに基づいて、ユーザー推定モデルを生成する。例えば、モデル生成部23は、特徴量算出部21が算出した広告画像C30の特徴量Eと、ユーザー情報取得部22が取得した属性情報とを対応付けてユーザー推定モデル17に登録する。   The model generation unit 23 generates a user estimation model based on the feature amount calculated by the feature amount calculation unit 21 and the attribute information acquired by the user information acquisition unit 22. For example, the model generation unit 23 registers the feature amount E of the advertisement image C30 calculated by the feature amount calculation unit 21 and the attribute information acquired by the user information acquisition unit 22 in the user estimation model 17 in association with each other.

なお、モデル生成部23は、より複雑な手法によりユーザー推定モデル17を生成してもよい。例えば、モデル生成部23は、特徴量算出部21が特徴量Eと特徴量Iとを算出し、ユーザー情報取得部22が属性情報「男性」、「10代」および属性情報「10代」を取得した場合、特徴量Eと特徴量Iとの差分を属性情報「男性」に対応する特徴量としてユーザー推定モデル17に追加してもよい。すなわち、モデル生成部23は、複数の特徴量を比較し、差分や共通部分に基づくユーザー推定モデル17を生成してもよい。また、モデル生成部23は、特徴量を変数として入力すると、属性情報に対応する値を出力する関数をモデルとして生成してもよい。   The model generation unit 23 may generate the user estimation model 17 by a more complicated method. For example, in the model generation unit 23, the feature amount calculation unit 21 calculates the feature amount E and the feature amount I, and the user information acquisition unit 22 sets the attribute information "male", "10s" and the attribute information "10s". When acquired, the difference between the feature amount E and the feature amount I may be added to the user estimation model 17 as a feature amount corresponding to the attribute information “male”. That is, the model generation unit 23 may compare a plurality of feature amounts and generate the user estimation model 17 based on the difference or the common part. The model generation unit 23 may generate a function that outputs a value corresponding to the attribute information as a model when the feature amount is input as a variable.

〔4−6−3.配信部が実行する処理の一例〕
配信部30は、選択画像取得部31、ユーザー情報推定部32、クリック率算出部33、広告選択部34が実行する処理により、配信処理を実行する。具体的には、選択画像取得部31は、属性情報が不明な利用者が選択した広告画像を取得する。
[4-6. Example of processing executed by distribution unit]
The distribution unit 30 executes the distribution process by the process performed by the selected image acquisition unit 31, the user information estimation unit 32, the click rate calculation unit 33, and the advertisement selection unit 34. Specifically, the selected image acquisition unit 31 acquires an advertisement image selected by a user whose attribute information is unknown.

例えば、選択画像取得部31は、利用者が選択した広告画像の通知を受信した場合は、かかる利用者の属性情報を特定できるか否かを判定する。具体的には、選択画像取得部31は、Bクッキーが無い場合や、利用者のIDが無い場合等、利用者の属性情報を特定できない場合や、利用者の属性情報を管理する管理システム等に利用者の属性情報が登録されていない場合には、利用者の属性情報が不明であると判定する。   For example, when the notification of the advertisement image selected by the user is received, the selected image acquisition unit 31 determines whether the attribute information of the user can be identified. Specifically, the selected image acquisition unit 31 can not identify the user attribute information, such as when there is no B cookie or when there is no user ID, or a management system that manages the user attribute information, etc. If the user's attribute information is not registered, it is determined that the user's attribute information is unknown.

そして、選択画像取得部31は、利用者の属性情報が不明であると判定した場合には、通知された広告画像を広告データベース18から特定し、特定した広告画像をユーザー情報推定部32に出力する。なお、選択画像取得部31は、利用者の属性情報を特定できた場合は、通知された広告画像と特定した属性情報とを対応付けて、モデル生成用画像データベース16に登録する。   Then, when it is determined that the attribute information of the user is unknown, the selected image acquisition unit 31 specifies the notified advertisement image from the advertisement database 18, and outputs the specified advertisement image to the user information estimation unit 32. Do. In addition, when the user's attribute information can be specified, the selected image acquisition unit 31 associates the notified advertisement image with the specified attribute information and registers it in the model generation image database 16.

ユーザー情報推定部32は、ユーザー推定モデル17を用いて、属性情報が不明である利用者が選択した広告画像から、かかる利用者の属性情報を推定する。例えば、ユーザー情報推定部32は、接続係数記憶部15に登録された情報を用いて、抽象化された画像の特徴を示す特徴量を算出する学習器を構築する。   The user information estimation unit 32 uses the user estimation model 17 to estimate the attribute information of the user from the advertisement image selected by the user whose attribute information is unknown. For example, using the information registered in the connection coefficient storage unit 15, the user information estimation unit 32 constructs a learning device that calculates a feature amount indicating a feature of the abstracted image.

また、ユーザー情報推定部32は、広告画像を選択画像取得部31から受信すると、受信した広告画像を学習器に入力し、かかる広告画像の特徴量を算出する。そして、ユーザー情報推定部32は、ユーザー推定モデル17を用いて、算出した特徴量から属性情報を推定する。例えば、ユーザー情報推定部32は、図5に示すユーザー推定モデル17が登録されている際に、特徴量と特徴量Eとの差分が所定の閾値よりも小さい場合は、広告画像を選択した利用者の属性情報「男性」、「10代」を推定する。そして、ユーザー情報推定部32は、算出した特徴量と、推定した属性情報「男性」、「10代」とをクリック率算出部33に出力する。   Further, when the advertisement information is received from the selected image acquisition unit 31, the user information estimation unit 32 inputs the received advertisement image to the learning device, and calculates the feature amount of the advertisement image. Then, the user information estimation unit 32 estimates attribute information from the calculated feature amount using the user estimation model 17. For example, when the difference between the feature amount and the feature amount E is smaller than a predetermined threshold when the user estimation model 17 shown in FIG. 5 is registered, for example, the user information estimation unit 32 uses the advertisement image selected Attribute information of the person "male", "teen" is estimated. Then, the user information estimation unit 32 outputs the calculated feature amount and the estimated attribute information “male” and “10's” to the click rate calculation unit 33.

クリック率算出部33は、ユーザー情報推定部32が推定した属性情報を用いて、配信対象となる広告画像を利用者が選択するクリック率を算出する。例えば、クリック率算出部33は、ユーザー情報推定部32が算出した特徴量から、属性情報を推定した利用者により選択された広告画像を、かかる利用者が選択する確率である予測クリック率を算出する。そして、クリック率算出部33は、算出した予測クリック率と、ユーザー情報推定部32が推定した属性情報とをパラメータとする所定のモデルを用いて、広告データベース18に登録された各広告画像を、属性情報を推定した利用者が選択するクリック率を算出する。   The click rate calculation unit 33 calculates a click rate at which the user selects an advertisement image to be distributed, using the attribute information estimated by the user information estimation unit 32. For example, the click rate calculation unit 33 calculates a predicted click rate, which is a probability that the user selects an advertisement image selected by the user who has estimated attribute information, from the feature amount calculated by the user information estimation unit 32. Do. Then, the click rate calculation unit 33 uses the predetermined model with the calculated predicted click rate and the attribute information estimated by the user information estimation unit 32 as parameters, and sets each advertisement image registered in the advertisement database 18 as follows: Calculate the click rate selected by the user who has estimated attribute information.

例えば、クリック率算出部33は、推定された属性情報が「男性」である場合は、属性情報「男性」が対応付けられた広告画像のクリック率を増加させ、属性情報「女性」が対応付けられた広告画像のクリック率を減少させる等の処理を実行する。なお、クリック率算出部33が各広告画像のクリック率を算出する処理については、公知のクリック率算出モデルが適用可能である。   For example, when the estimated attribute information is “male”, the click rate calculation unit 33 increases the click rate of the advertisement image to which the attribute information “male” is associated, and the attribute information “female” is associated. Execute processing such as reducing the click rate of the advertisement image. In addition, about the process in which the click rate calculation part 33 calculates the click rate of each advertisement image, a well-known click rate calculation model is applicable.

広告選択部34は、クリック率算出部33が算出したクリック率に基づいて、利用者に配信する広告画像を選択する。例えば、広告選択部34は、クリック率算出部33が算出したクリック率と、各広告画像の入札額との値を積算し、積算した値が最も高い広告画像を選択する。そして、広告選択部34は、属性情報が推定された利用者が使用する端末装置100から配信要求を受信した場合は、選択した広告画像を配信する。   The advertisement selection unit 34 selects an advertisement image to be distributed to the user based on the click rate calculated by the click rate calculation unit 33. For example, the advertisement selection unit 34 integrates the click rate calculated by the click rate calculation unit 33 and the bid amount of each advertisement image, and selects an advertisement image having the highest integrated value. Then, when the advertisement selection unit 34 receives a distribution request from the terminal device 100 used by the user whose attribute information has been estimated, the advertisement selection unit 34 distributes the selected advertisement image.

なお、クリック率算出部33は、属性情報が不明ではない利用者から配信要求を受信した場合は、かかる利用者の属性情報を用いてクリック率を算出する。そして、広告選択部34は、クリック率算出部33が算出したクリック率を用いて、広告画像を選択し、選択した広告画像の配信を行う。   In addition, when receiving a distribution request from a user whose attribute information is not unknown, the click rate calculation unit 33 calculates the click rate using the attribute information of the user. Then, the advertisement selection unit 34 selects an advertisement image using the click rate calculated by the click rate calculation unit 33, and distributes the selected advertisement image.

〔5.特徴量の算出について〕
ここで、上述した配信サーバ10は、CNNを用いて広告画像の特徴量を算出することにより、抽象化された画像の特徴量を適切に算出することができる。例えば、図7は、CNNを用いた効果の一例を説明する図である。図7には、各種の手法により抽出された特徴量をモデルの素性として、広告画像ごとの実績クリック率にリッジ回帰させた平均絶対誤差(MAE: Mean Absolute Error)を、手法ごとにプロットした。
[5. About Calculation of Feature Amount]
Here, the distribution server 10 described above can appropriately calculate the feature amount of the abstracted image by calculating the feature amount of the advertisement image using the CNN. For example, FIG. 7 is a figure explaining an example of the effect which used CNN. In FIG. 7, the mean absolute error (MAE: Mean Absolute Error) which made the ridge regression with the performance click rate for every advertisement image was plotted for every method by making the feature-value extracted by various methods into the feature of a model.

図7に示す例では、特徴量の抽出手法として、Gist、SIFT(Scale-Invariant Feature Transform)、C−SIFT(Colored-SIFT)、Opponent SIFT、RGB−SIFT(Red Green Blue-SIFT)、CNNを採用した。また、広告主ID、広告ID、広告画像IDといったID素性を用いずに特徴を推定する抽出方法との比較対象として、ID素性のみを用いて特徴量を特定するBaselineの結果をプロットした。   In the example shown in FIG. 7, Gist, Scale-Invariant Feature Transform (SIFT), C-SIFT (Colored-SIFT), Opponent SIFT, RGB-SIFT (Red Green Blue-SIFT), and CNN are used as feature extraction methods. Adopted. Moreover, the result of Baseline which specifies a feature-value using only ID feature was plotted as comparison object with extraction methods which do not use ID features, such as advertiser ID, advertisement ID, and advertisement image ID.

ここで、Gistとは、画像のシーン情報を記述する際に用いられる大域画像特徴量であり、960の次元数を有する特徴量である。また、SIFT、C−SIFT、Opponent SIFT、RGB−SIFTとは、局所特徴量を算出する手法である。図7に示す例では、SIFT、C−SIFT、Opponent SIFT、RGB−SIFTにより算出された局所特徴量の分布を混合ガウス分布で表現した2048次元のFisher vectorを、Bag−of−Visual−Wordsベースの帯域特徴量として採用した。   Here, Gist is a global image feature used to describe scene information of an image, and is a feature having a dimension number of 960. Moreover, SIFT, C-SIFT, Opponent SIFT, and RGB-SIFT are methods for calculating local feature quantities. In the example shown in FIG. 7, a 2048-dimensional Fisher vector representing the distribution of local feature quantities calculated by SIFT, C-SIFT, Opponent SIFT, and RGB-SIFT as a mixed Gaussian distribution is used as a Bag-of-Visual-Words base. Was adopted as a band feature of

また、図7に示す例では、CNNとして、CaffeのImagenetプレインモデルを採用し、CNNの最終層が出力する4096次元の情報を特徴量とした。また、図7に示す例では、Baselineとして、広告主ID、広告ID、広告画像IDといったID素性から、Feature hashingを用いた20ビットの特徴量を用いた。   Further, in the example illustrated in FIG. 7, Caffe's Imagenet plain model is adopted as CNN, and 4096-dimensional information output by the final layer of CNN is used as a feature amount. Further, in the example illustrated in FIG. 7, a 20-bit feature amount using feature hashing is used as an Baseline based on ID features such as an advertiser ID, an advertisement ID, and an advertisement image ID.

上述した各手法により得られた特徴量を比較すると、画像内の局所的な形状の情報ではなく、撮像対象を特徴量の一部として表現できるか否かが重要であるため、Baselineを除くと、CNNにより抽出された特徴量の平均絶対誤差が最も低い値となる。しかしながら、コールドスタート状態においては、各種のID素性を得ることができないため、Baselineを用いるのは困難である。このため、配信サーバ10は、CNNを用いることで、コールドスタート状態においても画像の特徴量を適切に算出することができる。   When comparing the feature quantities obtained by the above-described methods, it is important whether or not the imaging target can be expressed as a part of the feature quantity, not the information on the local shape in the image, so excluding Baseline , And the average absolute error of the feature quantities extracted by CNN is the lowest value. However, in the cold start state, it is difficult to use Baseline since various ID features can not be obtained. Therefore, the distribution server 10 can appropriately calculate the feature amount of the image even in the cold start state by using the CNN.

〔6.属性情報の推定について〕
また、上述した配信サーバ10は、広告画像を選択した利用者の属性情報を推定し、推定した属性情報を用いることで、精度良くクリック率を算出することができる。例えば、図8は、属性情報を用いた効果の一例を説明する図である。図8には、クリックを「1」、インプレッションのみを「−1」としてロジスティック回帰させ、クリック率の算出手法ごとに、AUC(area under the curve)と重複率との対応をプロットした。また、図8に示す例では、Baselineを用いたクリック率の予測、Baselineに属性情報を付加してクリック率を予測するUser_add、User_addにCNNによる特徴量を付加してクリック率を予測するCNN_addを採用した。
[6. Regarding Estimation of Attribute Information]
Also, the distribution server 10 described above can estimate the attribute information of the user who has selected the advertisement image, and can calculate the click rate with high accuracy by using the estimated attribute information. For example, FIG. 8 is a diagram for explaining an example of an effect using attribute information. In FIG. 8, logistic regression was performed with “1” clicks and “−1” impressions only, and the correspondence between AUC (area under the curve) and the overlapping rate was plotted for each click rate calculation method. Further, in the example shown in FIG. 8, the prediction of the click rate using Baseline, the User_add which predicts the click rate by adding attribute information to Baseline, and the CNN_add which predicts the click rate by adding the feature amount by CNN to User_add. Adopted.

図8に示す例では、全体的に、属性情報を考慮してクリック率を予測するUser_addの手法がBaselineを用いた手法よりも予測性能が良い事が解る。このため、配信サーバ10は、コールドスタート時において、利用者の属性情報を推定し、推定した属性情報を用いることで、精度良くクリック率を算出することができる。   In the example shown in FIG. 8, it is understood that the method of User_add that predicts the click rate in consideration of attribute information has better prediction performance than the method using Baseline. For this reason, the distribution server 10 can calculate the click rate with high accuracy by estimating the attribute information of the user at the cold start and using the estimated attribute information.

〔7.配信サーバ10の処理フロー〕
次に、図9、図10を用いて、配信サーバ10が実行する生成処理および配信処理の流れの一例について説明する。まず、図9を用いて、配信サーバ10が実行する生成処理の一例を説明する。図9は、実施形態にかかる配信サーバが実行する生成処理の一例を示すフローチャートである。
[7. Processing flow of distribution server 10]
Next, an example of the flow of generation processing and distribution processing performed by the distribution server 10 will be described using FIGS. 9 and 10. First, an example of the generation process performed by the distribution server 10 will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a generation process performed by the distribution server according to the embodiment.

図9に示すように、配信サーバ10は、属性情報を取得できる利用者により選択された広告画像であるモデル生成用画像をCNNに入力し、最終層の出力を特徴量として取得する(ステップS101)。続いて、配信サーバ10は、モデル生成画像を選択した利用者の属性情報を取得する(ステップS102)。そして、配信サーバ10は、特徴量と属性情報とに基づいて、画像の特徴量から属性情報を推定するユーザー推定モデルを生成し(ステップS103)、処理を終了する。   As shown in FIG. 9, the distribution server 10 inputs, to the CNN, an image for model generation which is an advertisement image selected by a user who can acquire attribute information, and acquires an output of the final layer as a feature amount (step S101). ). Subsequently, the distribution server 10 acquires attribute information of the user who has selected the model generation image (step S102). Then, the distribution server 10 generates a user estimation model for estimating attribute information from the feature amount of the image based on the feature amount and the attribute information (step S103), and ends the process.

なお、配信サーバ10は、図9に示す生成処理を任意のタイミングで実行することができる。例えば、配信サーバ10は、モデル生成用画像がモデル生成用画像データベース16に登録される度に実行してもよく、所定の時間間隔あるいは利用者からの指示に従って実行してもよい。すなわち、配信サーバ10は、利用者の属性情報を推定する処理に先駆けてモデルを生成するのであれば、任意のタイミングで生成処理を実行してもよい。   The distribution server 10 can execute the generation process shown in FIG. 9 at an arbitrary timing. For example, the distribution server 10 may be executed each time a model generation image is registered in the model generation image database 16 or may be executed according to a predetermined time interval or an instruction from a user. That is, the distribution server 10 may execute the generation process at an arbitrary timing as long as the model is generated prior to the process of estimating the attribute information of the user.

次に、図10を用いて、配信サーバ10が実行する配信処理の一例を説明する。図10は、実施形態にかかる配信サーバが実行する配信処理の一例を示すフローチャートである。まず、配信サーバ10は、利用者が選択した広告画像の情報を受信したか否かを判定する(ステップS201)。そして、配信サーバ10は、利用者が選択した広告画像の情報を受信していない場合は(ステップS201:No)、再度ステップS201を実行する。   Next, an example of the delivery process performed by the delivery server 10 will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of distribution processing performed by the distribution server according to the embodiment. First, the distribution server 10 determines whether the information on the advertisement image selected by the user has been received (step S201). Then, when the information on the advertisement image selected by the user has not been received (step S201: No), the distribution server 10 executes step S201 again.

一方、配信サーバ10は、利用者が選択した広告画像の情報を受信した場合は(ステップS201:Yes)、選択された広告画像をCNNに入力し、特徴量を取得する(ステップS202)。そして、配信サーバ10は、ユーザー推定モデル17を用いて、取得した特徴量から属性情報を推定する(ステップS203)。また、配信サーバ10は、特徴量を用いて、予測クリック率を算出し(ステップS204)、算出した予測クリック率と、推定された属性情報とを用いて、広告画像のクリック率を推定する(ステップS205)。また、配信サーバ10は、推定したクリック率に基づいて、期待収益を算出し(ステップS206)、配信要求を受信した際に、期待収益が最大となる広告画像を配信し(ステップS207)、処理を終了する。   On the other hand, when the distribution server 10 receives the information on the advertisement image selected by the user (Step S201: Yes), the selected advertisement image is input to the CNN to acquire the feature amount (Step S202). Then, the distribution server 10 estimates attribute information from the acquired feature amount using the user estimation model 17 (step S203). Also, the distribution server 10 calculates the predicted click rate using the feature amount (step S204), and estimates the click rate of the advertisement image using the calculated predicted click rate and the estimated attribute information (step S204). Step S205). Also, the distribution server 10 calculates the expected revenue based on the estimated click rate (step S206), and when the distribution request is received, delivers the advertisement image with the largest expected revenue (step S207), Finish.

なお、配信サーバ10は、図10に示す配信処理を広告画像の配信タイミングに先駆けて行ってもよい。例えば、配信サーバ10は、広告画像を選択した利用者のログを取り、属性情報が不明な利用者から配信要求を受信した際に、ログから係る利用者が選択した広告画像を特定し、特定した広告画像の特徴量から係る利用者の属性情報を推定してもよい。   The distribution server 10 may perform the distribution process shown in FIG. 10 prior to the distribution timing of the advertisement image. For example, the distribution server 10 takes a log of the user who has selected an advertisement image, and when receiving a distribution request from a user whose attribute information is unknown, specifies the advertisement image selected by the user from the log, and specifies The attribute information of the user may be estimated from the feature amount of the advertisement image.

また、配信サーバ10は、属性情報が不明であり、かつ、広告画像を選択したログが無い利用者から配信要求を受信した場合は、任意の手法で選択された広告画像を配信する。また、配信サーバ10は、かかる広告画像が選択された場合は、かかる広告画像から利用者の属性情報を予め推定する。そして、配信サーバ10は、かかる利用者から新たな配信要求を受信した際に、あらかじめ推定した属性情報を用いて広告画像を選択し、選択した広告画像を配信してもよい。   In addition, when the distribution server 10 receives a distribution request from a user whose attribute information is unknown and which has no log for which an advertisement image has been selected, the distribution server 10 distributes the selected advertisement image by an arbitrary method. Also, when such an advertisement image is selected, the distribution server 10 estimates the attribute information of the user in advance from the advertisement image. Then, when a new distribution request is received from the user, the distribution server 10 may select an advertisement image using attribute information estimated in advance, and may distribute the selected advertisement image.

〔8.変形例〕
上記した実施形態に係る配信サーバ10は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、配信サーバ10の他の実施形態について説明する。なお、以下に説明する配信サーバ10が実行する処理のうち、生成処理に対応する処理は、生成部20によって実行され、配信処理に対応する処理は、配信部30によって実行されるものとする。
[8. Modified example]
The distribution server 10 according to the above-described embodiment may be implemented in various different forms other than the above-described embodiment. So, below, other embodiment of the delivery server 10 is described. Among the processes executed by the distribution server 10 described below, the process corresponding to the generation process is performed by the generation unit 20, and the process corresponding to the distribution process is performed by the distribution unit 30.

〔8−1.推定される属性情報のバリエーション〕
例えば、配信サーバ10は、利用者の属性情報を推定する際、ユーザー推定モデル17に登録された特徴量と、選択された画像の特徴量との一致率を算出し、算出した一致率を考慮した属性情報の推定を行ってもよい。例えば、図11は、実施形態に係る配信サーバが推定する属性情報の他の例を説明する図である。なお、図11に示す例では、各画像C10〜C13の特徴量として、各次元の値が「0」または「1」である多次元量のベクトルを記載した。
[8-1. Variation of attribute information to be estimated]
For example, when estimating the attribute information of the user, the distribution server 10 calculates the matching rate between the feature amount registered in the user estimation model 17 and the feature amount of the selected image, and considers the calculated matching rate The attribute information may be estimated. For example, FIG. 11 is a diagram for explaining another example of the attribute information estimated by the distribution server according to the embodiment. Note that, in the example illustrated in FIG. 11, a vector of multidimensional amounts in which each dimension value is “0” or “1” is described as the feature amount of each of the images C10 to C13.

まず、配信サーバ10は、図11中(A)に示すように、学習器を用いて、利用者により選択された広告画像C10〜C13の特徴量を算出する。また、配信サーバ10は、図11中(B)に示すように、各広告画像C10〜C13を選択した利用者の属性情報を特定する。そして、配信サーバ10は、図11中(C)に示すように、各広告画像C10の特徴量と属性情報とを対応付けたユーザー推定モデル17を生成する。   First, as illustrated in (A) of FIG. 11, the distribution server 10 calculates feature amounts of the advertisement images C10 to C13 selected by the user using a learning device. Further, as illustrated in (B) in FIG. 11, the distribution server 10 specifies attribute information of the user who has selected each of the advertisement images C10 to C13. Then, as shown in (C) in FIG. 11, the distribution server 10 generates a user estimation model 17 in which the feature amount of each advertisement image C10 is associated with the attribute information.

続いて、配信サーバ10は、属性情報が取得できない利用者が選択した広告画像C14を取得する。かかる場合、配信サーバ10は、図11中(D)に示すように、学習器を用いて、広告画像C14の特徴量を算出する。また、配信サーバ10は、算出された特徴量と、ユーザー推定モデル17に登録された特徴量との類似度を算出し、算出した類似度を属性情報の確かさを示す値としてクリック率の推定を行う。具体的な例を挙げると、配信サーバ10は、算出された特徴量と、ユーザー推定モデル17に登録された特徴量とを次元ごとに比較し、値が一致する次元の数を、特徴量の次元数で除算した値を類似度とする。   Subsequently, the distribution server 10 acquires the advertisement image C14 selected by the user who can not acquire the attribute information. In such a case, the distribution server 10 calculates the feature amount of the advertisement image C14 using a learning device as shown in (D) in FIG. Further, the distribution server 10 calculates the similarity between the calculated feature amount and the feature amount registered in the user estimation model 17, and estimates the click rate as a value indicating the certainty of the attribute information. I do. As a specific example, the distribution server 10 compares the calculated feature amount with the feature amount registered in the user estimation model 17 for each dimension, and calculates the number of dimensions with matching values The value divided by the number of dimensions is the similarity.

例えば、配信サーバ10は、図11中(E)に示すように、広告画像C10の特徴量と広告画像C14の特徴量との類似度が「0.6」である場合は、広告画像C10と対応する属性情報「男性」の確かさが「60パーセント」であると推定する。同様に、配信サーバ10は、広告画像C11の特徴量と広告画像C14の特徴量との類似度が「0.4」である場合は、広告画像C11と対応する属性情報「女性」の確かさが「40パーセント」であると推定する。   For example, as indicated by (E) in FIG. 11, if the similarity between the feature amount of the advertisement image C10 and the feature amount of the advertisement image C14 is "0.6", the distribution server 10 It is estimated that the certainty of the corresponding attribute information “male” is “60%”. Similarly, when the similarity between the feature amount of the advertisement image C11 and the feature amount of the advertisement image C14 is "0.4", the distribution server 10 confirms the attribute information "female" corresponding to the advertisement image C11 Is estimated to be "40 percent".

また、配信サーバ10は、広告画像C12の特徴量と広告画像C14の特徴量との類似度が「0.1」である場合は、広告画像C12と対応する属性情報「30代」の確かさが「10パーセント」であると推定する。同様に、配信サーバ10は、広告画像C13の特徴量と広告画像C14の特徴量との類似度が「0.7」である場合は、広告画像C13と対応する属性情報「10代」の確かさが「70パーセント」であると推定する。   In addition, when the similarity between the feature amount of the advertisement image C12 and the feature amount of the advertisement image C14 is “0.1”, the distribution server 10 confirms the certainty of the attribute information “30s” corresponding to the advertisement image C12. Is estimated to be "10 percent". Similarly, when the similarity between the feature amount of the advertisement image C13 and the feature amount of the advertisement image C14 is "0.7", the distribution server 10 confirms the attribute information "ten's" corresponding to the advertisement image C13. Is estimated to be "70 percent."

かかる推定を行った場合、配信サーバ10は、利用者がが「60パーセント」の確率で「男性」であり、「40パーセント」の確率で「女性」であるものとして、クリック率の算出を行う。例えば、配信サーバ10は、クリック率を算出する際に用いられるモデルのパラメータのうち、推定された属性情報が「男性」である場合に考慮されるパラメータに「0.6」を積算し、推定された属性情報が「女性」である場合に考慮されるパラメータに「0.4」を積算する。   When such estimation is performed, the distribution server 10 calculates the click rate on the assumption that the user is a "male" with a probability of "60%" and a "female" with a probability of "40%". . For example, the distribution server 10 integrates “0.6” into the parameter to be considered when the estimated attribute information is “male” among the parameters of the model used when calculating the click rate, and estimates “0.4” is integrated to the parameter considered when the attribute information obtained is “female”.

このように、配信サーバ10は、特徴量の一致率を考慮した属性情報を算出することで、利用者の属性をより詳細に推定することができるので、クリック率をより適切に算出することができる。例えば、配信サーバ10は、70パーセントの確率で男性向けの広告画像を選択し、30パーセントの確率で女性向けの広告画像を選択するといった予測に基づいて、クリック率を算出することができる。   As described above, since the distribution server 10 can estimate the attribute of the user in more detail by calculating the attribute information in consideration of the matching rate of the feature amount, it is possible to calculate the click rate more appropriately. it can. For example, the distribution server 10 can calculate the click rate based on the prediction that the advertisement image for men is selected with a probability of 70%, and the advertisement image for women is selected with a probability of 30%.

〔8−2.配信サーバ10が用いる学習用画像について〕
上述した例では、配信サーバ10は、学習用画像データベース14に登録された画像を用いて、抽象化された画像の特徴を学習器に学習させた。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10は、学習処理を行わず、外部のサーバ等によって任意の学習が行われた学習器を取得し、取得した学習器を用いて生成処理や配信処理を実行してもよい。また、配信サーバ10は、生成処理と配信処理とで異なる学習器を用いてもよい。例えば、配信サーバ10は、生成処理に最適化した学習器と配信処理に最適化した学習器とを利用してもよい。
[8-2. About the image for learning which distribution server 10 uses]
In the example described above, the distribution server 10 causes the learning device to learn the features of the abstracted image using the image registered in the learning image database 14. However, the embodiments are not limited to this. For example, the distribution server 10 may acquire a learning device on which arbitrary learning is performed by an external server or the like without performing learning processing, and may execute generation processing and distribution processing using the acquired learning device. In addition, the distribution server 10 may use different learning devices for the generation process and the distribution process. For example, the distribution server 10 may use a learning device optimized for the generation process and a learning device optimized for the distribution process.

また、学習処理を行う場合は、学習器に学習させたい特徴がより現れた画像を入力することで、学習用画像の数や学習回数を削減でき、あるいは、精度良く特徴を学習させることができる。そこで、配信サーバ10は、広告データベース18に登録された広告画像を学習用画像として採用してもよい。   In addition, when performing the learning process, the number of learning images and the number of times of learning can be reduced by inputting an image in which the feature to be learned appears more in the learning device, or the feature can be learned accurately. . Therefore, the distribution server 10 may adopt an advertisement image registered in the advertisement database 18 as a learning image.

また、配信サーバ10は、所定の属性情報を有する利用者により選択された割合が所定の閾値よりも多い画像を学習用画像として採用し、学習器の学習を行ってもよい。例えば、配信サーバ10は、属性情報が「男性」である利用者により選択された割合が閾値「80パーセント」以上となる広告画像を学習用画像として採用してもよい。かかる処理を行うことで、配信サーバ10は、学習器に特徴を精度良く学習させることができるので、属性情報の予測精度を向上させることができる。   In addition, the distribution server 10 may adopt an image having a ratio selected by the user having predetermined attribute information more than a predetermined threshold as an image for learning, and may perform learning of the learning device. For example, the distribution server 10 may adopt, as a learning image, an advertisement image in which the proportion selected by the user whose attribute information is “male” is equal to or higher than the threshold “80%”. By performing such processing, the distribution server 10 can cause the learning device to learn the features with high accuracy, so that the prediction accuracy of the attribute information can be improved.

また、配信サーバ10は、様々な広告画像の特徴量を精度良く算出するため、特徴がそれぞれ異なる画像を学習用画像として採用してもよい。   Further, the distribution server 10 may adopt images with different features as learning images in order to calculate the feature amounts of various advertisement images with high accuracy.

〔8−3.クリック率の算出〕
上述した例では、配信サーバ10は、特徴量から予測クリック率と属性情報とを推定し、推定した予測クリック率と属性情報とを用いて、各広告画像のクリック率を算出した。しかしながら、実施形態はこれに限定されるものではない。例えば、配信サーバ10は、予測クリック率の算出を行わず、特徴量から属性情報を推定し、推定した属性情報に基づいて、各広告画像のクリック率を算出してもよい。
[8-3. Calculation of click rate]
In the example described above, the distribution server 10 estimates the predicted click rate and the attribute information from the feature amount, and calculates the click rate of each advertisement image using the estimated predicted click rate and the attribute information. However, the embodiment is not limited to this. For example, the distribution server 10 may estimate attribute information from the feature amount without calculating the predicted click rate, and may calculate the click rate of each advertisement image based on the estimated attribute information.

ここで、図8に示すように、コールドスタート状態においては、特徴量そのものを用いてクリック率を推定するよりも、属性情報を用いてクリック率を推定した方が、クリック率の推定精度を大幅に向上させることができる。このため、配信サーバ10は、予測クリック率を用いずとも、属性情報に基づいてクリック率を推定することで、クリック率の予測精度の悪化を防ぎつつ、配信処理に伴う計算資源を削減することができる。   Here, as shown in FIG. 8, in the cold start state, estimating the click rate using attribute information rather than estimating the click rate using the feature amount itself significantly improves the estimation accuracy of the click rate. Can be improved. For this reason, the distribution server 10 reduces computational resources involved in distribution processing while preventing deterioration in the prediction accuracy of the click rate by estimating the click rate based on the attribute information without using the predicted click rate. Can.

また、配信サーバ10は、利用者が選択した広告画像の実績クリック率と、かかる広告画像の特徴量とを用いて、かかる広告画像の予測クリック率を算出してもよい。また、配信サーバ10は、各広告画像の実績クリック率と、推定された属性情報と、予測クリック率とに基づいて、各広告画像のクリック率を予測してもよい。   Further, the distribution server 10 may calculate the predicted click rate of the advertisement image using the actual click rate of the advertisement image selected by the user and the feature amount of the advertisement image. In addition, the distribution server 10 may predict the click rate of each advertisement image based on the actual click rate of each advertisement image, the estimated attribute information, and the predicted click rate.

〔8−4.属性情報の推定に用いられる広告画像について〕
例えば、利用者は、ウェブページ等に配置される広告以外の画像と比較して、広告画像をより能動的に選択すると予測される。このため、配信サーバ10は、利用者が選択した広告画像の特徴量を用いてかかる利用者の属性情報を推定することで、かかる利用者の属性情報を精度良く推定した。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10は、利用者が選択した広告画像以外の画像の特徴量を用いて、利用者の属性情報を推定してもよい。また、配信サーバ10は、利用者が選択した広告画像の特徴量と、かかる利用者が選択した広告画像以外の画像の特徴量とを用いて、属性情報を推定してもよい。かかる場合、配信サーバ10は、広告画像の特徴量を優先する重みづけを行ってもよい。
[8-4. About advertisement image used for estimation of attribute information]
For example, the user is predicted to more actively select an advertisement image as compared to an image other than an advertisement placed on a web page or the like. Therefore, the distribution server 10 accurately estimates the attribute information of the user by estimating the attribute information of the user using the feature amount of the advertisement image selected by the user. However, the embodiments are not limited to this. For example, the distribution server 10 may estimate the attribute information of the user using feature amounts of images other than the advertisement image selected by the user. Further, the distribution server 10 may estimate attribute information using the feature amount of the advertisement image selected by the user and the feature amount of the image other than the advertisement image selected by the user. In such a case, the distribution server 10 may perform weighting in which the feature amount of the advertisement image is prioritized.

〔8−5.動画像を用いた属性情報の推定について〕
また、配信サーバ10は、利用者が閲覧した動画像を用いて、かかる利用者の属性情報を推定してもよい。例えば、配信サーバ10は、利用者が再生中の動画一時停止させた場合や、カーソルを再生中の動画に合わせた場合等、利用者が興味を持ったと予測されるフレームの画像を利用者が選択した画像として取得する。そして、配信サーバ10は、取得した画像の特徴量から利用者の属性情報を推定してもよい。
[8-5. Estimation of Attribute Information Using Moving Image]
In addition, the distribution server 10 may estimate the attribute information of the user by using the moving image browsed by the user. For example, in the case where the distribution server 10 pauses the moving image being played by the user, or when the cursor is placed on the moving image being played, the user can use an image of a frame predicted to be of interest to the user. Acquire as a selected image. Then, the distribution server 10 may estimate the attribute information of the user from the acquired feature amount of the image.

例えば、図12は、実施形態にかかる配信サーバが動画像から選択された画像に基づいて属性情報を推定する処理の一例を示す図である。例えば、図12に示す例では、端末装置100は、動画像C20の再生を行うとともに、動画像C20の再生を制御する制御バーT10を表示する。また、制御バーT10には、広告が挿入されるタイミングT11、T12が表示されており、かかるタイミングT11、T12において、所定の広告動画が再生される。   For example, FIG. 12 is a diagram illustrating an example of a process in which the distribution server according to the embodiment estimates attribute information based on an image selected from a moving image. For example, in the example illustrated in FIG. 12, the terminal device 100 reproduces the moving image C20 and displays a control bar T10 that controls the reproduction of the moving image C20. Further, timings T11 and T12 at which an advertisement is inserted are displayed on the control bar T10, and a predetermined advertisement moving image is reproduced at the timings T11 and T12.

ここで、端末装置100は、利用者の操作によりカーソルC21が動画像C20の再生を一時停止した場合は、一時停止時に表示されたフレームを選択された画像C22として配信サーバ10に送信する。かかる場合、配信サーバ10は、図12中(A)に示すように、画像C22の特徴量を算出し、算出した特徴量から利用者の属性情報を推定する。例えば、配信サーバ10は、画像C22の特徴量と予め生成したユーザー推定モデル17とを用いて、図12中(B)に示すように、利用者の属性情報「10代」、「男性」を推定する。   Here, when the cursor C21 suspends the reproduction of the moving image C20 by the operation of the user, the terminal device 100 transmits the frame displayed at the time of the pause to the distribution server 10 as the selected image C22. In such a case, the distribution server 10 calculates the feature of the image C22 as shown in FIG. 12A, and estimates the attribute information of the user from the calculated feature. For example, the distribution server 10 uses the feature amount of the image C22 and the user estimation model 17 generated in advance, and as shown in (B) of FIG. presume.

また、配信サーバ10は、推定した属性情報に基づいて、タイミングT11、T12で挿入される広告の切り替えを行う。例えば、図12中(C)に示す例では、タイミングT11で挿入される広告として、20代の女性に向けた広告Aが選択され、タイミングT12で挿入される広告として、30代の女性に向けた広告Bが選択されていた。しかしながら、推定される利用者の属性情報は「10代」、「男性」である。そこで、配信サーバ10は、図12中(D)に示すように、タイミングT11、T12で挿入される広告を推定された属性情報に基づいて切替える。   Further, the distribution server 10 switches the advertisement inserted at timings T11 and T12 based on the estimated attribute information. For example, in the example shown in (C) in FIG. 12, an advertisement A directed to a woman in 20s is selected as an advertisement to be inserted at timing T11, and it is directed to a woman in 30s as an advertisement inserted at timing T12. Ad B was selected. However, the attribute information of the estimated user is "teens" and "male". Therefore, as shown in (D) in FIG. 12, the distribution server 10 switches the advertisement inserted at timings T11 and T12 based on the estimated attribute information.

例えば、配信サーバ10は、図12中(E)に示すように、タイミングT11で挿入される広告として、10代の男性に向けた広告Cを新たに選択し、タイミングT12で挿入される広告として、10代の男性に向けた広告Dを新たに選択する。この結果、配信サーバ10は、利用者の属性情報が不明である場合にも、利用者が興味を有すると推定される広告を配信することができる。   For example, as illustrated in (E) of FIG. 12, the distribution server 10 newly selects an advertisement C directed to a teenage male as an advertisement to be inserted at timing T11, and as an advertisement to be inserted at timing T12. , Select a new advertisement D for teenage men. As a result, even when the attribute information of the user is unknown, the distribution server 10 can distribute an advertisement presumed to be of interest to the user.

なお、配信サーバ10は、動画像のうち、利用者が選択した画像が含まれる位置を考慮して、利用者の属性情報を推定してもよい。また、配信サーバ10は、利用者が複数の画像を選択した場合、各画像を選択した順序や、動画像において各画像が表示される時系列等を考慮して、利用者の属性情報を推定するユーザー推定モデル17を生成してもよい。   The distribution server 10 may estimate the attribute information of the user in consideration of the position of the moving image in which the image selected by the user is included. In addition, when the user selects a plurality of images, the distribution server 10 estimates the user's attribute information in consideration of the order in which the images are selected, the time series in which each image is displayed in the moving image, and the like. User estimation model 17 may be generated.

〔8−6.複数の画像を用いた属性情報の推定について〕
上述した例では、配信サーバ10は、利用者が選択した画像の特徴量からかかる利用者の属性情報を推定した。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10は、利用者が選択した複数の画像の特徴量から利用者の属性情報を推定してもよい。
[8-6. Regarding Estimation of Attribute Information Using Multiple Images]
In the example described above, the distribution server 10 estimates the attribute information of the user from the feature amount of the image selected by the user. However, the embodiments are not limited to this. For example, the distribution server 10 may estimate the attribute information of the user from the feature amounts of the plurality of images selected by the user.

具体例を説明すると、配信サーバ10は、利用者が選択した複数の広告画像の特徴量をそれぞれ算出し、ユーザー推定モデル17を用いて、算出した各特徴量から推定される利用者の属性情報をすべて特定する。そして、配信サーバ10は、特定した属性情報のうち共通する属性情報を利用者の属性情報としてもよい。   Describing a specific example, the distribution server 10 calculates the feature amounts of the plurality of advertisement images selected by the user, and uses the user estimation model 17 to obtain attribute information of the user estimated from the calculated feature amounts. Identify all Then, the distribution server 10 may use common attribute information among the specified attribute information as the user's attribute information.

また、配信サーバ10は、利用者が選択した複数の画像の並びに基づいて、利用者の属性情報を推定してもよい。例えば、配信サーバ10は、属性情報が取得可能な利用者が選択した複数の広告画像の特徴量と、各広告画像を選択した順序とに基づいて、選択された複数の画像と選択された順序とから利用者の属性情報を推定するユーザー推定モデル17を生成する。そして、配信サーバ10は、利用者が選択した広告画像の特徴量と、利用者が広告画像を選択した順序とから、ユーザー推定モデル17を用いて、かかる利用者の属性情報を推定してもよい。例えば、配信サーバ10は、属性情報が「男性」である利用者が選択画像C10を選択し、その後、選択画像C13を選択した場合、特徴量が選択画像C10の特徴量と類似する広告画像を選択し、その後、特徴量が選択画像C13の特徴量と類似する広告画像を選択した利用者の属性情報を「男性」であると推定してもよい。   In addition, the distribution server 10 may estimate the attribute information of the user based on the sequence of the plurality of images selected by the user. For example, the distribution server 10 selects the plurality of images selected based on the feature amounts of the plurality of advertisement images selected by the user who can obtain the attribute information and the order in which the advertisement images are selected. And generate a user estimation model 17 for estimating user attribute information. Then, the distribution server 10 estimates the attribute information of the user using the user estimation model 17 from the feature amount of the advertisement image selected by the user and the order in which the user selects the advertisement image. Good. For example, when the user whose attribute information is "male" selects the selected image C10 and then selects the selected image C13, the distribution server 10 selects an advertisement image whose feature amount is similar to that of the selected image C10. The attribute information of the user who has selected and then selected the advertisement image whose feature amount is similar to the feature amount of the selected image C13 may be estimated to be “male”.

〔8−7.推定方法の入替について〕
また、配信サーバ10は、取得済みの属性情報が所定の閾値よりも少ない利用者の属性情報を推定してもよい。例えば、図13は、推定方法の入替を説明する図である。図13には、広告画像の選択があったセッションを抽出し、抽出したセッションにおいて選択を行ったのが男性であるか女性であるかを教師ラベルとし、ロジスティック回帰で広告画像から選択した利用者の性別を推定した際のAUCと重複率との対応を、Baselineを用いた推定手法とCNNを用いた推定手法とについてプロットした。
[8-7. About exchange of estimation method]
Also, the distribution server 10 may estimate user attribute information whose acquired attribute information is less than a predetermined threshold. For example, FIG. 13 is a diagram for explaining replacement of the estimation method. In FIG. 13, a session in which an advertisement image has been selected is extracted, and it is a teacher label whether it is male or female who made a selection in the extracted session, and a user selected from the advertisement image by logistic regression The correspondence between the AUC and the overlapping rate when estimating the gender was plotted for the estimation method using Baseline and the estimation method using CNN.

例えば、図13に示すように、Baselineを用いた推定手法では、利用者のログが多くなるにつれて精度が向上する。一方で、CNNを用いた推定手法では、利用者のログが少ない場合にBaselineを用いた推定手法よりも精度良く推定を行える。   For example, as shown in FIG. 13, in the estimation method using Baseline, the accuracy improves as the number of user logs increases. On the other hand, the estimation method using CNN can perform estimation more accurately than the estimation method using Baseline when the user's log is small.

そこで、配信サーバ10は、広告画像を選択した利用者について取得済みの属性情報が所定の閾値よりも少ない場合は、かかる利用者の属性情報を、かかる利用者が選択した広告画像の特徴量から推定し、広告画像を選択した利用者について取得済みの属性情報が所定の閾値よりも多い場合は、ID素性等、利用者が選択した画像の特徴量以外の情報を用いて、かかる利用者の属性情報を推定してもよい。このような処理を実行することで、配信サーバ10は、コールドスタート状態以外の場合にも、利用者の属性情報を精度良く推定することができる。   Therefore, if the attribute information already acquired for the user who selected the advertisement image is less than the predetermined threshold, the distribution server 10 uses the attribute information of the user from the feature amount of the advertisement image selected by the user. If there is more acquired attribute information for the user who has estimated and selected the advertisement image than the predetermined threshold, information other than the feature amount of the image selected by the user, such as the ID feature, is used to Attribute information may be estimated. By executing such a process, the distribution server 10 can accurately estimate the user's attribute information even in the cold start state.

〔8−8.モデルについて〕
なお、配信サーバ10は、生成処理の実行時に、上述した各種処理を実現するモデルを生成してよい。例えば、配信サーバ10は、利用者が選択した複数の広告画像の特徴量に応じて、かかる利用者の属性情報を推定するユーザー推定モデル17を生成してもよい。例えば、配信サーバ10は、利用者が選択した複数の広告画像の特徴量をそれぞれ入力とし、かかる特徴量から推定される利用者の属性情報を出力とする関数形式のユーザー推定モデル17を生成してもよい。
[8-8. About the model]
The distribution server 10 may generate a model that realizes the various types of processing described above when the generation processing is performed. For example, the distribution server 10 may generate the user estimation model 17 for estimating the attribute information of the user according to the feature amounts of the plurality of advertisement images selected by the user. For example, the distribution server 10 generates a user estimation model 17 of a functional format which receives as input the feature quantities of a plurality of advertisement images selected by the user and outputs as user attribute information estimated from the feature quantities. May be

また、配信サーバ10は、広告画像の特徴量から、属性情報と予測クリック率とを推定し、推定した属性情報と予測クリック率とを用いて、各広告画像が選択されるクリック率を算出するユーザー推定モデル17を生成してもよい。また、配信サーバ10は、広告画像を選択した利用者について取得済みの属性情報が所定の閾値よりも少ない場合は、かかる利用者の属性情報を、かかる利用者が選択した広告画像の特徴量から推定し、広告画像を選択した利用者について取得済みの属性情報が所定の閾値よりも多い場合は、ID素性等、利用者が選択した画像の特徴量以外の情報を用いて、かかる利用者の属性情報を推定するユーザー推定モデル17を生成してもよい。すなわち、配信サーバ10は、利用者が選択した広告画像の特徴量から、配信処理における任意の一部もしくは全てを実現するモデルを生成して良い。   Further, the distribution server 10 estimates attribute information and a predicted click rate from the feature amount of the advertisement image, and calculates a click rate at which each advertisement image is selected using the estimated attribute information and the predicted click rate. The user estimation model 17 may be generated. Further, when the attribute information already acquired for the user who selected the advertisement image is less than a predetermined threshold, the distribution server 10 uses the attribute information of the user from the feature amount of the advertisement image selected by the user. If there is more acquired attribute information for the user who has estimated and selected the advertisement image than the predetermined threshold, information other than the feature amount of the image selected by the user, such as the ID feature, is used to A user estimation model 17 for estimating attribute information may be generated. That is, the distribution server 10 may generate a model that realizes an arbitrary part or all of the distribution processing from the feature amount of the advertisement image selected by the user.

〔8−9.属性情報推定後の処理について〕
上述した配信サーバ10は、推定した属性情報を用いて、広告画像の配信を行った。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10は、推定した属性情報を用いて、各種情報のリコメンドや、配信対象となるコンテンツの切り替え等を行ってもよい。また、配信サーバ10は、ユーザー推定モデル17を用いて推定された属性情報と、あらかじめ登録された利用者の属性情報とを比較することで、利用者の素性を推定してもよい。また、配信サーバ10は、推定した利用者の素性に基づいて、消去されたBクッキー等のコネクションを復活させてもよい。すなわち、配信サーバ10は、ユーザー推定モデル17を用いて推定された利用者の属性情報に基づいて、任意の処理を実現することができる。
[8-9. About processing after attribute information estimation]
The distribution server 10 described above distributes the advertisement image using the estimated attribute information. However, the embodiments are not limited to this. For example, the distribution server 10 may recommend various information, switch contents to be distributed, and the like using the estimated attribute information. Alternatively, the distribution server 10 may estimate the identity of the user by comparing the attribute information estimated using the user estimation model 17 with the attribute information of the user registered in advance. Also, the distribution server 10 may restore the connection such as the deleted B cookie based on the estimated user identity. That is, the distribution server 10 can realize an arbitrary process based on the attribute information of the user estimated using the user estimation model 17.

〔8−10.属性情報推定のタイミングについて〕
また、配信サーバ10は、利用者の属性情報等のログが十分に溜まるまで、かかる利用者が選択した画像の特徴量から属性情報を随時推定してもよい。また、配信サーバ10は、推定された属性情報の遍歴に基づいて、推定される属性情報を随時更新してもよい。また、配信サーバ10は、かかる処理を実現するユーザー推定モデル17を生成してもよい。
[8-10. About timing of attribute information estimation]
In addition, the distribution server 10 may estimate attribute information from the feature amounts of images selected by the user as needed until a log such as the attribute information of the user is sufficiently accumulated. In addition, the distribution server 10 may update the estimated attribute information as needed based on the estimated history of the attribute information. Also, the distribution server 10 may generate a user estimation model 17 that realizes such processing.

〔8−11.動作主体について〕
上述した実施形態では、配信サーバ10が学習処理、生成処理、配信処理を実行する例について記載した。しかしながら、実施形態は、これに限定されるものではない。例えば、配信サーバ10が実行する処理は、学習処理を実行する学習装置と、生成処理を行うモデル生成装置と、モデル生成装置が生成したユーザー推定モデル17を用いて利用者の属性情報を推定し、推定した属性情報を用いて広告画像を配信する配信装置とによって実現されてもよい。
[8-11. About the subject of action]
In the embodiment described above, an example in which the distribution server 10 executes the learning process, the generation process, and the distribution process has been described. However, the embodiments are not limited to this. For example, in the process executed by the distribution server 10, the attribute information of the user is estimated using the learning device that executes the learning process, the model generation device that performs the generation process, and the user estimation model 17 generated by the model generation device. The present invention may be realized by a distribution device that distributes an advertisement image using the estimated attribute information.

〔8−12.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8-12. Other]
Further, among the processes described in the above embodiment, all or part of the process described as being automatically performed may be manually performed, or the process described as being manually performed. All or part of them can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Moreover, it is possible to combine suitably each embodiment mentioned above in the range which does not contradict process content.

〔8−13.プログラム〕
また、上記してきた実施形態に係る配信サーバ10は、例えば図14に示すような構成のコンピュータ1000によって実現される。以下、配信サーバ10を例に挙げて説明する。図14は、配信サーバの機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
[8-13. program〕
Also, the distribution server 10 according to the embodiment described above is realized by, for example, a computer 1000 having a configuration as shown in FIG. Hereinafter, the distribution server 10 will be described as an example. FIG. 14 is a hardware configuration diagram showing an example of a computer that implements the function of the distribution server. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 to control each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、および、係るプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを他の機器へ送信する。   The HDD 1400 stores a program executed by the CPU 1100, data used by the program, and the like. The communication interface 1500 receives data from another device via the network N, sends it to the CPU 1100, and transmits data generated by the CPU 1100 to the other device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from an input device via the input / output interface 1600. The CPU 1100 also outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、係るプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the CPU 1100 with the program via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a digital versatile disc (DVD) or a phase change rewritable disc (PD), a magneto-optical recording medium such as a magneto-optical disk (MO), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る配信サーバ10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部13の機能を実現する。また、HDD1400には、記憶部12内のデータ、すなわち学習用画像データベース14、接続係数記憶部15、モデル生成用画像データベース16、ユーザー推定モデル17、広告データベース18が格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the distribution server 10 according to the embodiment, the CPU 1100 of the computer 1000 realizes the function of the control unit 13 by executing a program loaded on the RAM 1200. The HDD 1400 also stores data in the storage unit 12, that is, the learning image database 14, the connection coefficient storage unit 15, the model generation image database 16, the user estimation model 17, and the advertisement database 18. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from other devices.

〔9.効果〕
上述したように、配信サーバ10は、画像から特徴量を算出する学習器を用いて、利用者により選択された履歴を有する画像の特徴量を算出する。そして、配信サーバ10は、算出した特徴量と、画像を選択した利用者の属性を示す属性情報とに基づいて、画像の特徴量からかかる画像を選択した利用者の属性情報を推定するユーザー推定モデル17を生成する。
[9. effect〕
As described above, the distribution server 10 calculates the feature amount of the image having the history selected by the user, using the learning device that calculates the feature amount from the image. Then, the distribution server 10 estimates the user attribute information of the user who has selected the image from the image feature amount based on the calculated feature amount and the attribute information indicating the attribute of the user who selected the image. Generate a model 17.

このため、配信サーバ10は、利用者の属性情報を推定することができる。特に、配信サーバ10は、コールドスタート状態等、広告の配信先となる利用者の属性情報が不明な場合にも、かかる利用者の属性情報を精度良く推定できるので、クリック率の推定精度を向上させ、配信対象となる広告を適切に選択できる。   Therefore, the distribution server 10 can estimate the attribute information of the user. In particular, the distribution server 10 can accurately estimate the attribute information of the user who is the delivery destination of the advertisement, such as a cold start state, because the attribute information of the user can be accurately estimated. And you can properly select the ad to be delivered.

ここで、各利用者が選択した画像の特徴量を算出し、算出した特徴量を比較することで、利用者の属性情報を推定する手法も考えられるが、かかる処理を実行する場合は、大量のセッションログを参照する必要があるため、計算コストが増大する。しかしながら、配信サーバ10は、ユーザー推定モデル17を生成することで、属性情報を推定する利用者が選択した画像の特徴量を算出するだけでよいので、属性情報の推定に要する計算コストを削減することができる。   Here, there is also conceivable a method of estimating the attribute information of the user by calculating the feature amount of the image selected by each user and comparing the calculated feature amounts, but in the case of executing such processing, a large amount of The computational cost increases because it is necessary to refer to the session log of However, since the distribution server 10 only needs to calculate the feature amount of the image selected by the user who estimates attribute information by generating the user estimation model 17, the calculation cost required to estimate the attribute information is reduced. be able to.

また、配信サーバ10は、学習器として、入力データに対する演算結果を出力する複数のノードを多層に接続した学習器であって、教師なし学習により抽象化された画像の特徴を学習した学習器を用いる。このため、配信サーバ10は、利用者の属性情報を精度良く推定することができる。   In addition, the distribution server 10 is a learning device in which a plurality of nodes that output calculation results for input data are connected in multiple layers as a learning device, and a learning device that has learned features of an image abstracted by unsupervised learning. Use. Therefore, the distribution server 10 can accurately estimate the attribute information of the user.

また、配信サーバ10は、学習器として、局所領域の畳み込みとプーリングを繰り返すことで、画像の変異に対する出力の普遍性をさらに学習した学習器、いわゆるCNNを用いる。このため、配信サーバ10は、画像における撮像対象の位置によらず、撮像対象の区別に応じた特徴量を算出できるので、利用者の属性情報をさらに精度良く推定することができる。   In addition, the distribution server 10 uses, as a learning device, a learning device, so-called CNN, which further learns the universality of the output for the mutation of the image by repeating convolution and pooling of the local region. Therefore, the distribution server 10 can calculate the feature amount according to the distinction of the imaging target regardless of the position of the imaging target in the image, and therefore can estimate the attribute information of the user with higher accuracy.

また、配信サーバ10は、学習器として、所定の属性を有する利用者により選択された割合が、所定の閾値よりも多い画像を用いて、抽象化された画像の特徴を学習した学習器を用いる。この結果、配信サーバ10は、抽象化された画像の特徴を精度良く抽出できる学習器を用いて、選択された画像の特徴量を算出するので、利用者の属性情報をさらに精度良く推定することができる。   In addition, the distribution server 10 uses, as a learning device, a learning device that learns the features of the abstracted image using an image with a ratio selected by the user having a predetermined attribute being greater than a predetermined threshold. . As a result, since the distribution server 10 calculates the feature amount of the selected image using a learning device that can extract the features of the abstracted image with high accuracy, the user's attribute information can be more accurately estimated. Can.

また、配信サーバ10は、ユーザー推定モデル17として、画像を選択した利用者の属性情報を画像の特徴量から推定し、推定された属性情報を用いて、利用者が他の画像を選択するクリック率を算出するモデルを生成する。このため、配信サーバ10は、コールドスタート状態においても、クリック率を精度良く推定することができる。   Also, the distribution server 10 estimates the attribute information of the user who has selected the image from the feature amount of the image as the user estimation model 17, and uses the estimated attribute information to select another image. Generate a model to calculate rates. Therefore, the distribution server 10 can accurately estimate the click rate even in the cold start state.

また、配信サーバ10は、ユーザー推定モデル17として、画像を選択した利用者の属性情報と利用者が画像を選択する予測クリック率とを画像の特徴量から推定し、推定された属性情報と予測クリック率とを用いて、かかる利用者が他の画像を選択するクリック率を算出するモデルを生成する。このため、配信サーバ10は、コールドスタート状態においても、クリック率をさらに精度良く推定することができる。   Further, the distribution server 10 estimates the attribute information of the user who has selected the image and the predicted click rate at which the user selects the image from the feature amount of the image as the user estimation model 17, and estimates the attribute information and the estimation The click rate is used to generate a model for calculating the click rate for the user to select another image. Therefore, the distribution server 10 can more accurately estimate the click rate even in the cold start state.

また、配信サーバ10は、ユーザー推定モデル17として、動画像を選択した利用者の属性情報を、動画像に含まれる画像のうち、利用者が選択した際に表示されていた画像の特徴量から推定するモデルを生成する。このため、配信サーバ10は、動画像を閲覧する利用者の属性情報を推定することができる。   In addition, the distribution server 10 uses the feature amount of the image displayed when the user selects, among the images included in the moving image, the attribute information of the user who selected the moving image as the user estimation model 17 Generate a model to estimate. For this reason, the distribution server 10 can estimate attribute information of a user who browses a moving image.

また、配信サーバ10は、ユーザー推定モデル17として、利用者が選択した複数の画像の特徴量からかかる利用者の属性情報を推定するモデルを生成する。このため、配信サーバ10は、利用者の属性情報をさらに精度良く推定することができる。   In addition, the distribution server 10 generates, as the user estimation model 17, a model for estimating the attribute information of the user from the feature amounts of the plurality of images selected by the user. Therefore, the distribution server 10 can estimate the attribute information of the user with higher accuracy.

また、配信サーバ10は、ユーザー推定モデル17として、利用者が選択した複数の画像の特徴量と、利用者が各画像を選択した順序とから、かかる利用者の属性情報を推定するモデルを生成する。このため、配信サーバ10は、利用者の属性情報をさらに精度良く推定することができる。   Further, the distribution server 10 generates, as the user estimation model 17, a model for estimating the attribute information of the user from the feature quantities of the plurality of images selected by the user and the order in which the user selects each image. Do. Therefore, the distribution server 10 can estimate the attribute information of the user with higher accuracy.

また、配信サーバ10は、ユーザー推定モデル17として、広告画像の特徴量からかかる広告画像を選択した利用者の属性情報を推定するモデルを生成する。すなわち、配信サーバ10は、利用者が能動的に選択した画像の特徴量からかかる利用者の属性情報を推定するので、利用者の属性情報をより精度良く推定することができる。   Further, the distribution server 10 generates, as the user estimation model 17, a model for estimating attribute information of the user who has selected the advertisement image from the feature amount of the advertisement image. That is, since the distribution server 10 estimates the attribute information of the user from the feature amount of the image actively selected by the user, the attribute information of the user can be estimated more accurately.

また、配信サーバ10は、ユーザー推定モデル17として、取得済みの属性情報が所定の閾値よりも少ない利用者の属性情報を、かかる利用者が選択した画像の特徴量から推定するモデルを生成する。このため、配信サーバ10は、コールドスタート状態以外の場合にも、利用者の属性情報を精度良く推定することができる。   Further, the distribution server 10 generates, as the user estimation model 17, a model for estimating the attribute information of the user whose acquired attribute information is less than a predetermined threshold from the feature amount of the image selected by the user. For this reason, the distribution server 10 can accurately estimate the attribute information of the user even in a state other than the cold start state.

また、配信サーバ10は、生成したユーザー推定モデル17を用いて、利用者が選択した画像の特徴量から、かかる利用者の属性情報を推定し、推定した属性情報を用いて、配信対象となる画像のクリック率を算出し、算出したクリック率に基づいて、配信する画像を選択する。このため、配信サーバ10は、コールドスタート状態においても、利用者が興味を有すると推定される画像を選択できるので、画像配信に対する報酬を増加させることができる。   In addition, the distribution server 10 estimates the attribute information of the user from the feature amount of the image selected by the user using the generated user estimation model 17, and becomes the distribution target using the estimated attribute information. An image click rate is calculated, and an image to be distributed is selected based on the calculated click rate. Therefore, even in the cold start state, the distribution server 10 can select an image that is estimated to be of interest to the user, and therefore, the reward for image distribution can be increased.

また、配信サーバ10は、画像を選択した利用者がかかる画像を選択する予測クリック率をかかる画像の特徴量を用いて推定し、推定された属性情報と予測クリック率とを用いて、かかる利用者が他の画像を選択するクリック率を算出する。このため、配信サーバ10は、コールドスタート状態においても、利用者が興味を有すると推定される画像を選択できるので、画像配信に対する報酬を増加させることができる。   In addition, the distribution server 10 estimates the predicted click rate for the user who selected the image to select the image using the feature amount of the image, and uses the estimated attribute information and the predicted click rate to use the image. Calculate the click rate that a person chooses another image. Therefore, even in the cold start state, the distribution server 10 can select an image that is estimated to be of interest to the user, and therefore, the reward for image distribution can be increased.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although some of the embodiments of the present application have been described in detail based on the drawings, these are only examples, and various modifications can be made based on the knowledge of those skilled in the art, including the aspects described in the section of the disclosure of the invention. It is possible to implement the invention in other improved forms.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部20は、生成手段や生成回路に読み替えることができる。   Also, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the generation unit 20 can be read as a generation unit or a generation circuit.

10 配信サーバ
11 通信部
12 記憶部
13 制御部
14 学習用画像データベース
15 接続係数記憶部
16 モデル生成用画像データベース
17 ユーザー推定モデル
18 広告データベース
19 学習部
20 生成部
21 特徴量算出部
22 ユーザー情報取得部
23 モデル生成部
30 配信部
31 選択画像取得部
32 ユーザー情報推定部
33 クリック率算出部
34 広告選択部
100 端末装置
200 ウェブサーバ
DESCRIPTION OF REFERENCE NUMERALS 10 distribution server 11 communication unit 12 storage unit 13 control unit 14 image database for learning 15 connection coefficient storage unit 16 image database for model generation 17 user estimation model 18 advertisement database 19 learning unit 20 generation unit 21 feature amount calculation unit 22 user information acquisition Part 23 Model generation part 30 Distribution part 31 Selected image acquisition part 32 User information estimation part 33 Click rate calculation part 34 Advertisement selection part 100 Terminal device 200 Web server

Claims (16)

利用者により選択された履歴を有する画像の特徴量を算出する算出部と、
前記算出部が算出した特徴量と、前記利用者の属性を示す属性情報とに基づいて、画像の特徴量から当該画像を選択した利用者の属性情報を推定するモデルを生成する生成部と
を有することを特徴とするモデル生成装置。
A calculation unit that calculates feature amounts of an image having a history selected by the user;
A generation unit configured to generate a model for estimating the attribute information of the user who has selected the image from the image feature amount based on the feature amount calculated by the calculation unit and the attribute information indicating the attribute of the user A model generation device characterized by having.
前記生成部は、前記モデルとして、前記画像を選択した利用者の属性情報を当該画像の特徴量から推定し、当該推定された属性情報を用いて、当該利用者が他の画像を選択する確率を算出するモデルを生成することを特徴とする請求項1に記載のモデル生成装置。   The generation unit estimates the attribute information of the user who selected the image as the model from the feature amount of the image, and uses the estimated attribute information to select the other image by the user. The model generation apparatus according to claim 1, which generates a model for calculating. 前記生成部は、前記モデルとして、前記画像を選択した利用者の属性情報と当該利用者が当該画像を選択する確率とを当該画像の特徴量から推定し、推定された属性情報と確率とを用いて、当該利用者が他の画像を選択する確率を算出するモデルを生成することを特徴とする請求項1または2に記載のモデル生成装置。   The generation unit estimates, as the model, attribute information of a user who has selected the image and a probability that the user selects the image from the feature amount of the image, and estimates the attribute information and the probability. The model generation apparatus according to claim 1 or 2, wherein a model for calculating the probability that the user selects another image is generated using this. 前記生成部は、前記モデルとして、動画像を選択した利用者の属性情報を、当該動画像に含まれる画像のうち、当該利用者が選択した際に表示されていた画像の特徴量から推定するモデルを生成することを特徴とする請求項1〜3のうちいずれか1つに記載のモデル生成装置。   The generation unit estimates attribute information of a user who has selected a moving image as the model, from among the images included in the moving image, from the feature amounts of the image displayed when the user has selected the image. The model generation apparatus according to any one of claims 1 to 3, wherein a model is generated. 前記生成部は、前記モデルとして、利用者が選択した複数の画像の特徴量から当該複数の画像を選択した利用者の属性情報を推定するモデルを生成することを特徴とする請求項1〜4のうちいずれか1つに記載のモデル生成装置。   The generation unit generates, as the model, a model for estimating attribute information of a user who has selected the plurality of images from the feature amounts of the plurality of images selected by the user. The model generation device according to any one of the above. 前記生成部は、前記モデルとして、利用者が選択した複数の画像の特徴量と、利用者が各画像を選択した順序とから、当該複数の画像を選択した利用者の属性情報を推定するモデルを生成することを特徴とする請求項1〜5のうちいずれか1つに記載のモデル生成装置。   The generation unit is configured to estimate attribute information of a user who has selected the plurality of images from the feature amounts of the plurality of images selected by the user as the model and the order in which the user selects each image. The model generation apparatus according to any one of claims 1 to 5, wherein 前記生成部は、前記モデルとして、広告に係る画像の特徴量から当該広告に係る画像を選択した利用者の属性情報を推定するモデルを生成することを特徴とする請求項1〜6のうちいずれか1つに記載のモデル生成装置。   The said generation part produces | generates the model which estimates the attribute information of the user who selected the image which concerns on the said advertisement from the feature-value of the image which concerns on said advertisement as said model, The model generation device described in 1 or 2. 前記生成部は、前記モデルとして、取得済みの属性情報が所定の閾値よりも少ない利用者の属性情報を、当該利用者が選択した画像の特徴量から推定するモデルを生成することを特徴とする請求項1〜7のうちいずれか1つに記載のモデル生成装置。   The generation unit is characterized by generating, as the model, a model that estimates attribute information of a user whose acquired attribute information is less than a predetermined threshold from a feature of an image selected by the user. The model generation device according to any one of claims 1 to 7. 利用者により選択された履歴を有する画像から算出された特徴量と、当該利用者の属性を示す属性情報とに基づいて作成されたモデルを用いて、画像の特徴量から当該画像を選択した利用者の属性情報を推定する推定部と
前記推定部が推定した属性情報を用いて、配信対象となる画像を前記利用者が選択する確率を算出する算出部と、
前記算出部が算出した確率に基づいて、前記利用者に配信する画像を選択する選択部と
を有することを特徴とする情報配信装置。
Use that selected the image from the feature amount of the image using the model created based on the feature amount calculated from the image having the history selected by the user and the attribute information indicating the attribute of the user A estimation unit that estimates attribute information of a person, and a calculation unit that calculates a probability that the user selects an image to be distributed using the attribute information estimated by the estimation unit;
An information distribution apparatus comprising: a selection unit that selects an image to be distributed to the user based on the probability calculated by the calculation unit.
前記算出部は、前記画像を選択した利用者が当該画像を選択する確率を当該画像の特徴量を用いて推定し、推定された属性情報と確率とを用いて、当該利用者が他の画像を選択する確率を算出することを特徴とする請求項9に記載の情報配信装置。   The calculation unit estimates the probability that the user who selected the image selects the image using the feature amount of the image, and uses the estimated attribute information and the probability, and the user calculates the other image 10. The information distribution apparatus according to claim 9, wherein the probability of selecting is calculated. モデル生成装置が実行するモデル生成方法であって、
利用者により選択された履歴を有する画像の特徴量を算出する算出工程と、
前記算出工程で算出した特徴量と、前記利用者の属性を示す属性情報とに基づいて、画像の特徴量から当該画像を選択した利用者の属性情報を推定するモデルを生成する生成工程と
を含むことを特徴とするモデル生成方法。
A method of model generation executed by a model generator, comprising
Calculating the feature amount of the image having the history selected by the user;
A generation step of generating a model for estimating the attribute information of the user who has selected the image from the feature amount of the image based on the feature amount calculated in the calculation step and the attribute information indicating the attribute of the user A model generation method characterized by including.
情報配信装置が実行する情報配信方法であって、
利用者により選択された履歴を有する画像から算出された特徴量と、当該利用者の属性を示す属性情報とに基づいて作成されたモデルを用いて、画像の特徴量から当該画像を選択した利用者の属性情報を推定する推定工程と、
前記推定工程で推定した属性情報を用いて、配信対象となる画像を前記利用者が選択する確率を算出する算出工程と、
前記算出工程で算出した確率に基づいて、前記利用者に配信する画像を選択する選択工程と
を含むことを特徴とする情報配信方法。
An information delivery method performed by an information delivery apparatus, comprising:
Use that selected the image from the feature amount of the image using the model created based on the feature amount calculated from the image having the history selected by the user and the attribute information indicating the attribute of the user Estimating the attribute information of the person,
A calculation step of calculating a probability that the user selects an image to be distributed using the attribute information estimated in the estimation step;
And D. a selection step of selecting an image to be distributed to the user based on the probability calculated in the calculation step.
コンピュータに、
利用者により選択された履歴を有する画像の特徴量を算出する算出手順と、
前記算出手順で算出した特徴量と、前記利用者の属性を示す属性情報とに基づいて、画像の特徴量から当該画像を選択した利用者の属性情報を推定するモデルを生成する生成手順と
を実行させることを特徴とするモデル生成プログラム。
On the computer
A calculation procedure for calculating a feature amount of an image having a history selected by the user;
A generation procedure for generating a model for estimating the attribute information of the user who has selected the image from the feature amount of the image based on the feature amount calculated in the calculation procedure and the attribute information indicating the attribute of the user A model generation program characterized by having it run.
コンピュータに、
利用者により選択された履歴を有する画像から算出された特徴量と、当該利用者の属性を示す属性情報とに基づいて作成されたモデルを用いて、画像の特徴量から当該画像を選択した利用者の属性情報を推定する推定手順と、
前記推定手順で推定した属性情報を用いて、配信対象となる画像を前記利用者が選択する確率を算出する算出手順と、
前記算出手順で算出した確率に基づいて、前記利用者に配信する画像を選択する選択手順と
を実行させることを特徴とする情報配信プログラム。
On the computer
Use that selected the image from the feature amount of the image using the model created based on the feature amount calculated from the image having the history selected by the user and the attribute information indicating the attribute of the user Estimation procedure for estimating the attribute information of
A calculation procedure for calculating the probability that the user selects an image to be distributed using the attribute information estimated in the estimation procedure;
An information delivery program comprising: executing a selection procedure of selecting an image to be delivered to the user based on the probability calculated in the calculation procedure.
利用者により選択された画像を取得する取得部と、
利用者により選択された履歴を有する画像から算出された特徴量と、当該利用者の属性を示す属性情報とに基づいて作成されたモデルを用いて、前記取得部により取得された画像の特徴量から当該画像を選択した利用者の属性情報を推定する推定部と
を有することを特徴とする推定装置。
An acquisition unit for acquiring an image selected by the user;
A feature amount of the image acquired by the acquisition unit using a model created based on the feature amount calculated from the image having the history selected by the user and the attribute information indicating the attribute of the user And an estimation unit configured to estimate attribute information of a user who has selected the image.
推定装置が実行する推定方法であって、
利用者により選択された画像を取得する取得工程と、
利用者により選択された履歴を有する画像から算出された特徴量と、当該利用者の属性を示す属性情報とに基づいて作成されたモデルを用いて、前記取得工程により取得された画像の特徴量から当該画像を選択した利用者の属性情報を推定する推定工程と
を含むことを特徴とする推定方法。
An estimation method performed by the estimation device,
An acquisition step of acquiring an image selected by the user;
A feature amount of the image acquired by the acquisition step using a model created based on the feature amount calculated from the image having the history selected by the user and the attribute information indicating the attribute of the user And V. an estimation step of estimating attribute information of a user who has selected the image from the above.
JP2018048633A 2018-03-15 2018-03-15 Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method Active JP6501939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018048633A JP6501939B2 (en) 2018-03-15 2018-03-15 Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018048633A JP6501939B2 (en) 2018-03-15 2018-03-15 Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014257902A Division JP6309887B2 (en) 2014-12-19 2014-12-19 Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019051997A Division JP6790159B2 (en) 2019-03-19 2019-03-19 Calculation device, calculation method and calculation program

Publications (2)

Publication Number Publication Date
JP2018133095A JP2018133095A (en) 2018-08-23
JP6501939B2 true JP6501939B2 (en) 2019-04-17

Family

ID=63249732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018048633A Active JP6501939B2 (en) 2018-03-15 2018-03-15 Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method

Country Status (1)

Country Link
JP (1) JP6501939B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6993947B2 (en) * 2018-09-06 2022-01-14 Kddi株式会社 Programs, devices and methods that allow you to select the product to be presented, as well as the product generation program.
JP7018857B2 (en) * 2018-09-18 2022-02-14 ヤフー株式会社 Information processing equipment, information processing methods, and information processing programs
JP6940464B2 (en) * 2018-10-19 2021-09-29 ヤフー株式会社 Decision device, decision method and decision program
JP7229031B2 (en) * 2019-01-31 2023-02-27 トッパン・フォームズ株式会社 NOTIFICATION METHOD SELECTION DEVICE, NOTIFICATION METHOD SELECTION METHOD, AND PROGRAM
CN111598638B (en) * 2019-02-21 2023-11-07 北京沃东天骏信息技术有限公司 Click rate determination method, device and equipment
JP7208529B2 (en) * 2019-05-29 2023-01-19 富士通株式会社 Optimization device and optimization method
CN110555719B (en) * 2019-07-31 2023-09-29 华南理工大学 Commodity click rate prediction method based on deep learning

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130346182A1 (en) * 2012-06-20 2013-12-26 Yahoo! Inc. Multimedia features for click prediction of new advertisements

Also Published As

Publication number Publication date
JP2018133095A (en) 2018-08-23

Similar Documents

Publication Publication Date Title
JP6309887B2 (en) Model generation apparatus, information distribution apparatus, model generation method, information distribution method, model generation program, and information distribution program
JP6501939B2 (en) Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method
JP6790159B2 (en) Calculation device, calculation method and calculation program
CN111105819B (en) Clipping template recommendation method and device, electronic equipment and storage medium
JP6523498B1 (en) Learning device, learning method and learning program
US10949000B2 (en) Sticker recommendation method and apparatus
CN111178970B (en) Advertisement putting method and device, electronic equipment and computer readable storage medium
WO2017157149A1 (en) Social network-based recommendation method and apparatus, server and storage medium
JP2019527395A (en) Optimizing dynamic creatives to deliver content effectively
CN110209931B (en) Media content pushing method and device, storage medium and electronic device
JP6827305B2 (en) Selection device, selection method and selection program
JP6367743B2 (en) Information processing apparatus, information processing program, and information processing method
US20170186044A1 (en) System and method for profiling a user based on visual content
JP2017054214A (en) Determination device, learning device, information distribution device, determination method, and determination program
CN112989169B (en) Target object identification method, information recommendation method, device, equipment and medium
CN110933472B (en) Method and device for realizing video recommendation
US9818044B2 (en) Content update suggestions
US20150206222A1 (en) Method to construct conditioning variables based on personal photos
Yang et al. A unified view of social and temporal modeling for B2B marketing campaign recommendation
CN114742582A (en) Advertisement putting method based on user terminal, server and storage medium
JP2017201535A (en) Determination device, learning device, determination method, and determination program
JP6810184B2 (en) Calculation device, calculation method and calculation program
US10692127B1 (en) Inferring user demographics from user behavior using Bayesian inference
CN115730217A (en) Model training method, material recalling method and device
US11175807B1 (en) Intelligent contextual video thumbnail display

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190319

R150 Certificate of patent or registration of utility model

Ref document number: 6501939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350