JP2020140540A - 判定プログラム、判定方法および情報処理装置 - Google Patents

判定プログラム、判定方法および情報処理装置 Download PDF

Info

Publication number
JP2020140540A
JP2020140540A JP2019036604A JP2019036604A JP2020140540A JP 2020140540 A JP2020140540 A JP 2020140540A JP 2019036604 A JP2019036604 A JP 2019036604A JP 2019036604 A JP2019036604 A JP 2019036604A JP 2020140540 A JP2020140540 A JP 2020140540A
Authority
JP
Japan
Prior art keywords
combination
state
determination
target person
actions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019036604A
Other languages
English (en)
Inventor
啓介 後藤
Keisuke Goto
啓介 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019036604A priority Critical patent/JP2020140540A/ja
Priority to EP20158458.8A priority patent/EP3702994A1/en
Priority to US16/799,925 priority patent/US11416892B2/en
Priority to CN202010120417.7A priority patent/CN111626762A/zh
Publication of JP2020140540A publication Critical patent/JP2020140540A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0226Incentive systems for frequent usage, e.g. frequent flyer miles programs or point systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0222During e-commerce, i.e. online transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0239Online discounts or incentives
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0255Targeted advertisements based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】効率的にユーザの状態遷移を促すことを課題とする。【解決手段】モデル生成サーバは、複数の状態のうち特定の状態に対応した各行動者の行動の組み合わせと特定の状態とが関連付けられる複数の訓練データを用いて、複数の訓練データに含まれる複数の行動から生成される各行動の組み合わせと、各行動の組み合わせが前記特定の状態である確からしさを示す尤度とが対応付けられる複数の対応関係を学習した学習モデルに、判定対象者の行動情報を入力する。モデル生成サーバは、学習モデルの出力結果から、複数の対応関係それぞれにおける各行動の組み合わせと、判定対象者の行動情報との各差分を特定する。モデル生成サーバは、各行動の組み合わせに対応付けられる各尤度と、各行動の組み合わせとの各差分とに基づき、判定対象者を特定の状態に遷移させる追加行動を判定する。【選択図】図12

Description

本発明は、判定プログラム、判定方法および情報処理装置に関する。
デジタルマーケティングなどでは、マーケティング効果を増大させるために、様々な目的の人がアクセスするウェブページの行動ログを解析することが行われている。具体的には、商品の購入に至るまでのユーザの行動の状態遷移は、時系列として表すことができる。例えば、ユーザの行動は、最初は興味が小さい「興味小」状態からはじまり、徐々に興味が大きくなって「興味大」状態に遷移し、最終的には購入を決定する「購入意思」状態に遷移する。基本的には、状態には順序があり、例えば「興味大」状態から「購入意思」状態へは移行できるがその逆はない。
このようなことから、ユーザがどの状態にいるか、どんなアクションをとれば別の状態に移行するかをいち早く察知することで、ユーザへ状態遷移を促すアクションを働きかけることができ、マーケティング効果を増大させることができる。このため、管理者がユーザの行動履歴から現在どの状態にいるか判別し、アクションを決定するルールを生成することが行われている。例えば、アクセス数が10回以上かつ商品価格ページにアクセスしたユーザには、クーポンを配信するルールなどが利用されている。
金 鍾和,森高 正博,福田 晋,尹 ソク重、"ネットショッピングにおける消費者購買認識の構造分析",フードシステム研究,2012,19巻,4号,p.382-393,2013/12/05,
しかしながら、ユーザを次の状態に移行させるために、人手で行動履歴からアクションを考えることが難しく、コストも高い上にルール生成に漏れが生じすることもあり、リアルタイム性もよくない。
このように、人手による解析ではユーザの状態遷移を促すことが難しいことから、行動履歴から状態等を予測する決定木を用いた手法も考えられる。例えば、各ユーザの各状態iまでのデータに状態iのラベルが付加して訓練データを生成する。そして、各状態jについて状態jの状態であるか否かを判定する決定木モデルを生成する。このとき、状態の個数だけモデル(決定木)を生成する。その後、ユーザデータと状態iが与えられたとき、状態i判定用の決定木が正と判定するような特徴の修正を列挙する。
しかしながら、決定木の修正方法は多くのパターンが存在するが、効果的な修正方法が自明ではなく、決定木のどの部分が重要かもわからないので、最終的には、人手により修正部分の探索などを行うことになる。このように、人手による解析手法も決定木を用いた手法も、効率的な手法とは言い難い。
一つの側面では、効率的にユーザの状態遷移を促すことができる判定プログラム、判定方法および情報処理装置を提供することを目的とする。
第1の案では、判定プログラムは、コンピュータに、複数の状態のうち特定の状態に対応した各行動者の行動の組み合わせと前記特定の状態とが関連付けられる複数の訓練データを用いて、前記複数の訓練データに含まれる複数の行動から生成される各行動の組み合わせと、前記各行動の組み合わせが前記特定の状態である確からしさを示す尤度とが対応付けられる複数の対応関係を学習した学習モデルに、判定対象者の行動情報を入力する処理を実行させる。判定プログラムは、コンピュータに、前記学習モデルの出力結果から、前記複数の対応関係それぞれにおける前記各行動の組み合わせと、前記判定対象者の行動情報との各差分を特定する処理を実行させる。判定プログラムは、コンピュータに、前記各行動の組み合わせに対応付けられる各尤度と、前記各行動の組み合わせとの各差分とに基づき、前記判定対象者を前記特定の状態に遷移させる追加行動を判定する処理を実行させる。
一つの側面では、効率的にユーザの状態遷移を促すことができる。
図1は、実施例1にかかるシステムの全体構成例を示す図である。 図2は、実施例1にかかる状態遷移とアクションを説明する図である。 図3は、実施例1にかかるモデル生成サーバの機能構成を示す機能ブロック図である。 図4は、想定する状態遷移を説明する図である。 図5は、訓練データの生成例を説明する図である。 図6は、各モデルの学習を説明する図である。 図7は、学習手法を説明する図である。 図8は、学習手法を説明する図である。 図9は、ユーザログから特徴量への変換を説明する図である。 図10は、状態判定を説明する図である。 図11は、遷移先の状態を特定する図である。 図12は、ユーザに推薦するアクション内容を特定する図である。 図13は、学習処理の流れを示すフローチャートである。 図14は、アクション判定処理の流れを示すフローチャートである。 図15は、実施例2にかかる状態が既知のときの判定手法の例を説明する図である。 図16は、訓練データの一例を示す説明図である。 図17は、仮説の生成を説明する説明図である。 図18は、仮説の生成を説明する説明図である。 図19は、仮説の生成を説明する説明図である。 図20は、生成された仮説の一例を示す説明図である。 図21は、入力データに適合する仮説を説明する説明図である。 図22は、ロジスティック回帰による重み付けを説明する説明図である。 図23は、ハードウェア構成例を説明する図である。
以下に、本願の開示する判定プログラム、判定方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかるシステムの全体構成例を示す図である。図1に示すように、このシステムは、ユーザ端末5、Webサーバ6、データベースサーバ7、モデル生成サーバ10がネットワークNを介して相互に通信可能に接続される。なお、ネットワークNには、有線や無線を問わず、インターネットや専用線などの各種通信網を採用することができる。
ユーザ端末5は、Webブラウザなどを用いてWebサーバ6にアクセスするユーザが利用する端末の一例であり、例えばスマートフォン、携帯電話、パーソナルコンピュータなどのコンピュータ機器である。例えば、ユーザ端末5は、Webサーバ6にアクセスして、商品の検索や商品の購入などを行う。
Webサーバ6は、ユーザ端末5に、Webサービスを提供するサーバ装置の一例である。例えば、Webサーバ6は、アクセスしてきたユーザ端末5に、Webショッピングや検索サービスなどを提供する。
データベースサーバ7は、Webサーバ6を利用した各ユーザ端末の行動履歴を蓄積するデータベースサーバの一例である。すなわち、データベースサーバ7は、複数のユーザそれぞれのアクセス履歴を記憶する。
モデル生成サーバ10は、データベースサーバ7が記憶されるユーザの行動履歴を解析して、ユーザの状態を特定するモデルを生成するサーバ装置の一例である。また、モデル生成サーバ10は、Webサーバ6からユーザのログを取得して、生成済みのモデルによりユーザの状態を推定し、ユーザの状態を遷移させるためのアクションを特定するサーバ装置の一例である。なお、モデルを生成するサーバ装置と、アクションを特定するサーバ装置とは、別々のサーバ装置で実現することもできる。
図2は、実施例1にかかる状態遷移とアクションを説明する図である。図2に示すように、Webサーバ6にアクセスして商品を購入するユーザは、アクセス開始から購入までの時間において、商品への興味が小さい「興味小」状態、商品への興味が大きい「興味大」状態、購入意思を固める「購入意思」状態を順に遷移して、最終的に商品の購入を行うことが一般的である。
しかし、ユーザは、「興味小」状態から「購入意思」状態まで、迷うことなく遷移するとは限らない。例えば、他の商品を見て検討したり、自分に本当に必要な商品かを再検討したりする。そこで、図2に示すように、モデル生成サーバ10は、ユーザの状態を判定し、ユーザを「購入意思」状態に遷移させることができる次のアクションを特定する。例えば、モデル生成サーバ10は、「興味大」状態のユーザに対して、アクション「ポップアップ」またはアクション「クーポン配信」を行うことで、ユーザを「購入意思」状態に遷移させることができると判定する。
その後、モデル生成サーバ10は、Webサーバ6に、特定したアクションの情報を通知する。このアクションの情報を受信したWebサーバ6は、当該アクションをユーザ端末5に対して実行する。例えば、Webサーバ6は、ユーザ端末5がアクセスに利用中のWebブラウザ上にクーポンを配信したりする。
このように、モデル生成サーバ10は、ユーザを次の状態に移行させるために、人手で行動履歴からアクションを自動的に特定することができるので、効率的にユーザの状態遷移を促すことができる。
[機能構成]
図3は、実施例1にかかるモデル生成サーバ10の機能構成を示す機能ブロック図である。図3に示すように、モデル生成サーバ10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、Webサーバ6からユーザの現在のアクセス状態を示すユーザログを受信し、データベースサーバ7から各ユーザの行動履歴を受信し、Webサーバ6に次の状態に遷移させるためのアクションに関する情報を送信する。
記憶部12は、データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、行動履歴DB13、訓練データDB14、モデルDB15を記憶する。
行動履歴DB13は、各ユーザの行動履歴を記憶するデータベースである。例えば、行動履歴DB13は、ユーザごとに、アクセスした日時を示す「日時」とアクセスしたWebページを示す「アクセスページ」とを対応付けて記憶する。
訓練データDB14は、各状態を判別するモデルごとに、各モデルを学習するための訓練データを記憶するデータベースである。例えば、訓練データDB14は、モデルごとに、目的変数(ラベル)である「クラス」と、説明変数である「特徴量」とを対応付けた、いわゆる教師データを記憶する。
モデルDB15は、各状態を判別する各モデルに関する情報を記憶するデータベースである。例えば、モデルDB15は、学習結果、学習済みの各モデルを構築するための各種パラメータなどを記憶する。
制御部20は、モデル生成サーバ10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、学習処理部30と判定処理部40とを有し、ユーザの状態を特定するモデルの学習処理や状態遷移を促すアクションを特定する判定処理を実行する。なお、学習処理部30と判定処理部40は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例などである。
学習処理部30は、取得部31、生成部32、学習部33を有し、ユーザの状態を特定するモデルの学習処理を実行する処理部である。ここで、本実施例で想定するユーザの状態を説明する。図4は、想定する状態遷移を説明する図である。図4に示すように、ユーザは、Webサーバ6にアクセスを開始して商品を購入するまで、「興味小」状態、「興味大」状態、「他社と比較検討」状態、「購入意思」状態、「興味なし」状態を遷移する。
ここで、「興味小」状態からは「興味大」状態に遷移し、「興味大」状態からは「他社と比較検討」状態または「購入意思」状態に遷移し、「他社と比較検討」状態からは「購入意思」状態または「興味なし」状態に遷移する。この状態遷移からわかるように、「興味大」状態から2つの状態に遷移するので、ユーザの状態をいち早く特定し、「購入意思」状態へ促すアクションを行うことで、マーケティング効果を増大させることができる。
取得部31は、各ユーザの行動履歴を取得する処理部である。例えば、取得部31は、学習を開始するタイミングなどの任意のタイミングで、データベースサーバ7から各ユーザの行動履歴を取得し、行動履歴DB13に格納する。
生成部32は、各ユーザの行動履歴から各モデルの訓練データを生成する処理部である。具体的には、生成部32は、各状態を特徴づけるアクセス内容までの行動履歴を、各状態を判定するモデル用の訓練データとして生成し、訓練データDB14に格納する。
図5は、訓練データの生成例を説明する図である。図5に示すように、生成部32は、あるユーザの行動履歴を参照し、行動履歴の先頭「2019/01/04 トップページアクセス」から、「興味小」状態を特徴づける行動「セミナー参加」までの行動履歴をデータ1とする。そして、生成部32は、データ1に含まれる行動履歴を特徴量に変換し、状態のラベルを示す「クラス」と対応付けた訓練データを生成する。例えば、生成部32は、データ1の「クラス」に「興味小」を設定し、特徴量「トップページアクセス、セミナー参加、製品価格ページにアクセス、ページアクセス5回以上、ページアクセス20回以上」として「Y,Y,N,Y,N」を設定した訓練データを生成する。
また、生成部32は、あるユーザの行動履歴を参照し、行動履歴の先頭「2019/01/04 トップページアクセス」から、「興味大」状態を特徴づける行動「製品価格ページアクセス」までの行動履歴をデータ2とする。そして、生成部32は、データ2の「クラス」に「興味大」を設定し、特徴量「トップページアクセス、セミナー参加、製品価格ページにアクセス、ページアクセス5回以上、ページアクセス20回以上」として「Y,Y,Y,Y,Y」を設定した訓練データを生成する。
なお、状態を特徴づける行動は、一例であり、任意に設定変更することができる。また、ラベルの設定内容や特徴量の変換も、一例であり、任意に設定変更することができる。また、上記特徴量の項目は、条件を満たせば「Y」が設定され、条件を満たさなければ「N」が設定される。例えば、行動履歴内に「トップページにアクセス」した履歴が含まれる場合、特徴量「トップページアクセス」に「Y」を設定し、行動履歴内に「ページアクセス」の履歴が4回含まれる場合、特徴量「ページアクセス5回以上」に「N」を設定する。
学習部33は、生成部32により生成された訓練データを用いて、各状態を判定する各モデルの学習を実行する処理部である。図6は、各モデルの学習を説明する図である。図6に示すように、学習部33は、訓練データDB14から「クラス」に「興味小」が設定されるデータ1などのデータを読み出して、「クラス」を目的変数、「特徴量」を説明変数として、「興味小」状態を判定する興味小判定モデルを学習する。
同様に、学習部33は、訓練データDB14から「クラス」に「興味大」が設定されるデータ2などのデータを読み出して、「興味大」状態を判定する興味大判定モデルを学習する。このようにして、学習部33は、「興味小」状態、「興味大」状態、「他社と比較検討」状態、「購入意思」状態、「興味なし」状態の各状態(クラス)に対応する各教師データを用いて、各状態の判定モデルを学習する。そして、学習部33は、学習結果として、モデルを構築するための各種パラメータなどをモデルDB15に格納する。
ここで、学習部33の学習手法の一例を説明する。図7と図8は、学習手法を説明する図である。一般的に、深層学習(Deep Learning)は、人間の脳の神経回路の構造を模倣したニューラルネットワークを何層にも重ね、1つのモデルを洗練化することで精度向上を実現するので、人間が理解できない複雑なモデルである。一方、図7に示すように、学習部33は、機械学習の一つである、データ項目を組み合わせて大量の仮説を抽出し、仮説(ナレッジチャンク(以下では、単に「チャンク」と記載する場合がある))の影響度を調整し高精度な分類モデルを構築する機械学習を実行する。ナレッジチャンクとは、人間が理解できる単純なモデルであり、入出力の関係として成立する可能性のある仮説を論理的な表現で記載したモデルである。
具体的には、学習部33は、入力データのすべてのデータ項目の組合せパターンを仮説(チャンク)とし、各仮説に対する分類ラベルのヒット率で、その仮説の重要度を判断する。そして、学習部33は、抽出した複数のナレッジチャンクとラベルに基づき分類モデルを構築する。この際に、学習部33は、ナレッジチャンクを構成する項目が他のナレッジチャンクを構成する項目と重複が多い場合に、分類モデルへの影響度を小さくなるように制御する。
図8を用いて具体例を説明する。ここでは、ある商品やサービスを購入する顧客を判断したい時の例を考える。顧客データには、「性別」、「免許の有無」、「婚姻」、「年齢」、「年収」など様々な項目がある。これらの項目の全ての組合せを仮説とし、各仮説の重要度を考える。例えば、「「男」、「所有」、「既婚」」という項目の組合せである仮説(a)に当てはまる顧客がデータの中に10人いる。この10人のうち、9人が商品等を購入していれば、「「男」、「所有」、「既婚」の人は購入」というヒット率の高い仮説とし、これをナレッジチャンクとして抽出する。
一方、「「男」、「所有」」という項目の組合せである仮説(b)に当てはまる顧客がデータの中に100人いる。この100人のうち60人しか商品等を購入してない場合、購入するヒット率が60%となり、閾値(例えば80)未満であることから、「「男」、「所有」の人は購入」というヒット率の低い仮説とし、ナレッジチャンクとして抽出しない。
また、「「男」、「未所有」、「未婚」」という項目の組合せである仮説(c)に当てはまる顧客がデータの中に20人いる。この20人のうち18人が商品等を未購入の場合、未購入であるヒット率が90%となり、閾値(例えば80)以上であることから、「「男」、「未所有」、「未婚」の人は未購入」というヒット率の高い仮説とし、ナレッジチャンクとして抽出する。
このようにして、学習部33は、購入を支持するナレッジチャンクや未購入を支持するナレッジチャンクを数千万や数億個取り出し、モデルの学習を実行する。このように学習されたモデルは、特徴の組み合わせを仮説(チャンク)として列挙し、各仮説には確からしさを示す尤度の一例である重みが付加され、入力データに出現する仮説の重みの総和がスコアとなり、スコアが閾値以上であれば正例と出力する。
すなわち、スコアとは、その状態の確からしさを示す指標であり、各モデル生成されるチャンク(仮説)のうち、属する特徴をすべて満たすチャンクの重みの合算値である。例えば、チャンクAに「重み:20,特徴(A1、A2)」、チャンクBに「重み:5,特徴(B1)」、チャンクCに「重み:10,特徴(C1、C2)」が対応付けられている状態で、ユーザログに行動(A1、A2、B1、C1)が存在したとする。このとき、チャンクAとチャンクBの特徴がすべて出現していることになるで、スコアは「20+5=25」となる。また、ここでの特徴とは、ユーザの行動などが該当する。
図3に戻り、判定処理部40は、変換部41、判定部42、アクション決定部43を有し、学習済みのモデルを用いた状態判定や状態遷移を促すアクションを決定する処理部である。
変換部41は、ユーザログを特徴量に変換する処理部である。具体的には、変換部41は、状態判定対象のユーザの現在時点の行動を示すユーザログをWebサーバ6から取得し、学習処理部30と同様の基準や手法により、特徴量に変換する。そして、変換部41は、特徴量を判定部42に出力する。
図9は、ユーザログから特徴量への変換を説明する図である。図9に示すように、変換部41は、状態が未知のユーザログとして、「2019/01/04 トップページアクセス」から「2019/01/08 セミナー参加」までを含むユーザログを取得する。そして、変換部41は、ユーザログに含まれるアクセス内容等を計数し、学習処理部30で使用された項目と同じ項目を有する特徴量「(トップページアクセス、セミナー参加、製品価格ページにアクセス、ページアクセス5回以上、ページアクセス20回以上)」に変換する。ここでは、変換部41が、ユーザログを特徴量「Y,Y,N,Y,N」に変換したとする。
判定部42は、学習済みの各判定モデルと、変換部41により変換されたユーザログの特徴量とを用いて、ユーザの状態を判定する処理部である。具体的には、判定部42は、モデルDB15から各判定モデルのパラメータを取得して、学習済みの各判定モデルを構築する。そして、判定部42は、変換部41から取得した特徴量を、学習済みの各モデルに入力して、各モデルの判定結果を取得する。その後、判定部42は、各モデルの判定結果に基づき、ユーザの状態を判定するとともに、ユーザの状態の次の遷移先を特定し、それらの結果をアクション決定部43に出力する。
図10は、状態判定を説明する図である。図10に示すように、判定部42は、ユーザログの特徴量を、興味小判定モデル、興味大判定モデル、購入意思判定モデル、他社と比較検討判定モデルの各モデルに入力する。そして、判定部42は、興味小判定モデルから判定結果「正」、興味大判定モデルから判定結果「負」、購入意思判定モデルから判定結果「負」、他社と比較検討判定モデルから判定結果「負」を取得する。
ここで、各判定モデルは、入力された特徴量から、特徴量の含まれる各項目(特徴)の組み合わせを仮説として生成し、入力データに出現する各仮説の重みの総和であるスコアを算出し、スコアが閾値以上であれば正例と出力する。図10の例では、判定部42は、興味小判定モデルの判定結果のみが「正」となったので、ユーザの状態を「興味小」状態と判定し、入力データに判定結果を対応付ける。なお、複数の判定モデルの出力結果が「正」となった場合、最終目的の状態に近い判定モデルの結果を選択する。
また、判定部42は、各モデルの判定結果に基づき、ユーザの状態の次の遷移先を特定する。図11は、遷移先の状態を特定する図である。図11に示すように、判定部42は、各モデルの判定結果にしたがって状態変更容易度(容易性)を判定する。ここで、状態変更容易度は現在の状態モデルの判定結果が「正」または前状態の状態モデルの判定結果が「正」であれば「容易」と出力され、それ以外が「困難」と出力される。
図11の例では、判定部42は、興味小判定モデルに関して、判定結果が「正」であることから、容易性を「容易」と判定する。また、判定部42は、興味大判定モデルに関して、判定結果が「負」であるが、前状態を判定する興味小判定モデルの判定結果が「正」であることから、容易性を「容易」と判定する。また、判定部42は、購入意思判定モデルと他社と比較検討判定モデルのいずれに関しても、判定結果が「負」であるとともに、前状態の判定結果も「負」であることから、容易性を「困難」と判定する。なお、判定部42は、複数の状態の容易性が「容易」と判定された場合、容易性が「容易」な状態のうち最終目的状態に一番近い状態を選択する。
アクション決定部43は、判定部42により容易性が「容易」と判定された状態(以下では「次の状態」と記載する場合がある)へ遷移させるためのアクションを決定する処理部である。具体的には、アクション決定部43は、次の状態に対応する判定モデルが正と判定するようなチャンクの修正を、重みが大きく修正の個数が少ないチャンクを優先的に列挙する。
図12は、ユーザに推薦するアクション内容を特定する図である。図12に示すように、アクション決定部43は、遷移先と判定された次の状態に該当する興味大判定モデルのチャンク(仮説)の結果を取得する。ここでは、重みとして「80」が設定されたチャンクAには、特徴として「セミナー参加、ページアクセス20回以上、製品価格ページにアクセス」が含まれ、「セミナー参加」はユーザログに出現済みであり、「ページアクセス20回以上、製品価格ページにアクセス」はユーザログに未出現である。すなわち、チャンクの特徴のうち出現済みの特徴の割合が3分の1である。
また、重みとして「10」が設定されたチャンクBには、特徴として「セミナー参加、製品価格ページにアクセス」が含まれ、「セミナー参加」はユーザログに出現済みであり、「製品価格ページにアクセス」はユーザログに未出現である。また、重みとして「1」が設定されたチャンクCには、特徴として「セミナー参加」が含まれ、ユーザログに出現済みである。
そして、アクション決定部43は、例えば重みが10以上のチャンクの中から修正個数の少ないものを順に列挙する。図12の場合、アクション決定部43は、重みが10以上であるチャンクAとチャンクBを特定する。続いて、アクション決定部43は、チャンクAではユーザログに未出現の特徴が「ページアクセス20回以上」と「製品価格ページにアクセス」の2つであり、チャンクBではユーザログに未出現の特徴が「製品価格ページにアクセス」の1つであると判定する。
この結果、アクション決定部43は、チャンクBとチャンクAの順で、各チャンクと特徴一覧とユーザログに出現しなかった特徴を、修正案としてWebサーバ6に出力する。この修正案を受信したWebサーバ6は、修正案にしたがって、ポップアップやクーポン配信などを実行する。
例えば、Webサーバ6は、チャンクBの特徴を満たすためには「製品価格ページにアクセス」が必要であることが特定できたので、ユーザ端末にクーポン配信を配信して、製品価格ページへのアクセスを促す。また、Webサーバ6は、チャンクAの特徴を満たすためには、少なくとも「ページアクセス20回以上」が必要であることが特定できたので、製品ページをポップアップでユーザ端末に表示させて、ページアクセスを促す。
なお、アクション決定部43は、1つの修正案のみをWebサーバ6に提示することもできる。上記例の場合、アクション決定部43は、修正量が少ないチャンクBと、未出現の特徴「製品価格ページにアクセス」のみをWebサーバ6に提示する。
また、アクション決定部43は、修正案ではなく、実行対象のアクションをWebサーバ6に提示することもできる。上記例の場合、アクション決定部43は、製品価格ページへのアクセスを促すためのアクションとして「クーポン配信」を推奨行動としてWebサーバ6に提示する。
[学習処理の流れ]
図13は、学習処理の流れを示すフローチャートである。図13に示すように、管理者の指示受信や定期的なタイミングに到達するなどにより、学習開始のタイミングになると(S101:Yes)、学習処理部30の取得部31は、データベースサーバ7から各ユーザの行動履歴を取得する(S102)。
続いて、生成部32は、各ユーザの行動履歴から、状態ごとの訓練データを生成する(S103)。そして、学習部33は、訓練データを用いて、状態ごとの学習を実行し(S104)、状態ごとの判定モデルを生成する(S105)。
[判定処理の流れ]
図14は、アクション判定処理の流れを示すフローチャートである。図14に示すように、管理者等の指示により判定処理の開始タイミングになると(S201:Yes)、判定処理部40の変換部41は、Webサーバ6から判定対象のユーザログを取得する(S202)。続いて、変換部41は、学習時と同様に、ユーザログを特徴量に変換する(S203)。
そして、判定部42は、ユーザログの特徴量を、学習済みの各判定モデルに入力して各判定結果を取得する(S204)。続いて、判定部42は、各判定結果から、ユーザの状態および各状態への状態遷移の容易性を判定する(S205)。その後、判定部42は、ユーザの現状態および容易性に基づき、状態遷移先を判定する(S206)。
そして、アクション決定部43は、次の遷移先と判定された状態に対応する判定モデルの出力結果から、修正対象のチャンクを特定し(S207)、修正対象のチャンクをWebサーバ6等に出力する(S208)。
[効果]
上述したように、モデル生成サーバ10は、ユーザデータが与えられたときに、数ある状態の中から最終目的状態へと近く、状態の変更が最も容易なものを検出し、その状態が正と判断されるような特徴の修正を効果の高いものから順に列挙することができる。したがって、モデル生成サーバ10は、ユーザ状態に遷移させるために、人手で行動履歴からアクションを考えることもなく、コストも低減でき、リアルタイムに処理することができるので、効率的にユーザの状態遷移を促すことができる。
ところで、上記実施例1では、ユーザ状態が未知の場合を例にして説明したが、これに限定されるものではなく、ユーザ状態が既知の場合であっても同様に処理することができる。そこで、実施例2では、ユーザ状態が既知の場合に、次の状態へ遷移させるためのアクションを決定する例を説明する。なお、学習方法は、実施例1と同様である。
図15は、実施例2にかかる状態が既知のときの判定手法の例を説明する図である。図15に示すように、モデル生成サーバ10は、状態(クラス)が「興味小」状態であるユーザのユーザログを特徴量「(トップページアクセス、セミナー参加、製品価格ページにアクセス、ページアクセス5回以上、ページアクセス20回以上)=(Y,Y,N,Y,N)」に変換する。
続いて、モデル生成サーバ10は、ユーザログの特徴量(Y,Y,N,Y,N)を、興味小判定モデル、興味大判定モデル、購入意思判定モデル、他社と比較検討判定モデルの各学習済みの判定モデルに入力する。
そして、モデル生成サーバ10は、各学習済みのモデルから、判定結果を取得する。ここでは、モデル生成サーバ10は、興味小判定モデルからスコア「80」、興味大判定モデルからスコア「30」、購入意思判定モデルからスコア「20」、他社と比較検討判定モデルからスコア「5」を取得する。
その後、モデル生成サーバ10は、既知の状態である「興味小」状態の次の状態に対応する興味大判定モデルの判定結果を取得する。そして、モデル生成サーバ10は、興味大判定モデルにより得られるチャンクのうち、未達成のチャンクとその特徴をWebサーバ6に提示する。このとき、モデル生成サーバ10は、未達成のチャンクすべてを提示することもでき、未達成のチャンクのうち重みが最大のチャンクを提示することもできる。また、モデル生成サーバ10は、既知の状態である「興味小」状態以外の各状態のスコアと未達成のチャンク一覧とをWebサーバ6に提示することもできる。
また、モデル生成サーバ10は、既知の状態である「興味小」状態以外の各状態のスコアについて、どの行動(アクション)を修正すれば、その状態に遷移できるかを示す情報を提示することもできる。例えば、モデル生成サーバ10は、購入意思判定モデルのスコアが「20」であることから、「正」と判定できる閾値(例えば80)までにはあと「60」の重みが必要であると判定する。そして、モデル生成サーバ10は、未達成のチャンクのうち、合計値が「60」になるチャンクを選択する。その後、モデル生成サーバ10は、選択したチャンクおよびそのチャンクの未達成の行動(特徴)を提示する。
上述したように、モデル生成サーバ10は、現在の状態から各状態へ遷移するためのアクションを特定することができるので、ユーザの行動に合わせたアクションを行うこともできる。例えば、モデル生成サーバ10は、数日間に跨ってアクセスしている慎重なユーザに対しては、最終目的状態により近い状態に一気に遷移させるように促すこともできる。また、モデル生成サーバ10は、アクセスしている時間や日数が少ないユーザに対しては、段階的に最終目的状態に遷移させるように促すこともできる。
ここで、上記各実施例で用いた仮説の生成および重みの算出について、公知の手法を採用することができるが、その一例を説明する。
[仮説の生成]
図16は、訓練データの一例を示す説明図である。訓練データは、複数の事例ごとの教師付きデータであり、データの性質を説明するA〜Dの説明変数と、+または−への分類結果(正解情報)である目的変数とを含む。
なお、訓練データ(P〜P、N〜N)は、データの性質を説明するA〜Dの説明変数(予測に用いる情報)と、+または−へのClass(分類)を示す正解情報である目的変数(予測したい情報)とを含む。例えば、訓練データP〜Pは、目的変数A〜Dそれぞれが0または1であり、+に分類されるデータである。同様に、訓練データN〜Nは、目的変数A〜Dそれぞれが0または1であり、−に分類されるデータである。
例えば、医療の分野などにおいて、検査データから検査結果を分類する予測モデルを生成するための訓練データ(P〜P、N〜N)の場合、A〜Dの説明変数は検査項目ごとの検査値などに対応する。また、目的変数は、陽性/陰性などの検査結果に対応する。
次いで、モデル生成サーバ10は、訓練データ(P〜P、N〜N)に含まれる説明変数について、それぞれとり得る値(使用しない=*、値=1、値=0)の組み合わせ、すなわち仮説を網羅的に列挙する。
なお、組み合わせる説明変数の数は、所定の数以下とするように制限(条件)を設けてもよい。例えば、A〜Dの4説明変数の場合、組み合わせる説明変数の数を2以下とする(4説明変数のうち「使用しない=*」とするものを少なくとも2つ組み合わせる)ように制限してもよい。これにより、組み合わせが増大することを事前に抑止できる。
次いで、モデル生成サーバ10は、列挙した組み合わせから所定の組み合わせを選択する。次いで、モデル生成サーバ10は、訓練データ(P〜P、N〜N)の説明変数および目的変数をもとに、選択した組み合わせが訓練データ(P〜P、N〜N)のいずれかを分類し、特定の条件を満たす有効な組み合わせであるか否かを判定する。
図17は、仮説の生成を説明する説明図である。図17では、A〜Dの4説明変数の全てが「*」である組み合わせC01からCD(ABは「*」)である組み合わせC09が一例として示されている。
図17に示すように、モデル生成サーバ10は、訓練データ(P〜P、N〜N)の説明変数をもとに、組み合わせC01〜C09それぞれの仮説(ルール)に該当する訓練データ(P〜P、N〜N)を列挙する。
例えば、組み合わせC02のDバー(残り3説明変数は「使用しない=*」)のルールには、訓練データP、N、Nが該当する。この組み合わせC02のルール(Dバー)では、目的変数が+である訓練データ(P)と、目的変数が−である訓練データ(N、N)とが混在している。したがって、組み合わせC02は、あるクラスに分類することを正しく説明する仮説としての可能性が低く、有効な組み合わせとは言えない。
ここで、組み合わせC04のルール(Cバー)には、目的変数が+である訓練データ(P、P、P)が該当する。すなわち、組み合わせC04は、+のクラスに分類される訓練データ(P、P、P)の数または割合が所定の値以上であり、+のクラスに分類することを正しく説明するルールとしての可能性が高い。よって、モデル生成サーバ10は、組み合わせC04(Cバー)を、+のクラスに分類する有効な組み合わせ(仮説)と判定する。同様に、モデル生成サーバ10は、組み合わせC05、C06についても+のクラスに分類する有効な組み合わせ(仮説)と判定する。
また、組み合わせC08のルール(CDバー)には、目的変数が−である訓練データ(N、N)が該当する。すなわち、組み合わせC08は、−のクラスに分類される訓練データ(N、N)の数または割合が所定の値以上であり、−のクラスに分類することを正しく説明するルールとしての可能性が高い。よって、モデル生成サーバ10は、組み合わせC08(CDバー)を、−のクラスに分類する有効な組み合わせ(仮説)と判定する。
有効な組み合わせと判定するための条件である、所定のクラスに分類される訓練データ(P〜P、N〜N)の数または割合は、任意に設定してもよい。例えば、訓練データにはノイズが混じる場合があることから、所定のクラス(例えば+)とは逆のクラス(例えば−)を所定数許容するように設定してもよい。
一例として、訓練データ1つ分のノイズを許容する場合、組み合わせC03(D)については、+のクラスに分類する有効な組み合わせ(仮説)と判定される。同様に、組み合わせC07(C)については、−のクラスに分類する有効な組み合わせ(仮説)と判定される。
また、モデル生成サーバ10は、組み合わせが有効でない場合、選択した組み合わせを仮説集合に加えることなく、処理を進める。一方、モデル生成サーバ10は、組み合わせが有効である場合、選択した組み合わせが仮説集合に含まれる他の仮説の特殊ケースになっているか否かを判定する。
例えば、図17における組み合わせC05のCバーDと、組み合わせC06のCバーDバーとは、組み合わせC04のCバーに新たなリテラルを付加して作られるものである。このような組み合わせC05、C06について、モデル生成サーバ10は、組み合わせC04のCバーの特殊ケースになっているものと判定する。
図18は、仮説の生成を説明する説明図である。図18に示すように、モデル生成サーバ10は、Cバーの特殊ケースになっている組み合わせ(組み合わせC05、C06)は省略し、Cバーの組み合わせC04aを仮説集合として残すようにする。
特殊ケースになっていない場合、モデル生成サーバ10は、選択した組み合わせを仮説集合データ23の仮説集合に加える。次いで、モデル生成サーバ10は、列挙した全ての組み合わせを選択済みであるか否かを判定する。上述した処理を繰り返すことで、訓練データの目的変数に応じた予測となることを正しく説明している可能性のある仮説をもれなく仮説集合に列挙する。
図19は、仮説の生成を説明する説明図であり、具体的には図17、18の内容をカルノー図例で説明する図である。図19に示すように、モデル生成サーバ10は、A(残り3説明変数は「使用しない=*」)の組み合わせ(S31)、Aバー(残り3説明変数は「使用しない=*」)の組み合わせ…の順に組み合わせを変更して有効な組み合わせを検討する(S31〜S35…)。
ここで、S33の(Cバー)の組み合わせでは、目的変数が+である訓練データ(P、P、P)が該当する。すなわち、S33では、+のクラスに分類される訓練データ(P、P、P)の数または割合が所定の値以上である。よって、S33の(Cバー)の組み合わせを+のクラスに分類する有効な組み合わせ(仮説)と判定する。なお、以下の処理では、(Cバー)にリテラルを加える組み合わせは除外する。
次いで、3説明変数を「使用しない=*」とする全ての組み合わせの検討後に、2説明変数を「使用しない=*」とする組み合わせの検討を開始する(S34)。ここで、S35の(AバーB)の組み合わせでは、目的変数が+である訓練データ(P、P)が該当する。すなわち、S35では、+のクラスに分類される訓練データ(P、P)の数または割合が所定の値以上である。よって、S35の(AバーB)の組み合わせを+のクラスに分類する有効な組み合わせ(仮説)と判定する。
図20は、生成された仮説の一例を示す説明図である。図20に示すように、訓練データ(P〜P、N〜N)からは、分類結果が+または−となる仮説H1〜H11の仮説が生成され、仮説集合データとして記憶部等に格納される。
この仮説H1〜H11のそれぞれは、訓練データ(P〜P、N〜N)の分類結果が+または−となることについて正しく説明していることを要件とする独立した仮説である。よって、仮説H2と、仮説H6のように、相互には矛盾した仮説が含まれる場合がある。
また、訓練データ(P〜P、N〜N)に含まれていない入力データ(IN、IN、IN)については、仮説H1〜H11の中で適合する仮説から予測結果を得ることができる。
図21は、入力データ(IN、IN、IN)に適合する仮説を説明する説明図である。図21に示すように、入力データINについては、仮説H2のCDバー⇒−、仮説H6のBDバー⇒+、仮説H8のAバーB⇒+が適合する仮説である。また、入力データINについては、仮説H4のBバーD⇒+、仮説H5のBバーC⇒−、仮説H7のAバーD⇒+、仮説H9のAバーBバー⇒−が適合する仮説である。また、入力データINについては、仮説H1のCバー⇒+、仮説H7のAバーD⇒+、仮説H8のAバーB⇒+が適合する仮説である。
[重みの算出]
モデル生成サーバ10は、未選択の組み合わせがない場合、訓練データ(P〜P、N〜N)それぞれに対する、仮説集合データの仮説集合に含まれる各仮説(H1〜H11)の成立有無に基づき、各仮説(H1〜H11)の重みを算出し、算出結果を重みデータとして記憶部等に格納する。
モデル生成サーバ10における重み算出は、例えば次の3つの手法のいずれであってもよい。
・どのルール(H1〜H11)も重み1(ルールの数による多数決)とする。
・ルール(H1〜H11)を支持(該当)する訓練データ(P〜P、N〜N)の数に応じた重みとする。
・訓練データ(P〜P、N〜N)を適用したロジスティック回帰による重み付けを行う。
図22は、ロジスティック回帰による重み付けを説明する説明図である。ロジスティック回帰では、図22に示すように、モデル式に訓練データ(P〜P、N〜N)適用し、仮説H1〜H11に関する重み(β〜β11)を求める。ここで、ロジスティック回帰などで得られた各仮説(H1〜H11)の重みに応じて、仮説の選別を行ってもよい。
上述した手法により、モデル生成サーバ10は、訓練データから仮説を選定し、仮説に重みを算出し、各状態を判定する各判定モデルの学習を実行する。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[学習]
例えば、学習処理を終了するタイミングは、所定数以上の訓練データを用いた学習が完了した時点や各モデルの損失が閾値未満となった時点など任意に設定することができる。また、学習手法も一般的な機械学習を用いることもできる。また、上記実施例で説明した特徴、チャンク、アクション内容などは、あくまで一例であり、任意に変更することができる。
[処理対象]
上記実施例では、Webサーバ上のアクセスログを例にして説明したが、これに限定されるものではなく、例えば歩行ログ、システムログなどを用いることもできる。歩行ログの場合、状態としては疲れ小、疲れ大などを判定し、システムログの場合、状態としては通常動作、故障予兆、故障などを判定する。
[判定モデル]
上記実施例では、複数の状態それぞれに対応した複数の判定モデルを用いた例を説明したが、これに限定されるものではない。例えば、「購入意思」状態などある状態に遷移させたいときは、ある状態に対応した判定モデルのみを用いることもできる。このとき、モデル生成サーバ10は、当該判定モデルの判定結果として、当該判定モデルを特徴づける仮説一覧(重み、特徴)を表示することもできる。また、モデル生成サーバ10は、閾値以上の重みを有する仮説について、不足する特徴のみをWebサーバ6等に提示することもできる。なお、各判定モデルは、学習モデルの一例である。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、学習処理部30と判定処理部40とを別々の装置で実現することもできる。なお、判定部42は、入力部と特定部の一例であり、アクション決定部43は、判定部の一例である。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図23は、ハードウェア構成例を説明する図である。図23に示すように、モデル生成サーバ10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図23に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図3に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、モデル生成サーバ10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、学習処理部30と判定処理部40等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、学習処理部30と判定処理部40等と同様の処理を実行するプロセスを実行する。
このようにモデル生成サーバ10は、プログラムを読み出して実行することでモデル生成方法を実行する情報処理装置として動作する。また、モデル生成サーバ10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、モデル生成サーバ10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 モデル生成サーバ
11 通信部
12 記憶部
13 行動履歴DB
14 訓練データDB
15 モデルDB
20 制御部
30 学習処理部
31 取得部
32 生成部
33 学習部
40 判定処理部
41 変換部
42 判定部
43 アクション決定部

Claims (8)

  1. コンピュータに、
    複数の状態のうち特定の状態に対応した各行動者の行動の組み合わせと前記特定の状態とが関連付けられる複数の訓練データを用いて、前記複数の訓練データに含まれる複数の行動から生成される各行動の組み合わせと、前記各行動の組み合わせが前記特定の状態である確からしさを示す尤度とが対応付けられる複数の対応関係を学習した学習モデルに、判定対象者の行動情報を入力し、
    前記学習モデルの出力結果から、前記複数の対応関係それぞれにおける前記各行動の組み合わせと、前記判定対象者の行動情報との各差分を特定し、
    前記各行動の組み合わせに対応付けられる各尤度と、前記各行動の組み合わせとの各差分とに基づき、前記判定対象者を前記特定の状態に遷移させる追加行動を判定する
    処理を実行させることを特徴とする判定プログラム。
  2. 前記判定する処理は、前記判定対象者の行動情報が前記特定の状態と判定される閾値以上の尤度が対応付けられる行動の組み合わせを含むようになる前記追加行動を特定し、前記判定対象者に対する推奨行動として決定することを特徴とする請求項1に記載の判定プログラム。
  3. 前記学習モデルから前記出力結果として、前記各行動の組み合わせと、前記尤度と、前記各行動の組み合わせと前記判定対象者の行動情報とを差分を取得し、
    前記判定対象者にサービスを提供するサーバ装置に、前記出力結果を出力する、処理を前記コンピュータに実行させることを特徴とする請求項1に記載の判定プログラム。
  4. 前記複数の状態それぞれに対応する各学習モデルに、前記判定対象者の行動情報を入力し、
    前記各学習モデルから、前記判定対象者の行動情報が含まれる前記行動の組み合わせに対応付けられる前記尤度を合算したスコアを取得し、
    前記各学習モデルから取得される各スコアに基づき、前記判定対象者の状態を特定する、処理を前記コンピュータに実行させることを特徴とする請求項1に記載の判定プログラム。
  5. 前記複数の状態は、最初の状態から最終目的の状態まで順に遷移する状態であり、
    前記特定する処理は、前記複数の状態それぞれに対応する各学習モデルから取得された各スコアのうち閾値以上、かつ、前記最終目的の状態に最も近い状態を、前記判定対象者の状態と特定することを特徴とする請求項4に記載の判定プログラム。
  6. 前記特定する処理は、前記判定対象者の状態と特定された第1の状態の次の状態である第2の状態に対応する学習モデルから、前記第2の状態を特徴づける各行動の組み合わせと尤度との対応関係に関し、前記判定対象者の行動情報が前記各行動の組み合わせに含まれる割合を取得し、
    前記判定する処理は、前記尤度が閾値以上である前記各行動の組み合わせのうち、前記割合が最も多い組み合わせを特定し、特定した前記組み合わせにおいて、前記判定対象者の行動情報に含まれない行動を、前記追加行動と判定することを特徴とする請求項5に記載の判定プログラム。
  7. コンピュータが、
    複数の状態のうち特定の状態に対応した各行動者の行動の組み合わせと前記特定の状態とが関連付けられる複数の訓練データを用いて、前記複数の訓練データに含まれる複数の行動から生成される各行動の組み合わせと、前記各行動の組み合わせが前記特定の状態である確からしさを示す尤度とが対応付けられる複数の対応関係を学習した学習モデルに、判定対象者の行動情報を入力し、
    前記学習モデルの出力結果から、前記複数の対応関係それぞれにおける前記各行動の組み合わせと、前記判定対象者の行動情報との各差分を特定し、
    前記各行動の組み合わせに対応付けられる各尤度と、前記各行動の組み合わせとの各差分とに基づき、前記判定対象者を前記特定の状態に遷移させる追加行動を判定する
    処理を実行することを特徴とする判定方法。
  8. 複数の状態のうち特定の状態に対応した各行動者の行動の組み合わせと前記特定の状態とが関連付けられる複数の訓練データを用いて、前記複数の訓練データに含まれる複数の行動から生成される各行動の組み合わせと、前記各行動の組み合わせが前記特定の状態である確からしさを示す尤度とが対応付けられる複数の対応関係を学習した学習モデルに、判定対象者の行動情報を入力する入力部と、
    前記学習モデルの出力結果から、前記複数の対応関係それぞれにおける前記各行動の組み合わせと、前記判定対象者の行動情報との各差分を特定する特定部と、
    前記各行動の組み合わせに対応付けられる各尤度と、前記各行動の組み合わせとの各差分とに基づき、前記判定対象者を前記特定の状態に遷移させる追加行動を判定する判定部と
    を有することを特徴とする情報処理装置。
JP2019036604A 2019-02-28 2019-02-28 判定プログラム、判定方法および情報処理装置 Pending JP2020140540A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019036604A JP2020140540A (ja) 2019-02-28 2019-02-28 判定プログラム、判定方法および情報処理装置
EP20158458.8A EP3702994A1 (en) 2019-02-28 2020-02-20 Determination program, determination method, and information processing apparatus
US16/799,925 US11416892B2 (en) 2019-02-28 2020-02-25 Non-transitory computer-readable recording medium, determination method, and information processing apparatus
CN202010120417.7A CN111626762A (zh) 2019-02-28 2020-02-26 计算机可读记录介质、确定方法以及信息处理设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019036604A JP2020140540A (ja) 2019-02-28 2019-02-28 判定プログラム、判定方法および情報処理装置

Publications (1)

Publication Number Publication Date
JP2020140540A true JP2020140540A (ja) 2020-09-03

Family

ID=69804414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019036604A Pending JP2020140540A (ja) 2019-02-28 2019-02-28 判定プログラム、判定方法および情報処理装置

Country Status (4)

Country Link
US (1) US11416892B2 (ja)
EP (1) EP3702994A1 (ja)
JP (1) JP2020140540A (ja)
CN (1) CN111626762A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7004886B1 (ja) * 2021-03-09 2022-01-21 合同会社Famc ユーザに好適な商品またはサービスを決定するためのシステム、方法、およびプログラム
JP7046332B1 (ja) 2021-06-28 2022-04-04 カラクリ株式会社 プログラム、方法、およびシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7941383B2 (en) * 2007-12-21 2011-05-10 Yahoo! Inc. Maintaining state transition data for a plurality of users, modeling, detecting, and predicting user states and behavior
US9460401B2 (en) * 2012-08-20 2016-10-04 InsideSales.com, Inc. Using machine learning to predict behavior based on local conditions
US10417653B2 (en) * 2013-01-04 2019-09-17 PlaceIQ, Inc. Inferring consumer affinities based on shopping behaviors with unsupervised machine learning models
US10373177B2 (en) * 2013-02-07 2019-08-06 [24] 7 .ai, Inc. Dynamic prediction of online shopper's intent using a combination of prediction models
JP6015959B2 (ja) * 2013-11-28 2016-10-26 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、情報処理方法、及び、プログラム
US11042898B2 (en) * 2014-03-18 2021-06-22 Staples, Inc. Clickstream purchase prediction using Hidden Markov Models
US10867269B2 (en) * 2015-04-29 2020-12-15 NetSuite Inc. System and methods for processing information regarding relationships and interactions to assist in making organizational decisions
CN115115029A (zh) * 2015-11-06 2022-09-27 谷歌有限责任公司 训练神经网络的方法、系统及存储介质
CN107103171B (zh) * 2016-02-19 2020-09-25 阿里巴巴集团控股有限公司 机器学习模型的建模方法及装置
CN107578281B (zh) * 2017-08-31 2021-03-30 湖南大学 电子商务环境下用户优惠券行为预测方法及模型构建方法
CN107578332A (zh) * 2017-09-22 2018-01-12 深圳乐信软件技术有限公司 一种推荐现金商品的方法、装置、设备及存储介质
CN109345302B (zh) * 2018-09-27 2023-04-18 腾讯科技(深圳)有限公司 机器学习模型训练方法、装置、存储介质和计算机设备
CN109325541A (zh) * 2018-09-30 2019-02-12 北京字节跳动网络技术有限公司 用于训练模型的方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7004886B1 (ja) * 2021-03-09 2022-01-21 合同会社Famc ユーザに好適な商品またはサービスを決定するためのシステム、方法、およびプログラム
WO2022191210A1 (ja) * 2021-03-09 2022-09-15 株式会社Advasa ユーザに好適な商品またはサービスを決定するためのシステム、方法、およびプログラム
JP7046332B1 (ja) 2021-06-28 2022-04-04 カラクリ株式会社 プログラム、方法、およびシステム
JP2023004580A (ja) * 2021-06-28 2023-01-17 カラクリ株式会社 プログラム、方法、およびシステム

Also Published As

Publication number Publication date
US11416892B2 (en) 2022-08-16
EP3702994A1 (en) 2020-09-02
US20200279290A1 (en) 2020-09-03
CN111626762A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN111460130B (zh) 信息推荐方法、装置、设备和可读存储介质
Alahmadi et al. ISTS: Implicit social trust and sentiment based approach to recommender systems
US10497013B2 (en) Purchasing behavior analysis apparatus and non-transitory computer readable medium
CN101496002B (zh) 利用在线会话的内容选择广告内容和/或其他相关信息以供显示的系统和方法
WO2017121244A1 (zh) 信息推荐方法、系统以及存储介质
JP7215324B2 (ja) 予測プログラム、予測方法及び予測装置
US20170011481A1 (en) Document analysis system, document analysis method, and document analysis program
US11734322B2 (en) Enhanced intent matching using keyword-based word mover's distance
Zhang et al. Learning user credibility for product ranking
US20230034820A1 (en) Systems and methods for managing, distributing and deploying a recursive decisioning system based on continuously updating machine learning models
JP2020140540A (ja) 判定プログラム、判定方法および情報処理装置
Kamath et al. Board Recommendation in Pinterest.
Schofield et al. Identifying hate speech in social media
Montoro Montarroso et al. Fighting disinformation with artificial intelligence: fundamentals, advances and challenges
Yu et al. Graph learning for fake review detection
US20220366295A1 (en) Pre-search content recommendations
JP2020140572A (ja) 配分方法、抽出方法、配分プログラム、抽出プログラム、配分装置及び抽出装置
Narke et al. A comprehensive review of approaches and challenges of a recommendation system
Zhang et al. Discovering signals of platform failure risks from customer sentiment: the case of online P2P lending
Ferrari et al. Observe, inspect, modify: Three conditions for generative AI governance
Malik et al. SEHP: stacking-based ensemble learning on novel features for review helpfulness prediction
Thomas et al. A novel framework for an intelligent deep learning based product recommendation system using sentiment analysis (SA)
Latha et al. Product recommendation using enhanced convolutional neural network for e-commerce platform
Knoll et al. Applying recommender approaches to the real estate e-commerce market
JPWO2018235841A1 (ja) グラフ構造解析装置、グラフ構造解析方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230411