JP2021068053A - 生成装置、及び生成プログラム - Google Patents

生成装置、及び生成プログラム Download PDF

Info

Publication number
JP2021068053A
JP2021068053A JP2019191397A JP2019191397A JP2021068053A JP 2021068053 A JP2021068053 A JP 2021068053A JP 2019191397 A JP2019191397 A JP 2019191397A JP 2019191397 A JP2019191397 A JP 2019191397A JP 2021068053 A JP2021068053 A JP 2021068053A
Authority
JP
Japan
Prior art keywords
product
user
information
recommended
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019191397A
Other languages
English (en)
Other versions
JP7400334B2 (ja
Inventor
翔太郎 三沢
Shotaro Misawa
翔太郎 三沢
友紀 谷口
Tomonori Taniguchi
友紀 谷口
政寛 佐藤
Masahiro Sato
政寛 佐藤
大熊 智子
Tomoko Okuma
智子 大熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2019191397A priority Critical patent/JP7400334B2/ja
Priority to US16/892,401 priority patent/US20210118035A1/en
Publication of JP2021068053A publication Critical patent/JP2021068053A/ja
Application granted granted Critical
Publication of JP7400334B2 publication Critical patent/JP7400334B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0255Targeted advertisements based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0276Advertisement creation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】商品から連想されるテキストをユーザ毎に生成する生成装置及び生成プログラムを提供する。【解決手段】生成装置10は、ユーザに関するユーザ情報と、商品に対するユーザの購入履歴と、商品の商品情報と、商品に付与されている商品から連想されるテキストとが関連付けられた学習データを用いて学習データに含まれる各項目の関連付けを学習した学習モデルに、ユーザのユーザ情報及びユーザに推薦する推薦商品の商品情報を入力して、ユーザの購入履歴に基づいた推薦商品から連想されるテキストを生成する。【選択図】図1

Description

本発明は、生成装置、及び生成プログラムに関する。
特許文献1には、広告対象に対応した複数の広告文データそれぞれについて、前記広告文データに含まれる単語の特徴を表す広告文ベクトルを生成する広告文解析部と、ユーザが利用した電子コンテンツに関するテキストに含まれる単語の特徴を表すユーザーベクトルを生成するユーザ嗜好解析部と、複数の前記広告文データのそれぞれから生成された前記広告文ベクトルをクラスタリングし、クラスタリングにより得られた複数のクラスタのそれぞれについて、複数の前記広告文データのうち、前記クラスタの中心ベクトルと類似の広告文ベクトルが得られた広告文データを抽出するクラスタ別広告文抽出部と、複数の前記クラスタそれぞれの中心ベクトルのうち、前記ユーザ嗜好解析部が生成した前記ユーザーベクトルと類似の中心ベクトルを選択し、選択された前記中心ベクトルについて前記クラスタ別広告文抽出部が抽出した前記広告文データを、前記ユーザにマッチする広告文データとして選択するユーザーマッチング部と、を備えることを特徴する広告文選択装置が開示されている。
特許文献2には、ユーザに提示すべき推薦コンテンツと、前記推薦コンテンツに対する推薦付加情報とを求める情報処理装置であって、コンテンツに対する付加情報を記憶する付加情報記憶部と、前記ユーザが過去に選択した前記コンテンツ及び前記付加情報の選択履歴を記憶する選択履歴記憶部と、前記選択履歴に基づいて、前記コンテンツに対する前記ユーザの嗜好の傾向を表す第1嗜好情報を推定する第1推定部と、前記選択履歴に基づいて、前記付加情報に対する前記ユーザの嗜好の傾向を表す第2嗜好情報を推定する第2推定部と、前記第1嗜好情報と前記第2嗜好情報とに基づいて、前記推薦コンテンツと前記推薦付加情報とを選択する選択部とを備える、情報処理装置が開示されている。
特許文献3には、商品画像および商品説明文を含む商品データについて、商品画像及び商品説明文のそれぞれを特徴量に変換し、それぞれの特徴量を含んだ商品データの特徴量を取得する前処理手段と、商品を購入するユーザの属性を表すユーザデータの特徴量と、前記商品データの特徴量とを機械学習し、前記ユーザデータの特徴量と、前記商品データの特徴量との相関関係を学習したモデルを作成する学習手段と、前記商品を購入するサイトにアクセスしてきたユーザに対応する前記ユーザデータの特徴データと、前記商品データの特徴量とを取得し、前記モデルを適用した機械学習を実行して適合度を算出し、前記適合度を基に前記商品の推薦順位を決定する推薦手段と、を備える情報表示装置が開示されている。
特開2017−111479号公報 特許第5746658号公報 特許第6543986号公報
商品にはユーザの購入意欲を促すため、例えばキャッチコピーのように商品から連想されるテキストを表示することがある。
しかしながら、ユーザが興味を示すキャッチコピーはユーザ毎に異なり、各ユーザが興味を示すようなキャッチコピーをそれぞれ生成することは困難であった。
本発明は、商品から連想されるテキストを生成する場合に、商品から連想されるテキストをユーザ毎に生成することができる生成装置、及び生成プログラムを提供することを目的とする。
第1態様に係る生成装置は、プロセッサを備え、前記プロセッサは、ユーザに関するユーザ情報と、商品に対する前記ユーザの購入履歴と、前記商品の商品情報と、前記商品に付与されている前記商品から連想されるテキストとが関連付けられた学習データを用いて前記学習データに含まれる各項目の関連付けを学習した学習モデルに、前記ユーザのユーザ情報及び前記ユーザに推薦する推薦商品の商品情報を入力して、前記ユーザの購入履歴に基づいた前記推薦商品から連想されるテキストを生成する。
第2態様に係る生成装置は、第1態様に係る生成装置において、前記プロセッサは、更に前記推薦商品から連想されるテキストの候補を複数受け付け、受け付けたテキストの候補毎に、受け付けたテキストの候補と、前記ユーザのユーザ情報と、前記推薦商品の商品情報とを組み合わせて前記学習モデルに入力し、前記推薦商品から連想されるテキストの候補の中で、最も前記ユーザの反応度合いが高いテキストを前記推薦商品から連想されるテキストとして生成する。
第3態様に係る生成装置は、前記学習データの生成に用いられる購入履歴は、前記商品を購入したことを表す購入履歴であり、前記プロセッサは、前記学習モデルに前記ユーザのユーザ情報及び前記推薦商品の商品情報を入力して、前記ユーザの購入履歴に基づいた前記推薦商品から連想されるテキストを生成する。
第4態様に係る生成装置は、第2態様に係る生成装置において、前記ユーザの購入履歴は、前記商品の購入の有無、及び前記商品の購入過程を記録した履歴であり、前記反応度合いが前記推薦商品の購入確率によって表される。
第5態様に係る生成装置は、第4態様に係る生成装置において、前記プロセッサは、前記商品の購入過程の記録から前記ユーザの前記商品に対する興味の度合いを設定して前記学習データの学習に反映する。
第6態様に係る生成装置は、第1態様〜第5態様の何れかの態様に係る生成装置において、前記プロセッサは、前記ユーザのユーザ情報、及び前記商品の購入傾向の少なくとも一方の類似度が予め定めた類似度以上となる他のユーザのユーザ情報を含んだ前記学習データを、前記ユーザの前記学習データに含めて前記学習モデルを学習する。
第7態様に係る生成装置は、第1態様〜第6態様の何れかの態様に係る生成装置において、前記プロセッサは、前記推薦商品から連想されるテキストを、前記ユーザの嗜好に関する制約を満たすように生成する。
第8態様に係る生成装置は、第7態様に係る生成装置において、前記プロセッサは、前記商品に付与されている前記商品から連想されるテキストの文字数と前記ユーザの購入履歴から、購入確率が予め定めた確率以上となる前記商品から連想されるテキストの文字数を推定し、文字数が推定した文字数に近づくように前記推薦商品から連想されるテキストを生成する。
第9態様に係る生成装置は、第7態様に係る生成装置において、前記プロセッサは、前記商品に付与されている前記商品から連想されるテキストの文字形態と前記ユーザの購入履歴を用いて、前記商品から連想されるテキストの色、フォント、及びサイズの少なくとも1つの属性を推定し、色、フォント、及びサイズの少なくとも1つの属性が推定した属性となるように前記推薦商品から連想されるテキストを生成する。
第10態様に係る生成装置は、第1態様〜第9態様の何れかの態様に係る生成装置において、前記プロセッサは、前記推薦商品から連想されるテキストを、前記推薦商品から連想されるテキストが記載される媒体の記載に関する制約を満たすように生成する。
第11態様に係る生成装置は、第10態様に係る生成装置において、前記プロセッサは、文字数が前記媒体におけるテキストの記載予定領域の大きさに応じて設定された最大文字数以内に収まるように前記推薦商品から連想されるテキストを生成する。
第12態様に係る生成装置は、第10態様に係る生成装置において、前記プロセッサは、前記媒体に既に記載されている既存テキストとの類似度が基準類似度より低くなるようなテキストを、前記推薦商品から連想されるテキストとして生成する。
第13態様に係る生成装置は、第10態様に係る生成装置において、前記プロセッサは、前記媒体に共に記載されるテキストが表すカテゴリーに分類されるテキストを、前記推薦商品から連想されるテキストとして生成する。
第14態様に係る生成装置は、第1態様〜第13態様の何れかの態様に係る生成装置において、前記プロセッサは、前記学習データに含まれる前記商品から連想されるテキストの代わりに、前記商品に関するテキストから、前記商品から連想されるテキストを生成するように機械学習を行っている生成モデルが生成するテキストを前記学習モデルに入力し、前記学習モデルが出力する購入確率と、購入確率が取り得る最大値との誤差を表す損失を前記生成モデルに逆伝播させることで、前記損失が小さくなるようなテキストを生成するように前記生成モデルを学習させる。
第15態様に係る生成プログラムは、コンピュータに、ユーザに関するユーザ情報、及び前記ユーザに推薦する推薦商品に関する商品情報を受け付け、前記ユーザのユーザ情報と、商品に対する前記ユーザの購入履歴と、前記商品の商品情報と、前記商品に付与されている前記商品から連想されるテキストとが関連付けられた学習データを用いて前記学習データに含まれる各項目の関連付けを学習した学習モデルに、前記ユーザのユーザ情報及び前記推薦商品の商品情報を入力して、前記ユーザの購入履歴に基づいた前記推薦商品から連想されるテキストを生成させる。
第1態様、及び第15態様によれば、商品から連想されるテキストを生成する場合に、商品から連想されるテキストをユーザ毎に生成することができる、という効果を有する。
第2態様によれば、推薦商品から連想される複数のテキストのうち、ユーザが最も興味を示すテキストを提示することができる、という効果を有する。
第3態様によれば、ユーザが購入した商品に付与されているテキストの特徴に沿って、推薦商品から連想されるテキストを生成することができる、という効果を有する。
第4態様によれば、購入履歴を参考にすることなく商品から連想されるテキストを生成する場合と比較して、推薦商品の売上を上昇させることのできるテキストを生成することができる、という効果を有する。
第5態様によれば、購入過程の記録によって表されるユーザの商品に対する購入意欲の度合いを加味した学習データを生成することができる、という効果を有する。
第6態様によれば、商品から連想されるテキストの生成対象となっているユーザの学習データの数が、学習モデルの学習に必要とされる予め定めた数に達していない場合であっても、当該ユーザの興味を引くような商品から連想されるテキストを出力する学習モデルを生成することができる、という効果を有する。
第7態様によれば、ユーザの嗜好に合ったテキストを生成することができる、という効果を有する。
第8態様によれば、ユーザが興味を示す文字数に制限されたテキストを生成することができる、という効果を有する。
第9態様によれば、ユーザが興味を示す文字形態を備えたテキストを生成することができる、という効果を有する。
第10態様によれば、商品から連想されるテキストが記載される媒体の状況に応じて、商品から連想されるテキストの内容を変更することができる、という効果を有する。
第11態様によれば、媒体におけるテキストの記載予定領域の大きさに応じて、商品から連想されるテキストの内容を変更することができる、という効果を有する。
第12態様によれば、既存テキストとは異なる趣向で推薦商品の魅力をユーザに印象付けることができる、という効果を有する。
第13態様によれば、商品から連想されるテキストを、カテゴリーが表す趣旨に合わせて生成することができる、という効果を有する。
第14態様によれば、学習モデルと生成モデルを個別に学習する場合と比較して、生成モデルにおける学習効率を向上させることができる、という効果を有する。
生成装置の機能構成例を示す図である。 履歴情報テーブルの一例を示す図である。 生成装置における電気系統の要部構成例を示す図である。 第1実施形態に係る生成装置によって実行される学習処理の流れの一例を示すフローチャートである。 第1実施形態に係る生成装置によって実行される生成処理の流れの一例を示すフローチャートである。 第2実施形態に係る生成装置によって実行される学習処理の流れの一例を示すフローチャートである。 第2実施形態に係る学習モデルにおける学習例を示す図である。 第2実施形態に係る生成装置によって実行される生成処理の流れの一例を示すフローチャートである。 編集処理の流れの一例を示すフローチャートである。 編集処理の実行例を示す図である。
以下、本実施の形態について図面を参照しながら説明する。なお、同じ構成要素及び同じ処理には全図面を通して同じ符合を付与し、重複する説明を省略する。
<第1実施形態>
図1は、第1実施形態に係る生成装置10の機能構成例を示す図である。生成装置10は、履歴情報蓄積部11、抽出部12、学習データ準備部13、学習部14、入力部15、及び連想文生成部16の各機能部を備え、連想文生成部16は学習の対象となる学習モデル17を備える。
履歴情報蓄積部11は、例えばデスクトップコンピュータ、タブレット型端末、及びスマートフォン等の情報機器にインターネットを通じて表示された、EC(Electronic Commerce)サイトがユーザに提示した商品に対して、ユーザが取った行動を記録した履歴情報を記憶する。
履歴情報は、例えば商品情報が提示されたユーザに関するユーザ情報、ユーザに提示された商品の商品情報、商品と共に記載されているテキストである商品から連想されるテキスト、及び提示された商品の購入履歴を含む。
ユーザ情報は、ユーザを示す情報であり、例えばユーザID(Identification)や会員番号のように、ユーザを識別するための識別情報を含む。また、ユーザ情報はユーザを識別する識別情報の他、ユーザの名前、年齢、住所、性別、趣味、及び家族構成のように、ユーザに関する情報を含んでもよい。
商品情報は、商品を示す情報であり、例えば商品名や商品の型番のように、商品を識別するための識別情報を含む。また、商品情報は商品を識別するための識別情報の他、商品の価格(価格帯を含む)、商品の人気度、商品を記載しているECサイトに関する情報、商品がECサイトのウェブページに記載されていた記載期間、生産(製造)者、生産(製造)地、及び商品の概要を説明した説明文のように、商品に関する情報であればどのような情報を含んでもよい。
商品から連想されるテキストとは、例えば商品のキャッチコピーのようにユーザに商品を印象付けるためのテキストであり、「連想文」とも呼ばれる。以降では、商品のキャッチコピーを商品から連想されるテキストの代表例として生成装置10の説明を行うことにする。なお、商品のキャッチコピーとは、商品に貼り付けられたラベル等に記載されているキャッチコピーの他、ECサイトのウェブページで商品の画像と共に記載されているキャッチコピーも含まれる。加えて、商品から連想されるテキストは、一商品に対して複数与えられている場合と、一商品に対して一つしか与えられていない場合とがある。
商品の購入履歴とは、購入した商品を示す情報である。また、商品の購入履歴は商品の購入状況の他、商品が記載されたウェブページの表示時間、及び検索エンジンを用いた商品の検索の有無及び検索回数のように、ユーザが商品に対して持っている興味の度合いを表す指標値を含んでもよい。商品に対するユーザの興味の度合いは「商品に対するユーザの反応度合い」の一例であり、商品に対するユーザの興味の度合いが高いほど、商品に対するユーザの反応度合いが高いことを表す。また、商品に対するユーザの興味の度合いは商品の購入過程を表す情報でもある。
図2は、各々の履歴情報を管理する履歴情報テーブル2の一例を示す図である。図2に例示した履歴情報テーブル2には、例えばユーザがウェブページで閲覧した商品に対してとった行動を記録した履歴情報が含まれ、例えばユーザ情報としてユーザ名が設定され、商品情報として商品名が設定されている。また、購入履歴における「購入済み」の表記は、ユーザが商品を購入したことを表し、「未購入」の表記はユーザが商品を購入しなかったことを表す。また、「検索」の表記はユーザが検索エンジンを用いて商品を検索したことを表す。履歴情報テーブル2は、図2に示した情報以外にも、例えば履歴情報が履歴情報テーブル2に記録された記録時間のように他の情報を含んでもよい。
このように、履歴情報蓄積部11は、ユーザに対して提示された商品毎に、ユーザが取った行動をユーザ毎に記録する。
抽出部12は、履歴情報蓄積部11に記録されている履歴情報のうち、購入履歴が「購入済み」に設定されている履歴情報をユーザ毎に抽出する。
学習データ準備部13は、抽出した履歴情報に含まれるユーザ情報、商品情報、商品のキャッチコピー、及び購入履歴を関連付けた学習データをユーザ毎に用意する。
学習部14は、学習データ準備部13が用意した各々のユーザの学習データを用いて、学習モデル17にユーザとユーザが購入した商品とキャッチコピーとの関連付けを学習させる。学習モデル17は例えばニューラルネットワークで構築されており、学習データに含まれるユーザ情報及び商品情報を入力データとし、入力されるユーザ情報及び商品情報と同じ学習データに含まれるキャッチコピーを教師データとする機械学習を繰り返し実行することで、ユーザ及びユーザが購入した商品と、ユーザが商品を購入した際に記載されていた商品のキャッチコピーとの関連付けが学習される。
入力部15は、ユーザに推薦する商品(以降、「推薦商品」という)の商品情報と、推薦商品の提示先となるユーザのユーザ情報を受け付ける。具体的には、入力部15は、例えば推薦商品の商品名と、推薦商品の推薦対象となるユーザのユーザ名を受け付ける。なお、入力部15は、必ずしもユーザ情報を受け付ける必要はない。
連想文生成部16は、入力部15で推薦商品の商品情報とユーザ情報を受け付けた場合には、学習モデル17を用いて推薦商品の商品情報とユーザ情報から推薦商品のキャッチコピーを生成する。具体的には、連想文生成部16は、学習済みの学習モデル17に入力部15で受け付けた推薦商品の商品情報とユーザ情報を入力することで、学習モデル17が出力したキャッチコピーを推薦商品のキャッチコピーとする。また、連想文生成文16は、入力部15で推薦商品の商品情報のみを受け付けた場合には、学習モデル17を用いて推薦商品の商品情報から推薦商品のキャッチコピーを生成する。
次に、生成装置10における電気系統の要部構成例について説明する。
図3は、生成装置10における電気系統の要部構成例を示す図である。生成装置10は例えばコンピュータ20を用いて構成される。
コンピュータ20は、図1に示した生成装置10に係る各機能部を担うプロセッサの一例であるCPU(Central Processing Unit)21、コンピュータ20を図1に示した各機能部として機能させる生成プログラムを記憶するROM(Read Only Memory)22、CPU21の一時的な作業領域として使用されるRAM(Random Access Memory)23、不揮発性メモリ24、及び入出力インターフェース(I/O)25を備える。そして、CPU21、ROM22、RAM23、不揮発性メモリ24、及びI/O25がバス26を介して各々接続されている。
不揮発性メモリ24は、不揮発性メモリ24に供給される電力が遮断されても、記憶した情報が維持される記憶装置の一例であり、例えば半導体メモリが用いられるがハードディスクを用いてもよい。不揮発性メモリ24は、必ずしもコンピュータ20に内蔵されている必要はなく、例えばメモリカードやUSB(Universal Serial Bus)メモリのようにコンピュータ20に着脱される可搬型の記憶装置であってもよい。履歴情報蓄積部11は、例えば不揮発性メモリ24に構築される。
一方、I/O25には、例えば通信ユニット27、入力ユニット28、及び出力ユニット29が接続される。
通信ユニット27はインターネットのような図示しない通信回線に接続され、図示しない通信回線に接続される外部装置との間でデータ通信を行う通信プロトコルを備える。
入力ユニット28は、指示を受け付けてCPU21に通知する装置であり、例えばボタン、タッチパネル、キーボード、及びマウス等が用いられる。指示が音声で行われる場合、入力ユニット28としてマイクが用いられることがある。
出力ユニット29は、CPU21によって処理された情報を出力する装置であり、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プロジェクタ、プリンタ、スピーカー等が用いられる。
なお、I/O25に接続されるユニットは図3に示した各ユニットに限定されず、必要に応じて外部記憶ユニットといった他のユニットを接続してもよい。
次に、生成装置10の動作について説明する。
図4は、生成装置10のCPU21によって実行される学習処理の流れの一例を示すフローチャートである。学習処理を規定する生成プログラムは、例えば生成装置10のROM22に予め記憶されている。生成装置10のCPU21は、ROM22に記憶される生成プログラムを読み込み、学習処理を実行する。CPU21は、例えば1か月に1度というように図4に示す学習処理を何れのタイミングで実行してもよいが、ここでは一例として、ユーザから学習モデル17の学習指示を受け付けた場合に実行する。また、図4に示す学習処理は、1人のユーザに対する学習モデル17の学習処理を示したものである。履歴情報テーブル2に複数のユーザのユーザ情報が記録されている場合には、各々のユーザ毎に図4に示す学習処理を実行する。
ステップS10において、CPU21は、例えば不揮発性メモリ24に記憶される履歴情報テーブル2から、特定の1人のユーザが商品を購入した場合の履歴情報、すなわち、購入履歴に「購入済み」が設定されている履歴情報をすべて取得する。
ステップS20において、CPU21は、ステップS10で取得した履歴情報の中から、何れか1つの履歴情報を選択する。
ステップS30において、CPU21は、ステップS20で選択した履歴情報から、ユーザ情報、商品情報、及びキャッチコピーを取得し、取得した各々の項目についての特徴量を抽出する。具体的には、CPU21は、例えば埋め込み層(Embedding層)による次元圧縮のように、項目の内容を予め定めた次元に圧縮して項目の本質を構成する情報(「中間表現」ともいう)を取得する手法を用いて、ユーザ情報、商品情報、及びキャッチコピーのそれぞれの特徴量を抽出する。ユーザ情報、商品情報、及びキャッチコピーのそれぞれの特徴量は、予め定めた次元の実数値ベクトルとして表される。
ステップS40において、CPU21は、ステップS30で抽出したユーザ情報の特徴量、商品情報の特徴量、及び商品のキャッチコピーの特徴量を関連付けた学習データを生成する。すなわち、ステップS20で選択した履歴情報から当該履歴情報に対応した学習データが生成される。なお、ステップS10で購入履歴に「購入済み」が設定されている履歴情報を取得していることから、生成した学習データにはユーザの購入履歴も関連付けられていることになる。このように、商品を購入した履歴情報から生成された学習データを「正例学習データ」という。
ステップS50において、CPU21は、ステップS10で取得した履歴情報の中にまだステップS20で選択していない未選択の履歴情報が存在するか否かを判定する。未選択の履歴情報が存在する場合にはステップS20に移行して、CPU21は、ステップS20で選択していない履歴情報の中から何れか1つの履歴情報を選択する。ステップS50の判定処理で未選択の履歴情報が存在しないと判定されるまで、ステップS20〜ステップS50の処理を繰り返し実行することで、ステップS10で取得した各々の履歴情報に対して、ユーザ情報の特徴量、商品情報の特徴量、商品のキャッチコピーの特徴量、及び購入履歴が関連付けられた学習データが生成される。
一方、ステップS50の判定処理で未選択の履歴情報が存在しないと判定された場合には、ステップS60に移行する。
ステップS60において、CPU21は生成された各々の学習データを用いて、学習データに関連付けられているユーザ情報の特徴量、及び商品情報の特徴量が入力された場合に、同じ学習データに関連付けられているキャッチコピーの特徴量を出力するように学習モデル17に対して例えばディープラーニングのような機械学習を行い、図4に示す学習処理を終了する。これにより、例えばECサイトを通じて商品を販売する販売業者や、販売業者に委託されてユーザの興味を引く広告を制作する広告業者(以降、まとめて「生成装置10の利用者」ということにする)が、生成装置10に推薦商品の商品情報と推薦商品の推薦対象となるユーザのユーザ情報を入力すれば、推薦商品のキャッチコピーを生成する学習モデル17が得られることになる。
更に言えば、学習モデル17の学習に用いる学習データは、ユーザが商品を購入した場合に記載されていた商品のキャッチコピーから生成された学習データである。したがって、学習モデル17が生成する推薦商品のキャッチコピーは、実際に商品の購入につながったキャッチコピーを参考にして生成される。すなわち、生成装置10の利用者がユーザの履歴情報を考慮せずに設定したキャッチコピーよりもユーザの興味を引くキャッチコピーが生成されるため、推薦商品に対するユーザの購入確率が上昇する。
図4のステップS10では、購入履歴に「購入済み」が設定されている履歴情報だけを取得したが、購入履歴に「検索」が設定されている場合、商品の購入までには至らなかったがユーザは商品に興味を示していると推定される。すなわち、こうした商品のキャッチコピーもユーザの興味を引くキャッチコピーであると考えられる。したがって、CPU21は、例えばユーザが商品の検索を行ったとか、商品が記載されたウェブページを予め定めた基準時間以上閲覧したというように、ユーザが商品に興味を示している行動を購入履歴に記憶し、このような購入履歴を含む履歴情報から学習データを生成してもよい。この場合、ユーザが商品に興味を示している行動毎に興味の度合いを表す重み付けを行い、学習モデル17の学習に反映させてもよい。
例えばユーザが商品に高い興味を示している行動を含む学習データほど、学習モデル17の学習に与える影響が大きくなるように学習モデル17の学習パラメータを調整する。具体的には、ユーザが商品に高い興味を示している行動を含む学習データほど、学習モデル17に対する当該学習データを用いた学習回数を多くしたり、学習モデル17のノード間の重みのように、情報の伝達を制御する学習パラメータを制御して学習モデル17への影響度が大きくなるように調整すればよい。
なお、学習モデル17の学習パラメータを調整すれば、学習モデル17の学習精度を更に向上させることができる場合がある。例えばどうしても必要な商品であれば、ユーザは商品のキャッチコピーを参照することなく商品を購入することがあるため、商品のキャッチコピーがユーザの興味を引くキャッチコピーであったか否かは不明となる。したがって、CPU21は、ユーザが商品のキャッチコピーを参照せずに購入したと推定される履歴情報から生成した学習データが、学習モデル17の学習に与える影響度をできるだけ小さくした方が好ましい。そのため、CPU21は、商品のキャッチコピーを参照せずに購入したと推定される履歴情報から生成した学習データを用いて学習モデル17を学習する場合には、学習パラメータを調整して当該学習データが学習モデル17の学習に与える影響度を他の学習データによる影響度より小さくなるように制御してもよい。ユーザが商品のキャッチコピーを参照せずに商品を購入したか否かの推定は、例えばCPU21がユーザの購入情報として記録された、商品が記載されたウェブページの閲覧時間を参照し、閲覧時間がキャッチコピーを読むために必要と考えらえる設定時間より短い場合に、ユーザが商品のキャッチコピーを参照せずに商品を購入したと推定すればよい。当該設定時間は生成装置10の利用者によって設定される。
一方、履歴情報テーブル2に記録されているユーザの履歴情報のうち、学習データの生成に用いた履歴情報が少ないほど生成される学習データも少なくなるため、学習モデル17の学習度が低下する傾向がある。したがって、CPU21は、履歴情報テーブル2に記録されているユーザの履歴情報が基準数以下である場合、当該ユーザのユーザ情報及び商品の購入傾向の少なくとも一方の類似度が予め定めた類似度以上となるような他のユーザの履歴情報(「類似履歴情報」という)から生成された学習データも用いて、学習モデル17の学習を行ってもよい。
ユーザ情報の類似度は、例えば年齢、性別、または趣味といったユーザの属性に対するクラスタ分析や特徴量のコサイン距離を比較することによって得られる。また、商品の購入傾向の類似度は、例えば購入した商品名や購入した商品の価格帯のように、購入した商品に関して注目した商品情報の属性の一致数や、各属性の特徴量のコサイン距離を比較することによって得られる。ユーザが購入しなかった商品の商品情報を比較することで商品の購入傾向の類似度を判定してもよい。この場合、どのような商品を購入しなかったのかというユーザの購入傾向が得られる。なお、類似度を示す値が大きいほど、比較対象となる事柄が類似していることを示すものとする。
ユーザ情報及び商品の購入傾向の少なくとも一方の類似度に基づいて類似履歴情報を判定する方法以外にも、例えば商品毎にユーザの購入確率を出力するように、ユーザ情報と商品情報と商品の購入の有無との関連付けを学習した購入確率モデルを用いて、類似履歴情報であるか否かを判定してもよい。具体的には、CPU21は、学習モデル17の生成対象となっているユーザのユーザ情報と、当該ユーザ以外の他のユーザの履歴情報に記録されている商品情報を購入確率モデルに入力して、購入確率モデルから出力された購入確率が予め定めた確率以上となった場合、学習モデル17の生成対象となっているユーザは購入確率モデルに入力した商品情報によって表される商品が提示されると興味を示すと考えられることから、購入確率モデルに入力した商品情報を含む他のユーザの履歴情報を類似履歴情報と判定してもよい。購入確率モデルは生成装置10に構築しても、インターネットを通じて接続される外部装置に構築してもよい。
次に、図4に示した学習処理によって学習を行った学習モデル17を用いて、推薦商品に対してキャッチコピーを生成する生成処理について説明する。
図5は、生成装置10の利用者から推薦商品の商品情報と、推薦商品の推薦対象となるユーザのユーザ情報を受け付けた場合に、生成装置10のCPU21によって実行される生成処理の流れの一例を示すフローチャートである。生成処理を規定する生成プログラムは、例えば生成装置10のROM22に予め記憶されている。生成装置10のCPU21は、ROM22に記憶される生成プログラムを読み込み、生成処理を実行する。
ステップS100において、CPU21は、図4のステップS30で用いた手法と同じ手法により、受け付けた商品情報とユーザ情報のそれぞれについて特徴量を抽出する。その上で、CPU21は、学習モデル17に商品情報の特徴量とユーザ情報の特徴量を入力する。
ステップS110において、CPU21は、ステップS100で入力した商品情報の特徴量とユーザ情報の特徴量に対して学習モデル17が出力するキャッチコピーの特徴量を取得する。CPU21は、図4のステップS30で用いた手法と同じ手法を逆方向に利用して、取得したキャッチコピーの特徴量を言語で表されたキャッチコピーに変換して、推薦商品のキャッチコピーを生成する。
ステップS120において、CPU21は、ステップS110で生成したキャッチコピーを推薦商品のキャッチコピーとして出力ユニット29に出力し、図5に示す生成処理を終了する。CPU21は、ユーザ毎に生成したキャッチコピーを推薦商品と対応付けて不揮発性メモリ24に記憶し、過去に生成したキャッチコピーが参照できるようにする。
上記では、推薦商品の推薦対象となるユーザのユーザ情報を受け付けた例について説明したが、ユーザ情報は必ずしも必要ではない。
推薦商品の商品情報だけを受け付けた場合、CPU21は、ステップS100で商品情報の特徴量を抽出し、抽出した商品情報の特徴量を学習モデル17に入力して、学習モデル17が出力するキャッチコピーを取得してもよい。この場合に得られるキャッチコピーは、特定のユーザに向けた推薦商品のキャッチコピーではなく、幅広いユーザに好まれるキャッチコピーとなる。
なお、図4に示した学習処理において、ユーザ情報の特徴量、及び商品情報の特徴量を入力した場合に、キャッチコピーの特徴量を出力するように学習モデル17を学習したことから、図5に示した生成処理では、ユーザのユーザ情報と推薦商品の商品情報の特徴量を抽出してから学習モデル17に入力した。また、この場合に学習モデル17から出力される情報はキャッチコピーの特徴量であることから、言語で表されたキャッチコピーに変換してから出力ユニット29に出力した。
しかしながら、例えば特徴量を抽出するEmbedding層を備えたエンコーダ・デコーダモデルを用いて学習モデル17を構築しておけば、エンコーダによってユーザ情報及び商品情報の特徴量が抽出され、デコーダによって特徴量に対応したテキストが出力される。したがって、CPU21は特徴量ではなくユーザ情報及び商品情報そのものを学習モデル17に入力してもよい。学習モデル17から出力される情報は言語で表されたキャッチコピーであるから、CPU21は、キャッチコピーの特徴量を言語で表されたキャッチコピーに変換する必要もない。また、この場合、ユーザ情報、商品情報、商品のキャッチコピー、及び購入履歴を関連付けた学習データを用いて学習モデル17を学習すればよい。
また、CPU21は、キャッチコピーを出力する場合に履歴情報テーブル2を参照し、受け付けたユーザ情報によって表されるユーザ(以降、「指定されたユーザ」という)の履歴情報に基づいて、推薦商品と一緒に購入されやすい商品を出力してもよい。例えば指定されたユーザの履歴情報において、推薦商品と類似する商品を購入した履歴情報が存在する場合、この履歴情報が記録された時間を含む予め定めた範囲内に同じユーザが別の商品を購入した購入履歴が存在する場合、CPU21は当該別の商品を推薦商品と一緒に購入されやすい商品として特定する。その上で、CPU21は、学習済みの学習モデル17を用いて、推薦商品と一緒に購入されやすい商品のキャッチコピーを生成してもよい。
更に、履歴情報における商品情報に商品の画像が記録されている場合、ユーザがどのような画像を見た場合に商品を購入したのかというユーザの画像の好みを推定できることがある。具体的には、ユーザ及びユーザに提示した商品の画像と、その商品の購入の有無との関連付けを機械学習した画像推薦モデルを生成しておき、学習済みの画像推薦モデルに指定されたユーザのユーザ情報と推薦商品の画像を入力すれば、入力した画像に対するユーザの購入確率が得られる。
したがって、生成装置10の利用者が推薦商品に対して複数の画像候補を有する場合、各々の画像候補毎にユーザの購入確率が得られるため、CPU21は、最も購入確率の高い画像候補を推薦商品の画像として選択する。画像推薦モデルは生成装置10に構築してもよく、インターネットを通じて接続される外部装置に構築してもよい。
なお、ユーザの嗜好は時間と共に変化することがあるため、ユーザが生成装置10で生成したキャッチコピーに興味を示さずに、推薦商品を購入しないこともある。したがって、例えば特定のユーザについて推薦商品を購入しない状況が予め定めた回数連続して続くような場合、CPU21は、図4に示した学習処理を再度実行し、当該ユーザの履歴情報から新たに生成された学習データを用いて、学習モデル17を学習し直してもよい。学習モデル17を再学習することで、以前の学習モデル17の学習では用いられなかった新たな学習データによる学習が行われるため、ユーザの最近の嗜好に従ったキャッチコピーが生成されやすくなる。
一方、同じユーザに対して同じ生成装置10でキャッチコピーを生成していくと、キャッチコピーの生成回数が増加するに従って、過去に生成したキャッチコピーと類似したキャッチコピーが生成されやすくなり、新たな観点で推薦商品を表現した表現内容(「テイスト」という)が得られにくくなる傾向がある。
こうした傾向が見られるようになると、学習モデル17で新たにキャッチコピーを生成しても、過去に生成した何れかのキャッチコピーと類似したキャッチコピーが生成されやすくなる。したがって、CPU21は同じユーザに対して生成したキャッチコピーにおいて、類似するキャッチコピーの数が予め定めた数以上となった後に、生成装置10の利用者から推薦商品のキャッチコピーの生成指示を受け付けた場合、学習モデル17を用いずに、過去に指定されたユーザに対して生成した、推薦商品と類似する商品のキャッチコピーの中から推薦商品のキャッチコピーを選択して出力する。このようにすることで、学習モデル17を用いて新たなキャッチコピーを生成する処理を省略しても、指定されたユーザが興味を示すキャッチコピーが得られる。
また、学習モデル17を用いてキャッチコピーを毎回生成するよりも生成装置10の負荷が低下することから、例えば生成装置10の負荷が予め定めた負荷以上に上昇した場合に、指定されたユーザに対して過去生成したキャッチコピーの中から推薦商品のキャッチコピーを選択して出力すればよい。
既に説明したように、学習データ数の不足により学習モデル17の学習度が低下する傾向がある。したがって、生成装置10は、履歴情報テーブル2に記録されている履歴情報のうち、学習データの生成に用いた履歴情報が基準数以下であるようなユーザに対して推薦商品のキャッチコピーを生成した場合、当該ユーザが興味を示しにくいキャッチコピーを生成してしまうことが考えられる。
そこで、CPU21は、推薦商品の商品情報と共にこのようなユーザのユーザ情報を受け付けた場合、指定されたユーザのユーザ情報を、履歴情報が指定されたユーザの履歴情報と類似し、かつ、学習データの生成に用いた履歴情報が基準数を超えている他のユーザのユーザ情報に置き換えてから、推薦商品のキャッチコピーを生成してもよい。指定されたユーザとは異なる他のユーザのユーザ情報を用いて生成された推薦商品のキャッチコピーが得られることになるが、指定されたユーザと他のユーザは履歴情報が類似することから、このようにして生成した推薦商品のキャッチコピーを、指定されたユーザに対する推薦商品のキャッチコピーとして出力しても、指定されたユーザが興味を示すキャッチコピーが得られることになる。
なお、履歴情報の類似度は、ユーザ同士のユーザ情報、購入した商品の商品情報、及び商品の購入傾向のそれぞれの類似度の合計値により表され、CPU21は、当該合計値が閾値以上である場合に履歴情報が類似していると判定すればよい。
上記の例では、生成装置10で推薦商品のキャッチコピーを生成する前に、学習データの生成に用いた指定されたユーザの履歴情報が基準数以下であるか判定したが、そもそも学習データの生成に用いた指定されたユーザの履歴情報が基準数以下である場合、指定されたユーザに対する学習モデル17の学習度が他のユーザに比べて低下していることが考えらえるため、指定されたユーザに対して学習モデル17で生成するキャッチコピーは、必ずしも文法的に正しい表現にならないことがある。したがって、CPU21は、キャッチコピーの表現が文法的に正しい表現になっているかを評価する評価モデルに学習モデル17で生成したキャッチコピーを入力して、正しい表現になっていないと評価された場合には、指定されたユーザのユーザ情報を履歴情報が類似する他のユーザのユーザ情報に置き換えて、指定されたユーザに対する推薦商品のキャッチコピーを生成してもよい。
更に、生成装置10は、指定されたユーザに対する推薦商品のキャッチコピーを生成する場合、ユーザの嗜好にあわせてキャッチコピーの文字形態を決定してもよい。キャッチコピーの文字形態とはキャッチコピーの見た目のことであり、キャッチコピーの文字色、キャッチコピーに用いられているフォントの種類、及びキャッチコピーの文字サイズが含まれる。
学習モデル17にアテンション機構が備えられている場合、学習モデル17はキャッチコピーの生成過程において、キャッチコピーに含まれる単語毎に、単語がキャッチコピーの生成に与えた影響度を数値として表すことができる。影響度が高い単語ほど、ユーザが興味を示しやすい単語、すなわち、ユーザの嗜好にあった単語であると考えられることから、CPU21は、影響度が予め定めた基準影響度以上となる単語の文字形態を他の単語と異なる文字形態に設定すればよい。この場合、キャッチコピーの文字形態を予め定めた文字形態に統一する場合と比較してユーザが興味を示しやすいキャッチコピーとなるため、推薦商品の売り上げの増加につながることがある。
なお、CPU21は、文字形態を変化させたキャッチコピーを付与した推薦商品に関する履歴情報を参照し、推薦商品が購入されたか否かを監視する。その上で、CPU21は、推薦商品の購入の有無に基づいて単語の影響度を補正するようにしてもよい。
また、CPU21は、ユーザの嗜好と関係なく、無作為に選択した単語の文字形態を他の単語とは異なる文字形態に設定してもよい。この場合、助詞及び助動詞といった品詞の単語よりも、名詞、動詞、形容詞、及び副詞といった品詞の単語の方がユーザに意味を明確に伝えることから、CPU21は、単語の品詞に基づいて文字形態を変化させる単語を無作為に選択してもよい。単語の品詞は、例えばキャッチコピーの形態素解析によって得られる。
また、生成装置10の利用者は、特定のユーザに向けた推薦商品のキャッチコピーを生成してもよいが、例えば50代男性のユーザや旅行が趣味のユーザというように、類似する特徴を備えたユーザ群に向けた推薦商品のキャッチコピーを生成してもよい。例えば50代男性のユーザ群に向けた推薦商品のキャッチコピーを生成したい場合、生成装置10の利用者は、「年齢=50代」、「性別=男性」というように対象となるユーザ群の特徴を生成装置10に入力する。
生成装置10のCPU21は、特定のユーザだけでなく、想定される様々なユーザ群の特徴に対応した別学習モデルを予め構築しておく。CPU21は、推薦商品の商品情報を入力すると50代男性のユーザ群が好むキャッチコピーを生成する別学習モデルを用いて、50代男性のユーザ群に向けたキャッチコピーを生成する。なお、学習モデル17を予め構築しておくユーザ群の特徴は、例えば生成装置10を管理する管理者によって指示される。
このように第1実施形態に係る生成装置10によれば、指定されたユーザのユーザ情報、及び指定されたユーザに推薦する推薦商品の商品情報を受け付けると、履歴情報から生成した学習データを用いて、ユーザ情報と、ユーザに提示された商品の商品情報と、ユーザ情報によって表されるユーザが興味を示したキャッチコピーとの関連付けを学習した学習モデル17に、受け付けたユーザ情報及び推薦商品の商品情報を入力することで、ユーザの購入履歴に基づいた推薦商品のキャッチコピーが生成される。
<第2実施形態>
第1実施形態では、ユーザ情報と推薦商品の商品情報からキャッチコピーを出力する学習モデル17を用いて、ユーザが興味を示す推薦商品のキャッチコピーを生成した。
第2実施形態では、予め用意した複数のキャッチコピーの候補毎にユーザが興味を示す度合い(「スコア」ともいう)を出力する学習モデル18を用いて、スコアを参考にして複数のキャッチコピーの候補の中から推薦商品のキャッチコピーを出力する生成装置10Aについて説明する。
第2実施形態に係る生成装置10Aの機能構成例は、図1に示した第1実施形態に係る生成装置10の機能構成例で学習モデル17が学習モデル18に置き換えられた以外は、生成装置10の機能構成例と同じになる。なお、第1実施形態に係る生成装置10の入力部15では、推薦商品の推薦対象となるユーザのユーザ情報の入力は任意であったが、第2実施形態に係る生成装置10Aの入力部15では、推薦商品の推薦対象となるユーザのユーザ情報の入力は必須であり、推薦商品の商品情報、推薦商品の推薦対象となるユーザのユーザ情報、及び推薦商品のキャッチコピーの候補を受け付けるものとする。
また、生成装置10Aにおける電気系統の要部構成例は、図3に示したようにコンピュータ20を用いて構成される。
次に、生成装置10Aの動作について説明する。
図6は、生成装置10AのCPU21によって実行される学習処理の流れの一例を示すフローチャートである。学習処理を規定する生成プログラムは、例えば生成装置10AのROM22に予め記憶されている。生成装置10AのCPU21は、ROM22に記憶される生成プログラムを読み込み、学習処理を実行する。CPU21は、例えば1か月に1度というように図6に示す学習処理を何れのタイミングで実行してもよいが、ここでは一例として、ユーザから学習モデル18の学習指示を受け付けた場合に実行するものとする。また、図6に示す学習処理は、1人のユーザに対する学習モデル18の学習処理を示したものである。履歴情報テーブル2に複数のユーザのユーザ情報が記録されている場合には、各々のユーザ毎に図6に示す学習処理を実行する。
ステップS200において、CPU21は、例えば不揮発性メモリ24に記憶される履歴情報テーブル2から、商品を購入したか否かに関わらず、特定のユーザの履歴情報をすべて取得する。
ステップS210において、CPU21は、ステップS200で取得した履歴情報の中から、何れか1つの履歴情報を選択する。
ステップS220において、CPU21は図4に示したステップS30の処理と同様に、ステップS210で選択した履歴情報から、ユーザ情報、商品情報、及びキャッチコピーを取得し、取得した各々の項目についての特徴量を抽出すると共に、商品の購入の有無に関する情報、すなわち、ユーザの購入履歴を抽出する。なお、キャッチコピーの特徴量を抽出する場合、CPU21はキャッチコピーを単語に分割し、各々の単語毎に特徴量を抽出してもよい。ここでは一例として、各々の単語毎に特徴量を抽出するものとする。
ステップS230において、CPU21は、ステップS220で抽出したユーザ情報の特徴量、商品情報の特徴量、商品のキャッチコピーの特徴量、及び購入履歴を関連付けた学習データを生成する。なお、学習データに関連付ける購入履歴は数値によって表される。例えば「購入済み」が設定された購入履歴であれば“1”、「未購入」が設定された購入履歴であれば“0”が購入履歴として学習データに関連付ける。商品を購入していないが、ユーザが商品に対して興味を示していることを表す内容が購入履歴に設定されている場合、ユーザの興味が高いことを示す内容であるほど“1”に近い数値を購入履歴に対応付ける。例えば「検索」であれば“0.5”を対応付ける。また、商品が記載されたウェブページの閲覧時間はユーザの興味に比例すると考えられるため、商品が記載されたウェブページの閲覧時間が長いほど“1”に近い数値を購入履歴に対応付ける。購入履歴に対応付けた数値はユーザが商品を購入する購入確率を示しており、上記の例の場合、“1”は100%の確率でユーザが商品を購入することを意味し、“0”は商品の購入確率が0%であることを意味している。
なお、履歴情報テーブル2において、購入履歴が「未購入」とは、ユーザが商品情報の掲載されたウェブページ等を閲覧した上で購入に至らなかった商品であることから、ユーザが好まなかった商品を表す重要なデータとなる。
すなわち、第2実施形態に係る学習データには、ユーザが商品に興味を示した場合の履歴情報から生成された学習データ、及びユーザが商品を購入した場合の履歴情報から生成された学習データのみならず、ユーザが商品情報を閲覧したにもかかわらず商品を購入しなかった場合の履歴情報から生成された学習データも含まれる。このように、履歴情報テーブル2からユーザが商品を購入しなかった場合の履歴情報を取得することを「ネガティブサンプリング」といい、ネガティブサンプリングによって取得された履歴情報から生成された学習データを「負例学習データ」という。
また、購入確率は、商品の購入履歴を表す数値であると共に、ユーザがキャッチコピーに興味を示した度合いを表していることから、本実施の形態に係るスコアの一例である。以降では、スコアとして商品の購入確率を用いる例について説明するが、キャッチコピーに対してユーザが興味を示す度合いを表すものであればどのような数値をスコアに用いてもよく、例えば商品に対する好感度を数値化してスコアとして用いてもよい。
ステップS240において、CPU21は、ステップS200で取得した履歴情報の中にまだステップS210で選択していない未選択の履歴情報が存在するか否かを判定する。未選択の履歴情報が存在する場合にはステップS210に移行して、CPU21は、ステップS210で選択していない履歴情報の中から何れか1つの履歴情報を選択する。ステップS240の判定処理で未選択の履歴情報が存在しないと判定されるまで、ステップS210〜ステップS240の処理を繰り返し実行することで、ステップS200で取得した各々の履歴情報に対して、ユーザ情報の特徴量、商品情報の特徴量、商品のキャッチコピーの特徴量、及び購入履歴が関連付けられた学習データが生成される。
一方、ステップS240の判定処理で未選択の履歴情報が存在しないと判定された場合には、ステップS250に移行する。
ステップS250において、CPU21は生成された各々の学習データを用いて、学習データに関連付けられているユーザ情報の特徴量、商品情報の特徴量、及びキャッチコピーの特徴量が入力された場合に、同じ学習データに関連付けられている購入履歴、すなわち、購入確率を出力するように学習モデル18を学習して、図6に示す学習処理を終了する。
図7は、学習モデル18における学習例を示す図である。図7に示す例では、CPU21は、「レンジで簡単」というキャッチコピーを単語に分割し、各々の単語をBi-GRU(Bi-directional Gated Recurrent Unit)4に入力することでキャッチコピーの特徴量を抽出して、ユーザ情報の特徴量、商品情報の特徴量、商品のキャッチコピーの特徴量、及び購入確率が関連付けられた学習データを生成している。その上で、CPU21は、ユーザ情報の特徴量、商品情報の特徴量、及び商品のキャッチコピーの特徴量を学習モデル18のFC(Fully Connected)層に入力して、学習モデル18から出力されるスコアが学習データに関連付けられた購入確率に近づくように学習モデル18を学習する。Bi-GRU4はEmbedding層の一例である。
なお、CPU21は特徴量ではなくユーザ情報、商品情報、及びキャッチコピーそのものを学習モデル18に入力してもよい。この場合、ユーザ情報、商品情報、商品のキャッチコピー、及び購入確率を関連付けた学習データを用いて学習モデル18を学習すればよい。
第1実施形態で説明したように、学習モデル18においても、ユーザが商品のキャッチコピーを参照せずに購入した場合の履歴情報から生成した学習データが、学習モデル18の学習に与える影響度をできるだけ小さくすることが好ましい。そのため、CPU21は、商品のキャッチコピーを参照せずに購入した場合の履歴情報から生成した学習データを用いて学習モデル18を学習する場合には学習パラメータを調整して、当該学習データが学習モデル18の学習に与える影響度が、他の学習データによる影響度より小さくなるように制御してもよい。
次に、図6に示した学習処理によって学習を行った学習モデル18を用いて、推薦商品に対してキャッチコピーを生成する生成処理について説明する。
図8は、生成装置10Aの利用者から推薦商品の商品情報、推薦商品の推薦対象となるユーザのユーザ情報、及び推薦商品に対する複数のキャッチコピーの候補を受け付けた場合に、生成装置10AのCPU21によって実行される生成処理の流れの一例を示すフローチャートである。生成処理を規定する生成プログラムは、例えば生成装置10AのROM22に予め記憶されている。生成装置10AのCPU21は、ROM22に記憶される生成プログラムを読み込み、生成処理を実行する。
ステップS300において、CPU21は、受け付けた複数のキャッチコピーの候補の中から何れか1つのキャッチコピーを選択する。以降では、複数のキャッチコピーの候補の中から選択した各々のキャッチコピーを「選択キャッチコピー」ということにする。
ステップS310において、CPU21は、受け付けた商品情報、ユーザ情報、及び選択キャッチコピーのそれぞれについて特徴量を抽出する。その上で、CPU21は、商品情報の特徴量、ユーザ情報の特徴量、及び選択キャッチコピーの特徴量を組み合わせて学習モデル18に入力する。
商品情報の特徴量、ユーザ情報の特徴量、及び選択キャッチコピーの特徴量が入力された学習モデル18は、推薦商品に選択キャッチコピーが付与された場合に指定されたユーザが推薦商品を購入する購入確率をスコアとして出力する。したがって、ステップS320において、CPU21は、選択キャッチコピーと学習モデル18が出力したスコアを対応付けて不揮発性メモリ24に記憶する。
ステップS330において、CPU21は、受け付けたキャッチコピーの候補の中にまだステップS300で選択していない未選択のキャッチコピーの候補が存在するか否かを判定する。未選択のキャッチコピーの候補が存在する場合にはステップS300に移行して、CPU21は、ステップS300で選択していないキャッチコピーの候補の中から何れか1つのキャッチコピーの候補を選択する。
ステップS330の判定処理で未選択のキャッチコピーの候補が存在しないと判定されるまで、ステップS300〜ステップS330の処理を繰り返し実行することで、受け付けた各々のキャッチコピーの候補に対して学習モデル18が出力したスコアが対応付けられる。
一方、ステップS330の判定処理で未選択のキャッチコピーの候補が存在しないと判定された場合には、ステップS340に移行する。
ステップS340において、CPU21は、それぞれスコアが対応付けられた複数のキャッチコピーの候補の中で、最も高いスコアが対応付けられたキャッチコピーの候補を推薦商品のキャッチコピーとして出力ユニット29に出力する。
生成装置10Aの利用者は、例えば推薦商品の説明文を入力すると推薦商品に対するキャッチコピーの候補を出力するように機械学習が行われている生成モデルを含むキャッチコピー生成装置を用いて、推薦商品に対するキャッチコピーの候補を生成する。しかしながら、生成装置10Aの利用者は、キャッチコピー生成装置で生成されたキャッチコピーの候補だけでなく、例えば推薦商品と類似する商品のキャッチコピーを推薦商品に対するキャッチコピーの候補として用いてもよい。
なお、推薦商品の説明文とは、推薦商品に関する内容を他者にわかりやすく紹介するために作成した文である。説明文は単語の羅列等で構成されるのではなく、例えば名詞、動詞、形容詞、及び副詞等を助詞で接続し、各々の品詞の係り具合を明確にすることでまとまりのある意味を表すテキストとして表現される。
CPU21は、受け付けた推薦商品の特徴量とキャッチコピーの候補を対応付けて不揮発性メモリ24に記憶している場合、受け付けた推薦商品の特徴量と類似する商品のキャッチコピーを不揮発性メモリ24から取得して、生成装置10Aの利用者から受け付けたキャッチコピーの候補に加えてもよい。推薦商品に対するキャッチコピーの候補の数が増加するため、生成装置10Aの利用者から受け付けた推薦商品に対するキャッチコピーの候補から推薦商品のキャッチコピーを選択する場合と比較して、指定されたユーザが興味を示すキャッチコピーが得られやすくなる。
更に言えば、CPU21は、受け付けた推薦商品の特徴量と類似する商品のキャッチコピーの候補の中から、推薦商品のキャッチコピーを選択してもよい。この場合、生成装置10Aの利用者は、自ら推薦商品のキャッチコピーの候補を用意して生成装置10Aに入力しなくてよい。
推薦商品に対するキャッチコピーの候補の生成にキャッチコピー生成装置を用いる場合、キャッチコピー生成装置の生成モデルは、推薦商品の説明文からできるだけユーザが興味を示すようなキャッチコピーを生成することが求められる。したがって、CPU21は、学習データに含まれる商品情報によって表される商品の説明文を生成モデルに入力することで得られたキャッチコピーが、同じ学習データに含まれるキャッチコピーに近づくように生成モデルを学習させる。その上で、CPU21は、学習データに含まれるキャッチコピーを、生成モデルが生成したキャッチコピーに置き換えた学習データを学習モデル18に入力して、学習モデル18から出力されるスコアとスコアの最大値(本実施形態の場合は“1”)との誤差を表す損失が小さくなるように、得られた損失を生成モデルに逆伝播させる。
このようにすることで、生成したキャッチコピーに対するスコアを考慮せずに生成モデルを学習する場合と比較して、ユーザがより興味を示しやすいキャッチコピーを生成することができるようになる。なお、キャッチコピー生成装置が備える生成モデルを生成装置10Aに設けるようにしてもよい。この場合、キャッチコピー生成装置は不要となる。
なお、学習モデル18と生成モデルの学習順序は、何れか一方のモデルの学習を完了させてから他方のモデルの学習を開始しても、交互に学習を行うようにしてもよい。
また、例えばECサイトのウェブページに推薦商品と共にキャッチコピーを記載する場合や、推薦商品に貼り付けているラベルにキャッチコピーを記載する場合、キャッチコピーの記載に関して何らかの制約を受けることがある。
例えば推薦商品の紹介のために割り当てられているウェブページ上の領域や、ラベルの大きさは有限であることから、ウェブページ上の領域やラベルといったキャッチコピーが記載される媒体に記載可能なキャッチコピーの文字数には上限が設定される。したがって、生成装置10Aの利用者は、媒体に記載可能な最大文字数を予め生成装置10Aに入力しておき、CPU21は、受け付けた複数のキャッチコピーの候補のうち、最大文字数以内に収まり、かつ、スコアが最も高いキャッチコピーを推薦商品のキャッチコピーとして出力することが好ましい。
媒体に記載可能な最大文字数はキャッチコピーの文字サイズによっても変化するため、生成装置10Aの利用者に、キャッチコピーが記載される領域の大きさを表す情報、例えば領域の面積、または領域が矩形である場合には領域の縦方向の長さと横方向の長さというように領域の面積が得られる情報を生成装置10Aに入力させるようにしてもよい。CPU21は、キャッチコピーが記載される領域の大きさを表す情報とキャッチコピーに使用する文字サイズから、媒体に記載可能な最大文字数を自律的に設定する。
また、既に推薦商品のキャッチコピーのようなテキスト(「既存テキスト」という)が媒体に記載されている場合、既存テキストとは異なるテイストのキャッチコピーを記載した方が、推薦商品に多様な表現内容のテキストが記載されることになるため、ユーザが興味を示しやすくなる。したがって、CPU21は、生成装置10Aの利用者から既存テキストを受け付けて複数のキャッチコピーの候補との類似度を算出する。その上で、CPU21は、複数のキャッチコピーの候補の中から既存テキストとの類似度が基準類似度より低くなるようなキャッチコピーの候補を抽出し、抽出したキャッチコピーの候補のうち、スコアが最も高いキャッチコピーを推薦商品のキャッチコピーとして出力してもよい。
このように、他のテキストとの類似度が低いキャッチコピーを生成した方がよい場面として、例えば同じウェブページに異なる推薦商品を記載し、各々の推薦商品について生成装置10Aでキャッチコピーを生成するような場面が考えられる。すべての推薦商品のキャッチコピーが、例えば「安さに自信あり!」や「最安値」というように値段の安さを強調するキャッチコピーになれば、1つ1つのキャッチコピーはユーザが興味を示すキャッチコピーであったとしても、同じようなテイストのキャッチコピーが並ぶことでキャッチコピーの多様性が失われ、ユーザへのアピール力が低下することがある。
したがって、生成装置10Aの利用者は、同じウェブページに記載される複数の推薦商品に対するキャッチコピーを生成したい場合、同じ媒体に記載される推薦商品に同じ商品群識別情報を付与して生成装置10Aに入力する。
商品群識別情報を受け付けた場合、CPU21は、同じ商品群識別情報が付与された各々の推薦商品において、学習モデル18が出力したスコアが最も高いキャッチコピー同士の類似度を比較し、何れの推薦商品のキャッチコピーに対してもキャッチコピーの類似度が基準類似度以下になっているか否かを判定する。
キャッチコピーの類似度が基準類似度を超える場合、CPU21は、キャッチコピーの類似度が基準類似度以下となるキャッチコピーが得られるまで、次にスコアが高いキャッチコピーを順次選択して、キャッチコピーの類似度が基準類似度以下になっているか否かの判定を繰り返し実行する。
このようにすることで、同じ商品群識別情報が付与された各々の推薦商品に対して、類似度が基準類似度以下となるキャッチコピーが生成されるため、キャッチコピーの多様性が確保されることになる。なお、基準類似度は生成装置10Aの利用者が生成装置10Aに入力することで設定される。また、基準類似度には、キャッチコピーで用いられている単語の類似度に基づいた類似度、及びキャッチコピーのテイストに基づいた類似度の少なくとも一方が設定される。
これとは反対に、類似するキャッチコピーを同じウェブページに記載される各々の推薦商品にあえて記載し、統一感を表したいという利用者も存在する。こうした場合、CPU21は、同じ商品群識別情報が付与された各々の推薦商品について、互いの類似度が基準類似度を超えるキャッチコピーの中でスコアが最も高いキャッチコピーを選択して推薦商品のキャッチコピーとしてもよい。
類似度が基準類似度以下となるキャッチコピーを推薦商品のキャッチコピーとするか、それとも、類似度が基準類似度を超えるキャッチコピーを推薦商品のキャッチコピーとするかは、生成装置10Aの利用者によって指定される。
また、媒体に例えば「簡単料理特集」というように、キャッチコピーのテイストを制約するテキスト(「見出し語6」という)が既存テキストとして記載されている場合、CPU21は、見出し語6のテイストに沿ったキャッチコピーを生成する必要がある。したがって、CPU21は、生成装置10Aの利用者から見出し語6を受け付け、例えばクラスタ分析によって見出し語6と複数のキャッチコピーの候補をクラスタ(「カテゴリー」ともいう)に分割し、見出し語6が分類されたクラスタと同じクラスタに含まれるキャッチコピーの候補の中で最も高いスコアが対応付けられたキャッチコピーの候補を推薦商品のキャッチコピーとして出力ユニット29に出力すればよい。なお、見出し語6の表現内容に制約はなく、説明文、キャッチコピー、及び単語の何れであってもよい。
既存テキストを考慮して推薦商品のキャッチコピーを生成する変形例としては、例えば履歴情報に記録されるキャッチコピーに既存テキストも記録しておき、CPU21はユーザ情報の特徴量、商品情報の特徴量、商品のキャッチコピーの特徴量、既存テキストの特徴量、及び購入履歴が関連付けられた学習データを生成し、学習モデル18Aの学習を行う。その上で、CPU21は、生成装置10Aの利用者から推薦商品の商品情報、推薦商品の推薦対象となるユーザのユーザ情報、キャッチコピーの候補、及び推薦商品に記載されている既存テキストを受け付け、各々の特徴量を学習済みの学習モデル18Aに入力して、スコアが最も高いキャッチコピーを推薦商品のキャッチコピーとして出力してもよい。
学習モデル18Aでは、既存テキストに対してどのようなキャッチコピーであれば購入確率が高くなるのかの関連付けが学習されていることから、既存テキストと共に記載されることで、キャッチコピーを単独で記載するよりも、指定されたユーザの興味を更に引くような相乗効果が得られるキャッチコピーが生成されることになる。
CPU21は、媒体の記載に関する制約を満たすように推薦商品のキャッチコピーを生成してもよいが、第1実施形態で説明したように、ユーザの嗜好に関する制約を満たすように推薦商品のキャッチコピーを生成してもよい。
具体的には、CPU21は、例えば履歴情報に記録されるキャッチコピーにキャッチコピーの文字形態も記録しておき、CPU21はユーザ情報の特徴量、商品情報の特徴量、商品のキャッチコピーの特徴量、キャッチコピーの文字形態、及び購入履歴が関連付けられた学習データを生成し、ユーザ情報の特徴量、商品情報の特徴量、及び商品のキャッチコピーの特徴量に対してキャッチコピーの文字形態、及び購入確率を出力するように学習モデル18Bの学習を行う。その上で、CPU21は、生成装置10Aの利用者から推薦商品の商品情報、推薦商品の推薦対象となるユーザのユーザ情報、キャッチコピーの候補を受け付け、各々の特徴量を学習済みの学習モデル18Bに入力すれば、スコアと共に当該キャッチコピーに適した文字形態が学習モデル18Bから出力されることになる。CPU21は、スコアが最も高いキャッチコピーを、当該キャッチコピーのスコアと共に学習モデル18が出力した文字形態で表し、推薦商品のキャッチコピーとして出力すればよい。
学習モデル18Bでは、ユーザが興味を示したキャッチコピーとキャッチコピーに用いられていた文字形態の関連付けが学習されていることから、キャッチコピーを予め定めた文字形態で生成するよりも、指定されたユーザの興味を更に引くキャッチコピーが生成されることになる。
ユーザの嗜好はキャッチコピーの文字形態だけでなく、長い文で構成されたキャッチコピーよりも例えば10文字以下の短い文で構成されたキャッチコピーに興味を持ちやすいというように、キャッチコピーの長さにも及ぶことがある。
したがって、CPU21はユーザの履歴情報を参照し、履歴情報に含まれる購入履歴から設定される商品の購入確率と、商品のキャッチコピーの文字数との関係から、購入確率が予め定めた確率以上となるキャッチコピーの文字数を推定する。その上で、CPU21は、受け付けたキャッチコピーの候補の中から、購入確率が予め定めた確率以上となる文字数として推定した文字数に近い文字数を有するキャッチコピーで、かつ、スコアが最も高いキャッチコピーを選択して、推薦商品のキャッチコピーとして出力してもよい。なお、購入確率とキャッチコピーの文字数との関連性の推定方法に制約はなく、公知の推定手法が用いられる。
例えばCPU21は、学習モデル18の学習を行う場合に、商品のキャッチコピーの文字数も学習モデル18に入力し、学習モデル18に購入履歴から設定される商品の購入確率と、商品のキャッチコピーの文字数との関連付けを学習させてもよい。この場合、学習モデル18は、推薦商品におけるキャッチコピーの候補の文字数を考慮してスコアを出力するため、キャッチコピーの候補の中でスコアが最も高いキャッチコピーは、指定されたユーザの好む文字数に近いキャッチコピーとなる傾向が見られるようになる。
ここまでは、生成装置10Aの利用者から受け付けたキャッチコピーの候補の中から、指定されたユーザに適した推薦商品のキャッチコピーをスコアに基づいて1つ出力する生成装置10Aの例について説明した。しかしながら、生成装置10Aが出力する推薦商品のキャッチコピーは必ずしも1つに限られず、複数であってもよい。例えばCPU21は、受け付けたキャッチコピーの候補の中から複数のキャッチコピーを選択して出力し、生成装置10Aの利用者に、出力したキャッチコピーの中から推薦商品のキャッチコピーを選択させるようにしてもよい。
具体的には、CPU21は、受け付けたキャッチコピーの候補をスコアが高い順に並び替えて出力したり、受け付けたキャッチコピーの候補のうち、スコアが高い方から予め定めた数のキャッチコピーを出力したりすることで、生成装置10Aの利用者に推薦商品のキャッチコピーを選択させる。
この場合、生成装置10Aが出力するキャッチコピーが同じテイストのキャッチコピーばかりになると、どのキャッチコピーを選択しても代わり映えがしないため、生成装置10Aの利用者がキャッチコピーを選択する意味が薄れる。また、ユーザの嗜好に変化が現れたり、給料日のようにユーザの心境に変化を生じさせるような出来事があったりすると、ユーザはこれまでとは異なる商品の購入傾向を示すため、必ずしもスコアが高いキャッチコピーがユーザに適したキャッチコピーとならないこともある。
したがって、CPU21は、生成装置10Aの利用者に対して出力するキャッチコピーに、他のキャッチコピーとの類似度が基準類似度以下となるようなテイストの異なるキャッチコピーを含めたり、あえてスコアの低いキャッチコピーを含めたりしてもよい。
そのためには、テイストの異なる複数のキャッチコピーを推薦商品のキャッチコピーの候補として用意する必要があるが、こうしたキャッチコピーを生成装置10Aの利用者が作成することは難しい。
したがって、CPU21は、例えば様々なECサイトのウェブページや新聞等の折り込み広告に記載されている商品の商品情報とキャッチコピーを記憶したデータベースを参照して、キャッチコピーをテイストに基づいてクラスタ分析し、クラスタ毎に、商品とキャッチコピーとの関連付けを機械学習したクラスタモデルを生成する。すなわち、各々のクラスタモデルに商品の商品情報を入力すれば、クラスタに対応したテイストのキャッチコピーが出力される。例えば、価格重視のテイストを含むクラスタのキャッチコピーによって学習されたクラスタモデルからは価格重視のテイストを備えたキャッチコピーが出力され、品質重視のテイストを含むクラスタのキャッチコピーによって学習されたクラスタモデルからは品質重視のテイストを備えたキャッチコピーが出力される。
CPU21は、例えばテイストの異なるキャッチコピーを生成する複数のクラスタモデルにそれぞれ推薦商品の商品情報を入力し、同じ推薦商品に対してそれぞれテイストの異なるキャッチコピーの候補を生成する。その上で、CPU21は、指定されたユーザのユーザ情報及び推薦商品の商品情報の各特徴量と共に、テイストの異なるキャッチコピーの候補の特徴量を学習モデル18に入力すれば、入力した各々のキャッチコピーに対してスコアが対応付けられ、生成装置10Aからテイストの異なるキャッチコピーが出力されることになる。
なお、CPU21は、生成装置10Aの利用者が選択した推薦商品のキャッチコピーを記憶しておき、生成装置10Aの利用者が選択したキャッチコピーと、生成装置10Aの利用者がこれまでに選択した過去のキャッチコピーとの類似度が基準類似度以下となったような場合には、生成装置10Aの利用者が求めるキャッチコピーに変化が現れ始めたと推定する。この場合、CPU21は、学習モデル18の学習をやり直すようにしてもよい。
具体的には、CPU21は、学習モデル18の学習後に新たに追加された履歴情報も含めたすべての履歴情報を履歴情報テーブル2から収集して学習データを生成し、最初から学習モデル18の学習をやり直す。こうすることで、学習モデル18の学習後に生じた利用者のキャッチコピーに対する嗜好の変化を学習モデル18に反映させることができる。
しかしながら、学習モデル18のやり直し方法は上記の例に限られない。例えば、CPU21は、例えば予め定めた時点(例えば現時点から3カ月前)以降に記録された履歴情報だけを履歴情報テーブル2から収集して学習データを生成し、生成した学習データだけを用いて最初から学習モデル18の学習をやり直してもよい。また、CPU21は、学習モデル18の学習後に新たに追加された履歴情報だけを履歴情報テーブル2から収集して学習データを生成し、生成した学習データだけを用いて最初から学習モデル18の学習をやり直してもよい。更に、CPU21は、学習モデル18を最初から作り直すのではなく、現在の学習モデル18に対して、このように特定の期間における履歴情報だけから生成した学習データを用いて追加学習するようにしてもよい。何れの方法で学習モデル18の学習をやり直すかについては、ユーザの指示に従う。
学習処理をやり直すことで、学習処理の後に収集された履歴情報によって、学習処理をやり直したユーザにおける商品の購入傾向が学習モデル18に反映される。したがって、生成装置10Aは、学習処理をやり直す前よりも、ユーザが興味を引くキャッチコピーを出力することができる。
CPU21は、生成したキャッチコピーを付与した商品に対するユーザの履歴情報を参照し、以前に比べて当該ユーザにおける商品の購入確率が低下してきた場合にも、ユーザが興味を示すキャッチコピーに変化が現れ始めたと推定する。この場合にも、CPU21は、当該ユーザに対して学習処理をやり直せばよい。
また、第1実施形態で説明した変形例には生成装置10Aにも適用できるものが含まれる。例えば生成装置10Aは、推薦商品と一緒に購入されやすい商品のキャッチコピーを生成したり、最も購入確率の高い画像を推薦商品の画像として選択したりしてもよい。また、生成装置10Aは、指定されたユーザのユーザ情報を履歴情報が類似する他のユーザのユーザ情報に置き換えて推薦商品のキャッチコピーを生成してもよい。更に、生成装置10Aは、ユーザの嗜好に関する制約及び媒体の記載に関する制約の少なくとも一方を満たすように推薦商品のキャッチコピーを生成したり、類似する特徴を備えたユーザ群に対して推薦商品のキャッチコピーを生成したりしてもよい。
このように第2実施形態に係る生成装置10Aによれば、キャッチコピーの候補を学習モデル18に入力することで得られるスコアに基づいて、推薦商品のキャッチコピーを生成する。
<第2実施形態の応用例>
ここまでは、推薦商品のキャッチコピーを生成する生成装置10Aの例について説明してきたが、生成装置10Aは、生成した様々な種類の推薦商品のキャッチコピーに基づいて、ユーザが興味を示すような媒体の編集を行ってもよい。ここでは、媒体に記載されている見出し語6のテイストに沿ったキャッチコピーと共に、推薦商品を一覧表示したウェブページの編集を例に説明を行う。
図9は、生成装置10Aの利用者から編集開始の指示を受け付けた場合に、生成装置10AのCPU21によって実行される編集処理の流れの一例を示すフローチャートである。編集処理を規定する生成プログラムは、例えば生成装置10AのROM22に予め記憶されている。生成装置10AのCPU21は、ROM22に記憶される生成プログラムを読み込み、編集処理を実行する。なお、CPU21は、ユーザ毎に推薦商品に付与したキャッチコピーを推薦商品の画像と共に不揮発性メモリ24に記憶しているものとする。
生成装置10Aの利用者から編集開始の指示を受け付けると、ステップS400において、CPU21は、指定されたユーザにおける各推薦商品のキャッチコピーを不揮発性メモリ24から取得する。
ステップS410において、CPU21は、ステップS400で取得した各々のキャッチコピーに対してキャッチコピーのテイストに関するクラスタ分析を実行し、最も分類数の多いクラスタを特定する。
ステップS420において、CPU21は、最も分類数の多いクラスタに分類された各々のキャッチコピーと見出し語6に対して更にクラスタ分析を実行する。
ステップS430において、CPU21は、見出し語6が分類されたクラスタと同じクラスタに含まれるキャッチコピーに対応した各々の推薦商品の画像を不揮発性メモリ24から取得し、推薦商品の画像を見出し語6と共にウェブページに配置して図9に示す編集処理を終了する。
図10は、図9に示した編集処理を実行した場合に、媒体の一例であるウェブページに記載される推薦商品の一例を示す図である。
例えば推薦商品P1には「簡単節約」、推薦商品P2には「楽々レシピ」、推薦商品P3には「レンジでチンするだけ」、推薦商品P4には「贅沢食材」のキャッチコピーがそれぞれ付与されているものとし、推薦商品P1はバナナ、推薦商品P2はたまご料理、推薦商品P3はカレーライス、推薦商品P4はすき焼きであるとする。
このうち、「贅沢食材」のキャッチコピーは、簡単さをアピールしている他の3つのキャッチコピーとはテイストが異なるため、「簡単節約」、「楽々レシピ」、及び「レンジでチンするだけ」を含むクラスタが、最も分類数の多いクラスタとして特定される。
そして、一例として見出し語6が「忙しいあなたに」に設定されているとすれば、「忙しいあなたに」、「簡単節約」、「楽々レシピ」、及び「レンジでチンするだけ」を要素とするクラスタ分析を実行する。
「忙しいあなたに」は時間の短縮を前面に表した見出し語6であり、「楽々レシピ」及び「レンジでチンするだけ」も時間の短縮をアピールするキャッチコピーであることから、「忙しいあなたに」、「楽々レシピ」、及び「レンジでチンするだけ」が同じクラスタに分類される。
一方、「簡単節約」も時間の短縮をアピールするキャッチコピーではあるが、それと同時に経済性もアピールした内容となっているため、見出し語6とは異なるクラスタに分類される。
この結果、ウェブページには、「忙しいあなたに」の見出し語6と共に、推薦商品P2のたまご料理の画像と推薦商品P3のカレーライスの画像が配置されることになる。当然のことながら、ウェブページでは推薦商品の画像と共に、推薦商品に対応したキャッチコピーを記載してもよい。
なお、ここではキャッチコピーをテイスト毎に分類する手法にクラスタ分析を用いたが、テイストが類似したキャッチコピー同士を分類する公知の分類手法を適用してもよい。例えば見出し語6とキャッチコピーとのコサイン距離を用いて、見出し語6とキャッチコピーとの類似度を測定し、見出し語6が表現する内容に近いキャッチコピーと対応付けられた推薦商品の画像を見出し語6と共に表示してもよい。また、テキスト同士の類似度を数値として出力する類似度推定モデルを用いて、見出し語6とキャッチコピーとの類似度を測定してもよい。
上記の例では、予め見出し語6が設定されていたが、CPU21は、図9のステップS410で特定したクラスタに含まれる各々のキャッチコピーを要約することで、見出し語6を生成してもよい。
一方、ユーザ情報を入力すると入力されたユーザ情報によって表されるユーザにお勧めの推薦商品を複数出力するように機械学習された商品推薦モデルが存在する場合、CPU21は、商品推薦モデルが出力した推薦商品の推薦順に従って、推薦商品を指定されたユーザ向けのウェブページに配置することがある。
この場合、CPU21は、商品推薦モデルが出力した各々の推薦商品に対して1つずつ用意されたキャッチコピーを受け付け、キャッチコピーが推薦商品に付与された場合の購入確率、すなわち、学習モデル18が出力したスコアの高い方から順に推薦商品が並ぶように推薦商品の配置を変更してもよい。購入確率を加味した並びとなるため、商品推薦モデルが出力する推薦順に従って推薦商品を配置する場合よりも、推薦商品の購入確率が上昇することになる。
以上、各実施の形態を用いて本発明について説明したが、本発明は各実施の形態に記載の範囲には限定されない。本発明の要旨を逸脱しない範囲で各実施の形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も本発明の技術的範囲に含まれる。例えば、本発明の要旨を逸脱しない範囲で処理の順序を変更してもよい。
各実施の形態では、一例として各処理をソフトウェアで実現する形態について説明したが、図4〜図6、図8、及び図9に示した各フローチャートと同等の処理を、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはPLD(Programmable Logic Device)に実装し、ハードウェアで処理させるようにしてもよい。この場合、各々の処理をソフトウェアで実現した場合と比較して、処理の高速化が図られる。
このように、CPU21を例えばASIC、FPGA、PLD、GPU(Graphics Processing Unit)、及びFPU(Floating Point Unit)といった特定の処理に特化した専用のプロセッサに置き換えてもよい。
各実施の形態におけるCPU21の動作は、1つのCPU21によって実現される形態の他、複数のCPU21によって実現されてもよい。更に、各実施の形態におけるCPU21の動作は、物理的に離れた位置に存在するコンピュータ20におけるCPU21の協働によって実現されるものであってもよい。
また、上述した各実施の形態では、生成プログラムがROM22にインストールされている形態について説明したが、これに限定されるものではない。本発明に係る生成プログラムは、コンピュータで読み取り可能な記憶媒体に記録された形態で提供することも可能である。例えば、生成プログラムを、CD(Compact Disc)−ROM、またはDVD(Digital Versatile Disc)−ROM等の光ディスクに記録した形態で提供してもよい。また、本発明に係る生成プログラムをUSBメモリやメモリカード等の可搬型の半導体メモリに記録した形態で提供してもよい。
更に、生成装置10及び生成装置10Aは、インターネットに接続される外部装置から通信ユニット27を経由して本発明に係る生成プログラムを取得するようにしてもよい。
2 履歴情報テーブル、6 見出し語、10(10A) 生成装置、11 履歴情報蓄積部、12 抽出部、13 学習データ準備部、14 学習部、15 入力部、16 連想文生成部、17(18、18A、18B) 学習モデル、20 コンピュータ、21 CPU、22 ROM、23 RAM、24 不揮発性メモリ、25 I/O、26 バス、27 通信ユニット、28 入力ユニット、29 出力ユニット

Claims (15)

  1. プロセッサを備え、
    前記プロセッサは、
    ユーザに関するユーザ情報と、商品に対する前記ユーザの購入履歴と、前記商品の商品情報と、前記商品に付与されている前記商品から連想されるテキストとが関連付けられた学習データを用いて前記学習データに含まれる各項目の関連付けを学習した学習モデルに、前記ユーザのユーザ情報及び前記ユーザに推薦する推薦商品の商品情報を入力して、前記ユーザの購入履歴に基づいた前記推薦商品から連想されるテキストを生成する
    生成装置。
  2. 前記プロセッサは、テキストの候補を複数受け付け、
    受け付けたテキストの候補毎に、受け付けたテキストの候補と、前記ユーザのユーザ情報と、前記推薦商品の商品情報とを組み合わせて前記学習モデルに入力し、
    受け付けたテキストの候補の中で、最も前記ユーザの反応度合いが高いテキストを前記推薦商品から連想されるテキストとして生成する
    請求項1記載の生成装置。
  3. 前記学習データの生成に用いられる購入履歴は、前記商品を購入したことを表す購入履歴であり、
    前記プロセッサは、前記学習モデルに前記ユーザのユーザ情報及び前記推薦商品の商品情報を入力して、前記ユーザの購入履歴に基づいた前記推薦商品から連想されるテキストを生成する
    請求項1記載の生成装置。
  4. 前記ユーザの購入履歴は、前記商品の購入の有無、及び前記商品の購入過程を記録した履歴であり、
    前記反応度合いが前記推薦商品の購入確率によって表される
    請求項2記載の生成装置。
  5. 前記プロセッサは、前記商品の購入過程の記録から前記ユーザの前記商品に対する興味の度合いを設定して前記学習データの学習に反映する
    請求項4記載の生成装置。
  6. 前記プロセッサは、前記ユーザのユーザ情報、及び前記商品の購入傾向の少なくとも一方の類似度が予め定めた類似度以上となる他のユーザのユーザ情報を含んだ前記学習データを、前記ユーザの前記学習データに含めて前記学習モデルを学習する
    請求項1〜請求項5の何れか1項に記載の生成装置。
  7. 前記プロセッサは、前記推薦商品から連想されるテキストを、前記ユーザの嗜好に関する制約を満たすように生成する
    請求項1〜請求項6の何れか1項に記載の生成装置。
  8. 前記プロセッサは、前記商品に付与されている前記商品から連想されるテキストの文字数と前記ユーザの購入履歴から、購入確率が予め定めた確率以上となる前記商品から連想されるテキストの文字数を推定し、文字数が推定した文字数に近づくように前記推薦商品から連想されるテキストを生成する
    請求項7記載の生成装置。
  9. 前記プロセッサは、前記商品に付与されている前記商品から連想されるテキストの文字形態と前記ユーザの購入履歴を用いて、前記商品から連想されるテキストの色、フォント、及びサイズの少なくとも1つの属性を推定し、色、フォント、及びサイズの少なくとも1つの属性が推定した属性となるように前記推薦商品から連想されるテキストを生成する
    請求項7記載の生成装置。
  10. 前記プロセッサは、前記推薦商品から連想されるテキストを、前記推薦商品から連想されるテキストが記載される媒体の記載に関する制約を満たすように生成する
    請求項1〜請求項9の何れか1項に記載の生成装置。
  11. 前記プロセッサは、文字数が前記媒体におけるテキストの記載予定領域の大きさに応じて設定された最大文字数以内に収まるように前記推薦商品から連想されるテキストを生成する
    請求項10記載の生成装置。
  12. 前記プロセッサは、前記媒体に既に記載されている既存テキストとの類似度が基準類似度より低くなるようなテキストを、前記推薦商品から連想されるテキストとして生成する
    請求項10記載の生成装置。
  13. 前記プロセッサは、前記媒体に共に記載されるテキストが表すカテゴリーに分類されるテキストを、前記推薦商品から連想されるテキストとして生成する
    請求項10記載の生成装置。
  14. 前記プロセッサは、
    前記学習データに含まれる前記商品から連想されるテキストの代わりに、前記商品に関するテキストから、前記商品から連想されるテキストを生成するように機械学習を行っている生成モデルが生成するテキストを前記学習モデルに入力し、
    前記学習モデルが出力する購入確率と、購入確率が取り得る最大値との誤差を表す損失を前記生成モデルに逆伝播させることで、前記損失が小さくなるようなテキストを生成するように前記生成モデルを学習させる
    請求項1〜請求項13の何れか1項に記載の生成装置。
  15. コンピュータに、
    ユーザに関するユーザ情報、及び前記ユーザに推薦する推薦商品に関する商品情報を受け付け、
    前記ユーザのユーザ情報と、商品に対する前記ユーザの購入履歴と、前記商品の商品情報と、前記商品に付与されている前記商品から連想されるテキストとが関連付けられた学習データを用いて前記学習データに含まれる各項目の関連付けを学習した学習モデルに、前記ユーザのユーザ情報及び前記推薦商品の商品情報を入力して、前記ユーザの購入履歴に基づいた前記推薦商品から連想されるテキストを生成させるための生成プログラム。
JP2019191397A 2019-10-18 2019-10-18 生成装置、及び生成プログラム Active JP7400334B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019191397A JP7400334B2 (ja) 2019-10-18 2019-10-18 生成装置、及び生成プログラム
US16/892,401 US20210118035A1 (en) 2019-10-18 2020-06-04 Generation device and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019191397A JP7400334B2 (ja) 2019-10-18 2019-10-18 生成装置、及び生成プログラム

Publications (2)

Publication Number Publication Date
JP2021068053A true JP2021068053A (ja) 2021-04-30
JP7400334B2 JP7400334B2 (ja) 2023-12-19

Family

ID=75491502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019191397A Active JP7400334B2 (ja) 2019-10-18 2019-10-18 生成装置、及び生成プログラム

Country Status (2)

Country Link
US (1) US20210118035A1 (ja)
JP (1) JP7400334B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023103869A (ja) * 2022-01-14 2023-07-27 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7419303B2 (ja) 2021-08-19 2024-01-22 Lineヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210201237A1 (en) * 2019-12-27 2021-07-01 Oracle International Corporation Enhanced user selection for communication workflows using machine-learning techniques
JP7457347B2 (ja) * 2020-02-10 2024-03-28 株式会社イシダ 商品候補提示システム及び会計処理システム
CN113792854B (zh) * 2021-09-09 2024-02-13 北京百度网讯科技有限公司 一种模型训练及字库建立方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067319A (ja) * 1999-08-26 2001-03-16 Hitachi Ltd Wwwサーバを用いた検索システム
JP2005025376A (ja) * 2003-06-30 2005-01-27 Toppan Printing Co Ltd 定期購読サービス提供システムおよび定期購読サービス提供方法
JP2015005052A (ja) * 2013-06-19 2015-01-08 ヤフー株式会社 広告生成装置、広告生成方法及び広告生成プログラム
JP2016181196A (ja) * 2015-03-25 2016-10-13 日本電気株式会社 情報処理装置、情報処理方法およびプログラム
JP2018128805A (ja) * 2017-02-07 2018-08-16 ヤフー株式会社 生成装置、生成方法及び生成プログラム
JP2018190468A (ja) * 2018-08-16 2018-11-29 ヤフー株式会社 算出装置、算出方法及び算出プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067319A (ja) * 1999-08-26 2001-03-16 Hitachi Ltd Wwwサーバを用いた検索システム
JP2005025376A (ja) * 2003-06-30 2005-01-27 Toppan Printing Co Ltd 定期購読サービス提供システムおよび定期購読サービス提供方法
JP2015005052A (ja) * 2013-06-19 2015-01-08 ヤフー株式会社 広告生成装置、広告生成方法及び広告生成プログラム
JP2016181196A (ja) * 2015-03-25 2016-10-13 日本電気株式会社 情報処理装置、情報処理方法およびプログラム
JP2018128805A (ja) * 2017-02-07 2018-08-16 ヤフー株式会社 生成装置、生成方法及び生成プログラム
JP2018190468A (ja) * 2018-08-16 2018-11-29 ヤフー株式会社 算出装置、算出方法及び算出プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419303B2 (ja) 2021-08-19 2024-01-22 Lineヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2023103869A (ja) * 2022-01-14 2023-07-27 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7350904B2 (ja) 2022-01-14 2023-09-26 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム

Also Published As

Publication number Publication date
JP7400334B2 (ja) 2023-12-19
US20210118035A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
Arras et al. " What is relevant in a text document?": An interpretable machine learning approach
JP7400334B2 (ja) 生成装置、及び生成プログラム
CN110325986B (zh) 文章处理方法、装置、服务器及存储介质
JP5421737B2 (ja) コンピュータ実施方法
Du et al. Feature selection for helpfulness prediction of online product reviews: An empirical study
US10678769B2 (en) Artificial intelligence system and method for auto-naming customer tree nodes in a data structure
WO2017013667A1 (en) Method for product search using the user-weighted, attribute-based, sort-ordering and system thereof
CN110210933B (zh) 一种基于生成对抗网络的隐语义推荐方法
Banik Hands-on recommendation systems with Python: start building powerful and personalized, recommendation engines with Python
US11599927B1 (en) Artificial intelligence system using deep neural networks for pairwise character-level text analysis and recommendations
US11734322B2 (en) Enhanced intent matching using keyword-based word mover's distance
US11636251B2 (en) Content aware font recommendation
US11367117B1 (en) Artificial intelligence system for generating network-accessible recommendations with explanatory metadata
WO2016114790A1 (en) Reading difficulty level based resource recommendation
WO2020123689A1 (en) Suggesting text in an electronic document
Sosnovshchenko et al. Machine Learning with Swift: Artificial Intelligence for IOS
US20230336532A1 (en) Privacy Preserving Document Analysis
CN112307336A (zh) 热点资讯挖掘与预览方法、装置、计算机设备及存储介质
Babayoff et al. The role of semantics in the success of crowdfunding projects
CN116882414B (zh) 基于大规模语言模型的评语自动生成方法及相关装置
JP4054046B2 (ja) 意見性判定データベース作成方法及び装置及びプログラム及び意見性判定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
Cassani et al. Lexical category acquisition is facilitated by uncertainty in distributional co-occurrences
JP2024007348A (ja) データ拡張システム、データ拡張方法、及びプログラム
Withanawasam Apache Mahout Essentials
Liu Python machine learning by example: implement machine learning algorithms and techniques to build intelligent systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R150 Certificate of patent or registration of utility model

Ref document number: 7400334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150