JP2022013346A - 学習装置、推定装置、学習方法、推定方法、プログラム、及び学習済み推定モデルのプログラム - Google Patents
学習装置、推定装置、学習方法、推定方法、プログラム、及び学習済み推定モデルのプログラム Download PDFInfo
- Publication number
- JP2022013346A JP2022013346A JP2020115847A JP2020115847A JP2022013346A JP 2022013346 A JP2022013346 A JP 2022013346A JP 2020115847 A JP2020115847 A JP 2020115847A JP 2020115847 A JP2020115847 A JP 2020115847A JP 2022013346 A JP2022013346 A JP 2022013346A
- Authority
- JP
- Japan
- Prior art keywords
- data
- occurrence
- estimation model
- estimation
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 55
- 238000012549 training Methods 0.000 claims abstract description 123
- 238000011156 evaluation Methods 0.000 claims description 165
- 238000012545 processing Methods 0.000 description 30
- 238000013500 data storage Methods 0.000 description 26
- 238000009826 distribution Methods 0.000 description 23
- 239000008186 active pharmaceutical agent Substances 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
以下、本開示に係る学習装置と推定装置を含む推定システムの実施形態の例を説明する。図1は、推定システムの全体構成を示す図である。図1に示すように、推定システムSは、学習装置10、推定装置20、及び評価者装置30を含み、これらは、インターネット又はLANなどのネットワークNに接続される。なお、図1では、学習装置10、推定装置20、及び評価者装置30を1台ずつ示しているが、これらは複数台あってもよい。
推定システムSでは、学習装置10により推定モデルの学習が行われ、推定装置20により学習済みの推定モデルが利用される。推定モデルは、機械学習を利用したモデルである。機械学習自体は、種々の手法を利用可能であり、例えば、畳み込みニューラルネットワークであってもよいし、再帰型ニューラルネットワークであってもよい。本実施形態で推定モデルと記載した箇所は、機械学習のコンセプトを意味するのではなく、そのコンセプトにより生み出された電子的なデータを意味する。即ち、推定モデルは、プログラムとパラメータを含む。なお、推定モデルは、プログラム又はパラメータの何れかだけを意味してもよい。
図4は、推定システムSで実現される機能の一例を示す機能ブロック図である。ここでは、学習装置10で実現される機能と、推定装置20で実現される機能と、について説明する。
学習装置10では、データ記憶部100、生成部101、訓練データ取得部102、共起性データ取得部103、及び学習部104が実現される。データ記憶部100は、記憶部12を主として実現され、生成部101、訓練データ取得部102、共起性データ取得部103、及び学習部104の各々は、制御部11を主として実現される。
データ記憶部100は、推定モデルMの学習に必要なデータを記憶する。本実施形態では、このデータの一例として、訓練データセットDSを説明する。訓練データセットDSは、複数の訓練データの集まりである。訓練データセットDSは、複数の訓練データを格納したデータベースということもできる。例えば、訓練データセットDSは、学習装置10のユーザによって用意される。
生成部101は、複数の訓練データを生成し、訓練データセットDSをデータ記憶部100に記録する。例えば、訓練データに含まれる入力データD1と正解データD2のペアは、評価者の操作に基づいて生成される。生成部101は、評価者に提示されたコンテンツC及び評価者の属性データAと、評価者により入力された評価結果を示す正解データD2と、のペアを、訓練データとして生成する。生成部101は、不特定多数の評価者に対応する複数の訓練データを取得し、訓練データセットDSとして生成する。
訓練データ取得部102は、入力データD1と、複数の評価項目を含む正解データD2と、が対応付けられた訓練データを取得する。本実施形態では、複数の訓練データを含む訓練データセットDSがデータ記憶部100に記憶されているので、訓練データ取得部102は、データ記憶部100から訓練データセットDSを取得する。訓練データ取得部102は、複数の訓練データを同時に取得する必要はなく、これらを別々に取得してもよい。なお、訓練データセットDSは、学習装置10以外の他のコンピュータ又は外部の情報記憶媒体に記憶されており、訓練データ取得部102は、他のコンピュータ又は外部の情報記憶媒体から訓練データセットDSを取得してもよい。また、訓練データ取得部102は、訓練データを1つだけ取得してもよい。
共起性データ取得部103は、評価項目間の共起性に関する共起性データを取得する。評価項目間の共起性とは、複数の評価項目の各々の共起性である。本実施形態では、2つの評価項目のペアごとに共起性が示される場合を説明するが、3つ以上の評価項目の共起性ごとに共起性が示されてもよい。即ち、本実施形態のように2つの評価項目に対して1つの共起性が示されるのではなく、3つ以上の評価項目の集まりに対して1つの共起性が示されてもよい。
学習部104は、訓練データと、共起性データと、に基づいて、推定モデルMの学習を行う。学習部104は、訓練データに含まれる入力データD1を推定モデルMに入力した場合に、訓練データに含まれる正解データD2又はそれに近い数値が推定モデルMの出力として得られ、かつ、共起性データが示す共起性又はそれに近い共起性が推定モデルMの出力から示されるように、推定モデルMの学習を行う。
推定装置20では、データ記憶部200、入力部201、取得部202、及び処理実行部203が実現される。データ記憶部200は、記憶部22を主として実現され、入力部201、取得部202、及び処理実行部203の各々は、制御部21を主として実現される。
データ記憶部200は、入力データD1と複数の評価項目を含む正解データD2とが対応付けられた訓練データと、評価項目間の共起性に関する共起性データと、に基づく学習が行われた学習済みの推定モデルMを記憶する。学習済みの推定モデルMは、入力データD1と複数の評価項目を含む正解データD2とが対応付けられた訓練データと、評価項目間の共起性に関する共起性データと、に基づく学習が行われた学習済みのパラメータに基づいて、推定対象の入力データD1に対応する推定結果を出力する。
入力部201は、推定モデルMに、推定対象の入力データD1を入力する。この入力データD1は、推定モデルMの学習で利用される入力データD1ではなく、学習済みの推定モデルMの推定対象となるデータである。推定対象となる入力データD1は、訓練データに含まれる入力データD1と同じ形式である。本実施形態では、コンテンツCと属性データAのペアが入力データD1に含まれているので、入力部201は、推定対象のコンテンツCと、そのコンテンツCを評価すると仮定した評価者の属性に関する属性データAと、を入力データD1として取得する。
取得部202は、推定対象の入力データD1に対応する推定モデルMの出力を取得する。推定モデルMは、入力データD1の特徴量を計算し、当該特徴量に応じた推定結果を出力する。これらの計算は、学習済みのパラメータが用いられる。即ち、入力データD1の特徴量から推定結果を導き出す計算には、学習済みのパラメータが用いられる。特徴量は、任意の次元数で表現される。推定モデルMによる特徴量の計算方法自体は、公知の方法を利用可能であり、例えば、重み付け係数が設定されたフィルタによる畳み込みやプーリングなどが行われる。
処理実行部203は、取得部202により取得された推定モデルMの出力に基づいて、所定の処理を実行する。所定の処理は、推定モデルMの目的に応じた処理であればよく、本実施形態では、推定モデルMがマーケティングで利用される場合を例に挙げているので、マーケティング業務を支援する処理が所定の処理に相当する。
本実施形態では、推定システムSで実行される処理として、学習装置10が実行する処理と、推定装置20が実行する処理と、について説明する。
図7は、学習装置10が実行する処理の一例を示すフロー図である。図7に示す処理は、制御部11が記憶部12に記憶されたプログラムに従って動作することによって実行される。下記に説明する処理は、図4に示す機能ブロックにより実行される処理の一例である。なお、訓練データセットDSと学習前の推定モデルMは、予め記憶部12に記憶されているものとする。
図8は、推定装置20が実行する処理の一例を示すフロー図である。図8に示す処理は、制御部21が記憶部22に記憶されたプログラムに従って動作することによって実行される。下記に説明する処理は、図4に示す機能ブロックにより実行される処理の一例である。学習済みの推定モデルMは、記憶部22に記憶されているものとする。
なお、本開示は、以上に説明した実施の形態に限定されるものではない。本開示の趣旨を逸脱しない範囲で、適宜変更可能である。
Claims (16)
- 入力データと、複数の項目を含む正解データと、が対応付けられた訓練データを取得する訓練データ取得手段と、
前記項目間の共起性に関する共起性データを取得する共起性データ取得手段と、
前記訓練データと、前記共起性データと、に基づいて、推定モデルの学習を行う学習手段と、
を含むことを特徴とする学習装置。 - 前記共起性データ取得手段は、前記入力データに対応する前記推定モデルの出力に基づく前記項目間の共起性に関する推定共起性データと、前記正解データに基づく前記項目間の共起性に関する正解共起性データと、を取得し、
前記学習手段は、前記訓練データ、前記推定共起性データ、及び前記正解共起性データに基づいて、前記推定モデルの学習を行う、
ことを特徴とする請求項1に記載の学習装置。 - 前記学習手段は、
前記入力データに対応する前記推定モデルの出力と、前記正解データと、に基づいて、第1の損失を計算し、
前記推定共起性データと、前記正解共起性データと、に基づいて、第2の損失を計算し、
前記第1の損失と、前記第2の損失と、に基づいて、前記推定モデルの学習を行う、
ことを特徴とする請求項2に記載の学習装置。 - 前記学習手段は、
前記第1の損失と、前記第2の損失と、に基づいて、合計損失を計算し、
前記合計損失に基づいて、前記推定モデルの学習を行う、
ことを特徴とする請求項3に記載の学習装置。 - 前記共起性データは、前記正解データにおける前記項目間の出現確率を示す、
ことを特徴とする請求項1~4の何れかに記載の学習装置。 - 前記共起性データは、前記項目の組み合わせごとの共起性を示す、
ことを特徴とする請求項1~5の何れかに記載の学習装置。 - 前記共起性データ取得手段は、前記正解データに基づいて、前記共起性データを取得する、
ことを特徴とする請求項1~6の何れかに記載の学習装置。 - 前記正解データは、前記入力データを評価する評価者の評価結果を示し、
前記入力データは、前記推定モデルの推定対象となる推定対象データと、前記評価者の属性に関する属性データと、を含み、
前記推定モデルには、前記推定対象データと前記属性データが入力され、前記属性データに応じた推定結果が前記推定モデルから出力される、
ことを特徴とする請求項1~7の何れかに記載の学習装置。 - 前記共起性データ取得手段は、前記属性又は前記属性に応じた区分ごとに、前記共起性データを取得し、
前記学習手段は、前記属性又は前記区分ごとに取得された前記共起性データに基づいて、前記推定モデルの学習を行う、
ことを特徴とする請求項8に記載の学習装置。 - 前記共起性データ取得手段は、前記属性又は前記区分の組み合わせごとに、前記共起性データを取得し、
前記学習手段は、前記組み合わせごとに取得された前記共起性データに基づいて、前記推定モデルの学習を行う、
ことを特徴とする請求項9に記載の学習装置。 - 前記入力データは、評価者により印象が評価されるコンテンツであり、
前記複数の項目の各々は、前記印象の評価項目であり、
前記共起性データは、前記評価項目間の共起性に関するデータである、
ことを特徴とする請求項1~10の何れかに記載の学習装置。 - 入力データと複数の項目を含む正解データとが対応付けられた訓練データと、前記項目間の共起性に関する共起性データと、に基づく学習が行われた推定モデルを記憶する記憶手段と、
前記推定モデルに、推定対象の入力データを入力する入力手段と、
前記推定対象の入力データに対応する前記推定モデルの出力を取得する取得手段と、
を含むことを特徴とする推定装置。 - 入力データと、複数の項目を含む正解データと、が対応付けられた訓練データを取得する訓練データ取得ステップと、
前記項目間の共起性に関する共起性データを取得する共起性データ取得ステップと、
前記訓練データと、前記共起性データと、に基づいて、推定モデルの学習を行う学習ステップと、
を含むことを特徴とする学習方法。 - 入力データと複数の項目を含む正解データとが対応付けられた訓練データと、前記項目間の共起性に関する共起性データと、に基づく学習が行われた推定モデルに、推定対象の入力データを入力する入力ステップと、
前記推定対象の入力データに対応する前記推定モデルの出力を取得する取得ステップと、
を含むことを特徴とする推定方法。 - 入力データと、複数の項目を含む正解データと、が対応付けられた訓練データを取得する訓練データ取得手段、
前記項目間の共起性に関する共起性データを取得する共起性データ取得手段、
前記訓練データと、前記共起性データと、に基づいて、推定モデルの学習を行う学習手段、
としてコンピュータを機能させるためのプログラム。 - 入力データと複数の項目を含む正解データとが対応付けられた訓練データと、前記項目間の共起性に関する共起性データと、に基づく学習が行われた学習済みのパラメータに基づいて、推定対象の入力データに対応する推定結果を出力する、
学習済み推定モデル。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020115847A JP7010337B2 (ja) | 2020-07-03 | 2020-07-03 | 学習装置、推定装置、学習方法、推定方法、プログラム、及び学習済み推定モデルのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020115847A JP7010337B2 (ja) | 2020-07-03 | 2020-07-03 | 学習装置、推定装置、学習方法、推定方法、プログラム、及び学習済み推定モデルのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022013346A true JP2022013346A (ja) | 2022-01-18 |
JP7010337B2 JP7010337B2 (ja) | 2022-01-26 |
Family
ID=80169574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020115847A Active JP7010337B2 (ja) | 2020-07-03 | 2020-07-03 | 学習装置、推定装置、学習方法、推定方法、プログラム、及び学習済み推定モデルのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7010337B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015007920A (ja) * | 2013-06-25 | 2015-01-15 | 国立大学法人鳥取大学 | テキスト処理を用いた社会構造モデルの抽出 |
WO2015122195A1 (ja) * | 2014-02-17 | 2015-08-20 | Necソリューションイノベータ株式会社 | 印象分析装置、ゲーム装置、健康管理装置、広告支援装置、印象分析システム、印象分析方法、プログラム、及びプログラム記録媒体 |
JP2019032771A (ja) * | 2017-08-09 | 2019-02-28 | ヤフー株式会社 | 予測装置、予測方法、及び予測プログラム |
WO2019064598A1 (en) * | 2017-09-29 | 2019-04-04 | Nec Corporation | REGRESSION APPARATUS, REGRESSION METHOD, AND COMPUTER-READABLE STORAGE MEDIUM |
JP2019095968A (ja) * | 2017-11-21 | 2019-06-20 | 日本電信電話株式会社 | 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム |
JP2020017126A (ja) * | 2018-07-26 | 2020-01-30 | Zホールディングス株式会社 | 学習装置、学習方法及び学習プログラム |
-
2020
- 2020-07-03 JP JP2020115847A patent/JP7010337B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015007920A (ja) * | 2013-06-25 | 2015-01-15 | 国立大学法人鳥取大学 | テキスト処理を用いた社会構造モデルの抽出 |
WO2015122195A1 (ja) * | 2014-02-17 | 2015-08-20 | Necソリューションイノベータ株式会社 | 印象分析装置、ゲーム装置、健康管理装置、広告支援装置、印象分析システム、印象分析方法、プログラム、及びプログラム記録媒体 |
JP2019032771A (ja) * | 2017-08-09 | 2019-02-28 | ヤフー株式会社 | 予測装置、予測方法、及び予測プログラム |
WO2019064598A1 (en) * | 2017-09-29 | 2019-04-04 | Nec Corporation | REGRESSION APPARATUS, REGRESSION METHOD, AND COMPUTER-READABLE STORAGE MEDIUM |
JP2019095968A (ja) * | 2017-11-21 | 2019-06-20 | 日本電信電話株式会社 | 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム |
JP2020017126A (ja) * | 2018-07-26 | 2020-01-30 | Zホールディングス株式会社 | 学習装置、学習方法及び学習プログラム |
Non-Patent Citations (1)
Title |
---|
福元伸也 ほか: "機械学習フレームワークによる共起関係を利用したテキスト分類", 第8回データ工学と情報マネジメントに関するフォーラム 論文集 [ONLINE], JPN6021038853, 1 March 2016 (2016-03-01), pages 1 - 5, ISSN: 0004609117 * |
Also Published As
Publication number | Publication date |
---|---|
JP7010337B2 (ja) | 2022-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210224326A1 (en) | Dressing recommendation method and dressing recommendation apparatus | |
CN112631997B (zh) | 数据处理方法、装置、终端及存储介质 | |
CN109783730A (zh) | 产品推荐方法、装置、计算机设备和存储介质 | |
CN109213864A (zh) | 基于深度学习的刑事案件预判系统及其构建和预判方法 | |
Li et al. | Product innovation concept generation based on deep learning and Kansei engineering | |
JP7280705B2 (ja) | 機械学習装置、プログラム及び機械学習方法 | |
Papadopoulos et al. | Multimodal Quasi-AutoRegression: Forecasting the visual popularity of new fashion products | |
CN113886691A (zh) | 基于历史数据的智能推荐方法、装置、电子设备及介质 | |
CN113360768A (zh) | 基于用户画像的产品推荐方法、装置、设备及存储介质 | |
CN113706251A (zh) | 基于模型的商品推荐方法、装置、计算机设备和存储介质 | |
WO2019192130A1 (zh) | 客户分类方法、装置及存储介质 | |
JP6757840B2 (ja) | 文抽出システム、文抽出方法、及びプログラム | |
Buskirk et al. | Why machines matter for survey and social science researchers: Exploring applications of machine learning methods for design, data collection, and analysis | |
CN117314593B (zh) | 一种基于用户行为分析的保险项目推送方法及系统 | |
CN113705792A (zh) | 基于深度学习模型的个性化推荐方法、装置、设备及介质 | |
CN113886697A (zh) | 基于聚类算法的活动推荐方法、装置、设备及存储介质 | |
KR102410715B1 (ko) | 머신 러닝 기반의 텍스트 데이터의 감성 분석 장치 및 방법 | |
CN113327132A (zh) | 多媒体推荐方法、装置、设备及存储介质 | |
JP7010337B2 (ja) | 学習装置、推定装置、学習方法、推定方法、プログラム、及び学習済み推定モデルのプログラム | |
CN109242927B (zh) | 一种广告模板生成方法、装置及计算机设备 | |
CN117032702A (zh) | 基于用户画像的个性化表单填写页面生成方法、装置、设备及介质 | |
CN109144999B (zh) | 一种数据定位方法、装置及存储介质、程序产品 | |
CN109299291A (zh) | 一种基于卷积神经网络的问答社区标签推荐方法 | |
CN115587244A (zh) | 一种用户兴趣维度采集与推荐方法、装置、设备及存储介质 | |
CN112988699B (zh) | 模型训练方法、数据标签的生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7010337 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |