JP7445730B2 - 学習装置、機械学習モデル及び学習方法 - Google Patents

学習装置、機械学習モデル及び学習方法 Download PDF

Info

Publication number
JP7445730B2
JP7445730B2 JP2022188192A JP2022188192A JP7445730B2 JP 7445730 B2 JP7445730 B2 JP 7445730B2 JP 2022188192 A JP2022188192 A JP 2022188192A JP 2022188192 A JP2022188192 A JP 2022188192A JP 7445730 B2 JP7445730 B2 JP 7445730B2
Authority
JP
Japan
Prior art keywords
product
product information
information
data
item data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022188192A
Other languages
English (en)
Other versions
JP2023018101A (ja
Inventor
満 中澤
高志 友岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2022188192A priority Critical patent/JP7445730B2/ja
Publication of JP2023018101A publication Critical patent/JP2023018101A/ja
Application granted granted Critical
Publication of JP7445730B2 publication Critical patent/JP7445730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Mathematical Physics (AREA)
  • Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、学習装置、機械学習モデル及び学習方法に関する。
近年、オンライン上でショッピングやオークション、フリーマーケット等のサービスが提供されている。これらのサービスが提供されるウェブページ(商品ページや出品ページと呼称される)には、商品画像、商品名、商品説明文、カテゴリ等の商品に関する商品情報が表示される。当該商品情報は、例えば出品者や販売者によって、サービスのプラットフォームへ提供される。
また、商品ページの作成を支援する技術も存在する。例えば、下記特許文献1では出品者から受信した商品画像に基づいて、出品者によって過去に購入された商品の画像の中から類似する類似画像を検索し、検索された類似画像に対応する商品情報を含む商品ページを生成する出品支援装置が開示されている。
特開2014-115912号公報
ところで、購入者が商品情報に基づいて購入を検討するためには、商品画像、商品名、商品説明文、カテゴリ等の商品に関する商品情報が全体として整合していることが望ましい。しかし、出品者から提供される商品情報が整合していない場合があった。
本開示の目的の1つは、出品者から提供される商品情報が整合しているか判定を行う学習装置、機械学習モデル及び学習方法を提供することである。
本開示に係る学習装置は、商品に関する複数の項目データからなる複数の商品情報が予め記憶された記憶部から、第1商品の第1商品情報と第2商品の第2商品情報を取得する商品情報取得部と、前記第1商品情報における少なくとも1つの項目データを、前記第2商品情報の当該項目データに置き換えた第3商品情報を生成する商品情報生成部と、前記商品情報が入力されると該商品情報が整合するか否か判定する機械学習モデルに、前記第3商品情報を不整合な商品情報として学習させる学習部と、を含む。
本開示の一態様では、前記商品情報取得部は、前記第1商品と複数の前記第2商品の候補との類似度に基づいて、前記複数の前記第2商品の候補から前記第2商品情報を取得する。
本開示の一態様では、前記商品情報取得部は、前記類似度が予め設定された範囲内にある前記第2商品情報を取得する。
本開示の一態様では、前記商品情報取得部は、前記類似度が予め設定された閾値以下である前記第2商品情報を取得する。
本開示の一態様では、前記各項目の特徴情報を生成する特徴情報生成部と、前記各項目の特徴情報に基づいて、前記第1商品と、前記複数の第2商品の候補と、のそれぞれについて特徴ベクトルを取得する特徴ベクトル取得部と、前記第1商品の特徴ベクトルと、前記第2商品の複数の候補の特徴ベクトルとのそれぞれの距離に基づいて、前記類似度を算出する類似度算出部と、をさらに含む。
本開示の一態様では、前記機械学習モデルは、前記判定を前記項目ごとに行う。
本開示に係る機械学習モデルは、商品に関する複数の項目データからなる商品情報が入力されると該商品情報が整合するか否か判定する機械学習モデルであって、商品に関する複数の項目データからなる複数の商品情報が予め記憶された記憶部から取得された第1商品の第1商品情報における少なくとも1つの項目データを前記記憶部から取得された第2商品の第2商品情報の当該項目データに置き換えて生成された第3商品情報を、不整合な商品情報とした学習が実行済である。
本開示に係る学習方法は、商品に関する複数の項目データからなる複数の商品情報が予め記憶された記憶部から、第1商品の第1商品情報と第2商品の第2商品情報を取得する商品情報取得ステップと、前記第1商品情報における少なくとも1つの項目データを、前記第2商品情報の当該項目データに置き換えた第3商品情報を生成する生成ステップと、前記商品情報が入力されると該商品情報が整合するか否か判定する機械学習モデルに、前記第3商品情報を不整合な商品情報として学習させる学習ステップと、を含む。
本開示によれば、出品者から提供される商品情報が整合しているかの判定が容易になる。
判定システムの全体構成を示す図である。 学習装置及び判定装置で実現される機能の一例を示す機能ブロック図である。 第1データセットの一例を示す図である。 第2データセットの一例を示す図である。 商品情報取得部の機能の一例を示す機能ブロック図である。 第2商品を選択する処理の一例を示すフロー図である。 学習装置が実行する学習処理の一例を示すフロー図である。 商品情報取得部の機能の一例を示す機能ブロック図である。 判定装置が実行する判定処理の一例を示すフロー図である。
[1.判定システムの概要]
以下、本開示に係るユーザ装置102と学習装置104を含む判定システム100の実施形態の例を説明する。図1は、判定システム100のハードウェア構成の概略を示す図である。図1に示すように、判定システム100は、ユーザ装置102と学習装置104とを含み、これらは、インターネット又はLANなどのネットワーク118に接続される。なお、図1ではユーザ装置102を1台示しているが、ユーザ装置102は複数台あってもよい。また、後述するように、学習装置104と判定装置212とが個別に構成される場合には、判定システム100は、ユーザ装置102と学習装置104判定装置212とを含む。
ユーザ装置102は、出品者等のユーザが操作するコンピュータである。例えば、ユーザ装置102は、パーソナルコンピュータ、携帯情報端末(タブレット型コンピュータ及びウェアラブル端末を含む)、又は携帯電話機(スマートフォンを含む)等である。例えば、ユーザ装置102は、制御部106A、記憶部108A、通信部110A、操作部112A、表示部114A及び撮影部116を含む。
制御部106Aは、少なくとも1つのプロセッサを含む。制御部106Aは、記憶部108Aに記憶されたプログラムやデータに従って処理を実行する。記憶部108Aは、主記憶部及び補助記憶部を含む。例えば、主記憶部はRAMなどの揮発性メモリであり、補助記憶部は、ROM、EEPROM、フラッシュメモリ、又はハードディスクなどの不揮発性メモリである。
通信部110Aは、有線通信又は無線通信用の通信インタフェースであり、ネットワーク118を介してデータ通信を行う。操作部112Aは、申込者が操作を行うための入力デバイスであり、例えば、タッチパネルやマウス等のポインティングデバイス、キーボード、又はボタン等である。操作部112Aは、ユーザによる操作内容を制御部106Aに伝達する。表示部114Aは、例えば、液晶表示部又は有機EL表示部等である。表示部114Aは、制御部106Aの指示に従って画像を表示する。
撮影部116は、少なくとも1つのカメラを含む。撮影部116は、商品を被写体として撮影を行う。なお、撮影部116は、静止画ではなく、動画を生成してもよい。
学習装置104は、オンライン上でショッピングやオークション、フリーマーケット等のサービスを提供する管理者が操作するコンピュータである。例えば、学習装置104は、例えばサーバコンピュータである。学習装置104は、パーソナルコンピュータ、携帯情報端末(タブレット型コンピュータ及びウェアラブル端末を含む)、又は携帯電話機(スマートフォンを含む)等であってもよい。
例えば、学習装置104は、制御部106B、記憶部108B、通信部110B、操作部112B、表示部114Bを含む。制御部106B、記憶部108B、通信部110B、操作部112B、及び表示部114Bの各々の物理的構成は、それぞれユーザ装置102に含まれる制御部106A、記憶部108A、通信部110A、操作部112A、及び表示部114Aと同様であってよい。
なお、記憶部108A,108Bに記憶されるものとして説明するプログラム及びデータは、ネットワーク118を介して供給されるようにしてもよい。また、ユーザ装置102及び学習装置104の各々のハードウェア構成は、上記の例に限られず、種々のハードウェアを適用可能である。例えば、コンピュータ読み取り可能な情報記憶媒体を読み取る読取部(例えば、光ディスクドライブやメモリカードスロット)や外部機器とデータの入出力をするための入出力部(例えば、USBポート)が含まれていてもよい。例えば、情報記憶媒体に記憶されたプログラムやデータが読取部や入出力部を介して、各コンピュータに供給されるようにしてもよい。
[2.学習装置で実現される機能]
図2は、学習装置104の機能的構成を示す概略を示す図である。図2に示すように、学習装置104は、データ記憶部202と、商品情報取得部204と、商品情報生成部206と、学習部208と、機械学習モデル210と、を含む。
機械学習モデル210に含まれるプログラムには、コンピュータが実行すべき処理内容
(命令又は計算式)が定義されており、例えば、畳み込みやプーリングなどの処理を行うためのコードを含む。パラメータは、学習によって調整される少なくとも1つの数値を含み、例えば、重み付け係数やバイアスなどの数値を含む。学習前の機械学習モデル210であれば、初期値のパラメータを含み、学習済みの機械学習モデル210であれば、学習によって調整されたパラメータを含む。
判定システム100では、機械学習モデル210の学習が行われ、学習済みの機械学習モデル210を用いて判定が行われる。なお、本開示では、学習を行う学習装置104と学習済の機械学習モデル210を含む判定装置212とが一体である形態について説明するが、学習装置104と判定装置212とが個別に構成されてもよい。
データ記憶部202は、商品に関する複数の項目データからなる複数の商品情報が予め記憶される。具体的には、例えば、データ記憶部202は、図3に示すような第1商品から第n商品までの複数の商品の商品情報を含む第1データセットが予め記憶される。本実施形態では、各商品情報は、データ名、商品画像、価格、状態、商品名/商品紹介文及びカテゴリを表すデータをそれぞれ含む。
データ名は、各商品の商品情報を識別するデータである。例えば、第1商品に関する商品情報を識別するデータ名は、第1商品情報である。同様に、第2商品から第n商品までの商品に関する商品情報を識別するデータ名は、それぞれ第2商品情報から第n商品情報である。
商品画像は、商品を撮影した画像データである。具体的には、例えば、スマートフォンである第1商品を撮影したビットマップ形式の画像データ「aaa.bmp」である。また、例えば、テレビである第2商品を撮影したビットマップ形式の画像データ「bbb.bmp」である。なお、商品画像はビットマップ形式に限られず、商品情報取得部204が取得できる形式であれば他の形式の静止画や動画であってもよい。
価格は、当該商品の販売価格を表す数値データである。例えば、スマートフォンである第1商品の価格は「50,000」である。また、テレビである第2商品の価格は「80,000」である。なお、価格の単位は円であるが、ここでは、価格は単位を含まない数値データである。
状態は、当該商品の保存状態を表すデータである。具体的には、例えば、第1商品の状態は「良い」であり、第2商品の状態は「悪い」である。状態は、「良い」、「やや悪い」、「悪い」等の文字列データであってもよいし、例えば保存状態に応じて6段階に分類された数値データであってもよい。
商品名/商品紹介文は、当該商品の製品名や仕様、製造年月日などの出品者が商品ページの閲覧者に対して行う説明に関する文字列データである。具体的には、例えば、第1商品の商品名はスマートフォンの製品名(型番など)であり、第2商品の商品名はテレビの製品名(型番など)である。また、第1商品の商品紹介文は、搭載されたOSなどのスマートフォンの仕様や、製造メーカー、製造年月日等のテキストデータである。第2商品の商品紹介文は、画面サイズなどのテレビの仕様や、製造メーカー、製造年月日等のテキストデータである。
カテゴリは、当該商品が該当する商品分野の分類を表す情報である。具体的には、例えば、サービスのトップページ等には、ユーザが商品を検索しやすいようにカテゴリの一覧が表示される。カテゴリは、当該カテゴリの一覧のうちの一項目を表すデータであり、ユーザが商品を検索する際に用いる商品分野の分類である。カテゴリは、「スマートフォン」や「テレビ」などの特定の商品を表す文字列データであってもよいし、「レディース」、「メンズ」等のターゲットとなる顧客層の属性を表す文字列データであってもよい。また、カテゴリは、上記特定の商品や属性と対応して予め設定された数値データであってもよい。
また、商品画像、商品名/商品紹介文及びカテゴリは、それぞれの実態を表すデータとともに正解データが関連付けられる。各項目の正解データは、各項目のデータが商品情報の中の他の項目のデータと整合しているか否かを表すフラグである。例えば、正解データは、当該項目のデータが他の項目のデータと整合している場合に「0.0」という値が設定され、整合していない場合に「1.0」という値が設定される。正解データは、管理者が商品情報を確認することによって設定されてもよいし、後述する学習済みの機械学習モデル210が出力した判定結果が設定されてもよい。
ここで、整合するとの意味は、各項目がそれ以外の項目と社会通念上対応しているかを表す。具体的には、例えば、商品画像のデータ「aaa.bmp」がスマートフォンを撮影した画像データであり、商品名/商品紹介文のデータがスマートフォンに関する説明が記載された文字列データであるのに対して、カテゴリのデータが「車」や「バッグ」等の異なる商品のカテゴリを表すデータである場合、カテゴリのデータは商品画像及び商品名/商品紹介文のデータと社会通念上対応していない。従って、このような場合、カテゴリの正解データとして「1.0」が設定される。
なお、商品情報に含まれる不整合な項目の数は、各商品情報(図3に示す1行の商品情報)の正解データが存在する項目数の半数未満である。すなわち、各商品情報の正解データが存在する項目のうちの半数以上の項目の正解データは「0.0」である。例えば、図3に示す例では、正解データが存在する商品画像、商品名/商品紹介文、カテゴリの3項目のうち、2項目以上の正解データは「0.0」である。整合しないと設定される項目は、少なくとも正解データが「0.0」である項目との関係で、整合していないと判定される。
なお、各商品情報は、各項目のデータと関連付けられた正解データだけでなく、商品情報が全体として整合しているか否かを表す全体の正解データを含んでもよい(図3の2列目)。全体の正解データは、各項目と関連付けられた正解データが全て「0.0」である場合に「0.0」であって、1つ以上項目が「1.0」である場合に「1.0」とされる。また、全体の正解データは、後述する学習済みの機械学習モデル210が出力した判定結果が設定されてもよい。
予め複数のユーザが出品する商品の商品情報をユーザ装置102に入力することにより、学習装置104は、複数の商品情報を取得する。データ記憶部202は、商品に関する複数の項目データからなる複数の商品情報が予め記憶されている。以下、データ記憶部202は、図3に示すような第1データセットを予め記憶しているものとして説明する。
商品情報取得部204は、データ記憶部202から、第1商品の第1商品情報と第2商品の第2商品情報を取得する。具体的には、商品情報取得部204は、第1商品の第1商品情報を取得する。さらに、商品情報取得部204は、当該第1商品と複数の第2商品の候補との類似度に基づいて、複数の第2商品の候補から第2商品情報を取得する。
例えば、まず、商品情報取得部204は、スマートフォンである第1商品の第1商品情報を取得する。商品情報取得部204は、第1データセットに含まれる商品情報から無作為に第1商品情報を取得してよいが、整合する商品情報(すなわちに含まれる各正解データが全て「0.0」である商品情報)を取得する。また、商品情報取得部204は、第1データセットから複数の第2商品の候補のそれぞれについて商品情報を取得する。そして、商品情報取得部204は、当該候補の中から第1商品と第2商品の類似度に基づいて、テレビである第2商品の第2商品情報を取得する。第2商品情報は、第1データセットに含まれる第1商品情報以外の商品情報が取得されるが、第2商品情報の選択方法については後述する。
商品情報生成部206は、第1商品情報における1つの項目データを、第2商品情報の当該項目データに置き換えた第3商品情報を生成する。具体的には、例えば、商品情報生成部206は、第1商品情報におけるカテゴリのデータ「スマートフォン」を、第2商品情報のカテゴリのデータ「テレビ」に置き換えた第3商品情報を生成する。また、商品情報生成部206は、第1データセットに含まれる第1商品情報を第3商品情報に入れ替えた第2データセットを生成する(図4参照)。なお、入れ替える項目は、無作為に選択される。入れ替える項目の数は、各商品情報の正解データが存在する項目数の半数未満であれば複数であってもよい。
なお、第2データセットは、第1データセットに生成された第3商品情報が追加されたデータセットであってもよい。また、商品情報生成部206が生成する不整合な商品情報は複数であってもよく、この場合、第2データセットは、複数の不整合な商品情報が含まれる。
学習部208は、商品情報が入力されると該商品情報が整合するか否か判定する機械学習モデル210に、第3商品情報を不整合な商品情報として学習させる。機械学習モデル210は、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)などの公知のニューラルネットワークである。機械学習モデル210は、商品の特徴ベクトル(後述)が入力されると、商品情報の特徴情報を計算し、該特徴情報に応じた判定結果を出力する。特徴情報は、入力されたデータの特徴を示す少なくとも1つの数値で表現される。特徴情報は、通常は多次元ベクトルで表現されるが、配列形式や単一の数値などの他の形式で表現されてもよい。学習部208が機械学習モデル210に対して行う学習については後述する。
[3.第2商品情報の選択]
続いて、第1データセットに含まれる複数の商品情報から第2商品情報を選択する方法の一例について説明する。図5は、商品情報取得部204の機能的構成を示す概略を示す図である。商品情報取得部204は、特徴情報生成部502と、特徴ベクトル取得部504と、類似度算出部506と、選択部508と、を含む。
特徴情報生成部502は、各項目の特徴情報を生成する。特徴量は、任意の次元数で表現される。特徴情報生成部502による特徴量の計算方法自体は、公知の方法を利用可能であり、例えば、重み付け係数が設定されたフィルタによる畳み込みやプーリングなどが行われる。
具体的には、例えば、特徴情報生成部502は、商品情報に含まれる項目ごとに、該項目のデータが入力されると特徴情報を生成する各部を含む。上記例では、特徴情報生成部502は、商品画像特徴情報生成部502Aと、価格特徴情報生成部502Bと、状態特徴情報生成部502Cと、商品説明特徴情報生成部502Dと、カテゴリ特徴情報生成部502Eと、を含む。
商品画像特徴情報生成部502Aは、商品画像のデータが入力されると該商品画像の特徴情報を生成する。価格特徴情報生成部502Bは、価格のデータが入力されると該価格の特徴情報を生成する。状態特徴情報生成部502Cは、状態のデータが入力されると該状態の特徴情報を生成する。商品説明特徴情報生成部502Dは、商品名/商品紹介文のデータが入力されると該商品名/商品紹介文の特徴情報を生成する。カテゴリ特徴情報生成部502Eは、カテゴリのデータが入力されると該カテゴリの特徴情報を生成する。
特徴情報生成部502に含まれる各部は、既存の技術を用いて、入力されたデータに応じた特徴情報を生成してよい。具体的には、例えば、商品画像特徴情報生成部502Aは、画像認識研究のために準備された画像の標準データセットを用いて学習された機械学習モデルを含み、該機械学習モデルが算出した特徴ベクトルを商品画像の特徴情報としてもよい。価格特徴情報生成部502Bは、当該商品の市場流通価格の平均値との比率や、第1データセットの同じカテゴリに属する商品情報に含まれる価格のデータの平均値との比率等を価格の特徴情報としてよい。状態特徴情報生成部502Cは、予め設定された保存状態に応じて6段階に分類されたテーブルを参照し、該状態と対応する値を状態の特徴情報としてよい。商品説明特徴情報生成部502Dは、ウェブ上のディクショナリや一般市場で入手可能なコーパスを用いて学習された任意の長さの文章を固定長のベクトルに変換する機械学習モデルを含み、該機械学習モデルが算出した特徴ベクトルを商品名/商品紹介文の特徴情報としてもよい。カテゴリ特徴情報生成部502Eは、カテゴリのツリー構造における位置に応じて予め設定された値をカテゴリの特徴情報としてもよい。
なお、特徴情報生成部502に含まれる各部が生成する特徴情報は、それぞれスカラー量であってもよいし、ベクトル量であってもよい。また、特徴情報生成部502は、第1商品だけでなく、第1データセットから無作為に選択された複数の第2商品の候補の商品情報に基づいて、特徴情報を生成する。
特徴ベクトル取得部504は、各項目の特徴情報に基づいて、第1商品と、複数の第2商品の候補と、のそれぞれについて特徴ベクトルを取得する。具体的には、例えば、特徴ベクトル取得部504は、特徴情報生成部502に含まれる各部が生成した各項目の特徴情報を連結し、1個の特徴ベクトルを生成する。特徴ベクトルを生成する方法は、商品画像からカテゴリまでの各特徴情報を単に連結して特徴ベクトルを生成してもよいし、他の公知の方法を用いて生成してもよい。特徴ベクトル取得部504は、第1商品の特徴ベクトルと、無作為に選択された複数の第2商品の候補の特徴ベクトルを取得する。
類似度算出部506は、第1商品と、第2商品の複数の候補の類似度を算出する。具体的には、例えば、類似度算出部506は、第1商品の特徴ベクトルと、第2商品の複数の候補の特徴ベクトルと、のそれぞれのユークリッド空間における距離を算出する。そして、類似度算出部506は、算出した距離に基づいて、第1商品と第2商品の各候補との類似度を算出する。例えば、類似度算出部506は、距離が短いほど類似度が大きく、距離が長いほど類似度が小さくなるように、算出した距離の逆数に所定の定数を乗じた値を、第1商品と第2商品の各候補との類似度としてよい。すなわち、第1商品と第2商品の類似度が大きいほど、当該第1商品と第2商品は類似している。
なお、類似度算出部506は、特徴ベクトルではなく、特徴情報生成部502が生成した各項目の特徴情報や各項目のデータに基づいて類似度を算出してもよい。例えば、類似度算出部506は、カテゴリのツリー構造において、第1商品と、第2商品各の各候補が属するノードを特定する。そして、類似度算出部506は、第1商品のカテゴリのノードと、第2商品各の各候補が属するノードと、の距離(例えば、最近共通祖先(LCA:Lowest Common Ancestor))を算出し、算出した距離に基づいて類似度を算出してもよい。
選択部508は、第2商品を選択する。具体的には、例えば、第1商品と第2商品の類似度が大きすぎる場合、第3商品の商品情報が全体として整合することがある。そこで、第1商品との類似度が大きすぎる第2商品が選択されないように、選択部508は、第2商品の複数の候補の中から、類似度が予め設定された閾値以下である第2商品を取得する。類似度が予め設定された閾値以下である第2商品の候補が複数である場合、選択部508は、その中から無作為に第2商品を選択してもよいし、最も類似度が小さい第2商品を選択してもよいし、最も類似度が大きい第2商品を選択してもよい。類似度が予め設定された閾値以下である第2商品を取得することにより、全体として整合する第3商品の商品情報が生成されることを防止できる。
また、選択部508は、類似度が予め設定された範囲内にある第2商品情報を取得してもよい。具体的には、例えば、選択部508は、第2商品の複数の候補の中から、類似度が予め設定された範囲内にある第2商品を取得する。類似度が予め設定された範囲内にある第2商品の候補が複数である場合、選択部508は、その中から無作為に第2商品を選択してもよいし、最も類似度が小さい第2商品を選択してもよいし、最も類似度が大きい第2商品を選択してもよい。
さらに、管理者が想定している(検出したい)不整合な商品情報に応じて、類似度が所定範囲内にある商品の商品情報を取得するか、閾値以下にある商品の商品情報を取得するか、が決定されてもよい。類似度が所定範囲内にある商品の商品情報を取得する場合は、所定範囲を適切に設定することで、第1商品と適度に類似した商品を第2商品として取得することができる。一方、類似度が閾値以下の商品情報を取得する場合は、閾値を適切に設定することで、第1商品と類似していない商品を第2商品として取得することができる。
図6は、第2商品の選択方法を示すフローチャートの一例である。まず、特徴情報生成部502は、第1商品と第2商品の複数の候補の商品情報を取得する(S602)。具体的には、特徴情報生成部502は、第1商品の商品情報と、第2商品の複数の候補の商品情報と、を第1データセットの中から無作為に取得する。
次に、特徴情報生成部502は、S602で取得した全ての商品情報について、該商品情報に含まれる各項目のデータから特徴情報を生成する(S604)。そして、特徴ベクトル取得部504は、各項目の特徴情報に基づいて、第1商品と、複数の第2商品の候補と、のそれぞれについて特徴ベクトルを生成し取得する(S606)。
次に、類似度算出部506は、S606で取得された第1商品の特徴ベクトルと、第2商品の複数の候補の特徴ベクトルと、のそれぞれの距離に基づいて類似度を算出する(S608)。さらに、選択部508は、第2商品の複数の候補の中から、類似度が予め設定された閾値以下である第2商品を取得する(S610)。商品情報生成部206は、第1商品の商品情報と、S610で選択された第2商品の商品情報と、に基づいて、第3商品情報を生成する。生成された第3商品情報は、第2データセットの一部としてデータ記憶部202に記憶される。なお、図6に示した第2商品の選択方法は一例であって、これに限られない。例えば、第2商品は第1データセットの中から無作為に選択されてもよい。
[4.学習装置が行う学習]
本実施形態の学習装置104は、上記のような機械学習モデル210の学習を行い、判定システム100は、学習済の機械学習モデル210を利用して商品情報が整合するか否かの判定を行う。学習に用いられる訓練データは、第2データセットに含まれる商品情報である。第2データセットはデータ記憶部202に記憶される。訓練データは、機械学習モデル210に学習させる個々のデータ単位である。訓練データは、教師データ又は学習データと呼ばれることもある。例えば、訓練データには、入力データと正解データとが対応付けられている。即ち、訓練データは、入力データと正解データのペアである。1つ1つのペアが訓練データであり、その集まりが第2データセットである。訓練データに含まれる入力データは、特徴ベクトル取得部504が取得した特徴ベクトルである。入力データは、学習済みの機械学習モデル210に入力される入力データと同じ形式(本実施形態では、特徴ベクトル)である。
正解データは、正解となる出力を示すデータであって、各商品情報に含まれる。正解となる出力とは、入力データが入力された場合に機械学習モデル210が出力すべき内容(機械学習モデル210に出力してほしい内容)である。例えば、正解データは、真値又は真値ベクトルを示すデータということもできる。正解データは、正解情報と呼ばれることもある。
例えば、図4に示すように、正例である第2商品情報に含まれる「テレビ」というデータは、整合していることに相当する「0.0」(正例であることを示す真値)を示す正解データが対応付けられている。負例である第3商品情報に含まれる「テレビ」というデータには、整合していないことに相当する「1.0」(負例であることを示す真値)を示す正解データが対応付けられている。
本実施形態では、第2データセットに含まれる正解データは、商品画像の正解データと、商品名/商品紹介文の正解データと、カテゴリの正解データと、である。例えば、第2データセットの第3商品情報の入力データは、[0.0,0.0,1.0]を示す正解データが対応付けられている。第2データセットの第2商品情報の入力データは、[0.0,0.0,0.0]を示す正解データが対応付けられている。
学習部208は、各項目が整合するか否かの判定を行う機械学習モデル210に対し、複数の訓練データである商品情報から生成した特徴ベクトルを順次入力し、当該商品データに対応する正解データに基づいて、機械学習モデル210の学習を行う。本実施形態では、入力データの入力順が予め定められている場合を説明するが、入力データの入力順は、無作為に定まってもよい。
図7は、学習の方法を示すフローの一例である。まず、学習に用いる商品情報の順番を表す変数iが1に設定される(S702)。そして、特徴ベクトル取得部504は、第2データセットに含まれるi番目の商品情報に基づいて、特徴ベクトルを取得する(S704)。例えば、1番目の商品情報は、商品画像のデータが「aaa.bmp」であり、価格のデータが「50000」であり、状態のデータが「良い」であり、商品名/商品紹介文のデータが「aaa.txt」であり、カテゴリのデータが「テレビ」である。iが1である場合、特徴ベクトル取得部504は、1番目の商品情報に基づいて特徴ベクトルを取得する。
学習部208は、S704で取得された特徴ベクトルを、機械学習モデル210に入力する(S706)。本実施形態では、機械学習モデル210は、畳み込みニューラルネットワーク(CNN)により実装された機械学習モデル210であるとして説明する。機械学習モデル210は、特徴ベクトルが入力されると、商品情報全体と、商品画像と、商品名/商品紹介文と、カテゴリと、に関する判定結果を表す3次元のベクトルとして出力する。すなわち、機械学習モデル210は、判定を項目ごとに行う。なお、3次元のベクトルに含まれる各次元の値は、それぞれ整合するデータであるかを表す確率を「0.0」から「1.0」までの間の値である。各値は、各項目のデータが整合すると判定される場合に「0.0」であり、不整合であると判定される場合に「1.0」である。
次に、学習部208は、損失を計算し、機械学習モデル210の内部パラメータを更新する(S708)。具体的には、学習部208は、特徴ベクトルが機械学習モデル210に入力された場合に出力された3次元ベクトルで表される判定結果と、当該入力データに対応する正解データと、に基づいて、損失を計算する。具体的には、例えば、第2データセットの第3商品情報の入力データは、[0.0,0.0,1.0]を示す正解データが対応付けられている。学習部208は、S706で出力される判定結果を表す3次元ベクトルと、当該正解データの3次元ベクトルと、を用いて損失を算出する。損失の計算方法自体は、2乗和誤差又はクロスエントロピーといった公知の計算方法を利用可能である。そして、学習部208は、算出された損失が小さくなるように、機械学習モデル210の内部パラメータを更新する。ここで、内部パラメータは、機械学習モデル210の内部定数であって、例えば、各ノードの重み付に用いられる値である。
パラメータが更新されると、iがインクリメントされ(S712)、次の商品情報を用いたパラメータの更新が行われる。学習部208は、損失が十分小さくなるまで(例えば、損失が閾値未満になる)まで、機械学習モデル210の学習を繰り返す。学習部208は、学習途中で損失が十分小さくなった場合には、その時点で学習が終了してもよい。学習部208は、損失が十分小さくならなくても、所定回数の学習を繰り返した場合には学習が終了してもよい。また、変数iが第2データセットに含まれる商品情報と同じとなった場合に学習が終了してもよい。学習方法(パラメータの調整方法)自体は、公知の手法を利用可能であり、他の方法が利用されてもよい。
なお、項目ごとの正解データを用いて学習を実行する場合について説明したが、商品情報が全体として整合しているか否かを表す正解データを用いて学習を行ってもよい。具体的には、図4に示す第2データセットにおける、データ名と関連付けられた正解データを用いて学習を行ってもよい。データ名と関連付けられた正解データは、当該商品情報に含まれる各項目の正解データのうち、少なくとも1個が「1.0」であれば、「1.0」という値が設定される。すなわち、データ名と関連付けられた正解データは、当該商品情報に含まれる各項目の正解データが全て「0.0」である場合に「0.0」という値が設定される。このような学習を行うことにより、機械学習モデル210は、項目ごとに判定を行うのではなく、商品情報全体として整合しているか否かを判定することができる。
学習時の学習装置104では、データ記憶部202は、記憶部108Bを主として実現され、商品情報取得部204、商品情報生成部206、学習部208及び機械学習モデル210の各々は、制御部106Bを主として実現される。
[5.判定装置が行う判定]
学習済の学習装置104は、商品情報が整合しているか否かの判定を行う判定装置212として用いることができる。なお、判定装置212は、必ずしも図2に示す学習装置104の各構成を全て含んでいなくてもよい。判定装置212は、図2に示す学習装置104の各構成のうち、少なくともデータ記憶部202と、商品情報取得部204と、機械学習モデル210と、を含んでいればよい。また、図8に示すように、判定装置212に含まれる商品情報取得部204は、少なくとも特徴情報生成部502と、特徴ベクトル取得部504とを含んでいればよい。機械学習モデル210は、図7に示すフローに従って学習済みである。図8及び図9に示すフローチャートに従って、学習済の機械学習モデル210を含む判定装置212が行う判定について説明する。
まず、商品情報取得部204は、商品情報を取得する(S902)。具体的には、商品を出品しようとしているユーザは、ユーザ装置102に出品する商品に関する商品情報を入力する。商品情報取得部204は、ネットワーク118を介して、ユーザが入力した商品情報を取得する。
次に、特徴情報生成部502は、S902で取得した商品情報に基づいて、各項目の特徴情報を生成する(S904)。また、特徴ベクトル取得部504は、当該各項目の特徴情報に基づいて特徴ベクトルを生成する(S906)。ここでは、S904及びS906は、S604及びS606と同様の方法により各項目の特徴情報及び特徴ベクトルが生成されるものとする。
次に、生成された特徴ベクトルは、学習済の機械学習モデル210に入力され(S908)、機械学習モデル210は、判定結果を出力する(S910)。上記例によれば、判定結果は3次元ベクトルで表される。例えば、判定結果が[0.0,0.0,1.0]である場合、当該判定結果は、商品画像と商品名/商品紹介文は整合しているが、カテゴリが整合していないことを表す。
また、判定装置212は、判定結果が不整合であることを表す場合に、管理者に対してエラーメッセージや警告を発する構成としてもよい。さらに、判定装置212がネットワーク118を介して判定結果が不整合であることをユーザ装置102に通知してもよい。当該通知を受信したユーザ装置102は、表示部114Aにエラーメッセージ、警告、修正や確認を促すメッセージを表示してもよい。この際、機械学習モデル210が項目ごとに判定を行うことにより、ユーザ装置102及び判定装置212は、ユーザや管理者に不整合が起きている項目を通知し、当該項目に関する確認や修正を促すことができる。
判定装置212では、データ記憶部202は、記憶部108Bを主として実現され、商品情報取得部204及び機械学習モデル210は、制御部106Bを主として実現される。
以上のように本開示によれば、管理者は、数多くの出品者から提供される商品情報から、整合していない商品情報を容易に見分けることができる。また、多くの場合、ユーザが入力する商品情報は整合しているため、学習に用いる訓練データのために不整合な商品情報を収集することは困難である。訓練データにおいて、整合した商品情報に比べて不整合な商品情報が不足している場合、学習効率が低下したり、学習の結果得られる学習済み機械学習モデルの判定精度が低下したりする恐れがある。本開示によれば、不整合な商品情報を容易に作成することができ、それにより学習効率の向上や、学習済み機械学習モデルの判定精度の向上が期待できる。
なお、本開示は、以上に説明した実施の形態に限定されるものではない。本開示の趣旨を逸脱しない範囲で、適宜変更可能である。
例えば、第2商品情報が無作為に選択される構成とする場合には、商品情報取得部204は、選択部508や類似度算出部506を有しない構成であってもよい。
また、機械学習モデル210を各項目のデータを受け付け可能なモデルとして構成する場合には、機械学習モデル210を特徴情報生成部502及び特徴ベクトル取得部504と一体として形成してもよい。
また、商品情報がデータ名、商品画像、価格、状態、商品名/商品紹介文及びカテゴリを表す情報をそれぞれ含む場合について説明したが、商品情報はこれらの一部を含んでもよいし、他の項目の情報を含んでもよい。
また、判定システム100にユーザ装置102と学習装置104が含まれる場合を説明したが、ユーザ装置102と学習装置104は、別々のシステムに存在してもよい。この場合、学習装置104は、上記のように、データ記憶部202と、商品情報取得部204と、商品情報生成部206と、学習部208と、機械学習モデル210と、を含み、当該各構成は、学習装置としての機能を実装されるコンピュータにより実現される。一方、判定装置212は、データ記憶部202と、商品情報取得部204と、学習が実行済である機械学習モデル210と、を含み、当該各構成は、学習装置としての機能を実装されるコンピュータとは異なるコンピュータにより実現される。さらに、データ記憶部202に記憶されるものとして説明したデータは、ユーザ装置102又は学習装置104とは異なる他のコンピュータ又は情報記憶媒体に記憶されていてもよい。
100 判定システム、102 ユーザ装置、104 学習装置、106A,106B制御部、108A,108B 記憶部、110A,110B 通信部、112A,112B 操作部、114A,114B 表示部、116 撮影部、118 ネットワーク、202 データ記憶部、204 商品情報取得部、206 商品情報生成部、208 学習部、210 機械学習モデル、212 判定装置、502 特徴情報生成部、502A 商品画像特徴情報生成部、502B 価格特徴情報生成部、502C 状態特徴情報生成部、502D 商品説明特徴情報生成部、502E カテゴリ特徴情報生成部、504 特徴ベクトル取得部、506 類似度算出部、508 選択部。

Claims (9)

  1. 商品に関する3以上の項目データからなる複数の商品情報が予め記憶された記憶部から、第1商品の第1商品情報と第2商品の第2商品情報を取得する商品情報取得部と、
    前記第1商品情報における少なくとも1つの項目データを、前記第2商品情報の当該項目データに置き換えた第3商品情報を生成する商品情報生成部と、
    前記商品情報が入力されると該商品情報が整合するか否か判定する機械学習モデルに、前記第1商品情報及び複数の前記第2商品の候補の商品情報を整合する商品情報とし、前記第3商品情報を不整合な商品情報として学習させる学習部と、
    を含み、
    前記商品情報生成部が置き換える前記項目データの数は、前記第1商品情報に含まれる項目データの数の半数未満である学習装置。
  2. 前記商品情報取得部は、前記第1商品と複数の前記第2商品の候補との類似度に基づいて、複数の前記第2商品の候補から前記第2商品情報を取得する請求項1に記載の学習装置。
  3. 前記商品情報取得部は、前記類似度が予め設定された範囲内にある前記第2商品情報を取得する請求項2に記載の学習装置。
  4. 前記商品情報取得部は、前記類似度が予め設定された閾値以下である前記第2商品情報を取得する請求項2に記載の学習装置。
  5. 前記各項目の特徴情報を生成する特徴情報生成部と、
    前記各項目の特徴情報に基づいて、前記第1商品と、複数の前記第2商品の候補と、のそれぞれについて特徴ベクトルを取得する特徴ベクトル取得部と、
    前記第1商品の特徴ベクトルと、前記第2商品の複数の候補の特徴ベクトルとのそれぞれの距離に基づいて、前記類似度を算出する類似度算出部と、をさらに含む、
    請求項2から4のいずれかに記載の学習装置。
  6. 前記機械学習モデルは、前記判定を前記項目ごとに行う請求項1から5のいずれかに記載の学習装置。
  7. 前記商品情報生成部は、置き換える前記項目データを無作為に選択する請求項1から6のいずれかに記載の学習装置。
  8. 商品に関する3以上の項目データからなる商品情報が入力されると該商品情報が整合するか否か判定する処理をコンピュータが実行する機械学習モデルであって、
    商品に関する3以上の項目データからなる複数の商品情報が予め記憶された記憶部から取得された第1商品の第1商品情報及び前記記憶部から取得された複数の第2商品の候補の商品情報を整合する商品情報とし、前記第1商品情報における少なくとも1つの項目データを前記記憶部から取得された第2商品の第2商品情報の当該項目データに置き換えて生成された第3商品情報を不整合な商品情報とした学習が実行済であり、
    置き換えられる前記項目データの数は、前記第1商品情報に含まれる項目データの数の半数未満である機械学習モデル。
  9. 商品に関する3以上の項目データからなる複数の商品情報が予め記憶された記憶部から、第1商品の第1商品情報と第2商品の第2商品情報を取得する商品情報取得ステップと、
    前記第1商品情報における少なくとも1つの項目データを、前記第2商品情報の当該項目データに置き換えた第3商品情報を生成する生成ステップと、
    前記商品情報が入力されると該商品情報が整合するか否か判定する機械学習モデルに、前記第1商品情報及び複数の前記第2商品の候補の商品情報を整合する商品情報とし、前記第3商品情報を不整合な商品情報として学習させる学習ステップと、
    を含み、
    前記生成ステップにおいて置き換えられる前記項目データの数は、前記第1商品情報に含まれる項目データの数の半数未満である学習方法。
JP2022188192A 2020-12-28 2022-11-25 学習装置、機械学習モデル及び学習方法 Active JP7445730B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022188192A JP7445730B2 (ja) 2020-12-28 2022-11-25 学習装置、機械学習モデル及び学習方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020219436A JP7190479B2 (ja) 2020-12-28 2020-12-28 学習装置、機械学習モデル及び学習方法
JP2022188192A JP7445730B2 (ja) 2020-12-28 2022-11-25 学習装置、機械学習モデル及び学習方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020219436A Division JP7190479B2 (ja) 2020-12-28 2020-12-28 学習装置、機械学習モデル及び学習方法

Publications (2)

Publication Number Publication Date
JP2023018101A JP2023018101A (ja) 2023-02-07
JP7445730B2 true JP7445730B2 (ja) 2024-03-07

Family

ID=82117124

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020219436A Active JP7190479B2 (ja) 2020-12-28 2020-12-28 学習装置、機械学習モデル及び学習方法
JP2022188192A Active JP7445730B2 (ja) 2020-12-28 2022-11-25 学習装置、機械学習モデル及び学習方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020219436A Active JP7190479B2 (ja) 2020-12-28 2020-12-28 学習装置、機械学習モデル及び学習方法

Country Status (3)

Country Link
US (1) US20220207584A1 (ja)
JP (2) JP7190479B2 (ja)
TW (1) TWI832099B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220318283A1 (en) * 2021-03-31 2022-10-06 Rovi Guides, Inc. Query correction based on reattempts learning

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309485A (ja) 2005-04-28 2006-11-09 Nec Corp 能動学習方法および能動学習システム
WO2018109806A1 (ja) 2016-12-12 2018-06-21 三菱電機株式会社 モデル学習装置及びモデル学習方法
JP2019160236A (ja) 2018-03-16 2019-09-19 富士通株式会社 学習データ生成方法、学習データ生成プログラムおよびデータ構造
JP2020035023A (ja) 2018-08-27 2020-03-05 株式会社日本経済新聞社 学習方法、誤り判定方法、学習システム、誤り判定システム、およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7802200B1 (en) * 2006-03-29 2010-09-21 Amazon Technologies, Inc. Detecting inconsistencies and incompatibilities of selected items
WO2008029830A1 (fr) 2006-09-08 2008-03-13 Ihc Corp. Système de gestion d'articles
WO2011036704A1 (ja) 2009-09-24 2011-03-31 株式会社 東芝 コンテンツ推薦装置
CN103310343A (zh) * 2012-03-15 2013-09-18 阿里巴巴集团控股有限公司 商品信息发布方法和装置
TWI645348B (zh) * 2015-05-26 2018-12-21 鴻海精密工業股份有限公司 商品相關網路文章之自動圖文摘要方法及系統
JP6735711B2 (ja) 2017-06-12 2020-08-05 日本電信電話株式会社 学習装置、映像検索装置、方法、及びプログラム
JP6501855B1 (ja) 2017-12-07 2019-04-17 ヤフー株式会社 抽出装置、抽出方法、抽出プログラム及びモデル
CN108416625A (zh) * 2018-02-28 2018-08-17 阿里巴巴集团控股有限公司 营销产品的推荐方法和装置
US11808603B2 (en) * 2018-09-25 2023-11-07 Target Brands, Inc. Determining item locations using crowdsourced data
DE112019006005T5 (de) * 2019-01-08 2021-09-02 Mitsubishi Electric Corporation Semantische-Beziehungen-Lerneinrichtung, Semantische-Beziehungen-Lernverfahren und Semantische-Beziehungen-Lernprogramm
CN111932329A (zh) * 2019-05-13 2020-11-13 庄连豪 视觉化取像购物系统及其实施方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309485A (ja) 2005-04-28 2006-11-09 Nec Corp 能動学習方法および能動学習システム
WO2018109806A1 (ja) 2016-12-12 2018-06-21 三菱電機株式会社 モデル学習装置及びモデル学習方法
JP2019160236A (ja) 2018-03-16 2019-09-19 富士通株式会社 学習データ生成方法、学習データ生成プログラムおよびデータ構造
JP2020035023A (ja) 2018-08-27 2020-03-05 株式会社日本経済新聞社 学習方法、誤り判定方法、学習システム、誤り判定システム、およびプログラム

Also Published As

Publication number Publication date
JP7190479B2 (ja) 2022-12-15
JP2023018101A (ja) 2023-02-07
TWI832099B (zh) 2024-02-11
TW202226111A (zh) 2022-07-01
JP2022104310A (ja) 2022-07-08
US20220207584A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
US8352473B2 (en) Product synthesis from multiple sources
US7860347B2 (en) Image-based face search
CN110020128B (zh) 一种搜索结果排序方法及装置
CN110378731A (zh) 获取用户画像的方法、装置、服务器及存储介质
JP2017518570A (ja) 視覚的対話型検索
CN108829847B (zh) 基于翻译的多模态建模方法及其在商品检索中的应用
CN110321473B (zh) 基于多模态注意力的多样性偏好信息推送方法、系统、介质及设备
CN112258260A (zh) 基于用户特征的页面展示方法、装置、介质及电子设备
JP2011018178A (ja) 情報処理装置、情報処理方法およびプログラム
JP7445730B2 (ja) 学習装置、機械学習モデル及び学習方法
CN116894711A (zh) 商品推荐理由生成方法及其装置、电子设备
Vartak et al. CHIC: a combination-based recommendation system
CN115641179A (zh) 信息推送方法、装置及电子设备
JP2012194691A (ja) 識別器の再学習方法、再学習のためのプログラム、及び画像認識装置
JP2016071881A (ja) アイテムリコメンドシステム
EP4195133A1 (en) Image guided video thumbnail generation for e-commerce applications
TWI530899B (zh) 商品上架方法
CN115269901A (zh) 拓展图像生成方法、装置和设备
CN114916238A (zh) 学习系统、学习方法和程序
JP5775241B1 (ja) 情報処理システム、情報処理方法、および情報処理プログラム
CN116611897B (zh) 基于人工智能的消息提醒方法和系统
JP7316477B1 (ja) 処理実行システム、処理実行方法、及びプログラム
WO2023182437A1 (ja) 商品評価システム、管理サーバ、ユーザ端末およびプログラム
CN115937341A (zh) 一种基于ai技术的电商海报生成系统及其生成方法
JP7367139B2 (ja) データ検索方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240226

R150 Certificate of patent or registration of utility model

Ref document number: 7445730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150