JP6443858B2 - 算出装置、算出方法、学習装置、学習方法、及びプログラム - Google Patents

算出装置、算出方法、学習装置、学習方法、及びプログラム Download PDF

Info

Publication number
JP6443858B2
JP6443858B2 JP2014235353A JP2014235353A JP6443858B2 JP 6443858 B2 JP6443858 B2 JP 6443858B2 JP 2014235353 A JP2014235353 A JP 2014235353A JP 2014235353 A JP2014235353 A JP 2014235353A JP 6443858 B2 JP6443858 B2 JP 6443858B2
Authority
JP
Japan
Prior art keywords
option
options
matrix
vector
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014235353A
Other languages
English (en)
Other versions
JP2016099764A (ja
Inventor
力矢 高橋
力矢 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2014235353A priority Critical patent/JP6443858B2/ja
Priority to US14/947,031 priority patent/US10380502B2/en
Publication of JP2016099764A publication Critical patent/JP2016099764A/ja
Application granted granted Critical
Publication of JP6443858B2 publication Critical patent/JP6443858B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"

Description

本発明は、算出装置、算出方法、学習装置、学習方法、及びプログラムに関する。
効用関数を利用して人の選択を予測する離散選択モデルが知られている(非特許文献1)。離散選択モデルは、複数の選択肢が完備性(選択肢A及び選択肢Bの選好度合は、「AよりBを好む」、「BよりAを好む」、「A及びBを同程度に好む」のいずれかであること)及び推移性(AよりBを好み、BよりCを好むならば、AよりCを好むこと)を備えることを前提とする。しかし、実際の人の選択には魅惑効果及び妥協効果等が観察され、推移性がないことがある(非特許文献2〜3)。非推移的な選択を予測可能な数理モデルも知られているが(非特許文献4〜5)、これらの従来の手法では、多数の消費者、多数の商品を含む大規模データに対して、モデルパラメータを安定的に推定することができなかった。
[非特許文献1] J. von Neumann and O. Morgenstern. Theory of Games and Economic Behavior. Princeton University Press, Princeton, NJ, 1953.
[非特許文献2] Joel Huber, John. W. Payne, and Christopher Puto. Adding asymmetrically dominated alternatives: Violations of regularity and the similarity hypothesis. Journal of Consumer Research, 9:90-98, 1982.
[非特許文献3] Itamar Simonson. Choice based on reasons: The case of attraction and compromise effects. Journal of Consumer Research, 16:158-174, 1989.
[非特許文献4] R. M. Roe, J. R. Busemeyer, and J. T. Townsend. Multialternative decision field theory: A dynamic connectionist model of decision making. Psychological Review, 108:370-392, 2001.
[非特許文献5] C. Gonz´alez-Vallejo. Making trade-offs: A probabilistic and context-sensitive model of choice behavior. Psychological Review, 109:137-154, 2002.
非推移的な選考を示す人の実際の選択を学習し、非推移的な選択を予測することを課題とする。更に、大規模な学習データに対しても安定的に適用できる装置、方法、及び/又はプログラムを提供することを課題とする。
本発明の第1の態様においては、複数の選択肢セットのそれぞれに含まれる複数の選択肢のそれぞれに対応する特徴ベクトルを取得する特徴ベクトル取得部と、それぞれの選択肢に対応する特徴ベクトルに基づいて、複数の選択肢の組み合わせに依存しない選択肢自体の絶対評価を表す絶対評価ベクトルを算出する絶対評価算出部と、選択肢セットで複数の選択肢が提示された場合における、複数の選択肢のそれぞれ同士の間での相対的な評価の変換を表す相対化行列を算出する相対化行列算出部と、相対化行列に絶対評価ベクトルを乗じた結果に基づいて、複数の選択肢が提示された場合における各選択肢の相対評価を表す相対評価ベクトルを算出する相対評価算出部と、を備える算出装置、算出装置を用いる算出方法、及び、算出装置に用いるプログラムを提供する。
本発明の第2の態様においては、第1の態様に係る算出装置のパラメータを学習する学習装置であって、複数の選択肢のそれぞれの特徴ベクトルと、複数の選択肢の中から選択者によって選択された選択肢を示す選択情報とを含む学習データを選択肢の組ごとに取得する学習データ取得部と、特徴ベクトルから絶対評価ベクトルへと変換するための変換パラメータを調整して、相対評価ベクトルにおける選択情報により示された選択肢の相対評価をより高める学習処理部と、を備える学習装置、学習装置を用いる学習方法、及び、学習装置に用いるプログラムを提供する。
なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態の学習装置1のブロック図を示す。 人の選択における妥協効果の一例を示す。 人の選択における魅惑効果の一例を示す。 本実施形態の算出装置100による処理フローを示す。 本実施形態の学習装置200による処理フローを示す。 本実施形態の算出装置100による別の処理フローを示す。 複数の選択肢セットにおける目標選択肢の選択確率の例を示す。 コンピュータ1900のハードウェア構成の一例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態に係る算出装置100及び学習装置200のブロック図を備えるシステム10を示す。システム10は、算出装置100により選択肢の他の選択肢に対する相対的な評価を算出し、学習装置200により学習データを用いて算出装置100の評価の算出に用いるパラメータを学習する。
算出装置100は、複数の選択肢を含む選択肢セット(チョイスセット)の情報を受け取り、選択肢セット中の各選択肢の特徴から、各選択肢の当該選択肢セット中の相対的な評価(相対評価とする)を算出する。算出装置100は、特徴ベクトル取得部110、絶対評価算出部120、類似度行列算出部130、相対化行列算出部140、相対評価算出部150、選択肢組入力部170、推定部180、及び、決定部190を有する。
特徴ベクトル取得部110は、複数の選択肢セットのそれぞれに含まれる複数の選択肢のそれぞれに対応し、各選択肢の特徴を表す特徴ベクトルを取得する。特徴ベクトル取得部110は、取得した選択肢セットごとの複数の選択肢の特徴ベクトルを並べた特徴行列を生成し、特徴行列を絶対評価算出部120、及び、類似度行列算出部130に供給する。
絶対評価算出部120は、それぞれの選択肢に対応する特徴ベクトルに基づいて、複数の選択肢の組み合わせに依存しない選択肢自体の絶対評価を表す絶対評価ベクトルを算出する。例えば、絶対評価算出部120は、各特徴量を重み付ける重みベクトルを、各選択肢に対する特徴ベクトルに乗じた結果に基づいて、絶対評価ベクトルを算出する。絶対評価ベクトルの算出方法の具体的態様については後述する。絶対評価算出部120は、算出した絶対評価ベクトルを相対評価算出部150に供給する。
類似度行列算出部130は、複数の選択肢同士の間の特徴ベクトルの類似度を表す類似度行列を算出する。例えば、類似度行列算出部130は、特徴行列に予め定められた定数行列及び当該特徴行列の転置を乗じた結果に基づいて、類似度行列を算出する。類似度行列算出部130は、算出した類似度行列を相対化行列算出部140に供給する。
相対化行列算出部140は、類似度行列に基づいて、選択肢セットで複数の選択肢が提示された場合における、複数の選択肢のそれぞれ同士の間での相対的な評価の変換を表す相対化行列を算出する。相対化行列算出部140が算出する相対化行列は、絶対評価ベクトルに乗じられることで、類似度がより高い2つの選択肢に対し、類似度がより低い2つの選択肢と比較して評価をより高めるように機能する。相対化行列算出部140による相対化行列の算出の具体的な方法は後述する。相対化行列算出部140は、算出した相対化行列を相対評価算出部150に供給する。
相対評価算出部150は、絶対評価ベクトル及び相対化行列に基づいて、選択肢の相対評価を算出する。例えば、相対評価算出部150は、相対化行列に絶対評価ベクトルを乗じた結果に基づいて、複数の選択肢が提示された場合における各選択肢の相対評価を表す相対評価ベクトルを算出する。相対評価算出部150は、算出した相対評価を推定部180又は学習装置200に供給する。
選択肢組入力部170は、選択者に選択させたい予め定められた選択肢(「目標選択肢」とする)と、目標選択肢を含む異なる選択肢の組み合わせをそれぞれが有する複数の選択肢セットとをユーザ等から入力する。選択肢組入力部170は、入力した複数の選択肢セットを特徴ベクトル取得部110に供給し、絶対評価算出部120、類似度行列算出部130、相対化行列算出部140、及び相対評価算出部150に処理をさせることにより、入力した複数の選択肢セットの各選択肢の相対評価を算出させる。選択肢組入力部170は、更に入力した複数の選択肢セットを決定部190に供給する。
推定部180は、相対評価算出部150から得た相対評価ベクトルにおける各選択肢の相対評価に基づいて、各選択肢が選択肢セットの中で選択される選択確率を推定する。例えば、推定部180は、複数の選択肢セットにおける目標選択肢の選択確率を推定してよい。推定部180は、推定結果を決定部190に供給する。
決定部190は、目標選択肢の相対評価に基づいて、選択肢組入力部170から受け取った複数の選択肢セットから、選択者が目標選択肢を選択する可能性が高い選択肢セットを選択して、当該目標選択肢と共に提示する他の選択肢の組み合わせを決定する。例えば、決定部190は、目標選択肢の選択確率が高くなる選択肢セットを決定する。
このように算出装置100は、選択肢セットに含まれる選択肢の特徴に基づいて、選択肢セットにおける各選択肢に対する選択者の選好度を相対評価として算出する。また、算出装置100は、目標選択肢を選択者に選択させるために選択者に提示すべき選択肢セットを決定する。
学習装置200は、複数の選択肢の特徴と選択者が選択肢を選択した結果との関係から、算出装置100が相対評価の算出に用いるパラメータを学習する。学習装置200は、学習データ取得部210と、学習処理部220とを備える。
学習データ取得部210は、学習データを取得する。例えば、学習データ取得部210は、複数の選択肢のそれぞれの特徴を表す特徴ベクトルと、複数の選択肢の中から選択者によって選択された選択肢を示す選択情報とを含む学習データを選択肢セットごとに取得する。
一例として、学習データ取得部210は、選択者に提示された複数の商品(選択肢)の組(選択肢セット)と実際に選択された商品との対応を含む購買履歴等をデータベース20等から取得し、選択肢セットごとに各選択肢となる商品の性能及び価格等の特徴を数値化した値に基づいて特徴ベクトルを生成し、特徴ベクトルと選択情報との組を学習データとして取得する。学習データ取得部210は、取得した学習データを学習処理部220及び算出装置100に提供する。
学習処理部220は、学習データに含まれる選択肢の相対評価を算出装置100に算出させつつ、算出装置100による相対評価の算出結果が学習データと整合するように、算出装置100が相対評価の算出に用いるパラメータを調整しながら学習する。
このように、学習装置200は、複数の選択肢セットに基づく特徴ベクトルと選択肢セットから実際に選択された選択肢とを含む学習データを用いて、算出装置100が選択肢の相対評価をより正確に算出できるように算出装置100を学習させる。
図2は、人の選択における妥協効果の一例を示す。図2のグラフは、選択肢となるA〜Dの商品の性能と価格(例えば、価格の安さの程度)の関係を示す。図中の点線は仮想的なパレート境界を示し、商品A〜Dはパレート境界面上に位置し同程度の絶対評価を有するものとする。
ここで、商品A、商品B、及び、商品Cの選択肢からなる選択肢セットを提示したとすると、選択者は選択肢セットの中で中間の性能と価格の商品Bを選択する傾向を示す。商品B、商品C、及び、商品Dの選択肢からなる選択肢セットを提示したとすると、選択者は選択肢セットの中で中間の性能と価格の商品Cを選択する傾向を示す。このように、選択者は、同程度の絶対評価を有する複数の選択肢の中から極端な選択をすることを避け、中庸な選択肢を選択する傾向を示す。別の観点からすると、選択者は、類似する選択肢が多く存在する選択肢を、類似する選択肢が少ない選択肢よりも高い頻度で選択する傾向があると言える。
図3は、人の選択における魅惑効果の一例を示す。図3のグラフの縦横軸及び点線は図2のグラフと同様である。パレート境界上にあり同程度の絶対評価を有する商品A及び商品Dと、商品Aに類似するが商品Aよりも絶対評価が劣る商品A−の3個の選択肢からなる選択肢セットを提示したとすると、選択者は商品Aを選択する傾向を示す。このように、選択者は、類似するが明確に劣った選択肢が存在する選択肢(選択肢A)を、類似する明確に劣った選択肢が存在しない選択肢(選択肢D)よりも選択する傾向がある。
このように、非推移性を示す選択モデルにおいては、選択肢の絶対評価と他の類似する選択肢(すなわち比較容易な選択肢)の状況とを考慮することで、選択者による選択肢の相対評価が得られると考えられる。例えば、選択者は、類似度に対応する事前分布と効用関数から得られる絶対評価とに基づいて、ベイズ事後確率に対応する相対評価を推定するベイジアンであると考えることができる。
すなわち、選択者は、選択肢間の類似度に基づく正規過程を事前分布として、選択肢の相対評価のベイズ縮小推定を行い、ベイズ事後期待値及びランダムノイズが最大となる選択肢を統計的に選択しているものと想定できる。選択者の選択に対する事前分布の影響は、選択者の直感に対応すると考えることができ、絶対評価の影響は選択者の合理的判断に対応すると考えることができる。
本実施形態の算出装置100は、このような想定に基づいて、選択肢の絶対評価及び選択肢の相対化行列から、選択肢の選択肢セットにおける最終的な評価(相対評価量)を算出する。これにより、算出装置100は、妥協効果及び魅惑効果を含む非推移的な人の選択をモデル化することができる。
本実施形態の説明では、主に消費者が商品を選択する場合について説明するが、システム10の適用対象はこれに限られない。例えば、システム10の算出装置100及び学習装置200は、個人、団体、ロボット及び/又は動物等の意思決定可能な選択主体が、商品、サービス、動作の対象及び/又は取得の対象等を選択対象とする選択肢セットから一又は複数の選択肢を選択する場合に適用することができる。
図4は、本実施形態の算出装置100による処理フローを示す。本実施形態において、算出装置100は、S110〜S150の処理を実行することにより、選択肢セットで各選択肢が選択される確率に対応する相対評価を算出する。
まず、S110において、特徴ベクトル取得部110は、各選択肢セットiの選択肢の特徴を表す特徴ベクトルを取得する。例えば、特徴ベクトル取得部110は、学習装置200等から、選択肢セットiの選択肢jの特徴を表す特徴ベクトルDφjを取得する。
次に、特徴ベクトル取得部110は、i番目(iは1又は2以上の整数)の選択肢セットiに含まれるm[i]個(m[i]は2以上の整数)の選択肢jの特徴ベクトルDφjから特徴行列φを生成し、当該特徴行列を絶対評価算出部120、及び、類似度行列算出部130に供給する。例えば、特徴ベクトル取得部110は、選択肢セットiに含まれるm[i]個の選択肢の特徴ベクトルDφjを並べた特徴行列φ=(Dφ1,Dφ2,…,Dφm[i])を、絶対評価算出部120等に供給する。
次に、S120において、絶対評価算出部120は、それぞれの選択肢jに対応する特徴ベクトルDφjに基づいて、複数の選択肢の組み合わせに依存しない選択肢自体の絶対評価を表す絶対評価ベクトルAを算出する。例えば、絶対評価算出部120は、重みベクトルwφ=(ω,ω,…,ωdφ)を、選択肢jに対する特徴ベクトルDφj=(αj1,αj2,…,αjdφ)に乗じた結果(内積)から選択肢jの絶対評価の尺度である絶対評価量aij=ω×αj1+ω×αj2+,…,+ωdφ×αjdφを算出し、選択肢セットiの全選択肢(j∈m[i])の絶対評価量を各要素として含む絶対評価ベクトルA=(ai1,ai2,…,aim[i])を算出する。なお、重みベクトルwφは、特徴ベクトルDφjの各要素に対応し、特徴ベクトルDφjの各特徴量を重み付ける重み係数(ω,ω,…,ωdφ)を各要素として有する。
絶対評価算出部120は、絶対評価量aφjに対して各要素にバイアスbを加えた結果に基づいて、絶対評価ベクトルA=(ai1+b,ai2+b,…,aij+b)を算出してもよい。例えば、絶対評価算出部120は、全選択肢の特徴ベクトルDφjを含む特徴行列φを用いてA=b1m[i]+φφにより絶対評価ベクトルAを算出してよい。なお、1m[i]は全要素が1となるm[i]次元のベクトルである。絶対評価算出部120は、算出した絶対評価ベクトルを相対評価算出部150に供給する。
次に、S130において、類似度行列算出部130は、複数の選択肢同士の間の特徴ベクトルの類似度を表す類似度行列を算出する。例えば、類似度行列算出部130は、m[i]×dφの特徴行列φにdφ×dφの定数行列Ωφおよび当該特徴行列の転置φ を乗じて、その算出結果φΩφφ を類似度行列Sとしてよい。
類似度行列算出部130は、類似度行列Sの計算において、同一の選択肢セットにおける複数の選択肢のそれぞれ同士について、第1選択肢aの特徴ベクトに定数行列Ωφおよび第2選択肢bの特徴ベクトルDφb の転置D φb を乗じた結果に基づいて、各要素sabを算出する。類似度行列Sの各要素sabは、同一の選択肢セットにおいて選択肢a及び選択肢bの特徴ベクトルが類似する度合を示す内積であり、そのような内積が定義された特徴空間におけるユークリッド距離は、定数行列Ωφの逆行列を分散共分散行列とするマハラノビス距離と一致する。
ここで、定数行列Ωφは、選択肢セットiの絶対評価ベクトルAから相対評価ベクトルu を生成するための相対化パラメータとして機能する。定数行列Ωφは、初期値が予め定められ、学習装置200による学習により更新されてよい。これに代えて、定数行列Ωφは、各要素の値が固定された定数行列であってよい。例えば、定数行列Ωφは、単位行列であってよい。類似度行列算出部130は、算出した類似度行列Sを相対化行列算出部140に供給する。
次に、S140において、相対化行列算出部140は、複数の選択肢同士の間の類似度を表す類似度行列Sに基づいて、選択肢セットiでm[i]個の選択肢が提示された場合における、m[i]個の選択肢のそれぞれ同士の間での相対的な絶対評価量aφjの変換を表す相対化行列Hを算出する。例えば、相対化行列算出部140は、m[i]×m[i]の単位行列Im[i]に類似度行列Sを加えた行列の逆行列(Im[i]+S−1を類似度行列Sに乗じた結果に基づいて、相対化行列H=S(Im[i]+S−1を算出する。相対化行列算出部140は、算出した相対化行列Hを相対評価算出部150に供給する。
次に、S150において、絶対評価ベクトル及び相対化行列に基づいて、選択肢セットにおける各選択肢の相対評価を算出する。例えば、相対評価算出部150は、選択肢セットiにおけるm[i]個の選択肢が提示された場合における各選択肢jの相対評価を表す相対評価量uijを各要素として含む相対評価ベクトルu =(ui1,ui2,…,uim[i])を算出する。相対評価算出部150は、相対化行列Hに絶対評価ベクトルAを乗じた結果に基づいて、相対評価ベクトルu を算出してよく、例えば、数式1により相対評価ベクトルu を算出してよい。
Figure 0006443858
ここで、相対評価ベクトルu の各要素である相対評価量uijは、選択肢セットiにおいて選択者が選択肢jを選択する確率を決定する。例えば、選択者が複数の選択肢から一の選択肢を選択する多項選択の場合、選択肢セットiにおける各選択肢jの相対評価量uijの指数の比が、各選択肢の選択確率の比となる。すなわち、相対評価量uijは、多項ロジットモデルにおける対数尤度に対応する。
また、例えば、選択者が複数の選択肢から任意の数の選択肢を選択する因子的二項選択の場合、選択肢jの相対評価量uijをジグモイド関数に入力して得られた出力値が、選択肢jを選択する確率となる。相対評価算出部150は、算出した相対評価を推定部180又は学習装置200に供給する。
このように、算出装置100は、S110からS150の処理を実行することにより、各選択肢セットiについて、各選択肢がその選択肢セットiの中で選択される確率に対応する相対評価ベクトルu を算出する。特に、算出装置100は、各選択肢の絶対評価及び各選択肢間の特徴の類似性を考慮し、各選択肢jの選択肢セットi中での相対的な評価を含む相対評価ベクトルu を算出することができる。これにより、算出装置100は、選択の非推移性等を反映して各選択肢の評価を算出することができる。
なお、S130で類似度行列算出部130が類似度行列Sを算出するために用いる特徴ベクトルDφbは、S120で絶対評価算出部120が絶対評価ベクトルAを算出するのに用いた特徴ベクトルDφbと同一であっても異なるものであってもよい。異なる場合、特徴ベクトル取得部110は、各選択肢について異なる種類の特徴ベクトルDφbを取得し、これらを絶対評価算出部120及び類似度行列算出部130に提供する。
図5は、本実施形態の学習装置200による処理フローを示す。本実施形態において、学習装置200は、S210〜S230の処理を実行することにより、算出装置100が相対評価ベクトルの算出に用いるパラメータを学習する。
まず、S210において、学習データ取得部210は、複数組の複数の選択肢に対する学習データを取得する。例えば、学習データ取得部210は、外部のデータベース20又は学習装置200内部の記憶装置等から、選択肢セットiごとに、m[i]個の選択肢のそれぞれの特徴を表す特徴ベクトルφと、各選択肢セットiでm[i]個の選択肢の中から選択者によって選択された選択肢yを示す選択情報とを含む学習データを取得する。
一例として、学習データ取得部210は、選択肢セットiごとに、各選択肢j(j∈m[i]、m[i]はi番目の選択肢セットにおける選択肢数)の特徴を数値化した値(例えば、商品の大きさ、色、価格、性能、製造者、及び、種類等を示す数値)を取得し、これらの値を各要素として含む第1ベクトルrijを生成する。また、学習データ取得部210は、選択肢セットiにおける選択者の特徴(例えば、選択者の性別、年齢、年代、職業、国籍、住所、趣味、及び、過去の購買履歴等)を数値化した値を、各成分として含む第2ベクトルqを取得する。
次に、学習データ取得部210は、選択肢セットiの各選択肢jについて、第2ベクトルqと第1ベクトルrijとを連結した第3ベクトルxij=(q ,rij )を生成する。第3ベクトルxijに選択者の特徴に基づく第2ベクトルqを加えることにより、学習装置200は、算出装置100に、選択者の属性の影響を考慮して選択肢の相対評価を算出させることができる。これに代えて、学習データ取得部210は、第1ベクトルrijのみを第3ベクトルxijとしてもよい。
次に、学習データ取得部210は、第3ベクトルxijを特徴ベクトル関数に入力して、dφ次元の特徴ベクトルDφjを出力してよい。例えば、学習データ取得部210は、中心座標の異なるdφ個のRadial Basis Functionに第3ベクトルxijを入力してdφ個の特徴量αj1〜αjdφを算出し、これを各要素として含む特徴ベクトルDφj=(αj1,αj2,…,αjdφ)を取得する。これに代えて、学習データ取得部210は、Random Forestにより特徴ベクトルDφjを出力してもよく、又は、第3ベクトルxij自体を特徴ベクトルDφjとしてもよい。
学習データ取得部210は、このように取得した各選択肢セットiの全選択肢の特徴ベクトルDφjと選択された選択肢yとの組を学習データとする。学習データ取得部210は、取得した学習データを学習処理部220及び算出装置100に提供する。
次に、S220において、学習処理部220は、学習データに基づいて、算出装置100が相対評価ベクトルu の算出に用いるパラメータを学習する。例えば、学習処理部220は、学習データの特徴ベクトルに基づいて、算出装置100にS110〜S150の処理を実行させて相対評価ベクトルu を算出させ、相対評価ベクトルu が学習データの実際に選択された選択肢yと整合するように、算出装置100のパラメータを調整する。
学習処理部220は、パラメータとして、特徴ベクトルDφjから絶対評価ベクトルAへと変換するための変換パラメータ、及び/又は、類似度行列Sを相対化行列Hに変換する相対化行列Ωφを定める相対化パラメータを調整してよい。例えば、学習処理部220は、変換パラメータとして、重みベクトルwφおよび/またはバイアスbの値を調整してよい。また、例えば、学習処理部220は、相対化パラメータとして、定数行列Ωφを調整してよい。
ここで、学習処理部220は、選択情報により示された選択肢yの相対評価ベクトルu における相対評価uiyiをより高めるように、算出装置100のパラメータを学習する。また、学習処理部220は、選択肢セットiの各々に対する相対評価ベクトルu における対応する選択情報により示された選択肢yの相対評価uiyiに基づく値を複数の選択肢セットについて合計した合計値をより高めるように、算出装置100のパラメータを学習してよい。
一例として、学習処理部220は、数式2に定義される選択肢yの相対評価uiyiに基づく関数l(u ,y)を含む数式3を解くことにより、算出装置100のパラメータを学習させてよい。具体的には、学習処理部220は、ガウス事前分布を設定して過剰適合を防ぎつつ、数式3の最適化問題を解くことによりMAP推定を実行する。学習処理部220は、算出装置100にS110〜S150の処理を複数回実行させて変換パラメータについて凸最適化問題を解く。例えば、算出装置100は、ニュートン・ラフソン法を実行して凸最適化問題の最適値を得ることができる。なお、数式3における||・||はLノルムを示し、cは正則化ハイパーパラメータを示す。c/2×||wφ||の項は、過剰適合を避けるための罰則項であり、当該罰則項を用いなくてもよい。
Figure 0006443858
Figure 0006443858
ここで、学習処理部220は、相対化パラメータを固定して変換パラメータのみを学習してよい。例えば、S210で学習データ取得部210がRadial Basis Functionを用いて特徴ベクトルDφjを取得する場合、学習処理部220は、相対化行列Ωφを単位行列に固定して、変換パラメータのみを学習してよい。一方で、学習データ中の選択肢(商品等)の特徴が複雑な場合には、S210で学習データ取得部210がRandom Forestを用いて特徴ベクトルDφjを取得し、学習処理部220は、相対化パラメータと変換パラメータの双方を学習してよい。
相対化パラメータと変換パラメータの双方を学習する場合、学習処理部220は、変換パラメータを固定した状態で相対化パラメータを学習し、相対化パラメータを固定した状態で変換パラメータを学習してよい。例えば、学習処理部220は、変換パラメータと相対化パラメータの一方を固定した状態で、他方を学習する操作を交互に繰り返すことにより、S220の学習を実行してよい。
次にS230において、学習装置200は、学習結果を出力する。例えば、学習装置200は、学習により得られた変換パラメータ及び相対化パラメータを算出装置100に提供する。算出装置100は、受け取ったパラメータを相対評価ベクトルu の算出処理に用いるパラメータとして設定する。
このように、学習装置200は、S210〜S230の処理を実行することにより、算出装置100のパラメータを学習する。特に、学習装置200は、非推移的な選択を含む学習データを算出装置100に学習させることで、算出装置100に非推移的な選択を予測する相対評価ベクトルu を算出させることができる。
なお、本実施形態の説明において、学習データ取得部210が学習データから特徴ベクトルを生成したが、これに代えて、算出装置100の特徴ベクトル取得部110が特徴ベクトルを生成してもよい。この場合、学習データ取得部210は、学習データに含まれる各選択肢の特徴の情報(商品の性能等)を特徴ベクトル取得部110に提供し、この情報から特徴ベクトル取得部110は特徴ベクトルを生成してもよい。
図6は、本実施形態の算出装置100による別の処理フローを示す。本実施形態において、算出装置100は、S310〜S330の処理を実行することにより、所望の選択肢をより高い確率で選択者に選択させるための選択肢セットを決定する。なお、本図の処理を実行する前に、学習装置200はS210〜S230に係る学習処理を実行する。
まず、S310において、選択肢組入力部170は、選択者に選択させたい予め定められた目標選択肢tと、目標選択肢tを含み、他の選択肢の組み合わせが異なる複数(I個)の選択肢セットをユーザから入力する。例えば、選択肢組入力部170は、各選択肢の特徴を数値化した値(例えば、商品の性能等)を選択肢セットi(i∈I)ごとにユーザから入力する。
次に、選択肢組入力部170は、入力したI個の選択肢セットiのm[i]個の選択肢jの特徴ベクトルDφjを生成して特徴ベクトル取得部110及び決定部190に供給する。例えば、選択肢組入力部170は、S210と同様の方法でI個の選択肢セットについて選択肢jごとの特徴ベクトルDφjを生成して、特徴ベクトル取得部110及び決定部190に供給してよい。
次に、S320において、推定部180が、相対評価ベクトルu における各選択肢jの相対評価量uijに基づいて、各選択肢が選択肢セットの中で選択される選択確率を推定する。
例えば、まず、算出装置100が特徴ベクトル取得部110に供給された選択肢セットi及び選択肢jごとの特徴ベクトルDφjに対してS110〜S150の処理を実行することで、各選択肢セットi(i∈I)の相対評価ベクトルu を生成する。ここで、相対評価算出部150は、S150に対応する処理を実行する際に、I個の選択肢セットのそれぞれについて、目標選択肢tの相対評価量uitを含む相対評価ベクトルu を算出する。
次に、推定部180は、相対評価ベクトルu の各要素となる相対評価量uijの値に基づいて、選択肢セットiにおける選択肢jの選択確率を算出する。例えば、選択肢セットiの選択様式が多項選択である場合、推定部180は、選択肢セットiにおける合計が1となるように各選択肢jの相対評価量uijの指数に基づく値(例えば、数2の関数におけるl(u ,j)の値の指数)を正規化し、正規化後の相対評価量uijの指数を選択肢jの選択確率pijとして推定する。また、例えば、選択肢セットiの選択様式が因子的二項選択である場合、推定部180は、各選択肢jの相対評価量uijをジグモイド関数に入力した結果の値を選択肢jの選択確率pijとして推定する。推定部180は、推定結果を決定部190に供給する。
次に、S330において、決定部190は、目標選択肢tの相対評価量uitに基づいて、選択肢組入力部170から受け取った複数の選択肢セットから、選択者が目標選択肢tを選択する可能性が高い選択肢セットi'(i'∈I)を選択して、当該目標選択肢tと共に提示する他の選択肢の組み合わせを決定する。例えば、決定部190は、推定部180の推定結果から、目標選択肢tの選択確率pitが最も高い選択肢セットi'、又は、選択確率pitが予め定められた基準よりも高くなる選択肢セットi'を、当該組み合わせとして決定する。
このように、算出装置100は、S310〜S330の処理を実行することにより、相対評価ベクトルに基づいて複数の選択肢セットにおける各選択肢の選択確率を推定する。相対評価ベクトルは選択の非推移性を反映しているので、算出装置100は、選択者による非推移性のある選択を予想することができる。これにより、算出装置100は、目標選択肢を最も高い確率で選択させるために選択者に提示すべき選択肢セットを決定することができる。
図7は、複数の選択肢セットにおける目標選択肢の選択確率の例を示す。例えば、選択肢組入力部170は、S310において目標選択肢(選択肢C)をそれぞれ含む選択肢セット1(選択肢A、選択肢B、及び選択肢C)、選択肢セット2(選択肢B、選択肢C、及び選択肢D)、及び、選択肢セット1(選択肢C、選択肢D、及び選択肢E)を入力する。
S320において、推定部180は、図示するように選択肢セット1〜3における各選択肢の選択確率を推定する。例えば、推定部180は、選択肢セット1において目標選択肢の選択確率Cを18%と推定し、選択肢セット2において目標選択肢Cの選択確率を38%と推定し、選択肢セット3において目標選択肢Cの選択確率を24%と推定する。この結果、S330において、決定部190は、目標選択肢Cが最も高い選択確率を示す選択肢セット2を選択者に提示すべき選択肢セットとして決定してよい。
例えば、算出装置100は、既に競合他社が存在する分野で新規商品を企画・開発する際に、新規参入することによりシェアを獲得できそうな商品とそうでない商品とを予測することを可能にする。コーヒー市場を一例とすると、高価格かつフルサービスの高級カフェチェーンと、低価格かつセルフサービスのカートリッジ型コーヒー商品と、中価格かつ低品質のコーヒー飲料製品とが存在する市場に、中価格中品質の店舗抽出型コンビニコーヒーを投入した場合にどの程度をシェアが得られるかを予測することができる。
図8は、算出装置100及び学習装置200として機能するコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部を備える。
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、有線又は無線によりネットワークを介して他の装置と通信する。また、通信インターフェイスは、通信を行うハードウェアとして機能する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続するとともに、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
コンピュータ1900にインストールされ、コンピュータ1900を算出装置100及び学習装置200として機能させるプログラムは、特徴ベクトル取得モジュール、絶対評価算出モジュール、類似度行列算出モジュール、相対化行列算出モジュール、相対評価算出モジュール、選択肢入力モジュール、推定モジュール、決定モジュール、学習データ取得モジュール、及び、学習処理モジュールを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、算出装置100の特徴ベクトル取得部110、絶対評価算出部120、類似度行列算出部130、相対化行列算出部140、相対評価算出部150、選択肢組入力部170、推定部180、及び、決定部190、並びに、学習装置200の学習データ取得部210、及び、学習処理部220としてそれぞれ機能させてよい。
これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である算出装置100の特徴ベクトル取得部110、絶対評価算出部120、類似度行列算出部130、相対化行列算出部140、相対評価算出部150、選択肢組入力部170、推定部180、及び、決定部190、並びに、学習装置200の学習データ取得部210、及び、学習処理部220として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の算出装置100及び学習装置200が構築される。
一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020及び外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。例えば、算出装置100及び/又は学習装置200の記憶部は、算出装置100の特徴ベクトル取得部110、絶対評価算出部120、類似度行列算出部130、相対化行列算出部140、相対評価算出部150、選択肢組入力部170、推定部180、及び、決定部190、並びに/又は、学習装置200の学習データ取得部210、及び、学習処理部220から受け取った/へ提供するデータを適宜記憶してよい。例えば、記憶部は、特徴ベクトル取得部110が絶対評価算出部120に入力したデータを受け取って記憶してよい。また、記憶部は、相対評価算出部150が算出した相対評価ベクトル等を記憶してよい。
本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすか否かを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
また、実施形態の説明において複数の要素が列挙された場合には、列挙された要素以外の要素を用いてもよい。例えば、「Xは、A、B及びCを用いてYを実行する」と記載される場合、Xは、A、B及びCに加え、Dを用いてYを実行してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 システム、20 データベース、100 算出装置、110 特徴ベクトル取得部、120 絶対評価算出部、130 類似度行列算出部、140 相対化行列算出部、150 相対評価算出部、170 選択肢組入力部、180 推定部、190 決定部、200 学習装置、210 学習データ取得部、220 学習処理部

Claims (20)

  1. 複数の選択肢のそれぞれに対応する特徴ベクトルを取得する特徴ベクトル取得部と、
    それぞれの選択肢に対応する前記特徴ベクトルに基づいて、前記複数の選択肢の組み合わせに依存しない選択肢自体の絶対評価を表す絶対評価ベクトルを算出する絶対評価算出部と、
    前記複数の選択肢が提示された場合における、前記複数の選択肢のそれぞれ同士の間での相対的な評価への変換を表す相対化行列を算出する相対化行列算出部と、
    前記相対化行列に前記絶対評価ベクトルを乗じた結果に基づいて、前記複数の選択肢が提示された場合における各選択肢の相対評価を表す相対評価ベクトルを算出する相対評価算出部と、
    を備える算出装置。
  2. 前記複数の選択肢同士の間の前記特徴ベクトルの類似度を表す類似度行列を算出する類似度行列算出部を更に備え、
    前記相対化行列算出部は、前記類似度行列に基づいて前記相対化行列を算出する、
    を備える請求項1に記載の算出装置。
  3. 前記相対化行列算出部は、類似度がより高い2つの選択肢に対し、類似度がより低い2つの選択肢と比較して評価をより高める前記相対化行列を算出する請求項2に記載の算出装置。
  4. 前記類似度行列算出部は、前記複数の選択肢のそれぞれ同士について、第1選択肢の前記特徴ベクトに定数行列および第2選択肢の前記特徴ベクトルの転置を順次乗じた結果に基づいて、前記類似度行列を算出する請求項2または3に記載の算出装置。
  5. 前記相対化行列算出部は、単位行列に前記類似度行列を加えた行列の逆行列を前記類似度行列に乗じた結果に基づいて、前記相対化行列を算出する請求項2から4のいずれか一項に記載の算出装置。
  6. 前記絶対評価算出部は、各特徴量を重み付ける重みベクトルを各選択肢に対する前記特徴ベクトルに乗じた結果に基づいて前記絶対評価ベクトルを算出する請求項1から5のいずれか一項に記載の算出装置。
  7. 前記絶対評価算出部は、各特徴量を重み付ける前記重みベクトルを各選択肢に対する前記特徴ベクトルに乗じて各要素にバイアスを加えた結果に基づいて、前記絶対評価ベクトルを算出する請求項6に記載の算出装置。
  8. 前記相対評価ベクトルにおける各選択肢の相対評価に基づいて、各選択肢が選択される選択確率を推定する推定部を更に備える請求項1から7のいずれか一項に記載の算出装置。
  9. 前記相対評価算出部は、予め定められた選択肢を含み、他の選択肢の組み合わせが異なる複数の選択肢セットのそれぞれについて、前記予め定められた選択肢の相対評価を算出し、
    前記予め定められた選択肢の相対評価に基づいて前記選択肢セットを選択して、当該予め定められた選択肢と共に提示する他の選択肢の組み合わせを決定する決定部
    を更に備える請求項1から8のいずれか一項に記載の算出装置。
  10. 請求項1から9のいずれか一項に記載の算出装置のパラメータを学習する学習装置であって、
    前記複数の選択肢のそれぞれの前記特徴ベクトルと、前記複数の選択肢の中から選択者によって選択された選択肢を示す選択情報とを含む学習データを取得する学習データ取得部と、
    前記特徴ベクトルから前記絶対評価ベクトルへと変換するための変換パラメータを調整して、前記相対評価ベクトルにおける前記選択情報により示された選択肢の相対評価をより高める学習処理部と、
    を備える学習装置。
  11. 前記学習データ取得部は、複数の選択肢セットの前記複数の選択肢に対する前記学習データを取得し、
    前記学習処理部は、前記選択肢セットの各々に対する前記相対評価ベクトルにおける対応する前記選択情報により示された選択肢の相対評価に基づく値を複数の選択肢セットについて合計した合計値をより高めるように、前記特徴ベクトルから前記絶対評価ベクトルへと変換するための変換パラメータを調整する
    請求項10に記載の学習装置。
  12. 前記絶対評価ベクトルは、各特徴量を重み付ける重みベクトルを前記特徴ベクトルに乗じた結果に基づいて算出され、
    前記学習処理部は、前記変換パラメータとして、前記重みベクトルを調整する
    請求項10または11に記載の学習装置。
  13. 前記絶対評価ベクトルは、前記重みベクトルを各選択肢に対する特徴ベクトルに乗じて各要素にバイアスを加えた結果に基づいて算出され、
    前記学習処理部は、前記変換パラメータとして、前記重みベクトルおよび前記バイアスを調整する
    請求項12に記載の学習装置。
  14. 前記学習処理部は、前記相対化行列を定める相対化パラメータを更に調整する請求項12または13に記載の学習装置。
  15. 前記相対化行列は、前記複数の選択肢同士の間の類似度を表す類似度行列に基づいて算出され、
    前記類似度行列は、前記相対化パラメータとして、前記複数の選択肢のそれぞれ同士について、第1選択肢の前記特徴ベクトに定数行列および第2選択肢の前記特徴ベクトルの転置を順次を乗じた結果に基づくものであり、
    前記学習処理部は、前記定数行列を調整する
    請求項14に記載の学習装置。
  16. 前記学習処理部は、前記変換パラメータを固定した状態で前記相対化パラメータを学習し、前記相対化パラメータを固定した状態で前記変換パラメータを学習する請求項14または15に記載の学習装置。
  17. コンピュータにより実行される選択肢の相対評価を算出する算出方法であって、
    複数の選択肢セットのそれぞれに含まれる複数の選択肢のそれぞれに対応する特徴ベクトルを取得する特徴ベクトル取得段階と、
    それぞれの選択肢に対応する前記特徴ベクトルに基づいて、前記複数の選択肢の組み合わせに依存しない選択肢自体の絶対評価を表す絶対評価ベクトルを算出する絶対評価算出段階と、
    前記選択肢セットで前記複数の選択肢が提示された場合における、前記複数の選択肢のそれぞれ同士の間での相対的な評価の変換を表す相対化行列を算出する相対化行列算出段階と、
    前記相対化行列に前記絶対評価ベクトルを乗じた結果に基づいて、前記複数の選択肢が提示された場合における各選択肢の相対評価を表す相対評価ベクトルを算出する相対評価算出段階と、
    を備える算出方法。
  18. コンピュータにより実行される、請求項17に記載の算出方法に用いるパラメータを学習する学習方法であって、
    前記複数の選択肢のそれぞれの前記特徴ベクトルと、前記複数の選択肢の中から選択者によって選択された選択肢を示す選択情報とを含む学習データを前記選択肢の組ごとに取得する学習データ取得段階と、
    前記特徴ベクトルから前記絶対評価ベクトルへと変換するための変換パラメータを調整して、前記相対評価ベクトルにおける前記選択情報により示された選択肢の相対評価をより高める学習処理段階と、
    を備える学習方法。
  19. コンピュータを請求項1から9のいずれか1項に記載の算出装置として機能させるプログラム。
  20. コンピュータを請求項10から16のいずれか1項に記載の学習装置として機能させるプログラム。
JP2014235353A 2014-11-20 2014-11-20 算出装置、算出方法、学習装置、学習方法、及びプログラム Active JP6443858B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014235353A JP6443858B2 (ja) 2014-11-20 2014-11-20 算出装置、算出方法、学習装置、学習方法、及びプログラム
US14/947,031 US10380502B2 (en) 2014-11-20 2015-11-20 Calculation apparatus, calculation method, learning apparatus, learning method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014235353A JP6443858B2 (ja) 2014-11-20 2014-11-20 算出装置、算出方法、学習装置、学習方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016099764A JP2016099764A (ja) 2016-05-30
JP6443858B2 true JP6443858B2 (ja) 2018-12-26

Family

ID=56010582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014235353A Active JP6443858B2 (ja) 2014-11-20 2014-11-20 算出装置、算出方法、学習装置、学習方法、及びプログラム

Country Status (2)

Country Link
US (1) US10380502B2 (ja)
JP (1) JP6443858B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10255323B1 (en) * 2015-08-31 2019-04-09 Google Llc Quantization-based fast inner product search
US10719509B2 (en) 2016-10-11 2020-07-21 Google Llc Hierarchical quantization for fast inner product search
US11182804B2 (en) 2016-11-17 2021-11-23 Adobe Inc. Segment valuation in a digital medium environment
KR101853091B1 (ko) * 2017-05-19 2018-04-27 (주)뤼이드 기계학습이 적용된 사용자 답변 예측 프레임워크를 통한 개인 맞춤형 교육 컨텐츠 제공 방법, 장치 및 컴퓨터 프로그램
US11392596B2 (en) 2018-05-14 2022-07-19 Google Llc Efficient inner product operations
WO2019239544A1 (ja) * 2018-06-14 2019-12-19 日本電気株式会社 表示形式決定装置、表示形式決定方法および記録媒体
CN109299435A (zh) * 2018-09-14 2019-02-01 华泰证券股份有限公司 基于关系矩阵的金融活动参与主体价值评估的方法
CN109740113B (zh) * 2018-12-03 2023-10-03 东软集团股份有限公司 超参数阈值范围确定方法、装置、存储介质及电子设备
CN109993409A (zh) * 2019-03-01 2019-07-09 北京农业智能装备技术研究中心 农机手作业水平评价方法及装置
CN111784377A (zh) * 2019-04-25 2020-10-16 北京京东尚科信息技术有限公司 用于生成信息的方法和装置
CN113361853B (zh) * 2021-04-28 2022-12-06 合肥工业大学 新共识模型的卫星应急任务规划方案效能评估方法及系统
CN113626769B (zh) * 2021-10-12 2022-01-21 中国人民解放军国防科技大学 面向向量处理器的低位宽数据矩阵向量化转置方法及系统
JP7304475B1 (ja) 2022-07-11 2023-07-06 アクタピオ,インコーポレイテッド 情報処理方法、情報処理装置および情報処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284470A (ja) 2004-03-29 2005-10-13 Toyota Motor Corp 商品毎のシェア予測装置と予測方法とそのためのプログラム
JP5266868B2 (ja) 2008-05-15 2013-08-21 トヨタ自動車株式会社 商品情報分析支援装置及び商品情報分析支援プログラム
JP2011065504A (ja) 2009-09-18 2011-03-31 Tokyo Univ Of Science ユーザの選好関係についての予測モデルを生成する選好予測サーバ及びその方法
JP2012242848A (ja) 2011-05-13 2012-12-10 Nec Corp 支援モデル作成装置、支援モデル作成方法、及びプログラム
JP5775425B2 (ja) 2011-11-18 2015-09-09 日本電信電話株式会社 購買データ解析装置、方法、及びプログラム
JP5612645B2 (ja) * 2012-09-06 2014-10-22 東芝テック株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
US20160148120A1 (en) 2016-05-26
JP2016099764A (ja) 2016-05-30
US10380502B2 (en) 2019-08-13

Similar Documents

Publication Publication Date Title
JP6443858B2 (ja) 算出装置、算出方法、学習装置、学習方法、及びプログラム
US11232152B2 (en) Efficient processing of neighborhood data
US10489688B2 (en) Personalized digital image aesthetics in a digital medium environment
US11501204B2 (en) Predicting a consumer selection preference based on estimated preference and environmental dependence
US20190340533A1 (en) Systems and methods for preparing data for use by machine learning algorithms
US8589317B2 (en) Human-assisted training of automated classifiers
CN103502899B (zh) 动态预测建模平台
US20210103858A1 (en) Method and system for model auto-selection using an ensemble of machine learning models
US20210150412A1 (en) Systems and methods for automated machine learning
JP5984147B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20220391783A1 (en) Stochastic demand model ensemble
JP5963320B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6516406B2 (ja) 処理装置、処理方法、およびプログラム
US20160171365A1 (en) Consumer preferences forecasting and trends finding
US9053434B2 (en) Determining an obverse weight
JP6366031B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN112991026A (zh) 一种商品推荐方法、系统、设备及计算机可读存储介质
JP5950284B2 (ja) 処理装置、処理方法、およびプログラム
KR102539662B1 (ko) 농산물 가격의 예측을 지원하는 전자 장치 및 그 제어 방법
US11804214B2 (en) Methods and apparatuses for discriminative pre-training for low resource title compression
JP2021077206A (ja) 学習方法、評価装置、及び評価システム
CN116992158B (zh) 资源配置的推荐方法和装置、存储介质及电子装置
KR102545414B1 (ko) 소싱 대행 업체 선정 방법
US20230245196A1 (en) Systems and methods for generating a consideration intent classification for an event
CN117236850A (zh) 一种补货数据的控制方法、装置、设备、存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180807

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20180808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20181031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181120

R150 Certificate of patent or registration of utility model

Ref document number: 6443858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150