JPWO2017168865A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JPWO2017168865A1
JPWO2017168865A1 JP2018508386A JP2018508386A JPWO2017168865A1 JP WO2017168865 A1 JPWO2017168865 A1 JP WO2017168865A1 JP 2018508386 A JP2018508386 A JP 2018508386A JP 2018508386 A JP2018508386 A JP 2018508386A JP WO2017168865 A1 JPWO2017168865 A1 JP WO2017168865A1
Authority
JP
Japan
Prior art keywords
data set
data
input
value
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018508386A
Other languages
English (en)
Other versions
JP7006585B2 (ja
Inventor
井手 直紀
直紀 井手
愉希夫 大渕
愉希夫 大渕
由幸 小林
由幸 小林
啓 福井
啓 福井
慎吾 高松
慎吾 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017168865A1 publication Critical patent/JPWO2017168865A1/ja
Application granted granted Critical
Publication of JP7006585B2 publication Critical patent/JP7006585B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】機械学習により構築されたモデルによる演算結果の妥当性を示す情報を提供することが可能な仕組みを提供する。
【解決手段】入力データ及び前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得する第1の取得部と、前記第1のデータセットと同一の項目を有する第2のデータセットをひとつ以上取得する第2の取得部と、前記第2のデータセットとの関係における前記第1のデータセットの位置付けを示す情報を生成する生成部と、を備える情報処理装置。
【選択図】図6

Description

本開示は、情報処理装置及び情報処理方法に関する。
近年、機械学習により構築されたモデルを用いて予測又は認識等の演算を行う技術が広く用いられている。例えば、下記特許文献1では、実サービスを継続しながら、過去データへの影響度合いをある程度確認しつつ、機械学習により分類モデルを改善する技術が開示されている。
特開2014−92878号公報
しかし、機械学習により構築されたモデルを用いた演算結果の妥当性を人が理解することが困難な場合あった。そのため、例えば事前の学習に用いられたデータセットが適切であること、オーバーフィット及びアンダーフィット等の不適切な学習が行われていないこと等をもって、演算結果の妥当性を間接的に納得することが強いられてきた。そこで、機械学習により構築されたモデルによる演算結果の妥当性を示す情報を提供することが可能な仕組みが提供されることが望ましい。
本開示によれば、入力データ及び前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得する第1の取得部と、前記第1のデータセットと同一の項目を有する第2のデータセットをひとつ以上取得する第2の取得部と、前記第2のデータセットとの関係における前記第1のデータセットの位置付けを示す情報を生成する生成部と、を備える情報処理装置が提供される。
また、本開示によれば、入力データを他の装置へ通知する通知部と、前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットと同一の項目を有する第2のデータセットとの関係における、前記第1のデータセットの位置付けを示す情報を前記他の装置から取得する取得部と、を備える情報処理装置が提供される。
また、本開示によれば、入力データ及び前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得することと、前記第1のデータセットと同一の項目を有する第2のデータセットをひとつ以上取得することと、前記第2のデータセットとの関係における前記第1のデータセットの位置付けを示す情報をプロセッサにより生成することと、を含む情報処理方法が提供される。
また、本開示によれば、入力データを他の装置へ通知することと、前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットと同一の項目を有する第2のデータセットとの関係における、前記第1のデータセットの位置付けを示す情報を前記他の装置からプロセッサにより取得することと、を含む情報処理方法が提供される。
以上説明したように本開示によれば、機械学習により構築されたモデルによる演算結果の妥当性を示す情報を提供することが可能な仕組みが提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係るシステムの概略的な構成の一例を示す図である。 同実施形態に係る処理装置の論理的な構成の一例を示すブロック図である。 同実施形態に係る端末装置の論理的な構成の一例を示すブロック図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るシステムにおいて実行されるニューラルネットの応答の可視化処理の流れの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係るUIの一例を示す図である。 同実施形態に係る芸術作品の評価処理を説明するための図である。 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.はじめに
1.1.技術的課題
1.2.ニューラルネット
2.構成例
2.1.システムの構成例
2.2.処理装置の構成例
2.3.端末装置の構成例
3.技術的特徴
3.1.概要
3.2.第1の方法
3.3.第2の方法
3.4.処理の流れ
4.アプリケーション例
5.ハードウェア構成例
6.まとめ
<<1.はじめに>>
<1.1.技術的課題>
従来の機械学習の枠組みでは、特徴量の設計、即ち認識又は予測(即ち、回帰)等の演算に必要となる値の計算方法の設計が、人によるデータの分析、考察、経験則の取り込みなどを用いてなされていた。これに対し、ディープラーニングでは、特徴量の設計をニューラルネットの関数に任せる。この違いにより、近年、ディープラーニングを用いた技術は、他の機械学習を用いた技術を圧倒するようになってきている。
ニューラルネットは、任意の関数を近似することができることが知られている。ディープラーニングでは、この万能近似の特性を生かすことで、データから特徴量への変換処理の設計と、特徴量から認識又は予測等を行う演算処理までの一連の処理とを、区別することなく一通り(End-To-End)で行なうことが可能である。また、ディープラーニングでは、特徴量への変換処理、及び認識又は予測等の演算処理に関し、人が理解できる範囲内で設計すること、という表現能力の制約から解放された。このような表現能力の飛躍的向上により、ディープラーニングでは、人の経験又は知識では分からない、分析しきれない、又は見つけ出せない特徴量なども、自動で構築することが可能になった。
一方で、ニューラルネットでは、入力データから演算結果が得られるまでの過程が写像関数として学習されるものの、この写像関数は人が理解することが容易でない形となっている場合がある。従って、演算結果が正しいことの納得感を人に与えることが困難な場合があった。
例えば、マンション(Apartment)の中古物件の不動産価格算定を、ディープラーニングを用いて行うことが考えられる。この場合、例えば、物件の「床面積」「階数」「駅からの徒歩所要時間」「築年数」「同棟別部屋の直近の成約価格」等の多次元ベクトルが入力データであり、物件の「査定価格」が出力データとなる。事前に収集されたデータセットにおける入出力データの関係(即ち、写像関数)を学習することで、学習後のニューラルネットは、新たな入力データに対応する出力データを計算可能となる。例えば、上述した不動産価格算定の例において、ニューラルネットは、学習時と同様の項目(例えば、「床面積」等)を有する入力データが入力されると、対応する「査定価格」を計算可能である。
しかしながら、この出力データが妥当な演算を経て導かれたのか否かは、出力データからだけでは納得し難い。そこで、事前の学習に用いられたデータセットが適切であること、オーバーフィット及びアンダーフィット等の不適切な学習が行われていないことをもって、演算の妥当性を間接的に納得することが強いられてきた。
そこで、本開示の一実施形態では、ニューラルネットによる演算結果がどのように導かれたのかを、直接的に知るための情報を提供することが可能な技術を提供する。
<1.2.ニューラルネット>
・概要
ニューラルネットに限らず、一般に、認識又は予測(即ち、回帰)技術では、データ変数xを目的変数y(例えば、ラベル、回帰値又は予測値)に写像する関数は、次式で表される。
Figure 2017168865
ただし、x及びyの各々は、多次元(例えば、xはD次元、yはK次元)ベクトルであってもよい。また、fはyの次元ごとに定められる関数である。認識又は回帰問題において、この関数fを求めることは、ニューラルネット又はディープラーニングに限らず、機械学習の分野では一般的である。
例えば、線形回帰問題では、次式のように、回帰を入力に対する線形応答の形式をとると仮定される。
Figure 2017168865
ここで、A及びbは、入力xに依存しない行列又はベクトルである。このA及びbの各成分を、上記数式(2)に示したモデルのパラメータとも捉えることができる。この形式で表現されたモデルでは、計算結果を容易に説明することが可能である。例えば、K=1としyはスカラー値yであるものとすると、Aは1×Dの行列で表現される。そこで、Aの各成分の値をwj=a1jとすると、上記数式(2)は次式に変換される。
Figure 2017168865
上記数式によれば、yは、入力xを重み付けして加算したものである。このように、写像関数が単なる重み付け加算であれば、写像関数の中身を人が理解できるように説明することは容易である。このことは、詳細な説明は省略するものの、分類問題でも同様である。
続いて、入力に対して何らかの非線形変換(ただし、非線形変換の中に線形変換が含まれていてもよい)を施す例を考える。この非線形変換により得られるベクトルは、特徴量ベクトルと呼ばれる。仮に、この非線形変換が既知であれば、その非線形変換の関数(以下、非線形関数とも称する)を用いて、回帰式は次式のように表される。
Figure 2017168865
ここで、φ(x)は、特徴量ベクトルを求めるための非線形関数であり、例えば、M次元のベクトルを出力する関数である。例えば、K=1としyはスカラー値yであるものとすると、Aは1×Mの行列で表現される。そこで、Aの各成分の値をwj=a1jとすると、上記数式(4)は次式に変換される。
Figure 2017168865
上記数式によれば、yは、各次元の特徴量を重み付けして加算したものである。この写像関数も、写像関数は既知の特徴量の重み付け加算であるから、写像関数の中身を人が理解できるように説明することは容易であると言える。
ここで、モデルパラメータA及びbは、学習により得られる。詳しくは、モデルパラメータA及びbは、予め与えられたデータセットにおいて、上記数式(1)が成り立つように学習される。データセットを、ここでは一例として(x,y)とし、n=1,…,Nとする。この場合、学習とは、与えられた全てのデータセットにおける、予測値f(x)と実際の値yとの差が小さくなるような、重みwを求めることを指す。この差は、例えば次式で示す二乗誤差の和であってもよい。
Figure 2017168865
差を表す関数Lは、単なる二乗誤差和であってもよいし、次元別の重みを付した重み付き二乗誤差和であってもよいし、パラメータに関数制約を表現した制約項(例えば、L1制約又はL2制約等)を含む二乗誤差和であってもよい。他にも、差を表す関数Lは、バイナリクロスエントロピー、カテゴリカルエントロピー、対数尤度、又は変分下界のような、出力の予測値f(x)が実際の値yをどれだけ正しく予測したのかを表す指標であれば、任意の関数であってもよい。なお、学習以外にも、モデルパラメータA及びbは、人により設計されてもよい。
学習により得られるモデルパラメータA及びbは、人により設計される場合と比較して、きりの良い値ではない場合がある。しかし、どの次元にどの重み(即ち、寄与)が設定されているかを知ることは容易であるので、本モデルも人が理解可能な範囲であると言える。
ところで、このように人間が理解可能に設計されたモデルを作る場合、モデルが表現できるデータのバリエーションが限られてくる。このため、実際のデータを十分に表現できない、即ち十分な予測が困難である場合が多い。
そこで、モデルが表現できるデータのバリエーションを増やすには、これまで経験や既知の知識を使って設計されてきた非線形変換による特徴量の部分も、学習により得られることが望ましい。そのためには、ニューラルネットによる特徴量関数の近似が有効である。ニューラルネットは、合成関数を表すために適したモデルである。そこで、ニューラルネットで、特徴量変換の部分とその後の処理の合成関数とを表すことを考える。すると、既知の非線形変換による特徴量変換という部分も、学習に任せることが可能となり、設計の制約による表現力不足を回避することができる。
ニューラルネットは、次式で示すように、入力の線形結合と、非線形結合値の非線形関数(Activation)による出力を、層状につなぎ合わせた合成関数で構成される。
Figure 2017168865
Figure 2017168865
ここで、A(l)及びベクトルb(l)は、それぞれ第l層の線形結合の重み及びバイアスである。また、f(l+1)は、第l+1層の非線形(Activation)関数を組み合わせたベクトルである。ベクトル又は行列になっているのは、各層の入出力が多次元であるからである。以降では、ニューラルネットのパラメータとは、A(l)及びb(l)、l=0,・・・,L−1を指すものとする。
・目的関数
ニューラルネットにおいては、予め与えられたデータセットにおいて、上記数式(8)が成り立つようにパラメータが学習される。データセットを、ここでは一例として(x,y)とし、n=1,…,Nとする。この場合、学習とは、与えられた全てのデータセットにおける、予測値f(x)と実際の値yとの差が小さくなるようなパラメータを求めることを指す。この差は、例えば次式で表される。
Figure 2017168865
ここで、l(y,f(x))は、予測値f(x)と実際の値yとの距離を表す関数である。また、θは、fに含まれるパラメータA(l)及びb(l)、l=0,・・・,L−1をまとめたものである。L(θ)は、目的関数とも称される。仮に、次式が成り立つ場合、目的関数L(θ)は、二乗誤差関数である。
Figure 2017168865
目的関数は、二乗誤差和以外であってもよく、例えば重み付二乗誤差、正則化二乗誤差、バイナリクロスエントロピー、又はカテゴリカルクロスエントロピー等であってもよい。どのような目的化関数が適切であるかは、データ形式、又はタスク(例えば、yは離散値(分類問題)か連続値(回帰問題)か)等に依存する。
・学習
学習は、目的関数L(θ)を最小化することにより行われる。そのためには、例えばパラメータθに関する勾配を用いる方法が用いられ得る。その一例である確率的勾配方法では、次式に従ってパラメータが逐次更新されながら、目的関数L(θ)を最小化するパラメータθが繰り返し探索される。
Figure 2017168865
ここで、NからNb+1までの範囲で勾配を加算する処理は、ミニバッチとも称される。この方法を拡張した、AdaGrad、RMProp、又はAdaM等の方法が、学習に用いられることも多い。これらの方法では、勾配の分散を用いて、スケール依存性をなくしたり勾配δl/δθの二次モーメント又は移動平均等を用いたりすることで、過剰な応答を回避する等が行われる。
ニューラルネットでは、合成関数の規則を利用することで、目的関数の勾配が次式のように漸化式として求められる。
Figure 2017168865
勾配を漸化式で求める処理は、バックプロパゲーションとも呼ばれる。勾配が漸化式により容易に求められるので、これらの勾配を用いて数式(11)又はその派生版の勾配法を用いて、パラメータを逐次的に推定することができる。
・ニューラルネットの各層の構成
ニューラルネットの各層は、様々な構成がとられ得る。ニューラルネットの各層の主要な構成は、線形結合の構成と非線形関数の種類により定まる。線形結合の構成には、主として、全結合ネットワーク、又はコンボリューショナル(畳込み)ネットワーク等がある。一方で、非線形結合関数には、新しい関数が次々と提唱されている。その一例として、次式に示すシグモイドがある。
Figure 2017168865
上記数式(13)は、(-∞、∞)の入力を[0,1]の出力に変換する非線形写像である。シグモイドの派生としては、次式に示すTanhがある。
Figure 2017168865
また、次式に示すRelu(Rectified,LinearUnit)は、近年よく使われる活性関数である。
Figure 2017168865
また、次式に示すSoftmax及びSoftplus等もよく知られる。
Figure 2017168865
このように、合成関数を用いることにより表現能力が増したニューラルネットでは、多数のデータを含むデータセットを用いて写像関数を学習する。このため、ニューラルネットは、従来では人手を介して行われてきた特徴量のデザインを行うことなく、高精度の認識又は予測を実現することが可能である。
<<2.構成例>>
<2.1.システムの構成例>
図1は、本開示の一実施形態に係るシステムの概略的な構成の一例を示す図である。図1に示すように、システム1は、処理装置100及び端末装置200を含む。
処理装置100及び端末装置200は、ネットワーク300により接続される。ネットワーク300は、ネットワーク300により接続されている装置から送信される情報の有線又は無線の伝送路である。ネットワーク300は、例えばセルラーネットワーク、有線LAN(Local Area Network)、又は無線LAN等を含み得る。
処理装置100は、各種処理を行う情報処理装置である。端末装置200は、ユーザとのインタフェースとして機能する情報処理装置である。典型的には、システム1は、処理装置100及び端末装置200の協働により、ユーザとのインタラクションを行う。
続いて、図2及び図3を参照して、各装置の構成例を説明する。
<2.2.処理装置の構成例>
図2は、本実施形態に係る処理装置100の論理的な構成の一例を示すブロック図である。図2に示すように、処理装置100は、通信部110、記憶部120及び制御部130を含む。
(1)通信部110
通信部110は、情報を送受信する機能を有する。例えば、通信部110は、端末装置200からの情報を受信し、端末装置200への情報を送信する。
(2)記憶部120
記憶部120は、処理装置100の動作のためのプログラム及び様々なデータを一時的に又は恒久的に記憶する。
(3)制御部130
制御部130は、処理装置100の様々な機能を提供する。制御部130は、第1の取得部131、第2の取得部132、演算部133、生成部134及び通知部135を含む。なお、制御部130は、これらの構成要素以外の他の構成要素をさらに含み得る。即ち、制御部130は、これらの構成要素の動作以外の動作も行い得る。
各構成要素の動作を簡易に説明する。第1の取得部131及び第2の取得部132は、情報を取得する。演算部133は、後述するニューラルネットの各種演算及び学習を行う。生成部134は、演算部133による演算又は学習結果を示す情報を生成する。通知部135は、生成部134により生成された情報を端末装置200に通知する。その他の詳細な動作は、後に詳しく説明する。
<2.3.端末装置の構成例>
図3は、本実施形態に係る端末装置200の論理的な構成の一例を示すブロック図である。図3に示すように、端末装置200は、入力部210、出力部220、通信部230、記憶部240及び制御部250を含む。
(1)入力部210
入力部210は、情報の入力を受け付ける機能を有する。例えば、入力部210は、ユーザからの情報の入力を受け付ける。入力部210は、例えばキーボード又はタッチパネル等による文字入力を受け付けてもよいし、音声入力を受け付けてもよいし、ジェスチャ入力を受け付けてもよい。その他、入力部210は、フラッシュメモリ等の記憶媒体からのデータ入力を受け付けてもよい。
(2)出力部220
出力部220は、情報の出力を行う機能を有する。例えば、出力部220は、画像、音声、振動、又は発光等により情報を出力する。
(3)通信部230
通信部230は、情報を送受信する機能を有する。例えば、通信部230は、処理装置100からの情報を受信し、処理装置100への情報を送信する。
(4)記憶部240
記憶部240は、端末装置200の動作のためのプログラム及び様々なデータを一時的に又は恒久的に記憶する。
(5)制御部250
制御部250は、端末装置200の様々な機能を提供する。制御部250は、通知部251及び取得部253を含む。なお、制御部250は、これらの構成要素以外の他の構成要素をさらに含み得る。即ち、制御部250は、これらの構成要素の動作以外の動作も行い得る。
各構成要素の動作を簡易に説明する。通知部251は、入力部210に入力されたユーザ入力を示す情報を処理装置100に通知する。取得部253は、処理装置100による演算結果を示す情報を取得して、出力部220により出力させる。その他の詳細な動作は、後に詳しく説明する。
<<3.技術的特徴>>
続いて、本実施形態に係るシステム1の技術的特徴を説明する。
<3.1.概要>
システム1(例えば、演算部133)は、ニューラルネットに関する各種演算を行う。例えば、演算部133は、ニューラルネットのパラメータの学習、及びニューラルネットに入力データを入力して演算を行い、出力データを出力する。入力データにはひとつ以上の入力項目の各々の値(以下、入力値とも称する)が含まれ、入力値の各々はニューラルネットの入力層の対応するユニットに入力される。同様に、出力データにはひとつ以上の出力項目の各々の値(以下、出力値とも称する)が含まれ、出力値の各々はニューラルネットの出力層の対応するユニットから出力される。
本実施形態に係るシステム1は、ニューラルネットの入出力の応答関係を示す情報を可視化して提供する。入出力の応答関係を示す情報の可視化により、ニューラルネットの演算結果の根拠が示される。よって、ユーザは、自身が有する事前知識と照らし合わせて、演算結果の妥当性を直接的に納得することが可能となる。そのために、システム1は、下記の2種類のニューラルネットの演算を行い、演算結果を提供する。
第1の方法として、システム1は、入力値に擾乱を加えて、その結果、出力値がどのように変わるかを示す情報を可視化して提供する。具体的には、システム1は、多次元の入力データに対する出力値の、多次元の入力データの一部の入力値を固定してその他の入力値を変動させた(即ち、擾乱を加えた)場合の出力値の分布の中の位置付けを示す情報を提供する。これにより、ユーザは、出力値の位置付けを把握することが可能となる。
第2の方法として、システム1は、出力値の誤差をバックプロパゲーションさせて、入力値の分布を示す情報を可視化して提供する。具体的には、システム1は、入力値の出力値への寄与度を示す情報を提供する。これにより、ユーザは、入力値の位置付けを把握することが可能となる。
他にも、システム1は、ニューラルネットの応答関係を示す計算式又は統計的な処理結果(例えば、グラフ等)を可視化して提供する。これにより、ユーザは、演算結果の妥当性をより詳細に理解することが可能となる。
第1の方法に関しては、システム1は、数式(1)における入力値xに擾乱rを加えた場合の出力値yの応答を可視化する。この応答は、次式のように表現される。
Figure 2017168865
ここで、rはk軸での擾乱の値である。また、eはk軸の単位ベクトルである。
第2の方法に関しては、システム1は、数式(11)又は数式(12)における出力値yに擾乱δを加えた場合の入力値xの逆応答の寄与を可視化する。出力側からの微分を考慮する場合、システム1は、次式を用いてバックプロパゲーションにより各層への誤差を演算する。
Figure 2017168865
ここで、システム1は、上記数式(12)において次式とすることで、入力値そのものへの逆伝搬誤差も演算可能である。
Figure 2017168865
なお、この応答の可視化は、ニューラルネットへの入力とニューラルネットからの出力とに限定されない。例えば、中間層における入力に近い側のユニットへの入力と出力に近い側のユニットからの出力に関して、応答が可視化されてもよい。一般的には、出力に近い側では、カテゴリ等の人間が作り出した概念に近い特徴量が計算される。また、入力に近い側では、よりデータに近い概念に関連する特徴量が計算される。これらの間の応答が可視化されてもよい。
以上、ニューラルネットの応答の可視化の概要を説明した。以下、第1の方法及び第2の方法に関するUIの一例を具体的に説明する。一例として、最寄り駅からの徒歩所要時間、土地面積、築年数等の不動産の属性情報を入力データとして不動産価格を出力するニューラルネットを想定する。
<3.2.第1の方法>
・第1のデータセット
システム1(例えば、第1の取得部131)は、入力データ及び当該入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得する。例えば、不動産の属性情報が入力データに相当し、出力データが不動産価格に相当する。
・第2のデータセット
システム1(例えば、第2の取得部132)は、第1のデータセットと値が同一の項目を有する第2のデータセットをひとつ以上取得する。第2のデータセットは、第1のデータセットと同一の値の項目を有し、出力データに対応する項目を有する。例えば、第2のデータセットは、第1のデータセットと同様に、不動産の属性情報と不動産価格との組み合わせから成る。そして、例えば属性情報のうち一部が、第1のデータセットと同一である。
とりわけ、第1の方法においては、第2のデータセットは、入力データに含まれる項目のうち第1の項目の値が第1のデータセットと異なり、他の第2の項目の値が第1のデータセットと同一であってもよい。例えば、第1の項目は、応答の可視化の対象である入力項目に相当し、第2の項目は、応答の可視化の対象でない入力項目に相当する。例えば、応答の可視化の対象が築年数であった場合、入力項目のうち築年数のみが異なりその他は同一である第2のデータセットが取得される。言い換えれば、第2のデータセットは、上記数式(17)により表現される、応答の可視化の対象である入力項目の値に擾乱を加えた場合のデータセットに相当する。これにより、第2のデータセットが、応答関係をユーザに提供するための適切なデータセットとなる。
第2のデータセットは、過去に実際に観測されたデータセットに基づいて学習されたニューラルネットにより生成されたデータセットを含む。具体的には、システム1(例えば、演算部133)は、上記数式(17)を用いて、入力ユニット側の可視化の対象である入力項目に擾乱を加えた場合の出力データを演算して、第2のデータセットを生成する。例えば、応答可視化の対象である入力項目の値が第1のデータセットと異なり、他の入力項目の値が第1のデータセットと同一である、という上述した条件を満たす実データを十分な数取得することが困難な場合がある。そのような場合に、ニューラルネットによるデータセットの生成により、データ数の不足を補うことが可能となる。
第2のデータセットは、過去に実際に観測されたデータセットを含んでいてもよい。例えば、システム1は、過去に売買された不動産の属性情報及び価格の実データを蓄積するデータベース(例えば、記憶部120)から、第2のデータセットを取得する。この場合、第2のデータセットは、ニューラルネットの学習に用いられた学習データであってもよい。
・位置付けを示す情報の生成
システム1(例えば、生成部134)は、第2のデータセットとの関係における第1のデータセットの位置付けを示す情報を生成する。生成された位置付けを示す情報は、例えば端末装置200によりユーザに提供される。これにより、ニューラルネットの演算結果の根拠をユーザに提供することが可能となる。
・基本的なUI例
第1の方法においては、位置付けを示す情報は、第1のデータセット及び第2のデータセットの、応答の可視化の対象である入力項目(第1の項目に相当)の値と出力データに対応する項目の値との関係を示す。これにより、例えば築年数が不動産価格にどのような影響を与えるか、という応答関係を明確にユーザに提供することが可能となる。以下、図4〜図6を参照して、第1の方法に係るUI(User Interface)の一例を説明する。なお、UIは、例えば端末装置200により表示され、情報の入力を受け付ける。他のUIに関しても同様である。
図4は、本実施形態に係るUIの一例を示す図である。図4に示したように、UI410では、入力された不動産の属性情報の一覧及びニューラルネットから出力された不動産価格が提供される。しかしながら、これらだけでは、不動産価格が妥当であるか否か、及び不動産価格の計算過程が妥当であるか否かを判別することは困難である。そこで、システム1は、以下に説明するUIにより、出力された不動産価格の妥当性の根拠を示す情報をユーザに提供する。
図5は、本実施形態に係るUIの一例を示す図である。図5に示したUI420により、ユーザは、応答の可視化の条件を設定することが可能である。例えば、ユーザは、ボタン421を押下することで、可視化の対象とする入力項目を選択することができる。なお、「入力1」〜「入力3」の各々は、不動産の属性情報の各々に対応する。また、ユーザは、入力フォーム422に、入力値の変化範囲を設定することができる。この範囲は、上述した擾乱の幅に対応する。また、ユーザは、ボタン423を押下することで、可視化の対象とする出力項目を選択することができる。本例では出力データに含まれる出力項目は不動産価格ひとつであるから複数の選択肢は提供されていないが、出力項目が複数である場合は複数の選択肢が提供されてもよい。第1のデータセットにおける可視化の対象とする入力項目の入力値を、対象入力値とも称する。また、第1のデータセットにおける可視化の対象とする出力項目の出力値を、対象出力値とも称する。
なお、図5では、入力項目の選択がボタン421の押下により行われる例を示したが、本技術はかかる例に限定されない。例えば、入力項目の選択は、リストからの選択により行われてもよいし、ラジオボタンからの選択により行われてもよい。
図6は、本実施形態に係るUIの一例を示す図である。図6に示したUI430により、入力値に擾乱を加えた場合の出力値の応答がグラフにより可視化される。本グラフのX軸は入力値に相当し、Y軸は出力値に相当する。モデル出力曲線431は、指定された変化範囲内で仮想的に応答の可視化対象の入力値を変化させた場合の、ニューラルネットからの出力値の曲線を示している。即ち、モデル出力曲線431は、上記数式(17)により表される、ニューラルネットにより生成された第2のデータセットに相当する。また、実測データ432は、過去のデータのプロットである。即ち、実測データ432は、過去に実際に観測された第2のデータセットに相当する。試算データ433は、UI410に示した、ユーザに入力された対象入力値及びニューラルネットから出力された対象出力値を示している。即ち、試算データ433は、第1のデータセットに相当する。モデル出力曲線431により、ユーザは、可視化の対象の入力項目に関して、実際に入力した対象入力値及び対象出力値のみならず、その周辺(詳しくは、指定された変化範囲内)の応答の様子を確認することが可能である。これにより、ユーザは、自身が有する事前知識と照らし合わせて、演算結果の妥当性を直接的に納得することが可能となる。
なお、プロットされる実測データ432の数は所定数であってもよく、モデル出力曲線431に近いデータのみプロットされてもよい。ここで、「近い」とは、入力空間における距離(例えば、ユーグリッド距離)が近いことを指し、中間層のひとつを入力とする場合には当該中間層における距離が近いことを指す。実測データ432のプロットとモデル出力曲線431との距離(例えば、二乗距離)が近い場合、ユーザはニューラルネットによる演算結果に納得することが可能となる。また、プロットされる実測データ432は、少なくとも試算データ433の入力値よりも値が大きいものと小さいものとの双方を含むことが望ましい。また、実測データ432のプロットと当該実測データ432の内容(例えば、データセットの全体)とがリンク付けされている場合、実測データ432のプロットが選択されると当該実測データ432の内容が提供されてもよい。
・応用UI例
システム1(例えば、生成部)は、ニューラルネットの中間層から選択された入力層のユニットへの入力値と選択された出力層のユニットからの出力値との応答関係を示す情報を生成してもよい。このことは、上記UI例において行った入力層と出力層との応答関係の可視化を、中間層において行うことを指す。これにより、ユーザは、中間層における応答関係を理解することが可能となり、その結果、ニューラルネットの演算結果の妥当性をより詳細に理解することが可能となる。また、例えば、特定の中間層において抽象的な概念が表現されていることが期待できる場合に、中間層における応答関係の可視化により、ユーザは当該概念を知得することが可能となる。
−グラフ
応答関係を示す情報は、グラフであってもよい。この場合のUI例を、図7を参照して説明する。
図7は、本実施形態に係るUIの一例を示す図である。図7に示したように、UI440は、UIブロック441、444及び447を含む。UIブロック441は、応答関係の可視化の対象とする中間層を選択するためのUIである。UIブロック441では、ニューラルネットの各層のユニット(矩形で表現されており、多次元ベクトルに相当する)とそれに接続する演算部分(層から層への射影関数を示す矢印に相当する)が提供されている。一例として、ユーザは、入力層として中間層442を選択し、出力層として中間層443を選択するものとする。このとき、例えば矩形の色、矩形の枠の線種、太さ、又は色等が変化して、どの層が入力層でどの層が出力層として選択されたかが明示されることの望ましい。
UIブロック444は、UIブロック441において選択された中間層442及び中間層443の中から、応答関係の可視化の対象とするユニット(即ち、次元)を選択するためのUIである。図7に示すように、UIブロック444では、各ユニットの入出力が矢印で図示され、その矢印が選択対象となってもよい。他にも、ユニット数が過度に多い場合には、UIブロック444は、例えばスライド入力又はユニット識別番号の入力を受け付けてもよい。一例として、ユーザは、中間層442からユニット445を選択し、中間層443からユニット446を選択するものとする。
UIブロック447は、UIブロック444において選択された入力ユニットと出力ユニットとの応答関係をグラフにより可視化するUIである。本グラフのX軸はユニット445への入力値に相当し、Y軸はユニット446からの出力値に相当する。UIブロック447のグラフに含まれる曲線は、図6に示したモデル出力曲線431と同様の手法により生成される。即ち、UIブロック447に含まれるグラフは、選択されたユニット445以外の入力ユニットへの入力値を固定して、選択されたユニット445への入力値を変化させて、ユニット446の応答をグラフ化したものである。選択されたユニット445以外の入力ユニットへの固定化された入力値とは、例えばニューラルネット自体への入力値を固定した場合に、演算の結果各入力ユニットに入力される値を指す。なお、本グラフにおいても、UI420において示したように、入力値の変化幅が入力可能であってもよい。また、本グラフにおいても、UI430と同様に、学習時に用いられた実測データがプロットされてもよい。プロットされる実測データの条件、及び実測データの内容の提供に関しても、UI430と同様であってもよい。
なお、UIブロック441、444、及び447は同一画面内で提供されてもよいし、順に遷移して提供されてもよい。このことは、複数のUIブロックを有する他のUIに関しても同様である。
−関数
応答関係を示す情報は、関数であってもよい。この場合のUI例を、図8及び図9を参照して説明する。
図8は、本実施形態に係るUIの一例を示す図である。図8に示したように、UI450は、UIブロック441、444及び451を含む、UI440のUIブロック447をUIブロック451に代えた構成を有する。なお、UI450においては、UI440とは異なり、中間層442から複数のユニット445A及び445Bが選択されてもよい。UIブロック451は、UIブロック444において選択されたユニット445A及び445Bと出力ユニットとの応答関係を関数により可視化するUIである。
ニューラルネットでは、入出力の応答関係は上記数式(8)で表現される。数式(8)は、学習によって得られたモデルパラメータA及びbによる線形結合、及び非線形アクティベーション関数fの合成関数である。しかし、この関数は膨大なパラメータで書かれており、通常、その意味を理解することは困難である。そこで、システム1(例えば、生成部134)は、選択されたユニット445A及び445Bを変数とし、ユニット445A及び445B以外の入力ユニットへの入力値を固定して変数の数を削減した関数を生成する。なお、選択されたユニット445A及び445B以外の入力ユニットへの固定化された入力値とは、例えばニューラルネット自体への入力値を固定した場合に、演算の結果各入力ユニットに入力される値を指す。そして、生成された関数は、UIブロック451において提供される。このように、システム1は、選択された入力ユニットを変数とする射影関数を、変数の数を削減した容易に理解可能な形式で提供する。これにより、ユーザは、ニューラルネットの部分的な応答を容易に理解することが可能となる。
この関数がユーザにとって理解することが困難である場合、図9に示すように近似関数が提供されてもよい。図9は、本実施形態に係るUIの一例を示す図である。図9に示したUI460は、UI450のUIブロック451をUIブロック461に代えた構成を有する。UIブロック461では、射影関数を、微分係数により線形近似した近似関数が提供される。これにより、ユーザは、ニューラルネットの部分的な応答をより容易に理解することが可能となる。
なお、UIブロック451又は461において、関数はテキスト形式で提供されてもよい。他にも、関数は、任意のプログラミング言語による記述として提供されてもよい。例えば、リストアップされたプログラミング言語からユーザが選択したプログラミング言語で、関数が記述されてもよい。また、UIブロック451又は461に提供された関数は、他の任意のアプリケーションへのコピーアンドペーストが可能であってもよい。
−ニューラルネットの設計補助
システム1(例えば、生成部)は、ニューラルネットの設計補助のためのUIを生成し、提供してもよい。
例えば、システム1は、出力層のユニットからの出力値に寄与しない入力層のユニットの除去を提案する情報を生成してもよい。例えば、UI460において、UIブロック461において提供された関数の入出力応答の係数がすべて0でバイアスも0である場合、ユニット446は、後段のネットワークには寄与していないので、除去されてもよい。その場合、システム1は、当該出力ユニットの除去を提案する情報を生成してもよい。そのUIの一例を、図10に示した。図10は、本実施形態に係るUIの一例を示す図である。図10に示したUI470は、UI460にUIブロック471を追加した構成を有する。UIブロック471には、後段に寄与しない出力ユニットの除去を提案するメッセージが含まれる。当該出力ユニットは、ユーザによりYESボタン472が選択されると除去され、NOボタン473が選択されると除去されない。なお、後段に寄与しない出力ユニットの除去は、自動で行われてもよい。
例えば、システム1は、特定の入力データに反応するユニットに関する情報を生成してもよい。例えば、システム1は、ある特定のカテゴリ(若しくはクラス)の入力データに反応するユニットを検出し、例えば「このユニットは、このカテゴリのデータに反応します」といったメッセージをユーザに提供してもよい。さらに、システム1は、当該ユニットに寄与する入力ユニットを再帰的に辿り、当該ユニットを生成するサブネットワークを抽出してもよい。そして、システム1は、当該サブネットワークを、特定のカテゴリの入力データを検出するための検出器として再利用してもよい。
例えば、あるユニットが「犬」に反応するユニットであるものとする。その場合、当該ユニットを、「犬検出器」として取り扱うことも可能である。さらに、システム1は、「犬」を検出した概念の下層にある概念についても分類することで、分類系図を提供してもよい。ユニットに、「犬」又は「犬検出器」といった名称を対応付けるためのUIが提供されてもよい。また、ユニットの応答性に応じたUIの他、ユニットの分布特性に応じたUIが提供されてもよい。図11に、各ユニットに名称が対応付けられたUIの一例を示した。図11は、本実施形態に係るUIの一例を示す図である。図11に示したUI472では、「犬」への応答性が高いユニットに「犬」が対応付けられている。同様に、「巻しっぽ」への応答性が高いユニットに「巻しっぽ」が対応付けられ、「耳」への応答性が高いユニットに「耳」が対応付けられ、「四足」への応答性が高いユニットに「四足」が対応付けられている。
<3.3.第2の方法>
・第1のデータセット
システム1(例えば、第1の取得部131)は、第1の方法と同様に、入力データ及び当該入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得する。
・第2のデータセット
システム1(例えば、第2の取得部132)は、第1の方法と同様に、第1のデータセットと値が同一の項目を有する第2のデータセットをひとつ以上取得する。第2のデータセットは、第1の方法と同様に、第1のデータセットと同一の値の項目を有し、出力データに対応する項目を有する。
とりわけ、第2の方法においては、第2のデータセットは、入力データに含まれる項目のうち第1の項目の値が第1のデータセットと異なり、他の第2の項目の値及び出力データに対応する項目の値が第1のデータセットと同一であってもよい。例えば、第1の項目は、応答の可視化の対象である入力項目に相当し、第2の項目は、応答の可視化の対象でない入力項目に相当する。例えば、応答の可視化の対象が築年数であった場合、入力項目のうち築年数のみが異なりその他の入力項目及び不動産価格が同一である第2のデータセットが取得される。言い換えれば、第2のデータセットは、上記数式(18)により表現される、応答の可視化の対象である入力項目の逆伝搬誤差に相当する。これにより、第2のデータセットが、応答関係をユーザに提供するための適切なデータセットとなる。
第2のデータセットは、過去に実際に観測されたデータセットに基づいて学習されたニューラルネットにおけるバックプロパゲーションにより生成されたデータセットを含む。具体的には、システム1(例えば、演算部133)は、上記数式(18)を用いて、出力ユニット側に誤差を加えた場合の、可視化の対象である入力ユニットの応答を演算する。ここで、入出力ユニットは、ニューラルネットの入力層及び出力層のユニットであってもよいし、選択された中間層のユニットであってもよい。出力ユニット側の誤差は、第1のデータセットにおける値を中心値とする乱数(例えば、ガウス乱数)を用いて繰り返し計算される。この乱数の標準偏差は、ユーザにより設定可能であるものとする。他方、入力ユニット側では、出力ユニット側の乱数に応じた分布が得られる。
・位置付けを示す情報の生成
システム1(例えば、生成部134)は、第2のデータセットとの関係における第1のデータセットの位置付けを示す情報を生成する。
第2の方法においては、位置付けを示す情報は、出力データに対応する項目の値が出力データと同一である第2のデータセットの分布における入力データの位置を示す情報であってもよい。その場合、システム1は、例えば出力ユニット側に加えられた誤差に応じて入力ユニット側に生じる入力値の分布における、第1のデータセットの入力データの位置を示す情報を提供する。この場合のUI例を、図12及び図13を参照して説明する。
また、第2の方法において、位置付けを示す情報は、出力データに対応する項目の値が出力データと同一である第2のデータセットの分布における入力データの偏差値を示す情報であってもよい。その場合、システム1は、例えば出力ユニット側に加えられた誤差に応じて入力ユニット側に生じる入力値の分布における、第1のデータセットの入力データの偏差値を示す情報を提供する。この場合のUI例を、図14を参照して説明する。
図12は、本実施形態に係るUIの一例を示す図である。図12に示したUI510により、ユーザは、応答の可視化の条件を設定することが可能である。例えば、ユーザは、ボタン511を押下することで、可視化の対象とする入力項目を選択することができる。
図13は、本実施形態に係るUIの一例を示す図である。図13に示したUI520では、出力値に誤差を加えた場合の入力値の応答の確率密度分布の曲線521が可視化される。本グラフのX軸は入力値に相当し、Y軸は確率密度を示す。UI520では、当該確率分布における対象入力値の位置が可視化される。
図14は、本実施形態に係るUIの一例を示す図である。図14に示したUI530では、入力値の応答の分布の中心及び分布幅により求まる偏差値が可視化される。グラフ531は、偏差値が50の位置を示している。グラフ532は、第1のデータセットの各々の入力値の偏差値の位置を示している。UI530により、ユーザは、第1のデータセットと、第2のデータセットとを比較することが可能となる。偏差値は、単に入力値の値が高い程高く計算されてもよい。例えば、徒歩所要時間に関して言えば、徒歩所要時間が高い程UI530における偏差値が高く計算されてもよい。他方、偏差値は、入力値の値が出力値に望ましい応答を与えるほど高く計算されてもよい。一般的には、徒歩所要時間は低いほど不動産価格は高くなる傾向にある。そのため、例えば徒歩所要時間に関して言えば、徒歩所要時間が低い程、UI530における偏差値が高く計算されてもよい。このような切り替えの要否は、例えばユーザにより設定され得る。
なお、偏差値は、上述した乱数を用いる方法以外の方法で計算されてもよい。例えば、蓄積された実測データの分布における第1のデータセットの偏差値が計算されてもよい。これにより、ユーザは、実測データ全体における第1のデータセットの絶対的な位置付けを知ることが可能となる。他方、入力値が有る程度固定されている場合には、同様な出力値を得る入力値における対象入力値の位置付けを知ることができる、上述した乱数を用いる方法が有効である。
また、上記では入力値が連続量である場合について説明したが、本技術はかかる例に限定されない。例えば、入力値は、離散量であってもよい。離散量の場合には偏差値の計算が困難になり得るものの、離散量の出現分布が計算され、偏差値の代わりに出現確率が用いられてもよい。
また、偏差値以外にも、UI530において例えば入力値の分布幅が提供されてもよい。同じ出力値でも、分布幅が大きい入力値は出力値との相関が薄いため、出力値への寄与度が低いことが分かる。例えば、寄与度=1/分布幅である。
また、第2の方法においても、第1の方法に関して説明したニューラルネットの設計補助のためのUIが提供されてもよい。
<3.4.処理の流れ>
続いて、図15を参照して、上記説明したニューラルネットの応答の可視化を行うための処理の流れの一例を説明する。
図15は、本実施形態に係るシステム1において実行されるニューラルネットの応答の可視化処理の流れの一例を示す図である。図15に示すように、本シーケンスには、処理装置100及び端末装置200が関与する。まず、端末装置200(例えば、入力部210)は、入力データの入力を受け付ける(ステップS102)。次いで、端末装置200(例えば、通知部251)は、入力データを処理装置100に送信する(ステップS104)。次に、処理装置100(例えば、第1の取得部131及び演算部133)は、入力データをニューラルネットに入力して出力データを得ることで、第1のデータセットを取得する(ステップS106)。次いで、端末装置200(例えば、入力部210)は、可視化の条件の入力を受け付ける(ステップS108)。次に、端末装置200(例えば、通知部251)は、入力された可視化の条件を示す情報を処理装置100に送信する(ステップS110)。次いで、処理装置100(例えば、第2の取得部132及び演算部133)は、可視化の条件に基づいて入力値に擾乱を加えたニューラルネットの演算又は出力値に誤差を加えたバックプロパゲーションを行うことで、第2のデータセットを取得する(ステップS112)。そして、処理装置100(例えば、生成部134)は、位置付けを示す情報を生成する(ステップS114)。次に、処理装置100(例えば、通知部135)は、生成した位置付けを示す情報を端末装置200へ送信し、端末装置200(例えば、取得部253)が取得する(ステップS116)。次いで、端末装置200(例えば、出力部220)は、位置付けを示す情報を出力する(ステップS118)。
<<4.アプリケーション例>>
本技術は、入力データが属するカテゴリを判定する分類問題、及び入力データにより得られる出力データを予測する回帰問題の、いずれのアプリケーションにおいても利用可能である。以下では、その一例として、回帰問題のアプリケーション例を説明する。
また、本技術は、多様な入力データ及び出力データをとることができる。入力データは、評価対象の属性情報であり、出力データは、前記評価対象の評価値である。例えば、上記一例を挙げたように、評価対象は不動産であり、評価値は当該不動産の価格であってもよい。
(1)不動産価格の査定アプリケーション
例えば、ユーザは、インターネットサイトにおいて不動産価格を査定する例を想定する。その場合、処理装置100はユーザが操作するユーザ端末に相当し、処理装置100は、インターネットサイトのバックエンドに存在し得る。
ユーザは、「ときわ荘109号室」の売却又は購入を希望しているものとする。ユーザは、インターネットサイトにおいて当該不動産の属性情報を入力し、査定価格の推定結果の提供を受ける。その際のUI例を、図16に示した。
図16は、本実施形態に係るUIの一例を示す図である。UI610に示すように、査定価格の推定結果は、例えば表示欄611において「システム推定価格」として提供される。システム1は、入力データとして属性情報をニューラルネットに入力して演算することで、査定価格の推定を行う。入力されていない属性情報については、平均値等が用いられてもよい。査定価格の推定の他、査定価格の価格帯が推定されてもよい。査定価格の価格帯の推定結果は、例えば表示欄611において「システム推定価格帯」として提供される。
上述したように、システム1では、ニューラルネットの演算結果の根拠を提供することが可能である。例えば、ボタン612が選択されると、システム1は、査定の根拠、即ちシステム推定価格又はシステム推定価格帯において示した価格の根拠を示す情報を提供する。そのUI例を、図17に示した。
図17は、本実施形態に係るUIの一例を示す図である。図17に示したUI620は、上述したUI430に対応するUIである。UI620では一例として、X軸は平米数であり、Y軸はシステム推定価格であるものとする。また、入力された平米数は116平米であるものとする。モデル出力曲線621は、仮想的に平米数を変化させた場合の、ニューラルネットからの出力値の曲線を示している。また、実測データ622は、過去のデータにおける平米数及び不動産価格を示している。試算データ623は、実際にユーザにより入力された平米数及び演算されたシステム推定価格を示している。
まず、ユーザは、試算データ623が、モデル出力曲線621上にあることを確認することができる。また、ユーザは、実測データ622のプロットにリンク付けされた当該実測データ622の内容(例えば、平米数以外の他の属性情報)を確認することもできる。ユーザは、X軸を平米数から他の入力項目に切り替えることもできる。例えば、ユーザがX軸のラベル624を選択すると、築年数等の入力項目の候補がリスト表示され、リストからの選択に応じてX軸に対応する入力項目が切り替えられてもよい。ユーザは、これらの情報から、査定価格が妥当であることを確認することができる。
このように、本技術が不動産価格の査定アプリケーションに適用されることで、ユーザは、査定価格の根拠を確認することが可能である。従来、不動産のエージェントがこのような根拠を提供することはあっても、その根拠の正当性は不明であり、例えばエージェントの意図が含まれた信頼性の薄い根拠が提供される可能性があった。これに対し、本技術によれば、計算機が自動的に計算した根拠が提供されるため、より信頼性の高い根拠が提供されることとなる。
(2)芸術作品の評価アプリケーション
本アプリケーションにおける評価対象は芸術作品である。評価値は芸術作品の得点であってもよい。以下では芸術作品の一例として、ピアノの演奏を想定する。
例えば、音楽コンクールでは、審査員により得点が付けられる。詳しくは、審査員は、演奏を複数の軸で評価する。評価軸としては、例えば選曲、音楽の表現、演奏者の主張、演奏技術、テンポ感、リズム感、曲全体のバランス、ペダリング、タッチ、及び音色等が考えられる。これらの各評価軸における評価は、審査員の経験に基づいて行われ得る。そして、審査員は、各々の評価結果を重み付けすることで、得点を計算する。この重み付けも、審査員の経験に基づいて行われ得る。
システム1は、このような審査員による審査方法に則って、評価を行ってもよい。その場合の演算処理について、図18を参照して説明する。
図18は、本実施形態に係る芸術作品の評価処理を説明するための図である。図18に示すように、まず、システム1は、ピアノの演奏を録音した演奏データを、特徴量算出関数141に入力して、特徴量を算出する。特徴量算出関数141は、演奏によって生じた音をサンプリングしてデジタル化し、デジタル化した音から特徴量を算出する。次いで、システム1は、算出した特徴量を項目別評価関数142に入力して、評価軸ごとの評価値である項目別評価値を算出する。項目別評価関数142は、例えばテンポ感等の評価軸ごとに評価値を算出する。そして、システム1は、特徴量及び項目別評価値を総合評価関数143に入力して、総合評価値を算出する。総合評価関数143は、例えば項目別評価値を重み付けすると共に、特徴量に応じた評価値を加味して、総合評価値を算出する。
特徴量算出関数141、項目別評価関数142及び総合評価関数143の各々は、ニューラルネットにより構成されていてもよいし、ニューラルネットの近似関数であってもよい。例えば、総合評価関数143において本技術が適用される場合、システム1は、演奏データが変動した場合の応答、又は総合評価値を変えたときの項目別評価値の寄与などを提供することで、評価の妥当性の根拠を提供することが可能となる。
上記では、芸術作品の一例としてピアノの演奏を挙げたが、本技術は係る例に限定されない。例えば、評価対象の芸術作品は、歌唱であってもよいし、絵画であってもよいし、文学作品等であってもよい。
(3)スポーツの評価アプリケーション
本アプリケーションにおける評価対象はスポーツである。評価値はスポーツの得点であってもよい。ここで、スポーツの得点とは、サッカーにおける得点及び陸上競技のタイムのような数値化容易なものではなく、フィギュアスケートの演技の点数のような数値化困難なものを指す。以下ではスポーツの一例として、フィギュアスケートを想定する。
例えば、フィギュアスケートの演技には、審査員により得点が付けられる。詳しくは、審査員は、演技を複数の軸で評価する。評価軸としては、例えばスケート技術、要素のつなぎ、動作、身のこなし、振り付け、構成、及び曲の解釈等がある。これらの各評価軸における評価は、審査員の経験に基づいて行われ得る。そして、審査員は、各々の評価結果を重み付けすることで、得点を計算する。この重み付けも、審査員の経験に基づいて行われ得る。フィギュアスケートでは、審査員による恣意的な評価を回避するため、得点が高い又は低い審査員の評価を除いて、総合的に評価がなされる。将来的に、この評価は機械により行われる可能性もある。
そこで、システム1は、図18を参照して上記説明した芸術作品の評価処理と同様の処理により、スポーツの評価を行ってもよい。その場合、入力データは、演技者を撮影した動画になり得る。これにより、システム1は、動画が変動した場合の応答、又は総合評価値を変えたときの項目別評価値の寄与などを提供することで、評価の妥当性の根拠を提供することが可能となる。
<<5.ハードウェア構成例>>
最後に、図19を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図19は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図19に示す情報処理装置900は、例えば、図2及び図3にそれぞれ示した処理装置100又は端末装置200を実現し得る。本実施形態に係る処理装置100又は端末装置200による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図19に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図2に示す制御部130、又は図3に示す制御部250を形成し得る。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
他にも、入力装置906は、ユーザに関する情報を検知する装置により形成され得る。例えば、入力装置906は、画像センサ(例えば、カメラ)、深度センサ(例えば、ステレオカメラ)、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ、力センサ等の各種のセンサを含み得る。また、入力装置906は、情報処理装置900の姿勢、移動速度等、情報処理装置900自身の状態に関する情報や、情報処理装置900の周辺の明るさや騒音等、情報処理装置900の周辺環境に関する情報を取得してもよい。また、入力装置906は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して装置の緯度、経度及び高度を含む位置情報を測定するGNSSモジュールを含んでもよい。また、位置情報に関しては、入力装置906は、Wi−Fi(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。入力装置906は、例えば、図3に示す入力部210を形成し得る。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。上記表示装置又は上記音声出力装置は、例えば、図3に示す出力部220を形成し得る。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図2に示す記憶部120又は図3に示す記憶部240を形成し得る。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図2に示す通信部110又は図3に示す通信部230を形成し得る。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<<6.まとめ>>
以上、図1〜図19を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係るシステム1は、入力データ及び入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得し、第1のデータセットと同一の項目を有する第2のデータセットをひとつ以上取得し、第2のデータセットとの関係における第1のデータセットの位置付けを示す情報を生成する。この位置付けを示す情報により、ニューラルネットの演算結果の妥当性を示す根拠をユーザに提供することが可能となる。これにより、ユーザは、演算結果に容易に納得することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、処理装置100と端末装置200とが別箇の装置であるものとして説明したが、本技術はかかる例に限定されない。例えば、処理装置100と端末装置200とはひとつの装置として実現されてもよい。
また、本明細書においてフローチャート及びシーケンス図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
入力データ及び前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得する第1の取得部と、
前記第1のデータセットと同一の項目を有する第2のデータセットをひとつ以上取得する第2の取得部と、
前記第2のデータセットとの関係における前記第1のデータセットの位置付けを示す情報を生成する生成部と、
を備える情報処理装置。
(2)
前記第2のデータセットは、前記第1のデータセットと同一の値の項目を有する、前記(1)に記載の情報処理装置。
(3)
前記第2のデータセットは、前記入力データに含まれる項目のうち第1の項目の値が前記第1のデータセットと異なり、他の第2の項目の値が前記第1のデータセットと同一である、前記(2)に記載の情報処理装置。
(4)
前記位置付けを示す情報は、前記第1のデータセット及び前記第2のデータセットの、前記第1の項目の値と前記出力データに対応する項目の値との関係を示す情報を含む、前記(3)に記載の情報処理装置。
(5)
前記第2のデータセットは、過去に実際に観測されたデータセットに基づいて学習された前記ニューラルネットにより生成されたデータセットを含む、前記(2)に記載の情報処理装置。
(6)
前記第2のデータセットは、過去に実際に観測されたデータセットを含む、前記(2)に記載の情報処理装置。
(7)
前記第2のデータセットは、前記入力データに含まれる項目のうち第1の項目の値が前記第1のデータセットと異なり、他の第2の項目の値及び前記出力データに対応する項目の値が前記第1のデータセットと同一である、前記(2)に記載の情報処理装置。
(8)
前記位置付けを示す情報は、前記出力データに対応する項目の値が前記出力データと同一である前記第2のデータセットの分布における前記入力データの位置を示す情報である、前記(7)に記載の情報処理装置。
(9)
前記位置付けを示す情報は、前記出力データに対応する項目の値が前記出力データと同一である前記第2のデータセットの分布における前記入力データの偏差値を示す情報である、前記(7)に記載の情報処理装置。
(10)
前記生成部は、前記ニューラルネットの中間層から選択された入力層のユニットへの入力値と選択された出力層のユニットからの出力値との応答関係を示す情報を生成する、前記(1)に記載の情報処理装置。
(11)
前記応答関係を示す情報は、グラフである、前記(10)に記載の情報処理装置。
(12)
前記応答関係を示す情報は、関数である、前記(10)に記載の情報処理装置。
(13)
前記生成部は、前記出力層のユニットからの出力値に寄与しない前記入力層のユニットの除去を提案する情報を生成する、前記(10)に記載の情報処理装置。
(14)
前記入力データは、評価対象の属性情報であり、
前記出力データは、前記評価対象の評価値である、前記(1)に記載の情報処理装置。
(15)
前記評価対象は、不動産であり、
前記評価値は、価格である、前記(14)に記載の情報処理装置。
(16)
前記評価対象は、芸術作品である、前記(14)に記載の情報処理装置。
(17)
前記評価対象は、スポーツである、前記(14)に記載の情報処理装置。
(18)
入力データを他の装置へ通知する通知部と、
前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットと同一の項目を有する第2のデータセットとの関係における、前記第1のデータセットの位置付けを示す情報を前記他の装置から取得する取得部と、
を備える情報処理装置。
(19)
入力データ及び前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得することと、
前記第1のデータセットと同一の項目を有する第2のデータセットをひとつ以上取得することと、
前記第2のデータセットとの関係における前記第1のデータセットの位置付けを示す情報をプロセッサにより生成することと、
を含む情報処理方法。
(20)
入力データを他の装置へ通知することと、
前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットと同一の項目を有する第2のデータセットとの関係における、前記第1のデータセットの位置付けを示す情報を前記他の装置からプロセッサにより取得することと、
を含む情報処理方法。
1 システム
100 処理装置
110 通信部
120 記憶部
130 制御部
131 第1の取得部131
132 第2の取得部132
133 演算部133
134 生成部134
135 通知部135
200 端末装置
210 入力部
220 出力部
230 通信部
240 記憶部
250 制御部
251 通知部
253 取得部

Claims (20)

  1. 入力データ及び前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得する第1の取得部と、
    前記第1のデータセットと同一の項目を有する第2のデータセットをひとつ以上取得する第2の取得部と、
    前記第2のデータセットとの関係における前記第1のデータセットの位置付けを示す情報を生成する生成部と、
    を備える情報処理装置。
  2. 前記第2のデータセットは、前記第1のデータセットと同一の値の項目を有する、請求項1に記載の情報処理装置。
  3. 前記第2のデータセットは、前記入力データに含まれる項目のうち第1の項目の値が前記第1のデータセットと異なり、他の第2の項目の値が前記第1のデータセットと同一である、請求項2に記載の情報処理装置。
  4. 前記位置付けを示す情報は、前記第1のデータセット及び前記第2のデータセットの、前記第1の項目の値と前記出力データに対応する項目の値との関係を示す情報を含む、請求項3に記載の情報処理装置。
  5. 前記第2のデータセットは、過去に実際に観測されたデータセットに基づいて学習された前記ニューラルネットにより生成されたデータセットを含む、請求項2に記載の情報処理装置。
  6. 前記第2のデータセットは、過去に実際に観測されたデータセットを含む、請求項2に記載の情報処理装置。
  7. 前記第2のデータセットは、前記入力データに含まれる項目のうち第1の項目の値が前記第1のデータセットと異なり、他の第2の項目の値及び前記出力データに対応する項目の値が前記第1のデータセットと同一である、請求項2に記載の情報処理装置。
  8. 前記位置付けを示す情報は、前記出力データに対応する項目の値が前記出力データと同一である前記第2のデータセットの分布における前記入力データの位置を示す情報である、請求項7に記載の情報処理装置。
  9. 前記位置付けを示す情報は、前記出力データに対応する項目の値が前記出力データと同一である前記第2のデータセットの分布における前記入力データの偏差値を示す情報である、請求項7に記載の情報処理装置。
  10. 前記生成部は、前記ニューラルネットの中間層から選択された入力層のユニットへの入力値と選択された出力層のユニットからの出力値との応答関係を示す情報を生成する、請求項1に記載の情報処理装置。
  11. 前記応答関係を示す情報は、グラフである、請求項10に記載の情報処理装置。
  12. 前記応答関係を示す情報は、関数である、請求項10に記載の情報処理装置。
  13. 前記生成部は、前記出力層のユニットからの出力値に寄与しない前記入力層のユニットの除去を提案する情報を生成する、請求項10に記載の情報処理装置。
  14. 前記入力データは、評価対象の属性情報であり、
    前記出力データは、前記評価対象の評価値である、請求項1に記載の情報処理装置。
  15. 前記評価対象は、不動産であり、
    前記評価値は、価格である、請求項14に記載の情報処理装置。
  16. 前記評価対象は、芸術作品である、請求項14に記載の情報処理装置。
  17. 前記評価対象は、スポーツである、請求項14に記載の情報処理装置。
  18. 入力データを他の装置へ通知する通知部と、
    前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットと同一の項目を有する第2のデータセットとの関係における、前記第1のデータセットの位置付けを示す情報を前記他の装置から取得する取得部と、
    を備える情報処理装置。
  19. 入力データ及び前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットを取得することと、
    前記第1のデータセットと同一の項目を有する第2のデータセットをひとつ以上取得することと、
    前記第2のデータセットとの関係における前記第1のデータセットの位置付けを示す情報をプロセッサにより生成することと、
    を含む情報処理方法。
  20. 入力データを他の装置へ通知することと、
    前記入力データをニューラルネットに入力して得られた出力データの組み合わせから成る第1のデータセットと同一の項目を有する第2のデータセットとの関係における、前記第1のデータセットの位置付けを示す情報を前記他の装置からプロセッサにより取得することと、
    を含む情報処理方法。
JP2018508386A 2016-03-28 2016-12-14 情報処理装置及び情報処理方法 Active JP7006585B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016063785 2016-03-28
JP2016063785 2016-03-28
PCT/JP2016/087186 WO2017168865A1 (ja) 2016-03-28 2016-12-14 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2017168865A1 true JPWO2017168865A1 (ja) 2019-02-07
JP7006585B2 JP7006585B2 (ja) 2022-01-24

Family

ID=59962884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018508386A Active JP7006585B2 (ja) 2016-03-28 2016-12-14 情報処理装置及び情報処理方法

Country Status (4)

Country Link
US (1) US20190026630A1 (ja)
EP (1) EP3438887A4 (ja)
JP (1) JP7006585B2 (ja)
WO (1) WO2017168865A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101335278B1 (ko) * 2012-07-19 2013-11-29 에스에이비(주) 이원 사이클 히트 펌프 시스템
CA2881033C (en) 2015-02-03 2016-03-15 1Qb Information Technologies Inc. Method and system for solving lagrangian dual of a constrained binary quadratic programming problem
US11797641B2 (en) 2015-02-03 2023-10-24 1Qb Information Technologies Inc. Method and system for solving the lagrangian dual of a constrained binary quadratic programming problem using a quantum annealer
JP6523379B2 (ja) * 2017-07-25 2019-05-29 ファナック株式会社 情報処理装置
JP2019080232A (ja) * 2017-10-26 2019-05-23 株式会社Preferred Networks 勾配圧縮装置、勾配圧縮方法及びプログラム
EP3718026B1 (en) * 2017-12-01 2023-11-29 1QB Information Technologies Inc. Systems and methods for stochastic optimization of a robust inference problem
JP6857332B2 (ja) * 2018-03-13 2021-04-14 オムロン株式会社 演算装置、演算方法、及びそのプログラム
JP7297286B2 (ja) * 2019-02-07 2023-06-26 国立研究開発法人情報通信研究機構 最適化方法、最適化プログラム、推論方法、および推論プログラム
JP7139996B2 (ja) * 2019-02-25 2022-09-21 日本電信電話株式会社 評価装置及び評価方法
JP7269778B2 (ja) * 2019-04-04 2023-05-09 富士フイルムヘルスケア株式会社 超音波撮像装置、および、画像処理装置
JP7439470B2 (ja) 2019-04-11 2024-02-28 富士電機株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020255076A1 (en) 2019-06-19 2020-12-24 1Qb Information Technologies Inc. Method and system for mapping a dataset from a hilbert space of a given dimension to a hilbert space of a different dimension
JP2021005211A (ja) 2019-06-26 2021-01-14 キオクシア株式会社 情報処理方法及び情報処理装置
US11640539B2 (en) * 2019-07-08 2023-05-02 Vianai Systems, Inc. Techniques for visualizing the operation of neural networks using samples of training data
US11112783B2 (en) * 2019-10-25 2021-09-07 Computational Systems, Inc. Method and apparatus for machine monitoring with continuous improvement of a predictive maintenance database
CN111078725B (zh) * 2019-12-13 2022-07-12 浙江大学 一种多数据源合并数据的可视化查询方法和装置
JP6872214B1 (ja) * 2020-08-20 2021-05-19 株式会社医療情報技術研究所 分類システム
JP7101349B1 (ja) 2021-05-28 2022-07-15 株式会社医療情報技術研究所 分類システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535707A (ja) * 1991-07-25 1993-02-12 Hitachi Ltd ニユ−ラルネツトを利用したパタ−ン分類方法および装置
JPH0561849A (ja) * 1991-08-29 1993-03-12 Toyoda Mach Works Ltd ニユーラルネツトワークの入出力特性検出装置
JPH05225163A (ja) * 1992-02-13 1993-09-03 Hitachi Ltd ニューラルネットシステムおよびニューラルネットの学習方法
JPH11282823A (ja) * 1998-03-31 1999-10-15 Ricchi Hyoka Kenkyusho:Kk 土地評価システムおよび方法,ならびに土地評価のためのプログラムを格納した媒体
JP2001344590A (ja) * 2000-05-31 2001-12-14 Fuji Electric Co Ltd ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法
JP2007094631A (ja) * 2005-09-28 2007-04-12 Hitachi Electronics Service Co Ltd アプリケーション稼働監視システム及び顧客アプリケーション稼働監視サービス提供システム及びアプリケーション稼働監視方法及び顧客アプリケーション稼働監視サービス提供方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7617163B2 (en) * 1998-05-01 2009-11-10 Health Discovery Corporation Kernels and kernel methods for spectral data
US6941287B1 (en) * 1999-04-30 2005-09-06 E. I. Du Pont De Nemours And Company Distributed hierarchical evolutionary modeling and visualization of empirical data
US8463718B2 (en) * 2000-08-07 2013-06-11 Health Discovery Corporation Support vector machine-based method for analysis of spectral data
EP1393196A4 (en) * 2001-05-07 2007-02-28 Health Discovery Corp CORES AND METHODS FOR SELECTING CORES FOR USE IN TEACHING MACHINES
US20070118487A1 (en) * 2005-11-18 2007-05-24 Caterpillar Inc. Product cost modeling method and system
US9015083B1 (en) * 2012-03-23 2015-04-21 Google Inc. Distribution of parameter calculation for iterative optimization methods
US20130346150A1 (en) * 2012-06-21 2013-12-26 Data Ventures, Inc. System, method, and computer program product for forecasting sales
US20150025918A1 (en) * 2013-07-16 2015-01-22 Broker Genius LLC Forecasting and management system and method concerning ticket transactions in multiple markets
US9741081B2 (en) * 2014-12-23 2017-08-22 Invent.ly LLC Perturbing a subject's contextualization of a proposition about an item considered in a quantum representation by altering the item
US11093982B1 (en) * 2014-10-02 2021-08-17 Zillow, Inc. Determine regional rate of return on home improvements

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535707A (ja) * 1991-07-25 1993-02-12 Hitachi Ltd ニユ−ラルネツトを利用したパタ−ン分類方法および装置
JPH0561849A (ja) * 1991-08-29 1993-03-12 Toyoda Mach Works Ltd ニユーラルネツトワークの入出力特性検出装置
JPH05225163A (ja) * 1992-02-13 1993-09-03 Hitachi Ltd ニューラルネットシステムおよびニューラルネットの学習方法
JPH11282823A (ja) * 1998-03-31 1999-10-15 Ricchi Hyoka Kenkyusho:Kk 土地評価システムおよび方法,ならびに土地評価のためのプログラムを格納した媒体
JP2001344590A (ja) * 2000-05-31 2001-12-14 Fuji Electric Co Ltd ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法
JP2007094631A (ja) * 2005-09-28 2007-04-12 Hitachi Electronics Service Co Ltd アプリケーション稼働監視システム及び顧客アプリケーション稼働監視サービス提供システム及びアプリケーション稼働監視方法及び顧客アプリケーション稼働監視サービス提供方法

Also Published As

Publication number Publication date
JP7006585B2 (ja) 2022-01-24
EP3438887A1 (en) 2019-02-06
WO2017168865A1 (ja) 2017-10-05
EP3438887A4 (en) 2019-03-27
US20190026630A1 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
WO2017168865A1 (ja) 情報処理装置及び情報処理方法
Hew et al. Crafting a smartphone repurchase decision making process: Do brand attachment and gender matter?
CN112966712B (zh) 语言模型训练方法、装置、电子设备和计算机可读介质
Bobadilla et al. Collaborative filtering adapted to recommender systems of e-learning
TWI465691B (zh) 用於位置至地標之系統、電腦可讀取記憶體及方法
JP6093792B2 (ja) 測位装置、測位方法、測位プログラム、および、測位システム
JP2012058972A (ja) 評価予測装置、評価予測方法、及びプログラム
US20210325343A1 (en) Information processing apparatus, information processing method, learned model generation method, and program
AU2013251195A1 (en) Program, apparatus, and method for information processing
CN107710192A (zh) 用于会话响应的自动评价的度量
JP2011248829A (ja) 評価予測装置、評価予測方法、及びプログラム
JP2023514465A (ja) 機械学習プラットフォーム
US20210117792A1 (en) Methods and apparatus to facilitate continuous learning
US10482491B2 (en) Targeted marketing for user conversion
JP2002358400A (ja) 顧客満足度を評価する方法およびプログラム
JP7063389B2 (ja) 処理装置、処理方法、およびプログラム
JP6093791B2 (ja) 測位装置、測位方法、測位プログラム、および、測位システム
JP2012094056A (ja) ユーザ状態推定システム、ユーザ状態推定方法及びユーザ状態推定プログラム
CN111368195B (zh) 一种模型训练方法、装置、设备及存储介质
WO2020004049A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019235370A1 (ja) 学習装置、予測装置、方法、及びプログラム
JP2023088136A (ja) 学習装置、学習方法、学習プログラム、および学習システム
JP7056747B2 (ja) 情報処理装置、処理装置、情報処理方法、処理方法、決定方法、およびプログラム
CN113822435A (zh) 一种用户转化率的预测方法及相关设备
TWI453452B (zh) 行動裝置、氣象統計系統以及氣象統計方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220