JP2015167041A - 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム - Google Patents

機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム Download PDF

Info

Publication number
JP2015167041A
JP2015167041A JP2015103180A JP2015103180A JP2015167041A JP 2015167041 A JP2015167041 A JP 2015167041A JP 2015103180 A JP2015103180 A JP 2015103180A JP 2015103180 A JP2015103180 A JP 2015103180A JP 2015167041 A JP2015167041 A JP 2015167041A
Authority
JP
Japan
Prior art keywords
machine learning
learning model
function
design support
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015103180A
Other languages
English (en)
Other versions
JP6007430B2 (ja
Inventor
大澤 昇平
Shohei Osawa
昇平 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2015103180A priority Critical patent/JP6007430B2/ja
Publication of JP2015167041A publication Critical patent/JP2015167041A/ja
Application granted granted Critical
Publication of JP6007430B2 publication Critical patent/JP6007430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】より容易に高度かつ複雑な機械学習モデルを設計可能とする。
【解決手段】一以上のノードの接続と、ノード間のデータの入出力によって機械学習モデルを表す機械学習モデル設計支援装置は、前記ノードに対する入力を所定の関数に基づき演算する関数ノードの一覧を取得し、前記取得した一覧に含まれる関数ノードを、グラフの一部として配置し、前記関数ノード同士を、当該ノード間で入出力されるデータの入出力の関係性を表す有向エッジで接続し、前記関数ノード及び有向エッジで形成された有向グラフから、等価な機械学習モデルを生成する。
【選択図】図7

Description

本発明は、機械学習モデルの設計を支援する機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラムに関する。
今日、情報技術の発展、普及に伴い、蓄積された膨大なデータを解析する場面が増えている。例えば、ECサイトで他の類似顧客の購入情報から商品のレコメンデーションを行ったり、ウェブページ上の広告で顧客が直前まで見ていた情報に関連した広告を行ったり、といった、データ解析の結果に基づいた最適化を行う例が増えている。
特に近年では、高度な情報解析として機械学習を利用する例が増えている。これは、人工知能技術とともに発達してきた技術であり、莫大なデータを基に学習を行うことで、人間の判断に近い高度な解析を、膨大なデータに対して高速に、画一的な基準を持って行うことを可能とする技術である。
一方で機械学習は、精度を大きく左右する、重要なモデル設計において、その高度さ故に専門家以外によるモデル設計が困難であるという問題がある。
このような課題に対して、ニューラルネットワーク構築方法及びニューラルネットワーク処理装置が公開されている。
特許公開2011−51968号公報
特許文献1によれば、大規模ニューラルネットワークを機能単位のブロックに分けて扱うことで、各ブロックの内部構造とそれら各ブロック間の相互接続関係をブロックダイアグラムデータとして記述し、接続規則には、ニューロン同士の空間的位置関係に基づく接続分布を指定することで、このデータに基づき、各ブロックごとに、ニューロンを生成して所定の座標空間上にランダムに配置し、接続を確率分布に従って生成するニューラルネットワーク接続方法が開示されている。
しかしながら、特許文献1のようなモデルの自動生成は、確率分布に従いある程度のネットワークを構築できるものの、単純で基本的なネットワーク構造しか生成し得ないことに加え、何より肝心な学習モデルについては利用者に委ねられているという課題が残っている。
そこで、本発明の発明者は、ネットワーク内の部分ネットワークについて、その部分ネットワークが果たす役割を関数とみなし、機械学習を関数とその関数同士のデータフローとして表すことで、複雑かつ高度な機械学習モデルを、専門家でなくとも簡単に設計可能とすることが可能であることに着目した。
また、本発明の発明者は、設計の途中でリアルタイムに学習を行い、設計者にフィードバックすることで、設計者が設計したモデルについてすぐに精度を確認できるとともに、モデル上の各部位が精度にどの程度影響を与えているのかを簡単に確認できることに着目した。
また、本発明の発明者は、特にDeepLearningと呼ばれる技術分野において本発明を用いることで、入出力データに対しAutoEncoderを利用することが可能となり、設計者が入出力データを加工する必要なく、より容易に機械学習技術を利用できることに着目した。
本発明は、機械学習モデル上の演算を関数の組み合わせとして表し、その関数同士の入出力の関係性を表す有向グラフとして機械学習モデル全体を定義することで、機械学習を視覚的に簡単に設計でき、かつ等価な機械学習モデルを自動的に生成可能な機械学習モデル設計支援装置を提供する。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、一以上のノードの接続と、ノード間のデータの入出力によって機械学習モデルを表す機械学習モデル設計支援装置であって、
前記ノードに対する入力を所定の関数に基づき演算する関数ノードの一覧を取得する関数ノードリスト取得手段と、
前記取得した一覧に含まれる関数ノードを、グラフの一部として配置する関数ノード配置手段と、
前記関数ノード同士を、当該ノード間で入出力されるデータの入出力の関係性を表す有向エッジで接続する関数ノード接続手段と、
前記関数ノード及び有向エッジで形成された有向グラフから、等価な機械学習モデルを生成する機械学習モデル生成手段と、
を備えることを特徴とする機械学習モデル設計支援装置を提供する。
第1の特徴に係る発明によれば、一以上のノードの接続と、ノード間のデータの入出力によって機械学習モデルを表す機械学習モデル設計支援装置は、前記ノードに対する入力を所定の関数に基づき演算する関数ノードの一覧を取得し、前記取得した一覧に含まれる関数ノードを、グラフの一部として配置し、前記関数ノード同士を、当該ノード間で入出力されるデータの入出力の関係性を表す有向エッジで接続し、前記関数ノード及び有向エッジで形成された有向グラフから、等価な機械学習モデルを生成する。
ここで、第1の特徴に係る発明は機械学習モデル設計支援装置のカテゴリであるが、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラムのカテゴリにおいても、同様の作用・効果を発揮する。
第2の特徴にかかる発明は、前記機械学習モデルが、ニューラルネットワークの機械学習モデルであることを特徴とする第1の特徴に係る発明である機械学習モデル設計支援装置を提供する。
第2の特徴にかかる発明によれば、第1の特徴に係る発明である機械学習モデル設計支援装置において、前記機械学習モデルは、ニューラルネットワークの機械学習モデルである。
第3の特徴に係る発明は、前記有向エッジは、前記データの次元数に関わらず、単線で表現可能であることを特徴とする第1又は第2の特徴に係る発明である機械学習モデル設計支援装置を提供する。
第3の特徴に係る発明によれば、第1又は第2の特徴に係る発明である機械学習モデル設計支援装置において、前記有向エッジは、前記データの次元数に関わらず、単線で表現可能である。
第4の特徴にかかる発明は、前記関数ノードにおいて前記所定の関数が演算に用いられることが、当該関数と対応する記号が当該ノードと関連付けられて表示されることにより表されることを特徴とする第1から第3のいずれかの特徴に係る発明である機械学習モデル設計支援装置を提供する。
第4の特徴にかかる発明によれば、第1から第3のいずれかの特徴に係る発明である機械学習モデル設計支援装置において、前記関数ノードにおいて前記所定の関数が演算に用いられることが、当該関数と対応する記号が当該ノードと関連付けられて表示されることにより表される。
第5の特徴にかかる発明は、前記関数ノードと、前記有向エッジのもつパラメータを編集、設定するパラメータ編集手段と、
を備えることを特徴とする第1から第4のいずれかの特徴に係る発明である機械学習モデル設計支援装置を提供する。
第5の特徴にかかる発明によれば、第1から第4のいずれかの特徴に係る発明である機械学習モデル設計支援装置は、前記関数ノードと、前記有向エッジのもつパラメータを編集、設定する。
第6の特徴に係る発明は、前記関数ノードの配置及び関数ノード同士の接続は、グラフィカル・ユーザ・インターフェース上で、ポインティングデバイスによる操作によって実現されることが可能であることを特徴とする第1から第5のいずれかの特徴に係る発明である機械学習モデル設計支援装置を提供する。
第6の特徴に係る発明によれば、第1から第5のいずれかの特徴に係る発明である機械学習モデル設計支援装置において、前記関数ノードの配置及び関数ノード同士の接続は、グラフィカル・ユーザ・インターフェース上で、ポインティングデバイスによる操作によって実現されることが可能である。
第7の特徴に係る発明は、前記生成された機械学習モデルにつき、処理ステップごとに、学習と判別の少なくともいずれかのための演算を実行する段階的演算手段と、
を備えることを特徴とする第1から第6のいずれかの特徴に係る発明である機械学習モデル設計支援装置を提供する。
第7の特徴に係る発明によれば、第1から第6のいずれかの特徴に係る発明である機械学習モデル設計支援装置は、前記生成された機械学習モデルにつき、処理ステップごとに、学習と判別の少なくともいずれかのための演算を実行する。
第8の特徴に係る発明は、前記実行される処理単位ごとの学習又は判別のための演算において、特定の関数ノードと対応するネットワーク上の一以上のニューロンにつき、入出力値と重みの少なくともいずれかを取得するニューロン監視手段と、
を備えることを特徴とする第2から第7のいずれかの特徴に係る発明である機械学習モデル設計支援装置を提供する。
第8の特徴に係る発明によれば、第2から第7のいずれかの特徴に係る発明である機械学習モデル設計支援装置は、前記実行される処理単位ごとの学習又は判別のための演算において、特定の関数ノードと対応するネットワーク上の一以上のニューロンにつき、入出力値と重みの少なくともいずれかを取得する。
第9の特徴に係る発明は、前記実行される処理時間単位ごとの学習又は判別のための演算において、特定の箇所における演算が実行される前又は後のタイミングで演算を一時停止するブレークポイント設定手段と、
を備えることを特徴とする第7又は第8の特徴に係る発明である機械学習モデル設計支援装置を提供する。
第9の特徴に係る発明によれば、第7又は第8の特徴に係る発明である機械学習モデル設計支援装置は、前記実行される処理時間単位ごとの学習又は判別のための演算において、特定の箇所における演算が実行される前又は後のタイミングで演算を一時停止する。
第10の特徴に係る発明は、前記関数ノードとして、エンコーダ、非線形関数、遅延器、加算接点、要素積接点、バイアスありエンコーダ、ランダムエンコーダ、ファイルからの入力、出力の表示を少なくとも含むことを特徴とする第1から第9のいずれかの特徴に係る発明である機械学習モデル設計支援装置を提供する。
第10の特徴に係る発明によれば、第1から第9のいずれかの特徴に係る発明である機械学習モデル設計支援装置は、前記関数ノードとして、エンコーダ、非線形関数、遅延器、加算接点、要素積接点、バイアスありエンコーダ、ランダムエンコーダ、ファイルからの入力、出力の表示を少なくとも含む。
第11の特徴に係る発明によれば、前記関数ノードとして、オートエンコーダを含むことを特徴とする第1から第10のいずれかの特徴に係る発明である機械学習モデル設計支援装置を提供する。
第11の特徴に係る発明によれば、第1から第10のいずれかの特徴に係る発明である機械学習モデル設計支援装置は、前記関数ノードとして、オートエンコーダを含む。
第12の特徴に係る発明は、一以上のノードの接続と、ノード間のデータの入出力によって機械学習モデルを表す機械学習モデル設計支援方法であって、
前記ノードに対する入力を所定の関数に基づき演算する関数ノードの一覧を取得するステップと、
前記取得した一覧に含まれる関数ノードを、グラフの一部として配置するステップと、
前記関数ノード同士を、当該ノード間で入出力されるデータの入出力の関係性を表す有向エッジで接続するステップと、
前記関数ノード及び有向エッジで形成された有向グラフから、等価な機械学習モデルを生成するステップと、
を備えることを特徴とする機械学習モデル設計支援方法を提供する。
第13の特徴に係る発明は、一以上のノードの接続と、ノード間のデータの入出力によって機械学習モデルを表す機械学習モデル設計支援装置に、
前記ノードに対する入力を所定の関数に基づき演算する関数ノードの一覧を取得するステップ、
前記取得した一覧に含まれる関数ノードを、グラフの一部として配置するステップ、
前記関数ノード同士を、当該ノード間で入出力されるデータの入出力の関係性を表す有向エッジで接続するステップ、
前記関数ノード及び有向エッジで形成された有向グラフから、等価な機械学習モデルを生成するステップ、
を実行させることを特徴とする機械学習モデル設計支援装置用プログラムを提供する。
本発明により、機械学習モデル上の演算を関数の組み合わせとして表し、その関数同士の入出力の関係性を表す有向グラフとして機械学習モデル全体を定義することで、機械学習を視覚的に簡単に設計でき、かつ等価な機械学習モデルを自動的に生成可能な機械学習モデル設計支援装置を提供することが可能となる。
図1は、機械学習モデル設計支援装置1の概要を表した図である。 図2は、機械学習モデル設計支援装置1のシステム構成図である。 図3は、機械学習モデル設計支援装置1の機能ブロック図である。 図4は、機械学習モデル設計支援装置1が実行する機械学習モデル設計処理のフローチャートである。 図5は、機械学習モデル設計支援装置1が実行する機械学習モデル検証処理のフローチャートである。 図6は、関数ノードリストの一例である。 図7は、機械学習モデル設計支援装置1が表示する画面の一例を表した図である。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
[機械学習モデル設計支援装置1の概要]
図1は、本発明の好適な実施形態である機械学習モデル設計支援装置1の概要を説明するための図である。図1においては、機械学習モデル設計支援装置1の最も基本的な機能である機械学習モデルの設計機能を利用する際の画面例と、設計したモデルを実際にプログラムから利用可能な形態に変換する際のイメージを模式図として表している。
本発明において、機械学習モデルはデータに対する処理関数と、データの入出力とを、関数と一対一に対応するノード及び向きを持つエッジにより可視化される。ユーザはグラフィカルインターフェースを通じて、容易かつ直観的にそれを編集可能である。このことによって、利用者が機械学習の専門知識を持たない者であっても、また、膨大な設計、実装のコストがかかるような高度な機械学習モデルであっても、容易に実現可能とすることが可能となる。
図1の画面例においては、関数ノード101や関数ノード107が、データに対する処理を表すノードであって、有向エッジ102やラベル付き有向エッジ108が、データの入出力を表すエッジである。
関数ノード101や関数ノード107には、それぞれ関数と対応する記号が記載される。例えば、関数ノード101に記載された記号は、双曲線正接関数を表し、関数ノード107に記載された記号は、シグモイド関数を表している。
機械学習モデルには、通常モデル全体の入力103と、出力104とがある。また、有向エッジ102を初めとするエッジには矢印で表される向きがあり、データの入出力の関係を表している。なお、モデル上の各要素にはラベル付き有向エッジ108のようにラベルを付けることが可能である。
この図を例にとると、入力103から入力されたデータは、関数ノード101と関数ノード107に入力され、各ノードと対応した関数演算の結果が出力として、接点105と接点106とにそれぞれ出力される。ここで、各有向エッジは単線として表現されているが、ベクトルのような多次元のデータであってよい。
接点105と接点106は、複数のエッジの出力を結合する点を表している。この図では接点105のような黒い接点と、接点106のような白い接点とがあるが、それぞれ加算と、要素積を行う接点を表している。
遅延器109は、入力されたデータを1ステップ、あるいはnステップ遅らせて出力する遅延器を表している。このように、計算処理においてステップで表される時系列の概念があるような機械学習モデルのため、機械学習モデル設計支援装置1は、計算処理の結果を確認しながら、1ステップずつ進めるような段階的演算手段を備えている。
なお、モデルを構成するノードやエッジ等の各要素にはパラメータが設定されていて、ユーザによって編集可能である。これらは、演算処理の振る舞いを規定するハイパーパラメータのほか、前述のラベルや、あるいは色、太さ等の可視化を助ける要素であってよい。
以上により、機械学習モデルを容易に可視化、設計することが可能である。このようなグラフ形式で表現された機械学習モデルは、対応する実装と一対一で変換可能である。例えば、ウィンドウ112上の変換ボタン110を押し下げることで、設計した機械学習モデルが、対応する機械学習の実装111に変換され、ファイル等に出力されるような使用例がある。
なお、本発明では、関数ノードとデータの入出力によってグラフ形式で表現可能な全ての機械学習モデルが設計可能であるものの、特に、ニューラルネットワークを初めとして、ボルツマンマシン、隠れマルコフモデル、ベイジアンネットワークといった、演算の多層化が精度に大きく影響を与えるモデルの設計に、より適していると言える。
これらの操作は、カーソル113のようなポインティングデバイスを通じて、グラフィカル・ユーザ・インターフェース上で行われることで、設計作業をより直観的かつ容易な操作とすることが可能である。
ところで、そもそも機械学習とは、人間のもつ学習能力と同様の機能を、コンピュータを用いて実現しようとする技術、手法のことを指す。機械学習を実現するにあたり、様々な研究者が様々なモデルを考案し、今も研究が盛んに進められている分野である。先述のニューラルネットワークも、脳内のニューロンを模した機械学習モデルの一つであり、その他にもサポートベクターマシーン、ランダムフォレストといったモデルが利用、研究されている。
その中でも、特に近年注目されている技術の一つに深層学習、DeepLearningと呼ばれる手法がある。DeepLearningはニューラルネットワークを多層化することで精度の向上を実現する手法であるが、一つの大きな特徴にautoencoderを取り入れていることがある。autoencoderは、一言でいえば出力が入力を再現するような学習を行うことで、入力の次元圧縮を行い、特徴を抽出するようなアルゴリズムである。
このautoencoderを利用することで、多層ニューラルネットワークの学習精度を大きく向上させることができ、結果DeepLearningは種々の学習において既存のモデルを大きく上回る精度を挙げている。本発明においても、autoencoderを関数ノードの一つとして表すことで、DeepLearningを設計、実装することが可能である。以上が、機械学習モデル設計支援装置1の概要である。
[機械学習モデル設計支援装置1のシステム構成]
機械学習モデル設計支援装置1のシステム構成図である。機械学習モデル設計支援装置1は、基本的にスタンドアローン形式で稼働することが可能である。機械学習モデル設計支援装置1は、それに加えて、公衆回線網5(インターネット網や第3世代、第4世代通信網など)を介して関数ノードデータベース150等を備えたサーバ100と通信可能に接続されていてよい。
機械学習モデル設計支援装置1は、後述の機能を備える家庭用又は業務用の電化製品である。機械学習モデル設計支援装置1は、例えば、パーソナルコンピュータ、サーバ装置、携帯電話、携帯情報端末に加え、スマートフォン、タブレット端末、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の情報家電であってよい。
サーバ100は、機械学習モデル設計支援装置1のライブラリとして働く一般的なサーバ装置であって、様々な種類の関数ノードを登録した関数ノードデータベース150を備えることで、機械学習モデル設計支援装置1の利用者が容易に多様な関数ノードを利用できたり、関数ノードの定義を共通化したりといったことが可能である。
また、サーバ100は、機械学習モデル設計支援装置1によって設計された機械学習モデルを、有償又は無償で公開することが可能な機能を備えていてよい。それにより、ユーザは他のユーザが設計した機械学習モデルを利用可能となり、技術水準の向上を加速することが可能である。なお、これらのサーバ100の機能は、本発明の実現には必須の構成ではない。
[各機能の説明]
図3に基づいて、各装置の構成について説明する。
機械学習モデル設計支援装置1は、制御部11として、CPU(Central Processing Unit),RAM(Random Access Memory),ROM(Read Only Memory)等を備え、通信部12として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイスを備える。
また、機械学習モデル設計支援装置1は、入出力部13として、制御部で制御したデータや画像を出力表示する表示部を備え、かつ、ユーザやサポート者からの入力を受付けるタッチパネルやキーボード、マウス等を備えていてよい。
また、機械学習モデル設計支援装置1は、データやファイルを記憶する記憶部14として、ハードディスクや半導体メモリ、記録媒体、メモリカード等による、データのストレージ部を備える。
機械学習モデル設計支援装置1において、制御部11が所定のプログラムを読み込むことで、通信部12と協働して、関数ノードリスト取得モジュール15を実現する。また、機械学習モデル設計支援装置1において、制御部11が所定のプログラムを読み込むことで、入出力部13と協働して、関数ノード配置モジュール16、関数ノード接続モジュール17、パラメータ編集モジュール18を実現する。また、機械学習モデル設計支援装置1において、制御部11が所定のプログラムを読み込むことで、記憶部14と協働して、機械学習モデル生成モジュール19、段階的演算モジュール20、ニューロン監視モジュール21、ブレークポイント設定モジュール22を実現する。
[機械学習モデル設計処理]
図4は、機械学習モデル設計支援装置1が実行する機械学習モデル設計処理のフローチャートである。上述した各装置のモジュールが行う処理について、本処理にて併せて説明する。
初めに、機械学習モデル設計支援装置1の関数ノードリスト取得モジュール15は、機械学習モデルの設計に用いる関数ノードの一覧を取得する(ステップS1)。関数ノードとは、入力されたデータに適用し演算する関数を一つのノードとして表したものであって、機械学習モデルは複数の関数ノードと、ノード間のデータの入出力の関係性によって表すことができる。
ここで、リストの取得は、予め関数ノードのデータが格納された関数ノードデータベース150からインターネット経由で読み込む他、ファイル等から読み込んでもよい。また、ユーザからの入力により、新たな関数ノードを定義することでリストを拡張してもよい。
図6は、関数ノードの具体例の一例である。図6は基本的に三列で構成されており、左列のテキストボックス61は関数ノードの名称を、図記号62は関数ノードを表す図記号を、摘要欄63は、関数ノードを説明するための摘要をそれぞれ表している。例えば、一般的なエンコーダは、図記号62で画面上に表され、摘要欄63の示す数式と同等の処理を行う。
このように、図記号64は非線形関数を、図記号65はバイアスありエンコーダを、図記号66は非線形エンコーダを、図記号67はオートエンコーダを、それぞれ表す。図6の最下部に記載されたLong-short term memory cellは、図記号68と、摘要に替えて等価ネットワーク69が示されている。なお、Long-short term memoryは、値を任意の時間記憶するための関数ノードで、入力ゲート、忘却ゲート、出力ゲートがそれぞれ、入力をいつ記憶すべきか、記憶された値をいつ忘却すべきか、記憶された値をいつ出力すべきかを決定する。この機能は、主として時系列データの学習に用いられる。
なお、上記の関数ノードは例示列挙であり、関数ノードの種類をこれに限るものではない。
次に、関数ノード配置モジュール16は、前記取得した関数リスト内に定義された関数ノードを配置する(ステップS2)。
ここでは、関数ノードを配置する領域を便宜的にキャンバスと呼ぶ。ユーザは、入出力の間でデータに適用したい関数と対応する関数ノードをリストから選択し、ドラッグアンドドロップ等でキャンバスに配置する。ここでは、任意の種類の関数ノードを任意の数配置することが可能であって、キャンバス上に同一種類の関数ノードが複数あってもよい。
次に、関数ノード接続モジュール17は、前記配置した関数ノード同士を有向エッジで接続する(ステップS3)。
接続された関数ノード間は、データの入出力が行われることとなり、入出力の方向はエッジの向きにより決定される。そのため原則的に有向エッジによって関数ノード同士を接続詞、無向エッジは用いない。また、エッジの終端は、関数ノード以外にも、入出力のほか加算又は要素積の演算を行う接点に接続してよい。
続けて、パラメータ編集モジュール18は、関数ノードやエッジを初めとする機械学習モデルを構成する各要素のパラメータを編集する(ステップS4)。
ここでパラメータは、ラベルや色といった見た目に関わるもののほか、いわゆるハイパーパラメータと呼ばれる演算の振る舞いに関するパラメータを含む。具体例として、例えば、単一の関数ノードで表されている関数も、実際には多次元、多層のノードからなるネットワークで構成される場合が多く、そのような入出力データの次元やノードの階層数はパラメータとして編集可能であってよい。
なお、上記の関数ノードの配置、接続及び要素のパラメータ編集は、後述の機械学習モデルの生成よりも前であれば任意のタイミングで繰り返し行ってよい。実際には、パラメータの調整や処理フローは、前もって決め打ちをするのではなく、実際に計算を行いつつ計算結果を参照し調整することが多く、機械学習モデル設計装置1ではそのプロセスを機械学習モデル検証処理として担保している。
[機械学習モデル検証処理]
図5は、機械学習モデル設計支援装置1が実行する機械学習モデル検証処理のフローチャートである。上述した各装置のモジュールが行う処理について、本処理にて併せて説明する。
前述のとおり、機械学習モデルの設計においては、実際に演算や精度検証を行いつつデータフローやパラメータの調整を行うプロセスが不可欠な場合が多い。その際には、全体の精度も重要である一方で、より詳細な各部分の演算結果を容易に参照可能にことで、どの部分が精度の向上又は低下の影響を与えているかを容易に把握することが可能となる。
機械学習モデル設計支援装置1のブレークポイント設定モジュール22は、特定の処理ステップにおいてブレークポイントを設定することで、その処理ステップが実行される際に演算を一時停止し、その瞬間の各データの値を把握することが可能である(ステップS11)。
更に、段階的演算モジュール20は先述のブレークポイント、または計算の開始を起点として、処理ステップごとに、段階的に処理を実施しながら、データを追って行くことが可能である(ステップS12)。
実際の利用形態として、ユーザは、任意の場所で止めたいという時と、ある瞬間からの処理を1ステップごとに追って行きたいという場合が多い。前半の、任意の場所で止めるという機能は、ブレークポイントによって実現される。後半の1ステップごとに追って行く状態を、ここでは段階的演算中と呼ぶことにする。
ここで、演算を1ステップ実行した後に、段階的演算中か、ブレークポイントに達した場合(ステップS13:「YES」の場合)、段階的演算モジュール20は次ステップの処理を行わず、一時停止する。なお、段階的演算中でもなく、ブレークポイントでもない場合は、段階的演算モジュール20は条件を満たすまで処理ステップを実行し続ける(ステップS13:「NO」の場合)。
一時停止中は、メモリ上のデータや、各ノードへの入出力が見られてよい。特にニューラルネットワークが用いられている場合では、関数ノードやエッジのみならず、各関数ノードを構成するニューロン一つ一つのレベルで入出力を参照することが可能であってよい(ステップS14)。
ニューロンの監視の結果、またしばらく処理を進めたい場合には、検証を終了せず、段階的演算モジュール20は演算の実行を再開する(ステップS15:「NO」の場合)。一方で、ニューロン等の監視を行った結果、検証を終了して構わない場合は、そのまま残りの演算を実装せず機械学習モデル検証処理を終了してよい(ステップS15:「YES」の場合)。また、検証処理の終了は、演算を繰り返し実行している最中でも可能であってよい。
なお、ここで処理ステップと呼んでいるものには意味的に大きく二種類のものがあり、時系列的に同タイミングで実施される処理をひとまとめにした上での時系列的な処理ステップと、データの入出力順に従って演算を実施する上で、時系列的には単一な中での処理を更に細かく分けたステップとの二種類があるが、ここではそのどちらも、ブレークポイントの設定や、段階的実行が行えてよい。
フローチャート上は単純化しているものの、実際には、パラメータの編集、関数ノードの選択や接続の再構成は、これらの値の検証を行いながら繰り返し実施されることが普通である。以上が、機械学習モデル検証処理の手順である。
機械学習モデル設計処理に戻り、上記によって設計された機械学習モデルは、機械学習モデル生成モジュール19によって、プログラムから実際に利用可能な実装や学習済みモデルとして生成される(ステップS6)。その際の処理の実行は、検証処理の実行結果をそのまま引き継いでもよいし、初めから実行してもよい。生成されたモデルは、ファイルとして出力されてもよい。また、生成済みモデルは、インターネット経由で有償、無償を問わず取引されてよい。以上が、機械学習モデル設計処理の手順である。
図7は、機械学習モデル設計支援装置1が表示する画面の一例を表した図である。アプリケーションウィンドウ71は、ツールボックス72と作業領域73を備える。作業領域73上には設計中の機械学習モデル74が表示されている。ユーザはツールボックス72から要素を選択し、作業領域73上に配置することができる。作業領域73上の要素75を選択することで、選択中の要素75のパラメータ76が作業領域73の一部に表示される。パラメータ76は編集、設定が可能であってよい。
上述した手段、機能は、コンピュータ(CPU,情報処理装置,各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
1 機械学習モデル設計支援装置、5 公衆回線網、100 サーバ、150 関数ノードデータベース

Claims (13)

  1. 一以上のノードの接続と、ノード間のデータの入出力によって機械学習モデルを表す機械学習モデル設計支援装置であって、
    前記ノードに対する入力を所定の関数に基づき演算する関数ノードの一覧を取得する関数ノードリスト取得手段と、
    前記取得した一覧に含まれる関数ノードを、グラフの一部として配置する関数ノード配置手段と、
    前記関数ノード同士を、当該ノード間で入出力されるデータの入出力の関係性を表す有向エッジで接続する関数ノード接続手段と、
    前記関数ノード及び有向エッジで形成された有向グラフから、等価な機械学習モデルを生成する機械学習モデル生成手段と、
    を備えることを特徴とする機械学習モデル設計支援装置。
  2. 前記機械学習モデルが、ニューラルネットワークの機械学習モデルであることを特徴とする請求項1に記載の機械学習モデル設計支援装置。
  3. 前記有向エッジは、前記データの次元数に関わらず、単線で表現可能であることを特徴とする請求項1又は2に記載の機械学習モデル設計支援装置。
  4. 前記関数ノードにおいて前記所定の関数が演算に用いられることが、当該関数と対応する記号が当該ノードと関連付けられて表示されることにより表されることを特徴とする請求項1乃至3のいずれか一項に記載の機械学習モデル設計支援装置。
  5. 前記関数ノードと、前記有向エッジのもつパラメータを編集、設定するパラメータ編集手段と、
    を備えることを特徴とする請求項1乃至4のいずれか一項に記載の機械学習モデル設計支援装置。
  6. 前記関数ノードの配置及び関数ノード同士の接続は、グラフィカル・ユーザ・インターフェース上で、ポインティングデバイスによる操作によって実現されることが可能であることを特徴とする請求項1乃至5のいずれか一項に記載の機械学習モデル設計支援装置。
  7. 前記生成された機械学習モデルにつき、処理ステップごとに、学習と判別の少なくともいずれかのための演算を実行する段階的演算手段と、
    を備えることを特徴とする請求項1乃至6のいずれか一項に記載の機械学習モデル設計支援装置。
  8. 前記実行される処理単位ごとの学習又は判別のための演算において、特定の関数ノードと対応するネットワーク上の一以上のニューロンにつき、入出力値と重みの少なくともいずれかを取得するニューロン監視手段と、
    を備えることを特徴とする請求項2乃至7のいずれか一項に記載の機械学習モデル設計支援装置。
  9. 前記実行される処理時間単位ごとの学習又は判別のための演算において、特定の箇所における演算が実行される前又は後のタイミングで演算を一時停止するブレークポイント設定手段と、
    を備えることを特徴とする請求項7又は8に記載の機械学習モデル設計支援装置。
  10. 前記関数ノードとして、エンコーダ、非線形関数、遅延器、加算接点、要素積接点、バイアスありエンコーダ、ランダムエンコーダ、ファイルからの入力、出力の表示を少なくとも含むことを特徴とする請求項1乃至9のいずれか一項に記載の機械学習モデル設計支援装置。
  11. 前記関数ノードとして、オートエンコーダを含むことを特徴とする請求項1乃至10のいずれか一項に記載の機械学習モデル設計支援装置。
  12. 一以上のノードの接続と、ノード間のデータの入出力によって機械学習モデルを表す機械学習モデル設計支援方法であって、
    前記ノードに対する入力を所定の関数に基づき演算する関数ノードの一覧を取得するステップと、
    前記取得した一覧に含まれる関数ノードを、グラフの一部として配置するステップと、
    前記関数ノード同士を、当該ノード間で入出力されるデータの入出力の関係性を表す有向エッジで接続するステップと、
    前記関数ノード及び有向エッジで形成された有向グラフから、等価な機械学習モデルを生成するステップと、
    を備えることを特徴とする機械学習モデル設計支援方法。
  13. 一以上のノードの接続と、ノード間のデータの入出力によって機械学習モデルを表す機械学習モデル設計支援装置に、
    前記ノードに対する入力を所定の関数に基づき演算する関数ノードの一覧を取得するステップ、
    前記取得した一覧に含まれる関数ノードを、グラフの一部として配置するステップ、
    前記関数ノード同士を、当該ノード間で入出力されるデータの入出力の関係性を表す有向エッジで接続するステップ、
    前記関数ノード及び有向エッジで形成された有向グラフから、等価な機械学習モデルを生成するステップ、
    を実行させることを特徴とする機械学習モデル設計支援装置用プログラム。
JP2015103180A 2015-05-20 2015-05-20 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム Active JP6007430B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015103180A JP6007430B2 (ja) 2015-05-20 2015-05-20 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015103180A JP6007430B2 (ja) 2015-05-20 2015-05-20 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム

Publications (2)

Publication Number Publication Date
JP2015167041A true JP2015167041A (ja) 2015-09-24
JP6007430B2 JP6007430B2 (ja) 2016-10-12

Family

ID=54257850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015103180A Active JP6007430B2 (ja) 2015-05-20 2015-05-20 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム

Country Status (1)

Country Link
JP (1) JP6007430B2 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105573836A (zh) * 2016-02-23 2016-05-11 中国农业银行股份有限公司 数据处理方法及装置
JP2017070105A (ja) * 2015-09-30 2017-04-06 ファナック株式会社 パラメータを自動調整する機能を有する機械学習装置及び電動機制御装置
CN106682732A (zh) * 2016-12-14 2017-05-17 浙江大学 一种应用于神经网络的高斯误差函数电路
KR20180069881A (ko) * 2015-10-28 2018-06-25 구글 엘엘씨 연산 그래프 수정
WO2018142765A1 (ja) * 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 学習済みモデル提供方法および学習済みモデル提供装置
JP2018156451A (ja) * 2017-03-17 2018-10-04 株式会社東芝 ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム
KR20190044569A (ko) * 2017-10-20 2019-04-30 그래프코어 리미티드 복수-쓰레드 프로세서에서의 복수 쓰레드들의 상태들의 결합
KR20190044568A (ko) * 2017-10-20 2019-04-30 그래프코어 리미티드 복수-타일 복수-칩 프로세싱 구성에서의 동기화
KR20190044566A (ko) * 2017-10-20 2019-04-30 그래프코어 리미티드 복수-타일 프로세싱 구성에서의 동기화
KR20200027096A (ko) * 2018-08-31 2020-03-12 한국전자통신연구원 레고형 딥러닝 학습엔진 생성 장치 및 방법
RU2727858C2 (ru) * 2016-12-19 2020-07-24 Кабусики Кайся Тосиба Обучающее устройство, устройство идентификации листа бумаги и способ идентификации листа бумаги
JP2021082367A (ja) * 2021-03-05 2021-05-27 エヌ・ティ・ティ・コミュニケーションズ株式会社 シミュレーション装置、シミュレーション方法およびシミュレーションプログラム
US11048563B2 (en) 2017-10-20 2021-06-29 Graphcore Limited Synchronization with a host processor
KR20210099155A (ko) * 2019-01-28 2021-08-11 미쓰비시덴키 가부시키가이샤 개발 지원 장치, 개발 지원 시스템, 및, 개발 지원 방법
KR102420071B1 (ko) * 2021-11-18 2022-07-12 주식회사 마키나락스 인공지능 기반의 반도체 설계 자동화 방법
KR102430483B1 (ko) * 2022-02-04 2022-08-08 주식회사 마키나락스 반도체 소자의 배치를 평가하는 방법
JP2022137193A (ja) * 2021-10-28 2022-09-21 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 深層学習モデルの分散トレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム
US11507416B2 (en) 2018-11-30 2022-11-22 Graphcore Limited Gateway pull model
KR102474856B1 (ko) * 2021-11-18 2022-12-06 주식회사 마키나락스 인공지능 기반의 반도체 설계 자동화 방법
KR102507253B1 (ko) * 2022-09-01 2023-03-08 주식회사 애자일소다 사용자 데이터 기반의 물체 위치 최적화를 위한 강화학습 장치
US11734484B2 (en) 2021-11-18 2023-08-22 MakinaRocks Co., Ltd. Method for automating semiconductor design based on artificial intelligence
US11854916B2 (en) 2022-02-04 2023-12-26 MakinaRocks Co., Ltd. Method for evaluating placement of semiconductor devices
JP7439242B2 (ja) 2019-09-12 2024-02-27 ヴィアナイ システムズ, インコーポレイテッド 機械学習モデルの視覚的作成及び監視

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102150647B1 (ko) * 2020-04-16 2020-09-02 주식회사 딥노이드 의료영상 판독을 위한 인공지능 기반의 클라우드 플랫폼 시스템
KR102212966B1 (ko) * 2020-06-05 2021-02-05 주식회사 딥노이드 개별 레이어의 예상 실행시간이 표시되는 의료영상 판독을 위한 인공지능 기반의 클라우드 플랫폼 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049508A (ja) * 1995-12-27 1998-02-20 Toshiba Corp データ処理システム、システム構築装置、システム構築方法、及びシステム構築プログラムを記録した媒体
JPH10254727A (ja) * 1997-03-14 1998-09-25 Toshiba Corp システム構築支援装置及びシステム構築支援方法
JP2001051968A (ja) * 1999-08-05 2001-02-23 Fuji Xerox Co Ltd ニューラルネットワーク構築方法及びニューラルネットワーク処理装置
JP2002230359A (ja) * 2001-01-31 2002-08-16 Toyota Central Res & Dev Lab Inc シミュレーションモデル配信方法、シミュレーションモデル収集方法、プログラムおよび記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049508A (ja) * 1995-12-27 1998-02-20 Toshiba Corp データ処理システム、システム構築装置、システム構築方法、及びシステム構築プログラムを記録した媒体
JPH10254727A (ja) * 1997-03-14 1998-09-25 Toshiba Corp システム構築支援装置及びシステム構築支援方法
JP2001051968A (ja) * 1999-08-05 2001-02-23 Fuji Xerox Co Ltd ニューラルネットワーク構築方法及びニューラルネットワーク処理装置
JP2002230359A (ja) * 2001-01-31 2002-08-16 Toyota Central Res & Dev Lab Inc シミュレーションモデル配信方法、シミュレーションモデル収集方法、プログラムおよび記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HOWARD DEMUTH 外2名, "NEURAL NETWORK TOOLBOX 6 USER'S GUIDE", vol. Version 6.0.3(Release 2009b), JPN6015050641, 2009, US, pages 2 - 1, ISSN: 0003218399 *
青山貴伸, "使える! MATLAB/SIMULINKプログラミング", JPN6015050642, 1 June 2007 (2007-06-01), pages 188 - 193, ISSN: 0003218400 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017070105A (ja) * 2015-09-30 2017-04-06 ファナック株式会社 パラメータを自動調整する機能を有する機械学習装置及び電動機制御装置
US10353351B2 (en) 2015-09-30 2019-07-16 Fanuc Corporation Machine learning system and motor control system having function of automatically adjusting parameter
US11087216B2 (en) 2015-10-28 2021-08-10 Google Llc Modifying computational graphs
KR20180069881A (ko) * 2015-10-28 2018-06-25 구글 엘엘씨 연산 그래프 수정
KR102204887B1 (ko) 2015-10-28 2021-01-19 구글 엘엘씨 연산 그래프 수정
CN105573836A (zh) * 2016-02-23 2016-05-11 中国农业银行股份有限公司 数据处理方法及装置
CN106682732A (zh) * 2016-12-14 2017-05-17 浙江大学 一种应用于神经网络的高斯误差函数电路
CN106682732B (zh) * 2016-12-14 2019-03-29 浙江大学 一种应用于神经网络的高斯误差函数电路
RU2727858C2 (ru) * 2016-12-19 2020-07-24 Кабусики Кайся Тосиба Обучающее устройство, устройство идентификации листа бумаги и способ идентификации листа бумаги
JP7149459B2 (ja) 2017-02-03 2022-10-07 パナソニックIpマネジメント株式会社 学習済みモデル提供方法および学習済みモデル提供装置
CN109074607B (zh) * 2017-02-03 2022-04-29 松下知识产权经营株式会社 学得模型提供方法和学得模型提供装置
CN109074607A (zh) * 2017-02-03 2018-12-21 松下知识产权经营株式会社 学得模型提供方法和学得模型提供装置
JPWO2018142765A1 (ja) * 2017-02-03 2019-11-21 パナソニックIpマネジメント株式会社 学習済みモデル提供方法および学習済みモデル提供装置
WO2018142765A1 (ja) * 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 学習済みモデル提供方法および学習済みモデル提供装置
JP2018156451A (ja) * 2017-03-17 2018-10-04 株式会社東芝 ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム
US10803388B2 (en) 2017-03-17 2020-10-13 Canon Medical Systems Corporation Network training device, network training system, network training method, and computer program product
KR102263078B1 (ko) 2017-10-20 2021-06-09 그래프코어 리미티드 복수-타일 복수-칩 프로세싱 구성에서의 동기화
KR20190044568A (ko) * 2017-10-20 2019-04-30 그래프코어 리미티드 복수-타일 복수-칩 프로세싱 구성에서의 동기화
KR102183118B1 (ko) * 2017-10-20 2020-11-25 그래프코어 리미티드 복수-타일 프로세싱 구성에서의 동기화
KR102253628B1 (ko) 2017-10-20 2021-05-18 그래프코어 리미티드 복수-쓰레드 프로세서에서의 복수 쓰레드들의 상태들의 결합
KR20190044569A (ko) * 2017-10-20 2019-04-30 그래프코어 리미티드 복수-쓰레드 프로세서에서의 복수 쓰레드들의 상태들의 결합
US11023413B2 (en) 2017-10-20 2021-06-01 Graphcore Limited Synchronization in a multi-tile, multi-chip processing arrangement
US11113060B2 (en) 2017-10-20 2021-09-07 Graphcore Limited Combining states of multiple threads in a multi threaded processor
US11048563B2 (en) 2017-10-20 2021-06-29 Graphcore Limited Synchronization with a host processor
KR20190044566A (ko) * 2017-10-20 2019-04-30 그래프코어 리미티드 복수-타일 프로세싱 구성에서의 동기화
US11106510B2 (en) 2017-10-20 2021-08-31 Graphcore Limited Synchronization with a host processor
KR20200027096A (ko) * 2018-08-31 2020-03-12 한국전자통신연구원 레고형 딥러닝 학습엔진 생성 장치 및 방법
KR102191773B1 (ko) 2018-08-31 2020-12-16 한국전자통신연구원 레고형 딥러닝 학습엔진 생성 장치 및 방법
US11507416B2 (en) 2018-11-30 2022-11-22 Graphcore Limited Gateway pull model
KR20210099155A (ko) * 2019-01-28 2021-08-11 미쓰비시덴키 가부시키가이샤 개발 지원 장치, 개발 지원 시스템, 및, 개발 지원 방법
KR102329365B1 (ko) 2019-01-28 2021-11-19 미쓰비시덴키 가부시키가이샤 개발 지원 장치, 개발 지원 시스템, 및, 개발 지원 방법
US11886842B2 (en) 2019-01-28 2024-01-30 Mitsubishi Electric Corporation Development assistance device, development assistance system, and development assistance method
JP7439242B2 (ja) 2019-09-12 2024-02-27 ヴィアナイ システムズ, インコーポレイテッド 機械学習モデルの視覚的作成及び監視
JP2021082367A (ja) * 2021-03-05 2021-05-27 エヌ・ティ・ティ・コミュニケーションズ株式会社 シミュレーション装置、シミュレーション方法およびシミュレーションプログラム
JP7084520B2 (ja) 2021-03-05 2022-06-14 エヌ・ティ・ティ・コミュニケーションズ株式会社 シミュレーション装置、シミュレーション方法およびシミュレーションプログラム
JP2022137193A (ja) * 2021-10-28 2022-09-21 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 深層学習モデルの分散トレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP7433373B2 (ja) 2021-10-28 2024-02-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 深層学習モデルの分散トレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム
KR102474856B1 (ko) * 2021-11-18 2022-12-06 주식회사 마키나락스 인공지능 기반의 반도체 설계 자동화 방법
US11734484B2 (en) 2021-11-18 2023-08-22 MakinaRocks Co., Ltd. Method for automating semiconductor design based on artificial intelligence
US11790136B2 (en) 2021-11-18 2023-10-17 MakinaRocks Co., Ltd. Method for automating semiconductor design based on artificial intelligence
KR102420071B1 (ko) * 2021-11-18 2022-07-12 주식회사 마키나락스 인공지능 기반의 반도체 설계 자동화 방법
KR102430483B1 (ko) * 2022-02-04 2022-08-08 주식회사 마키나락스 반도체 소자의 배치를 평가하는 방법
US11854916B2 (en) 2022-02-04 2023-12-26 MakinaRocks Co., Ltd. Method for evaluating placement of semiconductor devices
KR102507253B1 (ko) * 2022-09-01 2023-03-08 주식회사 애자일소다 사용자 데이터 기반의 물체 위치 최적화를 위한 강화학습 장치

Also Published As

Publication number Publication date
JP6007430B2 (ja) 2016-10-12

Similar Documents

Publication Publication Date Title
JP6007430B2 (ja) 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム
Zhu et al. A context-aware augmented reality assisted maintenance system
US10657568B1 (en) System with interactive user interface for efficiently accessing component-level reviews
CN110363853A (zh) 家具摆放方案生成方法、装置以及设备、存储介质
US10740397B2 (en) User modelling and metadata of transmedia content data
US10229215B2 (en) Visualisation and navigation of transmedia content data
JP2019032820A (ja) 画像を入力とする関数を学習するためのデータセット
Orsborn et al. Multiagent shape grammar implementation: automatically generating form concepts according to a preference function
Orbay et al. Deciphering the influence of product shape on consumer judgments through geometric abstraction
Sylcott et al. The effect of product representation in visual conjoint analysis
Manns et al. A new approach to plan manual assembly
Dingli et al. Interacting with intelligent digital twins
KR20220040401A (ko) 딥뉴럴 네트워크 기반의 음원 자동 생성 서비스를 제공하는 장치 및 방법
US20180081885A1 (en) Handoff support in asynchronous analysis tasks using knowledge transfer graphs
Seipp et al. Towards a visual guide for communicating uncertainty in visual analytics
US10331726B2 (en) Rendering and interacting with transmedia content data
CN117529737A (zh) 信息处理系统和信息处理方法
Theivendran et al. RecHap: An Interactive Recommender System For Navigating a Large Number of Mid-Air Haptic Designs
Lu et al. Multimodal coexistence environment design to assist user testing and iterative design of higame emotional interaction design for elderly
US11716376B2 (en) Architecture for managing transmedia content data
Catarci et al. From Consensus to Innovation. Evolving Towards Crowd-based User-Centered Design
Deng et al. CAD Challenges App: An Informatics Framework for Parametric Modeling Practice and Research Data Collection in Computer-Aided Design
US11501475B2 (en) Graphical representation of electronic circuit operation
KR102144433B1 (ko) 그래픽 사용자 인터페이스 프로토타입 제공 방법 및 장치
Sarakiotis Human-centered AI: Challenges and opportunities

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150811

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150811

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160820

R150 Certificate of patent or registration of utility model

Ref document number: 6007430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250