JP2007164406A - Decision making system with learning mechanism - Google Patents
Decision making system with learning mechanism Download PDFInfo
- Publication number
- JP2007164406A JP2007164406A JP2005358823A JP2005358823A JP2007164406A JP 2007164406 A JP2007164406 A JP 2007164406A JP 2005358823 A JP2005358823 A JP 2005358823A JP 2005358823 A JP2005358823 A JP 2005358823A JP 2007164406 A JP2007164406 A JP 2007164406A
- Authority
- JP
- Japan
- Prior art keywords
- clustering
- action
- learning
- unit
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
近年、知的ソフトウェア(ソフトウェア・エージェント)への期待が高まっている。いろいろな状況において、自律的に判断をして外界に対して行動を行うソフトウェアーである。ロボットや、人を知的に支援する意思決定支援システムに多く利用されている。 In recent years, expectations for intelligent software (software agents) have increased. Software that makes autonomous decisions and acts on the outside world in various situations. It is often used in robots and decision support systems that intelligently support people.
知的ソフトウェア(以下エージェントと呼ぶ)として構築するためには、状況を適確に判断して、それに即した最適な行動を効率よく決めていく必要がある。システム設計時に全ての状況に対して、それに対応する行動選択を設定しておくことは、実問題の規模では不可能に近い。従って、そのエージェントが色々経験をつみながら学習して行き、状況に次第に適応していく機能が必要になってくる。この機能を実現する方法として、近年、強化学習という方法が注目を集めている。
In order to build it as intelligent software (hereinafter referred to as an agent), it is necessary to accurately determine the situation and efficiently determine the optimal action. It is almost impossible to set action selections corresponding to all situations at the time of system design. Therefore, it is necessary for the agent to learn while gaining experience and adapt to the situation. In recent years, reinforcement learning has attracted attention as a method for realizing this function.
しかし、状態Sは基本的に離散値パラメータの組合せで表現され、有限状態空間上をベースにしている。そのため、連続値パラメータに対しても、何らかの量子化(離散化)を行う必要はあり、色々な手法が提案されている。また、行動価値Q(st,at)の空間は状態空間とその状態における選択可能な行動空間の組合せになる。行動パラメータが連続値の場合(制御量としての速度、圧力など)の量子化するアイデアは、状態空間量子化と同様、色々行われている。しかし、状態Sについて取り得る行動が離散であっても何百、何千とある場合の対応はなされていない。
However, the state S is basically represented by a combination of discrete value parameters and is based on a finite state space. For this reason, it is necessary to perform some quantization (discretization) on the continuous value parameter, and various methods have been proposed. Also, the space of action value Q (s t , a t ) is a combination of a state space and a selectable action space in that state. There are various ideas to quantize when the behavior parameter is a continuous value (speed, pressure, etc. as a controlled variable), as in the state space quantization. However, even if the actions that can be taken with respect to the state S are discrete, there is no correspondence when there are hundreds or thousands.
本発明は前記のように、行動の選択のための空間が非常に大きいとき、学習精度、学習効率を高めることを目的になされたものである。 As described above, the present invention is intended to improve learning accuracy and learning efficiency when a space for selecting an action is very large.
(1)、状況を理解して、その状況に適応した行動を決定する意思決定システムにおいて、行動選択肢が膨大な時、意思決定のためのルールを学習する学習部と、膨大な行動選択肢に対して階層クラスタリングを行う行動クラスタリング部を有し、前記学習部の学習と、前記行動クラスタリング部のクラスタリングが動的に行われることを特徴とする学習機構付意思決定システム。
(2)、前記行動クラスタリング部において、行動のクラスタリングに用いる属性に連続値と離散値を利用でき、連続値に対して離散化するために量子化部を有することを特徴とする前記(1)に記載の学習機構付意思決定システム。
(3)、前記学習部において、強化学習機構を用いて、同一クラスにおける未経験の行動に対する、状態行動価値に対しても強化する方式を有し、かつ前記行動クラスタリング部のクラスタリングに於いて、この状態行動価値を利用して類似性を求める方式を有しクラスタリングを行うことを特徴とする前記(1)に記載の学習機構付意思決定システム。
(4)、前記行動クラスタリング部において、行動の都度クラスタリングを行うのではなく、クラスタリングの更新を一定の間隔で行うことを特徴とする前記(1)に記載の学習機構付意思決定システム。
(1) In a decision-making system that understands the situation and decides an action adapted to the situation, when the action options are enormous, the learning unit that learns the rules for decision-making and the enormous action options And a behavior clustering unit that performs hierarchical clustering, and learning of the learning unit and clustering of the behavior clustering unit are dynamically performed.
(2) In the behavior clustering unit, the continuous value and the discrete value can be used for the attribute used for behavior clustering, and the quantization unit is provided to discretize the continuous value (1) The decision-making system with a learning mechanism described in 1.
(3) In the learning unit, the reinforcement learning mechanism is used to enhance the state behavior value with respect to the inexperienced behavior in the same class, and in the clustering of the behavior clustering unit, The decision making system with a learning mechanism according to the above (1), characterized in that clustering is performed by using a method for obtaining similarity using state action values.
(4) The decision making system with a learning mechanism according to (1), wherein the behavior clustering unit updates clustering at regular intervals instead of performing clustering for each behavior.
上記のようなモデルで実験した結果、非常に高い学習効率で、学習精度のよい結果を得ることができ、このような、大規模な問題に対して有効な方式である。
つまり、従来方法では、学習が収束しないケースが多いが、本発明の方法では収束性が格段に向上する。また、従来のクラスタリングで行うより行動状態価値の類似性によるクラスタリングを組み合わせて階層型クラスタリングを用いる方が学習精度が一段と向上できる。
As a result of experiments with the above model, it is possible to obtain results with very high learning efficiency and good learning accuracy, which is an effective method for such a large-scale problem.
That is, in the conventional method, learning does not converge in many cases, but the convergence of the method of the present invention is remarkably improved. In addition, learning accuracy can be further improved by using hierarchical clustering in combination with clustering based on similarity of behavioral state values compared to conventional clustering.
図1に基づいて本発明システムの作用を説明する。
本発明の意思決定システムとしてエージェント1は環境2から得られる情報(状態情報)を基に最適な意思決定を行い行動する。その結果、環境に変化が生じ、またその状況を認知し最適な意思決定を行い行動するというサイクルを繰り返す。その間にエージェントはある望ましい状態(望ましくない状態)になることにより、報酬(罰)をうることになる。
つまり、環境2から状態情報を状態認識部11で知覚し、その状態が、どの状態空間であるかを認識する。当然このとき、状態空間パラメータが連続値である場合、量子化する機構は組み込まれている。認識された状態stをもとに、行動選択部13においてその状態での状態行動価値Q(st,at)から行動を選択する。行動を行うことにより環境2は変化する。このとき環境からの報酬(罰)をベースに状態行動価値Q(st,at)を数1にそって更新する。
本発明では、行動選択肢が非常に大きい場合を想定している。そこで、行動空間を減少させるために行動クラスタ部14が作動し数多くある行動を階層的にクラスタ分類しその抽象クラスを用いることで行動選択、学習の効率化、高精度化を実現する。
本発明野の特徴の一つとして状態行動価値の類似性に基づいてクラスタリングを行うことが挙げられる。この方式を図2に基づいて説明する。
21に於いて、全ての行動をALリストに格納する。22に於いて、そのリストのトップの行動取り出し211のループの終端までの処理をALリストが空になるまで行う。まず、23でa'が一度でも選択されたことのある行動かチェックし、もし一度も選択されていない行動なら212の処理を行う(後述)。一度でも経験ある行動ならば24のようにALから取り出された行動a'とALに残されている行動との状態行動価値の類似度を全て調べる。類似性を計算する処理(25)、つまり行動aiとajnの類似性は以下の数2で求める。
The operation of the system of the present invention will be described with reference to FIG.
As the decision making system of the present invention, the
That is, state information is perceived from the
In the present invention, it is assumed that the action options are very large. Therefore, the
One feature of the present invention is that clustering is performed based on the similarity of state action values. This method will be described with reference to FIG.
At 21, all actions are stored in the AL list. At 22, the processing up to the end of the loop of the action extraction 211 at the top of the list is performed until the AL list becomes empty. First, in 23, it is checked whether a 'has been selected even once. If the behavior has never been selected, the process 212 is performed (described later). If the action is experienced even once, the degree of similarity of the state action value between the action a ′ taken out from the AL and the action left in the AL as in 24 is examined. Processing for calculating similarity (25), that is, the similarity between actions a i and a jn is obtained by the following equation (2).
以上、状態行動価値の類似性によるクラスタリングについて述べたが、図1の学習部12と連携しておく必要がある。つまり、非常に数多くある行動に対して、実際に選択行動できるものには限りがあり、状態行動価値を学習できない行動が多くでてきてしまう。そのために、学習部に於いては、ある行動が行われ、それによって、状態行動価値が更新される際に、その行動と同じクラスにある行動に対する状態行動価値もある影響度をもって更新する方式をとる。このことにより、未経験な行動に対しても、ある程度、学習できることになる。
学習における更新式を以下の数3のようにする。
As described above, clustering based on similarity of state action values has been described, but it is necessary to cooperate with the
The update formula in learning is as shown in Equation 3 below.
以上のように、類似度によるクラスタリングにより、学習効率を向上させることが出来る。しかし、行動空間が非常に大きい場合、必ずしも行動空間がこのクラスタリングによって十分に小さくなる保証はない。そこで、階層型クラスタリングを導入する。
As described above, learning efficiency can be improved by clustering based on similarity. However, when the action space is very large, there is no guarantee that the action space becomes sufficiently small by this clustering. Therefore, hierarchical clustering is introduced.
図3において、3-1は類似度によるクラスタリングを示している。図4において、3-2は階層型クラスタリングを示している。つまり、3-2の下位クラスは行動属性によるクラスタリングで事前にクラスタリングを行う。この行動属性によるクラスタリングは、通常の多変量解析によるクラスタリングやK-mean法によるクラスタリングなど、既存のクラスタリング手法は利用できる。3-2の下位クラスのC1、C2、…は通常のクラスタリングで行ったクラスであり、このC1、C2、…を図2の21の行動リストとして、類似度クラスタリングを行いC'1、C'2を得る。学習の方式は、下位階層の行動状態価値の計算方法は前記(1)式の通り行う。また、上位クラスの状態行動価値の計算は、そのクラスに属する下位クラスの状態行動価値の平均値として計算することとが出来る。
以上により行動空間が非常に大きい問題に対しても効率よく学習することが出来る。
In FIG. 3, 3-1 indicates clustering based on similarity. In FIG. 4, 3-2 indicates hierarchical clustering. In other words, the lower class of 3-2 performs clustering in advance by clustering by action attributes. For the clustering based on behavior attributes, existing clustering methods such as clustering based on ordinary multivariate analysis and K-mean method can be used. The subclasses C1, C2,... Of 3-2 are classes performed by normal clustering. Similarity clustering is performed by using C1, C2,... Get two. As the learning method, the behavior state value calculation method of the lower hierarchy is performed according to the equation (1). The calculation of the state action value of the upper class can be calculated as an average value of the state action values of the lower class belonging to the class.
As described above, it is possible to learn efficiently even for a problem with a very large action space.
本発明の中心である図1の行動クラスタ部14について以下の実施例に基づいて詳述する。
今、ソフトウェアーエージェントを想定する。このエージェントは幾種類かのコンテンツ(例えば映像コンテンツなど)をもっており、これを各顧客にセールスにいくエージェントである。このエージェントは数多くいる顧客に対し、どの顧客を訪ねていけば効率の良いセールス活動ができるかを学習する。従来ネットワーク上でその様な行動をするには、全ての顧客に対してブロードキャストすれば良い。しかし、将来的にはこのような方式は難しくなるト考えられる。つまり各顧客に対し多くのエージェントがブロードキャスト的に訪問されること自体非常に煩わしく、またセキュリティの面でも問題があるため、その訪問に対して制約およびコストをかけるという方式に移行していくことを想定している。従って闇雲に顧客を訪問するのではなく、ある戦略のもとに訪問することが必要となってくる。また、コンテンツの販売に関しても数限りなくコピーして販売できるのではなく、販売元から許可された本数のみコピーし販売できるという前提に立っている。
The
Now assume a software agent. This agent has several kinds of contents (for example, video contents) and goes to sales for each customer. This agent learns from many customers who can visit them for efficient sales activities. In order to perform such actions on a conventional network, it is only necessary to broadcast to all customers. However, in the future, such a method will become difficult. In other words, it is very annoying that many agents visit each customer in a broadcast manner, and there is a problem with security, so it is necessary to move to a method that places restrictions and costs on the visit. Assumed. Therefore, it is necessary to visit customers under a certain strategy rather than visiting customers in the dark clouds. In addition, it is based on the premise that content can be copied and sold not limited to the number of copies but sold only by the number permitted by the seller.
以上のような前提のもと、エージェントの動作を述べる。コンテンツを販売するエージェントをセールスエージェントと呼ぶことにする。このセールスエージェントの動作を図5に添って説明する
図5の41においてセールスエージェントは5種類の商品のを受け取る(商品リストに格納する)。セールス基地をスタートする。
図5の42に於いて商品の販売対象となる顧客を選択する。このとき顧客の選択方法は上位階層(類似度クラスタで作成したクラスタ)から状態行動価値Q(st,a)の高いクラスを選択し、次にそのクラスに属する行動クラス(通常のクラスタ処理で作成したクラスタ)そのクラスの状態行動価値が高いクラスを選択し、最終的にそのクラスに含まれる顧客集合(木構造のリーフ)の中からランダムで一つの顧客を選択する。このときの状態stは商品の品揃え状態であり行動aは移動先(顧客の属するクラスを指している。選択後、商品郡(コンテンツ)を持ったコンテンツを持って、顧客の下へ移動する。
図5の43においてエージェントは訪問した顧客との交渉を行い、商品を販売する。もし、顧客にある商品が売れた時は、その商品を商品リストから削除する(同じ種類の商品を持っている場合は一つ減ずる)。これによって状態stが変化する。
図5の44に於いて、交渉結果に対しての報酬を得る。その顧客に対して商品は一つも売れなかった時は“0”。商品が売れた場合は“売れた商品の数*0.2”の報酬を得る。また、その顧客に対して、一回の交渉ごとに“−0.1”の報酬も同時にえることとする。このようにしてセールスエージェントは交渉戦略を学習する。
図5の45において、次の顧客を訪れるかどうかを判断する。この実施例では、商品リストが空になるか、ある一定の回数顧客を訪問してしまったら、顧客の訪問をやめ、セールス基地に戻り、改めて商品の品揃えを整えて、上記の処理を繰り返す。このセールス基地を出発して、セールス基地に戻る一サイクルを1エピソードと呼ぶことにする。
図5の46はある一定のエピソード回数に達したかを判断し、達成したら学習を終了する。
この動作実験を実世界上で行うには大変なコストがかかるために下記のような顧客モデルを計算機上で作成して本発明の有用性を示す
Based on the above assumptions, the operation of the agent will be described. An agent that sells content is called a sales agent. The operation of the sales agent will be described with reference to FIG. 5. In 41 of FIG. 5, the sales agent receives five types of products (stores them in the product list). Start sales base.
At 42 in FIG. 5, a customer to be sold is selected. At this time, the customer selection method is to select a class having a high state action value Q (s t , a) from the upper hierarchy (cluster created by similarity cluster), and then to an action class belonging to that class (in normal cluster processing) The created cluster) selects a class whose state action value is high, and finally selects one customer randomly from the customer set (leaf of tree structure) included in the class. After the state s t is the destination a is behavior a assortment state of the product (which refers to the class that belongs to the customer. The choice of this time, with a content that has the goods County (content), moved to the bottom of the customer To do.
In 43 of FIG. 5, the agent negotiates with the visited customer and sells the product. If a product sold to a customer is sold, the product is deleted from the product list (if it has the same type of product, it is decremented by one). This state s t is changed.
At 44 in FIG. 5, a reward for the negotiation result is obtained. “0” when no product is sold to the customer. When a product is sold, a reward of “number of sold products * 0.2” is obtained. In addition, a reward of “−0.1” is given to the customer at the same time for each negotiation. In this way, the sales agent learns the negotiation strategy.
At 45 in FIG. 5, it is determined whether or not to visit the next customer. In this embodiment, if the product list is empty or the customer has been visited a certain number of times, the customer stops visiting, returns to the sales base, arranges the product lineup again, and repeats the above processing. . One cycle starting from this sales base and returning to the sales base is called one episode.
46 in FIG. 5 determines whether or not a certain number of episodes has been reached, and when it is achieved, the learning is terminated.
Since it is very expensive to perform this operation experiment in the real world, the following customer model is created on a computer to show the usefulness of the present invention.
<顧客モデル>
1.性別{男性,女性}(離散値)
2.年齢{15~65}(連続値)
3.年収{100~1000}(連続値)
4.職業{学生,会社員,無職}(離散値)
5.商品の嗜好{興味がある,普通,興味がない}(離散値)
ただし商品の嗜好は商品の数だけ存在する。今回は10個の商品データを使用するので商品の嗜好も10個存在する。商品はロック,クラシック,ジャズ,ブルース,メタル,演歌,ヒーリング,J-POP,トラッド,R&Bとする。顧客モデルのパラメータはセールスエージェントが自由に見ることができる。ただし、見る事のできないパラメータに購入確率がある。購入確率は嗜好の度合いにより5~95(%)の整数値で表され商品と同じ数だけ存在する。
<Customer model>
1. Gender {male, female} (discrete value)
2. Age {15-65} (continuous value)
3. Annual income {100 ~ 1000} (continuous value)
4). Occupation {student, office worker, unemployed} (discrete value)
5. Product preferences {interested, normal, not interested} (discrete values)
However, there are as many product preferences as there are products. This time, we use 10 product data, so there are 10 product preferences. The products are Rock, Classic, Jazz, Blues, Metal, Enka, Healing, J-POP, Trad, R & B. The parameters of the customer model can be viewed freely by sales agents. However, purchase probability is a parameter that cannot be seen. The purchase probability is expressed by an integer value of 5 to 95 (%) depending on the degree of preference, and there are the same number as the product.
本発明は、今後インターネットでの各種コンテンツ販売機能として広大なコンテンツ流通機構に利用できる。 The present invention can be used for a vast content distribution mechanism as various content sales functions on the Internet in the future.
1 エージェント
2 環境
11 状態認識部
12 学習部
13 行動選択部
14 行動クラスタ部
15 量子化部
3-1 類似度クラスタ部
3-2 階層型クラスタ部
DESCRIPTION OF
3-1 Similarity cluster part
3-2 Hierarchical cluster part
Claims (4)
2. The decision making system with a learning mechanism according to claim 1, wherein the behavior clustering unit updates clustering at regular intervals instead of performing clustering for each behavior. 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005358823A JP2007164406A (en) | 2005-12-13 | 2005-12-13 | Decision making system with learning mechanism |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005358823A JP2007164406A (en) | 2005-12-13 | 2005-12-13 | Decision making system with learning mechanism |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007164406A true JP2007164406A (en) | 2007-06-28 |
Family
ID=38247238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005358823A Pending JP2007164406A (en) | 2005-12-13 | 2005-12-13 | Decision making system with learning mechanism |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007164406A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6180289A (en) * | 1984-09-28 | 1986-04-23 | 株式会社東芝 | Image editing unit |
JP2010210245A (en) * | 2009-03-06 | 2010-09-24 | Nec Corp | Method, system, and program for calculating similarity degree of data |
JP2017034830A (en) * | 2015-07-31 | 2017-02-09 | ファナック株式会社 | Device and method for machine learning to learn connection point of ground line or shield wire, motor control device having machine learning device, and motor device |
JP2017034845A (en) * | 2015-07-31 | 2017-02-09 | ファナック株式会社 | Motor controller including flux control device, and machine learning device and method for the same |
JP2017034852A (en) * | 2015-07-31 | 2017-02-09 | ファナック株式会社 | Machine learning device to learn filter according to machine command, motor drive device having the same, motor drive system and machine learning method |
CN106411224A (en) * | 2015-07-31 | 2017-02-15 | 发那科株式会社 | Machine learning apparatus for learning gain optimization, motor control apparatus equipped with machine learning apparatus, and machine learning method |
JP2017046487A (en) * | 2015-08-27 | 2017-03-02 | ファナック株式会社 | Motor controller with flux control unit, and machine learning apparatus and method thereof |
JP2017070125A (en) * | 2015-09-30 | 2017-04-06 | ファナック株式会社 | Motor driving device with preventive maintenance function of fan motor |
JP2017099227A (en) * | 2015-11-27 | 2017-06-01 | ファナック株式会社 | Machine learning unit learning cleaning interval of fan motor, motor control system and machine learning method |
JP2017102613A (en) * | 2015-11-30 | 2017-06-08 | ファナック株式会社 | Machine learning device and method for optimizing smoothness of feeding of feed shaft of machine and motor control device having machine learning device |
JP2018140471A (en) * | 2017-02-28 | 2018-09-13 | ファナック株式会社 | Control device and machine learning device |
CN109213074A (en) * | 2017-06-30 | 2019-01-15 | 发那科株式会社 | control device and machine learning device |
JP2020509487A (en) * | 2017-02-20 | 2020-03-26 | オカド・イノベーション・リミテッド | Vending system and method for vending |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06274635A (en) * | 1993-03-23 | 1994-09-30 | Yamatake Honeywell Co Ltd | Clustering processor |
-
2005
- 2005-12-13 JP JP2005358823A patent/JP2007164406A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06274635A (en) * | 1993-03-23 | 1994-09-30 | Yamatake Honeywell Co Ltd | Clustering processor |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6180289A (en) * | 1984-09-28 | 1986-04-23 | 株式会社東芝 | Image editing unit |
JP2010210245A (en) * | 2009-03-06 | 2010-09-24 | Nec Corp | Method, system, and program for calculating similarity degree of data |
CN106411224A (en) * | 2015-07-31 | 2017-02-15 | 发那科株式会社 | Machine learning apparatus for learning gain optimization, motor control apparatus equipped with machine learning apparatus, and machine learning method |
US10416618B2 (en) | 2015-07-31 | 2019-09-17 | Fanuc Corporation | Machine learning apparatus for learning gain optimization, motor control apparatus equipped with machine learning apparatus, and machine learning method |
JP2017034852A (en) * | 2015-07-31 | 2017-02-09 | ファナック株式会社 | Machine learning device to learn filter according to machine command, motor drive device having the same, motor drive system and machine learning method |
CN106411210A (en) * | 2015-07-31 | 2017-02-15 | 发那科株式会社 | Motor control apparatus, machine learning apparatus and method therefor |
CN106411216A (en) * | 2015-07-31 | 2017-02-15 | 发那科株式会社 | Machine learning method and device, electric motor control apparatus and electric motor apparatus |
CN106409119A (en) * | 2015-07-31 | 2017-02-15 | 发那科株式会社 | Machine learning apparatus and method, motor drive apparatus and motor drive system |
US9977411B2 (en) | 2015-07-31 | 2018-05-22 | Fanuc Corporation | Motor control apparatus with magnetic flux controller and machine learning apparatus and method therefor |
JP2017034830A (en) * | 2015-07-31 | 2017-02-09 | ファナック株式会社 | Device and method for machine learning to learn connection point of ground line or shield wire, motor control device having machine learning device, and motor device |
CN106411210B (en) * | 2015-07-31 | 2018-09-11 | 发那科株式会社 | Control device of electric motor, rote learning devices and methods therefor |
JP2017034845A (en) * | 2015-07-31 | 2017-02-09 | ファナック株式会社 | Motor controller including flux control device, and machine learning device and method for the same |
US10338541B2 (en) | 2015-07-31 | 2019-07-02 | Fanuc Corporation | Machine learning to establish optimal filter for removing external noise without degrading responsivity |
CN106409119B (en) * | 2015-07-31 | 2019-04-12 | 发那科株式会社 | Rote learning device and method, motor drive and electric motor drive system |
CN106411216B (en) * | 2015-07-31 | 2018-10-23 | 发那科株式会社 | Learning by rote and its device, control device of electric motor and electronic device |
CN106487298A (en) * | 2015-08-27 | 2017-03-08 | 发那科株式会社 | Control device of electric motor, rote learning devices and methods therefor |
JP2017046487A (en) * | 2015-08-27 | 2017-03-02 | ファナック株式会社 | Motor controller with flux control unit, and machine learning apparatus and method thereof |
US9768716B2 (en) | 2015-08-27 | 2017-09-19 | Fanuc Corporation | Motor control apparatus provided with magnetic flux control unit, and machine learning apparatus and method thereof |
CN106487298B (en) * | 2015-08-27 | 2018-02-23 | 发那科株式会社 | Control device of electric motor, rote learning devices and methods therefor |
CN106961236A (en) * | 2015-09-30 | 2017-07-18 | 发那科株式会社 | Motor drive |
JP2017070125A (en) * | 2015-09-30 | 2017-04-06 | ファナック株式会社 | Motor driving device with preventive maintenance function of fan motor |
CN106961236B (en) * | 2015-09-30 | 2018-07-13 | 发那科株式会社 | Motor drive |
CN106814606A (en) * | 2015-11-27 | 2017-06-09 | 发那科株式会社 | Rote learning device, motor control system and learning by rote |
US9952574B2 (en) | 2015-11-27 | 2018-04-24 | Fanuc Corporation | Machine learning device, motor control system, and machine learning method for learning cleaning interval of fan motor |
JP2017099227A (en) * | 2015-11-27 | 2017-06-01 | ファナック株式会社 | Machine learning unit learning cleaning interval of fan motor, motor control system and machine learning method |
CN106815642A (en) * | 2015-11-30 | 2017-06-09 | 发那科株式会社 | Rote learning device and method and control device of electric motor |
JP2017102613A (en) * | 2015-11-30 | 2017-06-08 | ファナック株式会社 | Machine learning device and method for optimizing smoothness of feeding of feed shaft of machine and motor control device having machine learning device |
US9990590B2 (en) | 2015-11-30 | 2018-06-05 | Fanuc Corporation | Machine learning apparatus and method for optimizing smoothness of feed of feed axis of machine and motor control apparatus including machine learning apparatus |
JP2020509487A (en) * | 2017-02-20 | 2020-03-26 | オカド・イノベーション・リミテッド | Vending system and method for vending |
JP2018140471A (en) * | 2017-02-28 | 2018-09-13 | ファナック株式会社 | Control device and machine learning device |
CN109213074A (en) * | 2017-06-30 | 2019-01-15 | 发那科株式会社 | control device and machine learning device |
US10839317B2 (en) | 2017-06-30 | 2020-11-17 | Fanuc Corporation | Control device and machine learning device |
CN109213074B (en) * | 2017-06-30 | 2021-06-04 | 发那科株式会社 | Control device and machine learning device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007164406A (en) | Decision making system with learning mechanism | |
Januschowski et al. | Criteria for classifying forecasting methods | |
Raidl | Decomposition based hybrid metaheuristics | |
Sanchez et al. | Fuzzy granular gravitational clustering algorithm for multivariate data | |
Wang et al. | Developing a fuzzy TOPSIS approach based on subjective weights and objective weights | |
Dzyabura et al. | Machine learning and marketing | |
JP2006506702A (en) | Agent engine | |
CA2457715A1 (en) | Method and apparatus for data analysis | |
US20220253722A1 (en) | Recommendation system with adaptive thresholds for neighborhood selection | |
CN116431914A (en) | Cross-domain recommendation method and system based on personalized preference transfer model | |
Theocharous et al. | Reinforcement learning for strategic recommendations | |
Karabulut | Digital innovation: An antecedent for digital transformation | |
KR20050005592A (en) | A System of Web Information Prediction in Internet Environment Using Ensemble Support Vector Machine and A Methode Thereof | |
Bierwirth | Adaptive search and the management of logistic systems: Base models for learning agents | |
Diamantini et al. | Bayes vector quantizer for class-imbalance problem | |
Iqbal et al. | Intelligent multimedia content delivery in 5G/6G networks: a reinforcement learning approach | |
Aggarwal et al. | A comparative study of calibration methods for imbalanced class incremental learning | |
Ben Bouazza et al. | Collaborative clustering through optimal transport | |
WO2022166125A1 (en) | Recommendation system with adaptive weighted baysian personalized ranking loss | |
AU2021258019A1 (en) | Utilizing machine learning models to generate initiative plans | |
Stenudd | Using machine learning in the adaptive control of a smart environment | |
Patil et al. | Efficient processing of decision tree using ID3 & improved C4. 5 algorithm | |
Kashyap | Miracle of deep learning using IoT | |
Uysal | Advancement in computing: Implications for tourism and hospitality | |
Yuan et al. | Personalized visualization based upon wavelet transform for interactive software customization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100526 |