JP7192870B2 - 情報処理装置及びシステム、並びに、モデル適応方法及びプログラム - Google Patents
情報処理装置及びシステム、並びに、モデル適応方法及びプログラム Download PDFInfo
- Publication number
- JP7192870B2 JP7192870B2 JP2020547703A JP2020547703A JP7192870B2 JP 7192870 B2 JP7192870 B2 JP 7192870B2 JP 2020547703 A JP2020547703 A JP 2020547703A JP 2020547703 A JP2020547703 A JP 2020547703A JP 7192870 B2 JP7192870 B2 JP 7192870B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- condition
- reward
- state
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Medical Informatics (AREA)
- Feedback Control In General (AREA)
Description
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成する生成部と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる適応部と、
を備える。
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルと、所定の補正用モデルとを記憶する記憶部と、
前記第1のモデルに対して前記補正用モデルを用いて補正した第2のモデルを生成する生成部と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる適応部と、
を備える。
コンピュータが、
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成し、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる。
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成する処理と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる処理と、
をコンピュータに実行させる。
図1は、本実施の形態1にかかる情報処理装置1の構成を示すブロック図である。情報処理装置1は、所定のシステムの環境等の条件から、システムのユーザであるエージェントが取るべき行動を出力するためのモデルを生成及びモデルのパラメータの学習(適応)を行うためのコンピュータであり、学習装置ということもできる。尚、情報処理装置1は、2台以上のコンピュータにより構成されていてもよい。情報処理装置1は、生成部11と、適応部12とを備える。
本実施の形態2は、上述した実施の形態1の具体例である。本実施の形態2にかかる情報処理システムは、逐次的報酬学習部と、モデル補正部と、適応部と、記憶部とを備える。但し、逐次的報酬学習部と適応部とは共用可能である。また、記憶部は、少なくとも上述した第1のモデルと補正用モデルとを記憶するものであればよい。また、モデル補正部及び適応部は、少なくとも上述した生成部11及び適応部12と同様の機能を有するものであればよい。
a~π(a|r(s)) (式1)
π(a|s) := π(a|r(s,a)) (式2)
(式3)
(式4)
(式5)
p(s´|s,a)=p(s´|h(s,a)) (式6)
また、式6における右辺は、以下に示す式7のように定義できる。式7において、ZSは分配関数であり、ZS=ΣS´exp(hs´(s,a))である。
(式7)
(式8)
(式9)
(式10)
(式11)
(式12)
本実施の形態3は、上述した実施の形態1の具体例であり、上述した実施の形態2とは異なる態様の実施例である。本実施の形態3では、実施形態2と比べて、第1のモデルの全体を補正するのではなく、第1のモデルに含まれる評価基準(式)に対して補正を行うことで、より迅速に第2のモデルを生成するものである。また、本実施の形態3では、第1のモデルを複数の類似システムに展開する例について説明する。但し、本実施の形態3を類似システムが一つの場合に適用してもよい。
(式15)
(式16)
(式17)
(式18)
本実施の形態4は、上述した実施の形態3の改良例である。本実施の形態4において、前記生成部は、前記第1の条件と一部が異なる第4の条件に基づき運用される第4のシステムに適応させた第4のモデルに対して前記補正用モデルを用いて補正した第4のモデルを生成する。そして、前記適応部は、前記第4の条件に基づき運用される第4のシステムに、前記第4のモデルを適応させる。そして、前記情報処理装置は、前記適応部により適応させた前記第2のモデルと前記第4のモデルとの比較結果を出力する出力部をさらに備える。
本実施の形態5は、上述した実施の形態3又は4の応用例である。本実施の形態5は、自動運転システムに適用する場合である。一般に、生活道路における運転には、安全に対する基準が明確とはいえない。そこで、本実施の形態5は、生活道路における人間の運転履歴から自動車の運転動作を自律的に学習し、生活道路における自動運転を安全に実現することを目指すものである。以下では、特に、車線変更を対象とするものとする。
本実施の形態6は、上述した実施の形態3又は4の他の応用例である。本実施の形態6は、自動販売機のフェイスデータに適用する場合である。フェイスデータとは、例えば、飲料の自動販売機において、販売対象の飲料のサンブルの配置(段の位置や並び順)やラベル内容を示す情報である。ここで、自動販売機における売り上げの傾向は、設置場所の周辺環境、客層に加えて、フェイスデータの影響が大きいことが知られている。例えば、環境情報としては、ある自動販売機の隣に設置された他の自動販売機で取り扱う飲料の種類や数、その自動販売機が自社又は他社のものかが挙げられる。また、別の環境情報としては、近隣にコンビニエンスストアがあるか否か、設置場所が住宅地(マンション又は戸建)か商業地区、ビル内であれば階数とその階のオフィスの部署が挙げられる。一方で、自動販売機ごとに採用されるフェイスデータのパターンは、現場のルートマン(飲料の配達及び補充員)の経験に基づき、環境情報を加味した判断に一任されていることがほとんどである。そのため、自動販売機の売上は、ルートマンの熟練度(どのようなフェイスデータを採用するか)に依存することも知られている。
本実施の形態7は、上述した実施の形態3又は4の他の応用例である。本実施の形態7は、水道インフラストラクチャ(以下、水道インフラと記す。)に適用する場合である。水道インフラは、時間の経過や環境の変化に応じて見直すことが望まれる。例えば、水道インフラにおいて、人口減少や節水効果による水需要の減少や、施設や管路の老朽化に伴う更新コストを考慮した場合、水道インフラのダウンサイジングが必要になることもある。
ここで、水道インフラW2からW5は、水道インフラW1とは異なる地域又は将来のダウンサイジング対象の条件であるものとする。そこで、適応部330a等は、第2のモデルを水道インフラW2からW5に適応させることで、様々な地域又は条件における精度の高い制御を実現できる。
尚、上述した本実施の各形態は転移学習の一種ということができる。
(付記1)
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成する生成部と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる適応部と、
を備える情報処理装置。
(付記2)
前記適応部は、
前記第2のシステムに前記第2のモデルを用いて運用して得られた運用データを取得し、
前記取得した運用データを用いて前記第2のモデルを前記第2のシステムに適応させる
付記1に記載の情報処理装置。
(付記3)
前記生成部は、
前記第1のモデルに含まれる前記エージェントの行動を評価する評価基準に対して、前記補正用モデルを用いて補正する
付記1又は2に記載の情報処理装置。
(付記4)
前記生成部は、
前記評価基準のパラメータを補正する補正用パラメータを前記補正用モデルとして用いることにより、前記第2のモデルを生成する
付記3に記載の情報処理装置。
(付記5)
前記生成部は、
前記第2のシステムにおける運用データを用いて前記補正用モデルを算出し、
当該算出した補正用モデルを用いて、前記第1のモデルに対して補正を行うことにより前記第2のモデルを生成する
付記1又は2に記載の情報処理装置。
(付記6)
前記適応部は、
前記第1の条件及び前記第2の条件のいずれとも一部が異なる第3の条件に基づき運用される第3のシステムに、前記第2のモデルを適応させる
付記1乃至5のいずれか1項に記載の情報処理装置。
(付記7)
前記生成部は、
前記第1のモデルに対して、前記第2の条件に応じた第1の補正用モデルを用いて補正することにより前記第2のモデルを生成し、
前記第1のモデルに対して、前記第1の条件及び前記第2の条件のいずれとも一部が異なる第3の条件に応じた第2の補正用モデルを用いて補正することにより第3のモデルを生成し、
前記適応部は、
前記第3の条件に基づき運用される第3のシステムに、前記第3のモデルを適応させる
付記1乃至5のいずれか1項に記載の情報処理装置。
(付記8)
前記生成部は、
前記第1の条件と一部が異なる第4の条件に基づき運用される第4のシステムに適応させた第4のモデルに対して前記補正用モデルを用いて補正した第4のモデルを生成し、
前記適応部は、
前記第4の条件に基づき運用される第4のシステムに、前記第4のモデルを適応させ、
前記情報処理装置は、
前記適応部により適応させた前記第2のモデルと前記第4のモデルとの比較結果を出力する出力部をさらに備える
付記1乃至5のいずれか1項に記載の情報処理装置。
(付記9)
前記第1のモデルは、
前記特定の環境の状態を示す状態ベクトルと当該状態ベクトルで表される状態において前記特定のエージェントが行う行動とを対応付けた行動データを用いた逐次的報酬学習により生成されたポリシー関数及び報酬関数を含み、
前記報酬関数は、前記状態ベクトルの入力に対して、当該状態ベクトルで表される状態において得られる報酬を出力し、
前記ポリシー関数は、前記状態ベクトルを入力した際の前記報酬関数の出力値を入力として、当該状態ベクトルで表される状態において前記特定のエージェントが行うべき行動を出力する
付記1乃至8のいずれか1項に記載の情報処理装置。
(付記10)
前記第1のモデルは、
前記報酬関数に対応付けられた物理方程式、及び前記ポリシー関数に対応付けられ、所定の前記状態の確率分布を表すボルツマン分布に従う状態遷移確率をさらに含む、
付記9に記載の情報処理装置。
(付記11)
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルと、所定の補正用モデルとを記憶する記憶部と、
前記第1のモデルに対して前記補正用モデルを用いて補正した第2のモデルを生成する生成部と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる適応部と、
を備える情報処理システム。
(付記12)
前記適応部は、
前記第2のシステムに前記第2のモデルを用いて運用して得られた運用データを取得し、
前記取得した運用データを用いて前記第2のモデルを前記第2のシステムに適応させる
付記11に記載の情報処理システム。
(付記13)
コンピュータが、
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成し、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる
モデル適応方法。
(付記14)
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成する処理と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる処理と、
をコンピュータに実行させるモデル適応プログラムが格納された非一時的なコンピュータ可読媒体。
11 生成部
12 適応部
1000 情報処理システム
1000a 情報処理システム
1000b 情報処理システム
100 システムA
101 対象環境
102 エージェント
103 行動
104 状態
105 報酬関数
110 エキスパートデータセット
200 システムB
210 運用データセット
200a システムC
210a 運用データセット
200b システムD
210b 運用データセット
300 情報処理装置
300a 情報処理装置
300b 情報処理装置
301 CPU
302 メモリ
303 IF部
304 記憶装置
310 逐次的報酬学習部
320 モデル補正部
320a モデル補正部
330 適応部
330a 適応部
340 記憶部
341 条件A
342 モデルA
343 補正用モデル
343a 補正用モデル
344 条件B
345 モデルB
344a 条件C
345a モデルC
344b 条件D
345b モデルD
346 モデル適応プログラム
350 比較・出力部
C11 運転車両
C12 運転車両
C21 運転車両
C22 運転車両
C23 運転車両
C24 運転車両
C31 運転車両
C32 運転車両
V11 車両
V12 車両
V13 車両
V21 車両
V22 車両
V23 車両
V24 車両
V25 車両
V26 車両
V27 車両
V28 車両
V31 車両
V32 車両
V33 車両
h1-1 ケース
h1-2 ケース
h2-1 ケース
h2-2 ケース
h2-3 ケース
h2-4 ケース
h3-1 ケース
h3-2 ケース
F1 フェイスデータ群
F2 フェイスデータ群
F3 フェイスデータ群
F4 フェイスデータ群
F5 フェイスデータ
F6 フェイスデータ
F7 フェイスデータ
W1 水道インフラ
W2 水道インフラ
W3 水道インフラ
W4 水道インフラ
W5 水道インフラ
Claims (10)
- 特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成する生成部と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる適応部と、
を備え、
前記第1のモデルは、
前記特定の環境の状態を示す状態ベクトルと当該状態ベクトルで表される状態において前記特定のエージェントが行う行動とを対応付けた行動データを用いた逐次的報酬学習により生成されたポリシー関数及び報酬関数を含み、
前記報酬関数は、前記状態ベクトルの入力に対して、当該状態ベクトルで表される状態において得られる報酬を出力し、
前記ポリシー関数は、前記状態ベクトルを入力した際の前記報酬関数の出力値を入力として、当該状態ベクトルで表される状態において前記特定のエージェントが行うべき行動を出力する
情報処理装置。 - 前記適応部は、
前記第2のシステムに前記第2のモデルを用いて運用して得られた運用データを取得し、
前記取得した運用データを用いて前記第2のモデルを前記第2のシステムに適応させる
請求項1に記載の情報処理装置。 - 前記生成部は、
前記第1のモデルに含まれる前記エージェントの行動を評価する評価基準に対して、前記補正用モデルを用いて補正する
請求項1又は2に記載の情報処理装置。 - 前記生成部は、
前記評価基準のパラメータを補正する補正用パラメータを前記補正用モデルとして用いることにより、前記第2のモデルを生成する
請求項3に記載の情報処理装置。 - 前記生成部は、
前記第2のシステムにおける運用データを用いて前記補正用モデルを算出し、
当該算出した補正用モデルを用いて、前記第1のモデルに対して補正を行うことにより前記第2のモデルを生成する
請求項1又は2に記載の情報処理装置。 - 前記適応部は、
前記第1の条件及び前記第2の条件のいずれとも一部が異なる第3の条件に基づき運用される第3のシステムに、前記第2のモデルを適応させる
請求項1乃至5のいずれか1項に記載の情報処理装置。 - 前記生成部は、
前記第1のモデルに対して、前記第2の条件に応じた第1の補正用モデルを用いて補正することにより前記第2のモデルを生成し、
前記第1のモデルに対して、前記第1の条件及び前記第2の条件のいずれとも一部が異なる第3の条件に応じた第2の補正用モデルを用いて補正することにより第3のモデルを生成し、
前記適応部は、
前記第3の条件に基づき運用される第3のシステムに、前記第3のモデルを適応させる
請求項1乃至5のいずれか1項に記載の情報処理装置。 - 特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルと、所定の補正用モデルとを記憶する記憶部と、
前記第1のモデルに対して前記補正用モデルを用いて補正した第2のモデルを生成する生成部と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる適応部と、
を備え、
前記第1のモデルは、
前記特定の環境の状態を示す状態ベクトルと当該状態ベクトルで表される状態において前記特定のエージェントが行う行動とを対応付けた行動データを用いた逐次的報酬学習により生成されたポリシー関数及び報酬関数を含み、
前記報酬関数は、前記状態ベクトルの入力に対して、当該状態ベクトルで表される状態において得られる報酬を出力し、
前記ポリシー関数は、前記状態ベクトルを入力した際の前記報酬関数の出力値を入力として、当該状態ベクトルで表される状態において前記特定のエージェントが行うべき行動を出力する
情報処理システム。 - コンピュータが、
特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成し、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させ、
前記第1のモデルは、
前記特定の環境の状態を示す状態ベクトルと当該状態ベクトルで表される状態において前記特定のエージェントが行う行動とを対応付けた行動データを用いた逐次的報酬学習により生成されたポリシー関数及び報酬関数を含み、
前記報酬関数は、前記状態ベクトルの入力に対して、当該状態ベクトルで表される状態において得られる報酬を出力し、
前記ポリシー関数は、前記状態ベクトルを入力した際の前記報酬関数の出力値を入力として、当該状態ベクトルで表される状態において前記特定のエージェントが行うべき行動を出力する
モデル適応方法。 - 特定の環境及びエージェントを含む第1の条件に基づき運用される第1のシステムに適応させた第1のモデルに対して補正用モデルを用いて補正した第2のモデルを生成する処理と、
前記第1の条件と一部が異なる第2の条件に基づき運用される第2のシステムに、前記第2のモデルを適応させる処理と、
をコンピュータに実行させ、
前記第1のモデルは、
前記特定の環境の状態を示す状態ベクトルと当該状態ベクトルで表される状態において前記特定のエージェントが行う行動とを対応付けた行動データを用いた逐次的報酬学習により生成されたポリシー関数及び報酬関数を含み、
前記報酬関数は、前記状態ベクトルの入力に対して、当該状態ベクトルで表される状態において得られる報酬を出力し、
前記ポリシー関数は、前記状態ベクトルを入力した際の前記報酬関数の出力値を入力として、当該状態ベクトルで表される状態において前記特定のエージェントが行うべき行動を出力する
モデル適応プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/035858 WO2020065808A1 (ja) | 2018-09-27 | 2018-09-27 | 情報処理装置及びシステム、並びに、モデル適応方法及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020065808A1 JPWO2020065808A1 (ja) | 2021-08-30 |
JP7192870B2 true JP7192870B2 (ja) | 2022-12-20 |
Family
ID=69952937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020547703A Active JP7192870B2 (ja) | 2018-09-27 | 2018-09-27 | 情報処理装置及びシステム、並びに、モデル適応方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220036122A1 (ja) |
JP (1) | JP7192870B2 (ja) |
WO (1) | WO2020065808A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020069517A2 (en) * | 2018-09-30 | 2020-04-02 | Strong Force Intellectual Capital, Llc | Intelligent transportation systems |
JP7511379B2 (ja) | 2020-04-28 | 2024-07-05 | 株式会社マネーフォワード | 情報処理装置及びプログラム |
JP7521971B2 (ja) * | 2020-08-21 | 2024-07-24 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 制御システム、制御方法、制御装置及びプログラム |
JP2023012171A (ja) * | 2021-07-13 | 2023-01-25 | トヨタ自動車株式会社 | 車線変更支援装置 |
WO2023032044A1 (ja) * | 2021-08-31 | 2023-03-09 | 楽天グループ株式会社 | 不正検知システム、不正検知方法、及びプログラム |
WO2023144961A1 (ja) * | 2022-01-27 | 2023-08-03 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7399998B2 (ja) * | 2022-03-29 | 2023-12-18 | 本田技研工業株式会社 | 教師データ収集装置 |
KR102500534B1 (ko) * | 2022-06-02 | 2023-02-16 | 국민대학교산학협력단 | 순환신경망 기반 수자원 정보 생성 장치 및 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106466A (ja) | 2016-12-27 | 2018-07-05 | 株式会社日立製作所 | 制御装置及び制御方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11501042B2 (en) * | 2014-03-24 | 2022-11-15 | Imagars Llc | Decisions with big data |
US11308401B2 (en) * | 2018-01-31 | 2022-04-19 | Royal Bank Of Canada | Interactive reinforcement learning with dynamic reuse of prior knowledge |
WO2023054735A1 (ko) * | 2021-09-28 | 2023-04-06 | 주식회사 자가돌봄 | 분리 가능한 전이 학습 기반의 인공 신경망을 이용하는 시스템 및 방법 |
US20230368026A1 (en) * | 2022-05-11 | 2023-11-16 | Covid Cough, Inc. | Systems and methods for chained machine learning models for signal data signature labelling |
-
2018
- 2018-09-27 WO PCT/JP2018/035858 patent/WO2020065808A1/ja active Application Filing
- 2018-09-27 US US17/278,701 patent/US20220036122A1/en active Pending
- 2018-09-27 JP JP2020547703A patent/JP7192870B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106466A (ja) | 2016-12-27 | 2018-07-05 | 株式会社日立製作所 | 制御装置及び制御方法 |
Non-Patent Citations (2)
Title |
---|
TAYLOR, Matthew E. et al.,"Transfer Learning via Inter-Task Mappings for Temporal Difference Learning",Journal of Machine Learning Research [online],2007年,Volume 8,pp.2125-2167,[検索日 2018.12.19], インターネット:<URL: http://www.jmlr.org/papers/volume8/taylor07a/taylor07a.pdf> |
河野 仁 ほか,「ヘテロジーニアスな複数台自律エージェントによる階層的転移学習」,計測自動制御学会論文集,公益社団法人計測自動制御学会,2015年06月30日,第51巻, 第6号,pp.409-420,ISSN 0453-4654 |
Also Published As
Publication number | Publication date |
---|---|
US20220036122A1 (en) | 2022-02-03 |
WO2020065808A1 (ja) | 2020-04-02 |
JPWO2020065808A1 (ja) | 2021-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7192870B2 (ja) | 情報処理装置及びシステム、並びに、モデル適応方法及びプログラム | |
Milenković et al. | SARIMA modelling approach for railway passenger flow forecasting | |
Le et al. | Batch policy learning under constraints | |
US11803772B2 (en) | Quantum computing machine learning module | |
Corah et al. | Distributed matroid-constrained submodular maximization for multi-robot exploration: Theory and practice | |
US20200218999A1 (en) | Machine learning system | |
CN108564326B (zh) | 订单的预测方法及装置、计算机可读介质、物流系统 | |
US20200302322A1 (en) | Machine learning system | |
US20190019082A1 (en) | Cooperative neural network reinforcement learning | |
KR20220102395A (ko) | 자율주행 차량 군집 운행을 위한 비신호 교차로에서의 강화학습기반 통행 개선을 위한 장치 및 방법 | |
WO2021121354A1 (en) | Model-based deep reinforcement learning for dynamic pricing in online ride-hailing platform | |
EP3035314A1 (en) | A traffic data fusion system and the related method for providing a traffic state for a network of roads | |
Lhee et al. | Development of a two-step neural network-based model to predict construction cost contingency | |
US20210150388A1 (en) | Model estimation system, model estimation method, and model estimation program | |
KR20220111180A (ko) | 매장 수요 예측 모델의 하이퍼파라미터를 조절하는 기법 | |
Yalpır | Enhancement of parcel valuation with adaptive artificial neural network modeling | |
KR20220130945A (ko) | 물류 차량의 배차를 수행하는 장치, 방법 및 컴퓨터 프로그램 | |
JP7004074B2 (ja) | 学習装置、情報処理システム、学習方法、および学習プログラム | |
WO2021090413A1 (ja) | 制御装置、制御システム、制御方法及びプログラム | |
CN115311860A (zh) | 一种交通流量预测模型的在线联邦学习方法 | |
JP7044153B2 (ja) | 評価システム、評価方法および評価用プログラム | |
JP7081678B2 (ja) | 情報処理装置及びシステム、並びに、モデル適応方法及びプログラム | |
CN112947466B (zh) | 一种面向自动驾驶的平行规划方法、设备及存储介质 | |
WO2022006873A1 (en) | Vehicle repositioning on mobility-on-demand platforms | |
CN114118508A (zh) | 一种基于时空卷积网络的od市场航空客流量预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210312 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221121 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7192870 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |